Blog
Cisco Live EMEA 2026
Cisco Live EMEA 2026 gjorde én ting klart: AI er ikke længere et eksperiment eller et sideprojekt - det er et grundvilkår for, hvordan infrastruktur designes, drives og skaleres. Læs Conscias CTO's blog fra Cisco Live Amsterdam 2026.
Cisco Live EMEA 2026 gjorde én ting klart: AI er ikke længere et eksperiment eller et sideprojekt – det er et grundvilkår for, hvordan infrastruktur designes, drives og skaleres.
Her er mine vigtigste observationer fra årets Cisco Live, som jeg ligeledes præsenterede tidligere i dag, til Conscias Cisco Live Highlights event. Se webinaret on demand her.
For dem, der arbejder tæt med Cisco-teknologi, er Cisco Live årets vigtigste faglige samlingspunkt. Konferencen afholdes globalt; Europa om vinteren, USA om sommeren og Australien om efteråret. Over fem intensive dage kombineres produktlanceringer, tekniske deep dives og arkitekturdrøftelser med reel dialog mellem kunder, partnere og Cisco.
Det er samtidig her, retningen bliver tydelig – og i år var retningen entydig.
All in på AI
Cisco er all in på AI. Det var gennemgående fra keynotes til de mest tekniske DevNet-sessions. AI Infrastructure, Agentic, AgenticOps og automatisering fyldte markant.
Det interessante er ikke, at AI fylder. Det interessante er konsekvenserne.
AI inference og AI training kan køre både on-prem og i cloud. Uanset hvor beregningen placeres, vil AI-agenter ændre belastningsmønstret i netværket fundamentalt. Det handler ikke kun om flere brugere. Det handler om specialiserede agenter, maskine-til-maskine-kommunikation og kontinuerlig aktivitet, også uden for normal arbejdstid.
Et campus-netværk vil fremover kunne have betydelig trafik, selv når bygningen er tom. Det stiller krav til båndbredde, latency, deterministisk performance og lokal compute-kapacitet ved edge.
Tidskritiske AI-processer kan ikke altid tåle roundtrips til en fjern cloud-region. Edge computing bliver derfor en central arkitekturkomponent.
Cisco positionerer sig fra AI-klar infrastruktur i datacenter og campus til AI-Pods, compute-platforme og unified edge-arkitektur. Samtidig udbygges styrings- og operationsværktøjer som Nexus One, Intersight og Cisco Cloud Control.
Det er i praksis en full stack-tilgang til AI-infrastruktur.
Hastighed som konkurrenceparameter
Et gennemgående ord i flere keynotes var speed.
Cisco har internt øget tempoet i produktudvikling og release-cyklusser, og budskabet var klart: Organisationer, der ikke øger forandringshastigheden, risikerer at blive hægtet af.
AI ændrer ikke kun workloads. Den ændrer forventninger til time to value.
Det betyder, at mange organisationer bør se kritisk på governance-modeller, change-processer, automatiseringsgrad og kompetenceudvikling. Langsom infrastruktur bliver derfor et forretningsproblem.
Tillid som forudsætning
Den største barriere for AI-adoption er ikke teknologi. Det er tillid.
LLM’er og agenter skal levere konsistente og pålidelige svar. Hallucinationer og uforudsigelig adfærd underminerer beslutningskraften.
Samtidig opstår nye risikoscenarier:
Hvad sker der, når en agent kan manipuleres gennem prompt-injektion eller social engineering?
Det handler ikke kun om at forbedre modellerne, det handler om at etablere kontrolmekanismer omkring dem. Cisco adresserer dette med AI Defense, hvor sikkerhed lægges rundt om modellen og ikke overlades til modellen alene.
AI kræver arkitekturmæssig disciplin.
Talent bliver vigtigere
Der blev sendt et tydeligt signal til de tekniske miljøer:
AI erstatter ikke dyb teknisk forståelse. Den forstærker den.
Certificeringer som CCIE og CCDE repræsenterer fortsat tung arkitekturforståelse. Det bliver ikke mindre relevant i en AI-kontekst – det bliver mere relevant. Læringskurven bliver stejlere, og kompetenceopdatering bliver en kontinuerlig disciplin.
Performance per Watt
En interessant detalje i præsentationen af ny hardware var fokus på energieffektivitet som performance-metrik, og på firewall-platforme blev der angivet Gbps protected per W. Det er ikke blot grøn kommunikation. Det er et reelt arkitekturparameter.
AI-workloads er energitunge. Effektivitet bliver derfor en konkurrencefaktor, både økonomisk og bæredygtighedsmæssigt.
Leverandørkæder og realiteter
Selv de største aktører mærker pres på leverandørkæderne. RAM, SSD’er og specialiserede komponenter til AI-datacentre er under pres, og der forventes prisstigninger og længere leveringstider – særligt på serverplatforme.
På netværkssiden ser situationen aktuelt mere stabil ud. Det understreger behovet for planlægning og kapacitetsstrategi. AI-initiativer kan ikke improviseres ind i infrastrukturen.
Konklusion
- Cisco taler meget om AI, men fundamentet er fortsat robust og skalerbar infrastruktur. Forskellen er, at belastningsmønstret ændrer sig hurtigere end tidligere.
- AI stiller højere krav til netværk, latency, edge-kapacitet, sikkerhedsarkitektur og operations-modeller.
- Organisationer, der vil udnytte AI’s potentiale, skal begynde i infrastrukturen.
Relateret