Filtrer ressurser

Blogg

AI-sikkerhet i tre steg. 2: Detect

AI gir store muligheter, men introduserer også nye typer risiko som ikke fanges av tradisjonelle sikkerhetsrammer. For å håndtere dem må organisasjoner forstå både hvordan AI brukes, og når bruken blir kritisk. Når risikoene kan identifiseres og valideres, blir det mulig å prioritere riktig og beskytte der det faktisk gjelder.

4 minutters lesetid

Octavio Harén

CISO & Business Area Manager Cybersecurity, Conscia Sverige

Når AI-bruk blir en risiko, og hvordan du oppdager det i tide

I den første artikkelen fokuserte vi på discover, altså å skape innsyn i hvordan AI faktisk brukes i organisasjonen. Det er et nødvendig første steg, men det er ikke nok i seg selv.

Å oppdage AI-bruk er én ting. Å forstå når bruken blir risikofylt er noe helt annet.

Neste steg i reisen er detect, evnen til å se når AI-bruken passerer grensen fra legitim til risikabel, hvorfor det skjer og hva som må håndteres. Det er her mange organisasjoner står fast. De ser bruken, men mangler grunnlag for å vurdere hva som faktisk er trygt og hva som er problematisk.

AI-sikkerhet i tre steg. 1: Discover

Les mer

AI skaper risikoer som ikke passer i klassiske sikkerhetsrammer

Tradisjonell sikkerhet forholder seg til tydelige kategorier som sårbarheter, feilkonfigurasjoner, manglende tilgangskontroll og skadelig kode. AI oppfører seg annerledes. Risikoer oppstår ikke bare i infrastrukturen, men også i innhold, beslutninger og adferd. Risikoene ligger i selve interaksjonen, ikke bare i systemene rundt. I praksis må du derfor håndtere to parallelle risikoområder:

Risikoer knyttet til hva AI produserer og hvordan det brukes
  • Hallusinasjoner og feilaktige svar som fremstår troverdige
  • AI-bias og skjeve beslutninger for eksempel i vurdering og utvelgelse
  • Uønsket eller upassende innhold
  • Anbefalinger som skaper feil i forretning, sikkerhet eller compliance
  • Uønsket eller kostnadsdrivende bruk
Risikoer knyttet til hvordan AI kan utnyttes eller manipuleres
  • Prompt injection og indirekte instruksjoner skjult i data eller innhold
  • Dataeksfiltrering gjennom prompt, kontekst eller svar
  • Forsøk på å hente ut systeminstruksjoner og meta prompt
  • Data poisoning i trening eller ved oppdatering av databaser

Mange av disse risikoene fremstår ikke som tydelige hendelser. De utvikler seg gradvis, avhenger av kontekst og får ofte effekt over tid.

Risikovurdering krever kontekst

Det er ikke mulig å vurdere AI-risikoer basert på isolerte datapunkter eller kun nettverkstrafikk. For å kunne gjøre riktige vurderinger må organisasjonen forstå:

  • Hvem eller hva som interagerer med AI
  • Hvilken modell eller tjeneste som brukes
  • Hvilken type data som sendes inn
  • I hvilken sammenheng bruken skjer
  • Hva AI faktisk svarer eller gjør

Uten denne konteksten blir risikovurderingen enten for grov eller direkte feil. Alt kan fremstå som farlig, eller så overses det som faktisk betyr noe.

To kapasiteter som sammen gir innsikt

1: Løpende analyse av faktisk AI-bruk

Den første kapasiteten handler om kontinuerlig innsikt i hvordan AI brukes i praksis. Ikke for å granske hver prompt, men for å forstå mønstre, avvik og endringer over tid.

Dette gjør det mulig å:

  • Identifisere bruksmønstre som øker risiko
  • Skille normal bruk fra avvikende adferd
  • Se hvordan adferd endres når nye AI-tjenester tas i bruk

Analysen baserer seg på innsikt fra nettleser, nettverk, API kall og logging, koblet til identitet og rolle.

2: Aktiv validering av AI -risikoer ved hjelp av AI

Den andre kapasiteten handler om å teste AI-systemer aktivt. Klassisk Red Teaming skalerer dårlig for AI. Testene blir manuelle, avgrensede og raskt utdaterte, fordi AI-systemer endrer seg så raskt. AI Red Teaming betyr automatisert testing der modeller, applikasjoner og AI-agenter utsettes for et bredt spekter av angreps- og misbruksscenarier. Målet er å validere både innholdsrelaterte risikoer og sikkerhetsrisikoer, basert på hvordan AI faktisk brukes.

Dette gjør det mulig å:

  • Identifisere reelle sårbarheter, ikke bare teoretiske
  • Forstå hvor alvorlige risikoene er i praksis
  • Prioritere hvilke beskyttelsestiltak som faktisk trengs

Her brukes AI til å teste AI, i det omfanget som kreves for å holde tritt.

Når AI handler uten en menneskelig bruker

Risikovurdering må også fungere når det ikke finnes en menneske i loopen. Når AI brukes gjennom APIer, automatiserte prosesser eller AI-agenter må organisasjonen kunne følge:

  • Hvordan data brukes i inferens
  • Hvilke eksterne tjenester som kalles
  • Hvordan adferd utvikler seg over tid
  • Om beslutninger avviker fra det forventede

Når AI-agenter får større autonomi blir dette en forutsetning for styring.

Fra innsikt til beskyttelse, uten gjetning

Organisasjoner som går rett fra innsikt til blokkering gjør ofte de samme feilene. De stopper legitim bruk, overser reelle risikoer og innfører tiltak som ikke treffer. Når du har innsikt forsvinner gjettingen, og riktige tiltak kan settes inn der de faktisk trengs.

Når risikoer både kan identifiseres og valideres, blir det mulig å:

  • Skille lav risiko fra høy risiko
  • Tillate AI der det gir verdi
  • Rette beskyttelsen dit den har effekt

Organisasjoner uten detection gjetter. Organisasjoner med detection prioriterer

Neste steg: Protection

I neste artikkel ser vi på hvordan guardrails bygges teknisk og organisatorisk, basert på den risikoen som nå er kartlagt. Uten dette blir beskyttelsen basert på antakelser. Med dette på plass blir den både balansert, begrunnet og bærekraftig.

Om forfatteren

Octavio Harén

CISO & Business Area Manager Cybersecurity, Conscia Sverige

Octavio Harén er CISO i Conscia Sverige og leder for forretningsområdet cybersikkerhet. Han har over ti års erfaring innen IT‑infrastruktur og cybersikkerhet, med en unik kombinasjon av dyp teknisk ekspertise og strategisk sikkerhetsforståelse. Som CCIE Security og CISSP har han bistått både offentlige og private organisasjoner med å styrke digital motstandskraft. Han kombinerer teknisk innsikt med forretningsforståelse for å hjelpe kunder å skape trygg innovasjon i en tid preget av AI og nye trusselbilde.

Octavio Harén

CISO & Business Area Manager Cybersecurity, Conscia Sverige

Recent Blogg posts

Relatert

Ressurser