Många pratar om AI inom cybersäkerhet, men få visar hur man faktiskt gör.
Vill du starta och testa en avancerad AI-modell för cybersäkerhet direkt på din egen dator? Här visar vi dig hur du enkelt utan molntjänster, licenser eller AI-plattformar startar en Foundation-sec-8B, en öppen språkmodell från Cisco, specifikt tränad för att förstå säkerhetskontext, analysera loggar, förklara attacker och generera rekommendationer.
Testa. Kör lokalt med GPU-stöd i en labbmiljö, utan att något skickas utanför den lokala maskinen. Och det bästa? Det tar bara 30 minuter att komma igång!
🤖 Varför göra detta?
AI inom säkerhet är inte längre framtid. Det är nu. Men det finns några återkommande hinder:
- Vi vill inte skicka känsliga loggar, e-post eller incidentdata till molnet.
- Många modeller är generella, inte tränade på säkerhetsspecifik data.
- Verktygen känns tunga, svårkonfigurerade eller “för mycket hype”.
Det här är motsatsen:
En lokalt körbar, säkerhetsoptimerad, öppen AI-modell som du kan använda direkt i webbläsaren, utan kod, på en vanlig dator.
🖥️ Vad du behöver
- En Windows 11-dator med WSL2 (Windows Subsystem for Linux).
- Ett NVIDIA-grafikkort med minst 12 GB VRAM.
- En vilja att testa något nytt 😎
🚀 Steg för steg: Så här gör du
1: Installera WSL2 med Ubuntu
Öppna PowerShell som administratör och kör: wsl --install Ubuntu --name AI-Demo
Starta Ubuntu från Start-menyn och välj användarnamn och lösenord.
2: Verifiera att din GPU syns i Linux
När du är inne i Ubuntu: nvidia-smi
Du bör se information om ditt grafikkort. Om inte: dubbelkolla att du har rätt NVIDIA-drivrutiner för WSL installerade.
3: Förbered din miljö
sudo apt update && sudo apt upgrade -y
sudo apt install -y git python3 python3-pip python3-venv python3-virtualenv
4: Ladda ner gränssnittet text-generation-webui för AI-modeller
cd ~
git clone https://github.com/oobabooga/text-generation-webui.git
cd text-generation-webui
5: Skapa en Python-miljö
python3 -m venv venv
source venv/bin/activate
6: Starta WebUI:t
./start_linux.sh
När du får frågan om backend – välj NVIDIA.
7: Öppna i webbläsaren
Surfa till: http://127.0.0.1:7860/
Du har nu ett eget ChatGPT-liknande gränssnitt, helt lokalt!
8: Ladda ner modellen Foundation-sec-8B
Klicka på ”Model” i gränssnittet och välj: fdtn-ai/Foundation-Sec-8B
Den laddas automatiskt från Hugging Face.
9: Testa modellen
Skriv något i stil med: ”What are common indicators of phishing in email headers?”
Eller:
”Explain MITRE ATT&CK technique T1059 and how to detect it.”
10: Se att din GPU används
I ett separat terminalfönster: watch -n1 nvidia-smi
Du bör se att python dyker upp när du kör en promp, då används GPU:n.
🛡️ Varför är detta intressant?
- Du kör en AI-modell tränad specifikt för cybersäkerhet.
- Allt körs lokalt och inget skickas till molnet.
- Du får kontroll över dina data, vilket är avgörande för säkerhet och efterlevnad.
- Du får möjlighet att experimentera med reella analystasks, som logganalys, rapportgenerering och phishingbedömning.
🧩 Use case man kan tänka sig
Modellen kan:
- Analysera phishingmail och headers.
- Förklara loggar och händelser från t.ex. Splunk.
- Bedöma misstänkta domäner i en threat intelligence-rapport.
- Generera sammanfattningar av incidenter snabbt och säkert.
- Hjälpa SOC och IR med åtgärdsförslag och beslutsunderlag.
Allt detta utan att data lämnar din dator.
🏁 Vad krävs för att ta det här till produktion?
Det här är en fantastisk start, men också bara början.
För att operationalisera detta i din organisation krävs:
- Val av rätt modell (och ev. kvantisering för din GPU).
- Integration med t.ex. SIEM, CTI och loggkällor.
- Promptdesign och kontrollmekanismer för att säkerställa kvalitet.
- Roller, rättigheter och säker driftmiljö (on-prem, edge eller air-gapped).
🤝 Vi hjälper dig vidare
Vi på Conscia har redan testat, brutit, förbättrat och integrerat.
Vi kan hjälpa dig:
- Komma igång med egna use case.
- Sätta upp modellen i rätt miljö.
- Optimera körning för GPU och lagring.
- Använda modellen tillsammans med SOC, Splunk, EDR, m.m.
Vill du börja litet och konkret eller skala upp från dag ett?
Vi är med dig hela vägen.
🧩 Nästa steg?
Vill du koppla detta till Splunk, ServiceNow, eller använda modellen i ett automatiserat workflow? Det går. Vill du köra den kvantiserad för att spara VRAM? Det går också.
Och vill du ha hjälp att ta det här till produktion så hör av dig. Vi på Conscia vet hur man går från demo till verklig nytta.
Hur kan vi hjälpa dig?