Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Groq till Google Sheets: bevisbara AI-säkerhetstester

Rickard Andersson Partner, Nodenordic.se

De flesta ”AI-säkerhetskontroller” är mest magkänsla. Någon testar ett par prompter, skärmdumpar en chatt och så skeppar ni ändå. Sedan slänger en användare in en jailbreak, en e-postadress eller en API-nyckel i ert flöde och plötsligt är ni i incidentläge.

Om du är produktansvarig och vill lansera en AI-funktion utan drama ger den här Groq Sheets-automationen för skyddsräcken dig en repeterbar godkänd/underkänd-logg du kan visa upp. Automationsingenjörer använder den som en säkerhetssele innan de kopplar agenter till riktiga system. Och compliance-inriktade team uppskattar att ha evidens samlat på ett ställe, inte utspritt i Slack-trådar.

Det här flödet kör nio riktiga skyddsräckestester, formaterar resultaten och lägger dem i Google Sheets. Du ser vad den fångar, vad den sanerar och hur du anpassar den efter era egna riskregler.

Så fungerar den här automationen

Hela n8n-flödet, från trigger till slutlig output:

n8n Workflow Template: Groq till Google Sheets: bevisbara AI-säkerhetstester

Problemet: AI-”säkerhet” som du inte kan bevisa

Team hanterar ofta AI-säkerhet som en checkruta i sista minuten. Ni testar några prompter, inget katastrofalt händer och funktionen går vidare. Men det stökiga dyker upp senare: en användare klistrar in persondata, någon försöker prompt injection, ett verktygsresultat innehåller en tveksam URL, eller en supportagent råkar dela inloggningsuppgifter i en chatt som ert flöde nu bearbetar. Den verkliga smärtan är att när ledningen frågar ”vilka skydd finns på plats?” har ni inget granskningsspår. Ni har anekdoter.

Friktionen eskalerar snabbt. Här är var det brukar fallera i vardagen:

  • Ni slutar med att testa om samma felcase vid varje release eftersom det saknas en standardiserad testsvit.
  • När något slinker igenom kan ni inte avgöra om skyddsräcket misslyckades eller om ingen körde det.
  • Manuella kontroller missar edge cases, särskilt för PII, hemligheter och maskerade jailbreak-prompter.
  • Resultaten hamnar i skärmdumpar och chattloggar, vilket gör rapportering till intressenter onödigt svår.

Lösningen: kör 9 skyddsräckestester och logga bevis i Sheets

Det här flödet gör AI-säkerhetstestning till ett repeterbart system du kan köra vid begäran. Du triggar det i n8n, och det laddar en uppsättning testfall (sådana som faktiskt visar fel, inte artiga demoprompter). Varje fall mappas till en standardstruktur och skickas sedan genom nio skyddsräckeskontroller: svordomar/nyckelord, jailbreak-försök, NSFW-innehåll, PII-detektering och rensning, detektering av hemliga nycklar, ämnesmatchning, URL-allowlisting, blockering av inloggningsuppgifter i URL:er och egna regex-regler. Till sist kompilerar flödet allt till en tydlig godkänd/underkänd-rapport som visar vad som flaggats och hur den sanerade texten ser ut. Idén är enkel: du får bevis, inte gissningar.

Flödet startar med en manuell körning och delar upp dina fall i separata poster. Därifrån utvärderas varje post av alla nio skyddsräcken parallellt, med Groq som chattmotor för LLM-baserad detektering där det behövs. Den sammanställda outputen är redo att loggas till Google Sheets så att du får en levande säkerhetsrapport du kan dela.

Det du får: automation vs resultat

Exempel: så här ser det ut

Säg att teamet gör ett snabbt säkerhets-smoke test före varje fredagsrelease. Manuellt innebär test av nio riskkategorier med ens 3 prompter vardera ungefär 25–30 prompter, och granskare lägger lätt 1–2 timmar på att dokumentera utfall och klistra in anteckningar i ett dokument. Med det här flödet klickar du på ”Test workflow”, det kör de nio skyddsräckena på de inkluderade fallen och du får en sammanställd rapport plus en Google Sheets-logg på några minuter. Du granskar fortfarande resultaten, men allt grovjobb är borta.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
  • Groq för snabb LLM-baserad detektering av skyddsräcken.
  • Google Sheets för att lagra en hållbar godkänd/underkänd-logg.
  • Groq API-nyckel (hämta den i din Groq-dashboard).

Kunskapsnivå: Medel. Du kopplar in credentials, redigerar testfall och förstår vad varje skyddsräcke kontrollerar.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En manuell körning startar testet. Du triggar flödet i n8n (praktiskt vid releaser, QA-cykler eller när du ändrar promptmallar).

Testfall paketeras och delas upp i poster. Flödet laddar en kurerad uppsättning ”riktiga fel”-inmatningar och delar sedan upp dem så att varje scenario utvärderas rent och konsekvent.

Nio skyddsräcken utvärderar varje fall. Nyckelordsfiltrering, jailbreak-skanning, NSFW-kontroller, PII-rensning, sekretess-/hemlighetsdetektering, ämnesmatchning, URL-regler och egna regex-mönster körs mot samma mappade fält. För LLM-baserade kontroller använder flödet Groq chattmotor.

Output kompileras för rapportering. Resultat formateras till en lättläst rapport (godkänd/underkänd med överträdelser och sanerad text) och kan loggas i Google Sheets så att du kan jämföra körningar över tid.

Du kan enkelt ändra testfallen så att de matchar produktens verkliga indata och justera trösklar för stramare eller mer tillåtande detektering utifrån era behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: konfigurera den manuella triggern

Konfigurera den manuella triggern som startar arbetsflödet och skickar vidare till nyttolasten med testdata.

  1. Lägg till och öppna Manual Launch Trigger.
  2. Lämna alla fält på standardvärdena (ingen konfiguration krävs).
  3. Säkerställ att Manual Launch Trigger är kopplad till Test Case Payload.

Steg 2: anslut Groq för guardrail-intelligens

Alla guardrail-noder använder en delad språmodellanslutning som tillhandahålls av Groq Chat Engine.

  1. Öppna Groq Chat Engine och ställ in Model till llama-3.3-70b-versatile.
  2. Inloggningsuppgifter krävs: Anslut era groqApi-inloggningsuppgifter.
  3. Bekräfta att Groq Chat Engine är kopplad som ai_languageModel för alla guardrail-noder (inga inloggningsuppgifter läggs till på själva guardrail-noderna).

Inloggningsuppgifter i OpenAI-stil används inte här. Språkmodellen tillhandahålls av Groq Chat Engine, så endast Groq API-inloggningsuppgiften krävs.

Steg 3: lägg till datasetet med testfall

Definiera hela uppsättningen testfall som ska utvärderas av guardrails.

  1. Öppna Test Case Payload och ställ in Mode till raw.
  2. Klistra in hela JSON:en i JSON Output exakt som den visas i arbetsflödet: { "test_cases": [ ... ] }.
  3. Säkerställ att Test Case Payload är kopplad till Split Case Records.

⚠️ Vanlig fallgrop: Om JSON:en inte är giltig eller om nyckeln på toppnivå inte är test_cases, kommer Split Case Records inte att ge ut några items.

Steg 4: dela upp och mappa varje fall

Dela upp arrayen i enskilda items och mappa fält till en konsekvent struktur för guardrails.

  1. Öppna Split Case Records och ställ in Field To Split Out till test_cases.
  2. Öppna Map Case Fields och lägg till tre tilldelningar:
  3. Ställ in case_number till ={{ $json.case }}.
  4. Ställ in test_input till ={{ $json.input }}.
  5. Ställ in description till ={{ $json.description }}.

Steg 5: konfigurera guardrails (parallell körning)

Varje guardrail utvärderar samma test_input. Dessa kontroller körs parallellt för hastighet och täckning.

  1. Bekräfta att Map Case Fields skickar ut till alla guardrail-noder parallellt: Guardrail 1 Keyword Filter, Guardrail 2 Jailbreak Scan, Guardrail 3 NSFW Check, Guardrail 4 PII Scrub, Guardrail 5 Secret Scan, Guardrail 6 Topic Match, Guardrail 7 URL Allowlist, Guardrail 8 Cred URL Block och Guardrail 9 Regex Rule.
  2. För varje guardrail-nod, ställ in Text till ={{ $json.test_input }}.
  3. Granska viktiga guardrail-inställningar:
  4. Guardrail 1 Keyword Filter: keywords satt till garbage, suck.
  5. Guardrail 2 Jailbreak Scan: threshold satt till 0.7.
  6. Guardrail 3 NSFW Check: threshold satt till 0.7.
  7. Guardrail 4 PII Scrub: type satt till all.
  8. Guardrail 5 Secret Scan: permissiveness satt till strict.
  9. Guardrail 6 Topic Match: prompt använder arbetsflödets automationsomfång och threshold satt till 0.7.
  10. Guardrail 7 URL Allowlist: allowedUrls är för närvarande (tomt).
  11. Guardrail 8 Cred URL Block: allowedUrls satt till https.
  12. Guardrail 9 Regex Rule: regex innehåller ORD-98765.

⚠️ Vanlig fallgrop: Guardrail 7 URL Allowlist har ett tomt allowedUrls-värde. Lägg till era godkända domäner, annars kan den flagga alla URL:er.

Map Case Fields skickar ut till alla guardrails parallellt, så ni kommer att se flera samtidiga körningar per testfall.

Steg 6: sammanställ guardrail-resultaten

Aggreggera och standardisera resultaten från varje guardrail-kontroll.

  1. Öppna Compile Guardrail Output och lägg till tilldelningar:
  2. Ställ in original_case till ={{ $('Map Case Fields').item.json.case_number }}.
  3. Ställ in original_input till ={{ $('Map Case Fields').item.json.test_input }}.
  4. Ställ in description till ={{ $('Map Case Fields').item.json.description }}.
  5. Ställ in guardrail_result till ={{ $json.passed ? '✅ PASSED' : '❌ FAILED' }}.
  6. Ställ in violations till ={{ $json.violations ? JSON.stringify($json.violations) : 'None' }}.
  7. Ställ in sanitized_text till ={{ $json.sanitizedText || 'N/A (Check mode)' }}.
  8. Bekräfta att varje guardrail-nod är ansluten till Compile Guardrail Output.

Steg 7: testa och aktivera ert arbetsflöde

Kör arbetsflödet manuellt för att validera guardrail-resultaten, och aktivera det sedan för löpande användning.

  1. Klicka på Execute Workflow för att köra Manual Launch Trigger.
  2. Verifiera att Split Case Records skickar ut ett item per testfall.
  3. Kontrollera Compile Guardrail Output för varje guardrail-resultat, inklusive guardrail_result, violations och sanitized_text.
  4. Om resultaten ser korrekta ut, slå på Active för att aktivera arbetsflödet för produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Sheets-credentials kan löpa ut eller kräva specifika behörigheter. Om något skapar fel, kontrollera först åtkomsten för det anslutna Google-kontot i n8n-credentials.
  • Groq API-begränsningar på gratisnivåer kan orsaka intermittenta fel när du kör många fall upprepade gånger. Om körningar börjar tajma ut, dra ned på testvolymen eller kör igen vid en lugnare tid.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet och era riskdefinitioner tidigt, annars kommer du fortsätta tveka på outputen.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Groq Sheets-automationen för skyddsräcken?

Cirka 30 minuter om dina Groq- och Google-credentials är klara.

Behöver jag kodningskunskaper för att automatisera Groq Sheets-skyddsräcken?

Nej. Du kopplar mest konton och redigerar testfallstexten. Om du kan copy/paste:a exempel och byta namn på några fält är det lugnt.

Är n8n gratis att använda för det här Groq Sheets-flödet för skyddsräcken?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Groq API-användning (gratisnivån räcker ofta för testning).

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Groq Sheets-flödet för skyddsräcken till mina egna chatbot-testfall?

Ja, och det bör du. Byt ut innehållet i noden ”Test Case Payload” (och hur det mappas i ”Map Case Fields”) till samma typer av indata som dina användare faktiskt skickar. Vanliga anpassningar är att lägga till egna förbjudna termer, skärpa ämnesmatchning och skapa regex-regler för interna identifierare som anställnings-ID eller ordernummer. Du kan också ta bort skyddsräcken du inte behöver, men ärligt talat behåller de flesta team PII- och hemlighetsskanning oavsett.

Varför misslyckas min Groq-anslutning i det här flödet?

Oftast är det ett API-nyckelproblem. Skapa en ny Groq API-nyckel, uppdatera credential i n8n och kör om ett testfall för att bekräfta. Det kan också vara rate limiting på gratisnivån, särskilt om du triggar flera körningar direkt efter varandra. Mindre vanligt, men verkligt: din self-hostade n8n-instans kan inte nå Groq-endpointen på grund av utgående brandväggsregler.

Hur många testfall kan den här Groq Sheets-automationen för skyddsräcken hantera?

Dussintals per körning är realistiskt för de flesta uppsättningar.

Är den här Groq Sheets-automationen för skyddsräcken bättre än att använda Zapier eller Make?

Ofta, ja. Det här flödet är inte bara ”skicka data från A till B”; det är en riktig testharness med förgreningar, flera kontroller, sammanställd output och möjlighet att self-host:a för skala och kontroll. Zapier och Make kan fungera, men komplex logik tenderar att bli skör och dyr när du lägger till fler steg och retries. n8n är också enklare att anpassa när du bestämmer dig för att bygga in enskilda skyddsräcken i produktionsflöden, inte bara köra en testsvit. Om du är osäker, prata med en automationsexpert och berätta vad du ska lansera.

Skyddsräcken hjälper bara om du kan köra dem konsekvent och peka på resultaten i efterhand. Sätt upp detta en gång, behåll Sheet:et som ert underlag och lansera med betydligt mindre gissningar.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal