Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Requesty + Google Sheets: GDPR-säkra AI-modelloggar

Rickard Andersson Partner, Nodenordic.se

Ditt team börjar använda AI, och plötsligt kan ingen svara på en grundläggande fråga: ”Vilken modell hanterade det här kundmeddelandet?” Du letar i chattverktyg, halvfärdiga promptar och utspridda loggar. Sedan nämner någon GDPR och helt ärligt blir det tyst i rummet.

Den här uppsättningen för Requesty model logs träffar först Marketing Ops (eftersom de äger arbetsflödena), men byråansvariga och produktteam märker det också när kunder ber om en spårbar audit trail. Resultatet är enkelt: varje AI-förfrågan kan routas via Requestys EU-infrastruktur, och varje vald modell skrivs till Google Sheets för strukturerad rapportering.

Nedan ser du hur arbetsflödet fungerar, vad det ersätter och hur du kör det i ett ”snabbsetup”-läge eller i helt dynamiskt läge med modellupptäckt och en live-uppdaterad rullista.

Så fungerar den här automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: Requesty + Google Sheets: GDPR-säkra AI-modelloggar

Utmaningen: bevisa vilken AI-modell som gjorde vad

AI-verktyg sprider sig snabbt i en verksamhet. En person använder en inbäddad chatbot, en annan kör promptar via ett internt formulär och någon annan testar en ny modell ”bara för den här kampanjen”. En månad senare kan du inte återskapa vad som hände. Vilken modell producerade resultatet, vilken region processade förfrågan och vad förändrades när resultaten plötsligt blev sämre? Manuell spårning låter enkelt tills det är fredag eftermiddag, arket är inaktuellt och du försöker svara på en kunds compliance-fråga med skärmdumpar.

Det eskalerar snabbt. Här är var det brukar fallera i riktiga team:

  • Modellval sker ad hoc, så output varierar och ingen vet varför.
  • Auditförfrågningar blir en brandkårsutryckning eftersom loggar ligger utspridda i för många verktyg.
  • Om en modell blir otillgänglig byter någon manuellt och glömmer att dokumentera ändringen.
  • GDPR-granskningar blir svårare när du inte kan visa konsekvent routing och en enkel logg över behandlingsbeslut.

Lösningen: routa via Requesty, logga modellen i Sheets

Det här n8n-arbetsflödet ger dig två sätt att köra GDPR-säkrare AI-förfrågningar via Requesty och samtidigt behålla en tydlig, hållbar logg i Google Sheets. I den enkla varianten pekar du n8n-noden OpenAI Chat Model mot Requestys OpenAI-kompatibla endpoint och är klar på några minuter. I den avancerade varianten anropar arbetsflödet Requesty för att upptäcka tillgängliga modeller, uppdaterar en rullista i ett n8n-formulär, sparar den valda modellen i Google Sheets och använder sedan det sparade valet för nästa AI-completion. När någon frågar ”vilken modell användes?” har du en enda källa till sanning, inte muntlig kunskap.

Arbetsflödet startar antingen med en manuell uppdatering (för att hämta aktuell modellista) eller med att ett modellväljar-formulär skickas in. Därifrån sparas den valda modellen i Google Sheets. När ett chattmeddelande kommer in laddar n8n den sparade modellen och skickar förfrågan via Requesty med ett HTTP-anrop eller den inbyggda chattmodell-noden (beroende på vilket upplägg du väljer). Till sist formateras svaret och skickas tillbaka till användaren.

Vad som förändras: före vs. efter

Effekt i verkligheten

Säg att ditt team kör cirka 30 AI-assisterade chattar per dag för leadkvalificering, support-svar och interna copy-granskningar. Utan automatisering är det vanligt att lägga 5 minuter per konversation bara på att bekräfta ”vilken modell använde vi?” eller uppdatera en notis någonstans, alltså ungefär 2,5 timmar overhead varje dag. Med det här arbetsflödet fångas modellvalet en gång via väljarformuläret (cirka 1 minut), och sedan läser varje chatt automatiskt det valet och loggar det. Du väntar fortfarande på AI-svaret, men spårningsarbetet försvinner i praktiken.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Requesty för att routa AI-förfrågningar via EU-infrastruktur
  • Google Sheets för att lagra auditloggen över vald modell
  • Requesty API-nyckel (hämta den i din Requesty-dashboard)

Kunskapsnivå: Medel. Du kopplar in credentials och klistrar in en endpoint-URL, samt uppdaterar vid behov ett Google Sheet-ID och behörigheter.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Arbetsflödet steg för steg

En uppdatering av modellistan startar allt. När du kör den manuella triggern anropar n8n Requestys API för att hämta aktuellt utbud av tillgängliga modeller, och expanderar samt mappar sedan datan till en användbar lista.

Arbetsflödet uppdaterar ditt valgränssnitt. Det slår ihop modellistan med arbetsflödesdefinitionen och uppdaterar sedan valen i rullistan i n8n-formuläret så att teamet väljer bland det som faktiskt är tillgängligt just nu.

En modell väljs och skrivs till Google Sheets. När någon skickar in formuläret ”Model Picker” rensar arbetsflödet det gamla valet och lagrar den nya aktiva modellen i ett sheet (en enkel, auditvänlig loggpost).

Chattförfrågningar använder den sparade modellen automatiskt. När ett chattmeddelande kommer in laddar n8n aktuell modell från Google Sheets, skickar completion-förfrågan via Requesty (HTTP Request eller OpenAI Chat Model-noden) och formaterar samt returnerar svaret.

Du kan enkelt ändra lagringsformatet i Google Sheets för att spara mer kontext (användare, tidsstämpel, use case) utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den manuella triggern

Det här arbetsflödet startar med en manuell körning för att uppdatera rullgardinsalternativen innan användare väljer en modell.

  1. Lägg till noden Manual Start Trigger som startpunkt.
  2. Koppla Manual Start Trigger till både Fetch Workflow Definition och Retrieve Model List så att de körs samtidigt.

Manual Start Trigger skickar utdata parallellt till både Fetch Workflow Definition och Retrieve Model List.

Steg 2: Anslut Google Sheets

Google Sheets lagrar den valda modellen och tillhandahåller den aktiva modellen för chattförfrågningar.

  1. I Clear Old Choice, ställ in Operation till clear, Sheet Name till Current_Model och Document ID till [YOUR_ID].
  2. I Store Model Choice, ställ in Operation till appendOrUpdate, Sheet Name till Current_Model och Document ID till [YOUR_ID].
  3. I Load Current Model, ställ in Sheet Name till Current_Model och Document ID till [YOUR_ID].
  4. Autentisering krävs: Anslut era Google Sheets-inloggningsuppgifter i Clear Old Choice, Store Model Choice och Load Current Model.

⚠️ Vanlig fallgrop: Om ni lämnar [YOUR_ID] oförändrat kommer alla tre Google Sheets-noder att misslyckas.

Steg 3: Sätt upp pipelinen för uppdatering av modellistan

Den här delen hämtar tillgängliga modeller, mappar deras ID:n och uppdaterar formulärets rullgardinslista i själva arbetsflödet.

  1. I Retrieve Model List, ställ in URL till https://router.requesty.ai/v1/models?provider=coding.
  2. I Expand Model Records, ställ in Field to Split Out till data och Include till allOtherFields.
  3. I Map Model Identifiers, skapa ett strängfält med namnet id med värdet {{ $json.data.id }}.
  4. I Fetch Workflow Definition, ställ in Operation till get och Workflow ID till {{ $workflow.id }}.
  5. Koppla Fetch Workflow Definition och Map Model Identifiers till Combine Inputs, och routa sedan vidare till Refresh Dropdown Choices.
  6. I Apply Workflow Update, ställ in Operation till update, Workflow ID till {{ $json.id }} och Workflow Object till {{ JSON.stringify($json) }}.

Kodnoden Refresh Dropdown Choices skriver automatiskt om rullgardinsalternativen i Model Picker Form, så att ni slipper redigera formuläret manuellt.

Steg 4: Konfigurera formulär för modellval och lagring

Det här formuläret låter användare välja en modell och lagrar den sedan som aktiv modell i Google Sheets.

  1. I Model Picker Form, ställ in Form Title till Select AI Model.
  2. I Assign Chosen Model, ställ in ett strängfält med namnet model till {{ $json.fieldName }}.
  3. Koppla Assign Chosen ModelClear Old ChoiceStore Model Choice för att säkerställa att arket bara innehåller det senaste valet.

Steg 5: Sätt upp chattintag och AI-completion

Den här vägen läser den valda modellen och begär ett svar från AI router-API:et.

  1. Koppla Chat Intake till Load Current Model, och vidare till Read Active Model för att föra vidare det lagrade modellvärdet.
  2. I Read Active Model, ställ in ett strängfält med namnet model till {{ $json.model }}.
  3. I Request AI Completion, ställ in URL till https://router.requesty.ai/v1/chat/completions och Method till POST.
  4. I Request AI Completion, ställ in JSON Body till { "model": "{{ $json.model }}", "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "{{ $('Chat Intake').item.json.chatInput }}" } ], "max_tokens": 200, "temperature": 0.7 }.
  5. I Pull AI Reply, ställ in ett strängfält med namnet content till {{ $json.choices[0].message.content }}.
  6. I Format Output Text, behåll return-mappningen så att text skickas ut från $json.content.
  7. Autentisering krävs: Anslut era HTTP Header Auth-inloggningsuppgifter i Request AI Completion (Authorization-headern använder Bearer {{ $credentials.requestyApi.apiKey }}).
  8. OpenAI Chat Engine är ansluten som språkmodell för AI Agent Helper — säkerställ att autentiseringsuppgifter läggs in i OpenAI Chat Engine, inte i agent-noden.

⚠️ Vanlig fallgrop: Om modellen som lagras i Google Sheets är tom kommer Request AI Completion att misslyckas eftersom {{ $json.model }} blir tomt.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett fullständigt test för att säkerställa att uppdatering av rullgardinslistan, modellvalet och AI-svarsvägen fungerar hela vägen.

  1. Klicka på Execute WorkflowManual Start Trigger och bekräfta att Apply Workflow Update slutförs utan fel.
  2. Öppna webhook-URL:en för Model Picker Form och skicka in ett modellval; verifiera att Store Model Choice skriver till arket Current_Model.
  3. Trigga Chat Intake och bekräfta att Format Output Text returnerar ett text-svar.
  4. När allt fungerar, slå på arbetsflödet till Active för att möjliggöra löpande användning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp med

  • Google Sheets-credentials kan gå ut eller kräva specifika behörigheter. Om det slutar fungera, kontrollera n8n:s Credentials-test och bekräfta först att sheetet är delat med servicekonto-e-postadressen.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram fallerar på tomma svar.
  • Requesty API-anrop kan misslyckas utan tydlig feltext om Authorization-headern saknas eller råkar kopieras med extra mellanslag. Kontrollera headers i HTTP Request-noden och verifiera att endpointen är https://router.requesty.ai/v1.

Vanliga frågor

Hur snabbt kan jag implementera den här automatiseringen för Requesty model logs?

Cirka 5 minuter för den enkla varianten, närmare ett par timmar för versionen med dynamisk rullista.

Kan icke-tekniska team implementera den här modelloggningen?

Ja, men de behöver en person som är bekväm med att koppla credentials. Efter det är valet av aktiv modell bara att skicka in ett formulär.

Är n8n gratis att använda för det här arbetsflödet för Requesty model logs?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna med Requesty-användning och kostnaderna för underliggande modeller, som varierar mellan leverantörer.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serverhantering.

Hur anpassar jag den här Requesty model logs-lösningen till mina specifika utmaningar?

Börja med att utöka vad du sparar i Google Sheets. Steget ”Store Model Choice” kan skriva extra kolumner som tidsstämpel, beställare, use case och till och med ett ”orsak”-fält från Model Picker-formuläret. Om du föredrar en databas kan du byta ut Google Sheets-noderna mot Postgres eller Airtable och behålla samma koncept för ”Load Current Model”. Och om du inte behöver dynamisk upptäckt kan du hoppa över grenen ”Retrieve Model List” och bara hårdkoda en kort godkänd lista i formuläret.

Varför misslyckas min Requesty-anslutning i det här arbetsflödet?

Oftast handlar det om Authorization-headern eller en inaktuell API-nyckel. Skapa en ny nyckel i Requesty, uppdatera HTTP Request-credentialn i n8n och bekräfta att du anropar https://router.requesty.ai/v1 (inte en kopierad variant). Om nyckeln är okej, kontrollera om den valda modellen är tillgänglig just nu, eftersom det dynamiska arbetsflödet fortfarande kan lagra en modell som senare försvinner. Rate limits kan också visa sig som intermittenta fel när du batchar många chattar samtidigt.

Vilken kapacitet har den här Requesty model logs-lösningen?

Om du kör n8n med egen hosting finns ingen exekveringsgräns utöver serverns kapacitet, så den skalar med CPU och minne. I n8n Cloud beror kapaciteten på din plans månatliga antal körningar. Det här arbetsflödet är lätt per körning (en Sheets-läsning, en AI-förfrågan, ett svar), så de flesta små team kan köra det hela dagen utan att behöva tänka på det.

Är den här automatiseringen för Requesty model logs bättre än att använda Zapier eller Make?

För det här användningsfallet: oftast ja. Du hanterar dynamisk modellupptäckt, villkorslogik och ett beständigt ”aktuell modell”-tillstånd, vilket blir klumpigt i många tvåstegsverktyg. n8n låter dig också köra med egen hosting, vilket spelar roll när du vill ha hårdare kontroll över exekvering och datahantering. Zapier eller Make kan fungera om du bara behöver ”skicka prompt, logga svar”, men uppdateringen av rullistan och delen med modellstyrning är där det brukar kännas skört. Prata med en automationsexpert om du vill ha en snabb rekommendation.

När modellvalet är styrt och loggat blir compliance-samtalen mycket mindre stressiga. Sätt upp det, behåll arket och gå vidare till arbete som faktiskt spelar roll.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal