Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google sheets + Gmail: granskning spårad och skickad

Rickard Andersson Partner, Nodenordic.se

Peer reviews faller isär i de tråkiga momenten. Inlämningar kommer in sent, granskare glömmer, bedömningsmatriser driver iväg och du slutar med att jaga folk med mejl som “kollar bara läget”.

Den här Sheets Gmail automation träffar lärare först, helt ärligt. Men L&D-chefer som kör utbildningskullar och ops-personer som samlar intern feedback känner samma friktion. Resultatet är enkelt: granskningsförfrågningar skickas automatiskt, poäng hamnar i Google Sheets och påminnelser går ut utan att du behöver sitta och vaka över processen.

Nedan ser du hur flödet går från inlämning till matris till mejl till ett levande kalkylark, plus vad du behöver för att sätta upp det.

Så fungerar den här automationen

Hela n8n-flödet, från trigger till slutlig output:

n8n Workflow Template: Google sheets + Gmail: granskning spårad och skickad

Problemet: peer reviews blir ett evigt uppföljningshjul

Att köra peer reviews låter enkelt tills du gör det i större skala. Inlämningar kommer in, du kopierar namn till ett ark, du tilldelar granskare, du klistrar in en bedömningsmatris i ett mejl och sedan väntar du. Och väntar. Under tiden frågar deltagare “fick du min granskning?” och intressenter vill ha en dashboard som alltid är uppdaterad. Det värsta är den mentala belastningen: hålla koll på vem som fortfarande är skyldig feedback, vilken version av matrisen som användes och om någon bedömer för hårt eller för snällt.

Det eskalerar snabbt. Här är var processen brukar fallera.

  • Manuell tilldelning av granskare blir 30 minuter av kalkylarks-trixande varje cykel.
  • Bedömningsmatriser redigeras i farten, så “konsekvent bedömning” blir en fin tanke i stället för verklighet.
  • Att jaga sena granskningar tar mer tid än att läsa arbetet, och påminnelserna känns alltid lite obekväma.
  • Poäng hamnar i mejltrådar eller slumpmässiga dokument, vilket gör att din dashboard alltid släpar efter.

Lösningen: tilldela, mejla, poängsätt och logga granskningar automatiskt

Det här flödet gör peer review till en enda, spårbar pipeline. Det startar när en inlämning kommer in via en webhook (ofta från ett formulär, en LMS eller en intern portal). Flödet mappar nyckelfälten, läser den inlämnade PDF:en och lämnar innehållet till en AI-granskningsagent för att skapa en strukturerad utvärdering och anteckningar i linje med bedömningsmatrisen. Därefter expanderar det granskarlistan, bygger en korrekt formaterad granskningsmall och skickar granskningsförfrågningar via Gmail. När granskare svarar räknar flödet ut poäng, lägger till resultaten i Google Sheets och håller en livevy av vad som är klart, vad som väntar och vad som närmar sig deadline. När det är dags genererar det även en rapport och mejlar ut den, samtidigt som det postar statusuppdateringar till era meddelandeverktyg.

Flödet börjar med en inkommande inlämning, sedan hjälper AI till att standardisera matrisen och utvärderingsanteckningarna. Gmail sköter utskicken och påminnelserna, Google Sheets blir er “single source of truth” och aviseringar håller teamet uppdaterat utan extra möten.

Det du får: automation vs. resultat

Exempel: så här ser det ut i praktiken

Säg att du kör en kull med 25 inlämningar och varje behöver 2 peer reviewers. Manuellt kan tilldelning av granskare (cirka 2 minuter per styck), att skicka 50 mejl (kanske 1 minut styck) och att logga resultat tillbaka i Google Sheets (ytterligare 1–2 minuter per granskning) lätt landa på runt 3 timmar, plus påminnelsejakt senare. Med det här flödet: du tar emot inlämningen en gång via webhook, Gmail-förfrågningar går ut automatiskt och poängen hamnar i arket när de kommer in. Du lägger mest tid på undantag, inte administration.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Gmail-konto för att skicka granskningsförfrågningar och påminnelser
  • Google Sheets för att lagra poäng och granskningsstatus
  • OpenAI- eller OpenRouter-API-nyckel (skapa den i din leverantörs dashboard)

Nivå: Medel. Du kopplar konton, klistrar in en API-nyckel och justerar ett par prompts och kalkylarkskolumner.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En inlämning triggar körningen. En inkommande webhook tar emot uppgiftsdetaljerna, sedan mappar n8n inlämningsfälten till en konsekvent struktur så att du slipper hantera stökiga indata.

PDF:en läses och sammanfattas för bedömning. Flödet läser inlämnings-PDF:en, sedan producerar en AI-agent strukturerad, matrisvänlig output som är enklare att poängsätta och enklare att granska i efterhand.

Kontakt med granskare sker automatiskt. Flödet expanderar din granskarlista, bygger en mejlmall för granskning, postar en avisering i era teamkanaler om du vill, och skickar granskningsförfrågan via Gmail.

Poäng räknas ut och lagras. När granskningar kommer in registrerar flödet resultaten, lägger till en rad i Google Sheets och kontrollerar vilka granskningar som fortfarande väntar så att påminnelser kan skickas när deadlines närmar sig.

Du kan enkelt modifiera rubric-prompten så att den matchar din bedömningsstil, eller byta vart aviseringar ska skickas (Teams, Discord, Slack) utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera webhook-triggern

Konfigurera inkommande inlämningar och schemabaserade kontroller för påminnelser om deadlines.

  1. Öppna Incoming Submission Webhook och ställ in Path till engineering-peer-eval, HTTP Method till POST och Response Mode till responseNode.
  2. Öppna Scheduled Automation Trigger och ställ in schemaregeln så att den körs var 24:e timme (fält: hours med hoursInterval = 24).
  3. Behåll Manual Start Trigger för ad hoc-testning och omkörningar.
Tips: Använd Manual Start Trigger medan ni bygger för att undvika att skicka skarpa aviseringar under konfigurationen.

Steg 2: Anslut Google Sheets

Konfigurera lagring och hämtning av betygsdata för väntande granskningar.

  1. Öppna Retrieve Pending Reviews och ställ in Document ID till [YOUR_ID] och Sheet Name till Peer Evaluations.
  2. I Retrieve Pending Reviews ställer ni in filtret till att status är lika med Pending Peer Review.
  3. Öppna Append Grading Sheet och ställ in Operation till append, Document ID till [YOUR_ID] och Sheet Name till Peer Evaluations.
  4. Bekräfta kolumnmappningar i Append Grading Sheet, till exempel ai_score till {{ $('Record Evaluation Results').item.json.total_score }} och technical_accuracy till {{ $('Record Evaluation Results').item.json.ai_evaluation.technical_accuracy }}.
  5. Autentisering krävs: Anslut era googleSheets-inloggningsuppgifter för både Retrieve Pending Reviews och Append Grading Sheet (inloggningsuppgifter är inte konfigurerade ännu).
⚠️ Vanlig fallgrop: Om kolumnnamnen i arket inte matchar de mappade nycklarna i Append Grading Sheet kommer tilläggningen att misslyckas. Justera rubrikerna exakt.

Steg 3: Konfigurera inlämningsintag och PDF-tolkning

Mappa inkommande webhook-fält och extrahera PDF-innehåll för AI-granskning.

  1. I Map Submission Fields mappar ni varje fält från webhook-body: student_id till {{ $json.body.student_id }}, assignment_file till {{ $json.body.assignment_file }}, course_code till {{ $json.body.course_code }}, assignment_title till {{ $json.body.assignment_title }}, peer_reviewers till {{ $json.body.peer_reviewers }} och deadline till {{ $json.body.deadline }}.
  2. I Read Submission PDF ställer ni in Binary Property Name till {{ $json.assignment_file }} så att PDF:en kan tolkas från den uppladdade filen.

Steg 4: Konfigurera AI-teknisk granskning

Konfigurera AI-agenten för att utvärdera inlämningar och tolka strukturerad output.

  1. Öppna AI Technical Review och behåll prompttexten som den är definierad, inklusive den inbäddade innehållsreferensen {{ $json.data }}.
  2. Säkerställ att OpenRouter Chat Engine är ansluten som språkmodell för AI Technical Review.
  3. Autentisering krävs: Anslut era openRouterApi-inloggningsuppgifter i OpenRouter Chat Engine (redan konfigurerat i workflowet).
  4. Bekräfta att Parse Structured Output är kopplad som output-parser för AI Technical Review. Lägg till inloggningsuppgifter (om det krävs) i den överordnade noden AI Technical Review, inte i parserns undernod.
Tips: Om AI-outputen inte går att tolka, verifiera att prompten avslutas med ”Format the response as structured JSON.”

Steg 5: Konfigurera utdata för granskningsuppgifter

Skapa utvärderingsposten, dela upp granskare och skicka aviseringar om tilldelning.

  1. I Record Evaluation Results ställer ni in ai_evaluation till {{ $json.output }}, evaluation_date till {{ $now.toISO() }} och total_score till {{ $json.output.total_score }}.
  2. I Expand Reviewer List ställer ni in Field To Split Out till peer_reviewers.
  3. I Build Review Template ställer ni in reviewer_email till {{ $json.peer_reviewers }} och behåller hela malltexten som definierad för evaluation_template.
  4. Record Evaluation Results skickar utdata till både Expand Reviewer List och Append Grading Sheet parallellt.
  5. Build Review Template skickar utdata till Post Teams Alert, Send Discord Alert och Dispatch Review Email parallellt.
  6. Autentisering krävs: Anslut era microsoftTeams-inloggningsuppgifter för Post Teams Alert (inte konfigurerat ännu).
  7. Autentisering krävs: Anslut era discord-inloggningsuppgifter för Send Discord Alert (inte konfigurerat ännu).
  8. Autentisering krävs: Anslut era emailSend-inloggningsuppgifter för Dispatch Review Email och ställ in From Email till [YOUR_EMAIL].
⚠️ Vanlig fallgrop: Om granskarnas e-postadresser inte är en lista kommer Expand Reviewer List inte att dela upp korrekt. Säkerställ att peer_reviewers är en array.

Steg 6: Konfigurera routning för deadlinepåminnelser

Skicka påminnelser när deadlines är inom 48 timmar och inte har passerat.

  1. I Filter Near Deadlines behåller ni villkoren för att kontrollera deadline-närhet: {{ new Date($json.deadline).getTime() - Date.now() }} är mindre än 172800000 och större än 0.
  2. Retrieve Pending Reviews skickar utdata till Filter Near Deadlines för att isolera poster som behöver påminnelser.
  3. Filter Near Deadlines skickar utdata till Teams Deadline Reminder, Discord Deadline Reminder och Email Deadline Reminder parallellt.
  4. Autentisering krävs: Anslut era microsoftTeams-inloggningsuppgifter för Teams Deadline Reminder (inte konfigurerat ännu).
  5. Autentisering krävs: Anslut era discord-inloggningsuppgifter för Discord Deadline Reminder (inte konfigurerat ännu).
  6. Autentisering krävs: Anslut era emailSend-inloggningsuppgifter för Email Deadline Reminder och ställ in From Email till [YOUR_EMAIL].
Tips: Uppdatera innehållet i påminnelsemeddelandet i Discord Deadline Reminder om ni vill inkludera granskarspecifika omnämnanden.

Steg 7: Konfigurera webhook-svar

Returnera en strukturerad bekräftelse till inlämningssystemet efter att aviseringar har skickats.

  1. I Return Webhook Reply ställer ni in Respond With till json och behåller svarsmallen för body som definierad.
  2. Verifiera att svarsbodyn refererar till värden som {{ $('Record Evaluation Results').item.json.student_id }} och {{ $('Expand Reviewer List').all().length }}.
  3. Säkerställ att Dispatch Review Email ansluter till Return Webhook Reply så att svaret returneras efter att aviseringar har skickats.

Steg 8: Testa och aktivera ert workflow

Validera varje flödesväg och slå på automatiseringen när ni är redo.

  1. Klicka på Execute WorkflowManual Start Trigger för att testa vägen för deadlinepåminnelser och bekräfta att påminnelsemeddelandena skickas.
  2. Skicka en test-POST-förfrågan till Incoming Submission Webhook med exempelfält och en PDF för att verifiera att Read Submission PDF och AI Technical Review genererar strukturerad output.
  3. Bekräfta lyckade körningar genom att kontrollera att en ny rad har skapats i arket Peer Evaluations från Append Grading Sheet och att aviseringar kommer från Post Teams Alert, Send Discord Alert och Dispatch Review Email.
  4. När ni är nöjda, aktivera workflowet med reglaget Active för att slå på Scheduled Automation Trigger för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Behörigheter i Google Sheets kan vara luriga. Om rader inte läggs till, kontrollera det anslutna Google-kontot, ID:t för målarket och om fliknamnet i arket har ändrats.
  • Om du använder Wait-logik eller förlitar dig på externa AI-svar varierar bearbetningstiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • AI-prompter som levereras “som de är” blir ofta intetsägande. Lägg till ditt matris-språk, poängankare och ett par exempelsvar tidigt, annars kommer du fortsätta skriva om utvärderingar för hand.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Sheets Gmail automation?

Cirka 45 minuter om ditt Gmail, Sheets och din API-nyckel är redo.

Behöver jag kunna koda för att automatisera peer review-spårning och mejl?

Nej. Du kopplar mest konton och redigerar några fält i klarspråk. Den enda “tekniska” delen är att kopiera in en API-nyckel i n8n.

Är n8n gratis att använda för det här Sheets Gmail automation-flödet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volymer. Du behöver också räkna in kostnader för OpenAI/OpenRouter API (ofta några cent per inlämning, beroende på PDF-längd).

Var kan jag hosta n8n för att köra den här Sheets Gmail automation?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och kör n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Sheets Gmail automation-flödet för peer reviews i flera rundor?

Ja, och det är en vanlig justering. Du kan lägga till ett fält “Runda” i noden Map Submission Fields och sedan justera raderna i Google Sheets så att rundstatus spåras separat. De flesta team anpassar också prompten AI Technical Review för att generera en något annorlunda matris per runda (först utkastfeedback, sedan striktare bedömning). Om du vill ha andra påminnelseregler, ändra logiken Filter Near Deadlines så att den använder förfallodatum per runda.

Varför misslyckas min Google Sheets-anslutning i den här Sheets Gmail automation?

Oftast beror det på behörigheter eller att kalkylarket har ändrats. Återanslut Google-kontot i n8n, bekräfta att kalkylarket och fliknamnet fortfarande matchar, och säkerställ att kontot kan redigera (inte bara visa). Om det bara fallerar ibland kan du slå i kvotgränser eller försöka skriva för många rader samtidigt.

Hur många inlämningar kan den här Sheets Gmail automation hantera?

Några hundra inlämningar per månad är realistiskt på enklare uppsättningar; egen hosting skalar längre om servern är rätt dimensionerad.

Är den här Sheets Gmail automation bättre än att använda Zapier eller Make?

Ofta ja, eftersom det här flödet inte bara är “skicka ett mejl och lägg till en rad”. Du läser PDF:er, genererar strukturerad matris-output med en AI-agent, har grenlogik för påminnelser och spårar status över tid i Google Sheets. n8n är byggt för den typen av flöden, och egen hosting undviker prissättning per uppgift när volymerna ökar. Zapier eller Make kan fortfarande passa för väldigt små kullar och enkel routning, men så fort du behöver rikare logik ökar kostnader och komplexitet. Om du vill ha en snabb rekommendation för din exakta setup, prata med en automationsexpert.

När det här väl rullar slutar peer reviews att vara ett veckovis kaos och blir ett stabilt system. Flödet sköter de repetitiva uppföljningarna, och du får en dashboard du faktiskt kan lita på.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal