Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Drive till Google Sheets: samtalssammanfattningar

Rickard Andersson Partner, Nodenordic.se

Ni har inspelningarna. Ni vet att det finns insikter i dem. Men ingen har tid att lyssna igenom varje supportsamtal, skriva anteckningar och göra “vi borde följa upp det där” till något som teamet faktiskt agerar på.

Supportchefer märker det först. Sedan spiller det över på vardagen för operationsansvariga och byråägare som driver kundsamtal. Den här call summary automation förvandlar råa ljudfiler i Google Drive till felfria, sökbara samtalssammanfattningar i Google Sheets och pingar Telegram när sentimentet går åt fel håll.

Nedan ser du hur arbetsflödet körs, vad det ersätter och hur team använder det för att fånga problem tidigt utan att lägga till ännu en “snälla uppdatera kalkylarket”-process.

Så här fungerar automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: Google Drive till Google Sheets: samtalssammanfattningar

Utmaningen: att göra något av samtalsinspelningar

Supportsamtal är fulla av signal: invändningar, buggar, konkurrentomnämnanden, “vi kanske lämnar,” och de små detaljerna som förklarar varför ärenden fortsätter att komma tillbaka. Problemet är formatet. Ljud är svårt att skumma, lätt att glömma och nästan omöjligt att trendanalyssera utan att någon gör manuellt efterarbete efter varje samtal. Så kön växer. En chef lyssnar på ett par “viktiga” samtal, någon annan skriver fragmentariska anteckningar, och resten ligger bara i Google Drive tills det är för sent att göra något vettigt med det.

Det blir snabbt mycket. Här är var det havererar i verkliga team.

  • Folk undviker samtalsgranskning eftersom en inspelning på 30 minuter kan bli en timme av att pausa, spola tillbaka och anteckna.
  • Åtgärdspunkter försvinner i Slack-flödet eller i någons privata anteckningsbok, så uppföljningar sker sent eller inte alls.
  • Sentiment gissas utifrån minnet, vilket gör att den “tyst arga kunden” ofta glider igenom.
  • Även när anteckningar finns är de inte strukturerade, så du kan inte filtrera på ämne, avdelning, agent eller konto.

Lösningen: Google Drive-ljud → AI-sammanfattning → Google Sheets-logg + Telegram-varningar

Det här arbetsflödet kör tyst i bakgrunden och hanterar hela loopen åt dig. Enligt schema kontrollerar det en specifik Google Drive-mapp efter nya samtalsinspelningar, laddar ner filer det inte har sett tidigare och skickar ljudet till en transkriberingstjänst (via en HTTP-förfrågan till ElevenLabs API). När det har text formaterar det transkriptet till en läsbar dialog med flera talare så att analysen blir mer pålitlig. Sedan gör ett AI-analyssteg (Google Gemini i den här mallen) om transkriptet till strukturerad JSON: vem som pratade, vad samtalet handlade om, kundens sentiment och en tydlig lista med åtgärdspunkter. Till sist lägger arbetsflödet till allt i ett Google Sheet och triggar rätt Telegram-meddelande baserat på sentiment. Därefter flyttas ljudfilen till en “Processed”-mapp så att den inte hanteras två gånger.

Flödet börjar med schemalagd övervakning i Google Drive. Därifrån omvandlar transkribering och AI-analys rörigt ljud till konsekventa fält som du kan filtrera och rapportera på. Sista steget är operativt: Google Sheets blir sanningskällan, och Telegram gör att negativa samtal inte behöver vänta på en veckogenomgång.

Vad som förändras: före vs. efter

Effekt i praktiken

Säg att ditt team spelar in 20 supportsamtal per vecka och att någon stickprovsgranskar 10 av dem för kvalitet. Om varje granskning tar cirka 30 minuter att lyssna plus kanske 10 minuter att anteckna blir det ungefär 7 timmar i veckan. Med det här arbetsflödet lägger du ett par minuter på att bekräfta att Drive-mappen och Sheetet är rätt inställda, sedan sköter schemat resten. Du gör fortfarande stickprov på inspelningar vid behov, men du börjar från en sammanfattning, sentiment och åtgärdslista, så granskningar blir “verifiera och coacha” istället för “leta och transkribera”.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google Drive för att lagra supportsamtalsinspelningar.
  • Google Sheets för att logga sammanfattningar och åtgärdspunkter.
  • Telegram för chefslarm och beröm till teamet.
  • ElevenLabs API-nyckel (hämta den i din ElevenLabs-dashboard).

Svårighetsgrad: Medel. Du kopplar konton, klistrar in några ID:n (Drive-mapp, Sheet, Telegram-chatt) och testar med en inspelning.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Arbetsflödet steg för steg

En schemalagd kontroll körs automatiskt. Arbetsflödet startar på en timer (till exempel var 5:e minut) så att du inte behöver att någon “drar igång det”. Det skannar en specifik Google Drive-mapp efter nya inspelningar.

Ljud hämtas och transkriberas. Nya filer laddas ner från Drive och skickas sedan via en HTTP-förfrågan till transkriberingstjänsten (ElevenLabs). Det transkript som kommer tillbaka rensas upp till ett dialogformat så att nästa steg kan tolka vem som sa vad.

AI gör om transkriptet till strukturerade fält. Gemini-analysen instrueras att returnera konsekvent JSON: agentnamn, kundnamn, en kort sammanfattning, ämne, avdelningstagg, sentiment och en lista med åtgärdspunkter. Ett parsersteg validerar strukturen så att raden i Google Sheet förblir pålitlig.

Resultat loggas och rätt personer notifieras. En ny rad läggs till i Google Sheets (sammanfattning, åtgärder och fullständigt transkript). Sedan avgör sentiment-routingen: negativt går till en Telegram-grupp för chefer, positivt skickar beröm till teamets kanal. Till sist arkiveras ljudet till en “Processed”-mapp i Google Drive.

Du kan enkelt ändra analysfälten (till exempel lägga till “competitor_mentioned”) för att matcha det som ledningsgruppen vill följa upp. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera schedule-triggern

Konfigurera arbetsflödet så att det körs automatiskt enligt ett schema, så att nya ljudfiler från samtal upptäcks regelbundet.

  1. Lägg till och öppna Scheduled Start Signal.
  2. I Rule ställer ni in Intervalminutes och minutesInterval1.
  3. Koppla Scheduled Start Signal till Locate New Call Audio för att starta filsökningen när schemat triggas.

Steg 2: anslut Google Drive för ljudintag och arkivering

I det här steget lokaliseras nya samtalsinspelningar, ljudbinärer laddas ned och bearbetade filer flyttas senare till en arkivmapp.

  1. Öppna Locate New Call Audio och ställ in Search Method till query med Query String satt till mimeType = 'audio/wav'.
  2. Välj Drive som My Drive och ställ in Folder till er inspelningsmapp (t.ex. Company - Support Call Recordings).
  3. Behörighet krävs: Anslut era googleDriveOAuth2Api-uppgifter i Locate New Call Audio, Fetch Audio Binaries och Archive Processed Audio.
  4. I Fetch Audio Binaries ställer ni in Operation till download och File ID till ={{ $json.id }}.
  5. I Archive Processed Audio ställer ni in Operation till move och File ID till ={{ $('Fetch Audio Binaries').item.json.id }}, och väljer sedan er arkivmapp (t.ex. Processed Audio).

Steg 3: transkribera och formatera ljudet

I det här steget skickas ljudet till ElevenLabs för transkribering och transkriptet omstruktureras till en läsbar dialog per talare.

  1. Öppna Transcribe Speech API och ställ in URL till https://api.elevenlabs.io/v1/speech-to-text och Method till POST.
  2. Ställ in Content Type till multipart-form-data och mappa file från Binary Data Field data.
  3. Konfigurera body-parametrar för diarization: ställ in diarize till true och model_id till scribe_v1.
  4. Behörighet krävs: Anslut era httpHeaderAuth-uppgifter i Transcribe Speech API.
  5. Öppna Format Dialogue Transcript och behåll Mode som runOnceForEachItem. Klistra in den JavaScript-kod som tillhandahålls för att bygga formattedTranscript från transkriberingen.

Steg 4: konfigurera AI-analys och strukturerad utdata

Använd Gemini för att analysera transkriptet och tvinga fram ett strikt JSON-svar med utdata-parsern.

  1. Öppna Conversation Insight Agent och ställ in Text till =Analyze the following support call transcript according to the system instructions.\n\n---\n{{ $json.formattedTranscript }}\n---.
  2. I Conversation Insight Agent bekräftar ni att Prompt Type är define och att Has Output Parser är aktiverat.
  3. Öppna Structured Result Parser och behåll JSON-schemaexemplet för validering av utdata.
  4. Behörighet krävs: Anslut era googlePalmApi-uppgifter i Gemini Chat Engine.
  5. Bekräfta att Gemini Chat Engine är ansluten som språkmodell till Conversation Insight Agent, och att Structured Result Parser är ansluten som utdata-parser. Behörigheter ska läggas till i Gemini Chat Engine, inte i parsern.

Steg 5: logga resultat till Google Sheets och routa efter sentiment

Lägg till de strukturerade insikterna i ett kalkylark och routa notifieringar baserat på sentiment.

  1. Öppna Append Call Log och ställ in Operation till append.
  2. Välj målarket: Document Call Recording Process Results och Sheet Name Logs.
  3. Mappa kolumnvärden med uttryck, till exempel Topic till ={{ $json.output.call_topic }} och Recording Filename till ={{ $('Fetch Audio Binaries').item.json.name }}.
  4. Använd den tillhandahållna fullständiga transkript-ersättningen för Fulltext: ={{ $('Format Dialogue Transcript').item.json.formattedTranscript.replaceAll($json.output.speaker_identification.agent,$json.output.speaker_identification.agent_name.toLowerCase()=='not mentioned' ? 'Agent' : $json.output.speaker_identification.agent_name).replaceAll($json.output.speaker_identification.client,$json.output.speaker_identification.client_name.toLowerCase()=='not mentioned' ? 'Client' : $json.output.speaker_identification.client_name) }}.
  5. Behörighet krävs: Anslut era googleSheetsOAuth2Api-uppgifter i Append Call Log.
  6. Öppna Route by Client Sentiment och säkerställ att båda reglerna jämför Client Sentiment med ={{ $('Conversation Insight Agent').item.json.output.client_sentiment }} mot Negative och Positive.

⚠️ Vanlig fallgrop: Kolumnen och Telegram-meddelandet använder Agnent (felstavat). Om ert ark eller meddelande förväntar sig Agent, uppdatera fältnamnet konsekvent i Append Call Log och Send Team Kudos.

Steg 6: konfigurera notifieringar och parallell bearbetning

Efter loggning förgrenas arbetsflödet parallellt för att arkivera filer och notifiera team baserat på sentiment.

  1. Bekräfta att Append Call Log skickar utdata till både Archive Processed Audio och Route by Client Sentiment parallellt.
  2. Öppna Notify Managers Alert och behåll meddelandemallen som använder uttryck som {{ $('Conversation Insight Agent').item.json.output.summary }}.
  3. Ställ in Chat ID i Notify Managers Alert till er kanal-/användar-ID för chefer (ersätt [YOUR_ID]).
  4. Öppna Send Team Kudos och ställ in Chat ID till er kanal-/användar-ID för teamet.
  5. Behörighet krävs: Anslut era telegramApi-uppgifter i Notify Managers Alert och Send Team Kudos.

Steg 7: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att bekräfta att varje steg bearbetar ljud, genererar insikter, loggar resultat och skickar notifieringar korrekt.

  1. Klicka på Execute Workflow för att köra från Scheduled Start Signal och verifiera att Locate New Call Audio hittar minst en audio/wav-fil.
  2. Kontrollera att Transcribe Speech API returnerar ett JSON-svar med words och att Format Dialogue Transcript ger ut formattedTranscript.
  3. Bekräfta att Conversation Insight Agent ger ut strukturerad JSON och att Append Call Log lägger till en ny rad i arket Logs.
  4. Verifiera att Notify Managers Alert eller Send Team Kudos triggas baserat på sentiment-routningen och att Archive Processed Audio flyttar filen.
  5. När ni är nöjda växlar ni arbetsflödet till Active för att köra enligt schema i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp med

  • Behörigheter för Google Drive och Google Sheets misslyckas ofta utan tydliga fel. Om rader slutar skrivas, kontrollera först din Google OAuth-scope och statusen för n8n-inloggningen.
  • Om du bearbetar stora ljudfiler kan transkriberingen ta längre tid än väntat. När efterföljande steg kör på ett tomt transkript, öka vänt-/timeout-beteendet i HTTP Request-inställningen.
  • Telegram-chatt-ID:n blandas ihop hela tiden, särskilt mellan privata grupper och kanaler. Testa larm med ett negativt samtal och bekräfta att meddelandet hamnar rätt innan du litar på det.

Vanliga frågor

Hur snabbt kan jag implementera den här call summary automation?

Cirka en timme om din Google Drive-mapp och ditt Google Sheet är redo.

Kan icke-tekniska team implementera den här call summary automation?

Ja. Du kommer mest att koppla konton och klistra in ID:n för Drive-mapparna, Sheetet och två Telegram-chattar.

Är n8n gratis att använda för det här arbetsflödet för call summary automation?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för ElevenLabs-transkribering och eventuell Gemini/OpenAI-användning som du aktiverar.

Var kan jag hosta n8n för att köra den här call summary automation?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger obegränsat antal körningar men kräver grundläggande serveradministration.

Hur anpassar jag den här call summary automation-lösningen till mina specifika utmaningar?

Det kan du. Den enklaste spaken är Gemini-prompten som definierar JSON-strukturen, eftersom den styr vad som extraheras till Google Sheets. Vanliga justeringar är att lägga till nycklar som “competitor_mentioned”, dela upp sentiment i “client_sentiment” och “agent_sentiment”, eller tagga samtal per produktlinje för rapportering. Om du vill ha realtidsbearbetning, byt ut Schedule Trigger mot en Webhook Trigger och skicka in inspelningar när de skapas.

Varför misslyckas min Google Drive-anslutning i det här arbetsflödet?

Oftast handlar det om OAuth-behörigheter eller en utgången Google-inloggning i n8n. Anslut Google-kontot igen, bekräfta att det har åtkomst till både Drive och Sheets, och dubbelkolla att du klistrade in rätt mapp-ID:n (många råkar ta fel). Om det fortfarande misslyckas, titta i körhistoriken för att se om nedladdningssteget för filen returnerar tom binärdata.

Vilken kapacitet har den här call summary automation-lösningen?

I en självhostad n8n beror kapaciteten mest på din server och hur lång tid transkriberingen tar per fil.

Är den här call summary automation bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här arbetsflödet tjänar på tyngre logik och strukturerad parsning. n8n hanterar binärdata (ljudfiler), AI-bearbetning i flera steg och routning baserat på sentiment utan att bli en labyrint av betalda “tasks”. Du kan också självhosta, vilket är hjälpsamt när samtalsvolymen sticker iväg. Zapier eller Make kan fortfarande fungera om ni redan är där, men ljudhantering och långkörande exekveringar kan bli känsliga. Om du tvekar, prata med en automationsexpert så mappar vi det mot er volym och era verktyg.

När detta väl är på plats slutar inspelningarna vara en kyrkogård och blir i stället ett system. Arbetsflödet tar hand om det repetitiva, och du kan lägga din uppmärksamhet på de samtal som faktiskt behöver dig.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal