Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Deepgram till Google Docs: samtalssammanfattningar klara

Rickard Andersson Partner, Nodenordic.se

Samtalsanteckningar är där bra intentioner dör. Någon spelar in ett samtal, någon annan ”ska sammanfatta det senare”, och sedan hamnar transkriptionen i en mapp som ingen öppnar.

Teamledare inom kundsupport känner smärtan först. En podcastproducent tvingas lyssna om för att hitta ett enda citat. Och drifts-/ops-chefer fastnar i att jaga åtgärdspunkter. Den här automatiseringen för Deepgram Google Docs gör rått ljud till ett felfritt, sökbart dokument som du faktiskt kan dela.

Nedan ser du hur flödet körs i n8n, vad det producerar (Docs + JSON + e-post) och vad du ska se upp med när du sätter det i produktion.

Så fungerar automatiseringen

Hela n8n-workflowen, från trigger till slutresultat:

n8n Workflow Template: Deepgram till Google Docs: samtalssammanfattningar klara

Problemet: Sammanfattningar av samtal är inkonsekventa och svåra att hitta

Ljud är värdefullt, men det är ett uselt ”system of record”. Ett enda kundsamtal kan innehålla invändningar, funktionsönskemål, nästa steg och riskflaggor, men de flesta team behandlar inspelningen som en svart låda. Någon måste ladda ner filen, ladda upp den till ett transkriberingsverktyg, kopiera texten till ett dokument och sedan skriva en sammanfattning som är ”tillräckligt bra”. Nästa vecka minns ingen var den sparades, och samma frågor ställs igen. Under tiden missas uppföljningar eftersom åtgärdspunkter inte fångades i ett konsekvent format.

Det byggs upp snabbt. Så här fallerar det i verkligheten.

  • Inspelningar lagras i Google Drive, men innehållet och kontexten förblir inlåst i ljudet.
  • Manuella sammanfattningar varierar mellan personer, så du kan inte jämföra samtal över en vecka med säkerhet.
  • Att hitta ”det där enda ögonblicket” innebär att du måste skrolla i tidslinjer igen, vilket bränner en timme när du har minst råd.
  • Åtgärdspunkter hamnar i Slack-trådar eller någons anteckningsbok, vilket gör överlämningen rörig.

Lösningen: Deepgram-transkribering + AI-analys till Google Docs

Den här n8n-workflowen gör ett inspelat samtal till ett delningsklart Google-dokument – automatiskt. Den startar när en ljudfil laddas upp (eller spelas in i ett enkelt webbläsargränssnitt som skickar in filen). Workflowen laddar ner ljudet, skickar det till Deepgram för transkribering och bearbetar den JSON som kommer tillbaka så att den blir strukturerad och återanvändbar. Sedan gör en AI-agent (med en OpenAI-chatmodell i n8n) transkriptionen till en felfri analys: sammanfattning, nyckelpunkter, åtgärdspunkter och talarbaserade insikter. Till sist skapar och uppdaterar workflowen ett Google-dokument, sparar JSON-transkriptionen tillbaka till Drive, flyttar ljudet till en mapp för färdiga filer och kan skicka en e-postnotis så att teamet vet att allt är klart.

Workflowen börjar med en uppladdningstrigger (Google Drive-trigger eller inkommande webhook). Deepgram tar fram en transkription, n8n formar om den, och AI-agenten skriver den ”människovänliga” versionen. Google Drive och Google Docs blir navet, så resultatet är lätt att hitta och lätt att dela.

Vad du får: Automatisering vs. resultat

Exempel: Så här ser det ut

Säg att ditt team kör 10 kundsamtal i veckan. Manuellt ser ett okej upplägg ut så här: 5 minuter för att ladda ner/ladda upp ljud, 10 minuter för att få ordning på transkriptionen och sedan cirka 45 minuter för att skriva en användbar sammanfattning och åtgärdspunkter. Det är ungefär 10 timmar i veckan. Med den här automatiseringen laddar du upp en gång (cirka 2 minuter), väntar på att transkribering och AI blir klara (ofta 10–20 minuter i bakgrunden) och får ett delningsklart Google-dokument plus JSON sparat i Drive. Din aktiva arbetstid går ner till nästan noll.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Deepgram för tal-till-text-transkribering och metadata.
  • Google Drive för att lagra ljudfiler och JSON-utdata.
  • Google Docs för att skapa och lagra det delbara sammanfattningsdokumentet.
  • OpenAI API-nyckel (hämta den i din OpenAI-dashboard) för AI-analysen och sammanfattningarna.

Kunskapsnivå: Medel. Du kopplar in behörigheter, klistrar in API-nycklar och gör ett par val av mappar och dokument-ID:n i Google Drive/Docs.

Vill du inte sätta upp det här själv? Prata med en automationsspecialist (gratis 15-minuters konsultation).

Så fungerar det

En ljudfil kommer in. Workflowen kan starta från en Google Drive-filtrigger, eller från ett webbläsarbaserat inspelningsgränssnitt som skickar ljud via inkommande webhooks. Oavsett tar n8n hand om filen och spårar uppladdningen så att inget försvinner.

Ljudet transkriberas och struktureras. n8n laddar ner det uppladdade ljudet och skickar det till Deepgram via en HTTP-förfrågan. JSON-svaret extraheras, konverteras till en felfri struktur (med code + set/mapping-steg) och förbereds för vidare analys.

AI gör transkriptionen användbar. En AI-agent orkestrerar analysen med en OpenAI-chatmodell och en parser för strukturerad output, vilket hjälper till att hålla sammanfattningar konsekventa. Här får du det ”delningsbara” lagret: nyckelpunkter, åtgärdspunkter, talarspecifika noteringar och en läsbar berättelse.

Resultaten hamnar i Google Drive och Google Docs. Workflowen skapar ett Google-dokument, uppdaterar det med formaterat innehåll och flyttar det till rätt Drive-mapp. Den konverterar också transkriptets JSON till en fil, laddar upp den och flyttar/by­ter namn på original-ljudet till en plats för färdiga filer. En e-postnotis kan skickas när allt är klart.

Du kan enkelt ändra dokumentmallen och analys-promptarna så att de matchar teamets stil och det ni bryr er om. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera Drive File Trigger

Skapa en startpunkt för arbetsflödet som lyssnar efter nya filer i Google Drive.

  1. Lägg till och öppna Drive File Trigger.
  2. Inloggning krävs: Anslut era Google Drive-inloggningsuppgifter.
  3. Konfigurera triggern så att den bevakar mappen där nya ljudfiler kommer att hamna.
  4. Bekräfta att Drive File Trigger skickar utdata till Fetch Drive Audio.

Tips: Använd en dedikerad mapp för ”inkommande ljud” för att undvika att redan bearbetade filer triggar flödet igen.

Steg 2: Anslut noder för Google Drive och mappsetup

Det här arbetsflödet har många Google Drive-noder för filflytt, mappskapande och uppladdningar. Konfigurera dem tillsammans för att spara tid.

  1. Öppna varje Google Drive-nod som används för filsetup och flytt: Setup Root Folder, Setup Summaries Folder, Setup Completed Audio, Setup Transcript JSON, Fetch Drive Audio, Upload Audio to Drive, Download Uploaded Audio, Rename Audio File, Move Audio File, Move Analysis Doc, Upload JSON File, Retrieve JSON List och Fetch JSON File.
  2. Inloggning krävs: Anslut era Google Drive-inloggningsuppgifter till alla Google Drive-noder (13+ noder hanterar uppladdningar, flyttar, nedladdningar och mappsetup).
  3. Verifiera setup-sekvensen: Manual Run TriggerSetup Root FolderSetup Summaries FolderSetup Completed AudioSetup Transcript JSON.
  4. Säkerställ att Rename Audio File går vidare till Move Audio File, och därefter till Create Docs File.

⚠️ Vanlig fallgrop: Om Google Drive-inloggning saknas på någon nod kommer arbetsflödet att misslyckas mitt i körningen. Dubbelkolla varje Drive-nod innan ni testar.

Steg 3: Konfigurera webhooks och extern intake

Flera inkommande webhooks stödjer kompletterande operationer som formatering och filhämtning. Matcha varje webhook mot sin nedströmsnod.

  1. Konfigurera Inbound Webhook A och säkerställ att den är kopplad till HTML FormatterReturn Webhook A.
  2. Konfigurera Inbound Webhook B och säkerställ att den är kopplad till Retrieve JSON ListReturn Webhook B.
  3. Konfigurera Inbound Webhook C och säkerställ att den är kopplad till Fetch JSON FileExtract JSON ContentReturn Webhook Payload.
  4. Konfigurera Inbound Webhook D och säkerställ att den är kopplad till Upload Audio to Drive.
  5. Observera den parallella grenen: Upload Audio to Drive skickar utdata till både Return Webhook D och Download Uploaded Audio parallellt.

Steg 4: Sätt upp transkribering och JSON-bearbetning

Ljudet laddas upp, transkriberas, omvandlas till strukturerad JSON och förbereds för analys.

  1. Öppna Transcription API Call och konfigurera HTTP-förfrågan mot er transkriberingstjänsts endpoint.
  2. Bekräfta parallellkörningen: Transcription API Call skickar utdata till både Process JSON Script och Combine Streams parallellt.
  3. I Process JSON Script implementerar ni parsningslogik för transkriberingens JSON-utdata.
  4. Använd Map JSON Fields för att normalisera fält som krävs av nedströms AI-analys.
  5. Verifiera att Combine Streams slår ihop transkriberingen och AI-utdata innan det går vidare till Derive Speaker List.
  6. Slutför JSON-pipelinen: Derive Speaker ListConvert JSON to FileUpload JSON File.

Tips: Om transkriberings-API:et ändrar sitt svarsschema, uppdatera Process JSON Script och Map JSON Fields tillsammans för att hålla AI-indatan konsekvent.

Steg 5: Konfigurera AI-analys med LLM Orchestrator

AI-lagret körs via LLM Orchestrator med en strukturerad parser och OpenAI-språkmodell.

  1. Öppna LLM Orchestrator och lägg till instruktioner för transkriptanalys och generering av sammanfattning.
  2. Säkerställ att Structured Parser är ansluten som utdata-parser för LLM Orchestrator (inloggning läggs till på den överordnade noden).
  3. Säkerställ att OpenAI Chat Engine är ansluten som språkmodell för LLM Orchestrator och lägg till inloggning där.
  4. Inloggning krävs: Anslut era OpenAI-inloggningsuppgifter i OpenAI Chat Engine (inte i Structured Parser).
  5. Bekräfta den parallella grenen: LLM Orchestrator skickar utdata till både Combine Streams och Rename Audio File parallellt.

⚠️ Vanlig fallgrop: Lägg inte till inloggning i Structured Parser; den måste ställas in i OpenAI Chat Engine som är ansluten till LLM Orchestrator.

Steg 6: Skapa och uppdatera analysdokument

Analysresultat skrivs till Google Docs och flyttas till rätt mappar.

  1. Öppna Create Docs File och ställ in målmappen för nya analysdokument.
  2. Öppna Docs Update Step och mappa analysinnehållet till dokumentets brödtext.
  3. Inloggning krävs: Anslut era Google Docs-inloggningsuppgifter till både Create Docs File och Docs Update Step.
  4. Verifiera kedjan: Move Audio FileCreate Docs FileDocs Update StepMove Analysis Doc.

Steg 7: Konfigurera konsolidering av utdata och e-postaviseringar

Slutliga utdata slås ihop och skickas vidare till e-postnotifieringar för ökad synlighet.

  1. Bekräfta att Combine Outputs tar emot indata från både Move Analysis Doc och Upload JSON File.
  2. Öppna Send Email Alert och ange mottagare, ämne och meddelandeinnehåll.
  3. Inloggning krävs: Anslut era Gmail-inloggningsuppgifter i Send Email Alert.
  4. Verifiera sekvensen Combine OutputsSend Email Alert.

Tips: Inkludera länkar till Google-dokumentet och JSON-filen i Send Email Alert för snabb granskning.

Steg 8: Testa och aktivera ert arbetsflöde

Kör ett komplett test för att säkerställa att ljuduppladdning, transkribering, AI-analys och dokumentskapande fungerar hela vägen.

  1. Klicka på Execute WorkflowManual Run Trigger för att skapa mappstrukturen.
  2. Ladda upp en testljudfil till Drive-mappen som bevakas av Drive File Trigger.
  3. Bekräfta att Transcription API Call, Process JSON Script och LLM Orchestrator körs utan fel.
  4. Verifiera utdata: ett Google-dokument skapas och flyttas av Move Analysis Doc, och en JSON-fil laddas upp av Upload JSON File.
  5. Kontrollera inkorgen för att bekräfta att Send Email Alert levererade notifieringen.
  6. När allt fungerar, växla arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Behörigheter för Google Drive och Google Docs kan löpa ut eller kräva specifika rättigheter. Om något slutar fungera, kontrollera först sidan Credentials i n8n och inställningarna för OAuth consent i Google Cloud.
  • Om du använder Wait-noder eller extern transkribering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet och er ”definition av en bra sammanfattning” tidigt, annars kommer du redigera utdata i all evighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Deepgram Google Docs-automatiseringen?

Cirka 45 minuter om dina Google- och Deepgram-konton är redo.

Behöver jag kunna koda för att automatisera Deepgram Google Docs-sammanfattningar?

Ingen kodning krävs. Du kopplar mest konton och justerar prompter eller mapplaceringar.

Är n8n gratis att använda för den här Deepgram Google Docs-workflowen?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenAI API-användning (ofta några cent per samtal) och Deepgram-kostnader för transkribering baserat på ljudminuter.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa den här Deepgram Google Docs-workflowen för olika sammanfattningsformat?

Ja, och det bör du. Enklast är i prompten till AI-agenten som genererar ”sammanfattning, nyckelpunkter och åtgärdspunkter”, plus HTML-formateringssteget innan uppdateringen av Google Docs. Vanliga anpassningar är en mall för säljsamtal (invändningar, nästa steg, intressenter), en mall för support-QA (policyefterlevnad, tonalitetsproblem) och en forskningsmall (teman med citat och tidsstämplar). Du kan också routa utdata till Google Sheets för uppföljning, samtidigt som Google-dokumentet fortsätter vara den kanoniska sammanfattningen.

Varför misslyckas min Deepgram-anslutning i den här workflowen?

Oftast beror det på en ogiltig eller utgången Deepgram API-nyckel i noden HTTP Request. Det kan också vara en mismatch i content-type eller payload när du skickar binärt ljud, så verifiera att noden skickar filens data exakt som förväntat. Om fel bara händer vid längre samtal kan du slå i storleksgränser eller timeouts, så öka timeouts och testa med kortare ljud först. Kontrollera till sist att ljudformatet stöds och att filen inte är korrupt från inspelningssteget.

Hur många filer kan den här Deepgram Google Docs-automatiseringen hantera?

Med n8n Cloud Starter kan du vanligtvis köra några tusen körningar per månad, vilket räcker för många små team. Om du self-hostar finns ingen hård körningsgräns, men serverresurser samt rate limits hos Deepgram/OpenAI blir flaskhalsen. I praktiken hanterar den här workflowen en fil per körning, och de flesta team processar samtal löpande under dagen utan problem.

Är den här Deepgram Google Docs-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja. Den här workflowen använder mer avancerad bearbetning (filhantering, merges, strukturerad parsning och en AI-agent), och n8n är helt enkelt bättre lämpat för den typen av logik. Du har också möjlighet att self-hosta för hög volym, vilket håller kostnaderna förutsägbara när du processar många samtal. Zapier eller Make kan fungera för enkla flöden av typen ”fil kommer in → skicka notis”, men de blir snabbt klumpiga när du behöver omforma JSON och generera dokument i samma körning. Om du är osäker kan du prata med en automationsspecialist så hjälper vi dig att välja det renaste upplägget.

När det här väl är igång blir varje samtal ett dokument som teamet faktiskt kan använda. Workflowen tar hand om det repetitiva så att du kan fokusera på beslut, inte transkriberingsadministration.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal