Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Google Drive till Google Sheets med loggade transkript

Rickard Andersson Partner, Nodenordic.se

Du får en ljudfil, du säger till dig själv att du ska transkribera den senare, och sedan försvinner den i en djungel av mappar. Under tiden är det “viktiga citatet” du behövde fast i en inspelning du inte har tid att skumma igenom.

Drive transcript logging märks som mest när du jobbar i högt tempo. Marknadschefer som plockar kundcitat känner av det. Sales ops som försöker bygga ett användbart samtalsbibliotek känner av det också. Resultatet är enkelt: varje ny ljudfil blir automatiskt en sökbar rad i Google Sheets.

Den här guiden går igenom exakt hur automationen fungerar, vad du behöver, vad den förändrar i vardagen och de vanligaste fallgroparna så att du slipper lägga en eftermiddag på felsökning.

Så fungerar den här automationen

Här är hela flödet du kommer att sätta upp:

n8n Workflow Template: Google Drive till Google Sheets med loggade transkript

Varför det här spelar roll: transkriptioner hamnar aldrig där du kan använda dem

Ljud finns överallt nu: säljsamtal, podcastutkast, intervjuklipp, mötesinspelningar, röstanteckningar. Problemet är vad som händer sen. Någon måste hitta rätt fil, ladda upp den till ett transkriberingsverktyg, vänta, ladda ner texten och sedan klistra in den någonstans “centralt”. Den “någon” är oftast du. Och även när du gör det hamnar transkriptionen som ett slumpmässigt dokument utan konsekvent namngivning, utan sökbar struktur och utan ett enkelt sätt att filtrera på datum, kund eller ämne.

Det bygger snabbt på. Här är var det faller isär i verkligheten.

  • Transkriberingsarbetet skjuts upp eftersom det är en flerstegsuppgift, så insikter kommer flera dagar för sent.
  • Filerna ligger i Google Drive, men texten ligger någon annanstans, vilket gör det frustrerande att söka över samtal.
  • Manuell copy-paste-loggning i ett kalkylark är felkänslig, särskilt när transkriberingsjobbet tar längre tid än väntat.
  • Utan en strukturerad datamängd kan du inte se trender i vad kunder nämner, plocka citat snabbt eller ge en kollega kontext.

Det du bygger: Google Drive → AWS Transcribe → loggning i Google Sheets

Det här flödet gör varje ny uppladdning av en ljudfil i Google Drive till en strukturerad transkriptpost i Google Sheets. När en fil hamnar i en specifik Drive-mapp plockar n8n upp den automatiskt och skickar ljudet till en AWS S3-bucket (så att AWS Transcribe kan komma åt filen på ett tillförlitligt sätt). Därefter startar flödet ett AWS Transcribe-jobb för filen och väntar medan jobbet körs. När transkriptionen är klar hämtar flödet jobbdetaljerna, mappar de viktiga fälten till ett korrekt formaterat format och lägger till en ny rad i ditt Google-ark. Du får en växande, sökbar transkript-datamängd som är konsekvent från dag ett.

Flödet är rakt på sak: Google Drive triggar processen, AWS sköter lagring och transkribering, och Google Sheets blir din “source of truth”. Efter setup glömmer du i stort sett att det körs, vilket är hela poängen.

Det du bygger

Förväntade resultat

Säg att du hanterar 10 inspelade samtal i veckan och vill att varje transkript loggas i ett ark. Manuellt kan du lägga cirka 10 minuter per fil på att ladda upp, följa status och klistra in resultatet, plus några minuter till för att fixa namngivning och länkar. Det är ungefär 2 timmar i veckan i administrativt arbete. Med det här flödet blir ditt “arbete” att släppa ljudet i Drive (kanske 1 minut per fil), och väntan sker i bakgrunden medan AWS Transcribe blir klar. Du får tillbaka större delen av tiden, och datamängden håller sig korrekt formaterad.

Innan du börjar

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Google Drive för mappen där ljudfilerna kommer in.
  • Google Sheets för att lagra din transkript-datamängd.
  • AWS-konto + S3 + åtkomst till Transcribe (skapa nycklar i AWS IAM)

Svårighetsgrad: Medel. Du skriver ingen kod, men du kommer att koppla konton, sätta rätt behörigheter och klistra in några ID:n (mapp, bucket, ark).

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

En ny fil i Google Drive drar igång allt. Flödet bevakar en specifik plats i Drive, så uppladdningar i den mappen triggar automationen utan att du klickar på något.

Ljudet flyttas till AWS S3. n8n laddar upp filen till din S3-bucket och bekräftar sedan att objektet finns (så att nästa steg inte försöker transkribera något som ännu inte är åtkomligt).

AWS Transcribe gör grovjobbet. Flödet startar ett transkriberingsjobb, väntar och hämtar sedan jobbets resultatdetaljer när det är klart. Väntan är viktig eftersom stora filer och köer med hög belastning är normalt.

Google Sheets blir din transkript-databas. n8n mappar de användbara fälten till en konsekvent struktur och lägger till en ny rad, vilket gör att du kan söka, filtrera, tilldela ansvariga eller driva uppföljande automationer.

Du kan enkelt ändra den bevakade Drive-mappen och målarket så att det passar olika team eller kunder. Se hela implementeringsguiden nedan för alternativ för anpassning.

Steg-för-steg-guide för implementation

Steg 1: Konfigurera triggern Drive File Created Trigger

Starta arbetsflödet när en ny fil skapas i en specifik Google Drive-mapp.

  1. Lägg till noden Drive File Created Trigger som din trigger.
  2. Ställ in EventfileCreated.
  3. Ställ in Trigger OnspecificFolder.
  4. Ställ in Folder To Watch[YOUR_ID] (ersätt med ert Drive-mapp-ID).
  5. Inloggningsuppgifter krävs: Anslut era googleDriveOAuth2Api-inloggningsuppgifter.

Begränsa den övervakade mappen till ljudfiler för att undvika att oväntade uppladdningar startar transkriberingspipelinen.

Steg 2: Anslut AWS S3 för fillagring

Ladda upp den nya Drive-filen till S3 och lista objekt för nedströms bearbetning.

  1. Lägg till noden Upload to S3 Bucket och anslut den efter Drive File Created Trigger.
  2. Ställ in Operationupload.
  3. Ställ in Bucket Namemybucket.
  4. Ställ in File Name={{$json["name"]}}.
  5. Ställ in File Contentstreet och behåll Binary Data som false.
  6. Inloggningsuppgifter krävs: Anslut era aws-inloggningsuppgifter i Upload to S3 Bucket.
  7. Lägg till noden List S3 Objects efter Upload to S3 Bucket och ställ in OperationgetAll.
  8. Ställ in Bucket Namemybucket i List S3 Objects.
  9. Inloggningsuppgifter krävs: Anslut era aws-inloggningsuppgifter i List S3 Objects.

⚠️ Vanlig fallgrop: Noden Upload to S3 Bucket använder fileContent satt till street. Ersätt detta med det faktiska binära innehållet eller textinnehållet från er Drive-fil om ni vill ladda upp den riktiga ljuddatan.

Steg 3: Sätt upp AWS-transkribering och väntelogik

Starta ett AWS Transcribe-jobb och vänta sedan på transkriptionen innan ni hämtar resultatet.

  1. Lägg till noden Start Transcription Task efter List S3 Objects.
  2. Ställ in Media File URI=s3://{{$node["List S3 Objects"].parameter["bucketName"]}}/{{$json["Key"]}}.
  3. Ställ in Transcription Job Name={{$json["Key"]}}.
  4. Inloggningsuppgifter krävs: Anslut era aws-inloggningsuppgifter i Start Transcription Task.
  5. Lägg till noden Delay for Transcript efter Start Transcription Task.
  6. Ställ in Resumewebhook och Response ModelastNode.
  7. I inställningarna för Delay for Transcript, ställ in Response Property Nametranscript.
  8. Lägg till noden Fetch Transcript Job efter Delay for Transcript och ställ in Operationget.
  9. Ställ in Transcription Job Name={{$json["Key"]}} i Fetch Transcript Job.
  10. Inloggningsuppgifter krävs: Anslut era aws-inloggningsuppgifter i Fetch Transcript Job.

Vänta/återuppta-beteendet förutsätter en webhook-återkopplingsmekanism. Säkerställ att ert transkriberingsflöde returnerar transkriptionen till noden Delay for Transcript via den konfigurerade webhooken.

Steg 4: Konfigurera utdata-mappning och append till Google Sheets

Mappa transkriptionsdetaljerna till strukturerade fält och lägg till dem i ert kalkylark.

  1. Lägg till noden Map Output Fields efter Fetch Transcript Job.
  2. Ställ in transcription_date={{$node["Start Transcription Task"].json["CreationTime"]}}.
  3. Ställ in recording_name={{$node["Start Transcription Task"].json["TranscriptionJobName"]}}.
  4. Ställ in recording_link={{$node["Drive File Created Trigger"].json["webContentLink"]}}.
  5. Ställ in transcription={{$json["transcript"]}}.
  6. Lägg till noden Update Spreadsheet efter Map Output Fields och ställ in Operationappend.
  7. Ställ in Sheet IDqwertz och RangeA:D.
  8. Behåll Authentication inställt på oAuth2.
  9. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Update Spreadsheet.

Noden Map Output Fields är där ni kan lägga till eller ta bort fält innan ni skriver till kalkylarket – se till att kolumnordningen stämmer med A:D.

Steg 5: Testa och aktivera ert arbetsflöde

Verifiera körning end-to-end och aktivera arbetsflödet för användning i produktion.

  1. Klicka på Execute Workflow och ladda upp en testljudfil till den övervakade Drive-mappen.
  2. Bekräfta att filen laddas upp av Upload to S3 Bucket och listas av List S3 Objects.
  3. Verifiera att Start Transcription Task skapade ett jobb och att Fetch Transcript Job returnerar data till Map Output Fields.
  4. Kontrollera Update Spreadsheet för att bekräfta att en ny rad lades till med transkriptionsdata.
  5. När testet lyckas, slå på arbetsflödet till Active för produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Tips för felsökning

  • Inloggningar för Google Drive kan löpa ut eller kräva specifika behörigheter. Om det slutar fungera, kontrollera panelen Credentials i n8n och bekräfta att det anslutna Google-kontot fortfarande har åtkomst till den bevakade mappen.
  • Om du använder Wait-noder eller extern rendering varierar processingtider. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • AWS Transcribe och S3 fallerar ofta på grund av IAM-behörigheter. Om jobbet inte startar eller inte hittar mediat, granska din IAM-policy och CloudWatch-loggar efter ledtrådar som “AccessDenied”.

Snabba svar

Hur lång tid tar det att sätta upp den här automationen för Drive transcript logging?

Cirka 30 minuter om dina Google- och AWS-konton är redo.

Krävs det kodning för den här transkriptloggningen?

Nej. Du kopplar i huvudsak inloggningar för Google Drive, AWS och Google Sheets och väljer sedan rätt mapp, bucket och ark.

Är n8n gratis att använda för det här Drive transcript logging-flödet?

Ja. n8n har ett gratis alternativ för self-hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för AWS Transcribe och S3 (oftast några dollar om du inte processar många timmar).

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger obegränsade körningar men kräver grundläggande serverdrift.

Kan jag modifiera det här Drive transcript logging-flödet för andra användningsfall?

Ja, och det bör du. Byt den bevakade mappen i Google Drive Trigger för att separera kunder eller avdelningar, justera S3-bucket/sökväg för snyggare lagring och redigera steget Map output fields (Set) för att lägga till kolumner som “ansvarig”, “projekt” eller “samtalstyp”. Vissa team lägger också till ett extra steg efter Update Spreadsheet för att avisera Slack eller skapa en uppföljningsuppgift i Pipedrive när ett transkript kommer in.

Varför misslyckas min AWS Transcribe-anslutning i det här flödet?

Oftast beror det på IAM-behörigheter, inte på flödet. Säkerställ att dina AWS-inloggningar i n8n kan skriva till S3-bucketen och starta/läsa Transcribe-jobb, och bekräfta sedan att sökvägen till mediefilen du anger är åtkomlig för Transcribe. Om det bara fallerar för vissa filer, kontrollera ljudformat och filstorlek, eftersom format som inte stöds och väldigt långa inspelningar kan göra att jobb får fel.

Vilka volymer kan det här Drive transcript logging-flödet hantera?

Om du self-hostar n8n finns ingen körningsgräns (det beror främst på din server och AWS). I n8n Cloud beror din månatliga körningskvot på din plan, och det här flödet använder vanligtvis en körning per uppladdad fil plus några interna steg.

Är den här Drive transcript logging-automationen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här flödet har ett mönster med “vänta tills AWS är klart” som kan bli klumpigt (och dyrt) i enklare automationsverktyg. n8n hanterar förgreningar, väntan och datamappning snyggt, och du kan self-hosta för obegränsat antal körningar om volymen växer. En annan praktisk fördel är kontroll: du kan se varje steg, spela om misslyckade körningar och lägga in skydd som “logga inte dubletter”. Zapier eller Make kan fortfarande fungera bra för en lättviktig tvåstegslösning, som “ny fil → skicka till ett verktyg”, men det här är mer av en pipeline. Om du vill ha hjälp att välja, prata med en automationsexpert.

När det här väl rullar slutar transkript att vara “extra jobb” och blir användbar data. Ditt Google-ark fyller sig självt, och du kan lägga den återvunna tiden på något mer värdeskapande än att jaga filer.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal