Du kollar kommentarerna på en video, får en “känsla”, och sen tappar du den. Dagen efter är du tillbaka och scrollar, kopierar och klistrar in, och försöker minnas vilken kritik som var viktig och vilken som bara var brus.
Den här automatiseringen för YouTube-sentiment träffar marknadschefer först. Men byråledare som gör rapportering och founders som följer produktfeedback känner samma friktion. Du slutar med att reagera sent, eller inte alls, eftersom datan aldrig blir något du kan dela och agera på.
Det här flödet hämtar kommentarer till Google Sheets, taggar dem med sentiment + nyckelord med hjälp av AI och skickar en Telegram-sammanfattning som du kan skumma igenom på under en minut. Du får se vad det gör, vad du behöver och var team oftast kör fast.
Så här fungerar automatiseringen
Hela n8n-flödet, från trigger till slutligt resultat:
n8n Workflow Template: YouTube till Google Sheets: sentimentsummering i Telegram
flowchart LR
subgraph sg0["Scheduled Run Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Scheduled Run Trigger", pos: "b", h: 48 }
n1@{ icon: "mdi:database", form: "rounded", label: "Retrieve Sheet Rows", pos: "b", h: 48 }
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set YouTube Key", pos: "b", h: 48 }
n3@{ icon: "mdi:swap-vertical", form: "rounded", label: "Batch Iterator", pos: "b", h: 48 }
n4@{ icon: "mdi:cog", form: "rounded", label: "Idle Placeholder", pos: "b", h: 48 }
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>YouTube API Call"]
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Flatten Comment Data"]
n7@{ icon: "mdi:robot", form: "rounded", label: "LLM Sentiment Chain", pos: "b", h: 48 }
n8@{ icon: "mdi:brain", form: "rounded", label: "OpenRouter Chat Engine", pos: "b", h: 48 }
n9@{ icon: "mdi:robot", form: "rounded", label: "JSON Schema Parser", pos: "b", h: 48 }
n10["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Normalize LLM Output"]
n11@{ icon: "mdi:database", form: "rounded", label: "Upsert Sheet Row", pos: "b", h: 48 }
n12@{ icon: "mdi:cog", form: "rounded", label: "Aggregate Results", pos: "b", h: 48 }
n13["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Summarize Metrics"]
n14["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/telegram.svg' width='40' height='40' /></div><br/>Send Telegram Report"]
n6 --> n7
n10 --> n11
n13 --> n14
n12 --> n13
n5 --> n6
n7 --> n10
n3 --> n4
n3 --> n5
n2 --> n3
n0 --> n1
n1 --> n2
n14 --> n3
n8 -.-> n7
n9 -.-> n7
n11 --> n12
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n7,n9 ai
class n8 aiModel
class n1,n11 database
class n5 api
class n6,n10,n13 code
classDef customIcon fill:none,stroke:none
class n5,n6,n10,n13,n14 customIcon
Problemet: YouTube-kommentarer är värdefulla, men röriga
YouTube-kommentarer är marknadsundersökning mitt framför ögonen. Problemet är att du inte kan använda det du inte kan fånga. När kommentarerna bara finns inne i YouTube-gränssnittet missas mönster, feedback når inte rätt person och du blir fast med beslut baserade på magkänsla. Än värre: team börjar diskutera anekdoter (“jag såg massor av folk klaga på X”) eftersom ingen har en gemensam källa till sanningen. Efter några videor blir den manuella insatsen i sig ett skäl att sluta bry sig.
Det växer snabbt. Så här faller det isär i verkligheten.
- Att manuellt plocka kommentarer för en enda video kan lätt äta upp 30–60 minuter när du räknar in städning och kontext.
- Utan en konsekvent sentimentetikett tolkar olika personer samma tråd olika, så möten blir gissningslekar.
- Nyckelordsuppföljning blir oftast “sök i huvudet”, vilket gör att återkommande teman varken räknas, jämförs eller prioriteras.
- Uppdateringar kommer för sent, eftersom ingen vill öppna YouTube varje dag bara för att se om tonen har skiftat.
Lösningen: YouTube-kommentarers sentiment + nyckelord, loggat och sammanfattat
Det här flödet gör YouTube-kommentarer till en lättviktig feedback-pipeline. Det startar enligt ett schema, läser en lista med YouTube-video-ID:n (eller URL:er) från Google Sheets, loopar sedan igenom varje video och anropar YouTube API för att hämta toppnivåkommentarer (upp till 100 per video som standard). Varje kommentar plattas ut till ett strukturerat “en rad per kommentar”-format. Därefter analyserar en AI-modell sentiment (positiv/neutral/negativ), genererar en sentimentpoäng, extraherar nyckelord (rensade så att de faktiskt är användbara) och upptäcker språk. Till sist normaliseras allt för säker skrivning till kalkylblad, upsertas tillbaka till Google Sheets med ett unikt kommentar-ID (så att du inte duplicerar arbete), och aggregeras till en kort, skumläsbar Telegram-rapport per video.
Flödet startar med en schematrigger och använder Google Sheets som kontrollpanel. Det hämtar YouTube-kommentarer via en HTTP-förfrågan, kör en AI-kedja för sentiment, skriver strukturerade resultat till arket och skickar en Telegram-sammanfattning du kan läsa i mobilen.
Vad du får: automatisering vs. resultat
| Vad det här flödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du publicerar 3 videor i veckan och vill få en snabb bild av hur varje video landade. Manuellt kan det ta cirka 1 timme per video att hämta 100 kommentarer, städa upp dem och sammanfatta teman, alltså runt 3 timmar i veckan. Med det här flödet lägger du in video-ID:n i Google Sheets en gång, sedan sköter den schemalagda körningen resten och pingar Telegram när den är klar. Ditt “arbete” blir en 2-minuters genomskumning och ett snabbt filter i Sheets.
Det här behöver du
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för videolistan och lagrade resultat
- YouTube Data API för att hämta kommentars-trådar till videor
- OpenRouter API-nyckel (hämta den i din OpenRouter-dashboard)
- Telegram Bot API för att skicka sammanfattningar till en chatt
Kunskapsnivå: Medel. Du kopplar några konton, klistrar in API-nycklar och testar med en video innan du skalar upp.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
En schematrigger startar körningen. n8n startar flödet med regelbundna intervall så att du inte är beroende av att någon kommer ihåg “kommentargranskningsdagen”.
Ditt Google Sheet innehåller videolistan. Flödet läser rader från Google Sheets, sätter sedan YouTube API-nyckeln och förbereder varje video för behandling. Om du hanterar flera kanaler eller kampanjer kan du lägga dem i separata flikar.
Kommentarer hämtas och struktureras. n8n anropar YouTube API via HTTP Request, plattar ut svaret så att varje post är en kommentar och skickar sedan den strukturerade texten in i AI-kedjan för sentiment (driven av en OpenRouter-chatmodell).
Resultat skrivs och rapporteras. Flödet normaliserar AI-utdata (så att den alltid matchar ditt förväntade format), upsertar varje kommentar i Google Sheets med kommentar-ID, aggregerar mätvärden per video och skickar sedan en kort Telegram-rapport som du snabbt kan skumma.
Du kan enkelt justera vilka nyckelord som extraheras så att de matchar språket i din nisch, eller ändra schemat utifrån din publiceringstakt. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementation
Steg 1: konfigurera triggern för schemalagd körning
Det här arbetsflödet startar enligt ett tidsschema och hämtar video-ID:n från Google Sheets för bearbetning.
- Lägg till och öppna Scheduled Run Trigger.
- Ställ in intervallregeln för schemat till önskad frekvens (till exempel varje timme eller dagligen).
- Bekräfta att Scheduled Run Trigger är kopplad direkt till Retrieve Sheet Rows i flödet.
Steg 2: anslut Google Sheets
Dessa noder läser in video-ID:n från källan och upsert:ar sentimentresultaten tillbaka till kalkylbladet.
- Öppna Retrieve Sheet Rows och välj ert Document och Sheet i väljaren.
- Öppna Upsert Sheet Row och välj samma Document samt mål-Sheet för resultaten.
- I Upsert Sheet Row, behåll Operation inställd på
appendOrUpdateoch Matching Columns inställd påcomment_id. - Verifiera att kolumnmappningarna använder uttryck som
{{ $('Flatten Comment Data').item.json.comment_id }}och{{ $json.sentiment }}exakt som konfigurerat. - Credential Required: Anslut era Google Sheets-inloggningsuppgifter (krävs för både Retrieve Sheet Rows och Upsert Sheet Row).
⚠️ Vanlig fallgrop: Om Retrieve Sheet Rows inte returnerar fälten video_id och video_url kommer anropet till YouTube API och Telegram-rapporten att misslyckas.
Steg 3: ange YouTube API-nyckeln och batchbearbetning
Arbetsflödet injicerar YouTube API-nyckeln och itererar sedan över varje rad med en batch-iterator.
- Öppna Set YouTube Key och sätt Youtube API Key till ert nyckelvärde och ersätt
[CONFIGURE_YOUR_API_KEY]. - Bekräfta att Set YouTube Key är kopplad till Batch Iterator.
- I Batch Iterator, behåll standardalternativen om ni inte behöver en specifik batchstorlek.
- Observera att Batch Iterator skickar items till Idle Placeholder och därefter till YouTube API Call för bearbetning.
Tips: Idle Placeholder är en NoOp-nod som används för flödesstyrning och kan lämnas oförändrad.
Steg 4: hämta och platta ut YouTube-kommentarer
Kommentarer hämtas från YouTube API och plattas ut till ett format som är redo för rader.
- Öppna YouTube API Call och verifiera att URL är inställd på
=https://www.googleapis.com/youtube/v3/commentThreads?part=snippet&videoId={{ $('Retrieve Sheet Rows').item.json.video_id }}&maxResults=100&key={{ $json['Youtube API Key'] }}. - Säkerställ att YouTube API Call är kopplad till Flatten Comment Data.
- I Flatten Comment Data, behåll den tillhandahållna JavaScript-koden som output:ar fält som
comment_id,comment_textochlike_count.
Steg 5: konfigurera AI-baserad sentimentanalys
Den här kedjan skickar varje kommentar till LLM:en, tvingar fram JSON-output och normaliserar svaret.
- Öppna LLM Sentiment Chain och behåll prompten i Text inställd på
=Data to analyze: youtube_comment_text: "{{ $json.comment_text }}" like_count: {{ $json.like_count }} Consider like_count only as a weak signal (slightly increase |score| if like_count is high and sentiment is clear). Return the JSON only.. - Verifiera att LLM Sentiment Chain använder systemmeddelandet som definierar enbart JSON-output och nyckelregler.
- Öppna OpenRouter Chat Engine och sätt Model till
google/gemini-2.0-flash-exp:free. - Öppna JSON Schema Parser och bekräfta att exempelschemat matchar er önskade output-struktur.
- Öppna Normalize LLM Output och behåll normaliseringsskriptet intakt för att säkerställa konsekventa fält för
sentiment,score,keywordsochlanguage. - Credential Required: Anslut era OpenRouter-inloggningsuppgifter i OpenRouter Chat Engine. JSON Schema Parser är en AI-subnod—lägg till inloggningsuppgifter i OpenRouter Chat Engine, inte i parsern.
⚠️ Vanlig fallgrop: Om LLM:en returnerar text som inte är JSON kommer Normalize LLM Output att falla tillbaka till neutralt sentiment och ett score på 0.
Steg 6: aggregera och rapportera resultat
Sentimentdata aggregeras och sammanfattas i en Telegram-rapport.
- Öppna Aggregate Results och verifiera att den aggregerar
sentiment,sentiment_scoreochkeywords. - I Summarize Metrics, behåll sammanfattningsskriptet för att skapa totalsummor, procentandelar och toppnyckelord.
- Öppna Send Telegram Report och sätt Chat ID till ert Telegram-ID och ersätt
[YOUR_ID]. - Behåll fältet Text exakt som konfigurerat så att det inkluderar uttryck som
{{ $json.total_comments }}och{{ $json.top_keywords.join(", ") }}. - Credential Required: Anslut era Telegram-inloggningsuppgifter i Send Telegram Report.
Steg 7: testa och aktivera ert arbetsflöde
Kör arbetsflödet en gång för att bekräfta att data flödar från Sheets till YouTube, via LLM:en och tillbaka till Sheets och Telegram.
- Klicka på Execute Workflow för att köra ett manuellt test.
- Bekräfta att YouTube API Call returnerar kommentartrådar och att Flatten Comment Data output:ar enskilda kommentarsitems.
- Verifiera att Upsert Sheet Row lägger till eller uppdaterar rader med
comment_id,sentiment,sentiment_scoreochkeywords. - Kontrollera att Send Telegram Report publicerar en sammanfattning med totalsummor och toppnyckelord.
- När ni är nöjda, växla arbetsflödet till Active för att aktivera schemalagda produktionskörningar.
Vanliga fallgropar
- Google Sheets-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det slutar fungera, kontrollera n8n:s inloggningsvy och bekräfta att det anslutna Google-kontot fortfarande har åtkomst till kalkylbladet.
- Om du använder Wait-noder eller extern rendering varierar processtider. Öka väntetiden om nedströmsnoder misslyckas på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera utdata för evigt.
Vanliga frågor
Räkna med cirka 45 minuter om dina API:er redan är redo.
Nej. Du kommer främst att klistra in nycklar, koppla Google Sheets och testa en körning.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Molnplaner börjar på 20 USD/månad för högre volym. Du behöver också räkna in OpenRouter-användning (oftast några dollar i månaden vid små volymer) samt eventuella Google/YouTube API-begränsningar för ditt konto.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det är en smart justering. AI-kedjan ger redan ut en språkkod med två bokstäver, så du kan routa kommentarer per språk och lagra dem i separata kolumner eller separata flikar. Om du vill ha olika nyckelordsregler per språk, justera AI-prompten i LLM Sentiment Chain så att den extraherar nyckelord på det sätt ditt team förväntar sig. Vissa team skickar också separata Telegram-sammanfattningar per språk till olika chattar.
Oftast är det utgången OAuth-åtkomst eller att det anslutna Google-kontot inte längre har behörighet till kalkylbladet. Återanslut Google Sheets-inloggningen i n8n och bekräfta sedan att exakt det kalkylbladet är delat med kontot. Om arket flyttades mellan Drives kan n8n peka på en gammal filreferens. Kontrollera också att målflikens namn fortfarande matchar vad dina “Retrieve Sheet Rows”- och “Upsert Sheet Row”-noder förväntar sig.
Den hämtar upp till 100 toppnivåkommentarer per video som standard, och du kan utöka med paginering vid behov.
Ofta, ja, eftersom det här flödet vinner på batchning, datanormalisering och strukturerad AI-utdata innan det skrivs till ett ark. n8n gör det enklare att loopa igenom många videor, undvika dubletter med ett upsert-mönster och lägga in skyddsräcken när AI-utdata är rörig. Self-hosting är också viktigt om du vill köra volym utan att betala per uppgift. Zapier eller Make kan fungera för enkla “ny rad → skicka meddelande”-fall, men blir snabbt klumpiga när du itererar genom kommentarslistor och behöver strukturera data. Om du är osäker, prata med en automationsexpert så mappar vi det mot din faktiska volym.
När kommentarer fångas, poängsätts och sammanfattas automatiskt slutar du “kolla YouTube” och börjar följa feedback som en tillgång. Sätt upp det en gång och låt sedan flödet hålla dig på banan.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.