Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Reddit till Google Sheets: tydlig sentimentöversikt

Rickard Andersson Partner, Nodenordic.se

Du öppnar en Reddit-tråd och tänker att det blir ”en snabb genomskanning”, och plötsligt har det gått 45 minuter och du är fortfarande osäker på om folk älskade uppdateringen eller hatade den. Det värsta är osäkerheten. Du läser en handfull kommentarer och litar ändå inte på din slutsats.

Den här automatiseringen för loggning av sentiment på Reddit träffar produktmarknadsförare hårt, men grundare och community managers känner av den också. I stället för att manuellt skumma får du ett strukturerat ark som visar varje kommentar, dess sentiment (positivt/neutralt/negativt) och AI:ns motivering.

Du får se hur workflowet hämtar Reddit-kommentarer via Bright Data, analyserar dem med Google Gemini och sedan skriver resultaten till Google Sheets så att du kan se trender direkt.

Så fungerar automatiseringen

Här är hela workflowet som du kommer att sätta upp:

n8n Workflow Template: Reddit till Google Sheets: tydlig sentimentöversikt

Varför det här spelar roll: gör kommentarskaos till en tydlig signal

Reddit är brutalt ärligt, vilket är precis därför det är både användbart och utmattande. Om du följer varumärkesomnämnanden, en lanseringstråd eller en konkurrentdiskussion rör sig kommentarerna snabbt och tonen skiftar hela tiden. Du läser tio kommentarer och tror att du fattat läget, och sedan vänder nästa tio stämningen helt. Samtidigt ska du fortfarande briefa teamet, uppdatera intressenter eller bestämma vad som ska fixas härnäst. Manuell skumning tar inte bara tid. Det skapar ”förtröstansteater”, där du känner dig informerad men egentligen inte kan bevisa det.

Det blir snabbt mycket. Här är var det fallerar i praktiken.

  • Du slutar med att stickprova en liten del av kommentarerna, och dina slutsatser färgas av det du råkade läsa först.
  • Att kopiera citat till ett dokument tar evigheter, och du har fortfarande ingen konsekvent sentimentetikett att jämföra vecka för vecka.
  • Det är lätt att missa tidiga varningssignaler eftersom den ”negativa” feedbacken är begravd i långa, blandade svar.
  • Att dela insikter blir rörigt, eftersom skärmdumpar och markeringar inte går att översätta till något som teamet kan sortera, filtrera eller göra diagram av.

Det du bygger: Reddit-kommentarer → Gemini-sentiment → Sheets-logg

Det här workflowet gör om valfri Reddit-inläggs-URL till en strukturerad sentimentlogg i Google Sheets. Du börjar med att klistra in en Reddit-länk i n8n och köra workflowet. Bright Data gör grovjobbet genom att skrapa inläggets kommentarer på ett sätt som undviker vanliga rate limits och åtkomstproblem. Efter en kort väntan medan snapshoten förbereds laddar workflowet ner kommentarerna, väljer en liten batch (som standard fem) och skickar dem till en agent som drivs av Google Gemini. Gemini klassar varje kommentar som positiv, negativ eller neutral och förklarar också varför den valde den etiketten. Till sist lägger n8n till kommentartexten, sentimentet och motiveringen i ett Google-ark som du kan filtrera, dela och återanvända för rapportering.

Workflowet börjar med en Reddit-URL som du styr. Sedan samlar det in kommentarer, kör dem genom AI-baserad sentimentanalys och skriver resultatet till Sheets som ett strukturerat dataset. Efter det kan du bygga diagram, följa förändringar över tid eller helt enkelt sluta läsa om samma trådar.

Det du bygger

Förväntade resultat

Säg att du granskar 3 Reddit-trådar i veckan för varumärkesbevakning och vanligtvis läser cirka 40 kommentarer per tråd i ungefär 1 minut styck. Det är runt 2 timmar i veckan, och du står ändå med spretiga anteckningar. Med det här workflowet klistrar du in URL:en, väntar några minuter på snapshoten och går sedan igenom resultatet i arket (ofta 5–10 minuter per tråd för en snabb temperaturmätning). Även om du senare höjer kommentarsgränsen lägger du tid på beslut, inte på att skanna.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Bright Data för att skrapa Reddit-kommentarer pålitligt
  • Google Gemini för att poängsätta sentiment och ge motivering
  • Åtkomst till Google Sheets (anslut ditt Google-konto i n8n)

Nivå: Nybörjare. Du kopplar mest ihop konton, klistrar in en URL och verifierar mappningen mot arket.

Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).

Steg för steg

Du anger en länk till ett Reddit-inlägg. Workflowet startar med en manuell körning i n8n, där ett ”set fields”-steg anger den URL du vill analysera. Det håller det enkelt när du undersöker en tråd i taget.

Kommentarer samlas in via Bright Data. Bright Data skapar en skrap-snapshot för inlägget, n8n väntar en kort stund och laddar sedan ner resultaten när de är klara. Den väntan är viktig eftersom skrapningar inte alltid är omedelbara.

Gemini bedömer sentiment. En liten batch kommentarer (begränsad till fem som standard) skickas till en AI-agent som drivs av Google Gemini. Agenten returnerar strukturerat sentiment plus motivering, och en parser med autofix hjälper till att hålla utdata konsekvent när AI-svar blir lite stökiga.

Ditt Google-ark blir dashboarden. Varje analyserad kommentar läggs till som en ny rad, så att du bygger upp ett växande dataset över tid. Filter, pivottabeller och diagram blir enkelt eftersom datan redan är normaliserad.

Du kan enkelt ändra kommentarsgränsen för att analysera fler (eller färre) kommentarer utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den manuella triggern

Starta arbetsflödet manuellt för att köra Reddit-sentimentpipelinen vid behov.

  1. Lägg till noden Manual Execution Start som din trigger.
  2. Säkerställ att Manual Execution Start är ansluten till Assign Reddit Link för att matcha körflödet.

Steg 2: Anslut Bright Data för att hämta Reddit-kommentarer

Konfigurera Bright Data för att skrapa Reddit-kommentarer, vänta på snapshoten och ladda ner resultaten.

  1. I Assign Reddit Link ställer ni in fältet post URL till https://www.reddit.com/r/iphone/comments/1kl0tb5/new_ios_185_update/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button.
  2. Öppna Bright Data Retrieve Comments och ställ in URLs till =[{"url":"{{ $json["post URL"] }}"}].
  3. Ställ in Resource till webScrapper och välj ert Bright Data-dataset-ID i dataset_id.
  4. Inloggningsuppgifter krävs: Anslut era brightdataApi-uppgifter i Bright Data Retrieve Comments.
  5. I Pause for Snapshot Ready behåller ni Unit inställt på minutes för att ge snapshoten tid att bearbetas.
  6. I Bright Data Download Snapshot ställer ni in snapshot_id till ={{ $json.snapshot_id }} och behåller Resource som webScrapper.
  7. Inloggningsuppgifter krävs: Anslut era brightdataApi-uppgifter i Bright Data Download Snapshot.

⚠️ Vanlig fallgrop: Säkerställ att dataset-ID:t i Bright Data Retrieve Comments är giltigt, annars misslyckas genereringen av snapshoten.

Steg 3: Begränsa och förbered kommentarer för analys

Minska antalet kommentarer att analysera och förbered dem för AI-utvärderaren av sentiment.

  1. I Limit to Five Comments ställer ni in maxItems till 5.
  2. Bekräfta att körflödet är Bright Data Download SnapshotLimit to Five CommentsAI Sentiment Evaluator.

Steg 4: Konfigurera AI-sentimentanalys

Använd Gemini för att utvärdera sentiment och tolka strukturerade resultat med automatisk korrigering.

  1. I AI Sentiment Evaluator ställer ni in Text till =Based on the Reddit post's comment below, decide whether the sentiment is positive, negative or neutral. comment: {{ $json.comment }} Number of upvotes: {{ $json.num_upvotes }}.
  2. Säkerställ att Prompt Type är define och att hasOutputParser är aktiverat.
  3. Anslut Gemini Chat Engine som språkmodell för AI Sentiment Evaluator.
  4. Inloggningsuppgifter krävs: Anslut era googlePalmApi-uppgifter i Gemini Chat Engine.
  5. Konfigurera Structured Result Parser med värdet för jsonSchemaExample som visas i noden för att tvinga fram strukturerad output.
  6. Anslut Structured Result ParserAuto-Correct ParserAI Sentiment Evaluator som output parser-kedja.
  7. Anslut Secondary Gemini Chat som språkmodell för Auto-Correct Parser.
  8. Inloggningsuppgifter krävs: Anslut era googlePalmApi-uppgifter i Secondary Gemini Chat.

Auto-Correct- och Structured Result-parsers är AI-undernoder. Lägg till inloggningsuppgifter i Gemini Chat Engine och Secondary Gemini Chat, inte i parser-noderna.

Steg 5: Konfigurera utdata till Google Sheets

Lägg till de strukturerade sentimentresultaten i ert Google Sheet.

  1. I Append Sentiment to Sheets ställer ni in Operation till append.
  2. Välj ert kalkylark i documentId och välj sheetName som Sheet1 (gid 0).
  3. Mappa kolumner med de definierade värdena: Comment={{ $json.output.comment }}, Sentiment={{ $json.output.sentiment }}, Reason={{ $json.output.reason }}.
  4. Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-uppgifter i Append Sentiment to Sheets.

Steg 6: Testa och aktivera ert arbetsflöde

Validera pipelinen från början till slut och aktivera den sedan för löpande användning.

  1. Klicka på Execute Workflow från Manual Execution Start för att köra pipelinen.
  2. Bekräfta att Bright Data Retrieve Comments skapar ett snapshot-ID och att Bright Data Download Snapshot returnerar kommentarsdata.
  3. Verifiera att Append Sentiment to Sheets lägger till nya rader med värden för Comment, Sentiment och Reason.
  4. När allt fungerar växlar ni arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • Google Sheets-inloggningar kan gå ut eller använda fel Google-konto. Om det skapar fel, kontrollera n8n:s avsnitt Credentials och bekräfta att det anslutna kontot kan redigera det aktuella kalkylarket.
  • Om du använder Wait-noder eller extern skrapning varierar behandlingstiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar eller om snapshot-nedladdningen returnerar ”not ready”.
  • Gemini-prompter som är för generiska ger ”meh”-etiketter. Lägg till lite kontext (vad produkten är, vad ”positivt” betyder för dig), annars kommer du att ifrågasätta resultatet.

Snabba svar

Hur lång tid tar det att sätta upp den här automatiseringen för loggning av sentiment på Reddit?

Cirka 30 minuter om dina konton är redo.

Krävs kodning för den här sentimentloggningen?

Nej. Du kopplar ihop Bright Data, Gemini och Google Sheets, klistrar sedan in en Reddit-URL och kör.

Är n8n gratis att använda för det här workflowet för loggning av sentiment på Reddit?

Ja. n8n har ett gratis alternativ för self-hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för skrapning i Bright Data och Gemini API-användning (oftast liten för korta kommentarer).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här workflowet för loggning av sentiment på Reddit för andra use cases?

Ja, och det bör du sannolikt göra. Du kan öka eller ta bort steget ”Limit to Five Comments” för att analysera fler kommentarer, och du kan justera instruktionerna till AI-agenten så att de matchar din definition av ”positivt” (till exempel beröm för pris vs. beröm för funktioner). Vissa team lägger också till extra kolumner i Google Sheets-steget, som produktområde, konkurrentnamn eller trådämne. Om du vill ha en daglig körning utan handpåläggning ersätter du den manuella triggern med en webhook eller en schemalagd trigger och matar in URL:er från en lista.

Varför misslyckas min Google Sheets-anslutning i det här workflowet?

Oftast är det fel Google-konto eller utgångna inloggningsuppgifter. Återanslut Google Sheets i n8n och bekräfta sedan att kalkylarket är delat med det kontot och att du valde rätt fil och flik. Kontrollera också om arket har skyddade intervall, eftersom ”append rows” kan misslyckas tyst när behörigheter är begränsade.

Vilken volym kan det här workflowet för loggning av sentiment på Reddit hantera?

Det beror på hur många kommentarer du väljer att analysera och hur snabbt skrap-snapshoten blir klar, men standardupplägget processar en liten batch snabbt.

Är den här automatiseringen för loggning av sentiment på Reddit bättre än att använda Zapier eller Make?

För det här use caset är n8n oftast bättre, eftersom skrapning + väntan + strukturerad AI-parsning innebär många rörliga delar. Du får mer kontroll över beteendet ”vänta på snapshot”, du kan lägga till grenlogik utan att betala per steg och du kan self-hosta om du behöver högre volym. Zapier och Make kan fungera för enklare ”hämta data → skriv rad”-uppgifter, men de blir klumpiga när datakällan är inkonsekvent eller asynkron. Ärligt talat är parsningen av AI-utdata ytterligare en anledning till att n8n glänser här, eftersom du kan tvinga fram struktur innan du skriver till Sheets. Om du är kluven, prata med en automationsexpert så hjälper vi dig att välja det enklaste alternativet som inte skapar fel nästa månad.

När det här väl är på plats slutar Reddit vara en tidstjuv och börjar fungera som ett researchflöde du faktiskt kan använda. Workflowet gör sorteringen och märkningen så att du kan fokusera på vad som ska ändras härnäst.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal