Du öppnar en Reddit-tråd och tänker att det blir ”en snabb genomskanning”, och plötsligt har det gått 45 minuter och du är fortfarande osäker på om folk älskade uppdateringen eller hatade den. Det värsta är osäkerheten. Du läser en handfull kommentarer och litar ändå inte på din slutsats.
Den här automatiseringen för loggning av sentiment på Reddit träffar produktmarknadsförare hårt, men grundare och community managers känner av den också. I stället för att manuellt skumma får du ett strukturerat ark som visar varje kommentar, dess sentiment (positivt/neutralt/negativt) och AI:ns motivering.
Du får se hur workflowet hämtar Reddit-kommentarer via Bright Data, analyserar dem med Google Gemini och sedan skriver resultaten till Google Sheets så att du kan se trender direkt.
Så fungerar automatiseringen
Här är hela workflowet som du kommer att sätta upp:
n8n Workflow Template: Reddit till Google Sheets: tydlig sentimentöversikt
flowchart LR
subgraph sg0["Trigger: Manual Start Flow"]
direction LR
n0@{ icon: "mdi:brain", form: "rounded", label: "Google Gemini Chat Model", pos: "b", h: 48 }
n1@{ icon: "mdi:robot", form: "rounded", label: "Auto-fixing Output Parser", pos: "b", h: 48 }
n2@{ icon: "mdi:brain", form: "rounded", label: "Google Gemini Chat Model1", pos: "b", h: 48 }
n3@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Parser", pos: "b", h: 48 }
n4@{ icon: "mdi:play-circle", form: "rounded", label: "Trigger: Manual Start", pos: "b", h: 48 }
n5@{ icon: "mdi:swap-vertical", form: "rounded", label: "Set Reddit Post URL", pos: "b", h: 48 }
n6@{ icon: "mdi:cog", form: "rounded", label: "Bright Data: Get comments", pos: "b", h: 48 }
n7@{ icon: "mdi:cog", form: "rounded", label: "Wait for Snapshot Processing..", pos: "b", h: 48 }
n8@{ icon: "mdi:cog", form: "rounded", label: "Bright Data: Download Commen..", pos: "b", h: 48 }
n9@{ icon: "mdi:cog", form: "rounded", label: "Limit to 5 Comments", pos: "b", h: 48 }
n10@{ icon: "mdi:robot", form: "rounded", label: "AI Sentiment Classifier", pos: "b", h: 48 }
n11@{ icon: "mdi:database", form: "rounded", label: "Save Sentiment to Google She..", pos: "b", h: 48 }
n9 --> n10
n5 --> n6
n4 --> n5
n10 --> n11
n0 -.-> n10
n3 -.-> n1
n1 -.-> n10
n6 --> n7
n2 -.-> n1
n7 --> n8
n8 --> n9
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n4 trigger
class n1,n3,n10 ai
class n0,n2 aiModel
class n11 database
Varför det här spelar roll: gör kommentarskaos till en tydlig signal
Reddit är brutalt ärligt, vilket är precis därför det är både användbart och utmattande. Om du följer varumärkesomnämnanden, en lanseringstråd eller en konkurrentdiskussion rör sig kommentarerna snabbt och tonen skiftar hela tiden. Du läser tio kommentarer och tror att du fattat läget, och sedan vänder nästa tio stämningen helt. Samtidigt ska du fortfarande briefa teamet, uppdatera intressenter eller bestämma vad som ska fixas härnäst. Manuell skumning tar inte bara tid. Det skapar ”förtröstansteater”, där du känner dig informerad men egentligen inte kan bevisa det.
Det blir snabbt mycket. Här är var det fallerar i praktiken.
- Du slutar med att stickprova en liten del av kommentarerna, och dina slutsatser färgas av det du råkade läsa först.
- Att kopiera citat till ett dokument tar evigheter, och du har fortfarande ingen konsekvent sentimentetikett att jämföra vecka för vecka.
- Det är lätt att missa tidiga varningssignaler eftersom den ”negativa” feedbacken är begravd i långa, blandade svar.
- Att dela insikter blir rörigt, eftersom skärmdumpar och markeringar inte går att översätta till något som teamet kan sortera, filtrera eller göra diagram av.
Det du bygger: Reddit-kommentarer → Gemini-sentiment → Sheets-logg
Det här workflowet gör om valfri Reddit-inläggs-URL till en strukturerad sentimentlogg i Google Sheets. Du börjar med att klistra in en Reddit-länk i n8n och köra workflowet. Bright Data gör grovjobbet genom att skrapa inläggets kommentarer på ett sätt som undviker vanliga rate limits och åtkomstproblem. Efter en kort väntan medan snapshoten förbereds laddar workflowet ner kommentarerna, väljer en liten batch (som standard fem) och skickar dem till en agent som drivs av Google Gemini. Gemini klassar varje kommentar som positiv, negativ eller neutral och förklarar också varför den valde den etiketten. Till sist lägger n8n till kommentartexten, sentimentet och motiveringen i ett Google-ark som du kan filtrera, dela och återanvända för rapportering.
Workflowet börjar med en Reddit-URL som du styr. Sedan samlar det in kommentarer, kör dem genom AI-baserad sentimentanalys och skriver resultatet till Sheets som ett strukturerat dataset. Efter det kan du bygga diagram, följa förändringar över tid eller helt enkelt sluta läsa om samma trådar.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du granskar 3 Reddit-trådar i veckan för varumärkesbevakning och vanligtvis läser cirka 40 kommentarer per tråd i ungefär 1 minut styck. Det är runt 2 timmar i veckan, och du står ändå med spretiga anteckningar. Med det här workflowet klistrar du in URL:en, väntar några minuter på snapshoten och går sedan igenom resultatet i arket (ofta 5–10 minuter per tråd för en snabb temperaturmätning). Även om du senare höjer kommentarsgränsen lägger du tid på beslut, inte på att skanna.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Bright Data för att skrapa Reddit-kommentarer pålitligt
- Google Gemini för att poängsätta sentiment och ge motivering
- Åtkomst till Google Sheets (anslut ditt Google-konto i n8n)
Nivå: Nybörjare. Du kopplar mest ihop konton, klistrar in en URL och verifierar mappningen mot arket.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
Du anger en länk till ett Reddit-inlägg. Workflowet startar med en manuell körning i n8n, där ett ”set fields”-steg anger den URL du vill analysera. Det håller det enkelt när du undersöker en tråd i taget.
Kommentarer samlas in via Bright Data. Bright Data skapar en skrap-snapshot för inlägget, n8n väntar en kort stund och laddar sedan ner resultaten när de är klara. Den väntan är viktig eftersom skrapningar inte alltid är omedelbara.
Gemini bedömer sentiment. En liten batch kommentarer (begränsad till fem som standard) skickas till en AI-agent som drivs av Google Gemini. Agenten returnerar strukturerat sentiment plus motivering, och en parser med autofix hjälper till att hålla utdata konsekvent när AI-svar blir lite stökiga.
Ditt Google-ark blir dashboarden. Varje analyserad kommentar läggs till som en ny rad, så att du bygger upp ett växande dataset över tid. Filter, pivottabeller och diagram blir enkelt eftersom datan redan är normaliserad.
Du kan enkelt ändra kommentarsgränsen för att analysera fler (eller färre) kommentarer utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Starta arbetsflödet manuellt för att köra Reddit-sentimentpipelinen vid behov.
- Lägg till noden Manual Execution Start som din trigger.
- Säkerställ att Manual Execution Start är ansluten till Assign Reddit Link för att matcha körflödet.
Steg 2: Anslut Bright Data för att hämta Reddit-kommentarer
Konfigurera Bright Data för att skrapa Reddit-kommentarer, vänta på snapshoten och ladda ner resultaten.
- I Assign Reddit Link ställer ni in fältet post URL till
https://www.reddit.com/r/iphone/comments/1kl0tb5/new_ios_185_update/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button. - Öppna Bright Data Retrieve Comments och ställ in URLs till
=[{"url":"{{ $json["post URL"] }}"}]. - Ställ in Resource till
webScrapperoch välj ert Bright Data-dataset-ID i dataset_id. - Inloggningsuppgifter krävs: Anslut era brightdataApi-uppgifter i Bright Data Retrieve Comments.
- I Pause for Snapshot Ready behåller ni Unit inställt på
minutesför att ge snapshoten tid att bearbetas. - I Bright Data Download Snapshot ställer ni in snapshot_id till
={{ $json.snapshot_id }}och behåller Resource somwebScrapper. - Inloggningsuppgifter krävs: Anslut era brightdataApi-uppgifter i Bright Data Download Snapshot.
Steg 3: Begränsa och förbered kommentarer för analys
Minska antalet kommentarer att analysera och förbered dem för AI-utvärderaren av sentiment.
- I Limit to Five Comments ställer ni in maxItems till
5. - Bekräfta att körflödet är Bright Data Download Snapshot → Limit to Five Comments → AI Sentiment Evaluator.
Steg 4: Konfigurera AI-sentimentanalys
Använd Gemini för att utvärdera sentiment och tolka strukturerade resultat med automatisk korrigering.
- I AI Sentiment Evaluator ställer ni in Text till
=Based on the Reddit post's comment below, decide whether the sentiment is positive, negative or neutral. comment: {{ $json.comment }} Number of upvotes: {{ $json.num_upvotes }}. - Säkerställ att Prompt Type är
defineoch att hasOutputParser är aktiverat. - Anslut Gemini Chat Engine som språkmodell för AI Sentiment Evaluator.
- Inloggningsuppgifter krävs: Anslut era googlePalmApi-uppgifter i Gemini Chat Engine.
- Konfigurera Structured Result Parser med värdet för jsonSchemaExample som visas i noden för att tvinga fram strukturerad output.
- Anslut Structured Result Parser → Auto-Correct Parser → AI Sentiment Evaluator som output parser-kedja.
- Anslut Secondary Gemini Chat som språkmodell för Auto-Correct Parser.
- Inloggningsuppgifter krävs: Anslut era googlePalmApi-uppgifter i Secondary Gemini Chat.
Steg 5: Konfigurera utdata till Google Sheets
Lägg till de strukturerade sentimentresultaten i ert Google Sheet.
- I Append Sentiment to Sheets ställer ni in Operation till
append. - Välj ert kalkylark i documentId och välj sheetName som
Sheet1(gid0). - Mappa kolumner med de definierade värdena: Comment →
={{ $json.output.comment }}, Sentiment →={{ $json.output.sentiment }}, Reason →={{ $json.output.reason }}. - Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-uppgifter i Append Sentiment to Sheets.
Steg 6: Testa och aktivera ert arbetsflöde
Validera pipelinen från början till slut och aktivera den sedan för löpande användning.
- Klicka på Execute Workflow från Manual Execution Start för att köra pipelinen.
- Bekräfta att Bright Data Retrieve Comments skapar ett snapshot-ID och att Bright Data Download Snapshot returnerar kommentarsdata.
- Verifiera att Append Sentiment to Sheets lägger till nya rader med värden för
Comment,SentimentochReason. - När allt fungerar växlar ni arbetsflödet till Active för användning i produktion.
Felsökningstips
- Google Sheets-inloggningar kan gå ut eller använda fel Google-konto. Om det skapar fel, kontrollera n8n:s avsnitt Credentials och bekräfta att det anslutna kontot kan redigera det aktuella kalkylarket.
- Om du använder Wait-noder eller extern skrapning varierar behandlingstiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar eller om snapshot-nedladdningen returnerar ”not ready”.
- Gemini-prompter som är för generiska ger ”meh”-etiketter. Lägg till lite kontext (vad produkten är, vad ”positivt” betyder för dig), annars kommer du att ifrågasätta resultatet.
Snabba svar
Cirka 30 minuter om dina konton är redo.
Nej. Du kopplar ihop Bright Data, Gemini och Google Sheets, klistrar sedan in en Reddit-URL och kör.
Ja. n8n har ett gratis alternativ för self-hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för skrapning i Bright Data och Gemini API-användning (oftast liten för korta kommentarer).
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du sannolikt göra. Du kan öka eller ta bort steget ”Limit to Five Comments” för att analysera fler kommentarer, och du kan justera instruktionerna till AI-agenten så att de matchar din definition av ”positivt” (till exempel beröm för pris vs. beröm för funktioner). Vissa team lägger också till extra kolumner i Google Sheets-steget, som produktområde, konkurrentnamn eller trådämne. Om du vill ha en daglig körning utan handpåläggning ersätter du den manuella triggern med en webhook eller en schemalagd trigger och matar in URL:er från en lista.
Oftast är det fel Google-konto eller utgångna inloggningsuppgifter. Återanslut Google Sheets i n8n och bekräfta sedan att kalkylarket är delat med det kontot och att du valde rätt fil och flik. Kontrollera också om arket har skyddade intervall, eftersom ”append rows” kan misslyckas tyst när behörigheter är begränsade.
Det beror på hur många kommentarer du väljer att analysera och hur snabbt skrap-snapshoten blir klar, men standardupplägget processar en liten batch snabbt.
För det här use caset är n8n oftast bättre, eftersom skrapning + väntan + strukturerad AI-parsning innebär många rörliga delar. Du får mer kontroll över beteendet ”vänta på snapshot”, du kan lägga till grenlogik utan att betala per steg och du kan self-hosta om du behöver högre volym. Zapier och Make kan fungera för enklare ”hämta data → skriv rad”-uppgifter, men de blir klumpiga när datakällan är inkonsekvent eller asynkron. Ärligt talat är parsningen av AI-utdata ytterligare en anledning till att n8n glänser här, eftersom du kan tvinga fram struktur innan du skriver till Sheets. Om du är kluven, prata med en automationsexpert så hjälper vi dig att välja det enklaste alternativet som inte skapar fel nästa månad.
När det här väl är på plats slutar Reddit vara en tidstjuv och börjar fungera som ett researchflöde du faktiskt kan använda. Workflowet gör sorteringen och märkningen så att du kan fokusera på vad som ska ändras härnäst.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.