Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Bright Data + Google Sheets för varumärkesomnämnanden

Rickard Andersson Partner, Nodenordic.se

Varumärkesomnämnanden dyker inte artigt upp på ett ställe. De är utspridda över Medium-inlägg, nischbloggar och slumpmässiga artiklar som teamet hittar tre dagar för sent.

Det är här brand mention logs går från ”trevlig idé” till en daglig huvudvärk. Marknadschefer fastnar i manuella sökningar, PR-ansvariga jagar skärmdumpar i Slack, och byråteam får sitta och förklara varför de missade en artikel som varit publik hela veckan.

Det här arbetsflödet använder Bright Data och Google Sheets för att samla omnämnanden, köra sentimentsanalys och hålla en strukturerad tracker som hela teamet kan lita på. Du får se vad det gör, vad det ersätter och vad du behöver se upp med innan du driftsätter det.

Så här fungerar automatiseringen

Se hur detta löser problemet:

n8n Workflow Template: Bright Data + Google Sheets för varumärkesomnämnanden

Utmaningen: att hänga med i varumärkesomnämnanden utan att leva i sök

Manuell varumärkesbevakning känns enkel tills du gör det varje dag. Du söker på några nyckelord, öppnar fem flikar, skummar efter kontext och försöker sedan fånga det viktiga (vem som sa det, vad som sades, tonen och var det trendar). Sedan frågar någon: ”Kan du dela de senaste omnämnandena?” och du inser att hälften ligger i webbläsarbokmärken, resten i DM:s, och inget är loggat konsekvent. Ärligt talat är den största kostnaden inte själva sökandet. Det är hoppandet mellan verktyg, gissningarna och omkontrollerna eftersom senaste posten inte var strukturerad.

Det blir snabbt mycket. Här är var det faller isär i riktiga team.

  • Att hitta omnämnanden blir en återkommande uppgift som i tysthet äter upp cirka 2 timmar i veckan.
  • Kontext försvinner när enda ”loggen” är en inklistrad länk utan sammanfattning eller citat.
  • Sentiment blir en diskussion eftersom ingen har ett konsekvent sätt att märka upp tonen.
  • Rapportering gör ont, så du slutar göra den tills något går fel.

Lösningen: Bright Data-skrapning + AI-sentiment, loggat i Google Sheets

Det här arbetsflödet ger dig ett repeterbart sätt att göra ”vi borde hålla koll på omnämnanden” till ett levande kalkylark som hålls uppdaterat. Det börjar när du anger en mål-länk till en artikel (till exempel ett Medium-inlägg du vill kontrollera efter varumärkesreferenser). Bright Data hämtar sidinnehållet pålitligt, även när sajter försöker blockera skrapning eller visar olika versioner för olika besökare. Därefter läser en AI-agent innehållet som en människa, plockar ut relevanta omnämnanddetaljer och märker upp sentiment så att du snabbt kan triagera. Slutligen skriver arbetsflödet en strukturerad rad i Google Sheets, vilket blir din centrala tracker för varumärkesomnämnanden, sammanfattningar och ton.

Arbetsflödet startar med en manuell körning i n8n och använder sedan Bright Data för att hämta artikeln. Därifrån hanterar OpenAI extraktion och sentimentsanalys, och Google Sheets lagrar resultatet så att teamet kan skanna, filtrera och agera utan att gräva bland flikar.

Vad som förändras: före vs. efter

Effekt i verkligheten

Säg att du granskar 10 artiklar i veckan som kan nämna ditt varumärke. Manuellt tar det oftast 10 minuter per artikel att öppna, skumma, hitta omnämnandet, skriva en sammanfattning och klistra in i en tracker, vilket blir cirka 100 minuter per vecka. Med det här arbetsflödet klistrar du in länken en gång, låter Bright Data hämta innehållet och låter AI skriva sammanfattning plus sentiment i Google Sheets. Din ”hands-on-tid” sjunker till ungefär 20 minuter i veckan, och trackern förblir konsekvent.

Krav

  • n8n-instans (prova n8n Cloud gratis)
  • Självhostningsalternativ om du föredrar det (Hostinger fungerar bra)
  • Bright Data för pålitlig åtkomst till artikelskrapning.
  • Google Sheets för att lagra och dela omnämnandloggen.
  • OpenAI API-nyckel (hämta den från OpenAI API-dashboarden).

Kunskapsnivå: Medel. Du kopplar konton, lägger in API-nycklar och justerar några fält som mål-URL och varumärkesnyckelord.

Behöver du hjälp att implementera detta? Prata med en automationsexpert (gratis 15-minuters konsultation).

Arbetsflödet steg för steg

Du startar det med en länk. Arbetsflödet triggas manuellt och sätter sedan Medium- (eller artikel-)URL:en du vill analysera så att resten av automatiseringen har ett tydligt mål.

Bright Data hämtar det faktiska sidinnehållet. I stället för en enkel hämtning som kan blockeras, plockar den hem artikeln pålitligt, vilket betyder färre misslyckade körningar och färre ”funkar på mitt nätverk”-överraskningar.

AI extraherar omnämnanddetaljerna. AI-agenten läser det skrapade innehållet och returnerar strukturerade utdata som varumärkesomnämnandet, en kort sammanfattning och sentiment. Output parsers hjälper till att hålla formatet korrekt formaterat så att dina kalkylarkskolumner inte blir kaos.

Google Sheets blir din levande logg. Varje körning lägger till resultaten i ett ark, som du kan filtrera på sentiment, källa, datum eller kampanj.

Du kan enkelt ändra målwebbplatserna (inte bara Medium) och varumärkesnyckelorden du söker efter baserat på dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet med den manuella triggern så att ni kan testa och köra flödet vid behov.

  1. Lägg till noden 🚀 Manual Launch Trigger som startpunkt.
  2. Behåll standardinställningarna (inga ytterligare parametrar krävs).
  3. Verifiera att kopplingen från 🚀 Manual Launch Trigger till 📝 Set Medium Article Link finns på plats.

Steg 2: anslut Google Sheets

Förbered kalkylbladets destination för att logga sentimentresultat.

  1. Lägg till eller öppna noden 📥 Log Results to Sheets.
  2. Inloggning krävs: Anslut era googleSheetsOAuth2Api-uppgifter.
  3. Ställ in Operationappend.
  4. Ställ in Document till [YOUR_ID] och Sheet till [YOUR_ID] (välj ert mål-kalkylblad och flik).
  5. Mappa kolumner med befintliga uttryck: URL = {{ $('📝 Set Medium Article Link').item.json.blogURL }}, Title = {{ $json.output.title }}, Author = {{ $json.output.author }}, Platform = {{ $json.output.platform }}, Sentiment = {{ $json.output.sentiment }}, Content Summary = {{ $json.output['content summary'] }}.

⚠️ Vanlig fallgrop: Om era kalkylbladskolumner inte matchar de mappade namnen kan append-åtgärden misslyckas. Säkerställ att rubrikerna i arket matchar kolumnetiketterna exakt.

Steg 3: sätt upp indata för bearbetningen

Definiera Medium-artikelns URL som AI-agenten ska analysera.

  1. Öppna noden 📝 Set Medium Article Link.
  2. Lägg till eller bekräfta fältet blogURL med värdet https://medium.com/gitconnected/why-openai-suddenly-erased-jony-ive-from-their-website-5d6f431e5297.
  3. Säkerställ att flödesordningen matchar exekveringsvägen: 🚀 Manual Launch Trigger📝 Set Medium Article Link🤖 Extract Medium Mentions.

Steg 4: sätt upp AI-extraktion och parsning

Konfigurera AI-agenten, verktygen och output-parsers för att skrapa och sammanfatta Medium-innehåll.

  1. Öppna 🤖 Extract Medium Mentions och ställ in Text till =scrape the below medium blog URL and do setimant analysis: {{ $json.blogURL }}.
  2. Säkerställ att 🤖 Extract Medium Mentions använder 🧠 Reasoning Chat Engine som språkmodell. Inloggning krävs: Anslut era openAiApi-uppgifter i 🧠 Reasoning Chat Engine.
  3. Bekräfta verktygskopplingen från 🌐 Bright Data Scraper till 🤖 Extract Medium Mentions. Inloggning krävs: Anslut era mcpClientApi-uppgifter i 🌐 Bright Data Scraper.
  4. Verifiera kedjan för output-parsning: Structured Result ParserAuto-Repair Output Parser🤖 Extract Medium Mentions.
  5. Bekräfta att Structured Result Parser använder JSON-schemaexemplet exakt som det visas i fältet jsonSchemaExample.
  6. Säkerställ att Auto-Repair Output Parser är ansluten till OpenAI Conversation Model. Inloggning krävs: Anslut era openAiApi-uppgifter i OpenAI Conversation Model.

⚠️ Vanlig fallgrop: AI-verktyg och parser-under noder innehåller inte inloggningsuppgifter. Lägg till inloggningsuppgifter på deras överordnade noder (🧠 Reasoning Chat Engine, 🌐 Bright Data Scraper och OpenAI Conversation Model) så att agenten kan köras korrekt.

Steg 5: konfigurera loggning av utdata

Avsluta arbetsflödet genom att säkerställa att AI-resultaten flödar in i kalkylbladets utdata.

  1. Bekräfta kopplingen från 🤖 Extract Medium Mentions till 📥 Log Results to Sheets.
  2. Kontrollera att varje mappad kolumn i 📥 Log Results to Sheets använder uttrycken från AI-utdata (Title, Author, Platform, Sentiment, Content Summary).

Steg 6: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att bekräfta att allt fungerar, och aktivera sedan för regelbunden användning.

  1. Klicka på Execute Workflow från 🚀 Manual Launch Trigger.
  2. Verifiera att 🤖 Extract Medium Mentions returnerar strukturerad output med platform, author, title, content summary och sentiment.
  3. Kontrollera ert kalkylblad för att bekräfta att en ny rad läggs till av 📥 Log Results to Sheets.
  4. När det är bekräftat, växla arbetsflödet till Active för produktionsbruk.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Se upp med

  • Bright Data-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det slutar fungera, kontrollera först inställningarna för din Bright Data-zon och API-åtkomst.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera utdata för alltid.

Vanliga frågor

Hur snabbt kan jag implementera den här automatiseringen för brand mention logs?

Cirka en timme om dina konton för Bright Data, OpenAI och Google Sheets är redo.

Kan icke-tekniska team implementera den här brand mention logs?

Ja, men du vill ha någon som är bekväm med API-nycklar. Ingen kodning, bara uppsättning och noggrann testning.

Är n8n gratis att använda för det här arbetsflödet för brand mention logs?

Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med kostnader för OpenAI API-användning, som vanligtvis är några cent per körning för sammanfattningar och sentiment.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller självhostning på en VPS. För självhostning är Hostinger VPS prisvärd och hanterar n8n bra. Självhostning ger dig obegränsat antal körningar men kräver grundläggande serveradministration.

Hur anpassar jag den här brand mention logs-lösningen till mina specifika utmaningar?

Du kan byta ut indata för ”Set Medium Article Link” så att den pekar på vilken artikelkälla som helst du bryr dig om, inte bara Medium. De flesta team anpassar instruktionerna till AI-agenten så att de inkluderar varianter av varumärkesnamnet, produktnamn och konkurrenttermer, och justerar sedan Google Sheets-kolumnerna så att de matchar rapporteringen. Om du vill ha aviseringar kan du lägga till ett Telegram- eller e-postmeddelande efter ”Log Results to Sheets”.

Varför misslyckas min Bright Data-anslutning i det här arbetsflödet?

Oftast beror det på en ogiltig zon, saknade behörigheter eller en roterad inloggning som inte uppdaterades i n8n. Kontrollera först autentiseringsuppgifterna i Bright Data-noden och bekräfta sedan att mål-URL:en fungerar i en vanlig webbläsare och inte omdirigerar till en betalvägg eller inloggningssida. Om det bara fallerar på vissa källor kan du behöva justera skraparens konfiguration efter den sajtens layout.

Vilken kapacitet har den här brand mention logs-lösningen?

På n8n Cloud Starter brukar du klara några hundra körningar per månad, och högre planer hanterar mer. Om du självhostar beror körvolymen främst på serverstorlek och hur tunga dina skrapjobb är. I praktiken kör de flesta team detta per artikel eller per batch med länkar och håller sig väl inom gränserna.

Är den här automatiseringen för brand mention logs bättre än att använda Zapier eller Make?

Ofta, ja. Det här arbetsflödet bygger på skrapning plus strukturerad AI-tolkning, och n8n är helt enkelt mer flexibelt när du behöver förgreningar, omförsök och logik för att ”städa upp utdata” utan att betala extra för varje steg. Zapier eller Make kan fungera, men du kan lägga mer tid på att hantera edge cases (och kostnad) när du skalar. Om du bara vill ha ett enkelt flöde där ”nytt omnämnande hamnar i ett ark” kan de enklare verktygen räcka. Prata med en automationsexpert om du vill ha en snabb rekommendation baserat på volym och källor.

När din automatisering för brand mention logs väl rullar slutar spårningen vara ett måste och blir i stället en vana. Arbetsflödet tar hand om de repetitiva delarna så att du kan fokusera på vad du ska göra åt omnämnandet.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal