Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Bright Data + Google Docs, 360-personrapporter snabbt

Rickard Andersson Partner, Nodenordic.se

Att manuellt kolla någons LinkedIn, X, Instagram, GitHub och ”kanske YouTube också” låter snabbt. Tills du gör det fem gånger i rad. Flikarna blir fler, namnen matchar inte och du landar ändå i ett rörigt dokument du inte litar på.

Den här Bright Data reports-automationen slår hårt mot rekryterare, eftersom hastighet spelar roll. Business development– och marknadsundersökningsteam känner av det också, särskilt när en ”snabb koll” blir en timme av att tvivla på allt. Resultatet är enkelt: ett felfritt, delbart Google-dokument per person, redo att vidarebefordra.

Nedan ser du hur arbetsflödet hittar profiler, validerar träffar med poängsatt säkerhet och sammanställer en 360-rapport i Google Docs utan copy-paste-slitet.

Så fungerar den här automatiseringen

Hela n8n-arbetsflödet, från trigger till slutresultat:

n8n Workflow Template: Bright Data + Google Docs, 360-personrapporter snabbt

Problemet: sociala kontroller är långsamma, inkonsekventa och riskabla

En ”snabb bakgrundskoll” blir till detektivarbete. Du söker på ett namn, hittar tre liknande profiler, öppnar var och en och försöker avgöra vilken som är rätt. Sedan upprepar du det på sex plattformar, där signalerna ser olika ut (jobbtitlar, platser, följargrafer, repos, videohistorik). Det värsta är den mentala belastningen: du frågar hela tiden ”är det här samma person?” samtidigt som du försöker sammanfatta dem på ett sätt som teamet faktiskt använder. Och om du missar något viktigt märker du det först senare, när affären redan rullar.

Det blir snabbt mycket. Här är var det faller isär.

  • Du bränner runt 45 minuter per person bara på att hoppa mellan plattformar och sökresultat.
  • Felaktiga matchningar slinker igenom eftersom namnuppslagningar ignorerar kontext som företag och plats.
  • Alla skriver sammanfattningar olika, så ”rapporter” går inte att jämföra vecka för vecka.
  • Underlag försvinner i chatttrådar, så du kollar samma person igen senare.

Lösningen: en 360-personrapport som genereras i Google Docs

Det här arbetsflödet börjar med ett enkelt intake-formulär där du anger en persons namn och lite kontext (företag, plats). Därifrån skapar en AI-agent för discovery namnvarianter och söker över dina valda plattformar med Bright Data-verktyg, så att du inte är låst till en enda skör sökfråga. Därefter kontrollerar en profilvaliderare vad som hittats och tilldelar en säkerhetspoäng, vilket hindrar uppenbara felmatchningar från att smutsa ned rapporten. Sedan analyserar plattformsspecifika agenter varje bekräftad profil (LinkedIn, X/Twitter, Instagram, YouTube, GitHub, TikTok) och fångar de signaler du faktiskt bryr dig om. Till sist syntetiserar GPT-4 allt till en strukturerad, lättläst rapport och publicerar den som ett formaterat Google-dokument med en delbar länk.

Arbetsflödet startar när du skickar in formuläret. Det skickar varje hittad profil till rätt ”research”-prompt för plattformen, slår ihop resultaten och producerar sedan ett färdigt dokument i Google Drive. Ingen manuell kopiering. Inga ”jag svär att jag såg det någonstans”-anteckningar.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att ditt team granskar 10 personer i veckan och du kollar 6 plattformar per person. Om manuell granskning tar kanske 8 minuter per plattform plus 10 minuter för att skriva en sammanfattning, är det cirka 60 minuter per person, eller ungefär 10 timmar i veckan. Med det här arbetsflödet är ”arbetet” att skicka in formuläret (cirka 2 minuter), sedan väntar du på discovery, validering, analys och att Google-dokumentet skapas (ofta cirka 15 minuter). Du skummar fortfarande igenom slutrapporten, men du bygger den inte från noll, vilket vanligtvis ger tillbaka merparten av tiden.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • Bright Data MCP för profilupptäckt och åtkomst över flera plattformar.
  • Google Drive för att skapa och lagra rapportdokumentet.
  • OpenAI API-nyckel (hämta den från din OpenAI-dashboard).

Kunskapsnivå: Medel. Du kopplar konton, klistrar in API-nycklar och redigerar några noder som Switch och promptbyggare.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Formulärinskick triggar körningen. Du anger namn, företag och plats i intake-formuläret så att arbetsflödet startar med kontext, inte bara ett sökord.

Discovery och verifiering sker före analys. En AI-agent söker över valda plattformar med Bright Data, normaliserar resultaten och validerar sedan profiler med säkerhetspoäng så att du inte analyserar fel ”John Smith”.

Plattformsresearch routas automatiskt. En Switch skickar varje objekt till rätt promptbyggare (LinkedIn, X/Twitter, Instagram, YouTube, GitHub, TikTok), och sedan hämtar en research-agent relevanta signaler per plattform.

Allt blir en rapport i Google Docs. Resultaten slås ihop, syntetiseras av en LLM-kedja, konverteras till HTML och appliceras sedan på ett Google Doc-skal i din Drive med en delbar länk.

Du kan enkelt ändra vilka plattformar som ingår för att täcka nya källor utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: Konfigurera formulärtriggern

Konfigurera intagsformuläret som samlar in personens uppgifter och vilka plattformar som ska analyseras.

  1. Öppna Social Profile Intake Form och ställ in Form Title till Social Media Presence Researcher.
  2. Ställ in Form Description till Enter person details to discover and analyze their complete social media presence across all major platforms.
  3. Säkerställ att formulärfälten matchar konfigurationen, inklusive Full Name (obligatoriskt), Search Depth (obligatorisk rullista) och Platforms to Search (checklista).
  4. Koppla Social Profile Intake Form till Validate Form Inputs för att starta valideringen direkt efter att formuläret skickats in.

Tips: Håll plattformsalternativen i linje med utgångarna i växeln Route by Platform så att plattformsroutningen fungerar utan ändringar.

Steg 2: Anslut Bright Data MCP och OpenAI

Konfigurera AI-verktygen och språkmodellerna som används för upptäckt, plattformsanalys och rapportsyntes.

  1. Öppna Bright Data MCP Client och ersätt token- och unlocker-platshållarna i Endpoint URL med era värden: https://mcp.brightdata.com/mcp?token=[CONFIGURE_YOUR_TOKEN]&unlocker=[YOUR_ID]&pro=1.
  2. Verifiera att Server Transport är satt till httpStreamable.
  3. Autentiseringsuppgifter krävs: Anslut era openAiApi-autentiseringsuppgifter i OpenAI Chat Engine, OpenAI Chat Engine A och OpenAI Chat Engine B.
  4. Öppna Profile Discovery Agent och bekräfta att den använder OpenAI Chat Engine som språkmodell (autentiseringsuppgifter läggs till i OpenAI Chat Engine, inte i agenten).
  5. Öppna Platform Research Agent och bekräfta att den använder OpenAI Chat Engine A som språkmodell (autentiseringsuppgifter läggs till i OpenAI Chat Engine A, inte i agenten).
  6. Öppna LLM Synthesis Chain och bekräfta att den använder OpenAI Chat Engine B som språkmodell (autentiseringsuppgifter läggs till i OpenAI Chat Engine B, inte i kedjan).

⚠️ Vanlig fallgrop: Bright Data MCP-anslutningen är en verktygsnod; autentiseringsuppgifter och åtkomst konfigureras i endpoint-URL:en i Bright Data MCP Client, inte i agenterna som anropar den.

Steg 3: Sätt upp profilupptäckt och validering

Validera indata, upptäck profiler över plattformar, normalisera resultaten och utvärdera trovärdighet innan djupare research.

  1. I Validate Form Inputs, behåll Mode som runOnceForEachItem och låt JavaScript-koden vara intakt för att generera sökfrågor och valideringsmetadata.
  2. Säkerställ att Profile Discovery Agent får upptäckts-prompten exakt som konfigurerat (prompten använder uttryck som {{ $json.fullName }} och {{ JSON.stringify($json.searchQueries, null, 2) }}).
  3. Verifiera att Discovery Memory Buffer är kopplad till Profile Discovery Agent med Session Key {{ $execution.id }}_discovery (minnet kopplas via parent-agenten och konfigureras inte separat).
  4. Bekräfta att Normalize Agent Output körs efter agenten för att standardisera plattformsnamn och strukturera profildata.
  5. Behåll Verify Profiles Set som den är för att beräkna förtroendepoäng och sätta trösklar för proceedToAnalysis för resten av arbetsflödet.
  6. Säkerställ att Distribute Platform Items ger ett item per plattform för efterföljande routning.

Tips: Om ni lägger till nya plattformar senare, uppdatera Normalize Agent Output och Route by Platform så att routning och konfidensanalys förblir konsekventa.

Steg 4: Konfigurera plattformsroutning och research-prompter

Routa varje plattform till en skräddarsydd prompt och kör plattformsspecifik research via agenten.

  1. I Route by Platform, säkerställ att varje regel matchar {{ $json.platform }} mot det förväntade värdet (t.ex. LinkedIn använder linkedin, X använder twitter).
  2. Granska de sex prompt-assembler-noderna: LinkedIn Prompt Assembler, X/Twitter Prompt Assembler, Instagram Prompt Assembler, YouTube Prompt Assembler, GitHub Prompt Assembler och TikTok Prompt Assembler. Var och en mappar platform, profileUrl, analysisDepth, userPrompt och systemPrompt med uttryck som {{ $json.profileUrl }}.
  3. Bekräfta att Combine Platform Prompts förväntar sig att Number of Inputs är satt till 6 för att linjera med de sex assembler-noderna.
  4. Combine Platform Prompts skickar utdata till både Platform Research Agent och Merge Research Outputs parallellt.
  5. Koppla Analysis Memory Buffer till Platform Research Agent med Session Key {{ $execution.id }}_{{ $json.platform }} (minnet kopplas via agenten och konfigureras inte separat).

⚠️ Vanlig fallgrop: Om ert formulär inkluderar plattformar utöver de sex assembler-noderna, lägg till en ny gren i Route by Platform och en matchande prompt-assembler-nod, annars kommer de plattformarna att falla bort.

Steg 5: Konfigurera rapportsyntes och Google Doc-utdata

Aggreggera plattformsresearch, syntetisera en slutrapport och skapa ett Google-dokument med en delbar länk.

  1. I Merge Research Outputs, behåll Mode satt till combine och Combine By satt till combineByPosition för att linjera plattforms-item med research-resultat.
  2. Verifiera att Map Report Fields tilldelar platform, profileUrl, profileData och research_result från uttryck som {{ $json.output }}.
  3. Ställ in Aggregate Platform Reviews till Aggregate = aggregateAllItemData och Destination Field Name = platforms.
  4. Bekräfta att LLM Synthesis Chain får hela rapportprompten enligt konfigurationen för att bygga den slutliga markdown-rapporten.
  5. I Prepare Report Content, ställ in markdown till {{ $json.text }} och fileName till Document {{ $now.format('yyyy-MM-dd HH:mm') }}.
  6. Prepare Report Content skickar utdata till både Markdown Convert to HTML och Create Google Doc Shell parallellt.
  7. I Markdown Convert to HTML, ställ in Mode till markdownToHtml och Markdown till {{ $json.markdown }}.
  8. I HTML to File Converter, ställ in Operation till toText, Source Property till data och Binary Property Name till file.
  9. Behåll Assign HTML MIME Type för att sätta filens MIME-typ till text/html.
  10. Autentiseringsuppgifter krävs: Anslut era googleDriveOAuth2Api-autentiseringsuppgifter i Create Google Doc Shell och Apply HTML to Doc.
  11. I Create Google Doc Shell, ställ in Name till {{ $('Prepare Report Content').item.json.fileName }}, ställ in Content till Temporary content och välj er Folder (ersätt [YOUR_ID]).
  12. I Apply HTML to Doc, aktivera Change File Content och ställ in Input Data Field Name till file.
  13. I Return Form Redirect, ställ in Respond With till redirect och Redirect URL till {{ $json.webViewLink }}.

Tips: Om Google-dokumentet renderas tomt, verifiera att Assign HTML MIME Type körs före Apply HTML to Doc och att Combine Doc Inputs kombinerar HTML och dokument-ID korrekt.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett kontrollerat test för att bekräfta att profilupptäckt, plattformsanalys och dokumentgenerering lyckas från början till slut.

  1. Klicka på Execute Workflow och skicka in en testpost via Social Profile Intake Form med en känd offentlig profil.
  2. Verifiera att Validate Form Inputs ger isValid som true och att Profile Discovery Agent returnerar profilkandidater.
  3. Bekräfta att plattforms-item routas korrekt genom Route by Platform och att Platform Research Agent producerar resultat för varje vald plattform.
  4. Kontrollera att LLM Synthesis Chain genererar markdown-innehåll och att Create Google Doc Shell + Apply HTML to Doc skapar ett dokument med en giltig webViewLink.
  5. När arbetsflödet är klart ska ni omdirigeras av Return Form Redirect till länken för Google-dokumentet.
  6. Aktivera arbetsflödet med reglaget Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Bright Data MCP-inloggningsuppgifter kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först Bright Data-token och unlocker-kod i noden ”Bright Data MCP Client”.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre ned fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera output i all oändlighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Bright Data reports-automationen?

Cirka 30 minuter om du redan har dina API-nycklar.

Behöver jag kunna koda för att automatisera Bright Data reports?

Nej. Du kommer mest att koppla konton och redigera prompter i några noder.

Är n8n gratis att använda för det här Bright Data reports-arbetsflödet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på $20/månad för högre volym. Du behöver också räkna med kostnader för OpenAI API-användning (ofta några cent per rapport) och din Bright Data-plan.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterad tjänst, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och klarar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa den här Bright Data reports-automationen för andra plattformar?

Ja, och det är en av de bästa delarna. Du kan bygga ut Switch-noden som routar per plattform, lägga till en ny promptbyggare (liknande noderna för LinkedIn, X/Twitter eller GitHub) och inkludera den i sammanslagningen ”Combine Platform Prompts”. Många team justerar också validerarens tröskel för säkerhetspoängen och finjusterar den sista LLM-syntesprompten så att rapporten matchar deras interna bedömningsmall. Om du vill ha notifieringar kan du lägga till en Slack- eller e-postnod direkt efter att Google-dokumentet skapats.

Varför misslyckas min Bright Data-anslutning i det här arbetsflödet?

Oftast beror det på en ogiltig eller utgången token i noden Bright Data MCP client. Uppdatera både token och unlocker-koden och kör sedan ett test igen med sökdjupet ”Basic”. Om det fortfarande misslyckas kan det handla om kontobehörigheter i din Bright Data-plan (PRO-åtkomst krävs här) eller request-gränser när du försöker undersöka för många plattformsobjekt samtidigt.

Hur många profiler kan den här Bright Data reports-automationen hantera?

I praktiken skalar den till hundratals personer i månaden för de flesta mindre team, så länge dina användningsgränser hos Bright Data och OpenAI hänger med. På n8n Cloud är taket antal körningar per månad baserat på plan, så hög volym betyder oftast batchning eller uppgradering. Om du self-hostar finns ingen körningsgräns från n8n, men dina serverresurser och externa API:er spelar fortfarande roll. Arbetsflödet bearbetar flera plattformsobjekt per person, så ”en person” kan innebära sex eller fler research-anrop.

Är den här Bright Data reports-automationen bättre än att använda Zapier eller Make?

För det här användningsfallet, ja i de flesta fall. Du gör förgrening per plattform, slår ihop flera research-strömmar och kör en AI-syntes i flera steg, vilket är där n8n förblir flexibelt (och inte tar betalt för varje vägval). Arbetsflödet tjänar också på self-hosting om du vill ha förutsägbara kostnader vid högre volym. Zapier eller Make kan fortfarande fungera om du bara vill ha ett lätt flöde med ”en plattform, en sammanfattning”. Om du är osäker, prata med en automationsexpert så kvalitetssäkrar vi dina krav.

När det här väl rullar slutar ”kan du göra en snabb social koll?” att störa allt annat. Du får ett konsekvent dokument, en länk du kan dela och flera timmar tillbaka varje vecka till riktigt arbete.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal