Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

SerpAPI + Google Docs: MECE-dispositioner från Google

Rickard Andersson Partner, Nodenordic.se

Du söker på ett sökord, öppnar tio flikar, skummar, kopierar rubriker till ett dokument och inser sedan att hälften av anteckningarna är redundanta. Det är långsamt. Och ärligt talat är det den typen av “busy work” som i tysthet dödar publiceringstakten.

Den här SerpAPI outline automation träffar SEO-specialister först, men content leads och små byråägare känner av det också. Du får en MECE-disposition (ingen överlappning, inga saknade avsnitt) från verkliga topprankande sidor, så skribenter börjar med struktur i stället för ett tomt dokument.

Nedan ser du hur workflowet gör om ett sökord till en skribentredo disposition, vad det ersätter i din nuvarande process och hur du anpassar det till dina briefar.

Så fungerar den här automatiseringen

Hela n8n-workflowet, från trigger till slutligt resultat:

n8n Workflow Template: SerpAPI + Google Docs: MECE-dispositioner från Google

Problemet: SERP-research blir röriga anteckningar som inte går att skala

Att bygga en bra disposition från Googles resultat låter enkelt tills du gör det varje vecka. Du måste hitta rätt sidor, öppna dem, ta dig förbi cookie-popups, scrolla förbi “utfyllnad” och sedan översätta det du ser till en korrekt formaterad struktur. De flesta dispositioner slutar som en hög rubriker och halva citat utan tydlig hierarki. Sedan får du betala för det senare: skribenter ställer grundläggande frågor, redaktörer gör om hela dokumentet och du undrar fortfarande om du missade ett kärnämne som alla topresultat täcker.

Det växer snabbt. Här är var det oftast faller isär.

  • Manuell SERP-granskning tar cirka 1–2 timmar per sökord när du räknar in läsning, anteckningar och städning.
  • När du kopierar rubriker från olika artiklar får du dubletter och motsägelser, vilket gör briefar svårare att skriva och följa.
  • Ett enda skrapningsfel eller en sida bakom betalvägg kan sänka hela passet eftersom du saknar en reservplan.
  • Dispositioner blir “tyckande” i stället för evidensbaserade, så interna intressenter säger emot och revideringar drar ut på tiden.

Lösningen: Gör om ett sökord till en MECE-disposition från Googles toppsidor

Det här workflowet börjar med ett sökord som du skickar in via en enkel formulärtrigger. n8n skickar sökordet till SerpAPI för att hämta Googles topresultat för ett valt land och samlar sedan in de första fem URL:erna (fem med flit, eftersom ett par brukar misslyckas att skrapa i verkligheten). Varje sida hämtas, huvuddelens HTML extraheras och innehållet konverteras till Markdown för att rensa bort skräp som taggar, menyer och styling. För att göra resultaten stabila begränsar workflowet analysen till de tre första artiklarna som skrapas utan fel, så att allt ryms i AI-modellens context window. Därefter analyserar en OpenAI-agent återkommande ämnen och rubriker och genererar en SEO-fokuserad MECE-disposition som du kan ge direkt till en skribent.

Workflowet startar med ett sökord och slutar med en disposition som speglar vad Google redan belönar. Däremellan gör det det tidsödande: SERP-insamling, skrapning av sidor, rensning och konsolidering. Till sist förvandlar AI den “råa sanningen” från sidorna till en strukturerad disposition som du kan återanvända och förfina.

Vad du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du tar fram 4 SEO-briefar i veckan. Manuellt kanske du granskar 5 rankande sidor per sökord och lägger cirka 15 minuter per sida på att läsa och plocka ut rubriker, plus ytterligare 30 minuter på att städa dispositionen. Det blir runt 6 timmar i veckan. Med det här workflowet skickar du in sökordet på under en minut och låter sedan skrapning och AI-bearbetning köras i bakgrunden (ofta totalt cirka 10–20 minuter). Du granskar och justerar fortfarande, men du börjar med struktur i stället för kaos.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • SerpAPI för Google-resultat per land.
  • OpenAI för att analysera sidor och ta fram dispositioner.
  • OpenAI API-nyckel (hämtas från din OpenAI-dashboard).

Svårighetsnivå: Nybörjare. Du klistrar in API-nycklar, ställer in ett land och kör ett testsökord.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Insändning av sökord triggar körningen. Du anger ett sökord i den inbyggda formulärtriggern, vilket ger dig ett konsekvent sätt att starta processen utan att redigera workflowet.

Google-resultat samlas in automatiskt. n8n anropar SerpAPI via en HTTP-request och tolkar sedan svaret för att hämta länkarna till topresultaten för ditt valda land.

Rankande sidor skrapas och rensas. Workflowet delar upp URL-listan, hämtar varje sidas HTML, extraherar huvuddelens innehåll och konverterar det till Markdown så att texten går att analysera.

AI gör om evidensen till struktur. De rensade artiklarna aggregeras (och begränsas för att rymmas i context window), och sedan genererar en OpenAI-chatmodell en MECE-disposition baserat på de vanligaste ämnena och rubrikerna.

Du kan enkelt justera land och antal URL:er så att det matchar din marknad och din risktolerans. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: Konfigurera formulärtriggern

Konfigurera formuläret som samlar in nyckelordsinmatningen som används för att hämta sökresultat.

  1. Lägg till noden Form Input Trigger i ert arbetsflöde.
  2. Ställ in Form Title till SEO optimized outline generator.
  3. Ställ in Form Description till This workflow generates an SEO optimized outline based on what's already ranking.
  4. I Form Fields lägger ni till ett obligatoriskt fält med etiketten Keyword och platshållaren Your keyword here.

Steg 2: Anslut SERP API-sökning

Konfigurera sökförfrågan och extrahera de översta URL:erna för scraping.

  1. Lägg till noden Fetch Search Results och anslut den till Form Input Trigger.
  2. Inloggningsuppgift krävs: Anslut era serpApi-inloggningsuppgifter.
  3. Ställ in URL till https://serpapi.com/search.
  4. Aktivera Send Query och ställ in query-parametern q till {{ $json.Keyword }} -inurl:reddit.com -inurl:quora.com.
  5. Ställ in query-parametern location till United States.
  6. Lägg till noden Parse Result Links och ställ in JSON Output till { "Keyword": "{{ $('Form Input Trigger').item.json.Keyword }}", "URLs": [ "{{ $json.organic_results[0].link }}", "{{ $json.organic_results[1].link }}", "{{ $json.organic_results[2].link }}", "{{ $json.organic_results[3].link }}", "{{ $json.organic_results[4].link }}" ] }.

⚠️ Vanlig fallgrop: Om SERP API returnerar färre än fem resultat kan URL-listan innehålla tomma värden. Överväg att justera sökfrågan eller lägga till validering vid behov.

Steg 3: Scrapa och förbered artikelinnehåll

Dela upp URL-listan, hämta varje sida, extrahera body-HTML och konvertera den till Markdown.

  1. Lägg till Split URL List och ställ in Field to Split Out till URLs.
  2. Lägg till Retrieve Page HTML och ställ in URL till {{ $json.URLs }}.
  3. I Retrieve Page HTML aktiverar ni Send Headers och ställer in headers: User-Agent till Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/0.0.0.0 Safari/537.36, Accept till text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,*/*;q=0.8, Accept-Encoding till gzip, deflate, br, och Accept-Language till en-US,en;q=0.5.
  4. Lägg till Limit Articles och ställ in Max Items till 3.
  5. Lägg till Extract Body HTML med Operation inställt på extractHtmlContent, och extrahera key html med CSS-selektorn body med Skip Selectors img, meta, a.
  6. Lägg till Convert to Markdown och ställ in HTML till {{ $json.html }} och Destination Key till markdown.

⚠️ Vanlig fallgrop: Vissa webbplatser blockerar scraping. Om ni ser tom HTML kan ni prova att justera headers eller välja andra URL:er.

Steg 4: Aggregera och generera dispositionen

Aggregera de scrapade artiklarna och skicka dem till AI-modellen för att generera SEO-dispositionen.

  1. Lägg till Aggregate Articles och ställ in Fields to Aggregate så att markdown ingår.
  2. Lägg till Generate Outline Draft och anslut den till Aggregate Articles.
  3. Inloggningsuppgift krävs: Anslut era openAiApi-inloggningsuppgifter till Generate Outline Draft.
  4. Ställ in Model till gpt-4o och Temperature till 0.7.
  5. I Messages behåller ni innehållet som refererar till {{ $('Parse Result Links').item.json.Keyword }} och de tre markdown-artikelblocken för att säkerställa att dispositionen byggs utifrån de scrapade källorna.
  6. Anslut Generate Outline Draft till Next Step Placeholder för framtida utbyggnad.

Steg 5: Testa och aktivera ert arbetsflöde

Verifiera flödet från början till slut och aktivera det för produktionsanvändning.

  1. Klicka på Execute Workflow och skicka in ett testnyckelord i Form Input Trigger.
  2. Verifiera att Fetch Search Results returnerar SERP-data och att Parse Result Links outputar en ifylld URLs-array.
  3. Bekräfta att Convert to Markdown outputar markdown-innehåll för tre artiklar och att Aggregate Articles samlar dem i en array.
  4. Kontrollera att Generate Outline Draft ger ett strukturerat dispositionssvar.
  5. När allt fungerar växlar ni arbetsflödet till Active för att köra det för riktiga inskick.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • SerpAPI-uppgifter kan löpa ut eller så kan din kvot ta slut. Om resultaten plötsligt kommer tillbaka tomma, kontrollera först användningen i din SerpAPI-dashboard och API-nyckeln som är sparad i n8n.
  • Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera output i all evighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här SerpAPI outline automation-automatiseringen?

Cirka 30 minuter om du redan har API-nycklar.

Behöver jag kunna koda för att automatisera skapandet av MECE-dispositioner?

Nej. Du kopplar SerpAPI och OpenAI och justerar sedan några fält som land och antal resultat.

Är n8n gratis att använda för det här SerpAPI outline automation-workflowet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API, som vanligtvis landar på några cent per disposition beroende på längd.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här SerpAPI outline automation-workflowet för ett annat land eller fler resultat?

Ja, och det är en vanlig justering. Ändra landsparametern i HTTP-requesten “Fetch Search Results” och justera sedan hur många URL:er du behåller i “Parse Result Links” och “Limit Articles.” Många anpassar också prompten i “Generate Outline Draft” för att tvinga fram en husstil (H2/H3-regler, ordantal, obligatoriska avsnitt). Om du vill att dispositionen ska gå direkt in i ett dokument kan du ersätta noden “Next Step Placeholder” med ett Google Docs-steg.

Varför misslyckas min SerpAPI-anslutning i det här workflowet?

Oftast beror det på en ogiltig API-nyckel eller att du har nått kvoten för gratisnivån. Kontrollera SerpAPI-dashboarden för användning och bekräfta sedan att nyckeln i n8n matchar det SerpAPI visar. Om requesten fungerar men länkarna ser märkliga ut kan det också bero på att valt land eller sökparametrar ger en annan SERP-layout än du förväntar dig.

Hur många sökord kan den här SerpAPI outline automation-automatiseringen hantera?

I n8n Cloud beror det på din månatliga gräns för körningar, och vid self-hosting är det främst din serverkapacitet. I praktiken kör de flesta team dussintals sökord i veckan utan problem, så länge SerpAPI-kvot och OpenAI-kostnader är planerade.

Är den här SerpAPI outline automation-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja. Det här workflowet behöver förgreningar, loopar över flera URL:er, rensning av HTML och sedan aggregering av resultat innan något skickas till AI-modellen, och n8n gör helt enkelt det här mer stabilt utan att bli en skör kedja av zaps. Du får också möjligheten att self-hosta, vilket kan vara viktigt när du kör många körningar. Zapier och Make kan fortfarande fungera om du håller det enklare (till exempel bara analyserar en sida), men du betalar oftast mer när volymen växer. Om du är osäker på vad som är “enkelt” i ditt fall, prata med en automationsexpert och få en snabb rekommendation.

När det här väl rullar slutar din “dispositionsdag” att vara en produktivitetsdödare. Workflowet sköter insamling och rensning så att du kan fokusera på det som faktiskt flyttar ranking: bättre vinklar, bättre briefar, bättre text.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal