Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

SE Ranking + OpenAI: FAQ-research efter sökintention

Rickard Andersson Partner, Nodenordic.se

FAQ-research blir rörigt snabbt. Du plockar frågor från ett ställe, svar från ett annat och lägger sedan en eftermiddag på att minnas var varje idé kom ifrån och vad den är “till för”.

SEO-strateger märker det när en contentplan behöver bevis, inte gissningar. Marknadsansvariga märker det när “AI Search” börjar dyka upp i frågor från intressenter. Och skribenter fastnar i att skriva om samma förklaringar eftersom det saknas en felfri, intent-märkt källa till sanning. Den här automatiseringen för SE Ranking FAQs ger dig en strukturerad datamängd du faktiskt kan använda.

Du sätter upp ett n8n-flöde som hämtar riktiga AI-sökprompter från SE Ranking, gör om dem till Q&A-par, klassar intent med OpenAI och exporterar en prydlig JSON-fil (inklusive källor).

Så fungerar den här automatiseringen

Här är hela flödet du kommer att sätta upp:

n8n Workflow Template: SE Ranking + OpenAI: FAQ-research efter sökintention

Varför detta spelar roll: FAQ-research som inte faller isär

“Låt oss lägga till en FAQ-sektion” låter enkelt tills du försöker göra det med någon form av noggrannhet. Riktiga frågor finns i AI-sökprompter, SERP-funktioner, supportärenden, konkurrenters sidor och slumpmässiga dokument. Du kan absolut copy-pasta dig igenom det, men då kommer problem nummer två: du kan inte förklara varför en fråga hör hemma på en sida, vilket intent den täcker eller var insikten kom ifrån. Det är då team börjar publicera tunna FAQ:er som inte rankar, inte hjälper användare och inte håller för granskning.

Det eskalerar snabbt. Här är var det brukar gå snett.

  • Du landar i ett Google-dokument fullt av frågor, men utan en konsekvent struktur för svar, källor eller intent.
  • Manuell sortering i kategorier som “hur gör man” vs “priser” blir åsiktskrig i stället för repeterbar logik.
  • Källor tappas bort, så du kan inte validera eller återvända till den underliggande AI-sökprompten senare.
  • Att uppdatera FAQ:er blir ett kvartalsvis slit, vilket gör att ditt innehåll driver medan konkurrenter fortsätter att uppdatera.

Vad du bygger: en intent-klassad FAQ-datamängd från riktig AI-sökning

Det här flödet gör AI-sökbeteende till något du kan planera utifrån. Du börjar med att ange en måldomän, region/källa och några filter (som inkludera/exkludera-nyckelord och resultatgränser). n8n anropar sedan SE Rankings API för att hämta AI Search-prompter kopplade till den domänen. Utifrån dessa prompter extraherar flödet möjliga frågor, bygger Q&A-par och samlar referenslänkar så att varje post har en spårbar väg tillbaka till källan. Därefter kör OpenAI en zero-shot-klassificerare för att märka varje Q&A med en intentkategori (HOW_TO, DEFINITION, PRICING med flera) och en confidence-score. Slutligen slås allt ihop och exporteras som en strukturerad JSON-fil som du kan använda för SEO-sidor, briefs, dokumentation eller en kunskapsbas.

Flödet startar med en enskild körning (Manual Start) och parameterinmatningar. När SE Ranking-data har hämtats isolerar kodsteg frågor, bygger svar och kopplar på referenslänkar. OpenAI klassar sedan intent och flödet aggregerar allt till en felfri JSON-datamängd som är redo att delas eller automatiseras vidare.

Det du bygger

Förväntade resultat

Säg att du bygger FAQ:er för 10 kärnsidor och vill ha cirka 20 riktigt bra frågor per sida. Manuellt kanske du lägger cirka 10 minuter per fråga på att samla kontext, skriva ett första svar och klistra in källor, vilket blir ungefär 30+ timmars arbete. Med det här flödet kan du hämta och klassa en batch i en körning (ofta 5–10 minuter) och sedan lägga tiden på granskning och redigering i stället för insamling. De flesta team får en första “tillräckligt bra” datamängd på en enda eftermiddag, inte på en hel vecka.

Innan du börjar

  • n8n-instans (testa n8n Cloud gratis)
  • Självhostat alternativ om du föredrar det (Hostinger fungerar bra)
  • SE Ranking för åtkomst till AI Search-promptdata.
  • OpenAI för att klassa FAQ-intent och confidence.
  • SE Ranking API-nyckel (hämta den från ditt SE Ranking-konto/API-inställningar).

Kunskapsnivå: Medel. Du klistrar in API-nycklar, justerar några fält och kör testkörningar.

Vill du att någon bygger detta åt dig? Prata med en automatiseringsexpert (gratis 15-minuters konsultation).

Steg för steg

Du definierar mål och filter. I noden för inmatningsfält anger du domän, region/källa och eventuella regler för att inkludera/exkludera nyckelord så att hämtningen matchar exakt den nisch du bryr dig om.

SE Ranking-data hämtas och packas upp. n8n anropar SE Rankings AI Search-endpoint och separerar sedan råa prompter, referenslänkar och tänkbara frågor så att de kan bearbetas strukturerat i stället för som en enda stor klump.

OpenAI klassar intent (och confidence). De extraherade Q&A-posterna skickas genom en zero-shot-klassificerare som använder en OpenAI-chatmodell, vilket taggar varje post som HOW_TO, DEFINITION, PRICING och andra intenttyper som teamet kan agera på.

En strukturerad JSON-fil skapas. Allt slås ihop och aggregeras till en slutlig datamängd, konverteras till en binär payload och skrivs till disk som en JSON-export som du kan koppla in i analys, contentplanering eller publiceringsflöden.

Du kan enkelt justera intent-taxonomin så att den matchar din sajt (till exempel dela upp “PRICING” i “COST” vs “PLANS”) utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den manuella triggern

Ställ in den manuella triggern för att starta arbetsflödet för testning och körningar vid behov.

  1. Lägg till noden Manual Start Trigger som arbetsflödets startpunkt.
  2. Koppla Manual Start Trigger till Assign Input Parameters.
Använd den manuella triggern medan ni bygger arbetsflödet så att ni kan köra det och inspektera data i varje nod.

Steg 2: Konfigurera inparametrar

Definiera målwebbplatsen och frågeparametrarna som ska skickas till SERanking API.

  1. Öppna Assign Input Parameters och lägg till följande tilldelningar:
  2. Ställ in target_site till seranking.com, engine till ai-mode, source till us och scope till domain.
  3. Ställ in sort till volume, sort_order till desc, offset till 0 och limit till 100.
  4. Ställ in multi_keyword_included till [ [ { "type": "contains", "value": "seo" } ] ].
  5. Ställ in multi_keyword_excluded till [ [ { "type": "contains", "value": "seo" }, { "type": "contains", "value": "tools" } ], [ { "type": "contains", "value": "backlinks" } ] ].
⚠️ Vanlig fallgrop: Behåll JSON-formateringen i multi_keyword_included och multi_keyword_excluded exakt som den visas för att undvika API-valideringsfel.

Steg 3: Anslut SERanking API och hämta prompts

Konfigurera API-anropet för att hämta prompts och routa utdata till parallella bearbetningsgrenar.

  1. Öppna Fetch SERanking Prompts och ställ in URL till https://api.seranking.com/v1/ai-search/prompts-by-target.
  2. Aktivera Send Query och mappa frågeparametrarna till de tilldelade indatavärdena:
  3. Ställ in target till {{ $json.target_site }}, scope till {{ $json.scope }}, source till {{ $json.source }}, engine till {{ $json.engine }}.
  4. Ställ in sort till {{ $json.sort }}, sort_order till {{ $json.sort_order }}, offset till {{ $json.offset }}, limit till {{ $json.limit }}.
  5. Ställ in filter[multi_keyword_included] till {{ $json.multi_keyword_included }} och filter[multi_keyword_excluded] till {{ $json.multi_keyword_excluded }}.
  6. Autentisering krävs: Anslut era httpHeaderAuth-credentials i Fetch SERanking Prompts (noden är konfigurerad att använda genericCredentialType med httpHeaderAuth).
  7. Bekräfta den parallella routningen: Fetch SERanking Prompts skickar utdata till Parse Reference Links, Build QnA Pairs, Isolate Questions och Collect Raw Prompts parallellt.
Om SERanking i stället kräver en bearer token, byt nodens autentisering till httpBearerAuth och anslut den credential-typen.

Steg 4: Bearbeta och slå ihop dataströmmar för prompts

Extrahera frågor, referenslänkar, QnA-par och råa prompts och aggregera dem sedan till ett kombinerat dataset.

  1. Granska kodnoderna för att säkerställa att varje utdatastuktur är korrekt:
  2. Isolate Questions ger ut { questions } från prompts.
  3. Parse Reference Links ger ut { urls } filtrerat till giltiga http-länkar.
  4. Build QnA Pairs ger ut { qna } med fråge-/svarpar.
  5. Collect Raw Prompts ger ut { prompts } för att behålla full rådata.
  6. Bekräfta att Isolate Questions ger utdata till både ZeroShot QnA Classifier och Combine Custom Streams parallellt.
  7. Ställ in Combine Custom Streams att slå ihop 4 indata med Number Inputs satt till 4.
  8. I Aggregate Custom Data, ställ in Aggregate till aggregateAllItemData och Destination Field Name till custom_aggregate.

Steg 5: Konfigurera AI-klassificering och berikning

Klassificera frågor i intent-kategorier med zero-shot-classifiern och slå ihop resultaten med anpassad data.

  1. Öppna ZeroShot QnA Classifier och behåll Text-prompten som den är, och säkerställ att frågeuttrycket förblir {{ $json.questions.toJsonString() }}.
  2. Verifiera att Schema Type är manual och att Input Schema definierar de förväntade fälten (id, question, category, confidence).
  3. Säkerställ att OpenAI Chat Model är ansluten till ZeroShot QnA Classifier som språkmodell.
  4. Autentisering krävs: Anslut era openAiApi-credentials i OpenAI Chat Model (credentials läggs till på den överordnade modellnoden, inte i classifiern).
  5. Bekräfta att ZeroShot QnA Classifier ger utdata till Merge Enriched Output, och att Aggregate Custom Data också ger utdata till Merge Enriched Output.
  6. I Aggregate Final Dataset, ställ in Aggregate till aggregateAllItemData för att slå ihop berikade resultat.
⚠️ Vanlig fallgrop: Lägg inte till OpenAI-credentials direkt i ZeroShot QnA Classifier. Credentials måste vara anslutna till OpenAI Chat Model.

Steg 6: Skapa utdatafil

Konvertera det slutliga datasetet till en binär payload och spara det som en JSON-fil.

  1. I Create Binary Payload, behåll Function Code som serialiserar JSON och base64-kodar det för binär utdata.
  2. Öppna Write JSON File och ställ in Operation till write.
  3. Ställ in File Name till =C:\\SERanking_PromptFAQ.json.
  4. Ställ in Data Property Name till =data.
Säkerställ att n8n-instansen har skrivbehörighet till C:\ eller uppdatera sökvägen till en giltig katalog.

Steg 7: Testa och aktivera ert arbetsflöde

Kör arbetsflödet manuellt, verifiera utdata och aktivera det för användning i produktion.

  1. Klicka på Execute Workflow från Manual Start Trigger för att köra ett test.
  2. Kontrollera att Fetch SERanking Prompts returnerar data och att varje parallell gren producerar sin förväntade utdata.
  3. Verifiera att Merge Enriched Output och Aggregate Final Dataset innehåller både klassificeringsresultat och anpassade aggregat.
  4. Bekräfta att Write JSON File skapar SERanking_PromptFAQ.json med giltigt JSON-innehåll.
  5. När ni är nöjda, växla arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Felsökningstips

  • SE Ranking-uppgifter kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, börja med att kontrollera status för din SE Ranking API-nyckel och header-auth-formatet i noden HTTP Request.
  • Om du använder Wait-noder eller extern bearbetning varierar tiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att sitta och redigera utdata för alltid.

Snabba svar

Hur lång tid tar det att sätta upp den här SE Ranking FAQs-automatiseringen?

Cirka 30 minuter om dina API-nycklar är redo.

Krävs det kodning för den här intent-klassningen av FAQ?

Nej. Du konfigurerar främst autentiseringsuppgifter och redigerar några inmatningsfält. “Code”-noderna är redan inbyggda i flödet.

Är n8n gratis att använda för det här SE Ranking FAQs-flödet?

Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Molnplaner börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API (ofta några cent per batch, beroende på hur många frågor du klassar).

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och klarar n8n bra. Självhosting ger dig obegränsat antal körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här SE Ranking FAQs-flödet för andra användningsfall?

Ja, och det bör du förmodligen. Du kan ändra intent-kategorierna i noden ZeroShot QnA Classifier, snäva in nischen genom att redigera inkluderings-/exkluderingsfilter i noden Assign Input Parameters och byta ut steget Write JSON File mot Google Sheets, en webhook eller en CMS-utmatning. En vanlig justering är att filtrera bort poster med låg confidence innan export, så att skribenterna bara ser “klara” frågor.

Varför misslyckas min SE Ranking-anslutning i det här flödet?

Oftast är det header-auth-formatet. SE Ranking förväntar sig ett Token-värde (med ett mellanslag) följt av din API-nyckel, och ett saknat mellanslag kan få anropet att fallera. Kontrollera också att nyckeln är aktiv och har behörighet för AI Search-endpointen. Om det fungerar i SE Ranking men inte i n8n, granska den senaste responsen i noden HTTP Request för ett tydligt felmeddelande.

Vilken volym kan det här SE Ranking FAQs-flödet hantera?

Det beror främst på dina SE Ranking-gränser och hur många poster du begär per körning, men dussintals till några hundra frågor i en batch är realistiskt.

Är den här SE Ranking FAQs-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här inte bara är “flytta data från A till B”. Du slår ihop strömmar, transformerar JSON, kör en klassificerare och exporterar en strukturerad datamängd, vilket är den typen av flersteglogik som n8n hanterar utan problem. Självhosting spelar också roll om du vill köra stora uppdateringar utan att bevaka task-limiter. Zapier eller Make kan fortfarande fungera om din variant är väldigt enkel (till exempel hämta data, skicka till Sheets), men du brukar slå i komplexitetsväggar när du lägger till berikning och aggregering. Prata med en automatiseringsexpert om du vill ha hjälp att välja.

När detta väl rullar slutar FAQ-research att vara ett engångsprojekt och blir en repeterbar datamängd som du kan uppdatera när prioriteringarna ändras. Ärligt talat är det skillnaden mellan “vi borde lägga till FAQ:er” och ett system som teamet kan skala.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal