Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

OpenAI + Claude: 50 varumärkesprompter till CSV

Rickard Andersson Partner, Nodenordic.se

Du kan uppgiften. Någon säger: ”Vi borde följa upp hur AI-verktyg pratar om vårt varumärke”, och plötsligt sitter du med ett tomt papper, noll prompts, noll struktur och en deadline som av någon anledning är exakt lika tight.

Det här är den typen av röra som sänker SEO/GEO-marknadsförare först, men Growth-ansvariga och grundare dras in i det också. Ett AI prompt CSV-dataset låter enkelt tills du inser att du behöver research, personas, kategorier, språk och konsekvent formatering som en övervakningsplattform faktiskt accepterar.

Det här n8n-workflowet tar ett företagsnamn och en URL, researchar verksamheten, genererar 50 övervakningsprompts (engelska + tyska), taggar allt och exporterar en CSV som är redo att importera. Du ser vad det automatiserar, vilka resultat det skapar och hur du anpassar det till din egen spårningssetup.

Så fungerar automatiseringen

Hela n8n-workflowet, från trigger till slutresultat:

n8n Workflow Template: OpenAI + Claude: 50 varumärkesprompter till CSV

Problemet: att bygga AI-övervakningsprompts är en tidstjuv

Att skapa ett användbart prompt-dataset är överraskande svårt. Du kan inte bara skriva ”Vad säger folk om varumärke X?” femtio gånger och kalla det övervakning. Du behöver prompts som speglar verkligt köparspråk, verkliga användningsfall, jämförelser med konkurrenter och kategorispecifika frågor som modeller som ChatGPT, Perplexity, Claude och Gemini svarar olika på. Och så har du formateringen: kolumner, taggar, språk och konsekventa kategorier så att datasetet fortsätter vara användbart nästa månad, inte bara i dag.

Det eskalerar snabbt. Här är var det brukar fallera.

  • Research görs i utspridda flikar, vilket gör att promptarna inte matchar företagets faktiska positionering.
  • Att skriva prompts blir ett halvdagsprojekt eftersom du behöver variation, inte dubbletter med små ordbyten.
  • Översättningar hamnar ofta sist, så du får kantig tyska (eller ingen alls) och inkonsekvent intention.
  • Utan felfria taggar (bransch, kategori, modell, språk) kan du inte filtrera resultat senare, och då blir rapporteringen manuell igen.

Lösningen: företagsresearch → strukturerade prompts → taggad CSV-export

Det här workflowet förvandlar en enda input (företagsnamn + webbplats-URL) till ett strukturerat, plattformsredo prompt-dataset. Det börjar med att samla in företagskontext via OpenAI med webbsök, och plockar fram den typen av detaljer som du annars hade sammanställt manuellt: kärnerbjudande, positionering, funktioner och troliga köparpersonas. Sedan tar Claude över och gör prompt-hantverket, och genererar naturligt formulerade övervakningsfrågor som speglar vad prospekt och kunder faktiskt frågar. Workflowet skapar 25 engelska prompts och översätter dem automatiskt till 25 tyska prompts, och slår sedan ihop båda språken till en konsekvent tabell med metadata. Till sist exporteras allt som en CSV-fil som du kan ladda upp direkt i ett system för AI-synlighetsspårning (eller behålla som ert interna övervakningsbibliotek).

Workflowet startar med en enkel formulärinsändning i n8n. Därifrån sker research, prompt-förfining, översättning och tabellformatering i tur och ordning. I slutet laddar du ner en taggad CSV, redo att importera, utan att behöva rensa något för hand.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du behöver ett nytt dataset inför en ny varumärkeslansering. Manuell väg kan du lägga cirka 2 timmar på att researcha företaget, sedan ytterligare 2 timmar på att skriva och avduplicera 50 prompts, och därefter cirka 1 timme på att tagga och formatera CSV:en. Om du även behöver tyska, lägg till cirka 1 timme för att översätta och städa upp. Med det här workflowet skickar du in företagsnamn + URL på under 5 minuter, väntar cirka 5 minuter på bearbetning och laddar sedan ner den färdiga CSV:en. Det är i praktiken ett halvdagsgöra som blir en snabb överlämning.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
  • OpenAI API för företagsresearch med webbsök
  • Anthropic (Claude) API för att generera och översätta prompts
  • OpenAI API-nyckel (hämta den i OpenAI API-dashboarden)

Kunskapsnivå: Nybörjare. Du klistrar in API-nycklar, kör en testinsändning och justerar prompttext om du vill ha andra kategorier.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så här fungerar det

Du skickar in ett företagsnamn och en URL. Workflowet startar från en formulärtrigger i n8n (”Form Submission Trigger”), och mappar sedan fälten till det format som behövs för research-begäran.

OpenAI researchar företaget och returnerar strukturerad kontext. En HTTP-begäran hämtar research-svaret, och sedan parsar och rensar workflowet det (inklusive att ta bort citationsmarkeringar) så att senare steg kan återanvända datan på ett tillförlitligt sätt.

Claude genererar övervakningsprompts utifrån fröfraser och insikter. Fröfraser byggs och förfinas, nyckelordsdata hämtas och Claude tar fram prompt-frågor som passar synlighetsspårning i olika AI-motorer. Viss logik kontrollerar och konsoliderar källor så att du inte får repetitiva rader.

En CSV-fil skapas och exporteras. Engelska prompts sammanställs i en tabell, översätts till tyska, slås ihop med metadata-taggar (företag, bransch, kategori, språk, modell) och konverteras till en nedladdningsbar CSV.

Du kan enkelt ändra promptkategorierna så att de matchar dina produktlinjer eller målsegment. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera triggern för formulärinlämning

Skapa formuläret som startar arbetsflödet och fångar företagets indata.

  1. Lägg till och öppna Form Submission Trigger.
  2. Ställ in Form Title till Input.
  3. Ställ in Form Description till Provide a company name and a website.
  4. Lägg till två formulärfält: Provide a Company Name (platshållare ALLMO.ai) och Provide a Website URL (platshållare www.allmo.ai).

Steg 2: Anslut OpenAI-tjänster för research och nyckelord

Mappa formulärfälten och kör research/nyckelordsextrahering via OpenAI-svar.

  1. I Map Input Fields, lägg till tilldelningar för company_name med {{ $json['Provide a Company Name'] }} och company_website med {{ $json['Provide a Website URL'] }}.
  2. Öppna Company Research Request och ställ in URL till https://api.openai.com/v1/responses och Method till POST.
  3. Ställ in Authentication till predefinedCredentialType och Node Credential Type till openAiApi. Credential Required: Anslut era openAiApi-uppgifter.
  4. Behåll request body som JSON och säkerställ att användarinnehållet använder {{ $json.company_name }} och {{ $json.company_website }}, plus verktygsfiltret {{ $json.company_website }} i Company Research Request.
  5. I Fetch Top Keywords, bekräfta samma URL och Method, och att användarprompten refererar till {{ $('Map Input Fields').item.json.company_name }}, {{ $('Map Input Fields').item.json.company_website }}, {{ $('Strip Citation Marks').item.json.industry }}, och {{ $('Strip Citation Marks').item.json.solution.unbranded_name }}. Credential Required: Anslut era openAiApi-uppgifter.
⚠️ Vanlig fallgrop: Om Company Research Request returnerar text som inte är JSON kommer Parse Research JSON att misslyckas. Behåll systeminstruktionerna intakta så att modellen endast matar ut giltig JSON.

Steg 3: Ställ in profilparsning och fraskällor

Rensa research-svaret, sätt ihop strukturerade fält och generera samt förfina fraser. Flera kodnoder samverkar här (totalt 11 kodnoder), så fokusera på den kritiska kedjan nedan.

  1. I Parse Research JSON och Strip Citation Marks, behåll den medföljande JavaScript-koden för att parsa och rensa JSON-utdata från researchen.
  2. I Assemble Profile Fields, mappa fält som industry till {{ $json.industry }}, Unbranded category till {{ $json.solution.unbranded_name }}, och category till {{ $json.solution.category }}.
  3. Fortsätt mappa persona-, problem- och feature-fält i Assemble Profile Fields, t.ex. Persona 0 - name till {{ $json.buyer_personas[0].name }} och Problem 1 till {{ $json.problems_solved[0] }}.
  4. Från Assemble Profile Fields förgrenas arbetsflödet parallellt: Assemble Profile Fields skickar utdata till både Build 13 Seed Phrases, Fetch Top Keywords och Claude Prompt Generator parallellt.
  5. Lämna JavaScript-koden i Build 13 Seed Phrases oförändrad för att generera de 13 initiala fraserna från de sammanställda fälten.
  6. Öppna Claude Phrase Refiner och behåll promptstrukturen. Credential Required: Anslut era anthropicApi-uppgifter.
  7. I Parse Refined Phrases, behåll JSONL-parsningslogiken; den extraherar förfinade fraser från modellsvar.
  8. Behåll Extract Keyword JSON och Combine Phrase Sources oförändrade för att slå ihop förfinade fraser med OpenAI-nyckelordstermer.

Steg 4: Ställ in AI-promptgenerering och sammanställning av engelsk dataset

Generera ytterligare frågor via Claude och slå sedan ihop alla engelska promptar till en dataset.

  1. Öppna Claude Prompt Generator och behåll promptinnehållet och indatamappningen. Credential Required: Anslut era anthropicApi-uppgifter.
  2. I Parse Prompt Questions, behåll JSON-parsningslogiken för att extrahera arrayen questions till prompts.
  3. Säkerställ att Consolidate Prompts är kopplad efter Combine Phrase Sources för att skapa den enhetliga engelska promptlistan.
  4. Verifiera att Merge English Outputs tar emot både Consolidate Prompts och Parse Prompt Questions.
  5. Behåll Compile English Dataset för att mata ut ett enda JSON-item med language english och country global.

Steg 5: Konfigurera översättning, tabellisering och sammanslagningslogik

Dela upp den engelska datasetten i en tabell, översätt till tyska och slå ihop båda språken.

  1. Efter Compile English Dataset förgrenas arbetsflödet parallellt: Compile English Dataset skickar utdata till både Tabularize Prompts och Claude German Translator parallellt.
  2. I Tabularize Prompts, behåll koden som skapar en rad per prompt med language english och country global.
  3. Öppna Claude German Translator och behåll översättningsinstruktionerna. Credential Required: Anslut era anthropicApi-uppgifter.
  4. I Parse German Translations, behåll JSON-parsningen för att mata ut ett item per tysk prompt med language german och country DE.
  5. Bekräfta att Merge Languages tar emot utdata från Tabularize Prompts och Parse German Translations.

Steg 6: Konfigurera export av utdatafil

Lägg till uppladdningsklara fält och konvertera datasetten till en fil.

  1. I Append Upload Fields, behåll koden som lägger till model som ["gpt-5-mini-2025-08-07","sonar","gemini-2.5-flash-lite-search"], search_question som {{ $json.prompt }}, tracking_interval som Weekly, och status som active.
  2. Säkerställ att Export File är kopplad efter Append Upload Fields för att skapa den nedladdningsbara filen.

Steg 7: Testa och aktivera ert arbetsflöde

Kör ett fullständigt test för att validera research, promptgenerering, översättningar och filexport innan ni aktiverar arbetsflödet.

  1. Klicka på Execute Workflow och skicka in Form Submission Trigger med ett verkligt företagsnamn och en webbplats.
  2. Bekräfta att Company Research Request returnerar giltig JSON och att Parse Research JSON matar ut strukturerade fält.
  3. Verifiera att Combine Phrase Sources och Compile English Dataset skapar en ifylld prompts-array.
  4. Kontrollera att Parse German Translations matar ut tyska rader och att Merge Languages inkluderar både engelska och tyska poster.
  5. Öppna utdata från Export File för att säkerställa att filen innehåller prompt, language, country, model, search_question, tracking_interval och status.
  6. När ni är nöjda, slå om arbetsflödet till Active för användning i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • OpenAI-inloggningsuppgifter kan gå ut eller sakna rätt åtkomst för webbkapabla modeller. Om något skapar fel, kontrollera först status för din OpenAI API-nyckel och modellbehörigheter i OpenAI-dashboarden.
  • Om du använder Wait-noder eller extern bearbetning varierar tajmingen. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompts i AI-noder är generiska. Lägg in er varumärkesröst tidigt, annars kommer du redigera utdata i all evighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för AI prompt CSV?

Cirka 30 minuter om dina API-nycklar är redo.

Behöver jag kunna koda för att automatisera skapandet av AI prompt CSV?

Nej. Du kopplar konton, klistrar in nycklar och kör en testinsändning. Workflowets kodnoder är redan byggda, så du konfigurerar främst inputs och prompts.

Är n8n gratis att använda för det här AI prompt CSV-workflowet?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna med kostnader för API-användning hos OpenAI och Anthropic, som varierar beroende på hur mycket text du genererar.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här AI prompt CSV-workflowet för fler språk?

Ja, och det är en av de enklaste uppgraderingarna. Du kan duplicera delen Claude German Translator och byta målspråk i översättningsprompten, och sedan slå ihop det nya språket på samma sätt som ”Merge Languages” gör nu. Många team lägger till spanska eller franska först och delar sedan upp utdata i separata CSV-filer om deras övervakningsplattform föredrar ett språk per import.

Varför fallerar min OpenAI-anslutning i det här workflowet?

Oftast är det ett problem med API-nyckeln eller modellåtkomst. Skapa en ny OpenAI-nyckel, uppdatera den i n8n och bekräfta att ditt konto kan använda en webbenabled research-modell. Om det bara fallerar på vissa webbplatser kan mål-URL:en blockera bottar eller returnera ett icke-standardiserat svar som parsesteget inte kan läsa korrekt formaterat.

Hur många prompts kan den här AI prompt CSV-automatiseringen hantera?

Den genererar 50 prompts per körning som standard, men du kan höja det om du är okej med högre API-användning och längre processtid.

Är den här AI prompt CSV-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom det här workflowet har flera AI-steg, sammanfogning, parsing och logik för filexport som blir klumpig (och dyr) i enklare automationsverktyg. n8n är också enklare att bygga ut när du vill lägga till fler språk, nya taggkolumner eller olika prompt-”paket” per kategori. Zapier eller Make kan fortfarande funka om du bara vill ha en enkel tvåstegssetup ”formulär → AI → kalkylark”, helt ärligt. Om du är osäker, prata med en automationsexpert så tar vi fram det billigaste alternativet för din volym. Ta med din målplattform så designar vi efter dess importformat.

När du väl har ett korrekt formaterat prompt-dataset slutar uppföljning av AI-synlighet vara ett engångsprojekt och blir en återkommande rutin. Sätt upp det en gång och lägg sedan tiden på insikterna i stället för att putsa kalkylark.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal