Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Facebook Ad Library till Google Sheets, Amazon-träffar

Rickard Andersson Partner, Nodenordic.se

Du hittar en lovande produkt i Facebook Ad Library … och sedan tappar du 30 minuter på att hoppa mellan flikar, kopiera länkar och försöka ”komma ihåg” vilket Amazon-resultat som såg mest likt ut.

Den här Ad Library automation drabbar prestationsmarknadsförare först, men butikägare och produktresearchers känner av det också. Det slutar med utspridda anteckningar, inkonsekventa jämförelser och ett kalkylark som alltid är ”nästan” uppdaterat.

Det här arbetsflödet gör om en Facebook Ad Library-URL till en strukturerad rad i Google Sheets med en betygsatt Amazon-matchning, så att du kan granska snabbare och fatta beslut med trygghet.

Så fungerar automatiseringen

Hela n8n-arbetsflödet, från trigger till slutresultat:

n8n Workflow Template: Facebook Ad Library till Google Sheets, Amazon-träffar

Problemet: annonsinspiration blir inte användbar research

Facebook Ad Library är grymt för att se vad som får annonsbudget. Det irriterande börjar direkt efter. Du öppnar en annons, klickar dig vidare till en produktsida (ibland), och försöker sedan göra en omvänd sökning på Amazon för att bedöma pris, recensioner och konkurrens. Halva tiden pekar annonsen på en landningssida utan tydligt produktnamn, eller så är kreativet medvetet vagt. Så du gissar, söker igen, sparar några länkar någonstans, och senare kan du inte återskapa varför du ens tyckte att det var ett bra spår från början.

Det växer snabbt. Och röran syns på väldigt förutsägbara sätt:

  • Du slösar cirka 10 minuter per annons bara på att plocka ut tillräckligt med info för att kunna söka på Amazon.
  • Olika personer i teamet ”loggar” research på olika sätt, vilket gör arket svårt att filtrera eller lita på.
  • Amazon-resultat kopieras utan kontext, så du kan inte avgöra om det var en stark matchning eller en chansning.
  • När produktnamnet är otydligt dör hela spåret och du går vidare för tidigt.

Lösningen: från en Ad Library-URL till en betygsatt Amazon-matchning i Sheets

Det här n8n-arbetsflödet startar med en Facebook Ad Library-URL, hämtar annonser via en Apify-scraper och gör sedan det du vanligtvis bävar för: det extraherar sidinnehåll, konverterar det till läsbar text och använder ett OpenAI-baserat steg för att identifiera produktnamnet när det inte är uppenbart. Därifrån triggar det en andra Apify-scraper för att söka på Amazon efter samma produktidé, mappar Amazon-fälten till ett konsekvent format, filtrerar och begränsar resultaten och verifierar länkar innan något loggas. Till sist lägger det till en enda, prydlig rad i Google Sheets som innehåller Facebook-snapshoten plus de bästa Amazon-kandidaterna och en signal i ”betygs”-stil, så att granskningen går snabbt.

Arbetsflödet startas manuellt i n8n när du är redo att göra research. Det samlar in Facebook-annonsdata, berikar den genom att parsa annonsens landningssida, kör sedan en Amazon-sökning och behåller bara resultaten som godkänns av ditt betygsfilter. Efter det skriver det strukturerad output till Google Sheets så att du har ett ställe att jobba från.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut

Säg att du går igenom 10 annonser från biblioteket varje vecka. Manuellt är det lätt att lägga cirka 10 minuter på att extrahera detaljer och ytterligare 10 minuter på att söka och jämföra Amazon-resultat, så du landar på ungefär 3 timmar i veckan (och det är när landningssidan är tydlig). Med det här arbetsflödet startar du körningen, väntar på att scraprarna ska returnera och granskar det som hamnar i Google Sheets. Räkna med 10 minuter aktivt arbete per batch, plus bearbetningstid i bakgrunden. Det är ett par timmar tillbaka, varje vecka, med bättre anteckningar.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för att logga research som rader
  • Apify för att köra Facebook- och Amazon-scraprarna
  • OpenAI API-nyckel (hämta den från din OpenAI-dashboard)

Kunskapsnivå: Medel. Du kopplar in API-uppgifter och klistrar in rätt Apify-endpoints, samt verifierar att dina kolumner i arket matchar det som läggs till.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Manuell start från n8n. Du startar arbetsflödet när du har en Facebook Ad Library-URL redo att researcha, vilket håller kostnaderna förutsägbara och undviker scraping när du inte behöver det.

Facebook-annonser scrapras och förbereds. En Apify-driven HTTP-request triggar Facebook Ad Library-scrapern, hämtar output och sparar en snapshot så att varje Amazon-jämförelse förblir kopplad till den ursprungliga annonskontexten.

Produktdetaljer härleds från landningssidan. Arbetsflödet hämtar sajtens HTML, konverterar den till ren text och använder sedan ett steg med OpenAI Chat Model för att identifiera produktnamnet. Ärligt talat är det här skillnaden mellan ”intressant annons” och ”handlingsbar produktresearch”.

Amazon-sökningen körs och resultaten struktureras. En andra scraper söker på Amazon, fält mappas till ett konsekvent format, lågt betygsatta resultat filtreras bort och arbetsflödet begränsar hur många matchningar som sparas så att arket förblir lättläst.

En strukturerad rad hamnar i Google Sheets. Länkar verifieras, fall där produkt saknas hanteras och sedan lägger arbetsflödet till det slutliga strukturerade resultatet. Du kan enkelt justera betygsfiltret till att vara striktare eller mer generöst beroende på behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-implementeringsguide

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet med en manuell trigger så att ni kan validera scraping- och berikningsflödet innan schemaläggning.

  1. Lägg till noden Manual Launch som din trigger.
  2. Lämna standardinställningarna, eftersom den här noden körs vid behov.
  3. Behåll valfritt sticky note Flowpast Branding för intern dokumentation.

Steg 2: anslut Facebook ad library-scrapen

Trigga och hämta Facebook ad library-scrapen och spara sedan snapshot-metadata för efterföljande bearbetning.

  1. I Trigger FB Library Scraper ställer ni in MethodPOST.
  2. Ställ in Specify Bodyjson och Send Bodytrue.
  3. Klistra in JSON-body exakt som visat, inklusive count, scrapeAdDetails och Facebook ad library-url.
  4. Koppla Trigger FB Library Scraper till Retrieve Scraper Output.
  5. I Store FB Snapshot mappar ni fälten med hjälp av uttrycken:
  6. Ställ in snapshot.page_name till {{ $json.snapshot.page_name }}, snapshot.page_profile_uri till {{ $json.snapshot.page_profile_uri }}, snapshot.caption till {{ $json.snapshot.cards[0].link_url }}, snapshot.cards[0].link_url till {{ $json.snapshot.cards[0].link_url }} och snapshot.body.text till {{ $json.snapshot.body.text }}.

Steg 3: konfigurera tolkning av webbplatsinnehåll och AI-baserad produktidentifiering

Hämta landningssidans HTML, konvertera den till oformaterad text och använd AI-modellen för att identifiera produktnamnet.

  1. I Fetch Site HTML ställer ni in URL{{ $json.snapshot.caption }}.
  2. I Convert to Plain Text behåller ni den tillhandahållna JavaScript-koden för att rensa bort HTML och outputta plainText.
  3. I Detect Product Name väljer ni modellen gpt-4.1-mini och använder systemmeddelandet som refererar till {{ $json.plainText }} och fälten i Store FB Snapshot.
  4. Credential Required: Anslut era openAiApi-uppgifter i Detect Product Name.
  5. I Check Product Missing ställer ni in villkoret så att {{ $json.message.content }} är lika med No Product Found.
Tips: Om webbplatsinnehållet är blockerat eller tomt faller AI-logiken tillbaka till Facebook-sidans namn, caption eller body-text för att extrahera produktnamnet.

Steg 4: konfigurera Amazon-sökning, filtrering och konsolidering

Sök på Amazon med det identifierade produktnamnet, mappa resultatfälten, filtrera på betyg och konsolidera data för output.

  1. I Launch Amazon Search Scraper ställer ni in MethodPOST och Specify Bodyjson.
  2. Ställ in JSON-body så att den innehåller "keyword": "{{ $json.message.content }}", "domainCode": "com", "sortBy": "recent", "maxPages": 1 och "category": "aps".
  3. I Map Amazon Fields sätter ni fälten med uttryck: amazonURL till {{ 'https://www.amazon.com'.concat($json.dpUrl) }}, productTitle till {{ $json.productDescription }}, price till {{ $json.price }} och productRating till {{ $json.productRating.slice(0,3) }}.
  4. I Apply Rating Filter ställer ni in villkoret till {{ $json.productRating }} större än eller lika med 4.3.
  5. Skicka resultaten via Cap Result Count och mappa sedan i Consolidate Item Data med {{ $json.amazonURL }}, {{ $json.productTitle }}, {{ $json.price }} och {{ $json.productRating }}.
  6. Store FB Snapshot outputtar till Iterate Batch Items, som outputtar till både Verify Amazon URL och Fetch Site HTML parallellt.
⚠️ Vanlig fallgrop: Säkerställ att Map Amazon Fields använder $json.dpUrl och inte en fullständig URL; concat bygger den giltiga Amazon-URL:en.

Steg 5: konfigurera output till Google sheets

Skriv verifierade resultat till Google Sheets när Amazon-URL:en är bekräftad.

  1. I Verify Amazon URL ställer ni in villkoret till {{ $json.amazonURL }} inte tom.
  2. I Append Sheet Row ställer ni in Operationappend.
  3. Välj Spreadsheet med Document ID satt till [YOUR_ID] och Sheet satt till Sheet1.
  4. Mappa kolumner med uttryck: Price till {{ $json.price }}, Rating till {{ $json.productRating }}, Link URL till {{ $('Store FB Snapshot').item.json.snapshot.cards[0].link_url }}, AmazonURL till {{ $json.amazonURL }}, FB Page Name till {{ $('Store FB Snapshot').item.json.snapshot.page_name }} och ProductTitle till {{ $('Detect Product Name').item.json.message.content }}.
  5. Credential Required: Anslut era googleSheetsOAuth2Api-uppgifter i Append Sheet Row.

Steg 6: testa och aktivera ert arbetsflöde

Kör ett manuellt test för att verifiera varje steg och aktivera sedan arbetsflödet för regelbunden användning.

  1. Klicka på Execute Workflow i Manual Launch för att starta en testkörning.
  2. Bekräfta att Retrieve Scraper Output returnerar snapshot-data och att Fetch Site HTML hämtar HTML-innehåll.
  3. Verifiera att Detect Product Name skapar en produktsträng (inte No Product Found) och att Map Amazon Fields skapar en fullständig amazonURL.
  4. Kontrollera att Append Sheet Row lägger till en rad med pris, betyg, URL:er och produkttitel i Google Sheets.
  5. När allt fungerar växlar ni arbetsflödet till Active för produktionsanvändning.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Apify-uppgifter kan löpa ut eller så kan din token sakna åtkomst till aktören. Om det skapar fel, kontrollera först inställningarna i ditt Apify-konto och behörigheterna för den specifika aktören.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Standardprompter i OpenAI-steget för produktnamn är generiska. Lägg till en hint som ”extrahera varumärke + modell + produkttyp”, annars kommer du att redigera output i all evighet.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Ad Library automation automation?

Cirka en timme om dina Apify-aktörer och ditt Google Sheet är redo.

Behöver jag kodningskunskaper för att automatisera Ad Library automation?

Nej. Du kopplar främst konton och klistrar in Apify-endpoints. Den enda ”kodlika” delen är valfri finjustering av textextraktionen och AI-prompten.

Är n8n gratis att använda för det här Ad Library automation-arbetsflödet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med kostnader för OpenAI API (ofta några cent per körning) och det din Apify-användning kostar för scraprarna.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här Ad Library automation-arbetsflödet för olika Amazon-marknader?

Ja, men då vill du uppdatera konfigurationen för Amazon-scrapern som requesten ”Launch Amazon Search Scraper” anropar. Vanliga anpassningar är att byta marknadsplatsdomän (US/UK/DE), skärpa logiken i ”Apply Rating Filter” och ändra vilka fält som skrivs i ”Append Sheet Row” så att teamet granskar rätt signaler.

Varför misslyckas min Apify-anslutning i det här arbetsflödet?

Oftast är det en ogiltig eller utgången token, eller så saknar token åtkomst till aktören du anropar. Kontrollera Apify-token i dina n8n-uppgifter och bekräfta sedan att aktörens endpoint i HTTP Request-noden är korrekt. Om det bara misslyckas ibland kan du slå i Apifys rate limits eller i en köad körning som tar längre tid än väntat.

Hur många annonser kan den här Ad Library automation automation hantera?

I självhostad n8n finns ingen gräns för antal körningar, så den praktiska begränsningen är din server och din Apify-plan. I n8n Cloud sätter din plan antalet körningar per månad, vilket innebär att team med hög volym kan vilja batcha körningar. I de flesta fall trivs det här arbetsflödet bäst när du bearbetar annonser i chunkar (uppdelat i batcher) i stället för att försöka göra allt i en enda monsterkörning.

Är den här Ad Library automation automation bättre än att använda Zapier eller Make?

Ofta, ja. Det här arbetsflödet bygger på scraping i flera steg, förgrenade kontroller (saknad produkt, URL-verifiering) och ett AI-extraktionssteg, och n8n hanterar den typen av logik snyggt utan att bli en skör kedja av zaps. Du kan också self-hosta, vilket håller kostnaderna stabila när volymen växer. Zapier eller Make kan fortfarande funka för en lättare variant, men du brukar stöta på begränsningar när du lägger till scraping och filtrering. Om du vill ha en snabb rekommendation för din situation, prata med en automationsexpert.

När det här väl rullar förvandlas din ”annonsinspiration” till en verklig researchpipeline som du faktiskt kan granska. Arbetsflödet tar hand om det monotona hoppandet, och du behåller fokus för besluten som spelar roll.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal