Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Scrapeless till Qdrant: sidor blir sökbar data

Rickard Andersson Partner, Nodenordic.se

Att kopiera stycken från webbsidor till dokument eller kalkylark känns snabbt. Sedan försöker du hitta det där citatet senare, inser att du tappat käll-URL:en, och “researchen” blir en rörig hög.

Marknadsansvariga som gör konkurrentanalys drabbas hårdast, men byråägare som bygger kunders kunskapsbaser och operations-team som underhåller interna wikis kör in i samma vägg. Den här Scrapeless Qdrant-automationen förvandlar webbsidor till sökbar data, så att du kan hämta svar på sekunder i stället för att återläsa flikar i en timme.

Du får se hur flödet hämtar pålitlig HTML, rensar den med AI, skapar embeddings och lagrar allt i Qdrant med status-webhooks för insyn.

Så fungerar den här automationen

Hela n8n-flödet, från trigger till slutresultat:

n8n Workflow Template: Scrapeless till Qdrant: sidor blir sökbar data

Problemet: webbresearch förblir inte sökbar

Webbsidor är ett uselt långtidsformat för allt du behöver återanvända. De ändras, laddar konstigt, blockerar scrapers och gömmer den enda nyckelmeningen du faktiskt brydde dig om. Så team bygger ett “manuellt skyddsnät”: kopiera, klistra in, städa upp, märka upp och hoppas att framtids-du minns var det kom ifrån. Det handlar inte bara om tid. Det är mental belastning, dubbelarbete och misstag som i tysthet sprids in i briefs, presentationer och kundrekommendationer.

Det eskalerar snabbt. Här är var det faller isär i verkligheten.

  • Du tappar kontext när käll-URL, sidtitel och tidsstämpel inte sparas tillsammans med anteckningarna.
  • Tunga JavaScript-sajter och antibot-skydd gör “snabb scraping” opålitlig, så flödet dör redan i starten.
  • Även när du fångar sidan får du ostrukturerad text, vilket betyder att sökning i praktiken blir Ctrl+F och tur.
  • Team samlar in samma info varje månad eftersom inget indexeras på ett sätt som en agent eller kollega kan fråga mot.

Lösningen: gör webbsidor till ett återanvändbart vektorbibliotek

Det här flödet skapar en felfri pipeline från “URL:en jag behöver förstå” till “sökbar kunskap jag kan återanvända”. Det börjar när du manuellt startar flödet i n8n (perfekt för ad hoc-researchsprintar), och sätter sedan en mål-URL och en webhook-destination för uppdateringar. Scrapeless hämtar sidans HTML på ett sätt som hanterar svåra sajter mer pålitligt än enkla scrapers. Därefter säkerställer ett AI-steg att du faktiskt fick meningsfullt innehåll, och ett AI-extraktionsskript gör rörig HTML till strukturerad JSON du kan lita på.

Sedan förbättrar och formaterar flödet det extraherade innehållet, och genererar embeddings med en lokal Ollama-modell (all-minilm). Till sist kontrollerar det Qdrant för rätt collection, skapar den vid behov, sparar vektorerna och notifierar dig via webhook när körningen lyckas eller misslyckas. Resultatet blir en sökbar vektordatabas som är redo för semantisk sökning, interna verktyg eller RAG-agenter.

Det du får: automation vs. resultat

Exempel: så här ser det ut

Säg att du samlar 20 konkurrent-sidor varje vecka. Manuellt kan du lägga cirka 10 minuter per sida på att kopiera avsnitt, städa upp och märka upp källor, alltså ungefär 3 timmar. Med det här flödet klistrar du in en URL en gång och låter pipelinen jobba: en minut för att starta, några minuter för att hämta och extrahera, och sedan hamnar vektorerna i Qdrant automatiskt. Du granskar fortfarande resultatet, men det repetitiva arbetet försvinner till stor del.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen drift om du föredrar det (Hostinger fungerar bra)
  • Scrapeless för att hämta pålitlig webbsides-HTML
  • Qdrant för att lagra och söka i vektor-embeddings
  • Scrapeless API-token (hämta den i din Scrapeless-dashboard)

Kunskapsnivå: Medel. Du klistrar in API-nycklar, kör Qdrant/Ollama och redigerar ett par fält som collections-namn och webhook-URL.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Manuell start med en mål-URL. Du startar flödet, och det sätter URL:en du vill fånga samt en webhook-destination för uppdateringar.

Pålitlig extraktion från öppna webben. Scrapeless hämtar HTML:en, vilket hjälper när sajter är JavaScript-tunga eller försöker blockera enklare scrapers. En innehållsvalidator kontrollerar sedan att scrapingen gav riktigt innehåll, inte en felsida eller ett tomt skal.

AI gör HTML till strukturerad data. Extraktionsskriptet och förbättringsagenten formar om råsidan till strukturerad JSON och läsbar text, så att du inte embedddar slumpmässiga navigationsmenyer och cookie-banners. Ärligt talat är det här de flesta gör-det-själv-pipelines faller.

Vektorer lagras (och du blir notifierad). Ollama genererar embeddings lokalt, Qdrant lagrar dem i rätt collection (skapar den om den inte finns), och en webhook-notifierare skickar status för klar eller fel så att du slipper gissa.

Du kan enkelt ändra extraktionsschemat för att fånga andra fält utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: konfigurera den manuella triggern

Starta arbetsflödet med en manuell trigger så att ni kan testa hela pipelinen vid behov.

  1. Lägg till noden Manual Launch Trigger som er workflow-trigger.
  2. Lämna alla inställningar på standardvärden i Manual Launch Trigger.
  3. Koppla Manual Launch Trigger till Verify Collection Presence.

Steg 2: koppla kontroller för Qdrant-collection

Det här steget säkerställer att vector-collectionen finns innan ni skickar några embeddings.

  1. Öppna Verify Collection Presence och ställ in URL till http://localhost:6333/collections/hacker-news.
  2. I Verify Collection Presence, behåll Send Headers aktiverat och ställ in headern Content-Type till application/json.
  3. Konfigurera Collection Presence Gate med villkoret där Left Value är satt till {{ $node['Verify Collection Presence'].json.result ? $node['Verify Collection Presence'].json.status : 'not_found' }} och Right Value är satt till ok.
  4. Från Collection Presence Gate, koppla grenen true till Assign URL & Webhook och grenen false till Provision Qdrant Collection.
  5. I Provision Qdrant Collection, ställ in URL till http://localhost:6333/collections/hacker-news och Method till PUT.
  6. Koppla Provision Qdrant Collection till Assign URL & Webhook.

⚠️ Vanlig fallgrop: Om Qdrant inte körs på localhost:6333 kommer den här gate:en alltid att fallera. Uppdatera URL:erna i både Verify Collection Presence och Provision Qdrant Collection om er Qdrant-host är en annan.

Steg 3: koppla scraping-requesten

Konfigurera det externa scraping-anropet som hämtar webbsidans HTML.

  1. Öppna Assign URL & Webhook och behåll standardinställningarna (noden fungerar som en platshållare för framtida tilldelningar).
  2. Öppna External Scrape Request och ställ in URL till https://api.scrapeless.com/api/v1/unlocker/request.
  3. Ställ in Method till POST och Specify Body till json.
  4. Ställ in JSON Body till den angivna payloaden (innehåller "url": "https://news.ycombinator.com/" och renderingsalternativ).
  5. I External Scrape Request, ställ in headern x-api-token till ert API-nyckelvärde (just nu [CONFIGURE_YOUR_API_KEY]).

⚠️ Vanlig fallgrop: Om ni lämnar [CONFIGURE_YOUR_API_KEY] i headern kommer scrapingen att misslyckas. Ersätt den med en giltig Scrapeless API-token.

Steg 4: sätt upp AI-extrahering och valideringsflöde

Arbetsflödet förgrenas efter scraping för att hantera AI-validering och AI-förstärkt extrahering. External Scrape Request skickar output till både AI Content Validator och Claude Extraction Script parallellt.

  1. Öppna AI Content Validator och säkerställ att Claude API-anropet använder endpointen https://api.anthropic.com/v1/messages med headern x-api-key satt till er Anthropic-nyckel (just nu [CONFIGURE_YOUR_API_KEY]).
  2. Koppla AI Content Validator till Export Data Webhook för att skicka ut en formaterad fil med extraherad data.
  3. Öppna Claude Extraction Script och bekräfta att den använder samma Anthropic-endpoint och x-api-key-header med er nyckel.
  4. Koppla Claude Extraction Script till AI Enhancement Agent, och därefter till Claude Output Formatter för att parsa och normalisera JSON-outputen.

⚠️ Vanlig fallgrop: Claude API-nyckeln måste vara satt i AI Content Validator, Claude Extraction Script och AI Enhancement Agent (var och en använder [CONFIGURE_YOUR_API_KEY] i request-headers).

Steg 5: vektorisera och lagra i Qdrant

Transformera det extraherade innehållet till embeddings och spara dem i Qdrant.

  1. I Claude Output Formatter, behåll standardlogiken i JavaScript för att parsa och strukturera Claude-output.
  2. Öppna Ollama Vectorizer och säkerställ att embeddings-endpointen är satt till http://127.0.0.1:11434/api/embeddings med modellen all-minilm.
  3. Koppla Ollama Vectorizer till Qdrant Vector Saver för att lagra vektorer.
  4. I Qdrant Vector Saver, verifiera att storage-endpointen http://127.0.0.1:6333/collections/hacker-news/points är korrekt för er Qdrant-instans.
  5. Koppla Qdrant Vector Saver till Webhook Status Notifier för att skicka notifieringar om success/error.

⚠️ Vanlig fallgrop: Om Ollama inte körs lokalt kommer Ollama Vectorizer att fallera. Uppdatera URL:en om er Ollama-host skiljer sig.

Steg 6: konfigurera utgående webhooks

Skicka resultat till externa plattformar för synlighet och arkivering.

  1. I Export Data Webhook, lägg till webhook-URL:er för discord, slack, linear, teams eller telegram om ni vill ha filutdata.
  2. I Webhook Status Notifier, lägg till webhook-URL:er för discord, slack, teams, telegram eller custom för att ta emot statuslarm.
  3. Lämna eventuella oanvända webhook-fält tomma för att hoppa över notifieringar för de plattformarna.

Steg 7: testa och aktivera ert arbetsflöde

Kör arbetsflödet manuellt för att validera alla grenar och aktivera sedan för produktionsanvändning.

  1. Klicka på Execute WorkflowManual Launch Trigger för att köra hela pipelinen.
  2. Bekräfta att External Scrape Request slutförs och att AI Content Validator och Claude Extraction Script körs parallellt.
  3. Kontrollera att Ollama Vectorizer returnerar en vector och att Qdrant Vector Saver rapporterar success: true.
  4. Verifiera notifieringar i Webhook Status Notifier och exporterad data-output i Export Data Webhook.
  5. När ni är nöjda, växla arbetsflödet till Active för att använda det i produktion.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Scrapeless-inloggning kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först din Scrapeless API-token i n8n-noden HTTP Request.
  • Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder misslyckas på tomma svar.
  • Qdrant collections-namn och dimensioner måste matcha det du lagrar. Om vektorer inte går att infoga, kontrollera collection-inställningarna och bekräfta att din Ollama-embeddingmodell ger rätt output.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Scrapeless Qdrant-automationen?

Räkna med cirka 60 minuter om Qdrant och Ollama inte är installerade än.

Behöver jag kunna koda för att automatisera webbsidor till sökbar data?

Nej. Du kommer mest att klistra in inloggningsuppgifter och redigera några fält som URL, collections-namn och webhook-destination.

Är n8n gratis att använda för det här Scrapeless Qdrant-automationsflödet?

Ja. n8n har ett gratisalternativ för egen drift och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Scrapeless-användning och eventuella AI-modellkostnader om du kör hostade LLM:er.

Var kan jag hosta n8n för att köra den här automationen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen drift på en VPS. För egen drift är Hostinger VPS prisvärd och hanterar n8n bra. Egen drift ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Scrapeless Qdrant-automationsflödet för PDF-filer i stället för webbsidor?

Ja, men du byter steget “External Scrape Request” mot en filinläsningsväg. Om dina filer ligger i Drive kan du använda en Google Drive Trigger för att hämta PDF:en, sedan läsa den med Read PDF (eller Read Binary File vid behov) innan du skickar den extraherade texten vidare till samma extraktions-, embedding- och Qdrant-sparsteg. Vanliga justeringar är att lägga till metadata som dokumenttyp, kundnamn och en stabil fil-URL.

Varför misslyckas min Scrapeless-anslutning i det här flödet?

Oftast är det ett problem med API-token. Generera om din Scrapeless-token, uppdatera den i noden HTTP Request och kör om en enskild URL för att bekräfta. Om scrapingen returnerar “success” men innehållet är tomt kan sajten kräva andra Scrapeless-inställningar (render-läge, headers eller geo). Kontrollera också outputen från webhook-notifieraren, eftersom fel ibland syns där först.

Hur många sidor klarar den här Scrapeless Qdrant-automationen?

Med n8n i egen drift finns ingen hård körningsgräns, så kapaciteten beror främst på din server och Scrapeless-begränsningar.

Är den här Scrapeless Qdrant-automationen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom den här pipelinen behöver förgreningslogik (som “skapa Qdrant-collection bara om den saknas”), kodsteg och tät kontroll över payloaden du lagrar. n8n låter dig också köra i egen drift, vilket spelar roll när du processar många sidor och inte vill att varje körning debiteras som en premium-task. Zapier eller Make kan fortfarande fungera om du håller det enkelt, men du hamnar ofta i begränsningar när du lägger till validering, formatering och embeddings. Om du är osäker, välj utifrån var du vill att datan ska ligga och hur mycket du ska skala. Prata med en automationsexpert så tar vi fram det renaste alternativet.

När dina sidor väl hamnar i Qdrant slutar de vara “saker du läser” och blir “saker du kan använda”. Sätt upp det en gång, och låt sedan sökningen göra grovjobbet.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal