Att kopiera info från webbplatser låter enkelt tills du gör det hela veckan. Flikar överallt, rörig formatering, saknade fält – och du litar fortfarande inte på det du klistrade in.
Den här Gemini Gmail-automationen träffar marknadsförare och ops-team först, ärligt talat. En frilansare som bygger rapporter åt kunder känner av det också. Du skickar en URL och får tillbaka en felfri, konsekvent uppsättning fält i din inkorg.
Den här guiden visar vad arbetsflödet gör, vad du behöver och hur delarna hänger ihop så att du kan återanvända resultatet i dokument, kalkylark och briefs utan efterarbete.
Så här fungerar den här automationen
Här är det kompletta arbetsflödet du kommer att sätta upp:
n8n Workflow Template: Gemini till Gmail: webbdata du kan återanvända
flowchart LR
subgraph sg0["Web Scraper form submission Flow"]
direction LR
n0@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Parser", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Get HTML from source url"]
n2@{ icon: "mdi:robot", form: "rounded", label: "Data Extractor LLM Chain", pos: "b", h: 48 }
n3@{ icon: "mdi:message-outline", form: "rounded", label: "Gmail - Send Result", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/form.svg' width='40' height='40' /></div><br/>Web Scraper form submission"]
n5@{ icon: "mdi:brain", form: "rounded", label: "Google Gemini Chat Model", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>HTML Extractor"]
n6 --> n2
n2 --> n3
n1 --> n6
n5 -.-> n2
n0 -.-> n2
n4 --> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n4 trigger
class n0,n2 ai
class n5 aiModel
class n1 api
classDef customIcon fill:none,stroke:none
class n1,n4,n6 customIcon
Varför det här spelar roll: förvandla webbplatskaos till återanvändbar data
Data från webbplatser är sällan ”redo att kopiera”. En prissida gömmer viktiga detaljer i dragspel. En katalogsida laddar innehåll dynamiskt. En fallstudie begraver den enda offerten du behöver halvvägs ner, inpackad i design-tung markup. Så du kopierar, klistrar in, formaterar om, inser sedan att du missade företagsstorlek eller plats, och så går du tillbaka igen. Gör du det över 20 sidor blir det en eftermiddag av monotont arbete, plus den mentala belastningen av att komma ihåg vad du redan hämtat och vad som fortfarande behöver kollas.
Friktionen byggs på. Här är var det faller isär i verkligheten:
- Du lägger cirka 10 minuter per sida på att städa formatering så att det passar i ett dokument eller ett kalkylark.
- Olika personer plockar ut olika fält, vilket gör att din ”dataset” blir inkonsekvent och svår att jämföra.
- Manuell copy-paste bjuder in småfel som är irriterande att hitta senare, som omkastade siffror eller saknad valuta.
- När uppgiften blir repetitiv är det lätt att skjuta på den, så din rapportering och outreach bygger på gammal info.
Det du bygger: AI-baserad webbextraktion skickad till Gmail
Det här arbetsflödet ger dig ett enkelt formulär där du skickar in en URL och talar om vad du vill få ut. n8n hämtar hela HTML:en från sidan och isolerar sedan sidans body-innehåll så att AI:n inte störs av script, headers eller annat brus. Därifrån läser ett Gemini-drivet extraktionssteg innehållet och plockar ut enbart de fält du bad om, som ”företagsnamn, prisnivå, nyckelfunktioner och kontaktmejl”. Till sist formaterar arbetsflödet resultatet till ett strukturerat JSON-liknande format och mejlar det till dig via Gmail med käll-URL:en och din ursprungliga begäran. Det blir en felfri överlämning som du kan återanvända direkt.
Arbetsflödet startar med en formulärinlämning. Därefter hämtas och rensas webbsidans innehåll. Gemini extraherar de fält du efterfrågar och sedan skickar Gmail det strukturerade resultatet så att du kan klistra in det i dokument eller lägga in det i Sheets utan omformatering.
Det du bygger
| Vad som automatiseras | Vad du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att du behöver granska 15 konkurrent-sidor och fånga 8 fält från varje. Manuellt kanske du lägger cirka 10 minuter per sida på kopiering, städning och dubbelkoll, alltså ungefär 2,5 timmar. Med det här arbetsflödet tar det cirka en minut att skicka in varje URL, sedan väntar du på att AI:n ska bearbeta och att Gmail ska leverera resultatet. Du skummar fortfarande för rimlighetskontroll, men grovjobbet faller till cirka 20 minuter faktisk hands-on-tid.
Innan du börjar
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Gemini för AI-driven fältextraktion
- Gmail för att mejla de strukturerade resultaten
- Gemini API-nyckel (hämta den i Google AI Studio)
Kunskapsnivå: Nybörjare. Du kopplar konton, klistrar in en API-nyckel och justerar en prompt så att den matchar fälten du bryr dig om.
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
En användare skickar in en URL och en ”extraktionsbegäran”. Form Submission Trigger ger en enkel inmatning, så du behöver inte öppna n8n varje gång du vill hämta data från en sida.
Sidans HTML hämtas och rensas. En HTTP Request-nod hämtar hela HTML:en och sedan isolerar ett HTML-extraktionssteg body-innehållet så att efterföljande bearbetning fokuserar på det en människa faktiskt läser.
Gemini extraherar fälten du bad om. LLM Extraction Chain använder Gemini Chat Model för att tolka dina instruktioner och plocka ut specifika värden – inte en generell sammanfattning.
Resultaten standardiseras och mejlas. En strukturerad output-parser formaterar svaret till förutsägbar JSON, och sedan skickar Gmail den slutliga payloaden tillsammans med URL:en och detaljer om begäran.
Du kan enkelt ändra Gmail-leveransen till att logga resultaten någon annanstans, till exempel Google Sheets, beroende på behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementation
Steg 1: konfigurera formulärtriggern
Konfigurera formuläret som startar arbetsflödet och samlar in URL:en och extraktionsförfrågan.
- Lägg till noden Form Submission Trigger och ställ in Form Title på
Web Scraper Form. - I Form Fields lägger ni till fält med etiketterna
Source URLochData to extract. - Koppla Form Submission Trigger till Retrieve HTML Content.
Source URL och Data to extract för att matcha uttrycken som används senare.
Steg 2: anslut webbdatasourcen
Konfigurera anropet och HTML-extraktionen som levererar innehållet för AI-analys.
- I Retrieve HTML Content ställer ni in URL på
={{ $json['Source URL'] }}. - Öppna Extract HTML Body och ställ in Operation på
extractHtmlContent. - Under Extraction Values ställer ni in Key på
bodyoch CSS Selector påbody. - Säkerställ att flödet är Retrieve HTML Content → Extract HTML Body.
Steg 3: sätt upp AI-extraktionskedjan
Koppla in LLM och output parser så att modellen returnerar strukturerade extraktionsresultat.
- Öppna LLM Extraction Chain och ställ in Prompt till den fullständiga mall som tillhandahålls, inklusive uttrycken
{{ $('Form Submission Trigger').item.json['Data to extract'] }}och{{ $json.body }}. - Bekräfta att Prompt Type är inställt på
defineoch att Has Output Parser är aktiverat. - Koppla Gemini Chat Model till LLM Extraction Chain som språkmodell.
- Koppla Structured Result Formatter till LLM Extraction Chain som output parser och ställ in JSON Schema Example på
{ "result": "extracted value(s)" }. - Inloggningsuppgifter krävs: Anslut era
googlePalmApi-uppgifter i Gemini Chat Model.
Steg 4: konfigurera leverans av e-post för utdata
Skicka extraktionsresultatet till er inkorg efter att LLM har bearbetat klart.
- Öppna Dispatch Email Result och ställ in Send To på
[YOUR_EMAIL]. - Ställ in Subject på
=✅ Web Scraping Result for {{ $('Form Submission Trigger').item.json['Source URL'] }}. - Ställ in Message på
=Your web scraping task has been completed. Source URL: {{ $('Form Submission Trigger').item.json['Source URL'] }} Data Requested: {{ $('Form Submission Trigger').item.json['Data to extract'] }} Extracted Result: {{ $json.output.result }} Thank you for using our web scraping automation.. - Inloggningsuppgifter krävs: Anslut era
gmailOAuth2-uppgifter i Dispatch Email Result.
Steg 5: testa och aktivera ert arbetsflöde
Validera hela flödet från formulärinsändning till e-postleverans och aktivera det sedan för användning i produktion.
- Klicka på Execute Workflow och skicka in Form Submission Trigger med en giltig URL och en extraktionsförfrågan.
- Verifiera att Retrieve HTML Content och Extract HTML Body körs utan fel och skickar
bodytill LLM Extraction Chain. - Bekräfta att Dispatch Email Result skickar ett e-postmeddelande som innehåller
{{ $json.output.result }}. - När ni är nöjda växlar ni arbetsflödet till Active för att ta emot inskick i realtid.
Felsökningstips
- Gmail-inloggningar kan löpa ut eller kräva specifika behörigheter. Om det börjar skapa fel, kontrollera Gmail-nodens kopplade konto och autentisera på nytt i n8n Credentials först.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att sitta och redigera output för alltid.
Snabba svar
Cirka 30 minuter om din Gemini-nyckel och ditt Gmail-konto är redo.
Nej. Du kopplar konton och redigerar extraktionsprompten så att den matchar dina fält.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med kostnader för Gemini API, som vanligtvis ligger på några cent per förfrågan beroende på sidans storlek.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärt och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du. De flesta ändringar sker i prompten i LLM Extraction Chain (vilka fält som ska hämtas) och i Structured Result Formatter (hur strikt JSON-strukturen ska vara). Vanliga justeringar är att extrahera kontaktuppgifter för lead-research, hämta produktspecifikationer för jämförelsetabeller eller plocka ut FAQ:er och policytext för compliance-kontroller. Du kan också byta ut Gemini Chat Model mot en OpenAI Chat Model-nod om du föredrar en annan leverantör.
Oftast beror det på att OAuth-åtkomsten har löpt ut eller att fel Gmail-konto är kopplat i n8n Credentials. Koppla om Gmail-credentialn och kontrollera sedan fälten ”From” och ”To” i noden Dispatch Email Result så att du inte skickar från ett alias som Gmail inte tillåter. Om det fungerar en gång och sedan misslyckas senare kan det också bero på Googles säkerhetskontroller eller ändrade behörigheter efter en lösenordsuppdatering.
Om du hostar själv finns ingen fast körningsgräns; det beror främst på din server och AI-API:ets rate limits. På n8n Cloud beror dina månatliga körningar på din plan, och det här arbetsflödet är vanligtvis en körning per inskickad URL.
Ofta, ja – om du bryr dig om strukturerad extraktion och flexibilitet. n8n hanterar ”hämta HTML → rensa innehåll → kör en AI-kedja → tvinga fram ett JSON-schema → mejla/logga resultat” på ett ställe, med förgrening och formatering som blir klumpig (eller dyr) i enklare automationsverktyg. Zapier och Make kan fortfarande funka om du bara behöver ett enkelt ”sammanfatta den här URL:en”-mejl, men schema-validering är där team vanligtvis slår i taket. En annan faktor är kontroll: egen hosting av n8n gör körningarna mer förutsägbara och undviker prissättning per steg. Om du är osäker, prata med en automationsexpert så får du en rak rekommendation baserat på din volym och dina verktyg.
När detta väl rullar slutar du ”kopiera webbplatser” och börjar samla strukturerade underlag som du faktiskt kan återanvända. Sätt upp det en gång och låt arbetsflödet ta den tråkiga delen.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.