Din researchprocess ser förmodligen ut så här: ett kalkylark fullt av länkar, ett dussin öppna flikar och “jag sammanfattar det här senare” som på fredag har blivit “var läste jag det där?”. Copy-paste-anteckningar glider isär. Rubriker kapas. Källor försvinner.
Den här uppsättningen för Sheets Gemini summaries träffar marknadschefer och content strateger först, men även grundare som kör lean och analytiker som gör veckovisa omvärldsscanningar känner av det. Du omvandlar råa URL:er till konsekventa, strukturerade sammanfattningar som faktiskt går att söka i och återanvända.
Nedan är exakt n8n-upplägget: hämta URL:er från Google Sheets, extrahera huvudtexten, låt Gemini skapa en korrekt formaterad JSON-sammanfattning och skriv sedan tillbaka allt till en “output”-flik som du kan filtrera, tagga och återanvända.
Så fungerar den här automatiseringen
Hela n8n-workflowen, från trigger till slutligt resultat:
n8n Workflow Template: Google Sheets + Gemini: återanvändbara artikelsammanfattningar
flowchart LR
subgraph sg0["When clicking ‘Execute workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Execute workf..", pos: "b", h: 48 }
n1@{ icon: "mdi:cog", form: "rounded", label: "Decodo", pos: "b", h: 48 }
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Code in JavaScript"]
n3@{ icon: "mdi:robot", form: "rounded", label: "AI Agent", pos: "b", h: 48 }
n4@{ icon: "mdi:brain", form: "rounded", label: "Google Gemini Chat Model", pos: "b", h: 48 }
n5["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Code in JavaScript1"]
n6@{ icon: "mdi:database", form: "rounded", label: "Get row(s) in sheet", pos: "b", h: 48 }
n7@{ icon: "mdi:database", form: "rounded", label: "Append row in sheet", pos: "b", h: 48 }
n8@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Items", pos: "b", h: 48 }
n1 --> n2
n3 --> n5
n8 --> n1
n2 --> n3
n7 --> n8
n5 --> n7
n6 --> n8
n4 -.-> n3
n0 --> n6
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n3 ai
class n4 aiModel
class n6,n7 database
class n2,n5 code
classDef customIcon fill:none,stroke:none
class n2,n5 customIcon
Problemet: researchanteckningar blir snabbt oanvändbara
Att spara länkar är enkelt. Att göra dem till något du faktiskt kan använda nästa vecka är det svåra. Du läser en artikel, plockar ut några rader, och sedan drar nästa sak iväg dig. Senare minns du inte vilken källa som sa vad, och samma idéer “återupptäcks” i möten som om de vore nya. Samtidigt ber någon om en snabb sammanställning, och du fastnar i att öppna flikar igen och försöka återskapa ditt resonemang från utspridda markeringar. Det är inte bara långsamt. Det är mentalt utmattande.
Friktionen byggs på. En stökig länklista leder till stökiga beslut.
- Manuella sammanfattningar varierar varje gång, så att jämföra artiklar sida vid sida blir rena gissningsleken.
- Viktiga detaljer som publiceringsdatum och domän hoppas ofta över, vilket gör din “single source of truth” mindre trovärdig.
- Långformatssidor slösar din tid eftersom du måste leta efter poängen som är begravd i mitten.
- När listan växer förbi cirka 30 länkar slutar du använda den och börjar om i ett nytt dokument.
Lösningen: strukturerade sammanfattningar skrivs tillbaka till Sheets
Den här workflowen börjar med en enkel input: ett Google Sheet som heter “input” med en kolumn som heter url. När du kör den hämtar n8n varje rad, besöker sidan och använder Decodo för att extrahera huvudtexten (så att du inte sammanfattar navigationsmenyer och cookie-banners). Den rensade texten skickas till en AI-agent kopplad till Gemini Chat Model, som returnerar ett strukturerat svar i JSON. Slutligen parsar n8n den JSON:en och lägger till en ny rad i ett andra ark som heter “output” med fälten du faktiskt behöver: titel, källa, publiceringsdatum (när det finns), huvudämne, tre nyckelidéer, en kort sammanfattning och texttyp.
Workflowen startar när du kör den manuellt i n8n. Den loopar igenom varje URL i input-fliken, extraherar läsbar sidtext och ber sedan Gemini ta fram konsekventa fält som du kan sortera och återanvända. När den är klar blir din “output”-flik en levande researchdatabas i stället för en länk-kyrkogård.
Det du får: automatisering vs. resultat
| Vad den här workflowen automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du samlar 20 länkar till ett veckovis nyhetsbrev. Manuellt tar även en snabb process kanske 10 minuter per länk mellan att läsa, plocka ut takeaways och klistra in anteckningar, så det blir cirka 3 timmar. Med den här workflowen klistrar du in de 20 URL:erna i “input”-fliken, kör n8n och väntar medan den processar dem (ofta runt 20 minuter totalt, beroende på sajterna). Du får en ifylld “output”-flik med titlar, källor och nyckelidéer redo att skumma, vilket innebär att “skrivdelen” kan börja tidigare.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Google Sheets för input- och output-flikarna.
- Decodo för att extrahera artikelns huvudtext.
- Decodo API-nyckel (hämta den i din Decodo-dashboard).
Svårighetsgrad: Nybörjare. Du kopplar främst konton och klistrar in en API-nyckel, plus lätt promptjustering om du vill ha ett specifikt format.
Vill du inte sätta upp detta själv? Prata med en automationsspecialist (gratis 15-minuters konsultation).
Så fungerar det
Du kör den när du är redo. Workflowen använder en manuell start-trigger, så du kan samla länkar hela dagen (eller hela veckan) och sedan bearbeta dem i en ren batch.
Sheets står för kön. n8n läser “input”-arket och loopar över varje rad med en batch-iterator, vilket håller körningen stabil även när du har många URL:er.
Decodo extraherar läsbar text. För varje länk hämtar workflowen sidan, tar bort brus och skapar en textversion som är mycket lättare för en AI-modell att sammanfatta bra.
Gemini gör text till strukturerade fält. AI-agenten ber Gemini Chat Model om ett JSON-svar med titel, källa, publiceringsdatum när det finns, huvudämne, tre nyckelidéer, en kort sammanfattning och innehållstyp. Sedan parsar n8n JSON:en så att den kan sparas pålitligt.
Resultatet hamnar tillbaka i Google Sheets. En ny rad läggs till i “output”-arket för varje URL, vilket betyder att du kan filtrera, söka och bygga ett återanvändbart researchbibliotek.
Du kan enkelt justera output-fälten så att de matchar ditt arbetssätt, till exempel genom att lägga till “Målgrupp” eller “Åtgärdspunkter” utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den manuella triggern
Konfigurera arbetsflödet så att det startar manuellt, så att ni kan validera indata och efterföljande bearbetning.
- Lägg till eller välj noden Manual Execution Start som trigger.
- Lämna nodens parametrar tomma (den här triggern har inga obligatoriska fält).
- Bekräfta att anslutningen går från Manual Execution Start till Retrieve Sheet Rows.
Steg 2: Anslut Google Sheets
Konfigurera in- och utmatningsbladen som används för att läsa URL:er och lagra de sammanfattade resultaten.
- Öppna Retrieve Sheet Rows och ställ in Document ID till ert kalkylark, och ersätt
[YOUR_ID]. - Ställ in Sheet Name till indatafliken genom att välja
input(värdegid=0). - Inloggning krävs: Anslut era Google Sheets-uppgifter i Retrieve Sheet Rows (inga uppgifter är konfigurerade just nu).
- Öppna Append Sheet Row och ställ in Document ID till samma kalkylark, och ersätt
[YOUR_ID]. - Ställ in Sheet Name till utdatafliken genom att välja
output(värde60764768). - Bekräfta att kolumnmappningarna i Append Sheet Row använder uttryck som
{{ $json.url }},{{ $json.short_summary }}och{{ $json.published_date }}. - Inloggning krävs: Anslut era Google Sheets-uppgifter i Append Sheet Row (inga uppgifter är konfigurerade just nu).
Steg 3: Konfigurera scraping och textbearbetning
Hämta sidinnehåll och konvertera det till ren text som AI-agenten kan analysera.
- Öppna Iterate Records för att säkerställa att den tar emot data från Retrieve Sheet Rows och loopar igenom varje URL.
- Konfigurera Web Scrape Service med Operation satt till
universal. - Inloggning krävs: Anslut era Decodo-uppgifter i Web Scrape Service (inga uppgifter är konfigurerade just nu).
- Granska Transform HTML Text för att bekräfta att den extraherar
url,fuente,titulo,article_textochfecha_guardadofrån scrape-outputen. - Bekräfta körflödet: Iterate Records → Web Scrape Service → Transform HTML Text.
Steg 4: Konfigurera AI-analysen
Konfigurera agentens prompt och anslut Gemini-modellen för att skapa strukturerade JSON-sammanfattningar.
- Öppna LLM Analysis Agent och behåll Prompt Type inställd på
define. - Säkerställ att fältet Text innehåller hela JSON-schemat och använder uttryck som
{{ $json["url"] }},{{ $json["title"] }}och{{ $json.fecha_guardado }}. - Bekräfta att systemmeddelandet finns i LLM Analysis Agent för att tvinga fram output enbart som JSON.
- Öppna Gemini Chat Model och anslut den som språkmodell för LLM Analysis Agent.
- Inloggning krävs: Anslut era Google Gemini-uppgifter i Gemini Chat Model (inga uppgifter är konfigurerade just nu). Lägg till uppgifter på den överordnade modellnoden, inte på agenten.
Steg 5: Konfigurera parsing av output och lagring
Parsa AI-outputen och lägg till strukturerad data i utdataarket, och loopa sedan till nästa URL.
- Granska Parse LLM JSON för att säkerställa att den parsar
item.json.outputoch returnerar fält somtitle,sourceochshort_summary. - Bekräfta flödet från LLM Analysis Agent → Parse LLM JSON → Append Sheet Row.
- Verifiera att Append Sheet Row mappar alla obligatoriska fält, inklusive
{{ $json.main_topic }}och{{ $json.three_key_insights }}. - Kontrollera att Append Sheet Row loopar tillbaka till Iterate Records för att fortsätta bearbeta återstående URL:er.
Steg 6: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att bekräfta att hela kedjan fungerar från början till slut, och aktivera sedan för produktionsanvändning.
- Klicka på Execute Workflow och verifiera att Manual Execution Start triggar körningen.
- Kontrollera att Retrieve Sheet Rows outputar rader från ert indataark.
- Bekräfta att Web Scrape Service returnerar innehåll och att Transform HTML Text outputar rena textfält.
- Validera att LLM Analysis Agent returnerar ett svar enbart som JSON och att Parse LLM JSON outputar strukturerade fält.
- Verifiera att Append Sheet Row lägger till en ny rad i utdataarket med de mappade värdena.
- När ni är nöjda, växla arbetsflödet till Active för att använda det i produktion (fortfarande manuellt triggat om ni inte byter ut triggern).
Vanliga fallgropar
- Inloggningsuppgifter för Google Sheets kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kolla först i n8n-panelen Credentials och bekräfta att det kopplade Google-kontot fortfarande har åtkomst till både “input”- och “output”-arken.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om efterföljande noder misslyckas på grund av tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in er tonalitet tidigt, annars kommer du att redigera output för alltid.
Vanliga frågor
Cirka 30 minuter om ditt Google-konto redan är kopplat.
Nej. Du kopplar Google Sheets, klistrar in din Decodo API-nyckel och justerar AI-prompten om du vill ha andra fält.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis testperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in Decodo-användning samt dina Gemini API-kostnader.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och kör n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det är den del de flesta team bör justera. Ändra vilka fält som efterfrågas i AI-agentens prompt och spegla sedan de fälten i kodsteget “Parse LLM JSON” så att n8n pålitligt kan mappa dem till kolumner. Vanliga anpassningar är att lägga till en kolumn för “Kategori”, spara en “Nyhetsbrevshook” på en rad och styra tonaliteten i sammanfattningen. Om du vill vara striktare med publiceringsdatum kan du be Gemini returnera “unknown” när den inte med säkerhet kan hitta ett.
Oftast är det en utgången Google auth-token i n8n. Återanslut Google Sheets-credentialen och bekräfta att samma konto kan öppna både input- och output-kalkylarken. Kontrollera också att arknamnen matchar exakt (“input” och “output”), eftersom en liten avvikelse kan se ut som ett behörighetsproblem.
Några hundra länkar per körning är realistiskt i en typisk setup, och egen hosting kan skala vidare om servern är rätt dimensionerad.
Ofta, ja, eftersom skrapning + textrensning + strukturerad AI-output inte är en enkel tvåstegs-Zap. n8n hanterar loopar, branching och logiken “parsa JSON och mappa till kolumner” på ett robust sätt, och du kan självhosta för hög volym utan att betala per task. Zapier eller Make kan fortfarande funka om du bara sammanfattar ett litet antal länkar och vill ha snabbast möjliga setup. Den verkliga avgörande faktorn är kontroll: om du bryr dig om konsekventa fält och pålitlig parsning känns n8n oftast mindre skört. Om du vill ha hjälp att välja, prata med en automationsspecialist.
När det här väl rullar slutar din “research” att vara en hög av flikar och börjar bete sig som en tillgång. Sätt upp det, mata in länkar och låt arket göra jobbet.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.