Din ”dagliga AI-nyhetsuppdatering” börjar oftast med goda intentioner. Sedan blir det fem öppna flikar, rörig copy-paste in i ett kalkylark och ett Telegram-meddelande som på något sätt både är för långt och ändå missar det viktiga.
Den här automatiseringen för Thai AI digest träffar marknadsansvariga leads som behöver snabb kontext, men byråägare och researchdrivna operatörer känner också igen sig. Du får en konsekvent thailändsk sammanfattning, en kvalitetsbedömning och en strukturerad Google Sheets-logg utan att behöva vakta processen.
Nedan är arbetsflödet, vad det löser och vad du har på plats så att det kör varje dag kl. 06:00 Bangkok-tid.
Så här fungerar automatiseringen
Hela n8n-flödet, från trigger till slutlig output:
n8n Workflow Template: TechCrunch till Google Sheets: thailändsk AI-digest
flowchart LR
subgraph sg0["Schedule Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Schedule Trigger1", pos: "b", h: 48 }
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>GetDate1"]
n2@{ icon: "mdi:swap-vertical", form: "rounded", label: "Split URL3", pos: "b", h: 48 }
n3@{ icon: "mdi:swap-vertical", form: "rounded", label: "Edit Fields6", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>TechCrunchNews-AI1"]
n5@{ icon: "mdi:swap-vertical", form: "rounded", label: "Loop Over Items1", pos: "b", h: 48 }
n6["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>TimeWaitRandom1"]
n7@{ icon: "mdi:robot", form: "rounded", label: "AI Agent1", pos: "b", h: 48 }
n8@{ icon: "mdi:robot", form: "rounded", label: "Structured Output Parser1", pos: "b", h: 48 }
n9@{ icon: "mdi:cog", form: "rounded", label: "Wait1", pos: "b", h: 48 }
n10@{ icon: "mdi:swap-horizontal", form: "rounded", label: "SelectDate", pos: "b", h: 48 }
n11@{ icon: "mdi:swap-vertical", form: "rounded", label: "SetData", pos: "b", h: 48 }
n12["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>URL_Content"]
n13["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/html.dark.svg' width='40' height='40' /></div><br/>GetBody"]
n14@{ icon: "mdi:database", form: "rounded", label: "NewsData", pos: "b", h: 48 }
n15@{ icon: "mdi:brain", form: "rounded", label: "Gpt-4.1-nano", pos: "b", h: 48 }
n16["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/telegram.svg' width='40' height='40' /></div><br/>Send a text message"]
n9 --> n12
n13 --> n7
n11 --> n14
n1 --> n2
n14 --> n16
n7 --> n5
n10 --> n5
n2 --> n3
n12 --> n13
n3 --> n10
n15 -.-> n7
n6 --> n9
n5 --> n11
n5 --> n6
n0 --> n4
n4 --> n1
n8 -.-> n7
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n7,n8 ai
class n15 aiModel
class n10 decision
class n14 database
class n4,n12 api
class n6 code
classDef customIcon fill:none,stroke:none
class n1,n4,n6,n12,n13,n16 customIcon
Problemet: att följa AI-nyheter blir ett dagligt tidslås
Att hänga med i TechCrunchs AI-sektion låter enkelt tills du försöker göra det konsekvent. Ena dagen missar du en artikel och din ”digest” blir ofullständig. Nästa dag skummar du rubriker, delar en länk och teamet frågar: ”Okej, men vad betyder det här för oss?” Och så har vi loggningen. Om insikterna bara finns i Telegram kan du inte söka dem senare, kategorisera trender eller gå tillbaka och se vad som faktiskt spelade roll förra månaden. Ärligt talat: det är ett system som bygger på minne och goda intentioner.
Friktionen ökar snabbt. Här är var det faller isär i verkligheten.
- Manuell sammanfattning tar cirka 10 minuter per artikel, och det blir ändå inkonsekvent.
- Team delar länkar utan kontext, vilket gör att folk antingen ignorerar dem eller ställer samma frågor senare.
- Utan en strukturerad logg tappar du möjligheten att söka, filtrera och se mönster över flera veckor.
- Dubbelspårning händer lätt när flera personer ”bevakar” samma nyhet olika dagar.
Lösningen: daglig TechCrunch AI → thailändsk sammanfattning → Sheets + Telegram
Det här n8n-flödet körs på schema (dagligen kl. 06:00 Bangkok-tid), hämtar de senaste TechCrunch-artiklarna inom Artificial Intelligence och filtrerar ner till inlägg publicerade ”igår” så att du inte fortsätter logga samma story. För varje artikel hämtar det hela sidan, extraherar brödtexten och skickar innehållet genom en AI Agent som drivs av en OpenAI-chatmodell. Agenten skapar en thailändsk sammanfattning, sätter en kvalitetspoäng enligt strikta journalistiska kriterier (upp till 100) och kategoriserar storyn i en av nio fördefinierade kategorier. Till sist lägger flödet till en strukturerad rad i Google Sheets och postar en lättläst sammanfattning i din Telegram-grupp. Inga påminnelser. Ingen kopiering.
Flödet startar med en schemalagd körning och en TechCrunch-scrape. Sedan loopar det igenom artiklarna en och en med en liten slumpmässig väntetid för att hålla förfrågningarna stabila. I slutet får du två matchande outputs: ett sökbart ark för historik och ett Telegram-inlägg för daglig synlighet.
Det här får du: automatisering vs. resultat
| Vad arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att TechCrunch publicerar 6 AI-artiklar på en dag. Om du manuellt läser, sammanfattar och loggar varje artikel handlar det om ungefär 10 minuter per artikel plus ytterligare 5 minuter för att formatera och dela, alltså cirka 90 minuter totalt. Med det här flödet lägger du kanske 5 minuter på att skumma Telegram-digesten och öppnar bara de 1–2 inlägg som fick högst poäng. Arket är redan ifyllt, kategoriserat och sökbart för senare.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
- Google Sheets för den sökbara digest-databasen.
- Telegram för att leverera den dagliga sammanfattningen till en grupp.
- OpenAI API-nyckel (hämta den i din OpenAI-dashboard).
Svårighetsgrad: Nybörjare. Du kopplar konton, klistrar in ID:n (chatId, sheet-detaljer) och testar en körning.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Daglig schemalagd trigger kl. 06:00 (Bangkok-tid). n8n startar automatiskt, så du är inte beroende av att någon ”kommer ihåg digesten”.
Scrapa och filtrera TechCrunch AI-inlägg. Flödet hämtar AI-kategorisidan, extraherar artikellänkar och publiceringsdatum och behåller bara inlägg från igår för att undvika dubletter.
Hämta varje artikel på ett stabilt sätt. Det loopar igenom listan i batchar, lägger på en liten slumpmässig fördröjning, laddar ner artikelsidan och extraherar brödtexten så att AI:n jobbar med hela innehållet, inte bara en rubrik.
Thailändsk sammanfattning, poäng, kategori och publicering. AI Agent genererar en sammanfattning på thailändska, en poäng av 100 och en av nio kategorier. n8n lägger till en ny rad i Google Sheets och skickar ett matchande Telegram-meddelande som teamet kan läsa på några sekunder.
Du kan enkelt ändra kategorilistan så att den matchar teamets teman, eller ändra schemat till att köra två gånger per dag utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera den schemalagda triggern
Ställ in arbetsflödet så att det körs dagligen och startar skrapningssekvensen från TechCrunchs AI-kategorisida.
- Lägg till och öppna Scheduled Run Trigger.
- Ställ in schemat så att det körs dagligen kl.
06:00(noden använder triggerAtHour inställt på6). - Bekräfta att den kopplar direkt till Fetch TechCrunch AI.
Steg 2: Anslut TechCrunch som datakälla
Hämta AI-kategorisidan och extrahera publiceringsdatum samt artikel-URL:er.
- Öppna Fetch TechCrunch AI och ställ in URL till
https://techcrunch.com/category/artificial-intelligence/. - Konfigurera Extract Publish Date för att extrahera DatePublished från CSS-selektorn
.loop-card__meta > timeoch url från.loop-card__title > a, och returnera attribut. - I Split Link Fields ställer ni Field To Split Out till
DatePublished, urlså att varje artikel blir ett eget item.
Steg 3: Filtrera och formatera artiklar efter datum
Normalisera publiceringsdatumet och routa endast gårdagens items för bearbetning.
- I Map Date Fields mappar ni DatePublished till
{{$json.DatePublished.toDateTime().format('dd/MM/yyyy')}}och url till{{$json.url}}. - Öppna Route by Date och bekräfta att regeln jämför
{{$json.DatePublished}}med{{$now.minus(1,'days').format('dd/MM/yyyy')}}. - Säkerställ att utgången YesterdayOnly går till Iterate Articles.
Steg 4: Sätt upp artikelbearbetning, fördröjning och AI-sammanfattning
Bearbeta varje artikel, hämta sidan, extrahera brödtext och generera en AI-sammanfattning.
- Använd Iterate Articles för att hantera items en i taget; den skickar utdata parallellt till både Assemble Output Data och Random Delay Calc.
- I Random Delay Calc behåller ni JavaScript-koden som den är för att generera en fördröjning mellan
4och10sekunder. - Ställ in Delay Execution Step Amount till
{{$json.delay.format()}}så att varje artikel väntar innan sidan hämtas. - I Fetch Article Page ställer ni URL till
{{$('Route by Date').item.json.url}}. - Konfigurera Extract Article Body för att extrahera body från
div[class*="entry-content"]. - Öppna AI Summary Agent och behåll den thailändska prompten med
{{ $json.body }}infogat; säkerställ att hasOutputParser är aktiverat.
Steg 5: Sätt ihop data och skriv utdata
Mappa AI-resultaten och skicka dem till Google Sheets och Telegram.
- I Assemble Output Data mappar ni fält till:
{{$json.output.score}},{{$json.output.headline}},{{$json.output.summary}},{{$json.output.category}},{{$('Route by Date').item.json.url}}och{{$('Route by Date').item.json.DatePublished}}. - Öppna Append Sheet Row och ställ in Operation till
append, Document ID till[YOUR_ID]och Sheet Name till[YOUR_ID](välj ert faktiska kalkylark och flik). - Mappa kolumnerna i Append Sheet Row till uttrycken:
{{$json.url}},{{$json.score}},{{$json.summary}},{{$json.category}},{{$json.headline}},{{$json.DatePublished}}. - Öppna Telegram Update Post, ställ in Chat ID till
[YOUR_ID]och behåll meddelandemallen som börjar med=สรุปข่าวใหม่ 📰 วันที่: {{$json.DatePublished}}.
Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Sheet Row.
Inloggningsuppgifter krävs: Anslut era telegramApi-inloggningsuppgifter i Telegram Update Post.
Steg 6: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att bekräfta skrapning, AI-sammanfattning och leverans av utdata.
- Klicka på Execute Workflow och övervaka att data flödar från Scheduled Run Trigger till Fetch TechCrunch AI.
- Verifiera att Append Sheet Row lägger till en ny rad som innehåller
summary,scoreochcategory. - Kontrollera att Telegram Update Post skickar ett formaterat meddelande till er chatt.
- När allt är bekräftat växlar ni arbetsflödet till Active för att köra dagligen vid den schemalagda tiden.
Vanliga fallgropar
- Google Sheets-inloggning kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först inställningarna för inloggningen i n8n för Google Sheets OAuth-anslutningen.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Telegram chat ID:n är lätta att kopiera fel (grupp vs. kanal vs. användare). Om meddelanden inte kommer fram, verifiera chatId i Telegram-noden och säkerställ att boten har rätt att posta i gruppen.
Vanliga frågor
Cirka 15 minuter om dina konton för Google Sheets, Telegram och OpenAI är redo.
Nej. Du kopplar mest konton och klistrar in några ID:n i rätt fält.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-användning, vilket vanligtvis är några cent per artikel beroende på längd.
Två alternativ: n8n Cloud (hanterat, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.
Ja, men håll det enkelt i början. Du kan ändra listan med nio kategorier i prompten till AI Agent, och du kan byta ut TechCrunch-scrape-steget genom att redigera HTTP-förfrågan ”Fetch TechCrunch AI” så att den pekar på en annan sektion eller sajt. Vanliga justeringar är att skriva sammanfattningen på engelska istället för thailändska, justera poängkriterierna eller lägga till extra kolumner i steget ”Assemble Output Data” innan du sparar till Google Sheets.
Oftast är det en OAuth-token som har löpt ut eller att Google-kontot saknar redigeringsbehörighet till kalkylarket. Anslut Google Sheets-inloggningen på nytt i n8n och dubbelkolla sedan värdena documentId och sheetName som du har satt i flödet. Om det fortfarande misslyckas, leta efter meddelandet ”permission denied” i körloggarna, eftersom det pekar på delningsinställningar snarare än flödeslogiken.
I praktiken klarar den dussintals artiklar per dag, och den främsta begränsningen är hur snabbt du vill processa samt din budget för OpenAI-användning. På n8n Cloud beror din månatliga körgräns på abonnemang, medan self-hosting inte har något hårt tak för körningar. Om TechCrunch har en intensiv dag kan du behålla den slumpmässiga fördröjningen och batch-loopen så att förfrågningarna håller sig stabila.
Ofta, ja, eftersom detta är mer än en enkel ”nytt objekt → skicka meddelande”-zap. Du scrapar en sida, filtrerar på datum, loopar igenom flera artiklar, väntar mellan förfrågningar, extraherar brödtext och kör sedan en strukturerad AI-output. n8n är byggt för den typen av logik, och self-hosting kan bli mycket billigare när volymen växer. Zapier eller Make kan fortfarande fungera om du bara behöver en enkel RSS-till-Telegram-digest och inte bryr dig om poängsättning eller strukturerade fält. Om du vill ha hjälp att välja (eller förenkla), prata med en automationsexpert.
När det här väl rullar slutar din ”AI-nyhetsvana” att bygga på disciplin. Flödet gör det repetitiva jobbet, och du får en tydlig daglig signal som du faktiskt kan använda.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.