Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

TechCrunch till Google Sheets: thailändsk AI-digest

Rickard Andersson Partner, Nodenordic.se

Din ”dagliga AI-nyhetsuppdatering” börjar oftast med goda intentioner. Sedan blir det fem öppna flikar, rörig copy-paste in i ett kalkylark och ett Telegram-meddelande som på något sätt både är för långt och ändå missar det viktiga.

Den här automatiseringen för Thai AI digest träffar marknadsansvariga leads som behöver snabb kontext, men byråägare och researchdrivna operatörer känner också igen sig. Du får en konsekvent thailändsk sammanfattning, en kvalitetsbedömning och en strukturerad Google Sheets-logg utan att behöva vakta processen.

Nedan är arbetsflödet, vad det löser och vad du har på plats så att det kör varje dag kl. 06:00 Bangkok-tid.

Så här fungerar automatiseringen

Hela n8n-flödet, från trigger till slutlig output:

n8n Workflow Template: TechCrunch till Google Sheets: thailändsk AI-digest

Problemet: att följa AI-nyheter blir ett dagligt tidslås

Att hänga med i TechCrunchs AI-sektion låter enkelt tills du försöker göra det konsekvent. Ena dagen missar du en artikel och din ”digest” blir ofullständig. Nästa dag skummar du rubriker, delar en länk och teamet frågar: ”Okej, men vad betyder det här för oss?” Och så har vi loggningen. Om insikterna bara finns i Telegram kan du inte söka dem senare, kategorisera trender eller gå tillbaka och se vad som faktiskt spelade roll förra månaden. Ärligt talat: det är ett system som bygger på minne och goda intentioner.

Friktionen ökar snabbt. Här är var det faller isär i verkligheten.

  • Manuell sammanfattning tar cirka 10 minuter per artikel, och det blir ändå inkonsekvent.
  • Team delar länkar utan kontext, vilket gör att folk antingen ignorerar dem eller ställer samma frågor senare.
  • Utan en strukturerad logg tappar du möjligheten att söka, filtrera och se mönster över flera veckor.
  • Dubbelspårning händer lätt när flera personer ”bevakar” samma nyhet olika dagar.

Lösningen: daglig TechCrunch AI → thailändsk sammanfattning → Sheets + Telegram

Det här n8n-flödet körs på schema (dagligen kl. 06:00 Bangkok-tid), hämtar de senaste TechCrunch-artiklarna inom Artificial Intelligence och filtrerar ner till inlägg publicerade ”igår” så att du inte fortsätter logga samma story. För varje artikel hämtar det hela sidan, extraherar brödtexten och skickar innehållet genom en AI Agent som drivs av en OpenAI-chatmodell. Agenten skapar en thailändsk sammanfattning, sätter en kvalitetspoäng enligt strikta journalistiska kriterier (upp till 100) och kategoriserar storyn i en av nio fördefinierade kategorier. Till sist lägger flödet till en strukturerad rad i Google Sheets och postar en lättläst sammanfattning i din Telegram-grupp. Inga påminnelser. Ingen kopiering.

Flödet startar med en schemalagd körning och en TechCrunch-scrape. Sedan loopar det igenom artiklarna en och en med en liten slumpmässig väntetid för att hålla förfrågningarna stabila. I slutet får du två matchande outputs: ett sökbart ark för historik och ett Telegram-inlägg för daglig synlighet.

Det här får du: automatisering vs. resultat

Exempel: så här ser det ut

Säg att TechCrunch publicerar 6 AI-artiklar på en dag. Om du manuellt läser, sammanfattar och loggar varje artikel handlar det om ungefär 10 minuter per artikel plus ytterligare 5 minuter för att formatera och dela, alltså cirka 90 minuter totalt. Med det här flödet lägger du kanske 5 minuter på att skumma Telegram-digesten och öppnar bara de 1–2 inlägg som fick högst poäng. Arket är redan ifyllt, kategoriserat och sökbart för senare.

Det här behöver du

  • n8n-instans (testa n8n Cloud gratis)
  • Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för den sökbara digest-databasen.
  • Telegram för att leverera den dagliga sammanfattningen till en grupp.
  • OpenAI API-nyckel (hämta den i din OpenAI-dashboard).

Svårighetsgrad: Nybörjare. Du kopplar konton, klistrar in ID:n (chatId, sheet-detaljer) och testar en körning.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

Daglig schemalagd trigger kl. 06:00 (Bangkok-tid). n8n startar automatiskt, så du är inte beroende av att någon ”kommer ihåg digesten”.

Scrapa och filtrera TechCrunch AI-inlägg. Flödet hämtar AI-kategorisidan, extraherar artikellänkar och publiceringsdatum och behåller bara inlägg från igår för att undvika dubletter.

Hämta varje artikel på ett stabilt sätt. Det loopar igenom listan i batchar, lägger på en liten slumpmässig fördröjning, laddar ner artikelsidan och extraherar brödtexten så att AI:n jobbar med hela innehållet, inte bara en rubrik.

Thailändsk sammanfattning, poäng, kategori och publicering. AI Agent genererar en sammanfattning på thailändska, en poäng av 100 och en av nio kategorier. n8n lägger till en ny rad i Google Sheets och skickar ett matchande Telegram-meddelande som teamet kan läsa på några sekunder.

Du kan enkelt ändra kategorilistan så att den matchar teamets teman, eller ändra schemat till att köra två gånger per dag utifrån dina behov. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementering

Steg 1: Konfigurera den schemalagda triggern

Ställ in arbetsflödet så att det körs dagligen och startar skrapningssekvensen från TechCrunchs AI-kategorisida.

  1. Lägg till och öppna Scheduled Run Trigger.
  2. Ställ in schemat så att det körs dagligen kl. 06:00 (noden använder triggerAtHour inställt på 6).
  3. Bekräfta att den kopplar direkt till Fetch TechCrunch AI.

Steg 2: Anslut TechCrunch som datakälla

Hämta AI-kategorisidan och extrahera publiceringsdatum samt artikel-URL:er.

  1. Öppna Fetch TechCrunch AI och ställ in URL till https://techcrunch.com/category/artificial-intelligence/.
  2. Konfigurera Extract Publish Date för att extrahera DatePublished från CSS-selektorn .loop-card__meta > time och url från .loop-card__title > a, och returnera attribut.
  3. I Split Link Fields ställer ni Field To Split Out till DatePublished, url så att varje artikel blir ett eget item.

Steg 3: Filtrera och formatera artiklar efter datum

Normalisera publiceringsdatumet och routa endast gårdagens items för bearbetning.

  1. I Map Date Fields mappar ni DatePublished till {{$json.DatePublished.toDateTime().format('dd/MM/yyyy')}} och url till {{$json.url}}.
  2. Öppna Route by Date och bekräfta att regeln jämför {{$json.DatePublished}} med {{$now.minus(1,'days').format('dd/MM/yyyy')}}.
  3. Säkerställ att utgången YesterdayOnly går till Iterate Articles.

⚠️ Vanlig fallgrop: Om er tidszon skiljer sig kan datumjämförelsen i Route by Date filtrera bort alla items. Matcha tidszonen i er n8n-instans med sajtens tidszon.

Steg 4: Sätt upp artikelbearbetning, fördröjning och AI-sammanfattning

Bearbeta varje artikel, hämta sidan, extrahera brödtext och generera en AI-sammanfattning.

  1. Använd Iterate Articles för att hantera items en i taget; den skickar utdata parallellt till både Assemble Output Data och Random Delay Calc.
  2. I Random Delay Calc behåller ni JavaScript-koden som den är för att generera en fördröjning mellan 4 och 10 sekunder.
  3. Ställ in Delay Execution Step Amount till {{$json.delay.format()}} så att varje artikel väntar innan sidan hämtas.
  4. I Fetch Article Page ställer ni URL till {{$('Route by Date').item.json.url}}.
  5. Konfigurera Extract Article Body för att extrahera body från div[class*="entry-content"].
  6. Öppna AI Summary Agent och behåll den thailändska prompten med {{ $json.body }} infogat; säkerställ att hasOutputParser är aktiverat.

Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i OpenAI Chat Model. Structured Result Parser är en sub-nod till AI Summary Agent, så inloggningsuppgifter ska endast läggas till i OpenAI Chat Model.

Steg 5: Sätt ihop data och skriv utdata

Mappa AI-resultaten och skicka dem till Google Sheets och Telegram.

  1. I Assemble Output Data mappar ni fält till: {{$json.output.score}}, {{$json.output.headline}}, {{$json.output.summary}}, {{$json.output.category}}, {{$('Route by Date').item.json.url}} och {{$('Route by Date').item.json.DatePublished}}.
  2. Öppna Append Sheet Row och ställ in Operation till append, Document ID till [YOUR_ID] och Sheet Name till [YOUR_ID] (välj ert faktiska kalkylark och flik).
  3. Mappa kolumnerna i Append Sheet Row till uttrycken: {{$json.url}}, {{$json.score}}, {{$json.summary}}, {{$json.category}}, {{$json.headline}}, {{$json.DatePublished}}.
  4. Öppna Telegram Update Post, ställ in Chat ID till [YOUR_ID] och behåll meddelandemallen som börjar med =สรุปข่าวใหม่ 📰 วันที่: {{$json.DatePublished}}.

Inloggningsuppgifter krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter i Append Sheet Row.

Inloggningsuppgifter krävs: Anslut era telegramApi-inloggningsuppgifter i Telegram Update Post.

Steg 6: Testa och aktivera ert arbetsflöde

Kör ett manuellt test för att bekräfta skrapning, AI-sammanfattning och leverans av utdata.

  1. Klicka på Execute Workflow och övervaka att data flödar från Scheduled Run Trigger till Fetch TechCrunch AI.
  2. Verifiera att Append Sheet Row lägger till en ny rad som innehåller summary, score och category.
  3. Kontrollera att Telegram Update Post skickar ett formaterat meddelande till er chatt.
  4. När allt är bekräftat växlar ni arbetsflödet till Active för att köra dagligen vid den schemalagda tiden.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Sheets-inloggning kan löpa ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera först inställningarna för inloggningen i n8n för Google Sheets OAuth-anslutningen.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
  • Telegram chat ID:n är lätta att kopiera fel (grupp vs. kanal vs. användare). Om meddelanden inte kommer fram, verifiera chatId i Telegram-noden och säkerställ att boten har rätt att posta i gruppen.

Vanliga frågor

Hur lång tid tar det att sätta upp den här automatiseringen för Thai AI digest?

Cirka 15 minuter om dina konton för Google Sheets, Telegram och OpenAI är redo.

Behöver jag kunna koda för att automatisera rapportering för Thai AI digest?

Nej. Du kopplar mest konton och klistrar in några ID:n i rätt fält.

Är n8n gratis att använda för det här arbetsflödet för Thai AI digest?

Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med OpenAI API-användning, vilket vanligtvis är några cent per artikel beroende på längd.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här arbetsflödet för Thai AI digest för andra kategorier eller källor?

Ja, men håll det enkelt i början. Du kan ändra listan med nio kategorier i prompten till AI Agent, och du kan byta ut TechCrunch-scrape-steget genom att redigera HTTP-förfrågan ”Fetch TechCrunch AI” så att den pekar på en annan sektion eller sajt. Vanliga justeringar är att skriva sammanfattningen på engelska istället för thailändska, justera poängkriterierna eller lägga till extra kolumner i steget ”Assemble Output Data” innan du sparar till Google Sheets.

Varför misslyckas min Google Sheets-anslutning i det här flödet?

Oftast är det en OAuth-token som har löpt ut eller att Google-kontot saknar redigeringsbehörighet till kalkylarket. Anslut Google Sheets-inloggningen på nytt i n8n och dubbelkolla sedan värdena documentId och sheetName som du har satt i flödet. Om det fortfarande misslyckas, leta efter meddelandet ”permission denied” i körloggarna, eftersom det pekar på delningsinställningar snarare än flödeslogiken.

Hur många artiklar klarar den här automatiseringen för Thai AI digest?

I praktiken klarar den dussintals artiklar per dag, och den främsta begränsningen är hur snabbt du vill processa samt din budget för OpenAI-användning. På n8n Cloud beror din månatliga körgräns på abonnemang, medan self-hosting inte har något hårt tak för körningar. Om TechCrunch har en intensiv dag kan du behålla den slumpmässiga fördröjningen och batch-loopen så att förfrågningarna håller sig stabila.

Är den här automatiseringen för Thai AI digest bättre än att använda Zapier eller Make?

Ofta, ja, eftersom detta är mer än en enkel ”nytt objekt → skicka meddelande”-zap. Du scrapar en sida, filtrerar på datum, loopar igenom flera artiklar, väntar mellan förfrågningar, extraherar brödtext och kör sedan en strukturerad AI-output. n8n är byggt för den typen av logik, och self-hosting kan bli mycket billigare när volymen växer. Zapier eller Make kan fortfarande fungera om du bara behöver en enkel RSS-till-Telegram-digest och inte bryr dig om poängsättning eller strukturerade fält. Om du vill ha hjälp att välja (eller förenkla), prata med en automationsexpert.

När det här väl rullar slutar din ”AI-nyhetsvana” att bygga på disciplin. Flödet gör det repetitiva jobbet, och du får en tydlig daglig signal som du faktiskt kan använda.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal