Du sätter dig för att skriva ett tal, och plötsligt är klockan 23. Utkastet är ”okej”, men det svamlar, öppningen är svag och du fastnar i att skriva om samma tre stycken.
Det här drabbar grundare precis före en pitch. Marknadsförare känner det inför ett webinar. Och konsulter som gör kundpresentationer har samma problem, bara med andra slides. Med Telegram speech automation kan du skärpa struktur och tydlighet från en enda chatt i stället för att börja om.
Det här arbetsflödet gör Telegram till en talcoach vid begäran. Du får se hur det tar text eller röstmeddelanden, ger feedback, kommer ihåg ditt sammanhang och sedan genererar ett finslipat tal när du ber om det.
Så fungerar den här automationen
Hela n8n-flödet, från trigger till slutligt resultat:
n8n Workflow Template: Telegram + OpenAI, vassare tal utan omskrivningar
flowchart LR
subgraph sg0["Telegram Incoming Flow"]
direction LR
n0@{ icon: "mdi:robot", form: "rounded", label: "Dialogue AI Operator", pos: "b", h: 48 }
n1@{ icon: "mdi:brain", form: "rounded", label: "Gemini Chat Engine", pos: "b", h: 48 }
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/telegram.svg' width='40' height='40' /></div><br/>Telegram Incoming Trigger"]
n3@{ icon: "mdi:swap-vertical", form: "rounded", label: "Extract Message Content", pos: "b", h: 48 }
n4["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/telegram.svg' width='40' height='40' /></div><br/>Fetch Voice File"]
n5@{ icon: "mdi:robot", form: "rounded", label: "Speech To Text", pos: "b", h: 48 }
n6@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Voice Message Check", pos: "b", h: 48 }
n7["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Clean Output Text"]
n8["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/code.svg' width='40' height='40' /></div><br/>Split Long Response"]
n9["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/telegram.svg' width='40' height='40' /></div><br/>Send Telegram Reply"]
n10@{ icon: "mdi:memory", form: "rounded", label: "Clear Session Memory", pos: "b", h: 48 }
n11@{ icon: "mdi:memory", form: "rounded", label: "Session Memory Buffer", pos: "b", h: 48 }
n12@{ icon: "mdi:swap-vertical", form: "rounded", label: "Init Speech Prompt", pos: "b", h: 48 }
n13@{ icon: "mdi:swap-vertical", form: "rounded", label: "Synthesize Speech Prompt", pos: "b", h: 48 }
n14@{ icon: "mdi:swap-vertical", form: "rounded", label: "Feedback Prompt Setup", pos: "b", h: 48 }
n15@{ icon: "mdi:swap-horizontal", form: "rounded", label: "Route By Message Text", pos: "b", h: 48 }
n0 --> n7
n6 --> n4
n6 --> n15
n4 --> n5
n5 --> n15
n1 -.-> n0
n2 --> n3
n10 --> n12
n11 -.-> n0
n11 -.-> n10
n3 --> n6
n12 --> n0
n15 --> n10
n15 --> n13
n15 --> n14
n14 --> n0
n7 --> n8
n13 --> n0
n8 --> n9
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n2 trigger
class n0,n5 ai
class n1 aiModel
class n10,n11 ai
class n6,n15 decision
class n7,n8 code
classDef customIcon fill:none,stroke:none
class n2,n4,n7,n8,n9 customIcon
Problemet: bra idéer försvinner i röriga utkast
Att skriva talet är sällan det svåra. Det är att forma det. Du klottrar ner några starka poänger och lägger sedan timmar på att få dem att låta som ett sammanhängande framförande. Röstanteckningar hjälper dig att tänka, men de är jobbiga att omvandla till korrekt formaterade avsnitt med en hook, övergångar och en avslutning som sitter. Och om du itererar med någon annan (en kollega, en kund, eller din egen ”läs det en gång till”-hjärna) börjar versionskaoset: flera dokument, kopierade stycken, tappade rader som du faktiskt gillade. Ärligt talat, det är utmattande.
Friktionen ökar. Här är var det faller isär.
- Du skriver om inledningen tre gånger eftersom du inte ser strukturen tydligt.
- Röstanteckningarna innehåller de bästa formuleringarna, men att få in dem i utkastet tar ytterligare 30 minuter som du inte planerade för.
- Feedbacken kommer sent, så du putsar fel delar och stryker det bra när tiden tar slut.
- Din ”slutversion” ligger utspridd över chattar, dokument och copy-paste-fragment.
Lösningen: Telegram blir din talcoach (och redaktör)
Det här n8n-arbetsflödet ger dig ett enda ställe att bygga ett framförande från råa tankar till ett färdigt tal. Du skickar ett utkast eller stödord till en Telegram-bot, antingen som text eller som röstmeddelande. Är det röst hämtar flödet ljudet och transkriberar det till text innan något annat händer. Därefter analyserar AI-agenten det du skrev och skickar tillbaka feedback med fokus på tydlighet, engagemang, struktur och innehåll, så att du exakt vet vad du ska fixa härnäst. När du skickar uppdateringar behåller flödet ett kort ”arbetsminne” av konversationen, vilket gör att råden blir mer relevanta i stället för att börja från noll varje gång. När du skriver ett kommando för att generera talet sammanfattar det allt du delat och skickar tillbaka en polerad version i Telegram.
Arbetsflödet startar i samma ögonblick som ett meddelande når din Telegram-bot. Det routar meddelandet baserat på vad du skrev (feedback vs. generera vs. nytt tal) och använder sedan OpenAI (och valfritt Gemini) för att skapa antingen riktad kritik eller ett helt omskrivet tal. Till sist rensar det och delar upp långa svar så att resultatet kommer snyggt i chatten.
Vad du får: automation vs. resultat
| Vad det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut i praktiken
Säg att du förbereder en keynote på 10 minuter. Före: du spelar in 3 röstanteckningar (kanske 5 minuter vardera), lägger sedan cirka 45 minuter på att transkribera och plocka ut guldkornen, sedan ytterligare en timme på att skriva om för flyt och tydlighet, plus 30 minuter på att tajta till slutet. Det är ungefär 2 till 3 timmar. Efter: du skickar röstanteckningarna i Telegram, väntar några minuter på transkribering och feedback, klistrar sedan in en uppdaterad version en gång och skriver till sist ”generate speech”. Du är oftast klar på under en timme, med betydligt mindre fram och tillbaka.
Det här behöver du
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Telegram för att skicka utkast och röstanteckningar
- OpenAI för feedback och talgenerering
- Telegram bot token (hämta den från BotFather i Telegram)
- OpenAI API key (hämta den från sidan för OpenAI API keys)
Nivå: Nybörjare. Du kopplar konton, klistrar in API-nycklar och redigerar ett par promptfält.
Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Du skickar ett meddelande till Telegram-boten. Arbetsflödet triggas på varje inkommande meddelande, så du kan behandla det som ett privat skrivrum. Textutkast funkar. Röstanteckningar funkar också.
Röst blir användbar text. Om meddelandet är ljud hämtar flödet röstfilen från Telegram och kör tal-till-text så att AI:n kan analysera vad du sa, inte bara vad du skrev.
Arbetsflödet väljer rätt ”läge”. Ett routningssteg letar efter kommandon i ditt meddelande, som att generera ett helt tal eller starta en ny talomgång, och laddar sedan rätt prompt. Om du bara skickar ett utkast går det in i feedbackläge och svarar med konkreta anteckningar du kan agera på.
Resultatet kommer tillbaka snyggt i Telegram. Svaren rensas upp, långa svar delas upp i mindre meddelanden och du får ett läsbart resultat i chatten utan att kopiera från tolv olika ställen.
Du kan enkelt anpassa feedbackstilen så att den matchar din tonalitet utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera Telegram Incoming Trigger
Konfigurera arbetsflödet så att det startar när ett Telegram-meddelande kommer in.
- Lägg till noden Telegram Incoming Trigger och behåll Updates inställt på
message. - Inloggningsuppgifter krävs: Anslut era telegramApi-inloggningsuppgifter i Telegram Incoming Trigger.
- (Valfritt) Behåll Flowpast Branding som en klisterlapp för dokumentation och layoutreferens.
Steg 2: Koppla extrahering av Telegram-meddelande
Extrahera textinnehåll från inkommande meddelanden innan routningslogiken körs.
- Lägg till Extract Message Content och ställ in fältet text till
={{ $json.message.text||"" }}. - Koppla Telegram Incoming Trigger → Extract Message Content.
- Lägg till Voice Message Check och ställ in villkoret Left Value till
={{ $json.text }}med operatorn is empty. - Koppla Extract Message Content → Voice Message Check.
- Lägg till Fetch Voice File och ställ in Resource till
filemed File ID satt till={{ $('Telegram Incoming Trigger').item.json.message.voice.file_id }}. - Inloggningsuppgifter krävs: Anslut era telegramApi-inloggningsuppgifter i Fetch Voice File.
- Lägg till Speech To Text med Resource inställt på
audiooch Operation inställt påtranscribe. - Inloggningsuppgifter krävs: Anslut era openAiApi-inloggningsuppgifter i Speech To Text.
- Koppla Voice Message Check → Fetch Voice File → Speech To Text → Route By Message Text.
- Lägg till Route By Message Text och konfigurera regler:
- new_speech när Left Value
={{ $json.text }}containsnew speech. - generate_speech när Left Value
={{ $json.text }}equalsgenerate speech. - Aktivera Ignore Case och ställ in Fallback Output till
extra.
- new_speech när Left Value
- Lägg till Clear Session Memory med Mode
deleteoch Delete Modeall. - Lägg till Init Speech Prompt och ställ in system_prompt till hela promptsträngen som börjar med
"I am preparing to give a speech. Your role is to act as my speech preparation assistant...". - Lägg till Synthesize Speech Prompt och ställ in system_prompt till hela promptsträngen som börjar med
I want you to act as a speech synthesizer and improvement agent.... - Lägg till Feedback Prompt Setup och ställ in system_prompt till hela promptsträngen som börjar med
I'd like you to act as a speech feedback agent.... - Koppla Route By Message Text till utgångarna för Clear Session Memory, Synthesize Speech Prompt och Feedback Prompt Setup enligt arbetsflödet.
- Lägg till Dialogue AI Operator med Text satt till
={{ $('Route By Message Text').item.json.text }}. - Ställ in System Message i Dialogue AI Operator till
={{ $json.system_prompt }}och behåll påminnelsetexten:You are generating text for a Telegram message. The text should be plain. No * or **. - Lägg till Gemini Chat Engine och ställ in Model Name till
models/gemini-2.0-flash-001. - Inloggningsuppgifter krävs: Anslut era googlePalmApi-inloggningsuppgifter i Gemini Chat Engine.
- Lägg till Session Memory Buffer med Session Key satt till
={{ $('Telegram Incoming Trigger').item.json.message.from.id }}, Session ID Type satt tillcustomKeyoch Context Window Length satt till25. - Koppla Session Memory Buffer till Dialogue AI Operator och Clear Session Memory via AI-minneskopplingarna.
- Lägg till Clean Output Text och behåll Language inställt på
pythonför att ta bort markdown-tecken från utdata. - Lägg till Split Long Response och behåll Language inställt på
python; skriptet delar upp utdata i4000-teckens block för Telegram. - Lägg till Send Telegram Reply och ställ in Text till
={{ $json.telegramTextChunk }}och Chat ID till={{ $('Telegram Incoming Trigger').item.json.message.chat.id }}. - Inloggningsuppgifter krävs: Anslut era telegramApi-inloggningsuppgifter i Send Telegram Reply.
- Koppla Dialogue AI Operator → Clean Output Text → Split Long Response → Send Telegram Reply.
- Klicka på Execute Workflow och skicka ett Telegram-meddelande som innehåller
generate speechellernew speechför att testa routning. - Skicka ett röstmeddelande för att bekräfta att Fetch Voice File och Speech To Text fyller i texten för routning.
- Verifiera att Send Telegram Reply returnerar ett rensat svar uppdelat i chunkar och att långa utdata delas upp i flera meddelanden.
- Växla arbetsflödet till Active när testerna lyckas.
text kommer röstgrenen alltid att triggas. Säkerställ att uttrycket matchar strukturen i er Telegram-payload.Steg 3: Sätt upp hämtning av röst och transkribering
När ingen text hittas hämtar arbetsflödet ett röstmeddelande och transkriberar det.
Steg 4: Konfigurera routning och val av prompt
Routa meddelanden och ladda rätt systemprompt för AI-svaret.
Steg 5: Sätt upp AI-operatorn och minne
Konfigurera AI-agenten, språkmodellen och sessionsminnet.
Steg 6: Konfigurera rensning av utdata och Telegram-svar
Rensa AI-utdata, dela upp långa svar och skicka svaret tillbaka till Telegram.
Steg 7: Testa och aktivera ert arbetsflöde
Validera hela flödet och aktivera det för användning i produktion.
Vanliga fallgropar
- Telegram-inloggningar kan löpa ut eller bot-token kan roteras. Om saker slutar fungera, kontrollera först inloggningsuppgifterna för Telegram-noden i n8n och bekräfta sedan att boten fortfarande finns i BotFather.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om nedströms noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att redigera output för alltid.
Vanliga frågor
Cirka 5 minuter när du väl har din Telegram bot token och din OpenAI API key.
Nej. Du klistrar mest in inloggningsuppgifter och justerar prompttext i n8n.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API-användning, som vanligtvis är några cent per körning beroende på talets längd.
Två alternativ: n8n Cloud (hanterat, enklast att sätta upp) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och klarar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det handlar mest om prompter. Uppdatera texten i ”Feedback Prompt Setup” så att den utvärderar övertygelse, invändningar och styrkan i din call to action, och justera sedan ”Synthesize Speech Prompt” så att output följer din pitchstruktur. Du kan också justera ”Init Speech Prompt” för att låsa in din tonalitet (korta meningar, mer energi, färre buzzwords osv.). Om du vill ha fler lägen lägger du till nya nyckelord i switchen ”Route By Message Text” och routar dem till olika prompt-uppsättningar.
Oftast är det en ogiltig eller utbytt bot-token. Skapa en ny token i BotFather och uppdatera sedan dina Telegram-uppgifter i n8n och testa Telegram Trigger igen. Om röstmeddelanden fallerar men text fungerar, kontrollera också att flödet kan hämta filer (steget ”Fetch Voice File”) och att chatten skickar vanliga röstanteckningar i stället för filtyper som inte stöds. Rate limiting är ovanligt vid låg volym, men kan dyka upp om en gruppchatt bombarderar boten.
Det beror på hur du kör n8n. På n8n Cloud beror din månatliga körningsgräns på din plan, så det passar bra för jämn veckovis användning eller små team. Om du kör egen hosting finns ingen plattformsgräns för körningar; din begränsning är serverresurser och dina AI API-gränser. I praktiken är talfeedback ”en körning per meddelande”, så om du skickar 20 utkast per dag ser du 20 körningar, plus extra körningar när du genererar slutversionen. Om du förväntar dig tung användning, sätt rimliga minnesgränser och håll koll på OpenAI:s rate limits.
Ofta, ja, eftersom den här typen av arbetsflöde gynnas av routning, sessionsminne och logik för upprensning. n8n gör det enklare att förgrena på kommandon som ”new speech” vs. ”generate speech”, och att behålla ett kort konversationsminne utan krångliga speciallösningar. Du får också möjligheten till egen hosting, vilket spelar roll om du itererar mycket och inte vill att varje meddelande ska bli en premium-task. Zapier eller Make kan fortfarande fungera för en enkel ”skicka meddelande, få svar”-setup, men så fort du lägger till rösttranskribering och prompter med flera lägen blir det klumpigt. Prata med en automationsexpert om du vill ha hjälp att välja.
Sätt upp det en gång, och skriv sedan tal i en chattråd med feedback som faktiskt hjälper. Arbetsflödet tar hand om det repetitiva finliret så att du kan fokusera på det du vill säga.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.