Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Postgres + Telegram: snabbare taxiofferter

Rickard Andersson Partner, Nodenordic.se

Din taxiinkorg fylls snabbt. Ena minuten är det ”hämtning nu”, nästa är det ”vad kostar det till flygplatsen”, och ändå hänger varje svar på att någon letar i gamla prislistor och gissar vilken leverantör som är tillgänglig.

Den här Postgres Telegram booking-automationen slår hårdast mot dispatchansvariga, men driftansvariga och små flottägare känner av det också. Du vill ha offerter som är konsekventa, bokningar som loggas och färre ”sorry, fel leverantör”-ögonblick som kostar förtroende.

Det här n8n-flödet omvandlar inkommande körförfrågningar i Telegram till en offert matchad mot rätt leverantör och en ny bokningspost, med Postgres-data plus Redis-cachning. Du får se vad det gör, vad du behöver och var team vanligtvis kör fast.

Så fungerar den här automationslösningen

Hela n8n-flödet, från trigger till slutresultat:

n8n Workflow Template: Postgres + Telegram: snabbare taxiofferter

Problemet: långsamma, inkonsekventa taxi-offerter som inte konverterar

Manuell offertgivning låter enkelt tills du gör det hela dagen. En körförfrågan kommer in i Telegram, du kopierar detaljerna, du letar upp rätt leverantör och sedan försöker du prissätta konsekvent (högtrafik, antaganden om sträcka, bagageregler, ”är det zon A eller B?”). Under tiden väntar kunden, och varje minut ökar risken att de skriver till ett annat bolag. Än värre: olika medarbetare ger olika svar, vilket skapar diskussioner vid upphämtning och återbetalningar senare. Och om bokningar inte loggas strukturerat blir morgondagens dispatch ett gissningsspel.

Friktionen byggs på. Här brukar det oftast fallera.

  • En enda offert kan ta 10 minuter när du räknar in leverantörsuppslag, prissättning och att skriva ett korrekt formaterat svar.
  • Val av leverantör baseras ofta på minnet, så fel bolag erbjuds (eller ett inaktivt).
  • Bokningar ”spåras” i chatthistoriken, vilket gör att detaljer försvinner så fort någon scrollar förbi dem.
  • När volymen ökar sjunker först svarskvaliteten, och sedan följer konverteringsgraden efter.

Lösningen: Telegram-förfrågningar matchas mot leverantörer, offereras och bokas

Det här flödet fungerar som en leverantörsnära hjärna för din taxiverksamhet. Det tar emot en körförfrågan (oftast vidarebefordrad från ett överordnat ”Taxi Service Workflow” via en Execute Sub-workflow Trigger, eller direkt från en chatt-trigger i demoläge). Därefter kontrollerar det Postgres för rätt leverantörsdetaljer och använder Redis som cachelager så att du inte belastar databasen med upprepade uppslag. När leverantörsdata är redo skapar en AI-agent (med en OpenAI Chat Model eller annan modell som stöds) en konsekvent offert- och bekräftelsetext baserat på leverantörens regler. Till sist skriver flödet en ny bokningspost tillbaka till Postgres och skickar svaret tillbaka till det anropande flödet för leverans.

Flödet startar med en meddelandepayload som kommer in från Telegram eller ett annat flöde. Det skickar förfrågan via cache eller databashämtning, validerar AI-utdata, kan vid behov poängsätta det och returnerar sedan ett korrekt formaterat svar samt en bokningsloggpost. Om leverantören är inaktiv gör det ingenting på ett säkert sätt i stället för att skapa felaktiga bokningar.

Det här får du: automation vs. resultat

Exempel: så här ser det ut i praktiken

Säg att du hanterar 20 körförfrågningar via Telegram per dag. Manuellt, om varje offert tar cirka 10 minuter (leverantörsuppslag, prissättning, skriva svaret och sedan logga bokningen), blir det ungefär 3 timmar rutinjobb dagligen. Med det här flödet är triggern omedelbar, leverantörsuppslag går via cache och AI:n utkastar offerten på under en minut, så en dispatcher granskar mest och trycker skicka. Du får tillbaka cirka 2 timmar varje dag, och dina bokningar ligger redan i Postgres.

Det här behöver du

  • n8n-instans (prova n8n Cloud gratis)
  • Självhostat alternativ om du föredrar det (Hostinger fungerar bra)
  • Telegram för att ta emot och skicka körmeddelanden
  • Postgres för leverantörsdata och bokningsposter
  • Redis för att cacha leverantörer och snabba upp routning
  • OpenAI API-nyckel (hämta den i din OpenAI-dashboard)

Kunskapsnivå: Avancerad. Du konfigurerar credentials, SQL-tabeller och finjusterar AI-prompten så att den matchar dina pris- och bokningsregler.

Vill du inte sätta upp det här själv? Prata med en automationsexpert (gratis 15-minuters konsultation).

Så fungerar det

En förfrågan träffar flödet. Körningen startar när ditt ”Taxi Service Workflow” anropar det här leverantörsflödet (Execute Sub-workflow Trigger), eller när en Telegram-chatt-trigger triggar i demoläge. Den inkommande payloaden mappas till konsekventa fält så att senare steg inte skapar fel.

Leverantörsdata hämtas snabbt. Först kontrolleras Redis (Provider Cache Read), vilket gör att vanliga leverantörer kan lösas utan en databastripp. Om cachen missar hämtar flödet leverantörsdetaljer från Postgres och sparar dem sedan tillbaka i Redis till nästa gång.

Offert- och bokningslogik körs. Flödet bekräftar att leverantören är aktiv, ökar ett leverantörsnummer i Redis för urval och skickar strukturerad kontext till en AI-agent. Ett kalkylatorverktyg finns tillgängligt för prisberäkningar, och agenten tar fram en offert samt bokningsdetaljerna som ska registreras.

Svar valideras och returneras. Utdata transformeras och kontrolleras, och kan vid behov poängsättas (så att du kan avgöra när kvalitetsbedömning ska ingå i svaret). Om det är giltigt skapas en bokningspost i Postgres och en slutlig payload skickas tillbaka till det anropande flödet för leverans via Telegram.

Du kan enkelt ändra reglerna för leverantörsmatchning för att stödja flera flottor, zoner eller servicenivåer utifrån dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: Konfigurera triggern Execute Workflow

Det här arbetsflödet kan starta från ett överordnat arbetsflöde eller via chatinmatning, så konfigurera båda ingångarna.

  1. Lägg till och konfigurera Workflow Start Trigger för att ta emot indata från ett överordnat arbetsflöde.
  2. Konfigurera Chat Demo Trigger för att möjliggöra chattbaserad testning och demos.
  3. Koppla Chat Demo Trigger till Map Demo Fields så att chatt-payloads normaliseras innan bearbetning.
  4. Säkerställ att Workflow Start Trigger skickar utdata direkt till Assign Input Fields.

Använd Chat Demo Trigger för sandbox-testning utan att behöva ett överordnat arbetsflöde.

Steg 2: Anslut Redis- och Postgres-tjänster

Det här arbetsflödet använder Redis för cache och Postgres för hämtning av leverantörsdata och skapande av bokningsposter.

  1. Öppna Provider Cache Read och anslut er Redis-instans.
  2. Öppna Lookup Provider ID och anslut samma Redis-inloggningsuppgifter för att slå upp leverantörs-ID:n.
  3. Öppna Store Provider Cache och anslut Redis-inloggningsuppgifter för att skriva tillbaka till cachen.
  4. Öppna Retrieve Provider Data och anslut era Postgres-databasinloggningsuppgifter.

Inloggningsuppgifter krävs: Anslut era Redis-inloggningsuppgifter i Provider Cache Read, Lookup Provider ID och Store Provider Cache. Anslut era Postgres-inloggningsuppgifter i Retrieve Provider Data.

Steg 3: Konfigurera AI Orchestrator

AI-lagret använder en agent med en Grok-språkmodell samt verktyg för matematik och databasinserts för bokningar.

  1. Öppna AI Orchestrator och konfigurera agentens instruktioner samt förväntade in-/utdatafält.
  2. Koppla Grok Chat Model som språkmodell för AI Orchestrator.
  3. Koppla Math Utility Tool och Generate Booking Record som AI-verktyg för AI Orchestrator.
  4. Bekräfta exekveringsflödet Lookup Provider IDAI OrchestratorTransform Script.

Inloggningsuppgifter krävs: Anslut era xAI Grok-inloggningsuppgifter i Grok Chat Model. För Generate Booking Record (Postgres-verktyg), lägg till databasinloggningsuppgifter i den överordnade noden AI Orchestrator. AI-verktyg ska ärva inloggningsuppgifter via den överordnade agenten.

Steg 4: Konfigurera cachelagring och parsning av leverantörsdata

Arbetsflödet läser först från cache, faller tillbaka till Postgres och parsar samt mappar därefter leverantörsfält.

  1. Säkerställ att Assign Input Fields skickar utdata till Provider Cache Read.
  2. Konfigurera Cache Routing Switch för att routa cacheträffar eller cachemissar till Parse Provider Data respektive Retrieve Provider Data.
  3. Bekräfta att Retrieve Provider Data skickar utdata till Check Provider Active för filtrering på tillgänglighet.
  4. Koppla Store Provider Cache till Set Provider Fields så att nyhämtad data cachas och mappas.
  5. Validera att Parse Provider Data skickar utdata till Set Provider Fields.

Om era cachenycklar skiljer sig från leverantörs-ID:n, uppdatera logiken i Lookup Provider ID och Provider Cache Read så att den matchar.

Steg 5: Konfigurera transformering, validering och poängsättning

Efter AI-bearbetning transformeras, valideras och poängsätts svaren innan routning.

  1. Öppna Transform Script och bekräfta att det normaliserar AI-utdata för validering.
  2. Verifiera att Transform Script routar till Validate Response vid lyckat resultat och till Error Response Payload vid fel.
  3. Konfigurera Validate Response så att giltiga resultat skickas till Evaluate Score och ogiltiga till Demo Output Payload.
  4. Ställ in logiken i Evaluate Score för att välja mellan Respond With Score och Respond Without Score.

⚠️ Vanlig fallgrop: Om villkoren i Validate Response är för strikta kan utdata alltid falla tillbaka till Demo Output Payload. Testa med exempel-payloads.

Steg 6: Konfigurera utskick av svar och körning av underarbetsflöde

Slutliga svar routas vidare till ett nedströms arbetsflöde för leverans.

  1. Bekräfta Respond With ScoreRun Sub-Workflow (Configure Required).
  2. Bekräfta Respond Without ScoreRun Sub-Workflow (Configure Required).
  3. Bekräfta Error Response PayloadRun Sub-Workflow (Configure Required).
  4. Öppna Run Sub-Workflow (Configure Required) och välj målarbetsflödet för leverans av svar.

⚠️ Vanlig fallgrop: Om Run Sub-Workflow (Configure Required) inte har tilldelats ett målarbetsflöde kommer svar att misslyckas utan att det märks.

Steg 7: Testa och aktivera ert arbetsflöde

Validera varje väg (cacheträff, cachemiss, felhantering och poängsättning) innan ni går live.

  1. Klicka på Execute Workflow med Workflow Start Trigger och verifiera att data når Provider Cache Read och Cache Routing Switch.
  2. Testa Chat Demo Trigger för att säkerställa att Map Demo FieldsAssign Input Fields skickar korrekta payloads.
  3. Verifiera att lyckade AI-utdata når Respond With Score eller Respond Without Score och kör Run Sub-Workflow (Configure Required).
  4. Kontrollera att fel i AI Orchestrator eller Transform Script flödar till Error Response Payload.
  5. Växla arbetsflödet till Active när testerna är lyckade.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Postgres-credentials kan löpa ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera dina n8n-credential-inställningar och bekräfta att användaren kan läsa leverantörstabeller och lägga in bokningsrader.
  • Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om noder längre fram fallerar på tomma svar.
  • Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du att redigera utdata för alltid.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Postgres Telegram booking-automationen?

Räkna med cirka 2 timmar om dina Postgres-tabeller och credentials är klara.

Behöver jag kunna koda för att automatisera Postgres Telegram booking?

Nej, men det blir enklare om du kan läsa grundläggande SQL. Det mesta handlar om att koppla credentials, mappa fält och finjustera AI-prompten.

Är n8n gratis att använda för det här Postgres Telegram booking-flödet?

Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API, som vanligtvis ligger på några cent per konversation beroende på meddelandelängd.

Var kan jag hosta n8n för att köra den här automationslösningen?

Två alternativ: n8n Cloud (hanterat, enklast uppsättning) eller självhosting på en VPS. För självhosting är Hostinger VPS prisvärd och hanterar n8n bra. Självhosting ger dig obegränsade körningar men kräver grundläggande serverhantering.

Kan jag anpassa det här Postgres Telegram booking-flödet för flera taxileverantörer och olika prisregler?

Ja, och ärligt talat är det här mallen verkligen glänser. Du kan byta leverantörstabellen som flödet läser från (standard är en sys_provider-liknande setup) genom att justera Postgres-hämtningssteget och parsningen/kodmappningen som gör rader till prompt-klara fält. De flesta team anpassar AI-agentens instruktioner så att offertformat, tilläggsavgifter och bekräftelsetext matchar varumärket. Du kan också duplicera flödet per leverantör och använda Redis-mönstret ”provider number” för att rotera eller välja leverantörer utifrån din egen logik.

Varför misslyckas min Telegram-anslutning i det här flödet?

Oftast är det ett problem med bot-token, eller att boten inte får skicka meddelanden till chatten du testar med. Återanslut Telegram-credentials i n8n, bekräfta att boten är tillagd i gruppen (om du använder grupper) och kontrollera trigger-nodens behörigheter för uppdateringar.

Hur många bokningar klarar den här Postgres Telegram booking-automationen?

Om du self-hostar finns ingen hård gräns för antal körningar; kapaciteten beror främst på din server och databas. På n8n Cloud beror dina månatliga körningar på plan, och team med hög volym uppgraderar vanligtvis när de ser en stabil efterfrågan.

Är den här Postgres Telegram booking-automationen bättre än att använda Zapier eller Make?

För den här typen av flöde är n8n oftast ett bättre val eftersom du kan göra förgrenad logik, databasläsningar/skrivningar, cachning med Redis och orkestrering av AI-agent på ett ställe utan att bygga sköra kedjor av zaps. Det stödjer också självhosting, vilket spelar roll när du hanterar många förfrågningar och vill undvika överraskningar med per-uppgift-prissättning. Zapier och Make fungerar fortfarande om flödet verkligen är enkelt, som ”Telegram-meddelande → skicka ett standardsvar”, men det är inte offert och bokning. Om du tvekar, prata med en automationsexpert och beskriv din förfrågningsvolym och leverantörskomplexitet. Du får ett rakt svar.

Snabbare svar vinner körningar. Och när varje bokning landar i Postgres automatiskt slutar du slösa tid på administration som aldrig borde ha varit manuell.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal