Din WhatsApp är full av ”snabba frågor” som inte är snabba. Någon ber om bakgrund på ett ämne, du öppnar tio flikar, kopierar bitar till anteckningar och skriver sedan om allt så att det inte ser ut som ett inklistrat kaos.
Den här automatiseringen för Twilio WhatsApp research slår hårdast mot marknadsföringsansvariga och konsulter med kundkontakt, eftersom du förväntas svara snabbt och låta säker. En småföretagare känner också av det, särskilt när support- och säljfrågor flyter ihop. Resultatet är enkelt: felfria, lättlästa research-briefar skickas tillbaka till WhatsApp på några ögonblick, utan flikhoppandet.
Nedan ser du hur arbetsflödet gör om ett WhatsApp-meddelande till ett researchutkast från flera källor, och sedan putsar det till ett WhatsApp-anpassat svar. Du får också veta vad du behöver, vad som oftast strular och hur du anpassar det utan att gå vilse i n8n-inställningar.
Så fungerar automatiseringen
Se hur detta löser problemet:
n8n Workflow Template: WhatsApp + Twilio: researchsvar som är lättlästa
flowchart LR
subgraph sg0["Polish WhatsApp Summ Flow"]
direction LR
n0["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/webhook.dark.svg' width='40' height='40' /></div><br/>Incoming WhatsApp Webhook"]
n1["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/perplexity.dark.svg' width='40' height='40' /></div><br/>Run Deep Research"]
n2@{ icon: "mdi:robot", form: "rounded", label: "Polish WhatsApp Summary", pos: "b", h: 48 }
n3["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/twilio.svg' width='40' height='40' /></div><br/>Dispatch WhatsApp Reply"]
n4@{ icon: "mdi:brain", form: "rounded", label: "Anthropic Chat Model", pos: "b", h: 48 }
n4 -.-> n2
n1 --> n2
n0 --> n1
n2 --> n3
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n2 ai
class n4 aiModel
class n0 api
classDef customIcon fill:none,stroke:none
class n0,n1,n3 customIcon
Utmaningen: snabba frågor som ändå kräver riktig research
WhatsApp-meddelanden kommer utan förvarning, och de är oftast formulerade som brådskande. ”Kan du sammanfatta de senaste förändringarna?” ”Stämmer det här påståendet?” ”Vad ska vi rekommendera?” Det irriterande är att du inte bara kan svara med en hög länkar. Du måste läsa, jämföra källor, plocka ut det som är relevant och sedan skriva det så kort att det funkar på en mobilskärm. Missar du kontext ser du slarvig ut. Tar du för lång tid ser du oresponsiv ut. Ärligt talat är det en lose-lose när du gör det manuellt.
Inget av detta är problemet i sig. Tillsammans är de det.
- Du gör om samma research gång på gång eftersom det inte finns något konsekvent ”brief”-format som folk kan lita på.
- Kopiera-klistra-in-fel smyger sig in, särskilt när du drar från flera flikar under tidspress.
- Dina svar blir längre än de borde, vilket gör att de inte blir lästa i WhatsApp.
- Det som borde ta cirka 10 minuter blir en timme, eftersom skrivande och formatering tar längre tid än själva researchen.
Lösningen: WhatsApp in, putsad research-brief ut
Det här arbetsflödet gör ditt Twilio-anslutna WhatsApp-nummer till en researchassistent på beställning. När någon skickar en fråga fångar n8n upp den via en webhook och skickar frågan till Perplexity för djup research från flera källor. Den råa outputen är ofta för lång och för ”AI-ig” för ett chattsvar, så arbetsflödet kör den genom Claude för att städa upp, strama åt strukturen och formatera för mobil läsning. Till sist skickar Twilio den färdiga briefen rakt tillbaka till samma WhatsApp-konversation. Inga appbyten. Inget klistra in i dokument. Den som frågade får ett svar som känns som att du skrev det med avsikt.
Arbetsflödet börjar med ett inkommande WhatsApp-meddelande i Twilio. Perplexity skapar researchrapporten och Claude skriver sedan om den till en tydlig, WhatsApp-anpassad sammanfattning inom vanliga teckenbegränsningar. Twilio levererar sluttexten tillbaka till den som frågade, så loopen stängs direkt i chatten.
Vad som förändras: före vs. efter
| Det här tar bort | Effekten du märker |
|---|---|
|
|
Effekt i verkligheten
Säg att du hanterar 10 WhatsApp-frågor i veckan som var och en kräver riktig research. Manuellt är det ofta 10 minuter att researcha, sedan ytterligare 10 minuter att skriva om och korta ner för chatten, plus några minuter för att dubbelkolla källor, så du kan tappa ungefär 4 timmar i veckan. Med det här arbetsflödet är ”jobbet” att skicka frågan (under en minut) och sedan vänta på att den automatiserade researchen och putsningen kommer tillbaka. Du granskar fortfarande när det behövs, men du gör inte längre den monotona efterbearbetningen varje gång.
Krav
- n8n-instans (testa n8n Cloud gratis)
- Alternativ för self-hosting om du föredrar det (Hostinger fungerar bra)
- Twilio för att ta emot och skicka WhatsApp-meddelanden.
- Perplexity för djup research via API.
- Anthropic API-nyckel (hämta den i Anthropic Console).
Kunskapsnivå: Medel. Du klistrar in webhook-URL:er i Twilio, lägger in API-uppgifter i n8n och gör lite testning.
Behöver du hjälp att implementera detta? Prata med en automationsspecialist (gratis 15-minuters konsultation).
Flödet i arbetsflödet
Ett WhatsApp-meddelande når ditt Twilio-nummer. Twilio vidarebefordrar det inkommande meddelandet till n8n via en publik webhook-URL, vilket gör att ditt arbetsflöde kan ”höra” frågor i samma sekund som de kommer in.
Frågan omvandlas till en researchuppgift. n8n tar meddelandetexten och skickar den till Perplexity (med modellen sonar-pro i det här arbetsflödet) för att ta fram en researchtext baserad på flera källor.
Claude putsar för människor. Arbetsflödet skickar Perplexitys output vidare till en Claude-kedja som stramar upp formuleringarna, förbättrar strukturen och formaterar för läsbarhet i WhatsApp (korta avsnitt, tydliga punkter, inga textväggar).
Twilio skickar den färdiga briefen tillbaka. Den putsade sammanfattningen skickas som ett WhatsApp-svar i samma tråd, så den som frågar slipper gå över till e-post eller dokument för att få svaret.
Du kan enkelt justera ”puts”-steget för att matcha din tonalitet, lägga till källänkar eller ändra nivån från ”kort” till ”djupdykning” beroende på behov. Se hela implementationsguiden nedan för alternativ för anpassning.
Steg-för-steg-guide för implementering
Steg 1: konfigurera webhook-triggern
Konfigurera den inkommande WhatsApp-webhooken för att fånga upp inkommande meddelanden och skicka dem vidare in i arbetsflödet.
- Lägg till eller välj Incoming WhatsApp Webhook som er trigger-nod.
- Ställ in HTTP Method på
POST. - Ställ in Path på
fetch-whatsapp-request. - Kopiera produktions-webhook-URL:en från Incoming WhatsApp Webhook och konfigurera er inkommande WhatsApp/Twilio-webhook så att den pekar dit.
Steg 2: anslut Perplexity research
Konfigurera steget för djupgående research som genererar en strukturerad rapport baserat på innehållet i det inkommande WhatsApp-meddelandet.
- Lägg till Run Deep Research och koppla den efter Incoming WhatsApp Webhook.
- Inloggning krävs: Anslut era perplexityApi-uppgifter.
- Ställ in Model på
sonar-pro. - Aktivera Simplify genom att sätta den till
true. - I meddelandeinnehållet, behåll referensen till användarfrågan som
{{ $json.body.Body }}så att den använder den inkommande WhatsApp-texten.
Steg 3: konfigurera AI-putsning och språkmodell
Putsa researchrapporten till en WhatsApp-anpassad sammanfattning med chain LLM och koppla på Anthropic-språkmodellen.
- Lägg till Polish WhatsApp Summary och koppla den efter Run Deep Research.
- Ställ in Prompt Type på
define. - Klistra in hela prompten i Text exakt som angivet och säkerställ att indatereferensen
{{ $json.message }}förblir intakt. - Lägg till Anthropic Chat Model och koppla den som språkmodell till Polish WhatsApp Summary (ai_languageModel connection).
- Inloggning krävs: Anslut era anthropicApi-uppgifter på Anthropic Chat Model.
⚠️ Vanlig fallgrop: Lägg inte till inloggningsuppgifter direkt på Polish WhatsApp Summary; koppla dem till Anthropic Chat Model eftersom den tillhandahåller LLM:en för kedjan.
Steg 4: konfigurera WhatsApp-svar som utdata
Skicka det putsade svaret tillbaka till den ursprungliga WhatsApp-avsändaren via Twilio.
- Lägg till Dispatch WhatsApp Reply och koppla den efter Polish WhatsApp Summary.
- Inloggning krävs: Anslut era twilioApi-uppgifter.
- Ställ in To på
{{ $('Incoming WhatsApp Webhook').item.json.body.From.replace('whatsapp:', '') }}. - Ställ in From på
{{ $('Incoming WhatsApp Webhook').item.json.body.To.replace('whatsapp:', '') }}. - Ställ in Message på
{{ $json.text }}. - Aktivera To Whatsapp genom att sätta den till
true.
Steg 5: testa och aktivera ert arbetsflöde
Verifiera hela flödet från inkommande WhatsApp-meddelande till AI-svar och aktivera det för produktionsanvändning.
- Klicka på Execute Workflow och skicka ett testmeddelande i WhatsApp till ert Twilio-nummer som är kopplat till Incoming WhatsApp Webhook.
- Bekräfta att Run Deep Research ger en strukturerad rapport och att Polish WhatsApp Summary returnerar en WhatsApp-formaterad sammanfattning.
- Verifiera att svaret skickas via Dispatch WhatsApp Reply och dyker upp i WhatsApp med korrekt formatering och emojis.
- När allt fungerar, växla arbetsflödet till Active för att aktivera produktionsanvändning.
Håll koll på
- Twilio-uppgifter och inställningar för WhatsApp-avsändare kan sluta fungera utan tydliga fel om din sandbox-/sessionssetup ändras. Om svaren slutar komma, kontrollera först messaging-webhooken i Twilio Console och konfigurationen för avsändarnumret.
- Om du använder Wait-noder eller extern rendering varierar processtiderna. Öka väntetiden om efterföljande noder fallerar på tomma svar.
- Standardprompter i AI-noder är generiska. Lägg in din tonalitet tidigt, annars kommer du redigera output för alltid.
Vanliga frågor
Oftast ungefär en timme om du redan har Twilio och API-nycklar redo.
Ja, men någon måste fortfarande hantera Twilio-webhook-setupen. När den väl är kopplad är den dagliga användningen bara att skicka frågor i WhatsApp.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer startar på 20 USD/månad för högre volymer. Du behöver också räkna med API-användning för Perplexity och Anthropic, som varierar beroende på hur långa dina frågor och svar är.
Två alternativ: n8n Cloud (hanterat, enklast setup) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärd och hanterar n8n bra. Self-hosting ger dig obegränsade körningar, men kräver grundläggande serverdrift.
Du kan justera Perplexity-prompten för att styra output (till exempel: ”inkludera risker”, ”inkludera talking points” eller ”använd bara senaste källor”), och sedan anpassa kedjan ”Polish WhatsApp Summary” till din tonalitet. Vanliga anpassningar är att lägga till ”källänkar” på slutet, tvinga en fast briefmall (Problem, Alternativ, Rekommendation) och routa vissa ämnen till Telegram för intern granskning innan du svarar i WhatsApp.
Oftast handlar det om webhook-URL:en eller behörigheter. Bekräfta att Twilio postar till din aktuella n8n-webhook (test vs produktion lurar många), och generera sedan om eller välj om Twilio-uppgifterna i n8n om kontobehörigheterna har ändrats. Om du använder en tunnel, kom ihåg att den kan rotera, vilket gör att Twilio slutar fungera tills du klistrar in den nya URL:en.
På en typisk n8n Cloud-plan kan den hantera gott om dagliga frågor för ett litet team; den praktiska begränsningen är API-rate limits och hur snabbt du vill att svaren ska komma tillbaka. Om du self-hostar är körningsgränser inte flaskhalsen, men du vill ändå köa förfrågningar om många meddelanden kommer in samtidigt. För de flesta företag är det realistiskt att hantera dussintals researchförfrågningar per dag, så länge du håller prompter tajta och undviker att generera massiva essäer.
Ofta, ja, eftersom n8n gör det enklare att bygga AI-arbete i flera steg (research, sedan omskrivning, sedan skicka) utan att betala extra för varje gren eller datatransformering. Du får också ett self-host-alternativ, vilket är praktiskt när användningen växer och du vill undvika prischocker med ”per task”-prissättning. Den större anledningen är kontroll: dina prompter, dina formateringsregler, din routningslogik. Zapier eller Make kan fortfarande vara bra för ett enkelt ”meddelande in, meddelande ut”-flöde, men det här flödet drar nytta av den extra flexibiliteten. Prata med en automationsspecialist om du vill ha hjälp att välja.
När detta väl är live slutar WhatsApp-frågor att stjäla dina bästa timmar. Arbetsflödet tar hand om research-till-brief-grovjobbet, och du kan fokusera på beslut och samtal som faktiskt driver arbetet framåt.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.