Researcharbete fallerar på de tråkiga ställena. Prompten som bara fanns i någons huvud. Det “slutgiltiga” svaret som klistrades in i Slack, kopierades igen till ett dokument och sedan försvann.
Om du jobbar med content eller growth märker du det först. Marknadschefer som jagar konsekventa briefar, byråägare som försöker standardisera leveranser och operationsinriktade personer som bara vill ha en enda källa till sanning kan alla använda den här Perplexity Sheets-automationen för att stoppa kaoset.
Det här flödet gör Perplexity-utdata till en felfri, återanvändbar struktur i Google Sheets, så att du kan bygga ett bibliotek av researchbriefar som är lätt att uppdatera, filtrera och återanvända.
Så fungerar den här automationen
Här är hela flödet du kommer att sätta upp:
n8n Workflow Template: Perplexity till Google Sheets: researchbriefar klara
flowchart LR
subgraph sg0["When Executed by Another Workflow Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When Executed by Another Wor..", pos: "b", h: 48 }
n1@{ icon: "mdi:swap-vertical", form: "rounded", label: "Parameters", pos: "b", h: 48 }
n2["<div style='background:#f5f5f5;padding:10px;border-radius:8px;display:inline-block;border:1px solid #e0e0e0'><img src='https://flowpast.com/wp-content/uploads/n8n-workflow-icons/httprequest.dark.svg' width='40' height='40' /></div><br/>Perplexity API Request"]
n1 --> n2
n0 --> n1
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n2 api
classDef customIcon fill:none,stroke:none
class n2 customIcon
Varför det här spelar roll: researchbriefar blir snabbt röriga
När researchbriefar inte fångas i ett konsekvent format slutar det med att du betalar för samma tankearbete två gånger. En kollega kör Perplexity, någon annan ställer en liknande fråga nästa vecka och plötsligt upprepar ni prompts eftersom ingen hittar förra resultatet. Även när ni hittar det är det oftast en textklump med saknad kontext: vilken modell, vilken systeminstruktion, vad användaren frågade och vad ni faktiskt levererade. Den osäkerheten skapar extra granskningsvarv och “snabba förtydligandefrågor” som i det tysta äter upp era eftermiddagar.
Det växer snabbt. Så här faller det isär i riktiga team.
- Folk klistrar in Perplexity-svar på olika ställen, så det finns ingen enskild version att hänvisa till senare.
- Prompts glider över tid, vilket gör att två “researchbriefar” inte kan jämföras sida vid sida.
- Överlämningar blir slarviga eftersom “varför” bakom en rekommendation aldrig hamnar i dokumentet.
- Du lägger ungefär en timme i veckan på att återskapa arbete du redan har betalat för, bara för att det inte lagrades strukturerat.
Det du bygger: Perplexity-utdata till ett strukturerat kalkylark
Det här n8n-flödet fungerar som en återanvändbar “researchmodul” du kan anropa från andra automationer. I stället för att köra Perplexity manuellt och klistra in resultat någonstans skickar du en prompt in i flödet som indata. Flödet mappar dina instruktioner till rätt fält, anropar Perplexitys chat/completions-endpoint (med modellerna sonar eller sonar-pro) och returnerar sedan svaret i en förutsägbar struktur. Därifrån är det enkelt att lagra utdata i Google Sheets som en konsekvent researchbrief som teamet kan filtrera, söka och återanvända.
Det börjar med att ett uppströmsflöde skickar två värden: en SystemPrompt (dina regler och din ton) och en UserPrompt (själva frågan). Sedan formaterar n8n dessa parametrar och gör Perplexity API-anropet via HTTP. Till sist pushar du de rensade resultaten till Google Sheets, som blir ditt researchbibliotek.
Det du bygger
| Det som automatiseras | Det du uppnår |
|---|---|
|
|
Förväntade resultat
Säg att ditt team skapar 10 researchbriefar i veckan. Manuellt är det vanligt att lägga cirka 10 minuter på prompting, ytterligare 10 minuter på att rensa utdata och 5 minuter på att arkivera det någonstans, alltså ungefär 4 timmar per vecka. Med det här flödet blir “människotiden” att skicka in prompten och välja destinationsrad, kanske 2 minuter per brief. Perplexity tar fortfarande tid att svara, men du behöver inte sitta och övervaka processen. Det är runt 3 timmar tillbaka varje vecka, och briefarna blir faktiskt återanvändbara.
Innan du börjar
- n8n-instans (prova n8n Cloud gratis)
- Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
- Perplexity API för att generera researchsvar via chat/completions.
- Google Sheets för att lagra briefar i ett standardformat.
- Perplexity API-nyckel (hämta den i dina Perplexity API-inställningar/dashboard)
Svårighetsgrad: Nybörjare. Du kopplar mest credentials och redigerar ett par fält (prompts och sheet-mappning).
Vill du att någon bygger detta åt dig? Prata med en automationsexpert (gratis 15-minuters konsultation).
Steg för steg
Ett uppströmsflöde triggar modulen. Den här mallen är byggd för att anropas via n8n:s “Execute Workflow”-mönster, så att andra automationer kan skicka den prompts på beställning.
Dina prompts standardiseras. Flödet tar två indata (SystemPrompt och UserPrompt) och mappar dem till request-strukturen som Perplexity förväntar sig, så att du slipper handformatera JSON eller kopiera samma standardinstruktioner.
Perplexity gör researchen. n8n skickar ett autentiserat HTTP-anrop till chat/completions-endpointen med en stödd modell som sonar eller sonar-pro och fångar sedan svaret strukturerat för nedströmssteg.
Utdata hamnar där teamet jobbar. I praktiken pushar de flesta team svaret till Google Sheets som en ny rad (brieftitel, prompt, modell, svar, anteckningar), vilket gör det enkelt att sortera, avduplicera och återanvända.
Du kan enkelt ändra prompts och Sheet-kolumnerna så att de matchar ert interna briefformat. Se den fullständiga implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: konfigurera triggern Execute Workflow
Konfigurera startpunkten för arbetsflödet så att uppströmsarbetsflöden kan skicka in de promptar som behövs för LLM-anropet.
- Lägg till noden Upstream Workflow Trigger.
- Öppna Upstream Workflow Trigger och bekräfta att arbetsflödets indata inkluderar SystemPrompt och UserPrompt.
- Koppla Upstream Workflow Trigger till Model Parameters Map för att matcha körflödet.
⚠️ Vanlig fallgrop: Om det uppströms arbetsflödet inte skickar SystemPrompt och UserPrompt kommer chattförfrågan att sakna obligatoriskt innehåll.
Steg 2: anslut Perplexity API
Förbered autentisering så att API-anropet till Perplexity kan auktoriseras.
- Öppna Perplexity Chat Call och ställ in Authentication till
genericCredentialType. - Välj HTTP Header Auth för Generic Auth Type.
- Inloggningsuppgifter krävs: anslut era HTTP Header Auth-inloggningsuppgifter (lägg till er Perplexity API-nyckel i headern).
⚠️ Vanlig fallgrop: Utan giltiga header-inloggningsuppgifter kommer Perplexity Chat Call att returnera auktoriseringsfel.
Steg 3: sätt upp Model Parameters Map
Definiera modellnamnet som ska skickas in i API-anropet till Perplexity.
- Lägg till noden Model Parameters Map efter Upstream Workflow Trigger.
- I Model Parameters Map, ställ in tilldelningen model till
sonar. - Säkerställ att Model Parameters Map skickar utdata till Perplexity Chat Call.
Tips: Ni kan ändra sonar till valfritt modellnamn som stöds av Perplexity vid behov.
Steg 4: konfigurera Perplexity Chat Call
Skicka promptarna till Perplexity och formatera API-requestens body med hjälp av uttryck.
- Ställ in URL till
https://api.perplexity.ai/chat/completions. - Ställ in Method till
POST. - Aktivera Send Body och ställ in Specify Body till
json. - Klistra in JSON-body i JSON Body med hjälp av uttryck:
={ "model": "{{$('Model Parameters Map').item.json.model}}", "messages": [ { "role": "system", "content": "{{ $('Upstream Workflow Trigger').item.json.SystemPrompt }}" }, { "role": "user", "content": "{{ $('Upstream Workflow Trigger').item.json.UserPrompt }}" } ] }
⚠️ Vanlig fallgrop: Säkerställ att uttryckssyntaxen bevaras exakt; om ni tar bort = eller klamrar kommer request-body att gå sönder.
Steg 5: testa och aktivera ert arbetsflöde
Verifiera arbetsflödet från början till slut och aktivera det sedan för produktionsanvändning.
- Klicka på Execute Workflow och ange testvärden för SystemPrompt och UserPrompt i Upstream Workflow Trigger.
- Bekräfta att Perplexity Chat Call returnerar ett lyckat svar med en payload för chat completion.
- Om svaret är korrekt, växla arbetsflödet till Active för att aktivera det för uppströmsanrop.
Tips för felsökning
- Perplexity-credentials kan gå ut eller kräva specifika behörigheter. Om det skapar fel, kontrollera credentials i din HTTP Request-nod och bekräfta att din Bearer token/header-autentisering fortfarande är giltig.
- Om du använder Wait-noder eller extern rendering varierar bearbetningstiderna. Öka väntetiden om nedströmsnoder fallerar på tomma svar.
- Standardprompts i AI-noder är generiska. Lägg in ert varumärkes språk tidigt, annars kommer du att redigera utdata för alltid.
Snabba svar
Cirka 30 minuter om dina Perplexity- och Google-credentials är klara.
Ingen kodning krävs. Du kopplar konton och redigerar några mappade fält för prompts och utdata.
Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på $20/månad för högre volym. Du behöver också räkna med kostnader för Perplexity API-användning, som beror på hur långa dina prompts och svar är.
Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du förmodligen. Justera SystemPrompt- och UserPrompt-värdena i ditt uppströmsflöde och uppdatera sedan steget “Model Parameters Map” så att det inkluderar fälten du vill spara (som ämne, målgrupp eller en kort sammanfattning). Du kan också byta sonar mot sonar-pro i HTTP-request-payloaden om du vill ha annat beteende. De flesta team anpassar även Google Sheets-kolumnerna så att utdata matchar er interna brieftemplate.
Oftast beror det på en utgången eller felaktig API-nyckel i HTTP Request-credentials. Skapa en ny Perplexity API-nyckel, uppdatera Bearer token (eller header-autentisering) i n8n och försök igen. Om det fortfarande fallerar, kontrollera att din request-payload matchar kraven för chat/completions-endpointen och att du inte slår i rate limits när du kör batcher.
Mycket.
Det beror på, men n8n passar bra när du vill ha detta som en återanvändbar modul i större system. Du kan anropa den från flera flöden, skicka dynamiska variabler och standardisera prompts utan att bygga om logiken varje gång. Det är också enklare att kontrollera request-payload och parsning av svar när du jobbar med AI-API:er via HTTP. Zapier och Make kan fortfarande fungera om du bara behöver ett enkelt flöde “skicka prompt, spara svar”, men du kan slå i begränsningar när du vill ha förgreningar, rikare formatering eller högre volym. Prata med en automationsexpert om du vill ha hjälp att välja.
När dina researchbriefar hamnar i Sheets i ett förutsägbart format blir återanvändning enkelt. Flödet tar hand om de repetitiva delarna så att du kan lägga tiden på beslut, inte på att leta efter senaste prompten.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.