ISO 26262-arbete med faror brukar börja bra, men blir snabbt en loop av omskrivningar. Du samlar en systembeskrivning, översätter den till faror, diskuterar S/E/C-bedömning, och jagar åtgärder i dokument och kommentarer.
Det är här safety engineers tappar hela eftermiddagar, helt ärligt. Engineering managers märker det när sign-off försenas. Och konsulter fastnar i att polera samma avsnitt igen för “audit readiness”. ISO 26262-automation hjälper dig att göra den röriga mitten till ett konsekvent, granskningsbart resultat.
Det här arbetsflödet använder OpenAI i n8n för att ta fram rapporter för faror, risk och åtgärder från en systembeskrivning, och formaterar sedan resultaten till dokument som faktiskt går att granska, godkänna och arkivera.
Så fungerar den här automatiseringen
Hela n8n-flödet, från trigger till slutligt resultat:
n8n Workflow Template: OpenAI + Google Docs: ISO 26262-risker klara
flowchart LR
subgraph sg0["When clicking ‘Execute workflow’ Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "When clicking ‘Execute workf..", pos: "b", h: 48 }
n1@{ icon: "mdi:robot", form: "rounded", label: "AI Agent", pos: "b", h: 48 }
n2@{ icon: "mdi:brain", form: "rounded", label: "AI_Hazard_Analysis", pos: "b", h: 48 }
n3@{ icon: "mdi:memory", form: "rounded", label: "A simple memory window", pos: "b", h: 48 }
n4@{ icon: "mdi:cog", form: "rounded", label: "Read Systems_Description", pos: "b", h: 48 }
n5@{ icon: "mdi:cog", form: "rounded", label: "Convert input to binary data", pos: "b", h: 48 }
n6@{ icon: "mdi:cog", form: "rounded", label: "Convert to File", pos: "b", h: 48 }
n7@{ icon: "mdi:cog", form: "rounded", label: "Potential_risks_report.txt", pos: "b", h: 48 }
n8@{ icon: "mdi:cog", form: "rounded", label: "Update_risk_estimation_report", pos: "b", h: 48 }
n9@{ icon: "mdi:robot", form: "rounded", label: "AI Agent1", pos: "b", h: 48 }
n10@{ icon: "mdi:cog", form: "rounded", label: "Convert input to binary data1", pos: "b", h: 48 }
n11@{ icon: "mdi:cog", form: "rounded", label: "Convert to File1", pos: "b", h: 48 }
n12@{ icon: "mdi:cog", form: "rounded", label: "Risks_mitigation.txt", pos: "b", h: 48 }
n13@{ icon: "mdi:robot", form: "rounded", label: "AI Agent2", pos: "b", h: 48 }
n14@{ icon: "mdi:cog", form: "rounded", label: "Convert input to binary data2", pos: "b", h: 48 }
n15@{ icon: "mdi:cog", form: "rounded", label: "Convert to File2", pos: "b", h: 48 }
n1 --> n6
n9 --> n11
n13 --> n15
n6 --> n7
n11 --> n8
n15 --> n12
n2 -.-> n1
n2 -.-> n9
n2 -.-> n13
n3 -.-> n1
n3 -.-> n9
n3 -.-> n13
n4 --> n5
n7 --> n10
n5 --> n1
n10 --> n9
n14 --> n13
n8 --> n14
n0 --> n4
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1,n9,n13 ai
class n2 aiModel
class n3 ai
Problemet: ISO 26262-faranalys drar ut på tiden
Du kan göra en bra HARA- eller FMEA-liknande genomgång i en workshop, men dokumentationssvansen är brutal. Faror fångas i ett format, riskbedömningar ligger i ett annat, och åtgärder blir utspridda i kalkylark, tickets och någons “final_v7”-dokument. Sedan försöker du bygga upp spårbarhet inför en revision, vilket betyder att du läser samma systembeskrivning igen och motiverar samma antaganden en gång till. En liten ändring i systembeskrivningen kan trigga timmar av omarbete eftersom inget är strukturerat på ett konsekvent sätt.
Friktionen byggs på. Den syns på förutsägbara ställen:
- Man skriver om faror och motiveringar om och om igen eftersom det saknas en konsekvent mall och ton.
- Diskussioner om riskklassning tar längre tid när motiveringen saknas eller är begravd i mötesanteckningar.
- Åtgärdsstrategier skrivs sent, så de mappar inte rent tillbaka till faran och vald ASIL.
- Förberedelser inför revision blir ett miniprojekt eftersom du behöver ett tydligt “varför” för varje beslut, inte bara den slutliga tabellen.
Lösningen: generera faror, risk och åtgärder från en källa
Det här n8n-flödet utgår från en enda input: en systembeskrivningsfil som du tillhandahåller. Det extraherar texten, skickar den genom en AI-agent för faranalys och skapar en formaterad farorapport. Den rapporten matar sedan en andra agent som riskklassar enligt ISO 26262-tänk (allvarlighetsgrad, exponering, kontrollerbarhet) och genererar en risksammanfattning som du kan granska. Till sist tar en agent för åtgärdsstrategi risksammanfattningen och tar fram åtgärdsrekommendationer som linjerar med farorna och klassningarna. Varje steg skrivs ut som en fil, så du får separata artefakter som du kan versionshantera, dela och godkänna.
Enkelt uttryckt: du lämnar beskrivningen en gång. OpenAI tar fram ett första utkast på faror, sedan ett utkast på riskklassningsmotivering, sedan ett utkast på åtgärder, och n8n formaterar varje del till ett revisionsvänligt dokument du kan signera. Mänsklig granskning finns kvar i loopen, men första utkastet är inte längre flaskhalsen.
Det du får: automation vs. resultat
| Vad det här arbetsflödet automatiserar | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut
Säg att du dokumenterar ett delsystem och normalt lägger cirka 6 timmar på att omvandla en beskrivning till (1) en farolista, (2) en sammanfattning av riskklassning och (3) en åtgärdsbeskrivning, plus ytterligare 2 timmar för att städa upp för granskning. Med det här flödet triggar du körningen, väntar på att agenterna tar fram utkast, och lägger sedan cirka 2 timmar på att granska och korrigera innan sign-off. Det är ungefär 6 timmar tillbaka på en enda analyscykel, och ni behåller fortfarande ingenjörsmässigt ägarskap över besluten.
Det här behöver du
- n8n-instans (prova n8n Cloud gratis)
- Self-hosting-alternativ om du föredrar det (Hostinger fungerar bra)
- OpenAI för utkast av faror, risk och åtgärder
- Google Docs för att lagra och dela granskningsbara rapporter
- OpenAI API-nyckel (hämta den i OpenAI-dashboarden)
Kunskapsnivå: Medel. Du kopplar in autentisering, sätter filsökvägar (eller byter till Google Docs) och justerar prompts på ett säkert sätt.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
Du startar körningen med en systembeskrivning. I det medföljande flödet börjar det med en manuell trigger och laddar en systembeskrivningsfil, vilket är ett enkelt sätt att testa och förfina prompts innan du kopplar det till en riktig intake-metod.
Flödet extraherar och rensar texten. n8n plockar ut råtext ur filen, så att AI-agenten får en rensad payload i stället för ett stökigt dokumentformat.
OpenAI genererar tre ihopkopplade artefakter. En agent för faranalys tar fram utkast till faror och motiveringar, sedan läser en separat agent för riskklassning farorapporten och skapar klassningssammanfattningen, och en åtgärdsagent tar fram åtgärdsstrategier som mappar tillbaka till det som kom innan. Att hålla dessa agenter separata hjälper till att undvika att en enda jättelik prompt blir en vag klump.
Rapporter formateras och skrivs ut. Varje resultat konverteras till en rapportfil och sparas, så att du kan granska, versionshantera och dela den (eller senare byta ut stegen för “skriv fil” mot att skapa Google Docs).
Du kan enkelt ändra input-metoden till att ta emot en webhook-uppladdning eller ett Telegram-meddelande i stället för manuell start, beroende på dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementation
Steg 1: Konfigurera den manuella triggern
Konfigurera den manuella triggern så att ni kan köra flödet för hazardbedömning vid behov medan ni validerar indata och utdata.
- Lägg till och öppna Manual Start Trigger.
- Lämna alla parametrar som standard eftersom den här noden inte har några obligatoriska fält.
- Koppla Manual Start Trigger till Load System Description enligt körflödet.
Steg 2: Anslut indata för systembeskrivningen
Läs in filen med systembeskrivningen och extrahera dess textinnehåll för vidare AI-bearbetning.
- Öppna Load System Description och ställ in File Selector till
/data/inputs/1_hazard_identification/systems_description.txt. - Öppna Extract Text Payload och ställ in Operation till
text. - Bekräfta kopplingen: Load System Description → Extract Text Payload → Hazard Analysis Agent.
/data/inputs/1_hazard_identification/systems_description.txt. Om sökvägen är fel eller filen saknas kommer agenterna att få tom indata.Steg 3: Konfigurera AI-agenterna och språkmodellen
Konfigurera de tre AI-agenterna som genererar hazardrapporten, riskklassningar och riskreducerande strategier, och säkerställ att den delade modellen och minnet är anslutna.
- Öppna OpenAI Model Selector och välj modellen
gpt-4.1-mini. - Inloggningsuppgifter krävs: Anslut era openAiApi-credentials i OpenAI Model Selector.
- I Session Memory Buffer ställer ni in Session Key till
{{ $execution.id }}, Session ID Type tillcustomKeyoch Context Window Length till20. - Öppna Hazard Analysis Agent och ställ in Text till
=const description = {{ $json.data }}.binary.data.toString('utf-8'); const prompt = `Analyze this system for hazards: ${description} Output: 1. 5 potential hazards 2. Likely root causes 3. ISO 26262 relevant clauses`; return [{ json: { prompt } }];. - Öppna Risk Rating Agent och ställ in Text till
=const description = "### Hazards to Analyze:\n\t{{ $json.data }}". - Öppna Mitigation Strategy Agent och ställ in Text till
=Generate ISO 26262-compliant mitigation strategies for these ASIL-rated hazards:\n\n{{$json.data}}. - Säkerställ att OpenAI Model Selector är ansluten som språkmodell för Hazard Analysis Agent, Risk Rating Agent och Mitigation Strategy Agent.
- Säkerställ att Session Memory Buffer är ansluten som minne till alla tre agenterna. Inloggningsuppgifter, vid behov, ska läggas till i den överordnade AI-noden, inte i minnes-subnoden.
Steg 4: Konfigurera rapportformatering och filutdata
Konvertera AI-utdata till textfiler och skriv dem till de avsedda utdatakatalogerna.
- I Format Hazard Report ställer ni in Operation till
toTextoch Source Property tilloutput. - I Write Hazard Report ställer ni in Operation till
writeoch File Name till=/data/outputs/1_hazard_identification/Report_Hazard Identification.txt_{{ $now.toString() }}. - I Format Risk Summary ställer ni in Operation till
toTextoch Source Property tilloutput. - I Write Risk Summary ställer ni in Operation till
writeoch File Name till=/data/outputs/2_risk_estimation/Report_Risk_Estimation.txt_{{ $now.toString() }}. - I Format Mitigation Report ställer ni in Operation till
toTextoch Source Property tilloutput. - I Write Mitigation Report ställer ni in Operation till
writeoch File Name till=/data/outputs/3_mitigation_strategy/Report_Risk_mitigation.txt_{{ $now.toString() }}. - Bekräfta flödeskedjan: Hazard Analysis Agent → Format Hazard Report → Write Hazard Report → Extract Report Text → Risk Rating Agent → Format Risk Summary → Write Risk Summary → Extract Summary Text → Mitigation Strategy Agent → Format Mitigation Report → Write Mitigation Report.
{{ $now.toString() }}. Om er miljö begränsar kolon eller mellanslag i filnamn, justera uttrycket till ett säkert tidsstämpelformat.Steg 5: Testa och aktivera ert arbetsflöde
Kör ett manuellt test för att validera filåtkomst, AI-utdata och rapportgenerering innan ni aktiverar det här arbetsflödet i produktion.
- Klicka på Execute Workflow från Manual Start Trigger för att köra flödet.
- Verifiera att Write Hazard Report, Write Risk Summary och Write Mitigation Report var och en skapar nya filer i respektive
/data/outputs/-mapp. - Öppna utdatafilerna för att bekräfta att hazardlistan, riskklassningarna och de riskreducerande strategierna finns med och är korrekt formaterade.
- Om allt ser korrekt ut, slå om arbetsflödet till Active för användning i produktion.
Vanliga fallgropar
- OpenAI-autentisering kan gå ut eller vara fel avgränsad. Om något slutar fungera: kontrollera först panelen Credentials i n8n och bekräfta att API-nyckeln fortfarande är aktiv.
- Om du byter den manuella triggern mot en webhook varierar fil-payload-formaten. Testa med en riktig uppladdning och säkerställ att steget för textutdrag läser rätt binär egenskap.
- Standardprompts i AI-noder är generiska. Lägg in din safety case-stil, föredragen farotaxonomi och format för motivering tidigt, annars kommer du att redigera utdata för alltid.
Vanliga frågor
Cirka 45 minuter om du redan har n8n och en OpenAI-nyckel.
Ingen kodning krävs. Du kopplar främst in autentisering och justerar prompts samt fil-destinationer.
Ja. n8n har ett gratis self-hosted-alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna in kostnader för OpenAI API-användning, vilket oftast är några cent per körning beroende på dokumentstorlek.
Två alternativ: n8n Cloud (managed, enklast att komma igång) eller self-hosting på en VPS. För self-hosting är Hostinger VPS prisvärt och hanterar n8n bra. Self-hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.
Ja, men du byter ut filnoderna “Write Hazard Report / Write Risk Summary / Write Mitigation Report” mot Google Docs-åtgärder. Vanliga anpassningar är att skriva varje rapport till en specifik Drive-mapp, namnge dokument med projekt- och versionsmetadata och skicka granskningslänken till Telegram för sign-off.
Oftast handlar det om en utgången eller felaktig API-nyckel i n8n Credentials. Uppdatera nyckeln och bekräfta sedan att ditt OpenAI-projekt har fakturering aktiverad och att vald chat-modell är tillgänglig för ditt konto. Om det bara fallerar vid längre input kan du slå i token-gränser, så korta systembeskrivningen eller dela upp den i chunkar innan du skickar.
Om du kör self-hosted finns ingen fast körningsgräns (det beror mest på din server). På n8n Cloud beror det på din plans månatliga körningar, och det här flödet brukar förbruka en körning per run.
Ofta, ja, eftersom det här flödet gynnas av flersteglogik, flera AI-steg och filhantering på samma ställe. n8n är också enklare att utveckla till en “engineering-grade”-setup med versionshantering och miljöseparering, vilket spelar roll för revisionsarbete. Zapier och Make kan fungera för enkel routning, men komplexa promptkedjor blir snabbt otympliga. Om din safety-process behöver mänskliga godkännandesteg kommer du att uppskatta kontrollen. Prata med en automationsexpert om du vill ha hjälp att välja rätt plattform.
Du tar fortfarande de ingenjörsmässiga besluten, men du slipper betala “tom sida-skatten” varje gång en rapport ska skapas. Sätt upp det en gång och återanvänd samma struktur för varje delsystem du jobbar med.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.