Du publicerar en bild som ser helt okej ut, och sedan påpekar någon vad du missade. Eller ännu värre, en kund gör det. Manuella bildkontroller faller snabbt ihop när tempot är högt.
Den här ModerateContent Slack-lösningen träffar sociala medieansvariga först, men e-handlare och byråteam som godkänner kreativa material märker det också. Målet är enkelt: granska varje bild automatiskt och skicka resultatet till Slack så att en människa kan godkänna (eller stoppa) den på några minuter.
Nedan ser du hur flödet fungerar, vilka resultat du kan förvänta dig och de vanliga ställena där modereringsautomationer skapar fel om du inte sätter upp dem med omsorg.
Så fungerar den här automationen
Hela n8n-flödet, från trigger till slutresultat:
n8n Workflow Template: ModerateContent + Slack: säkrare bilder före publicering
flowchart LR
subgraph sg0["Image Moderation MCP Server Flow"]
direction LR
n0@{ icon: "mdi:play-circle", form: "rounded", label: "Image Moderation MCP Server", pos: "b", h: 48 }
n1@{ icon: "mdi:web", form: "rounded", label: "Detect Nudity in Images", pos: "b", h: 48 }
n1 -.-> n0
end
%% Styling
classDef trigger fill:#e8f5e9,stroke:#388e3c,stroke-width:2px
classDef ai fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
classDef aiModel fill:#e8eaf6,stroke:#3f51b5,stroke-width:2px
classDef decision fill:#fff8e1,stroke:#f9a825,stroke-width:2px
classDef database fill:#fce4ec,stroke:#c2185b,stroke-width:2px
classDef api fill:#fff3e0,stroke:#e65100,stroke-width:2px
classDef code fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef disabled stroke-dasharray: 5 5,opacity: 0.5
class n0 trigger
class n1 api
Problemet: riskabla bilder slinker igenom vid snabb publicering
När bilder kommer från många håll (UGC, produktflöden, community-bidrag, designers, AI-genereringar) blir granskningssteget rörigt. Någon laddar ner en fil, någon annan tittar snabbt, och inlägget går ut eftersom “det är nog okej”. Så hamnar varumärken i läget att be om ursäkt för ett dåligt kreativt val som ingen ens såg. Det värsta är den mentala belastningen. Teamet försöker vara noggrannt och samtidigt snabbt, och de två målen står i konflikt varje dag.
Det summerar sig snabbt. Här är var det brister i verkligheten.
- Bilder godkänns efter en snabb blick, och det är precis då tveksamt innehåll smyger igenom.
- En enda miss blir till en Slack-brandkårsutryckning som stjäl resten av eftermiddagen.
- Godkännanden är utspridda över DM, e-posttrådar och kommentarer, så du kan inte visa vem som godkände vad.
- Team undviker att skala UGC eller partnerskap eftersom moderering känns som en flaskhals.
Lösningen: automatisk bildgranskning som skickas till Slack för godkännande
Det här flödet gör ModerateContents kontroll för “upptäck nakenhet i bilder” till en felfri, återanvändbar endpoint som du kan anropa från andra verktyg, agenter eller flöden. Det börjar med en MCP server trigger i n8n, som fungerar som en liten server som väntar på anrop. När en bild-URL skickas in skickar n8n den till ModerateContent API via en HTTP request. Flödet utvärderar sedan svaret (till exempel om bilden flaggas eller ser säker ut). Till sist kan resultatet skickas in i er granskningsprocess, vilket i praktiken betyder ett Slack-meddelande som ger teamet ett snabbt ja/nej och tillräcklig kontext för att avgöra nästa steg.
Enkelt uttryckt: en bild kommer in, ModerateContent granskar den och ditt team får ett snabbt beslut där ni redan arbetar. Du lägger fokus på gränsfall i stället för att kontrollera varenda fil.
Det här får du: automation vs. resultat
| Det här automatiserar flödet | Resultat du får |
|---|---|
|
|
Exempel: så här ser det ut i praktiken
Säg att ditt team granskar 50 bilder i veckan för sociala inlägg och annonser. Om en “snabbkoll” tar cirka 2 minuter per bild (ladda ner, öppna, titta, svara) blir det ungefär 100 minuter plus kontextbyten, vilket ärligt talat känns som 3 timmar. Med det här flödet tar det kanske 10 sekunder att skicka in en bild-URL, och ModerateContent returnerar resultat på ett ögonblick. Er Slack-granskning sker bara för flagade eller gränsfall, så veckan förblir lugn i stället för att bli ett konstant dropp av små uppgifter.
Det här behöver du
- n8n-instans (prova n8n Cloud gratis)
- Självhostat alternativ om du föredrar det (Hostinger fungerar bra)
- ModerateContent för screening av nakenhet i bilder
- Slack för att skicka resultatet till teamets granskning
- ModerateContent API-nyckel (hämta den i din ModerateContent-dashboard)
Kunskapsnivå: Medel. Du klistrar in API-uppgifter, testar en webhook-/MCP-endpoint och verifierar leverans till Slack.
Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis 15-minuters konsultation).
Så fungerar det
En agent eller ett verktyg anropar din screening-endpoint. MCP server trigger publicerar en URL som du kan använda som ett “modereringsverktyg” i ett annat flöde eller i en AI-agentuppsättning.
Flödet paketerar förfrågan. n8n samlar in bild-URL:en och fyller i nödvändiga parametrar (flödet är designat för att ta emot indata på ett felfritt sätt, inklusive AI-genererade värden).
ModerateContent kontrollerar bilden. En HTTP request anropar https://api.moderatecontent.com/moderate/ och returnerar ett strukturerat svar som du kan agera på, inte en vag “godkänd/underkänd”.
Resultatet returneras och routas. I många upplägg betyder det att en sammanfattning postas i Slack för granskning och att publicering längre ned i kedjan vid behov stoppas när en flagga upptäcks.
Du kan enkelt justera Slack-routningen för att matcha era godkännanden (till exempel skicka “säkra” bilder till en loggkanal och “flagade” bilder till en privat granskningskanal). Se hela implementationsguiden nedan för anpassningsalternativ.
Steg-för-steg-guide för implementering
Steg 1: Konfigurera triggertypen
Konfigurera den inkommande MCP-triggern så att externa förfrågningar kan anropa modereringsverktyget.
- Lägg till och öppna MCP Image Screening Gateway.
- Ställ in Path till
image-moderation-mcp. - Behåll standardkonfigurationen för webhooken och spara noden.
Steg 2: Anslut den primära tjänsten
Det här arbetsflödet anropar ModerateContent API via HTTP-verktygsnoden.
- Öppna Nudity Content Check och bekräfta att URL är inställd på
=https://api.moderatecontent.com/moderate//. - Aktivera Send Query så att query-parametrar inkluderas i begäran.
- I Query Parameters, ställ in name till
urloch value till{{ $fromAI('url', 'Url', 'string') }}.
Steg 3: Konfigurera bearbetnings-/AI-noden
Konfigurera AI-verktygsnoden som utför nakenhetskontrollen och returnerar modereringssvaret.
- Verifiera att Nudity Content Check innehåller Tool Description som förklarar modereringsbeteendet.
- Säkerställ att verktyget förblir anslutet till MCP Image Screening Gateway som ett AI-verktyg (arbetsflödet ska visa AI-verktygslänken).
{{ $fromAI('url', 'Url', 'string') }} gör att MCP-anroparen kan ange bildens URL dynamiskt.Steg 4: Konfigurera utdata-/åtgärdsnoder
Det här arbetsflödet returnerar modereringssvaret direkt via MCP-verktygsanropet, så inga ytterligare utdatanoder krävs.
- Behåll valfritt Flowpast Branding som en referensnotering i canvasen; den påverkar inte körningen.
Steg 5: Testa och aktivera ert arbetsflöde
Verifiera modereringsanropet end-to-end och aktivera sedan arbetsflödet för produktion.
- Klicka på Execute Workflow och trigga MCP Image Screening Gateway med en test-URL till en bild.
- Bekräfta att Nudity Content Check returnerar ett modereringssvar från ModerateContent (t.ex. en klassificering som “safe” eller “unsafe”).
- När ni är nöjda, växla arbetsflödet till Active så att MCP-endpointen är tillgänglig i produktion.
Vanliga fallgropar
- ModerateContent-uppgifter kan gå ut eller kopieras fel. Om det slutar fungera, kontrollera API-nyckeln som är sparad i n8n Credentials och verifiera att den matchar din ModerateContent-dashboard.
- Om du kedjar detta till andra automationer (som bildbearbetning eller publicering i kö) varierar processtiderna. Öka eventuell väntetid i anropande flöde om du ser tomma svar i efterföljande steg.
- Om du använder en AI-agent eller OpenAI Chat Model för att avgöra “vad som händer härnäst” kan standardinstruktionerna vara för artiga och osäkra. Säg exakt när den ska blockera, när den ska eskalera till Slack och vilken kanal som ska användas.
Vanliga frågor
Cirka 30 minuter om du redan har din ModerateContent API-nyckel och Slack redo.
Nej. Du kopplar främst in behörigheter och testar endpointen en gång. Därefter handlar det om konfiguration och små justeringar.
Ja. n8n har ett gratis självhostat alternativ och en gratis provperiod på n8n Cloud. Cloud-planer börjar på $20/månad för högre volym. Du behöver också räkna in ModerateContent API-kostnader (oftast en mindre månadsplan baserad på antal kontroller).
Två alternativ: n8n Cloud (hanterat, enklast setup) eller självhostat på en VPS. För självhosting är Hostinger VPS prisvärd och hanterar n8n bra. Självhosting ger obegränsade körningar men kräver grundläggande serverhantering.
Ja, och det bör du sannolikt göra. Skicka “säkra” resultat till en tyst loggkanal och skicka sedan “flagade” resultat till en privat granskningskanal med striktare behörigheter. Om du anropar MCP-endpointen från ett annat flöde kan du också lägga till egna trösklar innan Slack ens ser det. Nyckeln är att hålla granskare fokuserade på undantag, inte på varenda bild.
Oftast beror det på en ogiltig eller utgången API-nyckel. Uppdatera ModerateContent-credentials i n8n och kör sedan en enkel testförfrågan med en känd bild-URL. Kontrollera också att bild-URL:en är publikt åtkomlig, eftersom privata Drive-länkar och CDN-URL:er som löper ut kan returnera ett “success”-svar utan något användbart innehåll.
På en typisk n8n Cloud-plan kan du hantera tusentals kontroller per månad, och självhosting tar bort körningsbegränsningar (din server blir begränsningen). ModerateContents planbegränsningar spelar också roll, så matcha bildvolymen mot din API-kvot. För de flesta små team täcker det utan problem daglig publicering plus annonsvarianter.
Ofta, ja. n8n är enklare att bygga vidare på när du vill ha förgreningslogik, rikare hantering av payload eller ett självhostat alternativ som inte straffar dig för volym. Zapier eller Make kan fortfarande fungera bra om du bara behöver “skicka bild-URL, få resultat, posta till Slack” och inget mer. Där n8n vinner är när du lägger till spärrar (blockera publicering), loggning, retries och godkännanden över flera kanaler. Prata med en automationsexpert om du vill ha hjälp att välja den mest robusta stacken.
Bildmoderering är ett säkerhetssystem, inte en magkänslekontroll. Sätt upp det här en gång, routa beslut till Slack och du levererar snabbare utan den gnagande oron att något slank igenom.
Kontakta oss
Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.