Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan
januari 22, 2026

Apify till Google Sheets: logga Instagramprofiler

Rickard Andersson Partner, Nodenordic.se

Att kopiera Instagram-profiluppgifter till ett kalkylark låter enkelt – tills du har gjort det för 50 konton, inser att hälften av bios har ändrats och att din ”research” redan är inaktuell.

Det här är den typen av Apify Sheets logging-automatisering som sparar marknadsteam timmar, gör att byråägare slipper leverera stökiga leadlistor och ger grundare ett researchsystem de faktiskt kan lita på.

Du får se hur det här n8n-flödet hämtar en lista med användarnamn från Google Sheets, skrapar hela offentliga profiler via en Apify-actor, loggar strukturerade rader i ett andra ark och markerar sedan varje användarnamn som klart.

Så fungerar den här automatiseringen

Hela n8n-flödet, från trigger till slutresultat:

n8n Workflow Template: Apify till Google Sheets: logga Instagramprofiler

Problemet: Instagram-research blir rörigt snabbt

Instagram-profilresearch börjar oftast med goda intentioner. Sedan blir det flikar överallt, inkonsekventa anteckningar och ett kalkylark fullt av ”ungefär”-data som ingen vill ta ansvar för. Du kopierar följarsiffror som ändras i morgon, klistrar in bios med trasiga radbrytningar och missar uppenbar kontext som kategori, externa länkar eller ett nytt namn. Än värre: manuellt arbete uppmuntrar genvägar, så du slutar uppdatera arket och det förvandlas långsamt till ett museum av gamla profiler. Den mentala belastningen är det som tar kål på det: du kan inte skala research när varje profil kräver fokus som ett litet engångsprojekt.

Friktionen byggs på. Här är var det oftast faller isär.

  • Researcher lägger cirka 5 minuter per profil bara på att samla in grunderna, och tiden fördubblas när de behöver dubbelkolla att allt stämmer.
  • Team får format som inte matchar varandra eftersom en person klistrar in emojis, en annan tar bort dem, och plötsligt blir sortering och filtrering opålitlig.
  • Det är lätt att skrapa samma användarnamn två gånger, vilket skräpar ner datasetet och gör att rapporteringen känns opålitlig.
  • När en intressent frågar: ”Är det här aktuellt?”, är det ärliga svaret oftast ”inte direkt”, eftersom det saknas en konsekvent uppdateringscykel.

Lösningen: schemalagda Apify-skrapningar som loggar strukturerade rader

Det här flödet gör Instagram-profilresearch till ett repeterbart system. Enligt schema (varje par minuter, eller den frekvens du väljer) öppnar n8n ditt Google Sheet och hämtar en kö med Instagram-användarnamn från en flik som heter Usernames. Den tar upp till 20 åt gången så att du inte överbelastar skrapningen eller arket, och paketerar sedan användarnamnen i en batchförfrågan. Därefter anropar den din anpassade Apify-actor för att skrapa fullständig offentlig profildata, som kommer tillbaka som strukturerade resultat i stället för slumpmässig copy-paste-text. Slutligen lägger flödet till korrekt formaterade profilposter i en andra flik (som heter fullprofiles) och markerar källanvändarnamnen som scraped = TRUE så att de inte behandlas igen.

Flödet börjar med en tidsstyrd trigger och en läsning från Google Sheets. Sedan sköter Apify själva Instagram-profilskrapningen i ett anrop per batch. Google Sheets får två skrivningar på slutet: en för att logga profilraderna och en för att flagga användarnamnen som klara.

Det du får: automatisering vs. resultat

Exempel: så här ser det ut i praktiken

Säg att du följer 200 Instagram-konton för influencer outreach. Manuellt blir även 5 minuter per profil cirka 16 timmar av rent rutinjobb, och det är innan någon ens formaterar arket. Med det här flödet kan du bearbeta 20 användarnamn per körning; om det körs var 10:e minut under en vanlig arbetsdag får du kapacitet att uppdatera motsvarande cirka 900 profiler utan att röra en webbläsare. Realistiskt sett är du klar med dina 200 på en eftermiddag, och därefter handlar det bara om att hålla datasetet aktuellt.

Det du behöver

  • n8n-instans (prova n8n Cloud gratis)
  • Alternativ för egen hosting om du föredrar det (Hostinger fungerar bra)
  • Google Sheets för användarnamnskö och output-tabell
  • Apify-actor för att skrapa offentliga Instagram-profiler
  • Apify API-token (hämta den i dina kontoinställningar i Apify)

Svårighetsgrad: Nybörjare. Du kopplar Google Sheets, klistrar in en API-token och säkerställer att arkkolumnerna matchar flödet.

Vill du inte sätta upp detta själv? Prata med en automationsexpert (gratis konsultation i 15 minuter).

Så fungerar det

En schemalagd trigger kör flödet. Du väljer frekvens (varje par minuter är vanligt), vilket gör att researchen hålls uppdaterad utan att någon behöver komma ihåg att ”uppdatera arket”.

Användarnamn hämtas från Google Sheets. n8n läser fliken Usernames och begränsar sedan körningen till 20 poster så att du får förutsägbara batchar och färre överraskningar.

Dessa användarnamn skickas till Apify för skrapning. Flödet aggregerar batchen och anropar Apify-actor:n via en HTTP-förfrågan och tar sedan emot strukturerad profildata tillbaka (namn, bio, följarsiffror med mera beroende på vad din actor returnerar).

Strukturerade rader loggas och kön uppdateras. Resultaten läggs till i arket fullprofiles och de ursprungliga användarnamnen markeras som skrapade så att de inte behandlas igen nästa gång.

Du kan enkelt ändra schemat så att det körs varje timme i stället för varannan minut, beroende på dina behov. Se hela implementationsguiden nedan för anpassningsalternativ.

Steg-för-steg-guide för implementation

Steg 1: Konfigurera schedule trigger

Ställ in workflowet så att det körs automatiskt enligt ett återkommande schema.

  1. Lägg till och öppna Scheduled Automation Trigger.
  2. Under RuleInterval ställer ni in Field till minutes för att matcha den befintliga schemaregeln.
  3. Koppla Scheduled Automation Trigger till Retrieve Usernames Sheet.

Steg 2: Anslut Google Sheets

Hämta användarnamn från ert kalkylark och förbered workflowets Google Sheets-anslutningar.

  1. Öppna Retrieve Usernames Sheet och ställ in Document till [YOUR_ID] och Sheet till Usernames (värde gid=0).
  2. I Retrieve Usernames Sheet behåller ni filtret på scraped via FilterslookupColumn inställt på scraped.
  3. Inloggningsuppgift krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter för Retrieve Usernames Sheet.
  4. Inloggningsuppgift krävs: Anslut era googleSheetsOAuth2Api-inloggningsuppgifter för Append Profile Records och Flag Usernames Processed.

Tips: Använd samma Google Sheets-inloggningsuppgift i alla tre Google Sheets-noder för att undvika åtkomstkonflikter.

Steg 3: Sätt upp bearbetningsnoder

Begränsa batchstorleken och aggregera användarnamn till en enda payload för API-anropet.

  1. Öppna Cap Item Count och ställ in Max Items till 20.
  2. Öppna Combine Usernames och säkerställ att Fields to Aggregate inkluderar fieldToAggregate inställt på username.
  3. Koppla Retrieve Usernames SheetCap Item CountCombine Usernames.

⚠️ Vanlig fallgrop: Om kolumnen i ert indataark inte heter username kommer Combine Usernames att ge tom data och API-anropet misslyckas.

Steg 4: Konfigurera utdata och API-åtgärder

Skicka användarnamn till scraping-API:t och skriv tillbaka resultat till Google Sheets.

  1. Öppna Run Profile Scrape API och ställ in URL till https://api.apify.com/v2/acts/mohamedgb00714~instagram-full-profile-scraper/run-sync-get-dataset-items?token=[CONFIGURE_YOUR_TOKEN].
  2. I Run Profile Scrape API ställer ni in Send Body till true, Body Content Type till json och JSON Body till ={ "instagramUsernames": [ {{ $json.username.map(item => `"${item}"`) }} ] } .
  3. Öppna Append Profile Records och ställ in Operation till append, Document till [YOUR_ID] och Sheet till fullprofiles (värde 458127000).
  4. Öppna Flag Usernames Processed och ställ in Operation till update, Sheet till Usernames (värde gid=0) och mappa Columns med scraped inställt på TRUE och username inställt på ={{ $json.username }}.
  5. Koppla Combine UsernamesRun Profile Scrape API.
  6. Run Profile Scrape API skickar utdata till både Append Profile Records och Flag Usernames Processed parallellt.

⚠️ Vanlig fallgrop: Ersätt [CONFIGURE_YOUR_TOKEN] med er giltiga Apify-token, annars kommer API:t att returnera auktoriseringsfel.

Steg 5: Testa och aktivera ert workflow

Verifiera att användarnamn scrap:as, läggs till och flaggas korrekt innan ni kör enligt schema.

  1. Klicka på Execute Workflow för att köra flödet manuellt från Scheduled Automation Trigger.
  2. Bekräfta att Append Profile Records lägger till nya rader i arket fullprofiles och att Flag Usernames Processed markerar scraped som TRUE för de användarnamnen.
  3. Om resultaten är korrekta, växla workflowet till Active för att aktivera schemalagda körningar.
🔒

Lås upp fullständig steg-för-steg-guide

Få den kompletta implementeringsguiden + nedladdningsbar mall

Vanliga fallgropar

  • Google Sheets-autentiseringsuppgifter kan gå ut eller kräva specifika behörigheter. Om något slutar fungera, kontrollera först det anslutna Google-kontot och status för n8n-credentials.
  • Om din Apify-actor tar längre tid för vissa batchar kan processingtiderna variera. Öka intervallen i schemat (eller lägg till väntetid) om du ser delresultat eller tomma svar som läggs till.
  • Apify API-token är lätt att klistra in fel, och ett enda saknat tecken kan orsaka tysta fel. Kopiera token på nytt från Apify och bekräfta sedan att noden HTTP Request använder rätt header eller query-fält.

Vanliga frågor

Hur lång tid tar det att sätta upp den här Apify Sheets logging-automatiseringen?

Cirka 30 minuter om ditt ark och din Apify-token är redo.

Behöver jag kunna koda för att automatisera Apify Sheets logging?

Nej. Du kopplar främst Google Sheets och klistrar in din Apify API-token i noden HTTP Request.

Är n8n gratis att använda för det här Apify Sheets logging-flödet?

Ja. n8n har ett gratis alternativ för egen hosting och en gratis provperiod på n8n Cloud. Cloud-planer börjar på 20 USD/månad för högre volym. Du behöver också räkna med Apify-användning, som beror på actor:n och hur ofta du kör den.

Var kan jag hosta n8n för att köra den här automatiseringen?

Två alternativ: n8n Cloud (hanterat, enklast att komma igång) eller egen hosting på en VPS. För egen hosting är Hostinger VPS prisvärd och hanterar n8n bra. Egen hosting ger dig obegränsade körningar men kräver grundläggande serveradministration.

Kan jag anpassa det här Apify Sheets logging-flödet för privata profiler eller andra fält?

Ja, men bara inom ramen för vad din Apify-actor kan returnera juridiskt och tekniskt. Du kan byta vilka fält du sparar genom att justera vad du skickar i HTTP Request-noden ”Run Profile Scrape API” och genom att mappa kolumner i ”Append Profile Records”. Vanliga anpassningar är att lägga till extra output-kolumner (som webbplats-URL), ändra batchstorleken från 20 till ett lägre antal och köra schemat varje timme i stället för varannan minut.

Varför misslyckas min Apify-anslutning i det här flödet?

Oftast beror det på en ogiltig eller utgången Apify API-token, så skapa en ny i Apify och uppdatera noden HTTP Request. Det kan också vara en felaktig actor-endpoint, eller att actor:n förväntar sig ett något annat input-format än vad flödet skickar. Om det bara fallerar vid större körningar kan du slå i rate limits eller actor-kapacitet, så minska batchstorleken och sänk körfrekvensen. Kolla även senaste körningens output i n8n; HTTP-svarets body brukar säga vad Apify inte gillade.

Hur många profiler klarar den här Apify Sheets logging-automatiseringen?

Vid varje schemalagd körning hanterar flödet upp till 20 användarnamn, och du kan skala genom att köra oftare eller höja taket. På n8n Cloud beror din månadsgräns för körningar på din plan; om du kör med egen hosting finns ingen körningsgräns, men din server och Apify-actor:ns genomströmning blir de verkliga begränsningarna.

Är den här Apify Sheets logging-automatiseringen bättre än att använda Zapier eller Make?

Ofta, ja, eftersom flödet bygger på batchning, förgrening och uppdateringar i arket som blir dyra eller klumpiga i Zapier och Make. n8n gör det enklare att läsa en kö, bearbeta en batch, skriva resultat och sedan markera poster som klara i samma körning. Du får också möjligheten till egen hosting, vilket är viktigt när du kör täta scheman. Men om du bara behöver ett litet flöde med ”ett användarnamn in, en rad ut” kan Zapier eller Make kännas enklare. Prata med en automationsexpert om du vill ha hjälp att välja.

När detta väl är igång slutar ditt kalkylark att vara ”så gott det går” och blir i stället pålitligt. Flödet hanterar det repetitiva, så att du kan lägga tiden på att fatta beslut utifrån data i stället för att samla in den.

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Launch login modal Launch register modal