Behöver ert företag hjälp med att implementera AI? Kontakta oss och få prisoffert här →
AI Skolan AI promptmallar- och engineering
januari 4, 2026

Few-shot prompting

Lisa Granqvist Partner, Nodenordic.se

Missar er AI ofta målet? Inkonsekventa svar, fel format och ”AI-ton” kostar både tid och förtroende. Few-shot prompting kan på några minuter styra modellen till rätt stil, struktur och exakthet – utan dyr finjustering. I ett praktiskt fall ökade träffsäkerheten för entitetsutvinning från 19% med zero-shot till 97% med rätt exempel i prompten[1].

Ni får i denna guide konkreta steg, mallar och mätpunkter för att få stabila, reproducerbara resultat med minimal promptbudget. Vi visar när Few-shot prompting är rätt val, hur många exempel ni bör använda och hur ni automatiserar urvalet av exempel för varje fråga.

Vi går igenom: vad tekniken är, när den fungerar bäst, hur ni bygger en robust prompt (steg-för-steg), hur RAG kan välja de bästa exemplen – och hur ni mäter ROI.

📌 Sammanfattning (TL;DR)

  • Few-shot prompting styr LLM:er med 2–5 exempel för att säkra rätt stil, struktur och etiketter[2][3].
  • Rätt utvalda exempel kan ge stora lyft – i ett test ökade precisionen från 19% till 97%[1].
  • Välj representativa exempel, håll formatet konsekvent, och lägg kritiskt exempel sist för ”recency”-effekt[3].
  • Använd RAG för att hämta de mest relevanta exemplen från en vektorbas – men håll kontexten snäv[4][3].

Vad är Few-shot prompting – och varför fungerar det?

Few-shot prompting innebär att ni lägger in några väl valda exempel (”shots”) direkt i prompten så att modellen ser hur uppgiften ska lösas och vilket format som gäller. Denna in-context learning fungerar som en snabb, uppgiftsnära ”miniträning” där demonstrationer konditionerar modellen inför nästa input[2]. Metoden är särskilt effektiv när ni vill säkra ett specifikt utdataformat eller efterlikna en tonalitet, men saknar tillräckligt med data för finjustering[2].

Två praktiska insikter är centrala: 1) formen på exemplen påverkar starkt resultatet och 2) etikettutrymmet och fördelningen i exemplen bör spegla det ni förväntar er i nya fall. Studier visar att även när etiketterna slumpas kan själva formatet och den implicita struktureringen förbättra prestandan jämfört med att inte ge exempel alls[2]. Best practice är därför att välja få men representativa exempel och hålla en konsekvent struktur[5][2]. För övergripande kontext till promptarbete, se Vad är prompt engineering?.

När ska ni välja Few-shot prompting?

Välj Few-shot prompting när ni behöver: (a) strikt utdataformat (t.ex. en JSON-struktur eller enstaka ordetiketter), (b) en tydlig stil/ton (t.ex. kundservice-SLA-svar), eller (c) att lära modellen ett nytt begrepp/regel på plats. Zero-shot räcker ofta för enkla, allmänbildningsnära frågor, men faller på komplexa uppgifter eller när formatet måste vara exakt[6]. Om uppgiften kräver flerstegsresonemang kan ni kombinera med kedjat resonemang – läs mer i Chain of thought – eller överväga finjustering för systematisk logik.

Effektpotentialen är stor: i en NER-studie på tweets gav zero-shot 19% medan få bra exempel (few-shot) nådde 97% noggrannhet. Finjustering landade på 91% i samma testmiljö[1]. Notera dock att nyare resonemangsmodeller i vissa fall presterar sämre med många exempel; börja då med 1–2 exempel och mät effekten innan ni skalar upp[3].

Bygg en effektiv few-shot prompt – steg för steg

1) Definiera målet och utdataformatet. Exempel: ”Klassificera textens sentiment som ‘positiv’, ‘neutral’ eller ‘negativ’. Svara med ett ord.” Att skriva ut formatet minskar tvetydighet[6]. För strukturmallar och komponenter, se AI prompt struktur.

2) Välj 2–5 exempel som täcker hela etikettutrymmet och vanliga variationer i input. Få representativa exempel ger ofta störst marginalnytta – fler exempel ger snabbt avtagande effekt och högre tokenkostnad[3].

3) Spegla etiketter och distribution. Se till att era exempel speglar vilka etiketter som finns och hur ofta de förekommer. Detta är viktigare än att varje enskild etikett i exemplet är ”rätt” – modellen plockar upp mönster i struktur och etikettutrymme[2].

4) Håll formatet konsekvent. Använd tydliga avgränsare (t.ex. tre citationstecken) runt exempel, och samma struktur mellan exempel och uppgift. Konsekvens i formatet ökar precisionen, även jämfört med noll exempel[2].

5) Ordning spelar roll. Testa att lägga ert viktigaste exempel sist – många modeller viktar sent innehåll högre. Om modellen ”glömmer” instruktionerna, placera dem sist efter exemplen[3].

6) Testa, jämför, iterera. A/B-testa olika exempeluppsättningar, antal exempel och ordningsvarianter. Mät noggrannhet, konsekvens i format och svarslängd. Dokumentera vinnande varianter för återanvändning i drift.

Exempel (sentiment): visa tre etiketterade exempel (”Det här var fantastiskt! → positiv”, ”Fungerade inte alls → negativ”, ”Helt okej → neutral”) följt av er nya text. Be om ett enda ord som svar. Denna struktur ger modellen minimalt utrymme att avvika i format och är lätt att kvalitetssäkra[5][6].

Automatisera exempelsiffror med RAG – utan att överlasta kontexten

Ett effektivt sätt att skala Few-shot prompting är att lagra exempel i en vektorbas och, vid varje fråga, hämta de mest semantiskt relevanta exemplen. IBM beskriver ett flöde där en vektorbas matchar frågan mot exempel, hämtar de bästa träffarna och bygger prompten dynamiskt innan LLM-svaret genereras[4]. Detta ökar relevansen och minskar ”one-size-fits-all”-prompter.

Två praktiska råd: (1) begränsa antalet exempel till de mest relevanta för att undvika att modellen överkomplicerar svaret, (2) håll exemplen korta och formaterade. Även leverantörsråd pekar på att för mycket extrakontext kan försämra kvaliteten – börja med 1–2 träffsäkra exempel och skala varsamt[3].

Vill ni ta steget vidare till andra tekniker som kompletterar RAG och exempelstyrning, läs Avancerad AI prompt-teknik.

Mätning, kostnad och ROI

Definiera framgångsmått innan ni rullar ut: noggrannhet/precision (klassificering), EM/F1 (extraktion), formatföljsamhet (regex-validering), och tokenkostnad. I Labelbox-caset gav Few-shot prompting 97% noggrannhet jämfört med 19% för zero-shot; finjustering landade på 91% i samma scenario[1]. Slutsats: vid upprepade, skarpa körningar kan finjustering löna sig i tokenbesparing; annars ger en bra few-shot prompt ofta ”störst effekt per minut”[1].

Håll exemplen få och vassa. Forskning och praktik visar tydliga marginalnyttor efter 2–3 exempel, och sedan platå – fler exempel ökar kostnaden utan motsvarande kvalitetslyft[3]. Bygg en liten, kuraterad exempelpott och återvinn den i flera flöden.

Vanliga fallgropar – och hur ni undviker dem

• Överlastad prompt: för många eller långa exempel gör svaret sämre. Håll er till det viktigaste[3].

• Majoritets- och ”recency”-bias: modellen kan vikta vanligaste etiketten eller sista exemplet för högt. Balansera etiketter och testa ordningen[3][2].

• Fel format i exempel: inkonsekvent struktur leder till inkonsekventa svar. Använd avgränsare och identiskt format i alla exempel[2][6]. För fler misstag att undvika, se Vanliga prompt-misstag.

• För komplex uppgift: om uppgiften kräver explicit steg-för-steg-resonemang, kombinera med kedjat resonemang eller överväg finjustering[5][6].

Vanliga frågor

Vad är Few-shot prompting i enkla ord?

Det är när ni lägger in några exempel i prompten för att visa modellen hur uppgiften ska lösas och vilket format som gäller. Exempel: 2–3 etiketterade sentimentrader och sedan er nya text; eller två exempel på kundmailsvar följt av ett nytt ärende. Detta ger mer träffsäkra och konsekventa svar än zero-shot på många affärsuppgifter.

När ska vi använda few-shot istället för zero-shot?

Välj few-shot när utdataformatet måste vara exakt (t.ex. ett ord, en JSON-nyckel), när tonen ska matcha (t.ex. er varumärkesröst), eller när modellen ska lära sig en ny regel. Zero-shot räcker ofta för enkla frågor som sammanfattningar eller översättningar där formatkravet är lägre.

Hur många exempel bör vi använda?

Börja med 2–3 och mät. Ofta avtar marginalnyttan snabbt efter 2–5 exempel, medan kostnaden ökar. Håll er exempelpott liten, kuraterad och representativ för hela etikettutrymmet.

Ska instruktioner eller exempel komma först?

Testa båda. Om modellen följer fel format kan ni lägga instruktionen sist (efter exemplen) så att den blir färskast i minnet. Prioritera konsekvent struktur och tydliga avgränsare mellan exempel och uppgift.

Hur väljer vi rätt exempel i stor skala?

Använd en vektorbas för att hitta de mest semantiskt relevanta exemplen per förfrågan (RAG). Begränsa till 1–3 träffsäkra exempel för att undvika att överlasta kontexten. Kurera exempel som täcker alla etiketter och vanliga variationer.

Fungerar few-shot med nya resonemangsmodeller?

I vissa fall presterar resonemangsmodeller sämre med många exempel. Börja med 1–2 exempel och specificera utdataformat tydligt. Om prestandan sjunker, gå tillbaka till minimal prompt och överväg kedjat resonemang eller andra tekniker.

Hur bevisar vi effekt och ROI av Few-shot prompting?

Sätt mätetal: noggrannhet, formatföljsamhet (regex), tidsbesparing per ärende och tokenkostnad. I en jämförelsestudie ökade noggrannheten från 19% (zero-shot) till 97% (few-shot), vilket visar tydlig affärsnytta i extraktionsuppgifter.

Vilka vanliga fel ska vi undvika?

För många exempel, obalanserade etiketter, inkonsekvent format och dålig exempelordning. Håll er till 2–5 väl valda exempel, identiskt format och balansera etiketterna. Testa att lägga det viktigaste exemplet sist.

Kan vi låta modellen skapa exempel själv?

Ja, för generiska tekniska uppgifter (t.ex. kodmönster) kan ni låta modellen generera kandidatexempel och sedan kurera dem. För varumärkeston och domänspecifik kommunikation bör exemplen komma från ert eget material.

När är Chain of Thought eller finjustering bättre än few-shot?

När uppgiften kräver flerstegsresonemang, spårbar logik eller hög stabilitet över tid. Prova Chain of Thought för att guida reasoning, och finjustering när ni kör i stor skala och vill sänka tokenkostnad per körning.

Källor

  1. Labelbox: Zero-Shot Learning vs. Few-Shot Learning vs. Fine-Tuning – https://labelbox.com/guides/zero-shot-learning-few-shot-learning-fine-tuning/
  2. PromptingGuide.ai: Few-Shot Prompting – https://www.promptingguide.ai/techniques/fewshot
  3. IBM: What is few shot prompting? – https://www.ibm.com/think/topics/few-shot-prompting
  4. Neptune.ai: Zero-Shot and Few-Shot Learning with LLMs – https://neptune.ai/blog/zero-shot-and-few-shot-learning-with-llms
  5. K2view: Prompt engineering techniques: Top 6 for 2026 – https://www.k2view.com/blog/prompt-engineering-techniques/
  6. PromptHub: The Few Shot Prompting Guide – https://www.prompthub.us/blog/the-few-shot-prompting-guide

Kontakta oss

Hör av dig, så diskuterar vi hur just din verksamhet kan dra nytta av alla fantastiska möjligheter som AI skapar.

×

Använd mall

Få direkt tillgång till denna n8n-arbetsflödes JSON-fil

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Få prisoffert redan idag!
Få prisoffert redan idag!

Berätta vad ni behöver hjälp med så hör vi av oss inom en arbetsdag!

Launch login modal Launch register modal