Prompt engineering för ChatGPT-5 - så får du modellen att leverera på riktigt

Efter releasen av GPT-5 är det många som rapporterat att modellen känns sämre än tidigare. Vår erfarenhet är tvärtom, men bara om du promptar rätt. GPT-5 är mer styrbar och kräver tydligare spelregler. Här går vi igenom varför, och hur du snabbt lyfter kvaliteten.

Varför upplevs GPT-5 som "sämre"?

GPT-5 kräver striktare tolkning av instruktioner. Otydliga eller motsägande krav (som t.ex "var kortfattad och förklara allt") leder till spretiga svar. GPT-5 presterar bättre med explicita regler för roll, uppgift, begränsningar och format. När tidigare modeller har försökt kompensera otydliga prompts med specifika svar, bestraffar GPT-5 ofta detta istället med luddigare svar. ChatGPT 5 använder också tidigare modeller, och tar själv beslut kring vilken modell som är bäst för vilken fråga. Att överlåta detta beslutet till OpenAI kan leda till att sämre modeller används för att svara på din fråga. Det går att påverka detta beslut t.ex genom att specificera i din prompt att modellen ska tänka länge.

Bästa praxis som fungerar i vardagen

Använd "reasoning effort". Om uppgiftens svårighet inte matchar hur modellen instrueras att resonera kan svaren bli antingen ytliga eller onödigt långsamma. I GPTs api går det att specificera en "reasoning effort", men det går också att simulera detta direkt i prompten genom att t.ex tala om för modellen att resonera länge.

Var explicit med kvalitetssignaler.

Skriv vad modellen ska optimera för (t.ex. accuracy över brevity). Be om strikta format (t.ex. JSON-schema eller Markdown) om du ska vidareprocessa svaret.

Iterera mätbart.

Att arbete i loopar kan generera bättre svar. Om svaret brister: be modellen förklara varför kravet inte uppfylldes och åtgärda. Detta är i linje med den iterativa träning som modellerna utsätts för under träningsprocessen. Det kan fungera att direkt be modellen att uppfinna ett sätt att mäta kvaliteten i ett svar, be om en kritik-sektion i sin output, samt be den att omarbeta svaret tills den får en hög score.

Optimera prompten automatiskt

Du behöver inte strukturera upp allt detta helt själv. Prova OpenAIs egna Prompt Optimizer för att rensa motsägelser och införa tydlig struktur. Läs igenom den optimerade promten, den kan behöva lite handpåläggning. Detta är ett utmärkt sätt att se exempel på och förstå hur en bra prompt kan struktureras.

Behöver ni hjälp att standardisera prompts för kvalitativa svar inom ert område? Hör av er så sätter vi upp en enkel, återanvändbar promptstruktur som ger fungerar i era arbetsflöden.