Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Vilka utbildningsdatasätt eller kurationssteg sänkte hallucinationer i GPT-5


Vilka utbildningsdatasätt eller kurationssteg sänkte hallucinationer i GPT-5


GPT-5: s minskning av hallucinationshastigheter tillskrivs både dess utbildningsdata-kurering och avancerade träningsmetoder. OpenAI har öppet rapporterat att GPT-5-svar är upp till 45% mindre benägna att innehålla faktafel jämfört med GPT-4O, och med sitt avancerade "resonemang" -läge sjunker faktiska fel med cirka 80% relativt den tidigare O3-modellen. Undertrycket av hallucinationer i GPT-5 är inte resultatet av ett enda datasätt, utan en sofistikerad process med datasätt, filtrering, kontinuerlig efterträning med mänsklig feedback och integration av externa faktiska kontrollresurser.

Datakvalitet och kurationsstrategi

Openais första pelare mot hallucinationer i GPT-5 är användningen av expanderade, högkvalitativa och kuraterade datasätt. Det här betyder:
- Källdata är mer benägna att verifieras och ansedda.
- Explicit ansträngningar görs för att ta bort eller minimera kända opålitliga, partiska eller skadliga innehåll under förutbildning och under datauppdateringscykler.
-Användarbidragna data filtreras, anonymiseras och granskas för fakta före inkludering i övervakad finjustering eller belöningsmodellering.

För att ytterligare minska hallucinationsrisken har OpenAI distribuerat omfattande datarengöringsprocesser för att identifiera och utesluta bullriga, motsägelsefulla eller syntetiska innehåll som kan inducera fel i modellens utgångar.

Post-Training and Armering från Human Feedback (RLHF)

Mänsklig feedback är central i GPT-5s arkitektur. Modellen genomgår intensiva omgångar av förstärkningslärande från mänsklig feedback (RLHF), där mänskliga raters:
- Domare utgångar för faktisk korrekthet, sammanhållning och anpassning till användarens avsikt.
- Ge parvisa preferenser på modellgenerationer, belönande noggrannhet och informativitet samtidigt som hallucinationer straffar.
- Dessa signaler utgör grunden för belöningsmodeller som ytterligare optimerar GPT-5 för att föredra faktiskt korrekta kompletteringar.

Dessutom förstärks RLHF av automatiserade faktiska klassare validerade mot mänsklig bedömning för att skala upptäckten av hallucinationer. Dessa klassare tjänar både som en kvantitativ måttstock i utvärderingar och som en del av kontinuerlig träning, vilket möjliggör storskaliga, snabba återkopplingsslingor utöver enbart mänsklig kommentar.

Utvärderingsriktningar och stresstestning

För att mäta hallucinationer är GPT-5 stresstestat på nya offentliga och interna faktiska riktmärken som longfact (koncept och föremål) och factscore (faktasökande uppmaningar). Utvärderingsramen riktar sig till hårdare, öppna instruktioner och långformat innehåll, områden där hallucinationer tidigare blomstrade. Enligt OpenAI producerar "GPT-5 Thinking" cirka sex gånger färre hallucinationer än O3 på dessa uppgifter.

GPT-5 utvärderas också i verklig produktionstrafik och specialiserade testuppsättningar, där dess förmåga att korrekt erkänna kunskapsgap och undvika tillverkningar mäts och förbättras direkt. Till exempel har modellens vägran att uppfinna icke-existerande tillgångar i multimodala miljöer förbättrats markant jämfört med tidigare generationer.

Arkitektoniska och träningsinsatser

Flera djupare interventioner under träningsmål hallucinationer:

-Kedjan-av-tanke-uppmaning och strukturerade resonemang är inbyggda i förhandsutbildnings- och finjusteringsfaser, vilket gör att modellen kan producera mer förklarbara och jordade utgångar snarare än säkra antaganden.
-Safe Completions Paradigm ersätter den äldre avslagsbaserade säkerhetsmodellen, utbildar GPT-5 för att ge användbara, begränsade svar eller för att transparent kommunicera sina gränser och resonemang när den inte säkert kan svara.
-Verktygsanvändning och återhämtningsförstärkt generation (RAG): GPT-5 utbildas systematiskt för att utnyttja webbsökning och externa faktakontrollverktyg för frågor som kräver aktuell eller mycket specifik kunskap. Detta minskar drastiskt risken för hallucinationer på otydliga eller snabba utvecklande ämnen.
- Sycophancy Reduction: GPT-5: s kureringsrörledning samlar uttryckligen data som är utformade för att fånga modeller i  överenskommelsefel, göra svar på sycophancy och använda dessa poäng som en negativ belöning under RLHF, och attackerar direkt  hallucination genom överenskommelse problem.

verkliga resultat och begränsningar

Trots dessa framsteg är GPT-5 inte helt immun mot hallucinationer. Till exempel:
-Den rapporterade hallucinationshastigheten för komplexa, öppna uppgifter (mätt med riktmärken som Simple QA) förblir betydande, särskilt när systemet är avstängt från levande faktakontrollverktyg.
- Tillgång till webbsökning minskar felfrekvensen avsevärt, vilket illustrerar vikten av hybridträning (kombinerar statisk kuraterad data med hämtning) vid moderering av hallucinationer.
- Vissa kreativa eller abstrakta anvisningar fortsätter att utmana systemets jordningsmekanismer.

Kontinuerliga uppdateringar och community -feedback

GPT-5: s system matas pågående data för gemenskap och verkan, med feedbackmekanismer som möjliggör snabb lappning av upptäckta hallucinationer och utrullning av förfining i både datafiltrering och belöningsfunktionsdesign. OpenAI erkänner öppet behovet av ytterligare förbättringar, särskilt inom hög insatser som sjukvård och lag, där feltolerans måste vara minimal.

Sammanfattning av nyckelkurationssteg

För att syntetisera uppstår minskningen av hallucinationer i GPT-5 från följande sammanlänkade processer:

1. Noggrann förhandsutbildningsdataval och filtrering, med tonvikt på inköp från ansedda databaser och upprätthålla aktuellt faktainnehåll.
2. Uteslutning av bullriga, opålitliga eller partiska innehåll under datasatsmontering, förstärkt av automatiserad och manuell granskning i flera steg.
3. Armeringsinlärning och kontinuerlig feedback baserad på storskalig mänsklig och automatiserad betyg för faktiska och sanning.
4. Utvärdering mot robusta faktiska riktmärken, både statiska och verkliga, mäter den exakta hastigheten och typen av hallucinationer under olika förhållanden.
5. Interventioner efter utbildningen, inklusive säkrare genomförandestrategier, uttrycklig sykofansundertryckning och stark integration med hämtning eller verktygsbaserad kunskap.
6. iterativ liveinställning från produktionsåterkoppling och rödlag, vilket säkerställer att nya läckage av hallucinationer snabbt upptäcks och adresseras.

Dessa strategier markerar kollektivt en övergång från passiv mildring till aktiv, robust hallucinationundertryckning ** även om uppgiften förblir en utvecklande, som kräver vaksamhet, kontinuerliga uppdateringar och forskningens öppenhet för att uppnå ännu lägre felmarginaler i framtiden.