Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Hvilke træningsdatasæt eller kurationstrin skærer hallucinationer i GPT-5


Hvilke træningsdatasæt eller kurationstrin skærer hallucinationer i GPT-5


GPT-5's reduktion i hallucinationsgrader tilskrives både dens træningsdatakuration og avancerede træningsmetoder. Openai har åbent rapporteret, at GPT-5-svar er op til 45% mindre tilbøjelige til at indeholde faktiske fejl sammenlignet med GPT-4O, og med sin avancerede "ræsonnement" -tilstand falder faktuelle fejl med ca. 80% i forhold til den forudgående O3-model. Undertrykkelse af hallucinationer i GPT-5 er ikke resultatet af et enkelt datasæt, men en sofistikeret proces med datasætsamling, filtrering, kontinuerlig post-træning med menneskelig feedback og integration af eksterne faktiske kontrolressourcer.

Datakvalitet og kurationsstrategi

Openais første søjle mod hallucinationer i GPT-5 er brugen af ​​udvidede, høj kvalitet og kuraterede datasæt. Dette betyder:
- Kildedata er mere tilbøjelige til at blive verificeret og hæderlig.
- Der gøres eksplicit indsats for at fjerne eller minimere kendte upålidelige, partiske eller ondsindede indhold under foruddannelse og under dataopdateringscyklusser.
-Brugerkontribulerede data filtreres, anonymiseres og undersøges for fakticitet inden inkludering i overvåget finjustering eller belønningsmodellering.

For yderligere at reducere hallucinationsrisikoen har Openai implementeret omfattende datarensningsprocesser for at identificere og udelukke støjende, modstridende eller syntetisk indhold, der kan inducere fejl i modellens output.

Post-træning og forstærkning fra Human Feedback (RLHF)

Menneskelig feedback er central i GPT-5s arkitektur. Modellen gennemgår intensive runder med forstærkningslæring fra menneskelig feedback (RLHF), hvor menneskelige raters:
- Dommer udsender for faktuel korrekthed, sammenhæng og tilpasning til brugerens intention.
- Giv parvise præferencer på modelgenerationer, belønning af nøjagtighed og informativitet, mens du straffer hallucinationer.
- Disse signaler danner grundlaget for belønningsmodeller, der yderligere optimerer GPT-5 for at foretrække faktisk korrekte færdiggørelser.

Derudover forstærkes RLHF med automatiserede faktualitetsklassinger, der er valideret mod menneskelig dom for at skalere påvisning af hallucinationer. Disse klassinger tjener både som en kvantitativ målestok i evalueringer og som en komponent i kontinuerlig træning, hvilket muliggør storskala, hurtige feedback-løkker ud over udelukkende menneskelig annotation.

Evaluering benchmarks og stresstestning

For at måle hallucinationer er GPT-5 strengt stress-testet på nye offentlige og interne faktualitets benchmarks, såsom longfact (koncepter og objekter) og FactScore (faktiske søgende promp). Evalueringsrammen er målrettet mod hårdere, åbne indhold og indhold i lang form, områder, hvor hallucinationer tidligere blomstrede. Ifølge Openai producerer "GPT-5 Thinking" cirka seks gange færre hallucinationer end O3 på disse opgaver.

GPT-5 evalueres også i produktionstrafikken i den virkelige verden og specialiserede testsæt, hvor dens evne til korrekt at indrømme videnhuller og undgå fabrikationer måles direkte og forbedres. For eksempel er modellens afvisning af at opfinde ikke-eksisterende aktiver i multimodale omgivelser forbedret markant sammenlignet med tidligere generationer.

Arkitektoniske og træningsinterventioner

Flere dybere interventioner under træningsmål hallucinationer:

-Kæde-til-tanker, der spørger og struktureret ræsonnement, er indbygget i for-træning og finjusteringsfaser, hvilket gør det muligt for modellen at producere mere forklarbare og jordede output snarere end sikre formodninger.
-Sikkert kompletteringsparadigme erstatter den ældre afvisningsbaserede sikkerhedsmodel, uddannelse af GPT-5 for at give nyttige, afgrænsede svar eller til gennemsigtig at kommunikere sine grænser og ræsonnement, når den ikke sikkert kan svare.
-Værktøjsbrug og hentning-augmenteret generation (RAG): GPT-5 er systematisk uddannet til at udnytte websøgning og eksterne faktakontrolværktøjer til forespørgsler, der kræver ajourført eller meget specifik viden. Dette reducerer drastisk risikoen for hallucinationer for uklare eller hurtigt udviklende emner.
- Reduktion af sycophancy: GPT-5s kurationsrørledning samler eksplicit data designet til at fælde modeller i enigheds fejl, score svar for sycophancy og bruge disse scoringer som en negativ belønning under RLHF, direkte angreb  hallucination efter aftalens problem.

Resultater og begrænsninger i den virkelige verden

På trods af disse fremskridt er GPT-5 ikke fuldt immun mod hallucinationer. For eksempel:
-Den rapporterede hallucinationsgrad for komplekse, åbne opgaver (målt ved benchmarks som Simple QA) forbliver betydelig, især når systemet er afskåret fra live faktakontrolværktøjer.
- Adgang til websøgning reducerer fejlhastighederne betydeligt, hvilket illustrerer vigtigheden af ​​hybridtræning (kombinerer statiske kuraterede data med hentning) i moderering af hallucinationer.
- Visse kreative eller abstrakte anmodninger udfordrer fortsat systemets jordingsmekanismer.

Kontinuerlige opdateringer og feedback fra samfundet

GPT-5s system fodres igangværende samfunds- og real-user-data med feedbackmekanismer, der giver mulighed for hurtig lappning af opdagede hallucinationer og udrulning af forbedringer i både datafiltrering og belønningsfunktionsdesign. Openai anerkender åbent behovet for yderligere forbedringer, især i domæner med høj indsats som sundhedsydelser og lov, hvor fejltolerance skal være minimal.

SAMMENDRAG AF KEY CURATION STEAS

For at syntetisere opstår reduktionen af ​​hallucinationer i GPT-5 fra følgende sammenkoblede processer:

1. omhyggelig valg og filtrering før træning med en vægt på sourcing fra velrenommerede databaser og vedligeholdelse af ajourført faktuelt indhold.
2. udelukkelse af støjende, upålideligt eller partisk indhold under datasætmontering, forstærket af automatiseret og manuel gennemgang på flere faser.
3. Forstærkningslæring og kontinuerlig feedback baseret på storstilet menneskelig og automatisk klassificering for faktualitet og sandhed.
4. evaluering mod robuste faktualitet benchmarks, både statiske og virkelige verden, måler den nøjagtige hastighed og type hallucinationer under forskellige forhold.
5. Post-træningsinterventioner, herunder sikrere færdiggørelsesstrategier, eksplicit sycophancy-undertrykkelse og stærk integration med hentning eller værktøjsbaseret viden.
6. Iterativ live-tuning fra produktionsfeedback og rød-teaming, hvilket sikrer, at nye lækager af hallucinationer hurtigt opdages og adresseres.

Disse strategier markerer samlet et skift fra passiv afbødning til aktiv, robust hallucinationsundertrykkelse ** Â Selvom opgaven forbliver en udviklende, der kræver årvågenhed, kontinuerlige opdateringer og forskningsåbenhed for at opnå endnu lavere fejlmargener i fremtiden.