De verlaging van GPT-5 in hallucinatiepercentages wordt toegeschreven aan zowel de trainingsgegevensbehandeling als de geavanceerde trainingsmethoden. OpenAI heeft openlijk gemeld dat GPT-5-reacties tot 45% minder kans hebben om feitelijke fouten te bevatten in vergelijking met GPT-4O, en met zijn geavanceerde "redenering" -modus dalen feitelijke fouten met ongeveer 80% ten opzichte van het eerdere O3-model. De onderdrukking van hallucinaties in GPT-5 is niet het resultaat van een enkele dataset, maar een geavanceerd proces van dataset-assembleren, filteren, continue post-training met menselijke feedback en integratie van externe feitelijke controlebronnen.
Gegevenskwaliteit en curatiestrategie
Openai's eerste pijler tegen hallucinaties in GPT-5 is het gebruik van uitgebreide, hoogwaardige en samengestelde datasets. Dit betekent:
- Brongegevens zijn eerder geverifieerd en gerenommeerd.
- Er worden expliciete inspanningen geleverd om bekende onbetrouwbare, bevooroordeelde of kwaadaardige inhoud te verwijderen of te minimaliseren tijdens pre-training en tijdens gegevensvernieuwingscycli.
-Gebruikersgecontroleerde gegevens worden gefilterd, geanonimiseerd en onder de loep genomen voor de inclusie bij het opnemen in begeleide verfijning of beloningsmodellering.
Om het hallucinatierisico verder te verminderen, heeft OpenAI uitgebreide gegevensreinigingsprocessen ingezet om lawaaierige, tegenstrijdige of synthetische inhoud te identificeren en uit te sluiten die fouten in de uitgangen van het model kunnen veroorzaken.
Post-training en versterking van menselijke feedback (RLHF)
Menselijke feedback staat centraal in de architectuur van GPT-5. Het model ondergaat intensieve rondes van versterkingsonderwijs van menselijke feedback (RLHF), waarin menselijke beoordelaars:
- Rechter outputs voor feitelijke correctheid, samenhang en afstemming met gebruikersintentie.
- Zorg voor paarsgewijze voorkeuren op modelgeneraties, belonende nauwkeurigheid en informativiteit terwijl hallucinaties worden bestraft.
- Deze signalen vormen de basis voor beloningsmodellen die GPT-5 verder optimaliseren om feitelijk correcte voltooiingen te verkiezen.
Bovendien wordt RLHF uitgebreid door geautomatiseerde feiten van feiten die zijn gevalideerd tegen menselijk oordeel om de detectie van hallucinaties op te schalen. Deze klassers dienen zowel als een kwantitatieve maatstaf in evaluaties en als een component van voortdurende training, waardoor grootschalige, snelle feedbacklussen kunnen worden uitsluitend uitsluitend menselijke annotatie.
Evaluatie benchmarks en stresstests
Om hallucinaties te meten, is GPT-5 streng stress getest op nieuwe openbare en interne feitenbenchmarks, zoals LongFact (concepten en objecten) en Factscore (feitenzoekende prompts). Het evaluatiekader richt zich op hardere, open-end prompts en langdurige inhoud, gebieden waarin hallucinaties eerder bloeiden. Volgens Openai produceert "GPT-5 Thinking" ongeveer zes keer minder hallucinaties dan O3 bij deze taken.
GPT-5 wordt ook geëvalueerd in real-world productieverkeer en gespecialiseerde testsets, waarbij het vermogen om kennishiaten correct toe te laten en fabricages te vermijden, direct wordt gemeten en verbeterd. De weigering van het model om niet-bestaande activa in multimodale instellingen uit te vinden, is bijvoorbeeld aanzienlijk verbeterd in vergelijking met eerdere generaties.
Architecturale en trainingsinterventies
Verschillende diepere interventies tijdens het trainen van doelhallucinaties:
-Chain-of Thought-prompt- en gestructureerde redenering zijn ingebouwd in pre-trainings- en verfijningsfasen, waardoor het model meer uitlegbare en geaarde output kan produceren in plaats van zelfverzekerde vermoedens.
-Veilig voltooiingen Paradigma vervangt het oudere op weigering gebaseerde veiligheidsmodel, traint GPT-5 om nuttige, begrensde antwoorden te bieden of om transparant de grenzen en redenering te communiceren wanneer het niet veilig kan antwoorden.
-Gereedschapsgebruik en ophalen-augmented generatie (RAG): GPT-5 is systematisch getraind om webzoekopdrachten te gebruiken en externe feitencontrole-tools voor vragen die up-to-date of zeer specifieke kennis vereisen. Dit vermindert het risico op hallucinaties op obscure of snel evoluerende onderwerpen drastisch.
- Sycophancy Reduction: GPT-5's Curation Pipeline verzamelt expliciet gegevens die zijn ontworpen om modellen te vangen in â Agreement-fouten, het scoren van antwoorden op sycofancy en het gebruik van deze scores als een negatieve beloning tijdens RLHF, waardoor de hallucinatie rechtstreeks door overeenkomst wordt aangevallen.
real-world resultaten en beperkingen
Ondanks deze vorderingen is GPT-5 niet volledig immuun voor hallucinaties. Bijvoorbeeld:
-De gerapporteerde hallucinatiesnelheid voor complexe, open-end taken (gemeten door benchmarks zoals eenvoudige QA) blijft aanzienlijk, vooral wanneer het systeem wordt afgesneden van live feitencontrole-tools.
- Toegang tot webzoektekens verlaagt foutenpercentages aanzienlijk, wat het belang van hybride training illustreert (statische samengestelde gegevens combineren met ophalen) bij het modererende hallucinaties.
- Bepaalde creatieve of abstracte prompts blijven de aardingsmechanismen van het systeem uitdagen.
Continue updates en communityfeedback
Het systeem van GPT-5 krijgt de lopende community- en real-user-gegevens, met feedbackmechanismen die een snelle patching van ontdekte hallucinaties en uitrol van verfijningen in zowel gegevensfiltering als beloningsfunctieontwerp mogelijk maken. Openai erkent openlijk de noodzaak van verdere verbetering, vooral in domeinen met hoge inzet zoals gezondheidszorg en rechten, waar fouttolerantie minimaal moet zijn.
Samenvatting van belangrijke curatiestappen
Om te synthetiseren, komt de vermindering van hallucinaties in GPT-5 voort uit de volgende onderling verbonden processen:
1. Zorgvuldige selectie van pre-training en filtering, met de nadruk op het inkoop van gerenommeerde databases en het onderhouden van up-to-date feitelijke inhoud.
2. Uitsluiting van lawaaierige, onbetrouwbare of bevooroordeelde inhoud tijdens datasetassemblage, versterkt door geautomatiseerde en handmatige beoordeling in meerdere fasen.
3. Versterking van versterking en continue feedback op basis van grootschalige menselijke en geautomatiseerde beoordeling voor feitelijkheid en waarachtigheid.
4. Evaluatie tegen robuuste feitenbenchmarks, zowel statische als real-world, het meten van de precieze snelheid en het type hallucinaties onder verschillende omstandigheden.
5. Post-trainingsinterventies, waaronder veiligere voltooiingsstrategieën, expliciete onderdrukking van sycofancy en sterke integratie met ophalen of op tools gebaseerde kennis.
6. iteratieve live tuning van productiefeedback en rood-teams, ervoor zorgen dat nieuwe lekkages van hallucinaties snel worden gedetecteerd en aangepakt.