Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Hvilke treningsdatasett eller kurasjonstrinn kutter hallusinasjoner i GPT-5


Hvilke treningsdatasett eller kurasjonstrinn kutter hallusinasjoner i GPT-5


GPT-5s reduksjon i hallusinasjonsrater tilskrives både dens treningsdatakurasjon og avanserte treningsmetodologier. Openai har åpent rapportert at GPT-5-svar er opptil 45% mindre sannsynlig å inneholde faktiske feil sammenlignet med GPT-4O, og med sin avanserte "resonnement" -modus faller faktiske feil med omtrent 80% i forhold til den tidligere O3-modellen. Undertrykkelsen av hallusinasjoner i GPT-5 er ikke et resultat av et enkelt datasett, men en sofistikert prosess med datasettmontering, filtrering, kontinuerlig etteropplæring med menneskelig tilbakemelding og integrering av eksterne faktiske kontrollressurser.

Datakvalitet og kurasjonsstrategi

Openais første søyle mot hallusinasjoner i GPT-5 er bruken av utvidede, høykvalitets og kuraterte datasett. Dette betyr:
- Kildedata er mer sannsynlig å bli bekreftet og anerkjent.
- Eksplisitt innsats gjøres for å fjerne eller minimere kjent upålitelig, partisk eller ondsinnet innhold under pre-trening og under dataoppdateringssykluser.
-Brukerbeskyttede data blir filtrert, anonymisert og gransket for faktisitet før inkludering i overvåket finjustering eller belønningsmodellering.

For å redusere hallusinasjonsrisikoen ytterligere har Openai distribuert omfattende datarensingsprosesser for å identifisere og ekskludere støyende, motstridende eller syntetisk innhold som kan indusere feil i modellens utganger.

etter trening og forsterkning fra menneskelig tilbakemelding (RLHF)

Menneskelig tilbakemelding er sentralt i GPT-5s arkitektur. Modellen gjennomgår intensive runder med forsterkningslæring fra menneskelig tilbakemelding (RLHF), der menneskelige raters:
- Dommer utgår for saklig korrekthet, sammenheng og innretting med brukerens intensjon.
- Gi parvise preferanser for modellgenerasjoner, givende nøyaktighet og informativitet mens du straffer hallusinasjoner.
- Disse signalene danner grunnlaget for belønningsmodeller som ytterligere optimaliserer GPT-5 for å foretrekke saklig korrekt fullføringer.

I tillegg blir RLHF forsterket av automatiserte faktaegenskaper som er validert mot menneskelig skjønn for å skalere påvisning av hallusinasjoner. Disse klassingene fungerer både som en kvantitativ målestokk i evalueringer og som en komponent i kontinuerlig trening, noe som muliggjør storskala, raske tilbakemeldingssløyfer utover utelukkende menneskelig merknad.

Evaluering Benchmarks og stresstesting

For å måle hallusinasjoner, er GPT-5 strengt stressetestet på ny offentlig og intern fakta-benchmarks som Longfact (konsepter og objekter) og faktacore (faktasøkende spørsmål). Evalueringsrammen retter seg mot hardere, åpne spørsmål og innhold på lang form, områder der hallusinasjoner tidligere blomstret. I følge Openai produserer "GPT-5 Thinking" omtrent seks ganger færre hallusinasjoner enn O3 på disse oppgavene.

GPT-5 blir også evaluert i produksjonstrafikk i den virkelige verden og spesialiserte testsett, der dens evne til å innrømme kunnskapshull riktig og unngå fabrikasjoner blir direkte målt og forbedret. For eksempel har modellens avslag på å finne opp ikke-eksisterende eiendeler i multimodale innstillinger forbedret markant sammenlignet med tidligere generasjoner.

Arkitektoniske og treningsintervensjoner

Flere dypere intervensjoner under trening mål for hallusinasjoner:

-Kjeden-for-tankt spørsmål og strukturert resonnement er innebygd i pre-trening og finjusteringsfaser, slik at modellen kan produsere mer forklarbare og jordede utganger i stedet for selvsikre formodninger.
-Safe Completions Paradigm erstatter den eldre avslagsbaserte sikkerhetsmodellen, og trener GPT-5 for å gi nyttige, avgrensede svarer eller for å kommunisere sine grenser og resonnement når den ikke trygt ikke kan svare.
-Verktøybruk og gjenfinning-augmentert generasjon (RAG): GPT-5 er systematisk opplært til å utnytte nettsøk og eksterne faktasjekkingsverktøy for spørsmål som krever oppdatert eller svært spesifikk kunnskap. Dette reduserer risikoen for hallusinasjoner drastisk på uklare eller raskt utviklende personer.
- Reduksjon av sykofiditet: GPT-5s kurasjonsrørledning samler eksplisitt data designet for å felle modeller i enighetsfeil, score svar for sycophancy og bruke disse poengsumene som en negativ belønning under RLHF, direkte angripe  hallusinasjonen etter enighetsproblem.

Resultater og begrensninger i den virkelige verden

Til tross for disse fremskrittene, er GPT-5 ikke helt immun mot hallusinasjoner. For eksempel:
-Den rapporterte hallusinasjonsraten for komplekse, åpne oppgaver (målt med benchmarks som enkel QA) er fortsatt viktig, spesielt når systemet er avskåret fra levende faktasjekkingsverktøy.
- Tilgang til websøk reduserer feilhastigheter betydelig, og illustrerer viktigheten av hybridtrening (kombinerer statiske kuraterte data med gjenfinning) i modererende hallusinasjoner.
- Visse kreative eller abstrakte spørsmål fortsetter å utfordre systemets jordingsmekanismer.

Kontinuerlige oppdateringer og tilbakemeldinger fra samfunnet

GPT-5s system blir matet pågående fellesskaps- og virkelige brukerdata, med tilbakemeldingsmekanismer som muliggjør rask lapping av oppdagede hallusinasjoner og utrulling av forbedringer i både datafiltrering og belønningsfunksjonsdesign. Openai erkjenner åpent behovet for ytterligere forbedring, spesielt i høye innsatser som helsevesen og lov, der feiltoleranse må være minimal.

Sammendrag av viktige kurasjonstrinn

For å syntetisere, oppstår reduksjon av hallusinasjoner i GPT-5 fra følgende sammenkoblede prosesser:

1. Omhyggelig forhåndsopplæring Datavalg og filtrering, med vekt på innkjøp fra anerkjente databaser og opprettholde oppdatert faktainnhold.
2. Ekskludering av støyende, upålitelig eller partisk innhold under datasettmontering, forsterket av automatisert og manuell gjennomgang i flere trinn.
3. Forsterkningslæring og kontinuerlig tilbakemelding basert på storskala menneskelig og automatisert gradering for fakta og sannhet.
4. Evaluering mot robuste faktiske benchmarks, både statisk og den virkelige verden, og måler den nøyaktige hastigheten og typen hallusinasjoner under forskjellige forhold.
5. Intervensjoner etter trening, inkludert tryggere fullføringsstrategier, eksplisitt sycophancy-undertrykkelse og sterk integrasjon med gjenfinning eller verktøybasert kunnskap.
6. Iterativ liveinnstilling fra tilbakemeldinger fra produksjonen og rød-teamet, og sikrer at nye lekkasjer av hallusinasjoner raskt blir oppdaget og adressert.

Disse strategiene markerer samlet et skifte fra passiv avbøtning til aktiv, robust hallusinasjonsundertrykkelse ** Â Selv om oppgaven fortsatt er en utvikling, krever årvåkenhet, kontinuerlige oppdateringer og forsknings åpenhet for å oppnå enda lavere feilmarginer i fremtiden.