GPT-4.5 a fost instruit pe un set divers de seturi de date, inclusiv un mix de date disponibile public, date de proprietate din parteneriate de date și seturi de date personalizate dezvoltate în casă. Aceste seturi de date contribuie colectiv la capacitățile de conversație robuste ale modelului și la cunoștințele mondiale. Cu toate acestea, detalii specifice despre seturile de date exacte utilizate nu sunt menționate în mod explicit în informațiile disponibile.
Procesul de instruire a implicat noi tehnici de supraveghere combinate cu metode tradiționale precum reglarea fină supravegheată (SFT) și învățarea de întărire din feedback-ul uman (RLHF), similar cu cele utilizate pentru GPT-4O [1] [3]. Dezvoltarea modelului a inclus, de asemenea, tehnici de aliniere scalabilă, în care modelele mai mici generează date de instruire de înaltă calitate pentru modele mai mari, îmbunătățind aterabilitatea modelului și înțelegerea nuanței [7].
Conducta de prelucrare a datelor OpenAI include o filtrare riguroasă pentru a menține calitatea datelor și pentru a atenua riscurile potențiale. Ei folosesc procese avansate de filtrare a datelor pentru a reduce procesarea informațiilor personale atunci când formează modelele lor. În plus, folosesc o combinație dintre API -ul lor de moderație și clasificatorii de siguranță pentru a preveni utilizarea conținutului dăunător sau sensibil [1].
Deși seturile de date exacte nu sunt detaliate, abordarea subliniază o fundație de date largă și diversă pentru a sprijini capacitățile GPT-4.5 în sarcini precum scrierea, programarea și rezolvarea problemelor practice cu mai puține halucinații [1] [3].
Citări:
[1] https://cdn.openai.com/gpt-4-5-system-card.pdf
[2] https://towardsdatascience.com/what-gpt-4-brings-to-the-ai-table-74e392a32ac3/
[3] https://www.lesswrong.com/posts/fqajgqcpmgehkoee6/openai-relăase-gpt-4-5
[4] https://www.chatbase.co/blog/gpt-5
[5] https://www.wired.com/story/openai-gpt-45/
[6] https://www.datacamp.com/blog/everything-we-know-about-gpt-5
[7] https://www.vellum.ai/blog/gpt-4-5-is-here-heres-wow-lood-this-model-is
[8] https://arxiv.org/html/2404.07840v1