GPT-4.5 fue capacitado en un conjunto diverso de conjuntos de datos, incluida una combinación de datos disponibles públicamente, datos patentados de asociaciones de datos y conjuntos de datos personalizados desarrollados internamente. Estos conjuntos de datos contribuyen colectivamente a las robustas capacidades de conversación y el conocimiento mundial del modelo. Sin embargo, los detalles específicos sobre los conjuntos de datos exactos utilizados no se mencionan explícitamente en la información disponible.
El proceso de capacitación involucró nuevas técnicas de supervisión combinadas con métodos tradicionales como ajuste fino supervisado (SFT) y el aprendizaje de refuerzo de la retroalimentación humana (RLHF), similar a las utilizadas para GPT-4O [1] [3]. El desarrollo del modelo también incluyó técnicas de alineación escalable, donde los modelos más pequeños generan datos de entrenamiento de alta calidad para modelos más grandes, mejorando la reflexión del modelo y la comprensión de los matices [7].
La tubería de procesamiento de datos de OpenAI incluye un filtrado riguroso para mantener la calidad de los datos y mitigar los riesgos potenciales. Emplean procesos avanzados de filtrado de datos para reducir el procesamiento de información personal al capacitar a sus modelos. Además, usan una combinación de su API de moderación y clasificadores de seguridad para evitar el uso de contenido dañino o sensible [1].
Si bien los conjuntos de datos exactos no se detallan, el enfoque enfatiza una base de datos amplia y diversa para respaldar las capacidades de GPT-4.5 en tareas como escribir, programar y resolver problemas prácticos con menos alucinaciones [1] [3].
Citas:
[1] https://cdn.openai.com/gpt-4-5-system-card.pdf
[2] https://towardsdatascience.com/what-gpt-4-brings-to-the-ai-table-74e392a32ac3/
[3] https://www.lesswrong.com/posts/fqajgqcpmgehkoee6/openai-releases-gpt-4-5
[4] https://www.chatbase.co/blog/gpt-5
[5] https://www.wired.com/story/openai-gpt-45/
[6] https://www.datacamp.com/blog/everything-we-know-upout-gpt-5
[7] https://www.vellum.ai/blog/gpt-4-5-is-here-heres-dow-mood-this-model-is
[8] https://arxiv.org/html/2404.07840v1