¿Cómo está hecho ChatGPT? U-tad, lo explica
La inteligencia artificial ha llegado para quedarse y va a hacer que nuestra vida, tal y como la conocemos hasta ahora, sea totalmente diferente, es decir, a nivel personal nos ayudará a que sea más fácil (nuestros smartphones utilizan la IA para personalizar sus atajos, Amazon y sus recomendaciones de productos, etc.) y a nivel profesional surgirán nuevos nichos de trabajo.
Aunque los grandes modelos de lenguaje (Large Language Models o LLM) son un campo tradicional de la IA y más en particular del deep learning, ha sido la llegada de GPT-3 y su nombre comercial reciente, ChatGPT, los que han popularizado (¡y cómo!) este tipo de modelos para una amplia gama de aplicaciones.
Pero, ¿cómo está hecho GPT-3? Sabemos que se trata de la tercera versión del modelo 'Generative Pre-Trained Transformer' de OpenAI, que se dio a conocer en 2021, y por otro, un conjunto de tecnologías de optimización de los modelos GPT. Una de ellas es InstructGPT, que incorpora feedback humano en el proceso de entrenamiento para alinear las salidas del modelo con la intención del usuario. Esta técnica se ha denominado Reinforcement Learning from Human Feedback (RLHF).
En la máster class impartida el próximo miércoles 17 de mayo a las 13h., tanto de forma online como presencial, Pedro Concejero, profesor en el Grado en ‘Ingeniería del software’ en el Centro Universitario U-tad y experto en Inteligencia Artificial, intentará responder a la pregunta: ¿podemos nosotros como individuos/investigadores desarrollar este tipo de modelos? ¿Qué necesitaríamos para conseguirlo?
Inscripciones en el link: ¿Cómo está hecho ChatGPT? Lo que sabemos hasta ahora | U-tad