Del curso: Fundamentos de la inteligencia artificial generativa

ChatGPT y otras IA que generan texto

ChatGPT. ¿Te has preguntado de dónde vienen estas siglas? Te lo cuento. GPT corresponde a Generative Pre-trained Transformer. Traduciendo, GPT es un transformador preentrenado generativo. Y sé que puede seguir sonando un poco complejo, así que continúo un poquito más con la explicación. La 'g' viene de "generativo" porque es capaz de crear nuevo texto a partir de la entrada que recibe. La 'p', de "preentrenado" porque ha sido entrenado por un gran corpus de datos de textos generalistas, aunque posteriormente pueda responder a tareas o preguntas concretas. Por último, la 't' viene de "transformador" porque las arquitecturas de redes neuronales empleadas para procesar texto de entrada y generar el de salida son los transformadores que te mencionaba en los primeros capítulos del curso. Recuerda que estos transformadores son un tipo de redes neuronales que aprenden contexto y, por lo tanto, significado. Su característica principal es que son capaces de detectar formas y relaciones sutiles entre elementos y cómo se influencian entre sí. A partir de estas relaciones, son capaces de predecir qué elementos aparecerán cerca unos de otros o serán los próximos dentro de una secuencia. Como ves, he dejado de hablar de texto para hablar de elementos y relaciones entre ellos. Es precisamente para reforzar que estos tipos de redes neuronales no solo se emplean en la generación de texto o imágenes, como veremos más adelante, sino que también están jugando un papel fundamental en otros ámbitos científicos. Por ejemplo, están ayudando a investigadores a entender las cadenas de genes en el ADN y las secuencias de aminoácidos en proteínas, ayudando a acelerar el desarrollo de nuevos fármacos. Volvamos al tema que nos ocupa. Ahora que entiendes un poco más qué hay detrás de ChatGPT, quiero aprovechar para reforzar la idea de que su gran éxito ha dependido en gran parte de su interfaz, es decir, no de su motor, sino de lo que vemos desde fuera los usuarios. El hecho de haber planteado un entorno amigable y sencillo en el que hacer preguntas y generar prompts utilizando lenguaje natural ha sido también clave en el éxito de su adopción. Y no solo existe ChatGPT ni solo usamos el motor de ChatGPT en su aplicación web. Por ejemplo, el buscador Bing desde hace tiempo incorpora también generación de texto utilizando los modelos de OpenAI en una interfaz de chat donde, además, acompaña el texto generado con enlaces a contenidos que provienen de su motor de búsqueda. Ten en cuenta que también existen otros modelos de generación de texto. Google ha desarrollado LaMDA, PaLM y BERT; Meta ha creado Llama, y posiblemente habrá más por llegar. En resumen, podemos decir que las versiones mencionadas son grandes modelos de lenguaje capaces de generar texto como humanos, y que todos ellos están basados en tecnología de "transformers". ¿Seguimos?

Contenido