1ª edición de los Diálogos UNED Máquinas y Mentes

Lenguaje natural y algoritmos en la era de chat GPT

25 de Octubre – 8 de Noviembre de 2023
Facultad de Psicología de la UNED

Grabaciones disponibles en este enlace a Canal UNED Tele-UNED

Cien millones, esa es la asombrosa cifra de usuarios que chat GPT alcanzó a los dos meses de su presentación. Su reclamo, ser el lecto-escritor más extraño y capaz que jamás ha existido. Nos traduce y corrige instantáneamente, nos genera resúmenes y escritos sobre temáticas variadas, nos produce líneas de código a demanda, conversa con nosotros de manera “creativa” y nos divierte, casi tanto como nos preocupa, con sus errores, sesgos de respuesta y confabulaciones. Sus destrezas lingüísticas son impresionantes y no extraña que sea la punta de lanza de una nueva primavera de la inteligencia artificial; de un renovado interés y temor por la creación de máquinas inteligentes. Esta vez, se trata de una primavera liderada por algoritmos que, como GPT, aprenden a realizar de forma eficiente tareas por mucho tiempo consideradas exclusivas de la mente humana. Y en la cúspide de la exclusividad, las relacionadas con el lenguaje natural, sin las que el pensamiento simbólico, los vínculos sociales y la cultura no serían tal y como los conocemos.

Esta primera edición de los Diálogos UNED sobre Máquinas y Mentes congrega a expertos en psicología cognitiva, lingüística e inteligencia artificial. La finalidad es ofrecer una panorámica general sobre las formas en las que nosotros, los humanos, y ellos, esos nuevos y sorprendentes ingenios que llamamos Grandes Modelos del Lenguaje, adquirimos y empleamos el lenguaje natural. En las dos jornadas de conferencias, se hablará y debatirá sobre el origen y función biológica del lenguaje, las diferencias y semejanzas entre el aprendizaje automático y el de los humanos, la importancia de la cultura y el conocimiento en la adquisición plena de una lengua, el poder de las palabras para dar forma e integrar la experiencia emocional, los progresos en la detección automática de emociones en texto y, de forma más general, la necesidad de incorporar la psicología en el desarrollo de las nuevas inteligencias artificiales.

Comité Organizador:
David Beltrán, José Ángel Martínez-Huertas, Sara Martín y Isabel Orenes.

Proyectos de Generación de Conocimiento: PID2021-128267NB-I00

Vicerrectorado de Investigación, Transferencia y Divulgación Científica

25 de Octubre de 2023

Origen y adquisición de destrezas lingüísticas

De los fundamentos del aprendizaje automático a la revolución de los grandes modelos de lenguaje

Imagen generada con la aplicación OpenAI "DALLº E2" a partir del resumen

Enrique J. Carmona | Dpto. Inteligencia Artificial, UNED

Resumen de la charla: 
El aprendizaje automático (AA), una rama de la inteligencia artificial (IA), ha transformado profundamente nuestra sociedad. Gracias a los diferentes algoritmos que permiten a las máquinas aprender a partir de datos y mejorar su rendimiento, se han producido avances significativos en campos como la salud, las finanzas, el comercio electrónico y la industria, entre otras. Desde diagnósticos médicos más precisos hasta recomendaciones personalizadas en línea, el aprendizaje automático ha potenciado la automatización, la toma de decisiones informada y la creación de soluciones innovadoras que mejoran la eficiencia y la calidad de vida. Y dentro de estos avances, no podemos olvidar la gran revolución que, en el campo del procesamiento y generación de lenguaje natural, ha supuesto la irrupción de los denominados grandes modelos de lenguaje como GPT-3/4 y, en particular, una de sus aplicaciones estrella: chatGPT. En esta charla se realizará un recorrido por diferentes aspectos básicos del AA, respondiendo a preguntas tales como ¿qué es el AA?, ¿por qué surge el AA? y ¿para qué sirve el AA? Continuaremos con una categorización de los diferentes tipos de sistemas de AA, mostrando algunos de los ejemplos más representativos de cada uno de ellos y sus principales aplicaciones. Finalizaremos nuestra charla con una descripción de los grandes modelos de lenguaje, analizando cuál ha sido su reciente evolución histórica, en qué consisten, cuáles son sus fundamentos, así como sus principales bondades y limitaciones.

Antonio Benítez-Burraco | Dpto. Lengua Española, Lingüística y Literatura Universidad de Sevilla

La aparición del lenguaje: ¿el último gran salto en la complejidad de la vida?

Resumen de la charla: 
El árbol evolutivo de la vida se ha visto sacudido por transiciones más o menos abruptas que han dado lugar a formas de organización de complejidad creciente. Según algunos teóricos de la evolución, la aparición del lenguaje representa el último de estos saltos evolutivos. Dentro de unas jornadas pensadas para discutir las diferencias entre el lenguaje humano y el de las inteligencias artificiales (que para algunos podría representar un paso subsiguiente en esta evolución hacia formas de organización cada vez más complejas), en la presente ponencia se tratará de ofrecer una visión sucinta de lo que sabemos actualmente acerca de cómo ha evolucionado el lenguaje humano. El estudio del origen del lenguaje plantea numerosas dificultades, al carecer de homólogos directos en otras especies vivas y al no dejar restos significativos en el registro fósil, puesto que es el resultado, en lo fundamental, de la actividad cerebral. Hasta la reciente invención de la escritura, tampoco existen en el registro arqueológico restos directos de las lenguas habladas en el pasado, las cuales son la forma en que se manifiestan habitualmente nuestras capacidades lingüísticas y el objeto de estudio principal para entender las características distintivas del lenguaje. En la ponencia se discutirán algunas de las estrategias metodológicas seguidas para tratar de solventar estos problemas y se esbozará un modelo evolutivo para el lenguaje humano que considere los cambios experimentados por los numerosos niveles de complejidad biológica a los que cabe caracterizarlo (desde los genes y su regulación hasta las oscilaciones cerebrales) y sobre todo, que tenga en cuenta las complejas relaciones que existen entre el desarrollo del individuo, el ambiente en que vive y el modo en que evoluciona la especie a la que pertenece, con una especial atención a las interacciones entre evolución biológica y cultural.

Imagen generada con la aplicación OpenAI "DALLº E2" a partir del resumen

Jon Andoni Duñabeitia | Centro de Investigación Nebrija en Cognición Universidad de Nebrija

Inteligencia, lenguaje y cognición: de la adquisición a la generación de conocimiento

Resumen de la charla: 
En la intersección entre la inteligencia humana y la inteligencia artificial, se encuentra un terreno fértil para la exploración y el entendimiento de la complejidad del conocimiento y el lenguaje. Una pregunta que ha persistido es si la inteligencia artificial puede llegar a emular los procesos cognitivos y lingüísticos humanos con precisión. Para abordar esta cuestión, es esencial considerar el papel fundamental de la cultura y el conocimiento en la inteligencia humana. Estimar con precisión el vocabulario de una persona es un desafío monumental debido a la naturaleza dinámica y en constante expansión del lenguaje. La complejidad radica en la capacidad del cerebro humano para crear y modificar palabras a través de mecanismos de flexión y derivación morfológica. Además, la incorporación constante de nuevas palabras a medida que evoluciona la cultura y la tecnología complica aún más el panorama. Esto plantea un interrogante fundamental: ¿puede la inteligencia artificial emular la capacidad humana de adaptarse y evolucionar en respuesta a un lenguaje en constante cambio? A pesar de estos desafíos, los avances en estudios psicolingüísticos a gran escala y plataformas en línea están arrojando luz sobre el conocimiento léxico humano. Este tipo de análisis proporciona una visión intrigante de cómo el conocimiento léxico humano evoluciona a lo largo de la vida y se ve influenciado por la educación y la experiencia. Muestra que el lenguaje y el conocimiento son intrínsecamente interdependientes y dinámicos. Más aún, cuando miramos hacia la inteligencia artificial, se vuelve claro que aunque las máquinas pueden procesar enormes cantidades de datos y aprender patrones lingüísticos, todavía están lejos de alcanzar la profundidad y la adaptabilidad de la inteligencia humana. En resumen, la inteligencia humana y la inteligencia artificial representan dos paradigmas distintos en el procesamiento del lenguaje y el conocimiento. La IA puede ser una herramienta poderosa, pero la verdadera comprensión del lenguaje y la capacidad de adaptación siguen siendo atributos distintivos de la inteligencia humana, impulsada por la cultura y el conocimiento en constante evolución. El desafío futuro radica en encontrar formas efectivas de fusionar estos dos mundos para aprovechar al máximo el potencial de ambas formas de inteligencia.

Imagen generada con la aplicación OpenAI "DALLº E2" a partir del resumen

8 de Noviembre de 2023

Aprender a procesar lenguaje emocional

Juan Martínez Romo | Dpto. Lenguajes y Sistemas Informáticos UNED

Detección de emociones en textos: Un recorrido histórico

Resumen de la charla: 
La detección de emociones en el ámbito del procesamiento del lenguaje natural (PLN) es un subcampo de la inteligencia artificial centrado en identificar y comprender las emociones y sentimientos expresados en el lenguaje humano, ya sea en texto escrito, habla o conversaciones. Exploraremos la evolución de la detección de emociones en textos desde sus inicios hasta el presente. Comenzaremos definiendo la emoción desde una perspectiva computacional y su relevancia en el análisis textual. Luego, trazaremos un recorrido histórico que abarca desde los primeros enfoques basados en reglas y diccionarios hasta la era actual de los modelos pre-entrenados basados en Transformers. También analizaremos cómo la adopción de estos modelos ha transformado la detección de emociones al permitir un análisis más profundo de contexto y matices emocionales. Y finalmente presentaremos cuáles son los desafíos actuales y perspectivas de investigación futuras.

Imagen generada con la aplicación OpenAI "DALLº E2" a partir del resumen

Grandes Modelos del Lenguaje: ¿algo que decir desde la psicología cognitiva?

Imagen generada con la aplicación OpenAI "DALLº E2" a partir del resumen

Guillermo de Jorge-Botana | Dpto. Psicobiología y Metodología de las Ciencias del Comportamiento Universidad Complutense de Madrid

Resumen de la charla: 
Todas las disciplinas académicas han sido impactadas por la irrupción de los nuevos modelos generativos basados en Redes Recurrentes y Transformadores. Modelos del lenguaje pre-entrenados como los famosos GPTs o el propio modelo conversacional chatGPT están haciendo que las disciplinas tengan que ampliar sus reflexiones tanto a los aspectos técnicos y sus utilidades como a los aspectos éticos y deontológicos. En el caso de la Psicología converge además otro aspecto: el de la formalización de la comprensión y la producción del lenguaje humano. La Psicología ha de estudiar en qué medida estos mecanismos de propósito general tienen plausibilidad computacional y algorítmica lo que supone un valor añadido para nuestra disciplina. Esto no es nuevo. La Psicología Cognitiva ha examinado, propuesto y reflexionado mecanismos y modelos de funcionamiento humano antes. En esta comunicación se mostrarán algunas topologías de los modelos generativos y se estudiarán algunos aspectos relevantes para la Psicología Cognitiva. Por un lado, se examinarán los mecanismos de memoria en las RNN-LSTM y Transformadores y se homologarán con algunos aspectos teóricos de los modelos de memoria. También se expondrá cómo las redes tienen algunas dificultades para emular el fenómeno de la Pobreza del Estímulo y la Composicionalidad Sistemática. De esto último se propondrán mecanismos tentativos basados en la representación emocional y sensoriomotora. Por último, se reflexionará también sobre el olvido catastrófico y la dificultad de reciclar conocimiento sin olvidar el anterior, muy relacionado con el carácter multipropósito de la cognición humana. A este respecto, se examinará alguna solución en términos de conservación del conocimiento importante.

José Antonio Hinojosa | Dpto. de Psicología Experimental, Procesos Cognitivos y Logopedia Universidad Complutense de Madrid

El lenguaje emocional de la infancia: adquisición y procesamiento

Resumen de la charla: 
En los últimos años numerosas investigaciones han mostrado que las interacciones entre lenguaje y emoción emergen desde la infancia más temprana. Por un lado, los resultados de los trabajos que se han centrado en la adquisición y el desarrollo del vocabulario emocional sugieren que los niños adquieren antes las palabras positivas que las neutras o las negativas. Por otro lado, una serie de estudios en los que se solicita a niños de distintas edades que valoren las propiedades emocionales de varias palabras han mostrado la existencia de diferencias en la percepción de sus propiedades afectivas en función de la edad y el sexo de los niños. Por último, los trabajos que han examinado el procesamiento de palabras emocionales muestran una ventaja para el reconocimiento de las palabras positivas a partir de los 6-7 años. En resumen, los datos disponibles apuntan a la existencia de un sesgo de positividad en la adquisición y el procesamiento de las palabras emocionales en los niños, que podría reflejar el estilo comunicativo de los padres y el entorno de los niños.

Imagen generada con la aplicación OpenAI "DALLº E2" a partir del resumen