3ª edición de los Diálogos UNED Máquinas y Mentes

Robótica: entre lo humano y lo asistencial

19 de Noviembre de 2025 10 – 14 horas
Facultad de Psicología de la UNED (Salón de Actos)

grabaciones disponibles en Canal-UNED

Cien millones, esa es la asombrosa cifra de usuarios que chat GPT alcanzó a los dos meses de su presentación. Su reclamo, ser el lecto-escritor más extraño y capaz que jamás ha existido. Nos traduce y corrige instantáneamente, nos genera resúmenes y escritos sobre temáticas variadas, nos produce líneas de código a demanda, conversa con nosotros de manera “creativa” y nos divierte, casi tanto como nos preocupa, con sus errores, sesgos de respuesta y confabulaciones. Sus destrezas lingüísticas son impresionantes y no extraña que sea la punta de lanza de una nueva primavera de la inteligencia artificial; de un renovado interés y temor por la creación de máquinas inteligentes. Esta vez, se trata de una primavera liderada por algoritmos que, como GPT, aprenden a realizar de forma eficiente tareas por mucho tiempo consideradas exclusivas de la mente humana. Y en la cúspide de la exclusividad, las relacionadas con el lenguaje natural, sin las que el pensamiento simbólico, los vínculos sociales y la cultura no serían tal y como los conocemos. 


Esta segunda edición de los Diálogos UNED sobre Máquinas y Mentes reúne a expertos en psicología cognitiva, modelos de lenguaje e inteligencia artificial. La finalidad es ofrecer una panorámica general sobre las formas en las que nosotros, los humanos, y ellos, esos nuevos y sorprendentes ingenios que llamamos Grandes Modelos del Lenguaje, nos equivocamos de forma sistemática a la hora de procesar información y tomar decisiones. En estas jornadas hablaremos sobre las similitudes y diferencias que compartimos y los retos pendientes a los que nos enfrentamos. Cada vez es más frecuente utilizar herramientas como chat GPT para resolver nuestras dudas y problemas. De ahí la necesidad de conocer los algoritmos detrás de sus decisiones, así como los posibles errores que pueden generar. En las conferencias se hablará de los sesgos cognitivos en humanos y algunas nociones básicas para su modelado; la toma de decisiones en contextos médicos y los principales errores que se cometen en el diagnostico de enfermedades; así como los límites de la aplicación de la IA en el contexto educativo. Este ciclo de conferencias nos permitirá debatir sobre las ventajas e inconvenientes de ambas inteligencias: la humana y artificial.

Salón de Actos de la Facultad de Psicología de la UNED

 

Sigue las jornadas a través del Canal UNED

Comité Organizador
Isabel Orenes, José Ángel Martínez-Huertas, Sara Martín, David Beltrán

Vicerrectorado de Investigación, Transferencia y Divulgación Científica

Proyectos de Generación de Conocimiento: PID2021-128267NB-I00

Descubriendo cómo nuestros pensamientos nos engañan: una introducción al modelado de sesgos cognitivos

Alejandro Martínez Mingo | Dpto. de Metodología de las Ciencias del Comportamiento. UNED

Doctor en Psicología, profesor de la Universidad Autónoma de Madrid, UNED e IE University, e investigador en psicología cognitiva y procesamiento del lenguaje natural. Su trabajo se centra en el desarrollo de modelos computacionales para el análisis de la cognición y el lenguaje, explorando específicamente el modelado de sesgos cognitivos y la evaluación de similitudes en espacios vectoriales. Ha publicado en revistas internacionales de alto impacto, aportando metodologías innovadoras que contribuyen al avance en la comprensión de los mecanismos mentales que influyen en la percepción y en la toma de decisiones humanas.

Imagen generada con la aplicación OpenAI "DALLº E2" a partir del resumen


¿Alguna vez te has preguntado por qué a veces tomamos decisiones que no tienen mucho sentido? En esta charla, exploraremos cómo nuestro cerebro puede jugarnos malas pasadas a través de los sesgos cognitivos. Descubriremos qué son, cómo afectan nuestra percepción y decisiones diarias, y qué herramientas existen en la psicología que nos ayudan a modelarlos y comprenderlos. Acompáñanos en este viaje para entender mejor nuestra mente.

Razonamiento Bayesiano y toma de decisiones médicas: de las ayudas visuales a los LLMs

Gorka Navarrete García | Centro de Neurociencia Cognitiva y Social. Facultad de Psicología. Universidad Adolfo Ibáñez (Chile)

Doctor en Neurociencia Cognitiva por la Universidad de La Laguna (España). Actualmente es profesor adjunto del Centro de Neurociencia Cognitiva y Social, de la Universidad Adolfo Ibáñez en Chile, además de profesor substituto en la Universidad de La Laguna. Inició su carrera investigadora trabajando con Redes Neuronales Artificiales para la predicción de supervivencia en problemas médicos, y cosas similares. En la actualidad estudia cómo presentar información numérica compleja para ayudar a las personas a comprenderla y hacer un buen uso de ella a la hora de tomar decisiones. Esto es particularmente relevante en la comunicación de resultados de pruebas médicas. En esta línea de investigación, está trabajando en diferentes formas de presentar la información a personas no especializadas (población vulnerable y general), pero también a expertos. El objetivo final de su línea de investigación es facilitar la toma de decisiones compartida e informada en contextos médicos.

Imagen generada con la aplicación OpenAI "DALLº E2" a partir del resumen

 
Las pruebas de screening se consideran habitualmente como una herramienta valiosa para la detección temprana de condiciones médicas. Si un screening resulta positivo, generalmente se recomienda una prueba diagnóstica más invasiva para asegurarse de que la condición médica esté presente. Sin embargo, los resultados positivos de los screenings son muy dependientes de la prevalencia, y a menudo no son tan fiables como suponemos. La validez de un resultado positivo de la prueba (el valor predictivo positivo) debe calcularse utilizando el teorema de Bayes.

Lamentablemente, los humanos no somos especialmente buenos aplicando el teorema de Bayes. Caemos en errores como ignorar las probabilidades previas, o directamente desconocemos la necesidad de razonar usando este teorema. El resultado es que pocos pacientes, y no tantos médicos como esperaríamos, saben qué información es relevante para calcular el valor predictivo positivo de una prueba médica, o cómo realizar estos cálculos.

A lo largo de los años se han probado diferentes estrategias para ayudar a las personas. Varias de estas han conseguido mejorar la comprensión de los problemas. Una de las propuestas más innovadoras se basa en el principio de hacer preguntas que las personas sean capaces de responder, y ha mostrado, con algunos resultados preliminares, suponer un cambio importante, pero con algunos efectos indeseados.

El razonamiento Bayesiano subyacente a estas situaciones es complejo para los seres humanos, pero algorítmicamente trivial para los Modelos de lenguaje de gran tamaño (LLMs) como ChatGPT. ¿Se traducirá esto en la posibilidad de disponer de asistentes inteligentes para navegar la complejidad computacional y decisional en contextos médicos?

Límites de la aplicación de la IA en el contexto universitario

José Luis Aznarte Mellado | Dpto. de Inteligencia Artificial. Universidad Nacional de Educación a Distancia

Catedrático en el Departamento de Inteligencia Artificial de la UNED. Durante los últimos años ha ejercido como vicerrector adjunto de Digitalización e Innovación y de Innovación Educativa, coliderando el proyecto institucional ED3 (Educación Digital, a Distancia y apoyada en Datos). Como parte de ese proyecto, impulsó el Marco Ético para el Uso de Datos Masivos en la UNED, fruto de un proceso participativo abierto a la comunidad universitaria. Antes de su incorporación a la UNED ejerció como ingeniero de investigación postdoctoral en el grupo de investigación en energías renovables de la prestigiosa escuela de ingeniería francesa Mines ParisTECH, donde estuvo implicado en tareas de investigación y gestión de los proyectos europeos ANEMOS, Plus (FP6) y SafeWind (FP7). Obtuvo un contrato Ramón y Cajal en 2013 y, posteriormente, obtuvo el certificado I3. Ha impartido cursos de minería de datos y aprendizaje automático en grado y máster, y supervisado trabajos fin de máster y tesis doctorales. Es autor o coautor de varias decenas de publicaciones en revistas de alto impacto.

Imagen generada con la aplicación OpenAI "DALLº E2" a partir del resumen

 
Actualmente es fácil pensar que ciertas aplicaciones de IA podrían ser implantadas en el contexto universitario, y conviene explorar algunas limitaciones severas de las mismas a la luz de las investigaciones recientes. En concreto, se sabe que son particularmente delicadas aquellas aplicaciones que implican la toma de decisiones automatizadas sobre personas o colectivos mediante modelos predictivos basados en aprendizaje automático. Este tipo de aplicaciones están aquejadas de un conjunto de carencias recurrentes y de difícil solución. La conjunción de estas carencias resulta en la necesidad de reconsiderar cuidadosamente la implantación de la inteligencia artificial en la universidad española, ya que los principios básicos de su función social pueden verse gravemente afectados.