• viernes, 29 de agosto de 2025
  • Actualizado 21:33
 
 

SOCIEDAD

El profesor de la UPNA que destapó un sesgo oculto en la inteligencia artificial recibe un premio nacional

El investigador navarro ha sido reconocido por un estudio que identifica un nuevo sesgo en la inteligencia artificial y plantea métodos para evitar discriminaciones en sistemas de reconocimiento de expresiones faciales.

El profesor de la UPNA Iris Domínguez Catena, segundo premio a la mejor tesis doctoral de la Asociación Española para la Inteligencia Artificial
El profesor de la UPNA Iris Domínguez Catena, segundo premio a la mejor tesis doctoral de la Asociación Española para la Inteligencia Artificial

El profesor Iris Domínguez Catena, de la Universidad Pública de Navarra (UPNA), ha recibido el segundo premio a la mejor tesis doctoral otorgado por la Asociación Española para la Inteligencia Artificial (AEPIA). El reconocimiento, de carácter bienal, se ha entregado en la Escuela de Verano de Inteligencia Artificial (EVIA2025), celebrada recientemente en Gijón (Asturias).

En su investigación, defendida en la UPNA, Domínguez ha desarrollado herramientas y metodologías para detectar y corregir sesgos demográficos en sistemas de inteligencia artificial (IA). Uno de sus principales hallazgos ha sido la identificación del sesgo estereotípico, que se produce cuando se establece una asociación inadecuada entre determinados grupos demográficos y clases en un problema de IA.

La tesis doctoral ha sido dirigida por los investigadores del Instituto de Smart Cities (ISC) de la UPNA, el catedrático Mikel Galar Idoate y el profesor Daniel Paternain Dallo. Domínguez forma parte del grupo de investigación ARIN (Artificial Intelligence and Machine Learning Research).

El investigador ha explicado que los sesgos demográficos, también conocidos como justicia algorítmica, surgen cuando algunos grupos sociales —por ejemplo, mujeres o personas negras— están mal representados en los datos con los que se entrenan los modelos de IA. Esta deficiencia provoca que los sistemas puedan mostrar un comportamiento discriminatorio hacia ciertos colectivos. “Esto significa que, basándose en variables como la raza, el género o la edad, un modelo de inteligencia artificial trata de forma innecesariamente diferente a las personas usuarias”, ha señalado.

Como caso de estudio, Domínguez ha trabajado en el ámbito del reconocimiento de expresiones faciales (FER, por sus siglas en inglés). Esta tecnología busca predecir, a partir de imágenes de rostros, cuál es la emoción expresada por una persona y tiene aplicaciones en campos como los contenidos multimedia interactivos, la medicina, la seguridad vial o la robótica asistencial.

¿Tienes una tienda, un bar, un restaurante o un local comercial en Pamplona o alguna localidad de Navarra?

¿Quieres salir en nuestra sección de Comercio Local y que miles de personas conozcan todo lo que ofreces con una noticia y fotografías hechas por profesionales?

Escríbenos a esta dirección y hablaremos contigo para contactar cuando antes: [email protected]


Apóyanos para seguir realizando periodismo independiente.


  • Los comentarios que falten el respeto y que no se ciñan al tema de la noticia, podrán ser eliminados.
  • Cada usuario será el único responsable de sus comentarios.
El profesor de la UPNA que destapó un sesgo oculto en la inteligencia artificial recibe un premio nacional