Así es como los sistemas basados ​​en IA tienen valores morales ocultos...

Un nuevo estudio de la Universidad de Mannheim y el Instituto Leibniz sobre grandes modelos lingüísticos revela sesgos potencialmente dañinos

Inteligencia artificial: una aplicación que la implementa
Una aplicación que implementa inteligencia artificial (Foto: Mojahid Mottakin/Unsplash)

En una era donde elinteligencia artificial está en el centro de muchos programas y proyectos investigación y desarrollo (no sin polémica), también están aumentando los estudios que abordan el tema.

Y uno de los últimos, firmado por investigadores delUniversidad de Mannheim y Instituto GESIS Leibniz para las ciencias sociales, resulta especialmente interesante por la forma en que lo abordan, así como desde el punto de vista de la ética, la moral y los valores.

Al igual que los seres humanos, de hecho, yo modelos lingüísticos Los basados ​​en inteligencia artificial tienen características como moral y valores, pero no siempre son declarados ni transparentes.

Y las formas en que los prejuicios impactan a la sociedad y a quienes utilizan aplicaciones de inteligencia artificial son importantes para comprender las consecuencias que podrían tener.

Inteligencia artificial también para el desarrollo de nuevos fármacos
Módena, comienzan las obras del Centro de Inteligencia y Visión Artificial

Inteligencia artificial: la Universidad de Mannheim
La sede histórica de la Universidad de Mannheim, localidad del estado alemán de Baden-Württemberg (Foto: www.uni-mannheim.de)

Inteligencia artificial sometida a pruebas psicométricas: los resultados de la investigación científica

Por eso los investigadores se centraron en esto durante su estudio. Un ejemplo obvio sería la forma en que ChatGPT o DeepL, servicio de traducción multilingüe impulsado por IA, asume que los cirujanos son hombres y las enfermeras son mujeres, pero la cuestión de género no es el único caso en el que los grandes modelos lingüísticos (Modelo de lenguaje grande, conocido por las siglas Máster en Derecho) muestran propensiones específicas.

Los resultados del estudio, coordinado por expertos de facultades científicas y profesores. Markus Strohmaier, Beatriz Rammstedt, claudia wagner e Sebastián Stier, se publican en la reconocida revista “Perspectives on Psychological Science”. En el marco de su investigación, los investigadores utilizaron pruebas psicológicas reconocidas para analizar y comparar los perfiles de diferentes modelos lingüísticos.

"En nuestro estudio demostramos que yo pruebas psicométricas utilizado con éxito durante décadas en humanos puede transferirse a modelos de inteligencia artificial", Enfatiza Max Pellert, profesor asistente de la cátedra de Ciencia de Datos de la Facultad de Ciencias Económicas y Sociales deUniversidad de Mannheim.

Si la Inteligencia Artificial es la mejor amiga de nuestros hijos…
La IA llega a… la religión: en Alemania hay un párroco virtual

Inteligencia artificial
La inteligencia artificial ha pasado a formar parte de muchos ámbitos de la vida cotidiana, incluida la generación de textos en diversos idiomas (Foto: Facebook/Universität Mannheim-University of Mannheim

Algunos modelos de lenguaje de IA reproducen sesgos de género

"De manera similar a cómo medimos los rasgos de personalidad, las orientaciones de valores o los conceptos morales en las personas que usan estos cuestionarios, podemos hacer que modelos de lenguaje respondan a los cuestionarios y comparen sus respuestas”. añade el psicólogo Clemens Lechner del Instituto GESIS Leibniz de Mannheim, también autor del estudio. “Esto nos permitió crear perfiles diferenciados de los modelos."

Los investigadores pudieron confirmar, por ejemplo, que algunos modelos reproducen sesgos específicos de género: si el texto de un cuestionario, por lo demás idéntico, se centra en un hombre y una mujer, se los evalúa de manera diferente.

Si la persona es hombre, el valor "resultado". Para las mujeres dominan los valoresseguridad" y "tradición".

Luego, los investigadores señalan cómo estas formas intrínsecas de procesar textos e información podrían tener diversas consecuencias en la sociedad.

De hecho, los modelos lingüísticos, sólo para dar un ejemplo, se utilizan cada vez más en los procedimientos de evaluación de candidatos que aspiran a puestos y puestos concretos.

Si el sistema tiene sesgos, podría afectar la Valutazione de los candidatos: “Los modelos se vuelven relevantes para la sociedad en función de los contextos en los que se utilizan”. resume Pellert

“Por lo tanto, es importante comenzar el análisis ahora y resaltar las posibles distorsiones. En cinco o diez años puede que sea demasiado tarde para tal seguimiento: los sesgos reproducidos por los modelos de inteligencia artificial se arraigarían y constituirían un daño para la sociedad..

En Suiza, el Politécnico Federal apuesta por una IA transparente y fiable
'El asistente del asistente' ya vive en Inteligencia Artificial

Inteligencia artificial: pruebas psicométricas sobre modelos de lenguaje
Investigadores de la Universidad de Mannheim y del Instituto Leibniz de Alemania sometieron los grandes modelos lingüísticos a pruebas psicométricas (Foto: Growtika/Unsplash)

La primera cátedra sobre ética de la inteligencia artificial en la Universidad de Macerata

Es, como se ha dicho, un tema tan actual como delicado y complejo, y los científicos e investigadores que se dedican a él son cada vez mayores de forma exponencial ante la difusión e implementación a gran escala de inteligencia artificial.

No es casualidad que también se creara una silla específica, la Jean Monnet EDIT – Ética para una Europa digital inclusiva, financiado por la Comisión Europea, Primera y actualmente única trayectoria académica en Europa dedicada a la ética de la inteligencia artificial.

La peculiaridad es que nació enUniversidad de Macerata al Departamento de Ciencias Políticas, Comunicación y Relaciones Internacionales (SPOCRI).

El nuevo curso se crea en colaboración con La Universidad de Harvard, MIT, Toronto University, KU Leuven, MCSA Lublin y otras universidades prestigiosas y fue diseñado para desarrollar un enfoque de las tecnologías digitales centrado en el individuo.

Presentada la serie de lecciones de la región de Las Marcas en noviembre en la Escuela Kennedy de Harvard, como parte de un evento coorganizado con el Instituto Tecnológico de Massachusetts (MIT), la Organización Mundial de la Salud (OMS) y el Instituto de Tecnología y Salud Global.

El profesor sostiene la silla. Benedetta Giovanola, profesor de filosofía moral del Departamento SPOCRI, con la colaboración presencial de colegas Emanuele Frontoni, Simona Tiribelli e Marina Paolanti, y se dedica a estudiar, enseñar y difundir el papel clave de la ética y los valores europeos en el ámbito de la transformación digital, particularmente los basados ​​en la inteligencia artificial. 

La cátedra también contribuirá a incrementar la conciencia del papel crucial de la ética digital para el crecimiento sostenible y la creación de sociedades más inclusivas, reforzando también el papel de Europa como actor global.

Red Internacional de Computación e IA: inicio en el WEF en Davos
Inteligencia artificial y conducción autónoma: el deporte del motor corre en la oscuridad

Inteligencia artificial: profesora Benedetta Giovanola
Profesora Benedetta Giovanola de la Universidad de Macerata en la inauguración del año académico 2023-2024 de la Escuela de Negocios ISTAO (Foto: Facebook/UNIMC/Universidad de Macerata)