Publicitarias

Por una Inteligencia Artificial sin sesgos

Por Publicitarias España Imagen de los ojos de una persona con códigos y destellos de colores encima.

Con motivo del Día de Internet, desde el equipo de Publicitarias España nos preguntamos por los grandes cambios en Internet en los últimos años y, más allá de las apps que nos mantienen pegadas al móvil, estuvimos de acuerdo en uno: la inteligencia artificial (conocida como IA o AI en inglés). 

De la IA podemos destacar tanto sus aspectos positivos -la detección temprana y el diagnóstico de enfermedades, resumen de textos, traducciones e incluso ideas para cuando estamos con bloqueos creativos-, como algunos que nos parecen negativos: manipulación de imágenes, la aparición de influencers y sobre todo cómo se reproducen los sesgos de la sociedad en los contenidos generados mediante IA.

Antes que nada, ¿qué son los sesgos? Según el psicólogo Daniel Kahneman, “son atajos mentales que todos usamos para simplificar nuestra vida diaria. A menudo son útiles, pero también pueden llevarnos a cometer errores” (2011). A esta definición decidimos sumarle la capa de sesgos de género, definidos por la psicolingüista Virginia Valian como “formas de pensamiento arraigadas culturalmente que asignan roles y expectativas específicas basadas en el género, perpetuando así desigualdades y discriminación” (1998). Es así que vemos cómo se perpetúan los estereotipos al pedirle a un sistema de generación de imágenes con IA que nos represente a una persona liderando una empresa, a otra limpiando, o a una mujer bella en la playa y nos devuelva en gran mayoría imágenes de un hombre sentado detrás de un escritorio, a una mujer lavando los platos o a una mujer con rasgos hegemónicos respectivamente. Aquí es donde viene nuestra pregunta: ¿la IA perpetúa estereotipos? Como nosotras no tenemos la respuesta, decidimos ir un paso más allá del debate y entrevistamos a Alba Meijide, Licenciada en Inteligencia Artificial, consultora y diseñadora de proyectos basados en Inteligencia Artificial, para que nos diera su punto de vista como especialista en este campo.

¿Cómo podemos combatir los sesgos de género y el sexismo que parecen tener las IA?

La lucha contra los sesgos en los sistemas de IA es un desafío crucial en la actualidad tecnológica. Estos sesgos son el resultado directo, y un reflejo exacto, de los datos utilizados para entrenar estos sistemas, los cuales no siempre representan de manera equitativa a toda la población.

Desde una perspectiva técnica, es esencial realizar una investigación exhaustiva sobre los datos de entrenamiento de los nuevos sistemas de IA. Esto implica identificar y comprender los posibles sesgos presentes en los datos y desarrollar estrategias para mitigarlos, incluyendo la recopilación de datos más diversos y representativos.

Esta lucha contra los sesgos no debe reducirse a la comunidad científica o a las empresas desarrolladoras, sino que, en mi opinión, es crucial concienciar a la población sobre estos sesgos que muchas veces pasan desapercibidos, y fomentar el debate y la discusión entre los usuarios finales. Reconocer la existencia de los sesgos es el primer paso para abordar el problema, y nos permitirá evolucionar hacia soluciones de IA más equitativas y representativas de la sociedad, sin perpetuar nuestros prejuicios.

¿Que la IA tenga este tipo de sesgos es puramente reflejo de la sociedad o puede que se esté polarizando, como parece que ocurre en Redes Sociales?

Si hablamos a nivel técnico, y como comentaba antes, estos sesgos en los sistemas de IA son un reflejo exacto de los datos con los que han sido entrenados. Es decir, los algoritmos aprenden de la información proporcionada y replican patrones y tendencias presentes en esos datos. Por lo tanto, es lógico plantear que los sesgos y prejuicios presentes en los sistemas de IA provienen del proceso de selección de datos, el cual, en última instancia, es llevado a cabo por seres humanos. Esta selección puede involucrar sesgos conscientes o

inconscientes, así como omisiones involuntarias de ciertas partes de la población.

La solución a este problema no radica en la tecnología en sí, sino en nosotros, los humanos. Debemos ser conscientes de la importancia de construir conjuntos de datos que sean lo suficientemente diversos y representativos como para evitar la replicación de nuestros propios prejuicios en los sistemas de IA. Esta tarea, sin embargo, no es sencilla. Nos enfrentamos a un desafío arraigado en la historia misma de la humanidad, donde los prejuicios y la discriminación han existido durante mucho tiempo.

No obstante, es importante comentar el hecho de que vivimos en una sociedad que está cada vez más comprometida con la eliminación de estos prejuicios y la promoción de la diversidad y la inclusión. Este cambio cultural se está reflejando gradualmente en la manera en que abordamos los problemas de sesgo en la IA. A medida que avanzamos hacia una mentalidad más consciente y equitativa, confío en que veremos una mejora significativa en la representación y la imparcialidad de los sistemas de IA. Es un proceso gradual, pero uno que nos acerca un paso más hacia la creación de tecnología verdaderamente inclusiva y justa.

Más allá de la IA, en los medios de comunicación españoles, ocurre que tenemos leyes para evitar los estereotipos de género en publicidad pero luego los medios están llenos de ellos. ¿Cómo se podría legislar de manera efectiva en este aspecto con las IAs?

La legislación y el control es para mi una de las piezas más importantes para definir nuestra relación con la IA en los próximos años, y si bien es cierto que aún queda mucho camino por recorrer y hay muchas incógnitas al respecto, ya se plantean a nivel europeo mecanismos para asegurar la mitigación de riesgos asociados con los nuevos sistemas, entre ellos los sesgos.

Una posible solución radica en la implementación de mecanismos regulatorios que garanticen la mitigación de sesgos en los sistemas de IA desde sus etapas iniciales de desarrollo. Aquí es donde entra en juego la función crucial de la Agencia Estatal de Supervisión de IA (AESIA), con sede en A Coruña, que se encargará de supervisar y regular el uso de la IA en España.

Entre las medidas que se adoptarán para abordar estos desafíos, y que ya se han hecho públicas en documentos oficiales del Gobierno, destacan las auditorías de datos que permitan examinar y evaluar los conjuntos de datos utilizados para entrenar los sistemas de IA. Estas auditorías servirían para identificar posibles sesgos, incluidos los estereotipos de género, y tomar medidas correctivas antes de que los modelos se implementen en entornos operativos.

Otro mecanismo de extrema utilidad serán los entornos de prueba seguros, donde las empresas e instituciones podrán evaluar el comportamiento de sus sistemas de IA en condiciones controladas. Esto permitirá verificar si los modelos son propensos a reproducir estereotipos o cualquier otro tipo de sesgo, antes de su lanzamiento al público general.

A parte de estos dos mecanismos, existen muchos otros caminos que nos permitirán llegar a sistemas de IA equitativos y responsables a nivel social, como puede ser por ejemplo cubrir la creciente necesidad de educación y sensibilización en la población, o la necesidad de equipos interdisciplinares en el desarrollo de IA, donde perfiles técnicos colaboran con creativos y humanistas para medir el impacto más allá de la tecnología.

Hace algunas semanas se generó polémica alrededor de un chatbot que pretendía ser Marilyn Monroe cuyo objetivo era poder tener una conversación póstuma. Respecto a cuestiones éticas, ¿cuáles crees que deberían ser los límites a la hora de explorar con AI?

Este desarrollo con la figura de Marilyn Monroe subraya la complejidad ética de explorar los límites de la IA con respecto a la recreación de figuras históricas o fallecidas. Se ha observado previamente la aplicación de sistemas de IA para “revivir” a personalidades como Lola Flores o Salvador Dalí. Aunque estas iniciativas plantean un dilema ético, considero que la delicadeza del tema radica en la preservación del legado y la integridad de estas figuras.

Desde mi punto de vista, recrear personalidades a través de la IA plantea importantísimos interrogantes éticos. ¿Hasta qué punto podemos garantizar que estas representaciones sean fieles a la identidad y las creencias de la persona original cuando aún vivía? ¿Es ético permitir que las interacciones con estas recreaciones influyan en la percepción pública de la persona real aun después de su fallecimiento? Creo que se trata de una cuestión de respeto hacia la memoria y el legado de quienes ya no están entre nosotros.

Dicho esto, y anteponiendo las importantes cuestiones éticas que estas tareas implican, considero que es posible abordar esta tarea de manera responsable. Un ejemplo notable es la instalación “Dalí Lives” de la organización sin ánimo de lucro Dalí Museum en Florida, donde se utilizaron sistemas de IA para recrear al artista. En este caso, se trabajó estrechamente con historiadores y expertos para garantizar que las interacciones del “Dalí Recreado” estuvieran alineadas con sus expresiones y pensamientos reales mientras estaba vivo. Esta colaboración multidisciplinaria aseguró que la recreación respetara la integridad del artista y su legado, evitando desviarse hacia la manipulación o la distorsión de su imagen pública.

En tu opinión, ¿qué es lo más preocupante actualmente en relación a los avances de la IA y los sesgos? ¿Y la oportunidad?

La inteligencia artificial presenta oportunidades en todas las industrias en las que se aplique, desde la evolución sin precedentes que puede aportar a la medicina hasta los sectores más creativos. Se trata de una nueva revolución que va a cambiar la forma en la que trabajamos y nos relacionamos. No obstante, esta evolución a través de la IA va de la mano de una responsabilidad social y ética clave para nuestro futuro.

En cuanto a las preocupaciones, hay muchos aspectos e implicaciones a destacar, al igual que con cualquier tecnología disruptiva. Por ejemplo, la generación de contenido con IA sin el posterior tratamiento y análisis humano puede desencadenar en que ciertos grupos de la población pierdan representación en redes y medios, algo que ha costado muchos años conseguir. Aquí se encuentra el riesgo de que las voces minoritarias o menos representadas sean silenciadas o marginadas en entornos digitales. Esta falta de diversidad y representación puede amplificar los sesgos existentes y perpetuar la desigualdad.

Otra preocupación importante es la posibilidad de que los sistemas de IA no se hayan entrenado correctamente y, como resultado, penalizan de forma inconsciente a cierta parte de la población. Por ejemplo, si un sistema se entrena para la selección de perfiles técnicos en empresas basándose en los profesionales contratados hasta el momento, y sabiendo que se trata de un ámbito muy masculinizado hasta el momento, el conjunto de datos utilizado para el entrenamiento estará sesgado hacia un género específico o una demografía particular. De esta forma el sistema puede perpetuar ese sesgo y excluir a

candidatos cualificados que no encajan en el perfil predeterminado, resultando en una discriminación injusta y dificultando aún mas los esfuerzos por lograr la diversidad e inclusión a nivel laboral.

Sin embargo, aunque enfrentamos desafíos significativos como los mencionados, también hay motivos para el optimismo. La inteligencia artificial nos ofrece la oportunidad de reconocer y abordar los sesgos inherentes, desarrollando sistemas más equitativos y justos. Con un enfoque colaborativo y un compromiso continuo con la ética y la responsabilidad, podemos utilizar la inteligencia artificial para construir un futuro más inclusivo para todos.

¿Algún tip para que les creatives podamos interactuar con la IA y que no nos devuelva información sesgada?

En la interacción con sistemas de IA, especialmente para profesionales creativos, es esencial reconocer y abordar los sesgos inherentes en los datos y algoritmos utilizados. Actualmente, no existe una solución técnica definitiva para evitar completamente estos sesgos, ya que en gran medida están determinados por los conjuntos de datos seleccionados y las decisiones de diseño de los desarrolladores de cada sistema. Sin embargo, los profesionales creativos pueden desempeñar un papel crucial al ser conscientes de estos problemas éticos y tomar medidas proactivas para mitigarlos. En lugar de depender únicamente de la IA para generar contenido, es importante cuestionar y examinar críticamente los resultados producidos. Por ejemplo, si un sistema de IA genera

imágenes de profesionales de diversas industrias y se observa que la representación de médicos se limita exclusivamente a hombres, es ahí el punto de intervención de los creativos, donde deben solicitar explícitamente al sistema que incluya una representación más equitativa de estos profesionales.

Quiero hacer especial énfasis en que cuando se trabaja con sistemas de IA es crucial que los humanos seamos un participante activo, y en el caso de los procesos más creativos, hacer “nuestro” el contenido y darle este toque humano e inclusivo. Estas labores, junto con la progresiva mejora por parte de las empresas y organizaciones desarrolladoras es lo que permitirá no perpetuar nuestros prejuicios aún más en las nuevas tecnologías.

Si os interesa la creación de contenido con IA de manera responsable, os invitamos a descargar “La Guía de la Belleza Real” creada por Dove.

Si quieres colaborar con el equipo en España, escríbenos a espana@publicitarias.org. Síguenos en Instagram @publicitarias_es.

Publicitarias España

Publicitarias es una Fundación con impacto global cuyo objetivo de promover la diversidad y la perspectiva de género en la industria publicitaria.

Notas
relacionadas