Mi Carrito

Cecilia Danesi y la necesidad de una IA con perspectiva de género y de derechos humanos

Compartí esta nota en redes

A principios de este año, en las redes sociales se volvieron tendencia las palabras “Chat GPT” e “Inteligencia Artificial”. De manera acelerada se instaló como un tema de interés público. ¿Cómo funciona la IA? ¿Reemplazará a ciertxs trabajadorxs? ¿Qué nuevas habilidades requiere su uso? ¿Cómo y de dónde se obtienen los datos para su entrenamiento? son algunas de las preguntas más frecuentes.

Según un estudio publicado en la revista Science, los modelos generativos de Inteligencia Artificial están imponiendo sesgos negativos y estereotipos raciales, de género y de clase en sus usuarixs.

Cecilia Danesi es investigadora y divulgadora en Inteligencia Artificial, géneros y derechos. Además, es autora del libro “El imperio de los algoritmos” y co-directora del Máster en Gobernanza Ética de la IA (UPSA), del programa “Diversidad e Innovación” (UdeSA) y subdirectora del posgrado "IA y Derecho" (UBA). En diálogo con Feminacida advierte sobre la necesidad de que la inteligencia artificial sea una política pública.


¿Te preocupa la difusión y el uso cada vez más masivo de herramientas de Inteligencia Artificial generativa (tales como Chat GPT, Dall-e, Bard, Midjourney, entre otras)? ¿Podés compartirnos alguna recomendación para su buen uso?

Sí, me preocupa. Pero tengo que reconocer que es más lo que lo celebro que lo que me preocupa. Porque la IA generativa, sobre todo chat GPT, hizo que se popularice el uso de la Inteligencia Artificial y que se tome conciencia de los alcances que puede llegar a tener esta herramienta. Me parece súper interesante que hoy en día en una mesa de amigos, de amigas, se debata acerca de Inteligencia Artificial. Ahora la idea es que eso sea positivo en la medida que utilicemos estas herramientas pero con conciencia. Esto es lo que, tal vez, no está pasando. Es lo que sucede, por poner un ejemplo cercano, con las redes sociales. Estamos todo el día conectados, actualizando nuestros perfiles, viendo cuantos likes nos ponen, el engagement, la interacción pero se tiene poca conciencia sobre los riesgos que pueden traer esas prácticas y usos.

¿Por qué te interesó abordar la inteligencia artificial desde una perspectiva de género?

Primero, creo que las cuestiones de género y diversidad son transversales. El género es transversal a cualquier área, a cualquier disciplina, a cualquier trabajo. Cualquier enfoque que tengamos que tener en la vida tiene que tener perspectiva de género. Cuando empecé a investigar sobre Inteligencia Artificial y su impacto desde las Ciencias Sociales me di cuenta cómo la Inteligencia Artificial afectaba negativamente en cuestiones de género. Encontré que contribuía a agrandar la brecha de género, por la que tanto estamos luchando día a día. Entonces fue investigar y darme cuenta de eso. Además hay que tener en cuenta que en el momento en el que empiezo a investigar este tema, no se hablaba mucho de Inteligencia Artificial y menos desde una perspectiva de género y diversidad. Eso fue lo que me generó más preocupación porque empecé a descubrir un montón de cuestiones que no me gustaban y lo poco que se estaba haciendo sobre eso. 

¿Cuáles fueron esos hallazgos?

Que los sistemas de Inteligencia Artificial reproducen e intensifican mecanismos de violencia machista ya existentes. Si alguien difunde una información falsa acerca de una mujer o difunde en redes sociales imágenes de la vida privada o íntima de una mujer en las redes sociales, ¿qué es lo que hacen los algoritmos? A través de la viralización del contenido intensifican y reproducen la misoginia. Lo que generalmente vemos en las redes sociales son imágenes que están plagadas de estereotipos de género, es decir, generalmente vemos cuerpos de mujeres hegemónicos que respetan cánones de belleza. ¿Y qué pasa con los algoritmos? Muestran más esas imágenes y menos otras, por ejemplo aquellas que exponen diversidades. Esa es una manera en que la Inteligencia Artificial reproduce e intensifica la violencia de género en el universo digital.

En tu libro El imperio de los algoritmos explicás que es erróneo hablar de “sesgos algorítmicos” porque la tecnología es neutral y proponés que evaluemos cómo las utilizamos. ¿Cómo ves que estamos usando la IA? 

La tecnología en sí es neutral pero desde el mismo momento en el que las desarrollamos, las estamos cargando de sentido porque desde que las imaginamos, la pensamos, las estamos moldeando e influenciando por nuestros valores, nuestros prejuicios, nuestros sesgos. El punto no es la tecnología, sino quienes las están creando. Nosotros la estamos utilizando, la verdad, como podemos porque en la mayoría de los casos hay sistemas de Inteligencia Artificial que toman decisiones por nosotros. Pero no somos conscientes de eso. Por ejemplo, si yo voy a un organismo a pedir una beca o a pedir un tratamiento médico y la institución no me concede el acceso, basándose en una predicción algorítmica, muchas veces yo no sé que en ese proceso hubo una Inteligencia Artificial. En otros casos, como por ejemplo en las plataformas digitales, interactuamos permanentemente con Inteligencia Artificial pero tampoco somos conscientes de eso porque no hay ningún deber de informarnos. Entonces, ¿cómo la estamos usando como usuarios? Como podemos.

¿Cómo podemos contrarrestar y combatir los mal llamados “sesgos algorítmicos” de género y raciales?

Primero con educación y concientización, es decir, primero saber que existen porque en muchos casos no sabemos que existen, se cree que que todo lo que pasa en estas plataformas digitales pasa por el azar y no es así. Son algoritmos, detalladamente programados por empresas que tienen sus intereses, que muchas veces no tienen mala voluntad pero sí, obviamente, que generan un daño. Entonces, lo primero es ser conscientes de esto. Segundo, ser conscientes también de nuestro rol como usuarios de la tecnología, denunciar aquello que vemos que nos llama la atención que pueden implicar la reproducción de un estereotipo de género, por ejemplo. Después, con educación desde las escuelas y universidades. Esto llegó para quedarse y cada vez se va a afianzar más. Necesitamos formación en estas temáticas y, por sobre todas las cosas, necesitamos que las personas que desarrollan sistemas de Inteligencia Artificial tengan una formación en género, en cuestiones de derechos humanos, en una perspectiva ética. Desde la Universidad Pontificia de Salamanca estamos lanzando un máster en Gobernanza Ética de la Inteligencia Artificial donde, justamente, lo que queremos es abordar el impacto de la Inteligencia Artificial desde la mirada de las Ciencias Sociales, desde la psicología, la filosofía y el derecho. Indagar y pensar qué tienen estas áreas para aportar en este nuevo universo porque la tecnología, la Inteligencia Artificial se tiene que construir no sólo con expertos en IA, programadores, ingenieros sino también con otras disciplinas porque estamos hablando de una herramienta que va a tomar cada vez más decisiones en cuestiones esenciales y sumamente delicada de la vida de las personas.

¿Cuál creés que es el rol del Estado en este punto?

Mi postura es que la inteligencia artificial tiene que ser una política pública. El estado tiene que tomar cartas en el asunto en temas de Inteligencia Artificial porque no es una tecnología más, no es un fenómeno más, no es una innovación más. Es algo que implica un cambio radical en la concepción de las sociedades modernas. Entonces el Estado no sólo tiene que entrar desde la regulación sino que de manera integral, por eso digo una política de Estado desde distintas áreas. 

¿Cuáles son las áreas clave en la regulación de la IA desde una perspectiva de género y derechos humanos?

Primero que haya una regulación. Pero una regulación que sea vinculante porque ahora como para decir “estamos haciendo algo” todos sacan recomendaciones, principios éticos y guías de mejores prácticas. Por un lado eso está muy bien y lo celebro porque peor es nada. Pero si no son vinculantes no sirven porque después nadie lo tiene que cumplir. Entonces termina siendo un cuadrito que vos ponés en tu pared, pero que en realidad no tiene implicancias en la práctica, no tiene acción práctica y nosotros lo que necesitamos es llevar a la acción todo esto. La regulación tiene que tener una mirada fuerte en materia de prevención, concientización y educación. Obviamente después llegarán las acciones sancionatorias. Necesitamos que los algoritmos de alto riesgo, es decir aquellos que pueden generar grandes daños o que tiene una gran potencialidad dañosa para la vida de las personas, sean examinados, evaluados. En este momento estoy trabajando en un libro de auditorías algorítmicas donde justamente propongo formas de auditar algoritmos antes de que se pongan en circulación y mientras están en circulación para prevenir este tipo de resultados indeseables que reproducen sesgos, estereotipos de género y raciales y que contribuyen a incrementar las brechas sociales. 



Compartí esta nota en redes