Cuando la IA no sale bien: combatir fuego con fuego

Alejandra Neely
Alejandra Neely

Nuestras actividades cotidianas están siendo cada vez más interferidas, dirigidas, guiadas y apoyadas por algoritmos de IA. Nos muestran contenido en internet, recomiendan música nueva en Spotify, hacen sugerencias de compras, sugerencias de ruta en nuestro camino al trabajo, etc. Pero a menudo sentimos que debemos protegernos de su poder y mal uso. Bueno, hoy en día tenemos la oportunidad de hacerlo: a través del internet y las redes sociales.

Nuestra sociedad está fuertemente interconectada, tenemos más acceso que nunca a información y diferentes puntos de vista a través de las noticias y las redes sociales en Internet. Tomar una postura y hacer un statement por algo también es más fácil que antes, lo que ha facilitado la aparición de movimientos sociales que arrojan luz sobre importantes temas globales como la discriminación, la pobreza y la guerra.

Ahora que las personas utilizan las plataformas digitales para comunicarse y compartir opiniones, los sectores público y privado están comenzando a tomar en consideración esta información con mediciones de desempeño, de impacto y también de percepción que les permiten alcanzar un nivel completamente nuevo de representatividad. Un ejemplo de esto último es la evolución de los procesos de participación ciudadana digital en un gran número de gobiernos locales, quienes ya no escuchan solo a representantes en el gobierno sino que buscan recoger y adquirir conocimiento de las opiniones y sabiduría directamente de sus ciudadanos para informar la toma de decisiones en materia de políticas públicas, decisiones presupuestarias, etc.

Aunque la hiperconectividad y la cantidad de información disponible puede parecer amenazante, permite que se escuchen todas las voces, lo que a su vez tiene el poder de contrarrestar otro fenómeno que a veces da miedo: la IA. Que las personas tengan una voz pública de gran alcance sobre temas que les afectan es especialmente relevante cuando nuestras vidas se ven afectadas por algoritmos de IA que no siempre son transparentes, evidentes o justos. Como sabemos, la IA se puede usar de forma ética o no, pero su coexistencia con la hiperconectividad es positiva, porque la conciencia social viral y pública, cuando se canaliza positivamente, puede contrarrestar las mayores amenazas provenientes del desarrollo de la tecnología y las intervenciones de IA. Veamos un par de ejemplos de algoritmos de IA cuestionados desde un punto de vista ético y cómo la exposición ha ayudado a detener sus dañinas consecuencias:

Sesgo

Que la IA pueda estar sesgada no es ninguna novedad. Ya hay libros que hablan de esto, muchos de ellos. La IA consume datos, y los procesos de recopilación de datos están diseñados por humanos, que pueden transmitir sus propios sesgos a los datos.

Reuters publicó un artículo hace más de tres años que expuso un algoritmo de contratación de Amazon que sistemáticamente prefería a los hombres sobre las mujeres. Esto sucedió no porque el algoritmo creyera que los hombres eran mejores que las mujeres, sino porque en los datos utilizados para entrenar el algoritmo los hombres estaban sobrerrepresentados. Los datos utilizados para entrenar este algoritmo eran datos históricos de los últimos 10 años, cuando las disparidades entre hombres y mujeres eran aún más pronunciadas que en la actualidad. Así, el algoritmo detectó un patrón: que los hombres eran contratados con más frecuencia que las mujeres.

Pero estos temas ahora pueden generar discusiones masivas. La siguiente imagen muestra la reacción de la gente a esta noticia: más de 600 reacciones directas solo a este tuit. Si más personas se involucran, los expertos comienzan a alzar la voz para proponer soluciones y también las empresas y los legisladores comienzan a preocuparse más: hacerlo también comenzó a ser una cuestión de imagen y marca.

Gracias a este tipo de acciones, ahora existen pautas completas sobre cómo evitar sesgos dañinos en los algoritmos. Un análisis simple, como sacar del algoritmo aquellas variables que están fuertemente correlacionadas con raza o género, es solo un ejemplo de lo que debemos hacer para construir una mejor IA y lo que la gente espera que las empresas y organizaciones comiencen a hacer.

Automatizar los procesos incorrectos

Un impulso natural, supongo, es que cuando algo está bien y funciona, tratamos de aplicarlo en todas partes. Especialmente en el caso de la IA, esto es peligroso. Una aplicación que generó debate social y llamados a la acción fue el desarrollo de algoritmos policiales predictivos que pretendían predecir quién tiene más probabilidades de cometer un delito. Se ha descubierto que estos algoritmos se utilizan en varios departamentos de policía de los EE. UU., donde la discriminación policial racial es un problema constante.

Bueno, estos algoritmos empeoraron los problemas de discriminación policial en los EE. UU. y otros países, lo que provocó más arrestos de personas de cierta raza o religión. Y el problema aquí no es solo el sesgo en los datos, sino la automatización de la vigilancia policial. El Parlamento Europeo dijo:

“Para respetar la privacidad y la dignidad humana, los eurodiputados piden una prohibición permanente del reconocimiento automático de personas en los espacios públicos, señalando que los ciudadanos sólo deben ser monitoreados cuando se sospeche de un delito. El Parlamento pide que se prohíba el uso de bases de datos privadas de reconocimiento facial (como el sistema Clearview AI, que ya está en uso) y la vigilancia predictiva basada en datos de comportamiento.” European Parliament Plennary Session, 2021.

Una vez más, la IA con resultados poco éticos tiene mayores posibilidades de ser detenida y corregida rápidamente por organismos con poder y empresas cuando sus consecuencias son expuestas masivamente.

En definitiva, afortunadamente los datos que la IA necesitaba para acelerar su desarrollo sólo podían aparecer en esta sociedad ampliamente interconectada, coexistiendo con la posibilidad de discutir temas sociales abierta y masivamente, y con plataformas digitales que permiten a las contrapartes llegar a un consenso. Siempre que las opiniones y declaraciones tengan plataformas públicas, las personas podrán unirse para proponer mejores formas de implementar y discutir cuándo y cómo limitar herramientas altamente poderosas como la IA, mientras aprovechamos sus enormes beneficios.

Beyond

Alejandra Neely Twitter

Psychologist and data scientist, pretty much a bias and social pattern classifier