La tecnología no puede con la injusticia algorítmica

la tecnología no puede con la injusticia algorítmica
la tecnología no puede con la injusticia algorítmica

La tecnología no puede con la injusticia algorítmica

 

la tecnología no puede con la injusticia algorítmica

 

Necesitamos una mayor supervisión democrática de la IA no solo por parte de los desarrolladores y diseñadores, sino de todos los miembros de la sociedad.

ANNETTE ZIMMERMANN , ELENA DI ROSA Y HOCHAN KIM

 

Gran parte del debate público reciente sobre la inteligencia artificial ha sido impulsado por visiones apocalípticas del futuro. La humanidad, se nos dice, está comprometida en una lucha existencial contra su propia creación. Estas preocupaciones son alimentadas en gran parte por los líderes de la industria tecnológica y los futuristas, que anticipan sistemas tan sofisticados que pueden realizar tareas generales y operar de forma autónoma, sin control humano. Stephen Hawking, Elon Musk y Bill Gates han expresado públicamente sus preocupaciones sobre el advenimiento de este tipo de IA “fuerte” (o “general”) y el riesgo existencial asociado que puede representar para la humanidad. En palabras de Hawking, el desarrollo de una IA fuerte “podría significar el fin de la raza humana”.

 

No importa el lejano espectro del fin del mundo; La IA ya está aquí, trabajando entre bastidores en muchos de nuestros sistemas sociales.

 

 

inteligencia-artificial

 

Estas son preocupaciones legítimas a largo plazo. Pero no son lo único de lo que tenemos que preocuparnos, y colocarlos en el centro del escenario distrae de las cuestiones éticas que la IA plantea aquí y ahora. Algunos sostienen que una IA fuerte puede estar a solo décadas de distancia, pero este enfoque oscurece la realidad de que la IA “débil” (o “estrecha”) ya está remodelando las instituciones sociales y políticas existentes. La toma de decisiones algorítmica y los sistemas de apoyo a las decisiones se están implementando actualmente en muchos dominios de alto riesgo, desde la justicia penal, la aplicación de la ley y las decisiones laborales hasta la calificación crediticia, los mecanismos de asignación escolar, la atención médica y las evaluaciones de elegibilidad de beneficios públicos. No importa el lejano espectro del fin del mundo; La IA ya está aquí, trabajando entre bastidores en muchos de nuestros sistemas sociales.

¿Qué responsabilidades y obligaciones tenemos por las consecuencias sociales de la IA en el presente, no solo en un futuro lejano? Para responder a esta pregunta, debemos resistir la indefensión aprendida que ha llegado a considerar inevitable el desarrollo de la IA. En cambio, debemos reconocer que desarrollar e implementar una IA débil implica tomar decisiones consecuentes, elecciones que exigen una mayor supervisión democrática no solo de los desarrolladores y diseñadores de IA, sino de todos los miembros de la sociedad.

 

 

Injusticia Algorítmica

 

Lo primero que debemos hacer es analizar detenidamente los argumentos que sustentan el uso actual de la IA.

Algunos son optimistas de que los sistemas de inteligencia artificial débiles pueden contribuir positivamente a la justicia social. A diferencia de los humanos, continúa el argumento, los algoritmos pueden evitar la toma de decisiones sesgada, logrando así un nivel de neutralidad y objetividad que no es humanamente posible. Una gran cantidad de trabajos recientes han criticado esta presunción, incluidos los algoritmos de opresión de Safiya Noble (2018), la carrera después de la tecnología de Ruha Benjamin (2019) , la falta de inteligencia artificial de Meredith Broussard (2018), el hola mundo de Hannah Fry (2018), la desigualdad automatizada de Virginia Eubanks. (2018), Technically Wron g (2017) de Sara Wachter-Boettcher y Weapons of Math Destruction de  Cathy O’Neil(2016). Como enfatizan estos autores, existe una gran cantidad de evidencia empírica que muestra que el uso de sistemas de IA a menudo puede replicar condiciones históricas y contemporáneas de injusticia, en lugar de aliviarlas.

En respuesta a estas críticas, los profesionales se han centrado en optimizar la precisión de los sistemas de inteligencia artificial para lograr resultados de decisiones neutrales y aparentemente objetivos. Estos optimistas admiten que los sistemas algorítmicos no son neutrales en el presente , pero argumentan que pueden volverse neutrales en el futuro, lo que en última instancia hará que su despliegue sea moral y políticamente inobjetable. Como IBM Research, uno de los muchos centros de investigación corporativos centrados en tecnologías de inteligencia artificial, proclama :

 

El sesgo de la IA explotará. Pero solo la IA imparcial sobrevivirá. Dentro de cinco años, aumentará la cantidad de sistemas y algoritmos de IA sesgados. Pero nos ocuparemos de ellos en consecuencia, encontrando nuevas soluciones para controlar el sesgo en la IA y defender los sistemas de IA libres de él.

 

El subcampo emergente de ciencias de la computación de FAT ML (“equidad, responsabilidad y transparencia en el aprendizaje automático”) incluye una serie de contribuciones importantes en esta dirección, descritas de manera accesible en dos libros nuevos: The Ethical Algorithm de Michael Kearns y Aaron Roth  (2019 ) y Gary Marcus y Ernest Davis’s Rebooting AI: Building Artificial Intelligence We Can Trust  (2019). Kearns y Roth, por ejemplo, escriben:

 

Nosotros . . . . creen que reducir el mal comportamiento algorítmico requerirá en sí mismo más y mejores algoritmos, algoritmos que pueden ayudar a los reguladores, grupos de vigilancia y otras organizaciones humanas a monitorear y medir los efectos indeseables y no deseados del aprendizaje automático.

 

 

Injusticia algorítmica

 

Sin embargo, existen serias limitaciones a lo que podríamos llamar este enfoque de control de calidad del sesgo algorítmico. Equidad algorítmica, como se usa actualmente el término en la informática, a menudo describe un valor u objetivo bastante limitado, que los filósofos políticos podrían llamar “equidad procesal”, es decir, la aplicación de las mismas reglas de decisión imparcial y el uso del mismo tipo. de datos para cada individuo sujeto a evaluaciones algorítmicas, a diferencia de un enfoque más “sustantivo” de la equidad, que implicaría intervenciones en los resultados de las decisiones y su impacto en la sociedad (en lugar de solo los procesos de decisión ) para hacer que los primeros sean más justos.

Incluso si el código se modifica con el objetivo de asegurar la equidad procesal, sin embargo, nos quedamos con la cuestión filosófica y política más profunda de si la neutralidad constituye equidad en condiciones de fondo de desigualdad generalizada e injusticia estructural. Las soluciones supuestamente neutrales en el contexto de una injusticia generalizada corren el riesgo de afianzar aún más las injusticias existentes. Como han señalado muchos críticos, incluso si los algoritmos mismos logran algún tipo de neutralidad en sí mismos, los datos de los que aprenden estos algoritmos todavía están plagados de prejuicios. En resumen, los datos que tenemos, y por lo tanto los datos que ingresan al algoritmo, no son ni los datos que necesitamos ni los que merecemos. Por lo tanto, la cura para el sesgo algorítmico puede no ser más o mejores algoritmos. Puede haber algunos sistemas de aprendizaje automático que no deberían implementarse en primer lugar,

Existe una gran cantidad de evidencia empírica que muestra que el uso de sistemas de inteligencia artificial a menudo puede replicar condiciones históricas y contemporáneas de injusticia, en lugar de aliviarlas.

 

Injusticia algorítmica

 

Para un ejemplo concreto, considere los sistemas de aprendizaje automático utilizados en la vigilancia policial predictiva, mediante los cuales los datos históricos de la tasa de delincuencia se introducen en algoritmos para predecir las distribuciones geográficas futuras de la delincuencia. Los algoritmos señalan ciertos vecindarios como propensos a delitos violentos. Sobre esa base, los departamentos de policía toman decisiones sobre dónde enviar a sus agentes y cómo asignar los recursos. Si bien el concepto de vigilancia policial predictiva es preocupante por varias razones, una defensa común de la práctica es que los sistemas de inteligencia artificial son exclusivamente “neutrales” y “objetivos”, en comparación con sus contrapartes humanas. A primera vista, podría parecer preferible quitar el poder de toma de decisiones de las manos de departamentos de policía y oficiales de policía sesgados. Pero, ¿qué pasa si los datos en sí están sesgados, de modo que incluso el “mejor” algoritmo arrojaría resultados sesgados?

Este no es un escenario hipotético: los algoritmos de vigilancia predictiva se alimentan de datos históricos de tasas de criminalidad que sabemos que están sesgados. Sabemos que las comunidades marginadas, en particular las comunidades negras, indígenas y latinx, han sido sometidas a una vigilancia excesiva. Dado que se descubren más delitos y se realizan más arrestos en condiciones de presencia policial desproporcionadamente alta, los datos asociados están sesgados. El problema es de sobrerrepresentación: comunidades particulares aparecen de manera desproporcionada en los datos de actividad delictiva, en parte debido a cuán (injustamente) se les ha vigilado y cuán inequitativamente se han hecho cumplir las leyes.

 

 

la tecnología no puede con la injusticia algorítmica

No debería sorprender, entonces, que estos algoritmos hagan predicciones que reflejan patrones pasados. Estos nuevos datos luego se retroalimentan en el modelo tecnológico, creando un ciclo de retroalimentación pernicioso en el que la injusticia social no solo se replica, sino que de hecho se afianza aún más. También vale la pena señalar que las mismas comunidades que han sido sometidas a una vigilancia excesiva han sido severamente descuidadas , tanto intencionalmente como no, en muchas otras áreas de la vida social y política. Si bien están sobrerrepresentados en los conjuntos de datos de tasas de criminalidad, están subrepresentados en muchos otros conjuntos de datos (por ejemplo, los relacionados con el rendimiento educativo).

Por lo tanto, la injusticia estructural produce datos sesgados a través de una variedad de mecanismos, entre los que destacan la subrepresentación y la sobrerrepresentación, lo que genera preocupantes ciclos de retroalimentación. Incluso si se resolvieran los problemas de control de calidad asociados con las reglas de decisión de un algoritmo, nos quedaríamos con un problema más fundamental: estos sistemas seguirían aprendiendo y confiando en datos nacidos de condiciones de injusticia generalizada y duradera.

Reconociendo que estos problemas plantean problemas genuinos para la posibilidad de un algoritmo verdaderamente neutral, algunos podrían abogar por implementar contramedidas para corregir el sesgo en los datos, un supuesto ecualizador a nivel algorítmico. Si bien esto puede ser un paso importante en la dirección correcta, no constituye una solución satisfactoria por sí solo. Las contramedidas pueden ayudar a explicar los problemas de representación excesiva e insuficiente de los datos, pero no pueden corregir el problema de qué tipo de datos se han recopilado en primer lugar.

 

Injusticia algorítmica

 

 

Los datos que tenemos, y por lo tanto los datos que ingresan al algoritmo, a menudo no son ni los datos que necesitamos ni los que merecemos.

Considere, por ejemplo, otra aplicación controvertida de la inteligencia artificial débil: la puntuación de riesgo algorítmico en el proceso de justicia penal, que se ha demostrado que conduce a resultados con prejuicios raciales. Como un estudio conocidopor ProPublica mostró en 2016, uno de esos algoritmos clasificaba a los acusados ​​negros con un “alto riesgo de reincidencia” a tasas desproporcionadamente más altas en comparación con los acusados ​​blancos, incluso después de controlar variables como el tipo y la gravedad del delito cometido. Como dijo ProPublica, “la predicción falla de manera diferente para los acusados ​​negros”; en otras palabras, las predicciones algorítmicas hicieron un trabajo mucho peor al predecir con precisión las tasas de reincidencia de los acusados ​​negros, en comparación con los acusados ​​blancos, dados los delitos que los acusados ​​individuales habían cometido anteriormente; los acusados ​​negros que de hecho eran de bajo riesgo tenían muchas más probabilidades de recibir una puntuación de alto riesgo que los acusados ​​blancos similares. A menudo, estos sistemas algorítmicos se basan en datos sociodemográficos, como edad, sexo, antecedentes educativos, estabilidad residencial y registro de arrestos familiares. Aunque el algoritmo en este caso no se basa explícitamente en la raza como variable, estas otras características sociodemográficas pueden funcionar como sustitutos de la raza. El resultado es una forma digital de línea roja o, como lo llaman los científicos informáticos, “codificación redundante”.

 

Injusticia algorítmica

En respuesta a este problema, algunos estados, incluido Nueva Jersey, implementaron recientemente sistemas de puntuación de riesgo algorítmicos más minimalistas, basándose únicamente en datos de comportamiento, como registros de arrestos. El objetivo de estos sistemas es evitar la codificación redundante reduciendo la cantidad de información sociodemográfica que se introduce en el algoritmo. Sin embargo, dado que las comunidades de color están controladas de manera desproporcionada y, a su vez, detenidas a tasas desproporcionadamente altas, los datos “puramente conductuales” sobre el historial de arrestos, por ejemplo, todavía son muy controvertidos (y clasificados y clasificados por género). Por tanto, el problema de la codificación redundante no se resuelve de hecho. El ejemplo de Nueva Jersey, entre muchos otros, muestra que apartarse de las circunstancias sociales de los acusados ​​no conduce a una verdadera imparcialidad.

A la luz de estos problemas, cualquier enfoque centrado en optimizar la equidad procesal, sin prestar atención al contexto social en el que operan estos sistemas, será insuficiente.

 

la tecnología no puede con la injusticia algorítmica

 

El diseño algorítmico no se puede arreglar de forma aislada. Los desarrolladores no pueden simplemente preguntar: “¿Qué debo hacer para corregir mi algoritmo?” Más bien deben preguntarse: “¿Cómo interactúa mi algoritmo con la sociedad en general, y como es actualmente, incluidas sus desigualdades estructurales?” Debemos examinar cuidadosamente la relación y la contribución de los sistemas de IA a las configuraciones existentes de injusticia política y social, no sea que estos sistemas continúen perpetuando esas mismas condiciones bajo el disfraz de neutralidad. Como han argumentado muchos teóricos críticos de la raza y filósofas feministas, las soluciones neutrales bien podrían asegurar resultados justos de una manera justa. sociedad, pero solo sirven para preservar el status quo en uno injusto.

¿Cuál es, entonces, no requiere equidad algorítmica IA, cuando asistimos al lugar de esta tecnología en la sociedad en general?

El primer paso, pero no el único, es la transparencia sobre las opciones que intervienen en el desarrollo de la IA y las responsabilidades que presentan tales opciones.

Puede haber algunos sistemas de aprendizaje automático que no deberían implementarse en primer lugar, sin importar cuánto podamos optimizarlos.

Algunos podrían inclinarse a absolver de responsabilidad moral a los desarrolladores e investigadores de IA a pesar de su experiencia en los riesgos potenciales de implementar estas tecnologías. Después de todo, se piensa, si siguieron las regulaciones y protocolos existentes y hicieron uso de la mejor información y conjuntos de datos disponibles, ¿cómo pueden ser considerados responsables de los errores y accidentes que no previeron? Desde este punto de vista, tales son los costos inevitables y necesarios del avance tecnológico: dolores de crecimiento que pronto olvidaremos a medida que la tecnología mejore con el tiempo.

Leer más

MIT- Las mascarillas reducen el riesgo de contagio entorno al 40%

 

MIT, hacer el tejido estirable, compresible y casi indestructible.

 

Written By
More from Maribel

Un nuevo método detecta nanovesículas con un mínimo de orina

Un nuevo método detecta nanovesículas con un mínimo de orina   Madrid,...
Ver publicación