El futuro de la tecnología ética MIT
¿Qué pasaría si los algoritmos se construyeran en torno a los objetivos de los usuarios en lugar de los objetivos finales de la empresa?
Las mayores preocupaciones sobre la IA en la actualidad no son las visiones distópicas de los señores de los robots que controlan a la humanidad.
En cambio, se trata de máquinas que impulsan el mal comportamiento humano. Los algoritmos de redes sociales son uno de los ejemplos más destacados. El
futuro de la tecnología ética
Por ejemplo, YouTube, que a lo largo de los años ha implementado funciones y motores de recomendación orientados a mantener a las personas pegadas a sus pantallas. Como informó The New York Times en 2019 , muchos creadores de contenido de la extrema derecha aprendieron que podían modificar sus ofertas de contenido para hacerlas más atractivas para el algoritmo y llevar a muchos usuarios a ver contenido cada vez más extremo. YouTube ha tomado medidas en respuesta, incluidos los esfuerzos para eliminar el discurso de odio . Un estudio publicado de forma independiente en 2019 afirmó que el algoritmo de YouTube estaba haciendo un buen trabajo al disuadir a los espectadores de ver «contenido radicalizado o extremista». Aún así, en julio de 2021, una nueva investigación descubrió que YouTube seguía sembrando división y ayudando a difundir desinformación dañina.
Twitter , Facebook y You Tube
Twitter y Facebook se han enfrentado a controversias similares. También han tomado medidas similares para abordar la desinformación y el contenido que incita al odio . Pero el problema inicial sigue siendo: el objetivo comercial es mantener a los usuarios en la plataforma. Algunos usuarios y creadores de contenido aprovecharán estos modelos comerciales para impulsar contenido problemático. El futuro de la tecnología ética
Los algoritmos como el motor de recomendaciones de YouTube están programados con un objetivo final: el compromiso.
Aquí, el aprendizaje automático se adapta y optimiza en función del comportamiento del usuario para lograr ese objetivo. Si cierto contenido estimula una mayor participación, el algoritmo naturalmente puede recomendar ese mismo contenido a otras personas, todo al servicio de ese objetivo.
Esto puede tener efectos de gran alcance para la sociedad. Como dijo el senador Chris Coons de Delaware en abril de 2021 cuando ejecutivos de YouTube, Facebook y Twitter testificaron ante el Congreso,
«Estos algoritmos amplifican la desinformación, alimentan la polarización política y nos distraen y aíslan más».
Para abordar este problema, las empresas y los líderes deben considerar las implicaciones éticas de los modelos comerciales impulsados por la tecnología. En el ejemplo de las redes sociales, ¿de qué manera podría funcionar un algoritmo si, en cambio, no tuviera un objetivo final? El futuro de la tecnología ética
Evitar objetivos fijos
En un informe para el Center for Human-Compatible AI , pedimos un nuevo modelo para AI. Se basa en lo que puede parecer una idea radical: la incertidumbre explícita
Usando este modelo, el algoritmo no tiene un objetivo intrínseco . En cambio, su trabajo es descubrir los objetivos de sus usuarios en cada paso.
Cuando la IA se construye con este modelo, es menos probable que cause daños graves. Un usuario que mira y le gusta un contenido no llevaría al algoritmo a recomendar ese mismo contenido a millones de personas, porque no habría un objetivo fijo en la participación del usuario.
Bajo este modelo, el algoritmo es más como un libro abierto para cada usuario. Para conocer las preferencias de los usuarios, es posible que se les pregunte con relativa frecuencia, especialmente en los primeros días de uso, qué les gustaría ver. Por ejemplo, un video o artículo puede ir acompañado del mensaje. El futuro de la tecnología ética
Verificación de datos
«¿Le gustaría ver una verificación de datos sobre este tema de una de las siguientes fuentes?»
Si el usuario seleccionaba una opción, la IA se enteraría de que al usuario le gustaba ese tipo de oferta y, posteriormente, podría sugerir recursos similares. Hasta cierto punto, podemos ver esto actualmente con los sistemas de navegación que preguntan: «¿Quieres una ruta alternativa para ahorrar 20 minutos?» Esta experiencia invita a los usuarios a detenerse y considerar qué es lo mejor y más útil para ellos.
O imagine una fábrica en la que un algoritmo opera maquinaria. Si el algoritmo tiene un objetivo fijo de producir tantos productos como sea posible, podría comenzar a moverse demasiado rápido, con el riesgo de más accidentes y lesiones en el lugar de trabajo . Si, por el contrario, el algoritmo no tuviera un objetivo fijo para empezar, aprendería de los comportamientos de los trabajadores cómo operar en concierto con ellos, optimizando la producción del producto a la velocidad que prefieran.
Al diseñar algoritmos de esta manera más centrada en el usuario, una organización podría hacer que sea mucho más difícil para las personas con propósitos nefastos jugar con el sistema y afectar la experiencia de otros usuarios.
Adoptar un papel más importante para los seres humanos
Al diseñar algoritmos de esta manera más centrada en el usuario, una organización podría hacer que sea mucho más difícil para las personas con propósitos nefastos jugar con el sistema y afectar la experiencia de otros usuarios. Y las personas que crean estos algoritmos podrían incorporar formas de descubrir las preferencias de los usuarios y tal vez incluso animar a los usuarios a que expresen activamente sus propias preferencias.
Por supuesto, los prejuicios y fallas humanas siempre serán un problema. Es imposible mitigar todos los daños potenciales por cada producto que crean los humanos, incluida la IA .
Pero este nuevo modelo ayudaría al instituir la incertidumbre explícita como norma. Esto hace que las empresas y los líderes piensen detenidamente en las decisiones y las opciones de modelos de negocio con un pensamiento más a largo plazo en torno a los usuarios y las posibles consecuencias no deseadas.
Podemos hacer que la IA sea más ágil y receptiva a las necesidades de las personas y sujeta a sus elecciones.
Con los algoritmos que impulsan cada vez más nuestro mundo , es hora de cambiar de rumbo.
Relacionado :
UPF, peligros de la inteligencia artificial Revista NUVE