El bot nazi de Microsoft - ¿es la IA una amenaza?
Página principal Tecnología, Microsoft, Inteligencia artificial

La inteligencia artificial puede comportarse de una forma que ni su creador esperaría.

Los seres humanos tienen una larga historia de miedo por los posibles efectos de las tecnologías. Hace mucho tiempo, a Platón le preocupaba que la escritura pudiera hacer daño a los recuerdos de las personas y pudiera “implantar el olvido en sus mentes”. Más recientemente, Frankenstein de Mary Shelley nos advirtió en contra de jugar a ser Dios.

Ahora que hay más inteligencias artificiales, cada vez se nos presentan más dilemas éticos. Esto se debe a que la IA puede (y muchas veces) se comporta de forma inesperada. Nuestros vehículos auto-conducidos tienen que enfrentarse a los mismos problemas que estudiamos en las clases de filosofía de la universidad. Y a veces, nuestros amables chatbots resultan ser nazis racistas.

Tay, el desastroso chatbot de Microsoft (NAS­DAQ: MSFT), supuestamente iba a ser un inteligente experimento de inteligencia artificial y aprendizaje automático. El robot hablaría como la generación del milenio, aprendiendo de la gente con la que interactuaría en Twitter y las aplicaciones de mensajería Kik y GroupMe. Pero tardó menos de 24 horas en cambiar el alegre saludo de "¡Los seres humanos son super guays!" por "Hitler tenía razón". Microsoft desconectó rápidamente el bot para realizar "algunos ajustes". Al ver lo que encontraron en su código, uno se pregunta si estas palabras de Robert Oppenheimer resonaron en los oídos de los ingenieros de Microsoft: "Ahora me he convertido en la muerte. El destructor de mundos".

Los cínicos podrían argumentar que el mal comportamiento de Tay es en realidad una prueba del éxito de Microsoft. Su objetivo era crear un robot que no pudiera ser distinguido de los usuarios de Twitter humanos, y los tweets racistas de Tay desafortunadamente suelen aparecer en la red social.

Es cierto que a veces los humanos estaban enseñando a Tay a odiar. Daniel Victor del The New York Times escribe: "Los usuarios le pidieron al bot que repitiera sus propias afirmaciones, y el bot así lo hizo".

Pero en otras ocasiones, Tay descubrió cómo ser ofensivo por su cuenta. Cuando un usuario le preguntó a Tay si el Holocausto sucedió, Tay respondió que "fue inventado 👏”.

Elspeth Reeve observó en New Republic que Tay también sabe dibujar:

Cuando Tay pidió una foto, alguien le envió una versión de la clásica foto de guerra de Vietnam de un preso recibiendo un disparo en la cabeza en la que Mark Wahlberg había sido introducido con Photoshop como el verdugo. Tay rodeó la cara de Wahlberg y del prisionero y respondió usando un lenguaje vulgar para imaginar a dos personas en una relación romántica.

Resulta evidente que nada de esto formaba parte del plan de Microsoft. Pero la cuestión más amplia que Tay plantea es por qué hacemos que los bots imiten a los miembros de la generación del milenio.

Estoy a favor de los avances tecnológicos. Pero esta es la pregunta que siempre debemos hacernos antes de adentrarnos en el terreno de los desconocido: ¿A quién beneficia? ¿Qué caras reconoce nuestro software? ¿Qué discurso puede comprender Siri?

Tal y como escribe Anthony Lydgate de The New Yorker, Tay fue construido "con un ojo puesto en los estadounidenses con edades comprendidas entre los dieciocho y los veinticuatro años”. Aunque Tay está fuera de línea, solo hay que echar un vistazo a su página web de Microsoft para darnos cuenta de que el bot está claramente dirigido a gente joven. Probablemente el objetivo de Tay es generar dinero.

Eso está bien: no tengo nada en contra del capitalismo. Sin embargo, vale la pena recordar que en una sociedad de capitalismo tardío, la respuesta a la pregunta ¿A quién beneficia? es que casi siempre son las personas con más poder las que consiguen los mayores beneficios. Tay fue diseñado para beneficiar a una empresa ganándose a los consumidores jóvenes, y los problemas a los que se ha enfrentado reflejan el vacío de ese propósito.

La otra cara de ¿A quién beneficia? es ¿A quién perjudica? En su corta vida, Tay fue utilizado como una herramienta para acosar y saltarse las reglas de las relaciones normales. La historia arroja luz sobre la falta de diversidad del mundo de la tecnología. Tal y como escribe Leigh Alexander en The Guardian, Tay es "otro ejemplo de por qué necesitamos más mujeres en el mundo de la tecnología y de cómo la industria está fracasando al escuchar a las que ya estamos dentro". Y continúa:

¿Cómo podría alguien pensar que crear una joven e invitar a extraños a interactuar con ella en los medios sociales haría que Tay fuera “inteligente"? ¿Por qué nadie en Microsoft supo desde un principio que esto sucedería - cuando todos los periodistas, activistas, desarrolladores de juegos e ingenieros que viven en línea todos los días y podrían haberlo predicho - están hablando de ello todo el tiempo?

Con toda probabilidad, seguiremos construyendo bots como Tay. La humanidad es conocida por no aprender de sus errores.

Pero si hay que construir robots, tal vez podamos al menos hacer que sean menos terribles. Hace poco escribí que "internet puede parecer un lugar terrible, no solo porque somos gente horrible, sino también porque hemos diseñado internet para ser un incendio de basura”. La misma lógica es aplicable a la IA. A menos que podamos encontrar una forma de diseñar de forma inclusiva y con empatía, nuestras creaciones no solo serán peligrosas - sino que también serán desagradables.

Lea también:
Por favor, describa el error
Cerrar