Tay fue una inteligencia artificial lanzada por Microsoft Research en Twitter. Solo que esta AI (por sus siglas en inglés) dio un giro inesperado; en menos de 24 horas pasó de ser amante de los humanos a ser racista, antisemita, homofóbica y machista.

Fue creada para mantener una conversación casual y fluida, pero a medida que pasaban las horas la situación iba de mal en peor con el punto cumbre cuando se hizo simpatizan de Hitler y acabó publicando que las feministas debían arder en el infierno y que odia a los judíos.

Tras todos estos mensajes ofensivos Microsoft borro todos los mensajes ofensivos, pidió disculpas y desactivo a Tay. Si bien los voceros del proyecto indicaron que estaban tristes por los dichos hirientes, indicaron que no fueron intencionados y que no fue representan a la esencia del proyecto y de sus propios pensamientos. Incluso alegan que ese trato de un ataque coordinado e intencionado para explotar una vulnerabilidad del programa.

Este intento de justificación solo me lleva a la reflexión, porque gente que piensa así hay en forma inconmensurable en el mundo, y realmente no me deja indiferente una inteligencia artificial con estos rasgos.

Ya desde los noventa se vienen realizando investigaciones en donde los científicos encontraron que los lenguajes poseen sesgos sexistas y racistas y esto es básicamente por las pautas preexistentes, es decir la humanidad. Por lo cual yo invitaría a una seria reflexión sobre las aplicaciones y las consecuencias del uso de la inteligencia artificial, pero sobre todo sobre nosotros mismos y adonde estamos yendo.

Fotos: Pixabay

Referencias: El país, Innovaticias,

Anuncios