En el imaginario colectivo la idea es que un robot es justo, honesto y carente de defectos. En primera instancia deberíamos pensar en si es factible realmente darle cualidades morales a una programación. En segundo término hay que tener en cuenta una cosa esencial los robots son programados por personas, y las inteligencias artificiales aprenden de espacios creados por personas.

Esto me remonta a una discusión que suele darse muy a menudo a en mi hogar. Los que están a favor de que el planeta será controlado por una especie de Multivac, aquella supercomputadora de Asimov y que así será un mundo más justo. Y los que están a favor de que el humano, con sus errores, no deja de ser único e irreemplazable como director de su propia vida.

Hace poco escribí sobre la IA que se convirtió en racista y machista, puedes leer acá más sobre eso. Hoy en un paso más allá sobre el tema porque hay investigaciones que demuestran que estás inteligencias suelen ser racistas y sexistas en general. Por ejemplo así lo demuestra el artículo publicado en Science que hace referencia a que los modelos de aprendizaje. El estudio demuestra que a veces los sesgos se encuentran en forma directa a través de los programadores mismos, pero si no los adquiero en ese momento con seguridad los aprenderá cuando incorpore un idioma.

El problema concreto: los lenguajes contienen sesgos machistas y racistas, con lo cual al aprender sobre el mundo incorporan esos sesgos. Si bien en algunos lugares pueden estar súper inflados, como suele pasar en las redes sociales, siempre hay un dejo que sigue estando en la misma estructura de la sociedad.

Según palabras de los mismos investigadores: “La Inteligencia Artificial utiliza el aprendizaje automático por el cual incorpora datos mediante el descubrimiento de patrones en los datos existentes. Mostramos que aplicar el aprendizaje de máquina al lenguaje humano ordinario da lugar a sesgos semánticos semejantes a los humanos. Replicamos un espectro de sesgos conocidos, medidos por el Test de asociación implícita (IAT por sus siglas en inglés), utilizando un modelo de aprendizaje mecánico puramente estadístico, ampliamente utilizado, entrenado textos estándar de la web. Nuestros resultados indican que los textos contienen marcas recuperables y precisas de nuestros prejuicios históricos, ya sean moralmente neutrales en cuanto a los insectos o las flores, problemáticos en cuanto a raza o género, o incluso simplemente verídicos, reflejando la distribución del género en relación con carreras o nombres propios. Estos métodos son prometedores para identificar y abordar las fuentes de sesgo en la cultura, incluyendo la tecnología. También puede burlar de actitudes y creencias, por ejemplo, asociaciones entre nombres femeninos y nombres de familia o masculinos y carrera. Tales prejuicios no pueden expresarse explícitamente, pero pueden demostrar influencias en el comportamiento.”

En conclusión en cuanto queremos enseñarle a las Inteligencias Artificiales nuestra cultura es imposible dejarle de enseñar todos nuestros errores. Solo que además se las enseñamos a un ente sin moral, ni ética, ni sentimientos desde donde aprender estas cosas. Creo que el debate recién comienza.

Anuncios