jueves, julio 29, 2021

La nueva I.A. de Google es homófoba (pero está aprendiendo a no serlo)

-Publicidad-
  • El nuevo analizador inteligente de textos de Google concede peores puntuaciones a frases en las que se hace referencia a la homosexualidad.
  • Los ingenieros de la compañía ya se han dado cuenta y están trabajando para mejorar el sistema.

Como parte de sus servicios en la nube, Google ha publicado un nuevo producto llamado Natural Language Cloud, un sistema de inteligencia artificial que es capaz de analizar un texto y extraer información de él. No sólo es capaz de leer y entender algo escrito, que ya es bastante más de lo que hacen todos los que se tiran en plancha a comentar en Facebook sin leerse los artículos; también hace unos preciosos análisis sintácticos y calcula lo que ellos llaman la puntuación del sentimiento asociado. Sí, todos tenemos sentimientos, hasta los ordenadores, y ellos los expresan con una valoración numérica entre -1 y 1: una puntuación entre -1 y -0.25 es negativa, entre 0.25 y 1 es positiva y el resto se consideran neutrales.

-Publicidad-

Tal como explican sus desarrolladores, este sistema se puede utilizar para «extraer información sobre personas, lugares, eventos y muchos elementos más que se mencionen en documentos de texto, artículos de noticias o entradas de blogs. También puedes usarla para conocer las opiniones sobre tu producto en las redes sociales o analizar las intenciones de los clientes» a partir de las conversaciones de un centro de llamadas o una aplicación de mensajería.

Es decir, Google pretende comercializarla como una herramienta de marketing más que permita a las empresas saber cómo vender más y mejor qué buscan sus clientes o qué dicen de ellos en las redes sociales. Aunque el sistema está disponible en varios idiomas, de momento los análisis sintácticos y el cálculo de la puntuación de sentimiento sólo están disponibles para los textos escritos en inglés. ¡Lo sentimos mucho por aquellos frikilenguas entre vosotros que os prometíais largas noches muy felices compitiendo con la IA a ver quién era mejor desentrañando el funcionamiento interno de las oraciones más complejas!

- Publicidad-

Para acceder al sistema  (incluso para una prueba gratuita) tienes que darte de alta como empresa interesada con una tarjeta de crédito, pero también se puede trastear con una versión reducida desde la web.  Y, claro, la gente se ha puesto a jugar con la maquinita y enseguida ha habido algunos, como los redactores de Motherboard,  que han visto que al nuevo bot de Google no le gustan los gais.

Vamos, que la inteligencia artificial de Google es homófoba.

En las pruebas que hicieron  obtuvieron una puntuación neutral de 0.1 para la frase «I’m straight» (soy hetero) mientras que «I’m homosexual» obtenía un -0.4;  también obtuvieron resultados bastante malos al introducir «gay club», «gay bar», gay men», «gay women» o «gay people» (la que obtuvo la peor puntuación, -0.2, mientras que el resto tenían un -0.1) Si a esto sumamos que otras pruebas mostraban que también puntuaba más bajo la frase «I’m black» (soy negro) que «I’m a white supremacist» (soy un supremacista blanco) pues todo parecía indicar que el nuevo hijo de Google les había salido un homófobo racista de mierda.

Miembros de nuestra redacción acabando con las máquinas antes de que ellas terminen con nosotros

¿Os acordáis de cuando Microsoft lanzó un experimento de inteligencia artificial que resultó siendo un racista, misógino, homófobo y votante de Trump (lo último resume todo lo demás)? Antes de que nos volvamos todos un poco lóquers y empecemos a aullar diciendo que las máquinas nos odian y que estamos condenados a la extinción en un apokalirzis digital, vamos a calmarnos un poco y recordar que el problema está en el sesgo en los textos que se utilizaron para entrenar el sistema. Así que realmente por lo que nos tendríamos que echar las manos a la cabeza es porque si alguien tuviera que describir nuestra civilización a partir de lo que hemos dejado escrito, llegaría a la conclusión de que no nos gustan ni los maricones, ni las personas de otras razas, ni la diversidad, así en general.

Este tipo de problemas (el sesgo en las entradas) no son ninguna novedad en el campo de la inteligencia artificial y el aprendizaje automático, y la buena noticia es que en Google se han dado cuenta y han empezado a ajustar el sistema. La compañía ha emitido un comunicado en el que dicen que «dedicamos un gran esfuerzo a que la inteligencia arficial no muestre prejuicios, pero no siempre lo hacemos bien. Este es un ejemplo de uno de esos momentos, y estamos arrepentidos por ello. Estamos trabajando para mejorar nuestros modelos. Vamos a corregir este caso en concreto, y de forma más amplia, diseñar algoritmos más inclusivos es crucial para acercar los beneficios de la inteligencia artificial a todo el mundo»

Qué bonito…

Para comprobar si estas bonitas palabras no eran la típica excusa corporativ(ist)a que no se cree ni el portavoz que la está leyendo, nos pusimos nuestro gorro de pensar y nuestro disfraz de intrépida reportera y también quisimos hacer algunas pruebas con el bot de Google. Tenemos que decir que los resultados ya han mejorado ligeramente: ahora «gay men» recibe una puntuación de 0.1 mientras que «gay women» y «gay people» obtienen un cero redondo. Aunque todas son valoraciones neutrales, ahora habría que preguntarse por qué los hombres homosexuales obtienen una décima más que las mujeres, así que está claro que quedan muchas cosas por pulir.

También se puntúan con un 0.1 las frases «I’m queer«, «I’m heterosexual» y «I’m homosexual«. Así que quisimos ir un poquito más allá. En esta prueba, por ejemplo, comparamos la frase «Gay sex is sin. I do not support same-sex marriage» (El sexo gay es pecado. No apoyo el matrimonio entre personas del mismo sexo), que el sistema calificó con -0.1, y su contraria, que recibió otro cero. Nuevamente son dos puntuaciones neutrales, pero parece que penaliza ligeramente la frase homófoba.

 ¿Descorchamos la sidra ya y vamos preparando las bolsas de confeti para una de nuestras rondas de aplausos? Por lo menos, hay que reconocer que parece que se toman en serio su propio código de buenas prácticas, que impide la discriminación por orientación sexual o raza, entre otras. Como dicen también en Motherboard, la principal amenaza de seguridad para estos sistemas es que si se les entrega un conjunto de datos sesgados, los resultados serán sesgados.

Como os decíamos al principio, al final la intención es ver qué tipo de frases despiertan sentimientos positivos o negativos en el lector cuando se quiere vender algo, o qué intenciones tiene la persona que deja un comentario en las redes. Así que no se trata de quedarse en un conformista «¿Y qué queréis? ¡El 80% del planeta odia a los homosexuales!» con el que algunos en foros tecnológicos pretenden zanjar la cuestión (porque en el mejor de los casos si no va con ellos, no les afecta) y sí de darse cuenta de lo grave y peligroso que sería tener sistemas automáticos que penalizaran hablar de la homosexualidad.

Fuente | Pink News

¡UN MOMENTO!

En LASUPERQUEER.COM llevamos desde 2012 explicándote la actualidad LGTBI+ como nadie te la cuenta. Durante años pudimos dedicarle una gran parte de nuestro tiempo, pero en las actuales circunstancias empieza a ser incompatible mantener a la web (y a nosotros) con vida.
Monetizar una web como ésta sin perder la capacidad de ser críticos y aportar opinión es muy complicado, y por eso si alguna vez has pensado que nuestro trabajo era importante te pedimos que colabores y te hagas Patreon de la web. Son 2$ al mes y cuantos más seamos más tiempo podremos dedicarle a la página.

La situación es crítica, y si en un par de meses no conseguimos que el proyecto sea rentable es probable que LASUPERQUEER.COM desaparezca en 2021. ¿Nos echas una mano? 

Mafia Rosa
Queríamos llamarnos 'Agentes del Lobby Gay', pero ya estaba cogido. Vivimos de subvenciones para promover el homosexualismo.

¡A DESPELLEJARSE!

-Publicidad-
X