En la conferencia Google for México, la compañía lanzó la campaña #NoMeHablesAsí, con el objetivo de frenar la violencia hacía su asistente de voz y no validar las conductas violentas, que pueden replicarse de persona a persona en un escenario real.

En la charla se dio a conocer que en todo el país, que se encuentra entre las 10 naciones que más consumen los productos de Google, alrededor del 2% de las consultas al asistente se incluyen palabras abusivas u ofensivas.

Por esto, con la nueva actualización, cada vez que el usuario realice un comentario violento, como  o “Eres una tonta”, la inteligencia artificial responderá con un No me hables así, el respeto es fundamental en todas las relaciones”. 

#NoMeHablesAsí Asistente de Google no permitirá comentarios violentos ni abusivos
#NoMeHablesAsí Asistente de Google no permitirá comentarios violentos ni abusivos

Foto: iStock

Google también compartió que la voz femenina del asistente es 27% más agredida con que la masculina, y por su parte, la voz del hombre recibe palabras homofóbicas.

“Hasta ahora las respuestas del asistente en estos casos tenían un tono amigable, pero caemos en cuenta que eso no es suficiente. Tenemos la responsabilidad de ser firmes para condenar cualquier acción violenta”, comentó Nicolas Mamboury, director de Marketing de Google México. 

El orador recalcó que ciertas palabras pueden tener un contexto local “muy particular” y, aunque sus desarrollos en comprensión de lenguaje en Inteligencia Artificial han avanzado mucho, aún sigue siendo complicado detectarlas de manera automática.

Sin embargo, el equipo de Google ha trabajado muy duro y ya no permitirá que la violencia comience a desarrollarse contra su interfaz, para que después escale a otros ámbitos.

Y tú, ¿qué es lo peor que le has pedido al asistente de Google?

#NoMeHablesAsí Asistente de Google no permitirá comentarios violentos ni abusivos
#NoMeHablesAsí Asistente de Google no permitirá comentarios violentos ni abusivos

Foto: iStock

Google News

TEMAS RELACIONADOS