Call of Duty perfecciona su herramienta contra la violencia verbal y ya sancionó a 2 millones de usuarios

Desde Call of Duty impulsan una IA para combatir la violencia verbal, y si bien más de 2 millones de jugadores fueron sancionados, aún falta más. Enterate de todo ¡Acá!

Una moneda corriente en los últimos años de vida de varios videojuegos fue tratar de eliminar (o al menos reducir) la toxicidad entre sus jugadores. Muchas veces el toparse con jugadores que infringen normas, hacen trampas o tienen una mala conducta, es algo normal cuando vas a un juego popular. Uno de estos casos es el de la franquicia Call Of Duty, quienes trabajan arduamente para reducir la violencia verbal de sus players. Al menos hasta ahora, hay resultados.

Esto comenzó el año pasado, cuando Activision anunció que implementaría una herramienta de moderación de voz en tiempo real para sus títulos más nuevos. El funcionamiento de esta herramienta se centra en el reconocimiento de lenguaje verbal agresivo, discriminatorio, acoso y diferentes formas de violencia verbal. En un principio, esta herramienta solo reconocía el inglés como único lenguaje, pero con el lanzamiento de Modern Warfare III, la IA se actualizó para funcionar con los idiomas español y portugués.

Respecto a los resultados de esta herramienta, en una nueva publicación en el blog de Call of Duty, nos informan que se vio una reducción del 8% de los infractores reincidentes desde el lanzamiento de la herramienta. Además, la sanción es grave, como explican en el comunicado: “Cualquier persona que se detecte que ha infringido el Código de conducta recibirá acciones como silenciar globalmente el chat de voz y texto y/o restringir otras funciones sociales. Los infractores reincidentes se restringen aún más, silenciándolos de la comunicación en los canales de voz y texto dentro de la sede de Call of Duty.”

De todas formas, no todo es positivo, ya que desde el posteo también se informa y se anima a la comunidad sobre los informes en contra de estas actitudes: ” solo 1 de cada 5 usuarios informó del comportamiento, lo que demuestra una tendencia desafortunada de que los jugadores a menudo no informan de los casos en el juego a nuestro equipo de comportamiento disruptivo“. Si bien el sistema puede detectar y ayuda a combatir la violencia verbal, también es importante que los propios jugadores comiencen a reportar a quienes mantienen mala conducta.

Estamos en un momento donde la toxicidad crece cada vez más, y hay que combatirla. Para eso, desde Call of Duty aseguran que en el futuro mejorarán la herramienta y agregarán más idiomas. El cambio comienza con nosotros.

Posteos relacionados

EA Sports presentó las mejoras en circuitos y pilotos que tendrá F1 24

Magic: The Gathering: el desorbitante precio por el que se vendió una carta – ¿Cuánto fue?

Remedy, devs de Alan Wake, anunciaron la cancelación de su videojuego multijugador coop