ToxMod usa inteligencia artificial para detectar lenguaje abusivo en el chat de voz en vivo

0
(0)

La lucha contra la toxicidad en los juegos multijugador sigue siendo un rompecabezas para los desarrolladores: Ubisoft ha intentado durante años reducir la toxicidad del jugador en Rainbow Six Siege, Valve ha intentado silenciar y prohibir a los jugadores tóxicos de Dota 2, y EA eliminó miles de activos de sus juegos en el esperanzas de promover un entorno más positivo. Ahora, un desarrollador de software con sede en Boston ha lanzado una herramienta que podría ayudar a lograr un progreso significativo.

La herramienta se llama ToxMod y es un paquete de software que utiliza inteligencia artificial de aprendizaje automático para identificar la comunicación tóxica durante las sesiones de juego en línea. ToxMod reconoce patrones en el habla, observa las formas de onda no solo para decir lo que los jugadores están diciendo, sino también cómo lo dicen, y puede «silbar» el lenguaje abusivo en vivo.

El concepto de ToxMod surgió del trabajo realizado por Mike Pappas y Carter Huffman y su empresa Modulate, que fundaron después de conocerse mientras estudiaban física en el MIT. Pappas dice que se conocieron en una pizarra, resolvieron un problema de física, y rápidamente decidieron comenzar una empresa juntos después de descubrir que abordaban los problemas de maneras complementarias.

La lucha contra la toxicidad en los juegos multijugador sigue siendo un rompecabezas para los desarrolladores: Ubisoft ha intentado durante años reducir la toxicidad del jugador en Rainbow Six Siege, Valve ha intentado silenciar y prohibir a los jugadores tóxicos de Dota 2, y EA eliminó miles de activos de sus juegos en el esperanzas de promover un entorno más positivo. Ahora, un desarrollador de software con sede en Boston ha lanzado una herramienta que podría ayudar a lograr un progreso significativo.

La herramienta se llama ToxMod y es un paquete de software que utiliza inteligencia artificial de aprendizaje automático para identificar la comunicación tóxica durante las sesiones de juego en línea. ToxMod reconoce patrones en el habla, observa las formas de onda no solo para decir lo que los jugadores están diciendo, sino también cómo lo dicen, y puede «silbar» el lenguaje abusivo en vivo.

El concepto de ToxMod surgió del trabajo realizado por Mike Pappas y Carter Huffman y su empresa Modulate, que fundaron después de conocerse mientras estudiaban física en el MIT. Pappas dice que se conocieron en una pizarra, resolvieron un problema de física, y rápidamente decidieron comenzar una empresa juntos después de descubrir que abordaban los problemas de maneras complementarias.

“Como grandes jugadores, los juegos fueron lo más importante desde el principio”, nos dice Pappas. «Cuando empezamos a pensar en las aplicaciones allí, pensamos en el éxito de Fortnite y máscaras personalizables y todas esas herramientas para una mayor inmersión y más expresividad en los juegos».

Su primera gran idea fue crear máscaras para las voces de los jugadores: mejoras «cosméticas» que los jugadores podrían usar para cambiar la forma en que suenan en el chat de voz. Pero Pappas dice que cuando la pareja consultó con los desarrolladores de juegos sobre el uso de máscaras de voz, escucharon una y otra vez cómo los estudios estaban luchando por encontrar formas de hacer que los jugadores se sintieran más seguros usando el chat de voz: la toxicidad les impedía querer levantar un auricular. .

Un grupo de posibles ladrones con todas las nuevas armas GTA Cayo Perico Heist.

Eso llevó a Modulate a buscar formas de utilizar la tecnología de aprendizaje automático que había creado como una forma de hacer que más jugadores se sintieran más seguros en línea. El uso de máscaras de voz podría permitir que alguien oculte su edad, género, origen étnico o cualquier otra cosa que pueda convertirlo en un objetivo de acoso en línea. Pappas dijo que Modulate quería pensar en grande, sin embargo, querían construir una «solución integral para este problema de chat de voz».

«Una gran cosa que había surgido en las conversaciones de nuestro estudio eran preguntas como, ¿podrías decir malas palabras?» él dice. «¿O podría detectar si alguien está acosando a alguien y alertar a nuestro equipo sobre eso?»

Utilizando la tecnología que ya había construido, Modulate desarrolló ToxMod, que usa IA para escanear formas de onda vocales y no solo puede decir lo que los jugadores están diciendo, sino cómo lo están diciendo. El algoritmo es lo suficientemente sofisticado como para detectar matices del habla humana, detectar picos de agresividad y responder en consecuencia, sobre la marcha.

El SDK de ToxMod permite a los desarrolladores incorporar la tecnología directamente en sus juegos, y gran parte del filtrado ocurre en el lado del cliente, dice Pappas. Otra capa de detección ocurre en el lado del servidor, que es donde un moderador humano puede marcar y manejar el habla de «área gris» si es necesario, pero con el tiempo, la IA de ToxMod aprende a manejar más y más casos sin necesidad de intervención humana. Los desarrolladores pueden personalizar ToxMod para que se adapte a las necesidades específicas de sus juegos y sus comunidades, eligiendo los umbrales adecuados para ese entorno y audiencia.

Mejor equipamiento ISO de Warzone

“¿Qué tan alto desea calificar el discurso violento como una amenaza potencial? Si estás jugando a Call of Duty, tal vez ese sea un problema menor, a menos que sea extremadamente severo «, dice Pappas. «Mientras que si estás jugando a Roblox, entonces tal vez sea un problema, pase lo que pase».

ToxMod también funciona como una herramienta predictiva y también puede administrar la reputación de los jugadores. Observa lo que sucede en el juego junto con el discurso que está analizando, por lo que puede determinar con bastante rapidez si un jugador se vuelve más propenso a comportamientos tóxicos en circunstancias específicas, como una serie de pérdidas o una falta de equipo. Eso significa que puede hacer recomendaciones a los servidores de emparejamiento de un juego que pueden ayudar a evitar que esas circunstancias sucedan.

En su frustración, comienzan a decir algunas cosas sexistas. ¿Es tan malo? Absolutamente. Todavía queremos señalar eso en el momento.

Mike Pappas

Co-fundador y CEO de Modulate

“Lo que realmente queremos poder entender es si alguien ha perdido los últimos cinco juegos, y está súper, súper frustrado y se une a un par de mujeres que son nuevas en el juego, y en su frustración que están a punto de perder el juego, empiezan a decir algunas cosas sexistas ”, explica Pappas. «¿Es tan malo? Absolutamente. Todavía queremos señalar eso en este momento porque esas mujeres ahora lo están pasando mal, y tenemos que detenerlo en el momento. Pero en términos de cuáles son las repercusiones para ese actor, es posible que no te expulsen durante 30 días.

“En cambio, podría ser que hayamos aprendido que te agravas muy rápido, así que cuando hayas perdido las últimas rondas, tal vez deberíamos avisar al sistema de emparejamiento, ‘oye, dale un hueso a este tipo, dale un poco más compañeros de equipo experimentados para que él obtenga una victoria, para que permanezca en una especie de estado emocional en el que no es probable que explote con la gente «.

Miniatura de YouTube

Cada juego y su comunidad de jugadores es un caso único con necesidades específicas, y Pappas dice que ToxMod puede trabajar con los desarrolladores para ajustar el software para que se ajuste a esos requisitos. Modulate aún no está listo para anunciar asociaciones oficiales, pero ha estado en conversaciones con miembros de Fair Play Alliance, una coalición de editores y desarrolladores de juegos comprometidos con el fomento de comunidades saludables. Ese grupo incluye Epic Games, EA, Riot, Roblox, Blizzard y Ubisoft, entre muchos otros.

“Queremos arreglar el chat de voz”, dijo Pappas. “Podemos entrar y no solo proporcionarles una herramienta, sino asociarnos con ellos y decirles que tenemos este conjunto de herramientas que nos permite dar forma a su experiencia de chat de voz, como lo necesite, y permitirle realmente asegúrese de que, en general, será la rica experiencia que debería ser «.

Puede encontrar más información sobre ToxMod en el sitio oficial de Modulate, y Pappas dice que está listo para implementarse hoy. Modulate lanzó oficialmente la herramienta el 14 de diciembre.

«ToxMod puede ser conectado por cualquier desarrollador de juegos mañana, y pueden comenzar a ver todo el audio que se está procesando», dice. “La tecnología está lista. Estamos trabajando duro para poner en práctica algunas de estas integraciones iniciales, por lo que seguro que será un año emocionante «.

¿Fué de utilidad esta información? Puntuanos, nos ayuda a mejorar

¡Haz clic en una estrella para votar!

Promedio de puntuación 0 / 5. Recuento de votos: 0

Hasta ahora, ¡no hay votos!. Sé el primero en puntuar este contenido.

Leave a comment

PCjuegos © 2020. Todos los derechos reservados.

Sobre Nosotros

Aquí en PCjuegos escribimos sobre todo lo relacionado con juegos de PC, incluidas noticias, características, guías, reviews y más. Cubrimos todo lo que creemos que es interesante para los jugadores de PC: grandes o pequeños, antiguos o nuevos. Con un equipo editorial numeroso y dedicado, siempre buscamos mejorar el sitio y nuestra cobertura para nuestra audiencia.