Activision está implementando una tecnología basada en inteligencia artificial para moderar las partidas de 'Call of Duty' y abordar el problema de usuarios tóxicos en el chat de voz. Esta herramienta, llamada ToxMod, utiliza la IA para salvaguardar a los jugadores de "comportamientos perturbadores". Cuando se detectan este tipo de acciones, la aplicación emite reportes de manera automatizada.
Esta herramienta permitirá a Activision "identificar y sancionar las conductas inapropiadas que no han sido denunciadas". Actualmente, esta tecnología ya está en funcionamiento en los servidores de Norteamérica de 'Call of Duty: Modern Warfare 2' y 'Warzone 2.0'. Para el resto del mundo (excepto Asia), se implementará a partir del 10 de noviembre con el lanzamiento de 'Call of Duty: Modern Warfare 3'.
La funcionalidad de ToxMod en el chat de voz de 'Call of Duty' se fundamenta en la detección de "palabras clave específicas" para identificar a usuarios tóxicos y proceder a denunciarlos. Esta característica se demuestra en la sección de preguntas y respuestas en la página de 'CoD', donde también se afirma que se adhiere rigurosamente al código de conducta establecido por Activision para sus juegos de disparos en primera persona (FPS). En este sentido, los jugadores que presenten comportamientos problemáticos serán sancionados.
La herramienta también filtra conversaciones que podrían considerarse "charlas basura" o bromas amistosas que compartas con tus compañeros de equipo, sin que tengan la intención de ser ofensivas o tóxicas durante la partida. Por lo tanto, no debes preocuparte …