Gli appassionati di giochi online sono ormai a conoscenza del frequente problema di comportamenti tossici che caratterizza l’interazione tra giocatori. Troppo spesso, infatti, si verificano insulti e volgarità che creano disagio negli altri partecipanti, talvolta spingendoli addirittura ad abbandonare il gioco.
Da anni questo problema persiste senza una soluzione efficace e il celebre videogioco Call of Duty rappresenta un esempio lampante di questa criticità. Tuttavia, Activision Blizzard è pronta a sperimentare una nuova risposta a questo fenomeno: l’intelligenza artificiale.
L’azienda ha sviluppato uno strumento chiamato ToxMod, prodotto da Modulate, una società autodefinitasi leader nella lotta contro i comportamenti tossici online. ToxMod è un algoritmo in grado di monitorare le conversazioni tra i giocatori, individuando quelle che possono risultare problematiche e segnalandole per un intervento manuale.
È importante sottolineare che, almeno per il momento, non si tratta di un “bot” in grado di bannare automaticamente i giocatori che si lasciano trasportare da linguaggio offensivo; tuttavia, è plausibile che in futuro gli algoritmi stessi saranno in grado di occuparsi di tutto.
Activision Blizzard è consapevole che questa missione è particolarmente ardua, come evidenziato in un rapporto di progresso sul tema della tossicità nel gioco Call of Duty: Modern Warfare Warzone. Infatti, solitamente un primo avvertimento non risulta particolarmente efficace nel prevenire atteggiamenti che vanno dalla semplice volgarità fino all’abuso verbale e al vero e proprio bullismo.
Attualmente, solo il 20% dei giocatori richiamati riesce a smettere di violare le regole, mentre per gli altri otto su dieci è prevista una recidiva. Per questi ultimi sono previste sanzioni più gravi, come il ban o il blocco temporaneo dell’account, sebbene non sia chiaro quanto questi “castighi” risultino effettivamente utili.
Intanto, coloro che desiderano giocare senza dover sopportare la presenza di questi “giocatori cattivi” non possono ancora contare su risposte concrete. Sarà dunque ToxMod di aiuto? Probabilmente lo sarà solo in parte: i moderatori riceveranno un gran numero di segnalazioni automatiche e si prevede un aumento delle sanzioni.
Resta comunque il fatto che, anche se si adottano questi provvedimenti, i giocatori tossici potrebbero tornare nel gioco dopo il blocco temporaneo dell’account o con un nuovo account. Non esiste un algoritmo in grado di risolvere definitivamente il problema della tossicità nella comunità dei gamer, poiché si tratta di una questione culturale, non tecnologica.
Quando il nuovo capitolo di Call of Duty, Modern Warfare III, sarà rilasciato il 10 novembre, ToxMod sarà distribuito a tutti i giocatori del mondo, fatta eccezione per quelli dell’Asia.
Giocatori tossici nella chat di CoD? Ci penserà l’IA
Il testo riporta che giocare online con altre persone comporta un problema di tossicità, con giocatori che insultano e si comportano in modo volgare, facendo sentire a disagio gli altri e spingendoli a smettere di giocare. Non esiste una vera soluzione a questo problema, ma l’azienda Activision Blizzard ha sviluppato un’intelligenza artificiale chiamata ToxMod per affrontare la questione. ToxMod è un algoritmo che ascolta le conversazioni tra i giocatori, individua quelle problematiche e le segnala per un intervento manuale. Non è previsto che il bot banni automaticamente i giocatori, ma potrebbe essere una possibilità nel lungo termine. Tuttavia, il problema è difficile da risolvere poiché molti giocatori non smettono di infrangere le regole nonostante gli avvertimenti, e le sanzioni più gravi come il ban non sembrano essere molto efficaci. Non esiste un algoritmo in grado di risolvere completamente il problema della tossicità, poiché è un problema culturale. All’uscita di Call of Duty: Modern Warfare III, ToxMod verrà distribuito ai giocatori di tutto il mondo, tranne l’Asia.