Pensando na melhor experiência dos usuários e em erradicar uma visão tóxica sobre comportamentos de usuários em games online, a Intel e a empresa Spirit AI desenvolveram uma ferramenta que usa inteligência artificial para denunciar comportamentos tóxicos em transmissão ao vivo e chat de games.
A ferramenta, chamada de “Ally”, já é usada por empresas de jogos para detectar assédio buscando por palavrões, por exemplo.
Ela é limitada aos textos, mas a ideia é que seja inteiramente ampliada pela Intel para a fala humana. Além disso, ela considera que uma conversa possa ser um bate-papo casual entre amigos, impossibilitando mal-entendidos.
Grandes empresas como Twitch, Blizzard, Riot Games, Epic Games (desenvolvedora do jogo ‘Fortnite’) e Microsoft também já declararam sua guerra anti-toxicidade no universo gamer.
Junto à Intel, elas integram uma aliança de mais de 30 empresas chamada “Fair Play Alliance”, que visa desenvolver pesquisas e encorajar o ambiente saudável dentro dos jogos.