Inteligência artificial ajuda a combater bullying e racismo em partidas de videogames
A ferramenta, chamada de "Ally", já é usada por empresas de jogos para detectar assédio buscando por palavrões, por exemplo
Um dos principais motivos pelos quais os videogames ainda não são amplamente aceitos por todos é o estereótipo de que eles podem ser agressivos para muitos internautas -e, especialmente, para as minorias. De fato, os jogadores precisam lidar com uma toxicidade, como explicam os profissionais da área, que vão de xingamentos até o racismo, machismo e a homofobia dentro do ambiente online.
Pensando na melhor experiência dos usuários e em erradicar essa visão sobre a comunidade gamer, a Intel e a empresa Spirit AI desenvolveram uma ferramenta que usa inteligência artificial para denunciar comportamentos tóxicos em transmissão ao vivo e chat de games.
“O assédio e bullying se tornam uma barreira para muitas pessoas, independentemente se você é a vítima ou simplesmente um observador que vê como isso afeta outras pessoas”, disse a especialista de desenvolvimento de negócios da Intel, Brittany Williams, em entrevista ao F5.
Para ela, a toxicidade e a falta de representatividade de minorias nos games são os dois principais problemas dentro desta comunidade. “A tecnologia é um ótimo caminho para ajudar a monitorar esse comportamento tóxico.”
Williams destaca a parceria com a Spirit AI no desenvolvimento de um conceito chamado ‘machine learning’ [aprendizado automático, em tradução livre] e inteligência artificial para detectar esse comportamento. “É uma ferramenta de monitoramento, e se você pode monitorar esses canais, você pode torná-los mais seguros para todos também.’
A ferramenta, chamada de “Ally”, já é usada por empresas de jogos para detectar assédio buscando por palavrões, por exemplo. Ela é limitada aos textos, mas a ideia é que seja inteiramente ampliada pela Intel para a fala humana. Além disso, ela considera que uma conversa possa ser um bate-papo casual entre amigos, impossibilitando mal-entendidos.
“Tentamos filtrar casos de bullying e detectar o que está acontecendo. Não queremos eliminar um jogador que falou um palavrão durante o jogo, mas queremos um jogo mais limpo, porque há crianças no game. Então, classificamos o que pode ser ofensivo para alguém”, diz Hernan Quijano, gerente de vendas de gaming na Intel Corporation. “Eu jogo desde novo e, às vezes, você encontra algo que não é agradável. Agora estamos tentando, com a tecnologia, criar espaços melhores.”
Grandes empresas como Twitch, Blizzard, Riot Games, Epic Games (desenvolvedora do jogo ‘Fortnite’) e Microsoft também já declararam sua guerra anti-toxicidade no universo gamer. Junto à Intel, elas integram uma aliança de mais de 30 empresas chamada “Fair Play Alliance”, que visa desenvolver pesquisas e encorajar o ambiente saudável dentro dos jogos.
“Acho que as pessoas são humanas, no final do dia. E pode ser mais confortável se esconder atrás do escudo de um computador e apenas digitar seus sentimentos. Às vezes, essa falta de interação humana deixa as pessoas mais confortáveis para expressar suas negatividades”, conclui Williams.
✅ Curtiu e quer receber mais notícias no seu celular? Clique aqui e siga o Canal eLimeira Notícias no WhatsApp.