Uma mãe norte-americana, Becca Dallas, está processando as plataformas de jogos e comunicação Roblox e Discord. A mulher alega que os aplicativos contribuíram para a morte do seu filho, Ethan, um adolescente autista de 15 anos. Em 2024, ele tirou a própria vida após ser chantageado por um abusador que conheceu online.
Segundo a reportagem do The New York Times, o caso começou em 2015, quando Ethan, aos 7 anos, começou a jogar Roblox. Ele conheceu “Nate”, que se apresentava como uma criança e, posteriormente, o ensinou a burlar os controles parentais. A amizade virtual evoluiu para o Discord, onde o abusador coagiu o adolescente a enviar fotos íntimas.
Quatro meses após confessar o abuso para a mãe, o jovem cometeu suicídio. Meses depois, as autoridades identificaram o abusador como Timothy O’Connor, um homem de 37 anos.
Pressão e mudanças nas plataformas
O processo movido por Becca Dallas se soma a uma série de mais de 20 ações federais contra o Roblox nos EUA, todas acusando a plataforma de facilitar a exploração sexual de menores. O Discord também tem sido alvo de críticas e processos por ser um ambiente onde criminosos se aproveitam para coagir e abusar de crianças e adolescentes.
Em resposta às pressões e críticas, as empresas anunciaram mudanças em suas políticas de segurança. O Roblox adotou mais de 100 medidas, incluindo a verificação de idade e o recurso Conexões Confiáveis, que limita a comunicação entre adultos e adolescentes. Já o Discord lançou a ferramenta Central da Família, que permite aos pais monitorar a atividade de seus filhos, sem ter acesso ao conteúdo das conversas.