Recursos de segurança implementados pela Meta para proteger adolescentes no Instagram são falhos, ineficazes ou inexistentes. É o que aponta o estudo “Contas de adolescentes, promessas não cumpridas” (Teen Accounts, Broken Promises), realizado por grupos de defesa de segurança infantil e corroborado por pesquisadores da Northeastern University.
O relatório testou 47 recursos de segurança e julgou que apenas oito eram totalmente eficazes. A maioria dos recursos restantes, segundo os grupos, “apresentava falhas, não estava mais disponível ou era substancialmente ineficaz”.
Falhas nos Bloqueios e Filtros
O estudo apontou que os mecanismos de proteção para jovens usuários são facilmente contornados. Entre as falhas identificadas estão:
Conteúdo de automutilação: Recursos para bloquear termos de pesquisa relacionados à automutilação foram facilmente contornados. A Reuters confirmou a falha ao usar a variação “coxas magras” sem espaço, que trouxe conteúdo sobre anorexia.
Filtros anti-bullying: Filtros de mensagens anti-bullying não foram ativados, mesmo quando testados com as mesmas frases de assédio que a Meta havia usado para promovê-los.
Redirecionamento: Um recurso criado para afastar adolescentes de conteúdo compulsivo relacionado à automutilação nunca foi acionado pelos pesquisadores.
Apenas alguns recursos de segurança funcionaram conforme o esperado, como um “modo silencioso” que desativa temporariamente notificações noturnas e a exigência de aprovação dos pais para mudanças nas configurações da conta.
Críticas da Academia e da Meta
Laura Edelson, professora da Northeastern University que supervisionou a pesquisa, afirmou que as descobertas questionam os esforços da Meta “para proteger os adolescentes das piores partes da plataforma”.
O relatório foi impulsionado por dicas de Arturo Bejar, um ex-executivo de segurança da Meta, que afirmou à Reuters que a empresa ignorou dados que indicavam sérias preocupações de segurança com adolescentes e que “boas ideias de segurança foram reduzidas a recursos ineficazes pela gerência”.
A Meta contestou o estudo, classificando as descobertas como errôneas e enganosas. O porta-voz da Meta, Andy Stone, disse que o relatório “repetidamente deturpa nossos esforços para capacitar os pais e proteger os adolescentes”. Stone garantiu que os adolescentes que foram colocados nessas proteções “viram menos conteúdo sensível, tiveram menos contato indesejado e passaram menos tempo no Instagram à noite”.
Apesar da contestação, documentos internos da Meta, vistos pela Reuters, mostram que a empresa estava ciente de falhas significativas em seus sistemas. No ano passado, funcionários alertaram que os sistemas de detecção automática de conteúdo sobre distúrbios alimentares e automutilação não estavam sendo atualizados de forma eficaz.
Em meio à pressão, a Meta anunciou nesta quinta-feira (25) a expansão das contas de adolescentes para usuários do Facebook fora dos Estados Unidos, em um novo esforço para demonstrar suas medidas de proteção às crianças.