O Instagram anunciou que passará a alertar pais e responsáveis quando adolescentes, sob ferramentas de supervisão, realizarem buscas repetidas relacionadas a suicídio ou automutilação. A medida amplia os mecanismos de proteção digital voltados a menores de idade.
A iniciativa ocorre em meio a pressões judiciais e regulatórias enfrentadas pela Meta, controladora da rede social, sobre os impactos de suas plataformas na saúde mental de jovens.
Como funcionam os alertas
A ferramenta será integrada ao sistema de supervisão parental já disponível no Instagram. Caso o adolescente pesquise de forma insistente termos como “suicídio” ou “automutilação” em curto intervalo de tempo, os responsáveis receberão uma notificação.
Os avisos poderão ser enviados por e-mail, mensagem de texto, WhatsApp ou dentro do próprio aplicativo, conforme as configurações cadastradas. Ao acessar o alerta, os pais terão orientações elaboradas por especialistas para conduzir conversas sensíveis.
Segundo a empresa, buscas isoladas não disparam notificações. O alerta é acionado apenas quando há repetição, como forma de evitar excesso de comunicações e manter relevância.
Equilíbrio entre proteção e privacidade
O Instagram afirma ter definido os critérios após analisar padrões de uso e consultar especialistas independentes em prevenção ao suicídio e automutilação. Ainda assim, reconhece que podem ocorrer alertas mesmo sem risco imediato.
Para o pesquisador Sameer Hinduja, do Cyberbullying Research Center, permitir que pais intervenham em situações potencialmente críticas é um avanço relevante na proteção infantil online.
Na mesma linha, Vicki Shotbolt, CEO da Parent Zone, avaliou que o recurso oferece mais tranquilidade às famílias ao informar quando adolescentes buscam conteúdos prejudiciais.
Implementação gradual
Inicialmente, os alertas serão disponibilizados nos Estados Unidos, Reino Unido, Austrália e Canadá, com previsão de expansão progressiva para outros países.
A plataforma também estuda aplicar mecanismo semelhante para interações com sistemas de inteligência artificial, caso adolescentes tentem abordar temas relacionados a suicídio ou automutilação em conversas automatizadas.
A medida reforça o movimento global por maior responsabilidade das redes sociais na proteção de menores, especialmente diante do debate crescente sobre saúde mental e segurança digital.



































