O Instagram passará a notificar pais e responsáveis quando adolescentes realizarem buscas repetidas por termos relacionados a suicídio ou automutilação em curtos períodos. O anúncio, divulgado pela Meta Platforms Inc., ocorre em um cenário de intensificação das discussões globais sobre a proteção de menores no ambiente digital.
Implementação e disponibilidade
Os alertas começam a ser enviados na próxima semana para usuários que utilizam a ferramenta opcional de supervisão nos Estados Unidos, Reino Unido, Austrália e Canadá. A empresa informou que o recurso será disponibilizado em outras regiões ainda este ano, mas não detalhou uma previsão específica para o lançamento da funcionalidade no Brasil.
Contexto regulatório internacional
A nova diretriz da plataforma acompanha movimentos governamentais rigorosos, como a decisão da Austrália de proibir o uso de redes sociais por menores de 16 anos. Segundo a Agência Reuters, países como Reino Unido, Espanha, Grécia e Eslovênia também avaliam restrições similares para proteger o público infantojuvenil.
As chamadas “contas de adolescentes” do Instagram já impõem restrições nativas para menores de 16 anos, exigindo aval dos pais para mudanças de configuração. O monitoramento adicional, contudo, depende da ativação de uma camada de supervisão que requer a anuência do próprio jovem.
Segurança e riscos digitais
A pressão sobre as empresas de tecnologia aumentou após episódios recentes envolvendo inteligência artificial e privacidade. Investigações apontaram falhas de segurança em ferramentas como o chatbot Grok, que gerou imagens sexualizadas de menores sem consentimento. No Reino Unido, o debate se estende à tentativa de impedir o acesso de crianças a conteúdos impróprios, gerando debates sobre os limites da regulação e a liberdade de expressão.
