Quase 1 em cada 5 usuários do Instagram com idades entre 13 e 15 anos disseram à Meta que viram “nudez ou imagens sexuais” na plataforma de fotos e vídeos que não queriam ver, de acordo com um processo judicial nos Estados Unidos.
O documento, divulgado na sexta-feira (20) como parte de um processo no estado da Califórnia e analisado pela Reuters, inclui trechos de um depoimento de março de 2025 do chefe do Instagram, Adam Mosseri. A pesquisa em questão foi realizada em 2021, segundo Andy Stone, porta-voz da Meta.
Alegações de danos à saúde mental de jovens
A Meta, proprietária do Facebook e do Instagram, enfrenta alegações de líderes globais de que os produtos da empresa prejudicam os usuários jovens. Nos Estados Unidos, milhares de ações judiciais acusam a empresa de projetar produtos viciantes e alimentar uma crise de saúde mental nos jovens.
O julgamento em questão envolve uma mulher da Califórnia que começou a usar o Instagram e o YouTube ainda criança. Ela alega que as empresas buscaram lucrar ao viciar crianças em seus serviços, mesmo sabendo que as redes sociais poderiam prejudicar a saúde mental. Ela afirma que os aplicativos alimentaram sua depressão e pensamentos suicidas e busca responsabilizar as empresas.
Pesquisa e reação da Meta
A estatística sobre imagens explícitas veio de uma pesquisa com usuários do Instagram sobre suas experiências na plataforma, e não de uma análise das próprias publicações. Em seu depoimento, Mosseri disse que a empresa não compartilha resultados gerais de pesquisas e acrescentou que pesquisas auto-relatadas são “notoriamente problemáticas”.
A maioria das imagens sexualmente explícitas foi enviada por meio de mensagens privadas entre usuários, disse Mosseri, e a Meta deve considerar a privacidade dos usuários ao analisá-las. “Muitas pessoas não querem que a gente leia suas mensagens”, afirmou.
Medidas da empresa
No final de 2025, a Meta anunciou que, para usuários adolescentes, removeria imagens e vídeos “contendo nudez ou atividade sexual explícita, incluindo quando gerados por IA”, com exceções consideradas para conteúdo médico e educacional. “Estamos orgulhosos do progresso que fizemos e sempre trabalhando para melhorar”, disse Stone.
Cerca de 8% dos usuários na faixa etária de 13 a 15 anos também disseram ter “visto alguém se machucar ou ameaçar fazer isso no Instagram”, de acordo com o depoimento.
A Meta e o Google (dono do YouTube) negaram as alegações e destacaram o trabalho que vêm realizando para adicionar recursos que mantêm os usuários seguros.




