segunda-feira, 23 fevereiro, 2026

Quase 20% dos adolescentes de 13 a 15 anos já viram nudez indesejada no Instagram

Compartilhe essa notícia:

Quase 1 em cada 5 usuários do Instagram com idades entre 13 e 15 anos disseram à Meta que viram “nudez ou imagens sexuais” na plataforma de fotos e vídeos que não queriam ver, de acordo com um processo judicial nos Estados Unidos.

O documento, divulgado na sexta-feira (20) como parte de um processo no estado da Califórnia e analisado pela Reuters, inclui trechos de um depoimento de março de 2025 do chefe do Instagram, Adam Mosseri. A pesquisa em questão foi realizada em 2021, segundo Andy Stone, porta-voz da Meta.

Alegações de danos à saúde mental de jovens

A Meta, proprietária do Facebook e do Instagram, enfrenta alegações de líderes globais de que os produtos da empresa prejudicam os usuários jovens. Nos Estados Unidos, milhares de ações judiciais acusam a empresa de projetar produtos viciantes e alimentar uma crise de saúde mental nos jovens.

O julgamento em questão envolve uma mulher da Califórnia que começou a usar o Instagram e o YouTube ainda criança. Ela alega que as empresas buscaram lucrar ao viciar crianças em seus serviços, mesmo sabendo que as redes sociais poderiam prejudicar a saúde mental. Ela afirma que os aplicativos alimentaram sua depressão e pensamentos suicidas e busca responsabilizar as empresas.

Pesquisa e reação da Meta

A estatística sobre imagens explícitas veio de uma pesquisa com usuários do Instagram sobre suas experiências na plataforma, e não de uma análise das próprias publicações. Em seu depoimento, Mosseri disse que a empresa não compartilha resultados gerais de pesquisas e acrescentou que pesquisas auto-relatadas são “notoriamente problemáticas”.

A maioria das imagens sexualmente explícitas foi enviada por meio de mensagens privadas entre usuários, disse Mosseri, e a Meta deve considerar a privacidade dos usuários ao analisá-las. “Muitas pessoas não querem que a gente leia suas mensagens”, afirmou.

LEIA TAMBÉM  MPSC vai pedir novas diligências à polícia no caso do cão Orelha

Medidas da empresa

No final de 2025, a Meta anunciou que, para usuários adolescentes, removeria imagens e vídeos “contendo nudez ou atividade sexual explícita, incluindo quando gerados por IA”, com exceções consideradas para conteúdo médico e educacional. “Estamos orgulhosos do progresso que fizemos e sempre trabalhando para melhorar”, disse Stone.

Cerca de 8% dos usuários na faixa etária de 13 a 15 anos também disseram ter “visto alguém se machucar ou ameaçar fazer isso no Instagram”, de acordo com o depoimento.

A Meta e o Google (dono do YouTube) negaram as alegações e destacaram o trabalho que vêm realizando para adicionar recursos que mantêm os usuários seguros.

Siga-nos no

Google News

Siga nas Redes Sociais

5,000FãsCurtir
11,450SeguidoresSeguir
260SeguidoresSeguir
760InscritosInscrever

Últimas Notícias

Notícias Relacionadas

Polícia Militar flagra três casos de direção sem habilitação no Extremo-Oeste

A Polícia Militar atendeu três ocorrências relacionadas à direção sem habilitação no último domingo...

Escala 6×1 entra no centro do debate no Congresso

A possível mudança na escala de trabalho 6x1, modelo em que o trabalhador atua...

Alzheimer e outras demências são temas do Caminhos da Reportagem

O programa Caminhos da Reportagem desta segunda-feira (23) "Quando o esquecimento chega: Alzheimer e...

Polícia prende homem por tráfico de drogas no bairro Jardim América, em Chapecó

A Polícia Militar de Santa Catarina prendeu um homem de 42 anos por tráfico...