terça-feira, 14 abril, 2026

Quase 20% dos adolescentes de 13 a 15 anos já viram nudez indesejada no Instagram

Compartilhe essa notícia:

Quase 1 em cada 5 usuários do Instagram com idades entre 13 e 15 anos disseram à Meta que viram “nudez ou imagens sexuais” na plataforma de fotos e vídeos que não queriam ver, de acordo com um processo judicial nos Estados Unidos.

O documento, divulgado na sexta-feira (20) como parte de um processo no estado da Califórnia e analisado pela Reuters, inclui trechos de um depoimento de março de 2025 do chefe do Instagram, Adam Mosseri. A pesquisa em questão foi realizada em 2021, segundo Andy Stone, porta-voz da Meta.

Alegações de danos à saúde mental de jovens

A Meta, proprietária do Facebook e do Instagram, enfrenta alegações de líderes globais de que os produtos da empresa prejudicam os usuários jovens. Nos Estados Unidos, milhares de ações judiciais acusam a empresa de projetar produtos viciantes e alimentar uma crise de saúde mental nos jovens.

O julgamento em questão envolve uma mulher da Califórnia que começou a usar o Instagram e o YouTube ainda criança. Ela alega que as empresas buscaram lucrar ao viciar crianças em seus serviços, mesmo sabendo que as redes sociais poderiam prejudicar a saúde mental. Ela afirma que os aplicativos alimentaram sua depressão e pensamentos suicidas e busca responsabilizar as empresas.

Pesquisa e reação da Meta

A estatística sobre imagens explícitas veio de uma pesquisa com usuários do Instagram sobre suas experiências na plataforma, e não de uma análise das próprias publicações. Em seu depoimento, Mosseri disse que a empresa não compartilha resultados gerais de pesquisas e acrescentou que pesquisas auto-relatadas são “notoriamente problemáticas”.

A maioria das imagens sexualmente explícitas foi enviada por meio de mensagens privadas entre usuários, disse Mosseri, e a Meta deve considerar a privacidade dos usuários ao analisá-las. “Muitas pessoas não querem que a gente leia suas mensagens”, afirmou.

LEIA TAMBÉM  Homem é condenado a 71 anos por matar a própria filha no Oeste de SC

Medidas da empresa

No final de 2025, a Meta anunciou que, para usuários adolescentes, removeria imagens e vídeos “contendo nudez ou atividade sexual explícita, incluindo quando gerados por IA”, com exceções consideradas para conteúdo médico e educacional. “Estamos orgulhosos do progresso que fizemos e sempre trabalhando para melhorar”, disse Stone.

Cerca de 8% dos usuários na faixa etária de 13 a 15 anos também disseram ter “visto alguém se machucar ou ameaçar fazer isso no Instagram”, de acordo com o depoimento.

A Meta e o Google (dono do YouTube) negaram as alegações e destacaram o trabalho que vêm realizando para adicionar recursos que mantêm os usuários seguros.

Siga-nos no

Google News

Siga nas Redes Sociais

5,000FãsCurtir
11,450SeguidoresSeguir
260SeguidoresSeguir
760InscritosInscrever

Últimas Notícias

Notícias Relacionadas

PF combate contrabando de leite em pó da Argentina no Oeste Catarinense

A Polícia Federal deflagrou, nesta terça-feira (14), a Operação Consumo Seguro, com o objetivo...

Estado abriu 45 mil novas empresas no 1º trimestre de 2026

Santa Catarina consolidou um saldo positivo de 45.350 novas empresas nos três primeiros meses...

Hospital Unimed alcança 100 cirurgias robóticas

O Hospital Unimed Chapecó atingiu um marco expressivo ao realizar 100 cirurgias robóticas em...

Homem é preso ao furtar fios de cobre e ferramentas em residência no Jardim Europa

A Polícia Militar de Santa Catarina (PMSC), por meio do 2º Batalhão de Polícia...