terça-feira, 14 abril, 2026

Quase 20% dos adolescentes de 13 a 15 anos já viram nudez indesejada no Instagram

Compartilhe essa notícia:

Quase 1 em cada 5 usuários do Instagram com idades entre 13 e 15 anos disseram à Meta que viram “nudez ou imagens sexuais” na plataforma de fotos e vídeos que não queriam ver, de acordo com um processo judicial nos Estados Unidos.

O documento, divulgado na sexta-feira (20) como parte de um processo no estado da Califórnia e analisado pela Reuters, inclui trechos de um depoimento de março de 2025 do chefe do Instagram, Adam Mosseri. A pesquisa em questão foi realizada em 2021, segundo Andy Stone, porta-voz da Meta.

Alegações de danos à saúde mental de jovens

A Meta, proprietária do Facebook e do Instagram, enfrenta alegações de líderes globais de que os produtos da empresa prejudicam os usuários jovens. Nos Estados Unidos, milhares de ações judiciais acusam a empresa de projetar produtos viciantes e alimentar uma crise de saúde mental nos jovens.

O julgamento em questão envolve uma mulher da Califórnia que começou a usar o Instagram e o YouTube ainda criança. Ela alega que as empresas buscaram lucrar ao viciar crianças em seus serviços, mesmo sabendo que as redes sociais poderiam prejudicar a saúde mental. Ela afirma que os aplicativos alimentaram sua depressão e pensamentos suicidas e busca responsabilizar as empresas.

Pesquisa e reação da Meta

A estatística sobre imagens explícitas veio de uma pesquisa com usuários do Instagram sobre suas experiências na plataforma, e não de uma análise das próprias publicações. Em seu depoimento, Mosseri disse que a empresa não compartilha resultados gerais de pesquisas e acrescentou que pesquisas auto-relatadas são “notoriamente problemáticas”.

A maioria das imagens sexualmente explícitas foi enviada por meio de mensagens privadas entre usuários, disse Mosseri, e a Meta deve considerar a privacidade dos usuários ao analisá-las. “Muitas pessoas não querem que a gente leia suas mensagens”, afirmou.

LEIA TAMBÉM  Homem é condenado a 71 anos por matar a própria filha no Oeste de SC

Medidas da empresa

No final de 2025, a Meta anunciou que, para usuários adolescentes, removeria imagens e vídeos “contendo nudez ou atividade sexual explícita, incluindo quando gerados por IA”, com exceções consideradas para conteúdo médico e educacional. “Estamos orgulhosos do progresso que fizemos e sempre trabalhando para melhorar”, disse Stone.

Cerca de 8% dos usuários na faixa etária de 13 a 15 anos também disseram ter “visto alguém se machucar ou ameaçar fazer isso no Instagram”, de acordo com o depoimento.

A Meta e o Google (dono do YouTube) negaram as alegações e destacaram o trabalho que vêm realizando para adicionar recursos que mantêm os usuários seguros.

Siga-nos no

Google News

Siga nas Redes Sociais

5,000FãsCurtir
11,450SeguidoresSeguir
260SeguidoresSeguir
760InscritosInscrever

Últimas Notícias

Notícias Relacionadas

SC Cidades do Futuro: municípios priorizam monitoramento climático em programa de PPPs

O programa SC Cidades do Futuro entra em sua reta final de inscrições com...

Adolescente é vítima de tentativa de roubo no bairro Universitário em Chapecó

Na noite de domingo (12), por volta das 20h39, a Polícia Militar de Santa...

PM prende mulher com crack e dinheiro em residência no bairro Líder em Chapecó

Na tarde desta quarta-feira (8), a Polícia Militar de Santa Catarina (PMSC), por meio...

Dólar fecha abaixo de R$ 5 pela primeira vez em dois anos e Ibovespa bate recorde

O dólar fechou abaixo de R$ 5 pela primeira vez em mais de dois...