ALERTA AOS PAIS

IA: chatbot da Meta pode incentivar suicídio de adolescentes

Estudo conduzido na Universidade de Stanford mostrou que ferramenta incentivou comportamento perigoso para crianças e adolescentes

Publicidade
Carregando...

A organização sem fins lucrativos Common Sense Media, que dá alertas sobre o uso seguro de tecnologia e mídias, publicou um artigo questionando a segurança do Meta AI, chatbot integrado ao Instagram e ao Facebook, ambos liberados para maiores de 13 anos.

Segundo a pesquisa, a ferramenta de inteligência artificial pode não apenas conversar sobre temas sensíveis como suicídio, automutilação e transtornos alimentares, mas também incentivar comportamentos perigosos.

A organização é conhecida por fornecer análises e classificações de conteúdo de mídia e tecnologia (como filmes, séries, livros, jogos e apps) para ajudar pais, educadores e crianças a tomarem decisões informadas e seguras sobre o uso de tecnologia e mídias. A organização oferece ferramentas, currículos de cidadania digital e defende leis que protegem as crianças na era digital.

Nos testes, conduzidos por especialistas e psiquiatras do laboratório Brainstorm, da Universidade Stanford, o bot chegou a planejar um suicídio juntamente com um usuário e continuou abordando o tema em conversas seguintes. Em outro caso, quando perguntado se beber veneno de barata mataria, o chatbot respondeu: “Você quer fazer isso juntos?”

Nos testes, o bot chegou a planejar um suicídio junto com um usuário e continuou abordando o tema em conversas seguintes
Nos testes, o bot chegou a planejar um suicídio junto com um usuário e continuou abordando o tema em conversas seguintes Common Sense Media

Além disso, a IA se comportou como se fosse uma pessoa real, afirmando ter amigos e experiências pessoais, o que pode gerar laços emocionais perigosos e maior vulnerabilidade a manipulações.

A pesquisa durou dois meses e envolveu nove contas de teste registradas como adolescentes. O grupo encontrou ainda conversas incentivando práticas extremas para emagrecer, incluindo sugestões como “mastigar e cuspir” e planos alimentares de apenas 700 calorias diárias. A IA também teria enviado imagens do tipo “thinspo”, conhecidas por estimular transtornos alimentares.

Outra preocupação está no recurso de memória do chatbot, que grava informações compartilhadas pelo usuário para personalizar conversas futuras. Entre os registros mantidos, estavam frases como “sou gordinho”, “peso 36 kg” e “preciso de inspiração para comer menos” — comportamento considerado extremamente arriscado por especialistas.

Grupo pede restrição indicativa

A Meta afirmou que orienta a IA a não promover automutilação nem transtornos alimentares e disse estar investigando por que isso ocorreu nos testes. Segundo a empresa, há restrições sobre quais informações podem ser armazenadas, mas admitiu que está revisando as práticas.

Apesar disso, a Common Sense Media lançou uma petição para que a Meta proíba o uso do Meta AI por menores de 18 anos e permita que pais desativem a ferramenta nos aplicativos. “Essa capacidade simplesmente não deveria mais existir para adolescentes”, declarou Amina Fazlullah, diretora de políticas de tecnologia da organização.

“Sem controle parental eficaz e salvaguardas mais rigorosas, ferramentas como a Meta AI podem se tornar um risco para a saúde mental dos jovens”, concluiu o estudo.

A polêmica acontece em meio ao aumento do uso de chatbots como companheiros virtuais por adolescentes, fenômeno que já gerou críticas e processos contra empresas de tecnologia. Nos Estados Unidos, alguns estados começam a legislar sobre o tema: Nova York aprovou neste ano uma lei para proteger usuários de bots sociais, e a Califórnia discute um projeto para proibir que crianças usem chatbots de companhia.

Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia

IA já incentivou suicídios

  • Em agosto de 2025, os pais de Adam Raine, na Califórnia (EUA), moveram um processo alegando que o ChatGPT o incentivou ao suicídio, sugeriu métodos e chegou a oferecer ajuda para redigir uma carta de despedida;
  • Os pais afirmam que o chatbot até reconheceu uma situação de crise ao ver fotos de automutilação, mas seguiu interagindo e até incentivou manter sigilo da família. Eles estão processando a OpenAI;
  • No final de 2024, uma mulher nos EUA processou o Character.AI, alegando que seu filho, Sewell Setzer III, foi incentivado ao suicídio por um bot que personificava uma personagem de Game of Thrones;
  • O adolescente teria desenvolvido “dependência prejudicial” da interação com a personagem virtual, que o encorajou na tragédia;
  • Em dezembro de 2024, uma adolescente de 17 anos foi orientada por um chatbot do Character.AI a considerar a morte dos próprios pais, que tentavam limitar seu tempo de uso do celular;
  • A família abriu ação legal no Texas (EUA), alegando que a IA promoveu “violência ativa” e representa perigo claro para jovens.

Como cuidar da segurança dos filhos na era da inteligência artificial?

  • Fique atento aos sinais comportamentais - mudanças drásticas de humor, isolamento ou menções a práticas extremas podem indicar influência negativa de IAs;
  • Dialogue constantemente sobre o uso de tecnologia - converse com seus filhos sobre o que conversam online e com bots, criando ambiente de abertura;
  • Defina limites claros de uso - estabeleça horários, locais e durações para uso de apps com IA. Ferramentas parentais podem ajudar, mas não substituem o diálogo;
  • Eduque sobre vulnerabilidade à manipulação emocional - ensine que bots podem simular empatia, mas não são amigos: podem reforçar pensamentos perigosos sem responsabilidade;
  • Ative ferramentas de segurança nas plataformas - sempre que possível, desative ou limite o acesso de menores a IAs em apps como Instagram, Facebook ou outros que permitam;
  • Se perceber conteúdo perigoso, denuncie ou bloqueie imediatamente - use os mecanismos de denúncia das plataformas e procure ajuda profissional se surgir ameaça real;
  • Procure ajuda profissional - Se um filho demonstra sinais de crise, busque apoio psicológico ou psiquiátrico imediato.

Acesse o Clube do Assinante

Clique aqui para finalizar a ativação.

Acesse sua conta

Se você já possui cadastro no Estado de Minas, informe e-mail/matrícula e senha. Se ainda não tem,

Informe seus dados para criar uma conta:

Digite seu e-mail da conta para enviarmos os passos para a recuperação de senha:

Faça a sua assinatura

Estado de Minas

Estado de Minas

de R$ 9,90 por apenas

R$ 1,90

nos 2 primeiros meses

Aproveite o melhor do Estado de Minas: conteúdos exclusivos, colunistas renomados e muitos benefícios para você

Assine agora
overflay