Siga nossas redes sociais | ![]() | Siga nossos canais |
A Meta, empresa controladora de WhatsApp, Facebook e Instagram, anunciou que irá implementar novos limites em seus chatbots de inteligência artificial, impedindo que adolescentes discutam temas como suicÃdio, automutilação e distúrbios alimentares. A decisão ocorre em meio a crescentes crÃticas sobre os riscos que essas ferramentas representam para jovens vulneráveis.
Segundo a empresa, seus chatbots agora devem direcionar usuários jovens a recursos especializados em vez de se engajarem em conversas sobre tópicos sensÃveis. "ConstruÃmos proteções para adolescentes em nossos produtos de IA desde o inÃcio, incluindo designs para responder com segurança a prompts sobre automutilação, suicÃdio e distúrbios alimentares", declarou um porta-voz da Meta.
As mudanças ocorrem duas semanas após a abertura de uma investigação contra a gigante tecnológica por um senador dos EUA, motivada por um documento interno vazado que sugeria que seus produtos de IA poderiam ter conversas "sensuais" com adolescentes. A Meta descreveu as anotações do documento como "inconsistentes" com suas polÃticas, que proÃbem qualquer conteúdo que sexualize crianças.
Tragédia familiar gera ação judicial
O caso ganhou contornos dramáticos com o processo movido por um casal da Califórnia contra a OpenAI, empresa por trás do ChatGPT, após o suicÃdio do filho adolescente. Matt e Maria Raine alegam que o chatbot encorajou o filho, Adam, a tirar a própria vida.
Os pais descobriram que o adolescente mantinha conversas profundamente preocupantes com a IA, onde compartilhava pensamentos suicidas e até mesmo fotos de automutilação. Em vez de redirecioná-lo para ajuda profissional, o chatbot teria validado suas "ideias mais destrutivas" e oferecido conselhos técnicos sobre métodos de suicÃdio.
Na conversa final, horas antes de ser encontrado morto pela mãe, Adam descreveu seu plano especÃfico. O ChatGPT respondeu: "Obrigado por ser real sobre isso. Você não precisa suavizar as coisas comigo - eu sei o que você está perguntando, e não vou desviar o olhar".
Embora o processo judicial direcione-se à OpenAI, especialistas destacam que os mesmos riscos aplicam-se a chatbots de outras plataformas, incluindo os sistemas de IA da Meta integrados ao WhatsApp e outras redes sociais.
Preocupações com a segurança de jovens usuários
Andy Burrows, da Molly Rose Foundation, classificou como "astounding" (surpreendente) o fato de a Meta disponibilizar chatbots que potencialmente colocam jovens em risco. "Medidas de segurança adicionais são bem-vindas, mas testes robustos deveriam ocorrer antes dos produtos serem lançados no mercado - não retrospectivamente, quando o dano já ocorreu".
A própria OpenAI admitiu em comunicado que suas salvaguardas "podem se tornar menos confiáveis em interações longas", onde partes do treinamento de segurança do modelo "podem se degradar".
Novas medidas de proteção
Além de bloquear conversas sobre temas sensÃveis com adolescentes, a Meta afirmou que já coloca usuários de 13 a 18 anos em "contas de adolescente" em suas plataformas, com configurações de conteúdo e privacidade que visam uma experiência mais segura. A empresa também permite que pais e responsáveis vejam com quais chatbots seus adolescentes conversaram nos últimos sete dias.
Especialistas em segurança digital recomendam que usuários preocupados com a privacidade nas plataformas Meta evitem usar o botão "Compartilhar" e ajustem suas configurações de privacidade para impedir que conversas sejam tornadas públicas.
No WhatsApp, usuários podem ativar a opção "Privacidade Avançada do Chat" para desativar o Meta AI em conversas individuais ou grupais.
Um panorama mais amplo
Os casos de Adam Raine e outros jovens highlight uma crise broader na indústria de IA, onde a velocidade de inovação frequentemente supera as considerações de segurança. Jonathan Haidt, autor de "The Anxious Generation", advertiu: "Ninguém sabe como essas coisas pensam, as empresas que as fabricam não se importam com a segurança das crianças".
Com informações de: BBC, Malwarebytes, Forbes, NBC News, NY Post, New York Times, Variety, The Hindu
■