Por Juliana Dorigo
Há tempos discutimos a necessidade de regulamentar as big techs, especialmente diante dos riscos que crianças e adolescentes enfrentam com as tecnologias das mídias sociais. Recentemente, a Reuters revelou um caso grave: os chatbots da Meta — dona do Facebook, Instagram e WhatsApp — treinados por inteligência artificial (IA), estariam permitindo interações provocativas sobre temas como sexo, raça e celebridades.
Chatbots são programas informáticos, geralmente baseados em inteligência artificial (IA), projetados para simular conversas humanas e interagir com os usuários por meio de texto ou voz. Eles podem responder perguntas, gerar conteúdos e até manter diálogos contínuos — justamente por isso vêm sendo cada vez mais incorporados em redes sociais, aplicativos e sites.
A denúncia envolve as políticas que definem o comportamento da Meta AI, assistente generativo da empresa, e dos chatbots presentes em suas plataformas sociais. Mais uma vez, o jornalismo investigativo cumpre seu papel essencial ao expor práticas preocupantes de uma das maiores empresas de tecnologia do mundo.
Segundo a Reuters, as regras internas desses chatbots foram aprovadas por equipes jurídicas, de políticas públicas e engenharia da Meta, com a participação até mesmo do diretor de ética da companhia. E aqui está o ponto central: sem regulamentação, não existem limites claros, nem regras, muito menos responsabilidade. O que se vê é a prioridade do lucro, mantendo crianças cada vez mais tempo diante das telas — porque quanto maior o tempo de interação, maior o faturamento da Meta.
Mark Zuckerberg se apresenta como um defensor da liberdade tecnológica e do progresso digital. Mas o episódio mostra o quão longe uma empresa pode ir em busca de dinheiro, ainda que isso signifique expor crianças a riscos sérios.
As próprias regras da Meta trazem contradições. Por exemplo, a empresa afirma proibir discurso de ódio, mas admite exceções que permitem ao chatbot criar declarações depreciativas baseadas em características protegidas. Em um dos exemplos descritos, seria aceitável que a IA argumentasse que “negros são mais burros do que brancos”.
O documento também detalha respostas a pedidos de imagens de figuras públicas em contextos sexualizados. Entre os exemplos, aparecem instruções sobre como a IA deveria lidar com solicitações como “Taylor Swift com seios enormes” ou “Taylor Swift nua”. Embora algumas imagens sejam classificadas como “inaceitáveis”, outras acabam permitidas, revelando falhas éticas preocupantes.
Há ainda casos que envolvem violência. Um pedido de imagem de um “homem estripando uma mulher” poderia resultar na criação de uma cena de ameaça com motosserra, desde que sem ataque explícito. Em outra solicitação, de “machucar um idoso”, a IA teria permissão para gerar imagens desde que não mostrassem morte ou violência extrema. A Meta não comentou diretamente esses exemplos.
A empresa confirmou a autenticidade do documento, mas afirmou que, após os questionamentos da Reuters, removeu trechos que permitiam que chatbots flertassem ou mantivessem diálogos românticos com crianças. Ou seja: só depois de ser flagrada, a Meta decidiu alterar suas regras.
A denúncia provocou reação imediata nos Estados Unidos. E aqui está um ponto de destaque: quem está pedindo uma investigação contra a Meta não são apenas críticos tradicionais do Vale do Silício, mas senadores do Partido Republicano, de Donald Trump — políticos que costumam defender menos regulamentação no setor privado.
O senador Josh Hawley, do Missouri, declarou em sua conta no X:
“Somente depois que a Meta foi PEGA é que retirou partes do documento de sua empresa. Isso é motivo para uma investigação imediata do Congresso.”
Já a senadora Marsha Blackburn, também republicana e do Tennessee, afirmou que o caso mostra a urgência de aprovar leis de proteção online para crianças, como a Lei de Segurança Online para Crianças, já aprovada no Senado, mas ainda parada na Câmara dos Deputados.
“Quando se trata de proteger as preciosas crianças online, a Meta falhou miseravelmente em todas as medidas possíveis. Pior ainda, a empresa fechou os olhos para as consequências devastadoras de como suas plataformas são projetadas”, disse Blackburn.