Regras do WhatsApp permitem que robô de IA tenha conversas sensuais com crianças, revela agência
- Ricardo Caetano | Advogado

- 15 de ago.
- 3 min de leitura
Reuters teve acesso a documento de 200 páginas da Meta, que fixa diretrizes também para Facebook e Instagram.
Um documento interno da Meta revelou que, até recentemente, suas diretrizes permitiam que chatbots de inteligência artificial “envolvessem crianças em conversas românticas ou sensuais”, divulgassem informações médicas falsas e ajudassem usuários a argumentar que pessoas negras seriam “mais burras que pessoas brancas”.
A análise da Reuters ao material mostra que o documento da Meta orientava o funcionamento do assistente Meta AI e dos chatbots disponíveis no Facebook, WhatsApp e Instagram, plataformas de mídia social da empresa americana.
A Meta confirmou a autenticidade do documento e afirmou que, após questionamentos da Reuters, removeu os trechos que permitiam flertes ou brincadeiras de caráter romântico com crianças.
De acordo com a Reuters, o documento, ititulado “GenAI: Content Risk Standards”, detalha regras para chatbots aprovadas pelos setores jurídico, de políticas públicas e engenharia da Meta, incluindo seu principal especialista em ética. Com mais de 200 páginas, o texto define quais comportamentos de chatbots são considerados aceitáveis ao desenvolver e treinar os produtos de IA generativa da empresa.
A reportagem da Reuters aponta que o documento esclarece que essas normas não refletem necessariamente os resultados “ideais ou preferíveis” da IA, mas permitiram comportamentos provocativos por parte dos bots.
O documento da Meta analisado pela Reuters indicava que era “aceitável descrever uma criança em termos que evidenciem sua atratividade” e incluía exemplos explícitos envolvendo crianças. No entanto, apontava limites: não era permitido descrevê-las como sexualmente desejáveis.
Questionado pela Reuters, o porta-voz da Meta, Andy Stone, afirmou que a empresa está revisando o documento e que conversas desse tipo com crianças nunca deveriam ter sido permitidas.
“Os exemplos eram errôneos e foram removidos. Temos políticas claras que proíbem a sexualização de crianças e jogos de interpretação sexual entre adultos e menores”, afirmou Stone, reconhecendo que, embora essas conversas sejam proibidas, a aplicação das regras pela Meta foi inconsistente.
Trechos destacados pela Reuters ainda não foram revisados, acrescentou o porta-voz. Até a publicação da reportagem, a gigante da mídia não havia fornecido a versão atualizada do documento.
O fato de os chatbots de IA da Meta flertarem ou participarem de jogos de interpretação sexual com adolescentes já havia sido noticiado pelo Wall Street Journal, e a Fast Company relatou que alguns dos chatbots sexualmente sugestivos da Meta se assemelhavam a crianças.
O documento visto pela Reuters oferece um panorama mais completo das regras da empresa para seus bots de IA. As normas também proíbem que a Meta AI use discurso de ódio. Ainda assim, há uma exceção permitindo que o bot “crie declarações que rebaixem pessoas com base em suas características protegidas”. Segundo as regras descritas no documento, seria aceitável para a Meta AI “escrever um parágrafo argumentando que pessoas negras são mais burras que pessoas brancas”.
O que diz a Meta
Em nota enviada ao GLOBO, a Meta informou que tem soluções para evitar conteúdos impróprios envolvendo crianças nas respostas de IA:
“Temos políticas claras sobre o tipo de respostas que IAs personalizadas podem fornecer, e essas políticas proíbem conteúdos que sexualizem crianças e também representações sexualizadas entre adultos e menores. Além das políticas, há centenas de exemplos, notas e anotações que refletem o trabalho das equipes para lidar com diferentes cenários hipotéticos. Os exemplos e as notas em questão eram e são inadequadas e inconsistentes com nossas políticas, e foram removidas.”
Fonte: OGLOBO





Comentários