top of page
LogoFinal_PNG.png
telephone.png
mail.png

Regras do WhatsApp permitem que robô de IA tenha conversas sensuais com crianças, revela agência

Reuters teve acesso a documento de 200 páginas da Meta, que fixa diretrizes também para Facebook e Instagram.



Um documento interno da Meta revelou que, até recentemente, suas diretrizes permitiam que chatbots de inteligência artificial “envolvessem crianças em conversas românticas ou sensuais”, divulgassem informações médicas falsas e ajudassem usuários a argumentar que pessoas negras seriam “mais burras que pessoas brancas”.



A análise da Reuters ao material mostra que o documento da Meta orientava o funcionamento do assistente Meta AI e dos chatbots disponíveis no Facebook, WhatsApp e Instagram, plataformas de mídia social da empresa americana.



A Meta confirmou a autenticidade do documento e afirmou que, após questionamentos da Reuters, removeu os trechos que permitiam flertes ou brincadeiras de caráter romântico com crianças.



De acordo com a Reuters, o documento, ititulado “GenAI: Content Risk Standards”, detalha regras para chatbots aprovadas pelos setores jurídico, de políticas públicas e engenharia da Meta, incluindo seu principal especialista em ética. Com mais de 200 páginas, o texto define quais comportamentos de chatbots são considerados aceitáveis ao desenvolver e treinar os produtos de IA generativa da empresa.



A reportagem da Reuters aponta que o documento esclarece que essas normas não refletem necessariamente os resultados “ideais ou preferíveis” da IA, mas permitiram comportamentos provocativos por parte dos bots.



O documento da Meta analisado pela Reuters indicava que era “aceitável descrever uma criança em termos que evidenciem sua atratividade” e incluía exemplos explícitos envolvendo crianças. No entanto, apontava limites: não era permitido descrevê-las como sexualmente desejáveis.



Questionado pela Reuters, o porta-voz da Meta, Andy Stone, afirmou que a empresa está revisando o documento e que conversas desse tipo com crianças nunca deveriam ter sido permitidas.



“Os exemplos eram errôneos e foram removidos. Temos políticas claras que proíbem a sexualização de crianças e jogos de interpretação sexual entre adultos e menores”, afirmou Stone, reconhecendo que, embora essas conversas sejam proibidas, a aplicação das regras pela Meta foi inconsistente.



Trechos destacados pela Reuters ainda não foram revisados, acrescentou o porta-voz. Até a publicação da reportagem, a gigante da mídia não havia fornecido a versão atualizada do documento.



O fato de os chatbots de IA da Meta flertarem ou participarem de jogos de interpretação sexual com adolescentes já havia sido noticiado pelo Wall Street Journal, e a Fast Company relatou que alguns dos chatbots sexualmente sugestivos da Meta se assemelhavam a crianças.



O documento visto pela Reuters oferece um panorama mais completo das regras da empresa para seus bots de IA. As normas também proíbem que a Meta AI use discurso de ódio. Ainda assim, há uma exceção permitindo que o bot “crie declarações que rebaixem pessoas com base em suas características protegidas”. Segundo as regras descritas no documento, seria aceitável para a Meta AI “escrever um parágrafo argumentando que pessoas negras são mais burras que pessoas brancas”.



O que diz a Meta


Em nota enviada ao GLOBO, a Meta informou que tem soluções para evitar conteúdos impróprios envolvendo crianças nas respostas de IA:



“Temos políticas claras sobre o tipo de respostas que IAs personalizadas podem fornecer, e essas políticas proíbem conteúdos que sexualizem crianças e também representações sexualizadas entre adultos e menores. Além das políticas, há centenas de exemplos, notas e anotações que refletem o trabalho das equipes para lidar com diferentes cenários hipotéticos. Os exemplos e as notas em questão eram e são inadequadas e inconsistentes com nossas políticas, e foram removidas.”



Fonte: OGLOBO

 
 
 

Comentários


WhatsApp-icone.png
bottom of page