Vídeos racistas feitos com IA alimentam estereótipos sobre programa do governo dos EUA
Especialistas afirmam que os vídeos estão sendo criados para obscurecer as consequências econômicas do fechamento do SNAP
Andre Gee
Pouco antes da suspensão dos benefícios federais do Programa de Assistência Nutricional Suplementar (SNAP, na sigla em inglês) entrar em vigor no domingo, vídeos no TikTok começaram a surgir. Em um deles, uma mulher negra está em uma casa cheia de bebês chorando, gritando: “Por causa dessa paralisação do governo, estão me dizendo que não posso usar meu EBT em novembro. Tenho sete filhos com sete homens diferentes… e essa é a responsabilidade dos contribuintes.” Em outro, uma mulher negra reclama com o caixa de uma barraca de comida enquanto tenta comprar um cachorro-quente com cupons de alimentação.
Uma conta, que tem “Expondo os beneficiários de cupons de alimentação e da Seção 8” em sua biografia, postou um vídeo de uma mulher negra comendo patas de caranguejo enquanto pergunta: “Por que os contribuintes estão bravos porque tivemos a chance de aproveitar ajuda gratuita e vocês não? Obrigada pelo serviço prestado!” Outro vídeo mostrava uma marcha com participantes negros cantando: “Queremos cupons de alimentação, queremos a Seção 8.” Todos os vídeos eram criações de inteligência artificial.
A suspensão dos benefícios do SNAP está privando mais de 41 milhões de americanos do acesso a alimentos. Após uma recente decisão judicial, o presidente Donald Trump afirmou que usará um fundo de contingência de US$ 4,65 bilhões para fornecer auxílio durante a paralisação do governo. Mesmo assim, esse valor é substancialmente menor do que a verba mensal padrão de US$ 8 bilhões.
Por ora, milhões enfrentam um período prolongado de fome — e alguns estão usando programas de inteligência artificial para ridicularizar sua situação. Nos dias que antecederam a paralisação em 1º de novembro, pessoas criaram vídeos para disseminar a ideia de que mulheres que recebem auxílio federal são preguiçosas e não merecem. A Rolling Stone EUA conversou com dois especialistas que explicam que os vídeos, direcionados principalmente a mulheres negras, exploram estereótipos antigos usados para difamar quem recebe assistência social.
Uma análise mais detalhada dos vídeos revela sinais evidentes de inteligência artificial generativa, mas alguns criadores de conteúdo do TikTok, indignados, compartilharam os vídeos como se fossem reais. No último fim de semana, tanto a Fox News quanto a Newsmax foram criticadas por noticiar os vídeos como se fossem autênticos. (Ironicamente, a Newsmax publicou uma matéria sobre a gafe da Fox News.)
O vídeo com IA exibido pela Newsmax mostrava uma mulher branca com uma camisa rasgada em um caixa de supermercado, gritando furiosamente: “Não vou pagar por nada disso; tenho filhos em casa que precisam comer. Você acha que vou deixar meu carrinho aqui? Claro que não, não vou pagar nada, vou sair com ele.” No mesmo fim de semana, o apresentador da Newsmax, Rob Schmitt, afirmou que as pessoas estão usando o SNAP “para fazer as unhas, colocar apliques e cortar o cabelo”. (Os benefícios do SNAP só podem ser usados para comprar alimentos.)
Simone Browne é professora de Estudos Afro-Americanos na Universidade do Texas em Austin. Ela afirma que a “propaganda enganosa sobre IA” faz parte de uma “guerra mimética” dos conservadores, que visa “nos desviar da análise das verdadeiras implicações políticas” da paralisação do governo por meio do estereótipo racista da “welfare queen”, em tradução livre, rainha do bem-estar. “[Os vídeos] desviam nossa atenção de questões como a insegurança alimentar e a crise relacionada a ela, e o corte intencional do acesso das pessoas à saúde e alimentação.”
Na década de 1970, o então candidato à presidência Ronald Reagan cunhou o termo “rainha do bem-estar” para justificar seu plano de sufocar os programas federais de assistência social. Durante sua campanha presidencial de 1976, ele se referiu repetidamente a uma mulher de Chicago que fraudava o sistema de assistência social. Muitos acreditam que ele se referia à golpista Linda Taylor, que roubou centenas de milhares de dólares de programas governamentais.
Em uma reportagem de Josh Levin para a Slate em 2013 sobre Taylor (que mais tarde foi expandida para um livro e podcast), o veículo publicou um trecho de áudio de um dos anúncios de rádio de Reagan, onde ele afirmava: “[Seu] rastro se estende por 14 estados. Ela usou 127 nomes, se passou por mãe de 14 filhos em uma ocasião, sete em outra, se inscreveu duas vezes com o mesmo assistente social em quatro dias e, uma vez enquanto recebia assistência social, se passou por cirurgiã cardíaca, com consultório próprio.”
Embora suas alegações não tenham sido verificadas, Reagan alimentou o medo dos conservadores de que mulheres negras estivessem fraudando o sistema de assistência social. Mas Levin revelou que não está claro se Taylor era sequer negra. Apesar da ambiguidade, Reagan usou seu mito urbano para transformar a fraude na assistência social em um tema polêmico, rumo à sua eventual vitória eleitoral em 1980. Uma vez eleito, ele cortou a ajuda governamental em US$ 140 bilhões (enquanto aumentava os gastos com defesa em US$ 181 bilhões) . Ele usou mulheres negras como símbolo de pessoas preguiçosas que desperdiçavam o dinheiro dos contribuintes, e os conservadores, desde então, têm seguido a mesma estratégia.
Janice Gassam Asare é psicóloga organizacional e autora de Descentralizando a Branquitude no Local de Trabalho. “O estereótipo da ‘rainha do bem-estar’ persiste até hoje, apesar de haver mais pessoas brancas recebendo assistência social do que qualquer outro grupo”, explica ela. A inteligência artificial é apresentada como uma nova fronteira para a sociedade, mas está perpetuando as mesmas patologias regressivas disseminadas pela mídia popular.
Asare nos implora que consideremos como os vieses pessoais influenciam os avanços tecnológicos. “A tecnologia apenas reflete os vieses arraigados daqueles que a programaram e desenvolveram”, afirma, acrescentando que produtores e roteiristas de TV “inconscientemente desenvolvem programas que replicam os vieses que vemos refletidos na sociedade”, assim como os algoritmos preconceituosos dos mecanismos de busca.
No passado, os conservadores que buscavam exaltar a ideologia da “rainha do bem-estar ” talvez se limitassem a tuitar estatísticas falsas ou histórias não verificadas. Mas agora, eles têm as ferramentas digitais para visualizar seus preconceitos e esperam enganar as pessoas, fazendo-as acreditar em sua agenda. “O que eu acho realmente perturbador nisso tudo é que as imagens que estou vendo, nesses vídeos específicos, são indistinguíveis de pessoas negras reais em uma tela”, diz Browne sobre os vídeos virais recentes. “E às vezes, a única coisa que permite a muitos espectadores perceberem que não se trata de uma pessoa real é alguma falha no fundo da imagem.”
E agora, vídeos reais estão sendo confundidos com IA. A página do Instagram @NYDrillOfficial publicou um vídeo do canal News 12 mostrando nova-iorquinos lamentando o fim do SNAP. Um trecho mostrava uma mulher negra sozinha em frente a um estabelecimento, chorando pelas consequências perigosas da suspensão do benefício. A publicação era tão semelhante ao formato das postagens de IA que alguns espectadores não conseguiram distinguir uma da outra. Os comentários na publicação foram insensíveis, com insultos gordofóbicos e afirmações presunçosas de que ela deveria ter guardado seus benefícios antes. Um comentarista escreveu: “Achei que fosse IA, que decepção”, prenunciando um mundo onde as pessoas não saberão se vídeos reais ou falsos estão alimentando seus preconceitos.
Browne espera que, antes disso, possamos organizar uma “recusa em massa” para combater a IA generativa. Mas o problema pode se tornar ainda mais prevalente. Apesar da plataforma de vídeo generativo da OpenAI, Sora, ter recentemente banido o uso de vídeos de Martin Luther King Jr. após uma série de deepfakes que baniam a imagem da vítima, não há muita regulamentação sobre vídeos de IA com conteúdo racista. O Sora é um serviço pago, mas existem alternativas gratuitas ou de baixo custo disponíveis. “Assim que se tornar mais acessível, veremos uma explosão de conteúdo gerado por IA de baixa qualidade e mais vídeos racistas gerados por IA”, prevê Asare.
“Acredito que a tecnologia pode fazer muitas coisas incríveis, mas os humanos são destrutivos”, diz Asare. “Acho que a tecnologia pode e vai causar mais mal do que bem se não a controlarmos agora, quando esse tipo de tecnologia ainda está em sua relativa infância. Se não lidarmos com isso agora, antes que percebamos, será tarde demais e nos perguntaremos: ‘Como chegamos a isso?’”
+++ LEIA MAIS: IA de Elon Musk é usada para criar pornografia explícita: ‘Grok aprende sobre genitália muito rápido!’