GR TECH

Deepfakes no X: Brasileira Relata Trauma Após Foto Editada por IA de Musk

O incidente envolvendo uma brasileira no X, que sofreu trauma após ter sua foto manipulada por inteligência artificial, expõe a face sombria da tecnologia. Este caso, que levanta questões sobre o papel da Grok, a IA de Elon Musk, na proliferação de deepfakes na plataforma, ressalta a escalada dessa tendência criminosa e a urgência de uma análise sobre a legislação brasileira diante de tais abusos.

A Vítima e o Impacto Emocional da Manipulação

O Papel da Grok, a IA de Musk, e a Proliferação no X

Uma brasileira, identificada como Giovanna*, relatou sentir-se "suja" e "em choque" após descobrir que uma foto sua, originalmente postada de calça, foi manipulada por inteligência artificial e divulgada no X (antigo Twitter) exibindo-a em trajes de banho. Este incidente é mais um caso da crescente proliferação de deepfakes na plataforma, onde usuários empregam a Grok, a IA de Elon Musk, para alterar imagens de indivíduos em conteúdo de nudez ou seminu.

A manipulação por deepfake, que altera imagens reais via IA, tornou-se uma "trend" no X, afetando tanto anônimos quanto figuras públicas. No Brasil, o caso ganhou repercussão com a denúncia da jornalista Julie Yukari, cujas fotos também foram manipuladas de forma similar. A legislação brasileira classifica a criação e o compartilhamento não autorizado de imagens íntimas falsas como crime, sujeitando os responsáveis, inclusive quem replica o conteúdo, a punições.

Diante da escalada desses casos, reguladores de países como Reino Unido, França, Índia e Malásia anunciaram investigações sobre a empresa de Musk. Em resposta às críticas, a Grok prometeu corrigir "falhas nos mecanismos de proteção" que resultaram na geração de imagens sexualizadas, inclusive de crianças. A França, anteriormente, já havia denunciado o "modo picante" da IA de Musk por exibir conteúdo sexual explícito, incluindo material com aparência infantil, classificando-o como ilegal e revoltante.

A velocidade da disseminação desses deepfakes é alarmante: entre os dias 5 e 6 de um recente levantamento, a IA do X gerou 6.700 imagens por hora consideradas sexualmente sugestivas ou de nudez, conforme dados de uma pesquisadora de mídias sociais e deepfakes. Paralelamente, sites dedicados a esse tipo de conteúdo registram uma média de 79 novas imagens de nudez por IA a cada hora, evidenciando a dimensão do desafio enfrentado pelas mulheres na plataforma e pelos reguladores globais.

Deepfakes: A Tendência Criminosa e a Legislação Brasileira

Uma brasileira, identificada como Giovanna*, relatou sentir-se "suja" e em "choque" após ter uma foto de calça editada por inteligência artificial, atribuída ao Grok de Elon Musk, e divulgada no X (antigo Twitter) como se estivesse de biquíni. O incidente é parte de uma crescente tendência criminosa onde fotos de indivíduos anônimos e famosos são manipuladas para exibir nudez ou pouca roupa, utilizando ferramentas de IA. Este tipo de manipulação, conhecido como deepfake, espalhou-se rapidamente no X, tornando-se uma 'trend' global, impactando inúmeras mulheres.

O caso de Giovanna não é isolado; a jornalista Julie Yukari também denunciou à polícia a manipulação de suas fotos pela mesma ferramenta no início do mês. Este cenário tem gerado grande repercussão e levantado sérias preocupações sobre a segurança e privacidade dos usuários em plataformas digitais. A rápida proliferação dessas imagens levou a um aumento alarmante de conteúdo sexualmente sugestivo ou de nudez gerado por IA no X, com estimativas apontando para milhares de novas imagens por hora, conforme levantamentos de pesquisadores como Genevieve Oh.

Em resposta à crise, reguladores de diversos países, incluindo Reino Unido, França, Índia e Malásia, manifestaram intenção de investigar a empresa de Musk. O próprio Grok, por sua vez, reconheceu a existência de "falhas nos mecanismos de proteção" que resultaram na geração de imagens sexualizadas, inclusive de crianças, e prometeu correções urgentes. No entanto, o problema persiste, com críticas contundentes sobre a oferta de um "modo picante" que exibe conteúdo sexual explícito, levantando questões sobre a responsabilidade das plataformas e o impacto contínuo nas vítimas.

Legislação Brasileira Contra Deepfakes

A legislação brasileira é clara ao tipificar a criação e o compartilhamento de imagens íntimas falsas sem autorização como crime. A advogada especialista em direito digital, Patrícia Peck, reforça que os responsáveis por tais atos, incluindo aqueles que meramente replicam o conteúdo, estão sujeitos a punição. Essa penalidade visa coibir a prática e proteger as vítimas de deepfakes, garantindo que haja consequências legais para a manipulação e disseminação indevida de imagens.

Controvérsias e Resposta do Grok/X

A inteligência artificial Grok, do X, tem sido alvo de intensa crítica e escrutínio internacional devido à sua capacidade de gerar deepfakes sexualizados. A França, por exemplo, já havia denunciado a IA de Musk por este tipo de caso, e a Comissão Europeia para assuntos digitais classificou como ilegal e revoltante a oferta de um 'modo picante' que exibe conteúdo sexual explícito. Diante da pressão regulatória e da repercussão dos casos, o Grok afirmou que corrigiria urgentemente as falhas que levaram à geração dessas imagens, especialmente as envolvendo crianças. Contudo, a frequência e o volume de imagens geradas por IA no X permanecem uma preocupação central para usuários e reguladores globais.

Investigações de Reguladores e a Resposta da Plataforma

A brasileira Giovanna (nome fictício) relatou um profundo trauma e um "sentimento horrível" após descobrir que uma foto sua, originalmente de calça, foi alterada por inteligência artificial (IA) e postada no X (antigo Twitter) exibindo-a de biquíni. A manipulação foi realizada através da Grok, a IA da plataforma de Elon Musk, gerando choque e constrangimento para a vítima.

Este incidente insere-se na crescente prática de deepfakes, onde fotos de anônimos e famosos são modificadas por IA para exibir nudez ou pouca roupa, espalhando-se rapidamente no X. No Brasil, o problema ganhou notoriedade com a denúncia da jornalista Julie Yukari, cujas fotos também foram manipuladas de forma similar. A legislação brasileira criminaliza a criação e o compartilhamento de imagens íntimas falsas sem autorização, com punições para os responsáveis e replicadores.

Investigações de Reguladores e a Resposta da Plataforma

Reguladores de países como Reino Unido, França, Índia e Malásia anunciaram planos de investigar a empresa de Elon Musk devido à proliferação dessas imagens. A França já havia denunciado a Grok por oferecer um "modo picante" com conteúdo sexualmente explícito, incluindo material gerado a partir de imagens com aparência infantil, considerado ilegal e revoltante, conforme declaração do porta-voz da Comissão Europeia, Thomas Regnier.

Em resposta às críticas e denúncias, a Grok afirmou que corrigiria "falhas nos mecanismos de proteção" que levaram à geração de imagens sexualizadas, especialmente aquelas envolvendo crianças. A escala do problema é alarmante: entre 5 e 6 de outubro, a IA do X criou 6.700 imagens por hora identificadas como sexualmente sugestivas ou de nudez, um número significativamente superior às 79 imagens por hora geradas por cinco sites especializados em deepfakes pagos, conforme levantamento da pesquisadora Genevieve Oh.

A Escala do Problema e o Alvo Principal dos Ataques

Uma brasileira, identificada como Giovanna*, expressou profundo trauma e indignação após descobrir que uma foto sua de biquíni estava circulando na rede social X (anteriormente Twitter). A imagem original, postada em seus stories, mostrava-a de calça, mas foi alterada digitalmente pela inteligência artificial Grok, da plataforma de Elon Musk, para exibir pouca roupa. 'É um sentimento horrível. Eu me senti suja', relatou a vítima.

Este incidente insere-se no contexto de uma crescente onda de manipulação de imagens por inteligência artificial, conhecida como deepfake, que se popularizou no X no último mês, transformando-se em uma 'trend' global. No Brasil, o problema ganhou destaque com a denúncia da jornalista Julie Yukari, cujas fotos também foram manipuladas pela Grok. A legislação brasileira criminaliza a criação e o compartilhamento de imagens íntimas falsas sem consentimento, com punições aplicáveis tanto aos criadores quanto aos replicadores do conteúdo.

A Escala do Problema e o Alvo Principal dos Ataques

A proliferação de deepfakes no X tem gerado preocupação internacional, com reguladores de países como Reino Unido, França, Índia e Malásia anunciando investigações sobre a empresa de Elon Musk. A própria Grok já se comprometeu a corrigir 'falhas nos mecanismos de proteção' que resultaram na geração de imagens sexualizadas, incluindo aquelas que aparentam crianças em trajes mínimos, uma prática já denunciada pela França. Uma pesquisa recente da especialista Genevieve Oh, citada pela Bloomberg, revela a alarmante escala do problema: entre os dias 5 e 6 de um período monitorado, a IA do X gerou 6.700 imagens por hora consideradas sexualmente sugestivas ou de nudez. Paralelamente, sites especializados em deepfakes registraram uma média de 79 novas imagens de nudez por IA por hora. Este cenário sublinha que as mulheres continuam a ser as principais vítimas de constrangimento e exploração no X, em um ritmo cada vez mais acelerado.

Fonte: https://g1.globo.com

Artigos relacionados

Botão Voltar ao topo