Nudes gerados por inteligência artificial invadem privacidade de mulheres

Aplicativos e plataformas na internet usam tecnologia para gerar conteúdos pornográficos sem regulação
por
Gabriela Costa, Isabela Lago e Julio Cesar Ferreira
|
26/06/2023
Mulher com rosto embaçado ao lado de parte intíma de boneca e fundo com IA colorida de rosa
A Sensity, empresa de Amsterdã focada em softwares de IA, relatou que, entre julho de 2019 e 2020, aproximadamente 104.852 mulheres tiveram suas imagens alteradas e compartilhadas publicamente (Montagem/Julio Cesar Ferreira)

 

A influencer do aplicativo TikTok, Nathalia Valente, viralizou ao afirmar que vai abrir denúncia contra nudes suas vendidas sem seu consentimento na internet. A diferença para outros casos semelhantes de vazamento de fotos íntimas é que a jovem nunca tirou essas fotos. Essas imagens foram desenvolvidas a partir de inteligência artificial (IA), o chamado “deepnude”.

"Várias pessoas vieram me falar no Twitter, no Telegram, que estão vendendo fotos minhas nuas, sendo que não existem essas fotos. Isso é uma violação tão grande, minha intimidade, minha segurança, minha família. Tudo isso porque uma pessoa quer ganhar dinheiro", disse Nathalia em um desabafo nas redes sociais.

A expressão “deepnude” advém de um aplicativo criado em 2019 com o mesmo nome e segue a premissa do deepfake, uma prática que permite a modificação de imagens ou sons humanos. Dentro dessa combinação, há duas formas possíveis de desenvolver um conteúdo íntimo de alguém.

A primeira maneira é colocando o rosto da pessoa em um vídeo pornográfico que já existe. Já a segunda, é a remoção das roupas, quaisquer que sejam, para a produção de nudes artificiais, como é o caso de Nathalia. Na foto original, a jovem usa apenas um traje de banho, mas a versão compartilhada e vendida a mostra totalmente nua.

Para o mestre em tecnologias da inteligência e design digital, Diogo Cortiz, a inteligência artificial “é uma tecnologia feita para criar conteúdos sintéticos, e que você pode usar para trazer conteúdos supercriativos e interessantes, além de entretenimento. Mas é uma ferramenta, e essa ferramenta também pode ser utilizada para consequências indesejadas”. 

“Gosto de sentir um certo controle”

Um levantamento feito pelo veículo El País aponta que existem pelo menos 96 apps disponíveis para a geração de nudes convincentes a partir da imagem de uma pessoa, a maioria deles funcionando de forma efetiva apenas com fotos de mulheres. Além disso, vídeos com tecnologia deepfake já se encontram em plataformas de pornografia de grande alcance como Pornhub. Bots do Telegram e servidores no Discord são locais onde o próprio usuário pode requisitar uma nude falsa; algumas gratuitas e outras após pagamento. 

"Eu nunca quis um retorno financeiro, não era o objetivo. Eu só tinha a curiosidade de saber o quão longe a IA conseguiria chegar e quantas pessoas estariam dispostas a participar”, expõe Pedro, usuário à frente de um servidor no Discord que tem como objetivo a produção de imagens falsas de mulheres nuas. 

O jovem de 23 anos conta que a ideia para a criação desse tipo de inteligência artificial veio dos fóruns do Reddit e 4chan que frequentava desde a adolescência. “Quando comecei a ouvir sobre esses deepnudes, pensei em testar se conseguia reproduzir algo semelhante e criar um servidor próprio. Com o avanço da internet hoje, se eu não fizesse, outra pessoa faria, então não vi problema”. 

O usuário (que preferiu o anonimato, portanto, o nome citado na reportagem é um pseudônimo), também tenta analisar o próprio impulso de criação: “acho que eu gosto de sentir um certo controle sabendo que consigo ter esse tipo de imagem de qualquer pessoa, mesmo sem a permissão dela”. 

Entre os produtos gerados pela inteligência artificial dentro do servidor de Pedro, a maioria são de modelos ou influencers que costumam usar roupas “provocativas”, de acordo com ele. “No geral, há meninas nem tão desconhecidas, mas nem tão famosas. Mas tem muitos casos de mulheres anônimas também”. 

Pedro conta ainda que, embora não lucre com o servidor, marcas já procuraram ele para realizar publicidade dentro da comunidade que ele gere. 

Fora do Discord, o bot do Telegram “BikiniOff” também gera esse tipo de conteúdo. A plataforma permite que o usuário crie apenas uma foto de forma gratuita, mas para continuar usando é necessário pagar. Com 6 dólares (aproximadamente R$ 30) é possível obter 10 créditos para gerar um deepnude, sendo que cada crédito corresponde a uma imagem. 

A versão grátis também não permite que nudes sejam produzidos, sendo possível somente colocar a pessoa em roupas íntimas, biquínis ou outros modelos disponíveis. A IA também consegue processar tanto fotos de mulheres quanto de homens e não aceita a imagem submetida caso julgue se tratar de uma criança.

Casos na Justiça

A Sensity, empresa de Amsterdã focada em softwares de IA, relatou que, entre julho de 2019 e 2020, aproximadamente 104.852 mulheres tiveram suas imagens alteradas e compartilhadas publicamente.

Dentro desse número estão vítimas como Juliana, que também exigiu usar um pseudônimo para não ser identificada. A jovem passou por situação de chantagem no término de um relacionamento, e o ex-namorado ameaçou divulgar nudes para a família dela caso o namoro não voltasse. As fotos, entretanto, foram geradas por inteligência artificial.

O caso de Juliana está sendo operado de forma extrajudicial, porque a vítima teve medo da possível exposição decorrida do processo, segundo a advogada Marina Affonso Silva, especialista em direito digital.

A jurista Priscila Reis, mestre em tecnologias da inteligência e design digital, acredita que é importante entender que a inteligência artificial só tem atitudes discriminatórias por conta de características do próprio sistema humano que a programou. “Quando a gente está falando de aprendizado de máquina supervisionado, os resultados delas acabam sendo tendenciosos e cheio de viés, porque os humanos indicam para as máquinas o que é o certo”, explica.

Dora Kaufman, pesquisadora dos impactos éticos e sociais da IA também argumenta que as iniciativas de autorregulação das grandes empresas de tecnologia, as chamadas big techs, não funcionam “porque quando entram em conflito com os interesses comerciais, 100% das vezes prevalecem os interesses comerciais”, enfatiza. Todavia, as empresas e plataformas podem criar essa tecnologia, ainda que muitas não o façam. 

No Brasil, ainda não há nem a regulamentação de inteligência artificial dentro do meio jurídico. Submetida por Rodrigo Pacheco (PSD), o PL 2338/2023 seria um marco legal da discussão no país, o qual segue o “AI Act” proposto pela União Europeia de regulação de fornecedores de IA. Ainda sem relator ou comissão para avaliar e coordenar o processo, o projeto de lei segue estacionado. A assessoria do senador, ao ser contatada pelo Contraponto Digital a respeito de possíveis prazos para essa tramitação, não se pronunciou.

Priscila retoma e diz que a falta de “explicabilidade” das inteligências artificiais torna a criação de uma legislação específica mais difícil. “O processo de aprendizado da máquina é inerente ao sistema. Se for um âmbito muito avançado, não é possível nem explicar como chegou-se naquela solução, mas a lei exige essas explicações”, afirma.

A advogada também comentou ser um processo natural: primeiro a ferramenta se desenvolve, e depois a legislação surge. As discussões e investimentos nessa área, no Brasil, porém, não estão tão avançadas na avaliação dos especialistas entrevistados. 

Encaminhamento jurídico

A lei Geral de Proteção de Dados Pessoais e a lei Carolina Dieckmann são exemplos de jurisprudência já estabelecidas no Brasil. Entretanto, apesar de regularem o uso de informações e imagens pessoais na internet, ambas estão longe de comportar as implicações da inteligência artificial. 

Priscila comenta que as redes sociais têm suas próprias regras e, conforme o caso, se a plataforma não remover o conteúdo automaticamente por conter nudez, assédio e até em casos mais graves conteúdos de pedofilia, a vítima pode recorrer à justiça, provar que foi vítima e exigir a exclusão do conteúdo da plataforma. 

Diogo completa afirmando que a lei Carolina Dieckmann, que cobre algumas questões relacionadas ao vazamento de nudes e crimes on-line, ainda não tem nada específico para deepfake e inteligência artificial. 

Paralelamente, todas essas ações que existem ou podem surgir só têm atuação na camada superficial da internet, pois a deep web seguirá com a produção e difusão de conteúdos impróprios a partir do uso do IP próprio e VPNs (rede privada que permite alterar a localização do usuário), dificultando localizar uma pessoa que comete um crime digital. 

Já em relação às práticas de proteção para não se tornar uma vítima de uma produção de deepfake ou deepnude de maneira geral, a advogada reflete negativamente que só se a pessoa “viver isolada”, pois qualquer foto, vídeo ou áudio que tenha sido postado on-line pode agora ser assimilado ou distorcido por meio da IA. 

Tags:

Ciências e Tecnologia

path
ciencia-tecnologia