NOVA YORK: Imagens de inteligência artificial podem ser usadas para criar arte, experimentar roupas em provadores virtuais ou ajudar a criar campanhas publicitárias. Mas os especialistas temem que o lado sombrio das ferramentas facilmente acessíveis possa piorar algo que prejudica principalmente as mulheres: a pornografia deepfake não consensual.
Deepfakes são vídeos e imagens que foram criados digitalmente ou alterados com IA ou aprendizado de máquina. A pornografia criada usando a tecnologia começou a se espalhar pela internet há vários anos, quando um usuário do Reddit compartilhou clipes que colocavam os rostos de celebridades femininas nos ombros de atores pornôs.
Desde então, criadores de deepfake têm disseminado vídeos e imagens semelhantes visando influenciadores online, jornalistas e outras pessoas com perfil público. Milhares de vídeos existem em uma infinidade de sites. E alguns oferecem aos usuários a oportunidade de criar suas próprias imagens – essencialmente permitindo que qualquer pessoa transforme quem quiser em fantasias sexuais sem seu consentimento ou use a tecnologia para prejudicar ex-parceiros.
O problema, dizem os especialistas, cresceu à medida que se tornou mais fácil fazer deepfakes sofisticados. E eles dizem que pode piorar com o desenvolvimento de ferramentas de IA generativas que são treinadas em bilhões de imagens da internet e cuspir novos conteúdos usando dados existentes.
“A realidade é que a tecnologia continuará a se desenvolver e se tornará tão fácil quanto apertar o botão”, disse Adam Dodge, o fundador do EndTAB, um grupo que oferece treinamentos sobre abuso possibilitado pela tecnologia. “E enquanto isso acontecer, as pessoas continuarão a usar mal a tecnologia para prejudicar outras pessoas, principalmente por meio de violência sexual online, pornografia deepfake e imagens falsas de nudez”.
Noelle Martin, de Perth, na Austrália, vivenciou essa realidade. A jovem de 28 anos encontrou um pornô deepfake de si mesma há 10 anos, quando, por curiosidade, um dia usou o Google para pesquisar uma imagem sua. Até hoje, martinho diz que não sabe quem criou as imagens falsas ou vídeos dela praticando relações sexuais. Horrorizado, Martin entrou em contato com diferentes sites por vários anos em um esforço para remover as imagens. Alguns não responderam. Outros o derrubaram, mas ela logo o encontrou novamente. “Você não pode vencer”, disse ela. Eventualmente, Martin voltou sua atenção para a legislação, defendendo uma lei nacional na Austrália que multaria as empresas em 555.000 dólares australianos (US$ 370.706) se elas não cumprissem os avisos de remoção de tal conteúdo dos reguladores de segurança online.
Mas governar a internet é quase impossível quando os países têm suas próprias leis para conteúdo que às vezes é feito do outro lado do mundo. Enquanto isso, alguns modelos de IA dizem que estão restringindo o acesso a imagens explícitas. ap
Deepfakes são vídeos e imagens que foram criados digitalmente ou alterados com IA ou aprendizado de máquina. A pornografia criada usando a tecnologia começou a se espalhar pela internet há vários anos, quando um usuário do Reddit compartilhou clipes que colocavam os rostos de celebridades femininas nos ombros de atores pornôs.
Desde então, criadores de deepfake têm disseminado vídeos e imagens semelhantes visando influenciadores online, jornalistas e outras pessoas com perfil público. Milhares de vídeos existem em uma infinidade de sites. E alguns oferecem aos usuários a oportunidade de criar suas próprias imagens – essencialmente permitindo que qualquer pessoa transforme quem quiser em fantasias sexuais sem seu consentimento ou use a tecnologia para prejudicar ex-parceiros.
O problema, dizem os especialistas, cresceu à medida que se tornou mais fácil fazer deepfakes sofisticados. E eles dizem que pode piorar com o desenvolvimento de ferramentas de IA generativas que são treinadas em bilhões de imagens da internet e cuspir novos conteúdos usando dados existentes.
“A realidade é que a tecnologia continuará a se desenvolver e se tornará tão fácil quanto apertar o botão”, disse Adam Dodge, o fundador do EndTAB, um grupo que oferece treinamentos sobre abuso possibilitado pela tecnologia. “E enquanto isso acontecer, as pessoas continuarão a usar mal a tecnologia para prejudicar outras pessoas, principalmente por meio de violência sexual online, pornografia deepfake e imagens falsas de nudez”.
Noelle Martin, de Perth, na Austrália, vivenciou essa realidade. A jovem de 28 anos encontrou um pornô deepfake de si mesma há 10 anos, quando, por curiosidade, um dia usou o Google para pesquisar uma imagem sua. Até hoje, martinho diz que não sabe quem criou as imagens falsas ou vídeos dela praticando relações sexuais. Horrorizado, Martin entrou em contato com diferentes sites por vários anos em um esforço para remover as imagens. Alguns não responderam. Outros o derrubaram, mas ela logo o encontrou novamente. “Você não pode vencer”, disse ela. Eventualmente, Martin voltou sua atenção para a legislação, defendendo uma lei nacional na Austrália que multaria as empresas em 555.000 dólares australianos (US$ 370.706) se elas não cumprissem os avisos de remoção de tal conteúdo dos reguladores de segurança online.
Mas governar a internet é quase impossível quando os países têm suas próprias leis para conteúdo que às vezes é feito do outro lado do mundo. Enquanto isso, alguns modelos de IA dizem que estão restringindo o acesso a imagens explícitas. ap