Por que criadores decidiram encerrar aplicativo que 'remove' roupas em fotos de mulheres

Mulher olhando o celular Direito de imagem Getty Images
Image caption Aplicativo poderia tornar qualquer mulher uma vítima de pornografia de vingança, disse ativista

Um aplicativo que anunciava ser capaz de remover digitalmente roupas em fotos de mulheres para gerar falsos nus foi tirado do ar por seus criadores.

O aplicativo Deepnude, que custava US$ 50 (R$ 191), ganhou atenção e críticas depois de um artigo publicado no site de notícias de tecnologia Motherboard.

No texto, uma ativista contra a chamada pornografia de vingança chamou a ferramenta de "apavorante".

Os desenvolvedores então decidiram remover o software da web dizendo que o mundo não estava pronto para ele.

"A probabilidade de as pessoas usarem-no de forma indevida é muito alta", escreveram os programadores em uma mensagem no Twitter. "Não queremos ganhar dinheiro dessa maneira."

Eles disseram que qualquer pessoa que tenha comprado o aplicativo receberá um reembolso, acrescentando que não haverá outras versões disponíveis e retirando o direito de qualquer outra pessoa de usá-lo.

Os desenvolvedores também pediram que os internautas que já tenham uma cópia não a compartilhem, embora o aplicativo ainda funcione para qualquer um que o possua.

Direito de imagem Getty Images
Image caption Aplicativo usava redes baseadas em inteligência artificial para "remover" roupas de mulheres em fotos

Vítimas da vingança

A equipe disse que o Deepnude foi criado como "entretenimento" há alguns meses e oferecido - em modelos para Windows e Linux - em um site.

O programa estava disponível em duas versões: uma gratuita que colocava grandes marcas d'água sobre as imagens criadas e uma versão paga que acrescentava um pequeno selo de "falso" em um canto da foto.

Em sua declaração, os desenvolvedores também disseram: "Honestamente, o aplicativo nem é tão bom, só funciona com fotos específicas".

Apesar disso, o interesse gerado pelo artigo do Motherboard levou o site do app a sair do ar depois que muita gente tentou baixar o software ao mesmo tempo.

Em entrevista ao Motherboard, Katelyn Bowden, fundadora do grupo Badass, que combate pornografia de vingança, chamou a ferramenta de "apavorante".

"Agora qualquer uma pode se ver vítima de pornografia de vingança, sem nunca ter tirado uma foto nua", disse. "Esta tecnologia não deveria estar disponível ao público."

O programa supostamente usa redes neurais artificiais - baseadas em inteligência artificial - para remover roupas em imagens de mulheres e produzir nus realistas.

As redes foram treinadas para descobrir onde as roupas estão em uma foto, mascará-las ao combinar tons de pele, iluminação e sombras e, em seguida, preencher o mesmo espaço com as características físicas estimadas.

A tecnologia é similar à usada para criar os chamados deepfakes, em que fotos e vídeos são manipulados para produzir clipes falsos, nos quais, por exemplo, o rosto de uma pessoa é inserido no corpo de outra.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!

Tópicos relacionados

Notícias relacionadas