Imagens sensuais geradas por IA vendidas no Reddit

O Reddit tem um ponto de promoção para fotografias geradas por IA com conteúdo sexual: em espaços destinados a um público adulto, postagens contendo fotografias eróticas geradas por IA estão proliferando a uma taxa impressionante. A serviço dos fóruns, outras pessoas se aproveitam do anonimato para comercializar muito, e também para mentir para os incautos.

O conceito é criar conteúdo pornográfico falso, mas realista, de outras pessoas que não existe. A falsa “nudez” tem o mérito de não ter paternidade, pelo que podem ser vendidas livremente sem qualquer autorização. Muitas outras pessoas acabam caindo no golpe porque não conseguem contar a mentira na foto.

No Reddit, a regra é apenas uma: crie sua própria arte com IA e venda-a para qualquer um que se importe. É uma opção “mais aceitável” para falsificar profundamente a pornografia criminal, que se tornou popular na última década e levou a enormes problemas legais. , no entanto, tem causado muitas dores de cabeça para os compradores enganados.

Você pode encontrar praticamente qualquer coisa nos fóruns, desde equipes de modelos sintéticos em poses sensuais até mais coisas como mulheres adultas em fraldas. Os compradores, na maioria das vezes, sabem que as fotografias são falsas e compram de qualquer maneira, mas há uma grande quantidade. que o fazem por ignorância.

De acordo com a revista Rolling Store, vários compradores se queixaram de terem sido enganados por meio de fotografias falsas. Claudia, uma suposta estilista erótica que vendia seus nudes, é da geração de fotografias adultas na plataforma Stable Diffusion.

De acordo com a publicação, a conta de Claudia é controlada por dois estudantes de ciência da computação. Eles supostamente começaram a tarefa como uma piada e viram a possibilidade de se beneficiar dela em táticas tão honestas: a dupla afirma ter feito cerca de US $ 100 vendendo as imagens para outras pessoas desavisadas no Reddit.

Quando descobriram a verdadeira identidade de Claudia, ela acabou sendo classificada como uma das falsificações no Reddit, mas já era tarde demais. “Você pode dizer que essa conta é apenas uma verificação para ver se outras pessoas podem ser enganadas com imagens de IA. Honestamente, não achamos que receberia tanta atenção”, disseram os alunos, que preferiram não ser identificados.

Essa é uma tendência que já vinha sendo observada no início deste ano, quando equipamentos para gerar fotografias a partir de modelos de IA se tornaram populares. Muitos usuários brincaram e começaram a criar fotografias hiper-realistas de homens e mulheres em tom de brincadeira, o que abriu uma lacuna para eventual marketing em sites como o OnlyFans.

Agora, os criadores provavelmente terão que migrar para o Reddit por causa de sua política mais liberal sobre o assunto. Os moderadores parecem estar mais conscientes e denunciar todas as postagens com conteúdo suspeito para evitar mais vítimas. No OnlyFans, os artistas devem provar a autenticidade dos modelos, o que obviamente seria mais improvável com o hardware gerado por IA.

O fato é que as plataformas que lidam com conteúdo sexual, específico ou não, terão que dobrar suas técnicas de verificação para evitar tais problemas. Com a IA otimizada, mais arte falsa provavelmente surgirá, além de vídeos e áudios.

Em março, os usuários do chatbot Replika reclamaram depois que o culpado corporativo proibiu interações com adultos porque eles se desviavam do propósito original da ferramenta. A IA poderia se comunicar sobre tópicos sexuais, fazer chamadas de vídeo e até mesmo enviar nudes para os usuários. Após a polêmica, a empresa reverteu sua resolução e devolveu a capacidade ao robô.

Fonte: rolling stone

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *