Um homem foi indiciado por divulgar fotos e vídeos íntimos falsos de mulheres com uso de Inteligência Artificial (IA) em Fortaleza. O suspeito de 27 anos compartilhava as imagens, sem consentimento das vítimas, em plataforma de conteúdo adulto.
Conforme as investigações, o suspeito criou um perfil falso e publicava imagens e vídeos manipulados.
Leia Mais | PF cumpre mandado no Ceará por venda de material contendo abuso sexual infantil
O homem criava o material a partir de fotografias reais de mulheres, coletadas em perfis públicos nas redes sociais, sem o conhecimento e permissão delas. Ao todo, foram identificadas oito mulheres, residentes na Capital, vítimas do suspeito. Nas montagens, as roupas das vítimas eram digitalmente removidas, simulando nudez e os rostos das mulheres eram inseridos em vídeos pornográficos por meio de uso de inteligência artificial, com uso da técnica de “deepfake”.
A Polícia Civil do Ceará (PC-CE) informou que, a partir das provas reunidas, o homem foi indiciado pelos crimes de registro não autorizado da intimidade sexual e divulgação de cena de sexo, nudez ou pornografia com montagem ou adulteração.
Os crimes estão previstos no Código Penal Brasileiro (CPB). A partir do indiciamento realizado pela autoridade policial, o caso será encaminhado ao Poder Judiciário e ao Ministério Público do Ceará (MPCE).
(DIario do Nordeste)