domingo, 17 de novembro de 2024

A sexualização da mascote vaticana Luce com IA e os limites da regra 34 da internet

Qualquer mulher pode ser sexualizada sem consentimento. Se o pornô teve alguma vez limites, mesmo que fracos, a inteligência artificial (IA) os destruiu todos. As primeiras vítimas foram famosas, mas a proliferação de criações falsas com aparência real (deepfakes) com ferramentas cuja disponibilidade se multiplicou por 40 em apenas um ano e meio, segundo as Nações Unidas, ampliou os alvos.

Continua após a publicidade

Agora, qualquer política, vizinha ou colega de classe ou trabalho pode ver sua imagem vulnerada. Uma das últimas vítimas nem sequer é real. Trata-se de Luce, uma mascote criada por Simone Legno, cofundador da Tokidoki, que quer representar uma jovem peregrina do próximo Jubileu (ano santo). Em menos de 24 horas, as páginas de criações com IA a transformaram em um ícone sexual alegando que, de acordo com a oficiosa “regra 34” da internet, “tudo pode se tornar pornô”.

A intenção do Vaticano era imaculada. Apresentou sua mascote (Luz em italiano) no dia 30 na abertura do Pavilhão da Santa Sé na Expo Osaka (Japão) do próximo ano como “símbolo de esperança e fraternidade” para os jovens, como explicou o arcebispo Rino Fisichella, organizador do Jubileu. Mas em menos de 24 horas, as páginas de imagens feitas com inteligência artificial (evita-se sua identificação para não promovê-las) abriram a gabardina amarela (cor da bandeira vaticana) de Luce e a despiram de suas botas manchadas de barro do caminho para deixá-la apenas com seus símbolos católicos e submetê-la a todo tipo de recriações pornográficas.

Continua após a publicidade

“As mulheres são as canárias na mina em relação ao abuso da inteligência artificial. Não vai ser apenas a garota de 14 anos ou Taylor Swift, serão as políticas, as líderes mundiais, as eleições. Somos muito poucos e chegamos muito tarde, mas ainda podemos tentar mitigar o desastre que está surgindo”, alerta Mary Anne Franks, professora da Universidade George Washington e presidenta de Direitos Civis Cibernéticos.

A realidade lhe dá razão. Uma página que coleta de forma constante incidentes da IA aponta até seis políticas britânicas vítimas de pornografia deepfake ao longo dos anos. A que foi candidata democrata à presidência dos EUA, Kamala Harris, conta com categorias próprias no mesmo site que sexualizou a mascote vaticana e se tornou alvo da violência online.

Mas não são apenas políticas. O mesmo registro de denúncias sobre abusos da IA revela uma enxurrada de meninas despidas por seus colegas em instituições a partir de imagens reais publicadas nas redes sociais. E a vítima pode ser qualquer uma, desde uma vizinha até uma colega de trabalho.

O problema é de tal magnitude que as Nações Unidas contam com uma unidade especializada em violência de gênero facilitada pela tecnologia (TFGBV, siglas de Technology Facilitated Gender Based Violence). Alexandra Robinson é uma de suas assessoras e alerta: “O número de ferramentas de IA disponíveis para criar deepfakes aumentou de 5 para 200 nos últimos 18 meses, o que indica que essas tecnologias e a troca não consensuada de imagens sintéticas estão sendo cada vez mais utilizadas na perpetração da violência de gênero no ambiente de trabalho.”

“Criar um vídeo pornô deepfake de 60 segundos de qualquer pessoa usando apenas uma imagem facial clara leva menos de 25 minutos e o custo é 0”, explica Robinson. As vítimas, segundo detalha, são mulheres em 99% dos casos e em todos os âmbitos.

Nesse sentido, Alexandra Robinson chama a atenção para a extensão do problema: “As pessoas não famosas são alvos da violência de gênero online. Onde quer que a tecnologia esteja disponível, cria-se um espaço ou uma ferramenta através da qual se pode perpetrar a violência”. Ela corrobora com uma pesquisa de 2021 que eleva a 85% o percentual de mulheres que, em todo o mundo, presenciaram ou experienciaram (38%) violência online, principalmente pessoas racializadas, coletivos LGTBIQ+, políticas, jovens, ativistas dos direitos humanos e jornalistas, segundo a pesquisa CNN As Equals e Plan International.

Em todos os casos, o objetivo é a violência sexual a partir de cosificar, denegrir, vulnerar o direito à própria imagem, intimidar e até mesmo extorquir. Mas quando a vítima é uma política, acrescentam-se tentativas de silenciar e danificar sua reputação pessoal para, ao mesmo tempo, segundo aponta Robinson, “erosão a confiança nas instituições democráticas ao utilizar a desinformação de gênero para dissuadir as mulheres de participar da política.”

A polêmica “regra 34” da internet

A página com mais recriações vexatórias da mascote católica se ampara em uma popular “norma” da internet, chamada “regra 34”: “Se algo existe, pode ser pornografiado [reproduzido pornograficamente]”. Isso se complementa com a seguinte, que alerta que, se há algo que não se tornou pornô, acabará se tornando.”

Ricard Martínez, diretor da cátedra de Privacidade e Transformação Digital e professor da Universidade de Valência, rebate de forma categórica: “Não se pode sexualizar sem consentimento nenhuma imagem, mesmo que se especifique que é uma recriação. Todos e cada um de nós temos reconhecido o direito à própria imagem, à vida privada e à honra. Nos ambientes digitais devemos entender isso de um ponto de vista prático e material. Utilizar sem permissão a imagem de alguém para sexualizá-la constitui um comportamento ilícito.”

Martínez acredita que implica todo o espectro que inclui conteúdos vexatórios, mesmo aqueles que queiram se amparar no “animus iocandi”, caricaturas com intenção jocosa ou de brincadeira.

Recriação erótica da mascote vaticana Luce publicada na internet.

O especialista em direito faz esta precisão para se referir à sexualização da mascote vaticana: “É óbvio que a mascote está amparada pelos direitos de propriedade intelectual, mas não é a única questão. Se você pega uma mascote que é o emblema oficial de uma atividade que, além disso, neste caso, é de caráter religioso ou social, e a sexualiza, ridicularizando-a, por um lado, altera uma imagem que está sujeita a propriedade intelectual; mas, além disso, do ponto de vista material, não se sexualiza apenas uma mascote, mas o que ela representa. Nesse sentido, a afetação de direitos vai muito além e impacta diretamente na esfera dos direitos do coletivo que representa.”

No caso da caricatura de mulheres do âmbito da política, há um terreno diferenciado entre o exercício da liberdade de expressão para contribuir para a formação de uma opinião pública livre e a sexualização. “Estaríamos falando de uma conduta que lesa sua imagem pública, sua honra e sua intimidade e que, além disso, a prejudica e a ameaça gravemente de forma instrumental. Adicionalmente, produz-se um efeito multiplicador: como com a mascote, não estamos apenas sexualizando a pessoa ou personagem, mas tudo aquilo que representa”, alerta.

Assim como Alexandra Robinson, a assessora das Nações Unidas, e Anne Franks, a professora da Universidade George, Ricard Martínez alerta sobre o “efeito devastador sobre a convivência política e cidadã”. “A intenção óbvia é polarizar a opinião pública e gerar alterações da ordem pública e constitucional. Portanto, há um perigo adicional de gerar riscos sistêmicos para a democracia”, explica.

Dessa forma, os deepfakes não são uma mera ferramenta criativa, mas também delitiva em muitos casos. E para evitar isso, Martínez não apenas envolve a responsabilidade individual, para a qual reclama educação digital e sexual, mas também as plataformas prestadoras de serviços digitais que facilitam sua criação e difusão, obrigadas por lei a analisar e evitar de forma proativa essas práticas.

“Está ocorrendo uma sexualização da mulher na internet, um aumento dos comportamentos machistas, um retorno a uma concepção cosificada e instrumental delas como puro objeto de prazer ao serviço do homem em uma espiral que deveria preocupar extraordinariamente e motivar reações contundentes”, conclui.

Robinson concorda: “Existem várias formas de mudar a violência contra as mulheres na internet. Em primeiro lugar, por meio da legislação e da política [a especialista destaca a eSafety da Austrália], mas também através de um maior foco na alfabetização digital e na aplicação da segurança.”

Ela também menciona ferramentas como StopNCII, que permite a qualquer pessoa rastrear e eliminar imagens íntimas não consensuais, “limpar o perfil digital para garantir que essas imagens não possam ser localizadas, incluindo nas redes sociais de amigos e familiares.”.

Continua após a publicidade
Redação
Redação
Equipe de jornalismo

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Vitória, ES
Amanhecer
04:53 am
Anoitecer
05:59 pm
26ºC
Chuva
0.14mm
Velocidade do Vento
3.6 km/h
18/11
Seg
Mínima
22ºC
Máxima
26ºC
19/11
Ter
Mínima
22ºC
Máxima
27ºC
20/11
Qua
Mínima
23ºC
Máxima
28ºC
21/11
Qui
Mínima
23ºC
Máxima
28ºC
Colunistas
Ulisses Mantovani

A herança musical africana no Brasil (parte 1)

Leia também