“Alarmante” e “fácil”. Como a IA ‘despiu’ Taylor Swift e o que se disse?

31/01/2024 13:45 - Modificado em 31/01/2024 13:45
© Marcelo Endelli/TAS23/Getty Images for TAS Rights Management

Artista foi alvo de imagens pornográficas falsas, o que gerou uma onda de indignação, desde a polícia à tecnologia. Contudo, o ‘azar’ da artista poderá ajudar a sensibilizar as autoridades para os problemas associados à IA. Eis um resumo do que aconteceu.

A Inteligência Artificial (IA) e Taylor Swift andaram de ‘mãos dadas’, na última semana, mas pelas piores razões. Foram criadas imagens pornográficas falsas da cantora através de IA generativa, o que gerou uma onda de reações, mas também um claro alerta para os perigos associados à IA. Mas, afinal, o que se passou e o que se disse?

Tudo começou quando se percebeu que estavam a circular imagens pornográficas falsas [‘deepfakes’, na expressão em inglês] da artista, tendo uma delas sido vista mais de 47 milhões de vezes na rede social X (antigo Twitter). Só nessa plataforma, a imagem esteve visível durante mais de 17 horas até ser excluída. 

As imagens terão começado a circular num grupo de Telegram e terão sido geradas por via do software Microsoft Designer. Contudo, foi na X que se tornaram virais. 

As ‘deepfakes’ de mulheres famosas ou anónimas não são novidade, mas o facto de terem afetado Taylor Swift poderá ter ajudado a alertar para o problema, nomeadamente as autoridades. 

“O único ‘ponto positivo’ de isto acontecer com Taylor Swift é que ela pesa o suficiente para que seja aprovada uma lei para eliminar isto”, sublinhou no X Danisha Carter, influenciadora com várias centenas de milhares de seguidores nas redes sociais.

Rede X diz ter “polícia ter tolerância zero” e bloqueia pesquisas com o nome de Taylor Swift

A X, conhecida por ter regras menos rígidas sobre nudez do que o Instagram ou o Facebook, emitiu um comunicado após o sucedido. Além de referir ter “uma política de tolerância zero” relativamente à publicação não consensual de imagens de nudez, assegurou estar “a remover todas as imagens identificadas” da cantora e “a tomar as medidas necessárias contra as contas que as publicaram”.

Contudo, a plataforma detida por Elon Musk foi acusada de lentidão no processo e os fãs da cantora entraram em cena, iniciando uma campanha com hashtags com fotografias reais da cantora norte-americana na esperança de ‘enterrar’ as imagens geradas por via de IA.

Na segunda-feira, a X confirmou ao The Wall Street Journal que bloqueou pesquisas feitas com o nome da artista, de forma a impedir que sejam disseminadas as imagens.

“Esta é uma medida temporária tomada por excesso de zelo enquanto damos prioridade à segurança neste assunto”, afirmou o responsável de operações comerciais do X, Joe Benarroch, em comunicado.

Já esta terça-feira a funcionalidade foi restaurada e voltou a ser permitido pesquisar pela artista naquela rede social. No entanto, quando o utilizador pesquisa por “Taylor Swift IA”, os resultados continuam bloqueados. 

As reações e o envolvimento da Casa Branca. Afinal, foi Taylor Swift quem ‘despiu’ a IA?

Uma das mais recentes reações chegou por parte do CEO da Microsoft, Satya Nadella. O responsável disse afirmou, numa entrevista, que considera o sucedido “alarmante e terrível”. 

“Diria duas coisas. A primeira é o que penso que sejam as nossas responsabilidades, que é colocar todas as proteções que temos de colocar em volta da tecnologia para que haja mais conteúdo seguro a ser produzido. E há muito a fazer-se e a ser feito nesta área”, notou Nadella.

O caso foi ainda comentado por figuras da política norte-americana, como foi o caso de uma congressista democrata que apoiou uma lei para o combate a estas fotos.

“O que aconteceu a Taylor Swift não é novo, as mulheres têm sido alvo de imagens falsas sem o seu consentimento durante anos”, disse, citada pela AFP. “Com os avanços na IA, criar estas imagens é mais fácil e barato”, notou.

Mas também do lado republicano houve quem se pronunciasse, como foi o caso de legislador Tom Keane que apontou que “a tecnologia de IA está a avançar mais rápido do que as barreiras necessárias”.

“Se a vítima for Taylor Swift ou qualquer jovem do nosso país, devemos estabelecer salvaguardas para combater essa tendência alarmante”, acrescentou.

Na passada sexta-feira, a Casa Branca pronunciou-se sobre o assunto, alertando que as empresas têm um papel importante para prevenir a propagação de desinformação.

“É muito alarmante. Por isso, vamos fazer tudo o que estiver ao nosso alcance para resolver esta questão”, explicou a porta-voz da Casa Branca, Karine Jean-Pierre, numa conferência de imprensa, acrescentando que o Congresso deveria tomar medidas legislativas sobre o assunto.

“Embora as empresas de redes sociais tomem as suas próprias decisões independentes sobre a gestão de conteúdos, acreditamos que têm um papel importante a desempenhar na aplicação das suas próprias regras para evitar a propagação de desinformação e de imagens íntimas não consensuais de pessoas reais”, disse a porta-voz presidencial. 

De notar que ativistas e reguladores têm alertado para o facto de o desenvolvimento de programas generativos de IA correr o risco de produzir um fluxo incontrolável de conteúdos degradantes.

[Notícia atualizada às 13h45]

Comente a notícia

Obrigatório

Publicidades
© 2012 - 2024: Notícias do Norte | Todos os direitos reservados.