Meta identificará imagens geradas por IA em suas redes sociais

A gigante americana Meta anunciou, nesta terça-feira (6), que identificará “nos próximos meses” qualquer imagem gerada por Inteligência Artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads. “Nos próximos meses, rotularemos as imagens que os usuários publicarem no Facebook, Instagram e Threads sempre que pudermos detectar indicadores, conforme as normas da indústria, […]

Meta identificará imagens geradas por IA em suas redes sociais

Foto tirada em Mulhouse, leste da França, em 19 de outubro de 2023, mostra a silhueta de uma mulher caminhando perto da logo da Meta. Foto: SEBASTIEN BOZON

A gigante americana Meta anunciou, nesta terça-feira (6), que identificará “nos próximos meses” qualquer imagem gerada por Inteligência Artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads.

“Nos próximos meses, rotularemos as imagens que os usuários publicarem no Facebook, Instagram e Threads sempre que pudermos detectar indicadores, conforme as normas da indústria, que revelem se são geradas por IA”, anunciou o responsável por assuntos internacionais da Meta, Nick Clegg, em um blog.

A empresa já identifica imagens feitas por robôs com a ajuda de sua própria ferramenta, Meta IA, lançada em dezembro.

Daqui para frente, “queremos poder fazer o mesmo com conteúdos criados com ferramentas de outras empresas” como Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, acrescentou o responsável da Meta.

“Estamos construindo essa ferramenta no momento e começaremos a aplicar, nos próximos meses, etiquetas em todos os idiomas compatíveis com cada aplicativo”, destacou.

O aumento da IA generativa faz crescer a preocupação de que as pessoas usem essas ferramentas para semear o caos político, especialmente por meio da desinformação.

Quase metade da população mundial irá às urnas em 2024.

Além do risco político, o desenvolvimento de programas de IA generativa pode resultar em um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.

Como exemplo estão as “deepfakes” pornográficas de mulheres famosas, um fenômeno que também afeta muitas pessoas anônimas.

– “Minimizar” –

Antes de sua remoção, a “deepfake” da estrela americana Taylor Swift foi vista 47 milhões de vezes na rede social X (ex-Twitter), no final de janeiro.

Segundo a imprensa americana, a publicação permaneceu online na plataforma por cerca de 17 horas.

Embora Nick Clegg tenha afirmado que a ferramenta “não eliminará” totalmente o risco de produção de imagens falsas, “certamente minimizará” sua proliferação “dentro dos limites do que a tecnologia permite atualmente”.

“Não é perfeito, não vai cobrir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa à bilhões de pessoas em todo o mundo”, garantiu Clegg à AFP.

“Eu espero profundamente que, fazendo isso, tomando esse caminho, iremos incentivar o restante da indústria (…) a trabalhar junto e realmente tentar desenvolver os padrões comuns que precisamos”, defendeu o líder da Meta, afirmando estar disposto a “compartilhar” sua tecnologia aberta “da forma mais ampla possível”.

Em meados de janeiro, a empresa californiana OpenAI, criadora do ChatGPT, também anunciou o lançamento de ferramentas para combater a desinformação e salientou seu desejo de não permitir o uso de suas tecnologias para fins políticos.

“Queremos garantir que nossa tecnologia não seja usada de maneira que prejudique” o processo democrático, explicou a OpenAI, destacando que seu gerador de imagens DALL-E 3 contém “ressalvas” para evitar que os usuários gerem imagens de pessoas reais, especialmente candidatos.