A empresa Meta, dona do Facebook, Instagram, Threads e WhatsApp, anunciou nesta sexta-feira (5) que identificará qualquer conteúdo de imagem ou áudio gerado por inteligência artificial (IA) para reforçar a luta contra a desinformação.
“Prevemos começar a marcar o conteúdo gerado por IA em maio de 2024”, disse Monika Bickert, vice-presidente de conteúdo da Meta em seu blog. Ainda segundo ela, a menção “Made with AI” (Feito com IA), já usada em imagens fotorrealistas, seria aplicada a “um maior número de conteúdos de vídeo, áudio e de imagens”.
Além das etiquetas visíveis, esses conteúdos serão marcados pela plataforma com uma “marca d’água”, um tipo de “tatuagem” digital invisível.
De acordo com informações da AFP, depois de consultar seu conselho de supervisão, a Meta modificará sua forma de tratar os conteúdos criados com IA, pois agora considera que “a transparência e um maior contexto como a melhor forma de tratar os conteúdos manipulados”.
A Meta também advertiu que qualquer conteúdo, seja criado por um humano ou por IA, que viole as regras contra a interferência nos processos eleitorais, a intimidação, o assédio, a violência ou qualquer outra política das normas comunitárias será retirado.
Este ano é marcado por várias eleições importantes, especialmente nos Estados Unidos, onde vídeos falsos já estão circulando, tanto para atacar o presidente democrata Joe Biden quanto o candidato republicano e ex-presidente Donald Trump.
No Paquistão, o partido do ex-primeiro-ministro Imran Khan usou a IA para gerar discursos de seu líder, que está preso.
Para além das datas eleitorais, o desenvolvimento de programas de IA generativa leva a produção de um fluxo de conteúdo degradante, segundo muitos especialistas e reguladores, como as falsas imagens (“deepfakes”) pornográficas de mulheres famosas, um fenômeno que também afeta pessoas anônimas.
(AFP)
Foto: Pexels