O dispositivo que considerava como sendo de alto risco os sistemas de Inteligência Artificial (IA) usados pelas plataformas digitais, as chamadas big techs, para produção, análise, recomendação e distribuição de conteúdos foi excluído, nesta terça-feira (3), do projeto de lei que regula a IA no Brasil.
São considerados de alto risco os sistemas de IA que podem causar danos às pessoas ou à sociedade. De acordo com o relator, senador Eduardo Gomes (PL-TO), a retirada desse trecho foi um acordo entre as bancadas para fazer o texto avançar na Comissão Especial do Senado criada para analisar o tema.
O projeto de lei 2.338 de 2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), determina que sistemas de IA considerados de alto risco devem ser submetidos a regras mais rígidas de governança, monitoramento e fiscalização.
O texto define como de alto risco uma série de casos, entre eles, os sistemas de inteligência artificial que impactam na saúde e segurança das pessoas, como no diagnóstico médico, ou os que podem ser usados para seleção de trabalhadores em empregos, para a seleção de estudantes em instituição de ensino ou no atendimento de serviços públicos.
O trecho que se referia às big techs afirmava que seria considerada uma IA de alto risco o sistema de “produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.
A coordenadora de incidência da organização Repórter Sem Fronteiras na América Latina, Bia Barbosa, que tem pressionado para a aprovação do projeto, avaliou que o trecho foi retirado por pressão das plataformas digitais .
“Não faz nenhum sentido um projeto de lei de regulação de IA que não trate dos sistemas de recomendação e moderação de conteúdo, que são sistemas de alto risco. Só que as plataformas, assim como fazem em todos os países do mundo, se opõem de maneira significativa a qualquer regulação que venha afetar os seus negócios e, aqui no Brasil, elas têm um aliado muito significativo, que são os parlamentares de extrema-direita”, destacou a especialista.
Barbosa citou a desinformação em massa em eleições, na pandemia de Covi-19 e os ataques à democracia por meio das redes socais como exemplos de danos que os sistemas de recomendação de conteúdos via IA das plataformas podem causar às pessoas e à sociedade.
Apesar dessa mudança, foi adiada para a próxima quinta-feira (5) a votação do projeto na Comissão. Existia a expectativa que o tema fosse aprovado nesta terça-feira. O adiamento ocorreu porque não houve consenso entre os parlamentares em relação aos trechos que exigem a integridade da informação para sistemas de IA.
Foto: