Carregando...

Notícias

Eleições 2024 09/05/2024

Solidariedade promove seminário sobre o uso de inteligência artificial nas Eleições

Solidariedade promove seminário sobre o uso de inteligência artificial nas Eleições
Foto: Bruno Angrisano

O Solidariedade, em parceria com a Câmara dos Deputados, promoveu no dia 9 de maio o evento “Inteligência Artificial e Eleições” voltado para discutir como a inteligência artificial (IA) está influenciando a sociedade, especificamente no campo político e eleitoral.

O seminário foi dividido em duas grandes etapas: a primeira envolvendo os aspectos teóricos e limites legais do uso da inteligência artificial em campanhas eleitorais, e a segunda em que big techs convidadas descreveram as ações preventivas, fiscalização e cuidados que elas terão nas campanhas eleitorais deste ano.

Desafios

A secretária de Assuntos Digitais do Ministério da justiça, Lílian de Melo, explicou que o desafio das eleições é sempre garantir a lisura dos pleitos e, assim, manter um dos pilares do Estado Democrático de Direito:

“Inteligência artificial trouxe muitas vantagens e benefícios, como na área da saúde e no sistema financeiro, mas não é isenta de riscos. No sistema eleitoral o que nos preocupa é o uso fraudulento dessa ferramenta para criar áudios e vídeos falsos, os famosos deepfakes. Além disso, nos preocupa o direcionamento de algoritmos de conteúdo que podem influenciar o eleitor e afetar candidatos e partidos, e a questão de nossa soberania digital, uma vez que as redes sociais são transnacionais. Para mapearmos e endereçarmos esses problemas de forma efetiva a participação da sociedade civil é fundamental.”, afirmou.

Juliano Maranhão, professor da USP e do Instituto Lawgorithm, explicou que é essencial uma regulamentação que lide bem com benefícios e riscos:

“Qualquer esforço de regulamentação deve atentar para ser cirúrgico em suas limitações e proibições, sob o risco de reduzir os benefícios da Inteligência Artificial. Nas eleições, a preocupação é com o direcionamento de conteúdo por algoritmos e com a criação de deepfakes. E até que ponto podemos preventivamente evitar o uso dessas ferramentas sem cair no risco de censurarmos os candidatos e produtores de conteúdo.”, explicou.

Lucas Amato, também professor da USP, criticou as regulamentações do Tribunal Superior Eleitoral sobre o assunto, por considerá-las obsoletas:

“A atuação do TSE me parece simbólica e ineficaz, pois parece estar calcada nos paradigmas de comunicação do século passado. Com a comunicação atual nas redes sociais, muito mais veloz e pulverizada, e somando-se a isso as iniciativas de autorregulação das big techs controladoras dessas redes sociais, corremos o risco de errar na dose, ou sendo lenientes, ou agindo como um grande Ministério da Verdade, como um Grande Irmão do livro 1984.”, alertou.

Para o pesquisador, a solução passaria pela criação de um sistema muito bem azeitado de freios e contrapesos com todos os players envolvidos na campanha eleitoral.

Big Techs: autorregulação na prática

Representantes das empresas Google, Meta e TikTok também foram ouvidos. Os três apresentaram iniciativas semelhantes para controlar a disseminação de conteúdo gerado por IA e, ao mesmo tempo,  combater a circulação de fake news.

A gerente de políticas públicas da Meta, Mag Kang, explicou como a empresa dona do Facebook, do Instagram e do WhatsApp lida com a disseminação de fake news:

“Cerca de 95% do conteúdo inverídico é derrubado imediatamente por algoritmos de inteligência artificial da Meta. Os outros 5% são identificados por uma equipe de 15 mil moderadores humanos espalhados em 20 países.”, esclareceu.

A representante da Meta também explicou que a empresa demanda que conteúdo gerado por inteligência artificial seja identificado, sob pena de ser derrubado, e que para as eleições de 2024 há uma cooperação entre a empresa de tecnologia e o Tribunal Superior Eleitoral  para combater fake news e uso de deepfakes nos pleitos municipais.

Marcelo Lacerda, diretor de relações governamentais do Google, explicou que a empresa trabalha em parceria com o TSE para proteger as campanhas de 2024 de conteúdos maliciosos:

“Além disso, acreditamos que a educação das pessoas é essencial. Para isso, além de exigirmos identificação de conteúdo gerado por IA, temos campanhas que ensinam os nossos usuários a entender e identificar com facilidade esse conteúdo. Assim, nossos usuários tomam decisões melhor informados.”, defendeu.

Marcelo também confirmou que os sistemas de autorregulação do Google usam algoritmos de inteligência artificial e moderadores humanos.

Fernando Galo, diretor de políticas públicas do TikTok no Brasil, afirmou que a empresa tem muito menos conteúdo informativo, noticioso ou eleitoral, 

“mas entendo que o TikTok pode ser usado também em campanhas eleitorais, uma vez que os vídeos da rede social podem inclusive ser compartilhados em outras redes.”, disse.

Fernando afirmou que o sistema deles também usa um misto de inteligência artificial e moderadores humanos, e que 90% do material considerado inadequado é removido sem que tenha tido nenhuma visualização.

O maior ano eleitoral da história

O deputado do Solidariedade Aureo Ribeiro (RJ), que propôs o seminário, lembrou que esse é o maior ano eleitoral da história da humanidade:

“No mundo todo serão dois bilhões de pessoas votando em 80 países, em eleições que afetarão mais da metade da população mundial. Só no Brasil, serão mais de 150 milhões de eleitores. E 2024 será o ano em que as democracias terão que lidar com o desafio da inteligência artificial. Além das fake news, temos deepfakes extremamente realistas, que enganam eleitores e deturpam campanhas políticas a poucos dias das eleições. Para regulamentarmos o uso da inteligência artificial devemos evitar ser alarmistas. Temos que ser realistas e tentar minimizar os seus riscos, com cautela e buscando uma estratégia regulatória que incentive a inovação da IA em seus mais variados setores. Por isso, temos que continuar realizando debates para construirmos propostas regulatórias que preservem nossas instituições democráticas.”