No início de 2024, um acontecimento chamou a atenção de jornalistas e especialistas: a voz de Joe Biden, presidente dos Estados Unidos, foi usada em uma chamada robótica destinada aos eleitores das primárias de New Hampshire, com uma mensagem desencorajando a participação nas eleições.
O país norte-americano também viu circular imagens de pessoas negras abraçadas a Donald Trump como um grupo de eleitores que supostamente estaria apoiando o candidato do Partido Republicano. Na Índia e na Indonésia, líderes já mortos ressuscitaram para apoiar seus sucessores políticos.
Na África do Sul, o rapper americano Eminem apareceu num vídeo endossando partidos de oposição, e Donald Trump noutro apoiando o partido da situação. Todos esses conteúdos viralizaram, mas nenhum deles é real.
Esses eventos destacam o crescente uso de deepfakes, técnicas que permitem adulterar fotos e vídeos com ajuda de inteligência artificial (IA), bem como outras ferramentas que também usam a mesma tecnologia para manipular opiniões e influenciar processos eleitorais.
Como era de se esperar, a eleição de 2024 será lembrada como a primeira pós-inteligência artificial, marcando uma nova era na política global. Nossas eleições municipais não ficam de fora.
Em maio, a Justiça Eleitoral de Guarulhos multou o prefeito da cidade, Gustavo Henric Costa (PSD), em R$ 5 mil e determinou que ele removesse uma publicação feita no Instagram que caracterizava propaganda eleitoral antecipada e uso indevido de inteligência artificial.
Em fevereiro, o Tribunal Superior Eleitoral (TSE) anunciou algumas mudanças para a propaganda eleitoral deste ano, como a proibição do uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições, como as deepfakes.
Está prevista ainda a obrigação do aviso de uso da IA nos conteúdos publicizados; a restrição do uso de robôs, como chatbots, para intermediar contato com o eleitor (a campanha não pode simular diálogo com candidato ou qualquer outra pessoa); e a responsabilização das plataformas de redes sociais que não retirarem do ar conteúdos com desinformação, discurso de ódio, ideologia nazista e fascista, além dos antidemocráticos, racistas e homofóbicos.
Falsificações
No Brasil e no mundo, o eleitorado agora tem que lidar com essa nova tecnologia. As falsificações profundas podem ser usadas para tudo, desde sabotagem até sátira ou o aparentemente mundano.
Já vimos chatbots de IA escreverem discursos e responderem a perguntas sobre a política de um candidato, ser usada para violentar mulheres políticas, com suas imagens sendo usadas em deepfakes pornográficas ou fazer com que líderes mundiais apareçam promovendo golpes.
De acordo com uma pesquisa da DeepMind (Google) e Jigsaw, sobre os usos maliciosos mais comuns da tecnologia, conteúdos deepfakes gerados por inteligência artificial, que se fazem passar por políticos e celebridades, são o tipo mais comum de mau uso da ferramenta.
Segundo o estudo, a criação de imagens, vídeos e áudios realistas, porém falsos, de pessoas foi quase duas vezes mais comum do que o segundo maior uso indevido: a falsificação de informações usando ferramentas baseadas em texto, como chatbots, para gerar desinformação a ser publicada on-line.
O objetivo mais comum dos atores que usaram indevidamente a IA generativa foi moldar ou influenciar a opinião pública, segundo pesquisadores que conduziram o estudo. Isso representou 27% dos usos, alimentando o temor de que as falsificações profundas possam influenciar as eleições em todo o mundo este ano.
Em meio a um cenário fértil para a desinformação e o aumento de conteúdos falsos criados por tecnologias capazes de manipular imagens, áudios e fotos, o jornalismo profissional ocupa um lugar importante. No entanto, algumas perguntas rondam o fazer jornalístico: como é possível superar esses desafios, se conectar com leitores para reforçar a confiança na produção de conteúdos checados e verificados, e fazer um uso ético da inteligência artificial na atuação de jornalistas e redações em contextos eleitorais? Em 2024, será mais crucial do que nunca que jornalistas e redações adotem práticas éticas e inovadoras para proteger a integridade do processo eleitoral e garantir que a verdade prevaleça.
Na última semana, a ONU lançou recomendações de ações urgentes para conter os danos causados pela disseminação de desinformação e discurso de ódio. O documento, “Princípios Globais para Integridade da Informação”, aborda os riscos apresentados pelos avanços da IA e enumera o papel dos diferentes atores na missão de promover um ecossistema comunicacional saudável.
A ONU aponta que governos, empresas de tecnologia, anunciantes, mídia e outras partes interessadas devem se abster de usar, apoiar ou ampliar a desinformação e o discurso de ódio para qualquer finalidade.
Os governos devem fornecer acesso oportuno às informações e garantir um cenário de mídia livre, independente e plural, assegurando proteções robustas para jornalistas, pesquisadores e a sociedade civil. Empresas de tecnologia devem garantir a segurança e privacidade desde a concepção de todos os produtos, aplicar políticas de forma consistente e apoiar a integridade das informações durante eleições, além de definir modelos de negócios que não priorizem o engajamento acima dos direitos humanos.
Além disso, todos os envolvidos no desenvolvimento de tecnologias de IA devem tomar medidas urgentes e inclusivas para garantir que todas as aplicações de IA sejam usadas de maneira segura, ética e responsável, respeitando os direitos humanos.
Empresas de tecnologia devem proporcionar transparência significativa, permitir o acesso de pesquisadores aos dados e realizar auditorias independentes. Anunciantes devem exigir transparência nos processos de publicidade digital para evitar financiar desinformação e ódio. Governos, empresas de tecnologia, desenvolvedores de IA e anunciantes devem proteger e capacitar as crianças, fornecendo recursos para pais, responsáveis e educadores.
À medida que avançamos para uma era de tecnologias cada vez mais sofisticadas, a responsabilidade coletiva e individual de combater a desinformação torna-se uma questão de humanidade. Implementar essas recomendações não é apenas uma necessidade para a integridade da informação, mas também um imperativo para a saúde das nossas democracias. E o jornalismo é peça crucial desse quebra-cabeças.