Como os algoritmos podem ser usados em campanhas de desinformação e como isso pode ser impedido ou responsabilizado juridicamente? Esta reflexão é proposta pela pesquisa de iniciação científica “Perspectivas Sociojurídicas sobre a Utilização de Social Bots na Desinformação Relativa ao Meio Ambiente e ao Clima”, realizada no curso de Direito da Universidade Tiradentes (Unit) pela estudante Caroline Jacques Fraga da Silva, com orientação da professora Clara Cardoso Machado Jaborandy, do Programa de Pós-Graduação em Direitos Humanos (PPGD/Unit).
Elas debruçaram-se principalmente sobre a existência e atuação dos bots sociais, algoritmos capazes de gerar e disseminar conteúdo de forma automática, interagindo com usuários humanos e influenciando dinâmicas comunicacionais nas redes sociais. De acordo com Caroline, o objetivo da pesquisa foi “analisar os impactos jurídicos, sociais e éticos do desenvolvimento e da aplicação de novas tecnologias sobre os direitos humanos, especialmente no que se refere à democracia, à proteção de direitos fundamentais e à atuação do Estado e dos atores privados no ecossistema digital”.
O estudo discute ainda como esses algoritmos acabam usados para pautar a distorção de informações que comprometem a conscientização pública e, por consequência, a ação coletiva essencial para enfrentar as questões climáticas. “A atuação desses sistemas contribui para a formação de uma chamada ‘opinião pública artificial’, na medida em que amplia a circulação de notícias falsas ou não verificadas, favorecendo o fenômeno da infodemia, caracterizado pela desinformação em massa. Esse cenário é problemático considerando que aproximadamente 20% das discussões políticas nas redes sociais são impulsionadas por bots”, detalhou Caroline.
A pesquisa foi divulgada em agosto de 2024, através de um resumo expandido apresentado no XIII Encontro de Pesquisa Empírica em Direito (EPED), evento acadêmico realizado na Universidade Federal de Sergipe (UFS) e voltado à divulgação e debate de pesquisas jurídicas. Na ocasião, ela foi publicada nos Anais do evento e premiada como melhor trabalho apresentado no grupo de trabalho sobre Desinformação e Inteligência Artificial.
O projeto de iniciação científica faz parte da linha de Direitos Humanos e Novas Tecnologias, com foco na relação entre democracia, ambiente digital e proteção de direitos fundamentais. E integra um estudo ainda maior, conduzido pela professora Clara Machado dentro do PPGD/Unit e que conta com a participação de outros alunos de iniciação científica, através de bolsas de apoio concedidas pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), bem como de outros professores e pesquisadores de mestrado e doutorado do PPGD.
Como regular
O uso dos bots sociais, por se inserir no contexto da inteligência artificial, ainda não é regulamentado oficialmente na legislação brasileira, mas uma série de leis e códigos, a exemplo do Código Penal e do Marco Civil da Internet, podem ser aplicadas nestes casos, ainda que dêem margem a uma série de interpretações. De acordo com as autoras, a área jurídica na qual esta regulamentação aparece de forma mais clara é a da Justiça Eleitoral, cuja resolução nº 23.732, de 27 de fevereiro de 2024, baixada para orientar as as eleições municipais daquele ano, passou a exigir que conteúdos manipulados sejam claramente identificados, incluindo o uso de tecnologias como chatbots e avatares em campanhas eleitorais, submetendo-se a rigorosas exigências de transparência.
“Adicionalmente, iniciativas de autorregulação têm sido implementadas pelas plataformas digitais em colaboração com o Judiciário e órgãos reguladores. Estas medidas visam combater a desinformação através da verificação de fatos e da remoção de conteúdos falsos”, apontou Caroline Jacques, que conta ter escolhido esse tema para sua pesquisa de IC em razão da crescente relevância da desinformação ambiental e climática nos processos eleitorais e pela gravidade da crise ambiental contemporânea. “Os efeitos da crise são diretos, urgentes e socialmente desiguais. A pesquisa parte da constatação de que o uso de social bots e tecnologias automatizadas tem sido empregado para distorcer informações científicas, exigindo uma análise sociojurídica aprofundada voltada à proteção da democracia e dos direitos fundamentais”, acrescenta a aluna.
Clara Machado avalia que a questão é fundamental para compreender a liberdade de expressão e os seus limites no contexto das novas tecnologias, sobretudo diante da proliferação de conteúdos desinformativos sobre as mudanças climáticas. “A desinformação ambiental, potencializada pelo uso de social bots e estratégias automatizadas, compromete o debate público qualificado, enfraquece a confiança científica e dificulta a formulação e implementação de políticas públicas voltadas à proteção ambiental e ao enfrentamento da crise climática. Nesse cenário, torna-se indispensável que tanto os legisladores quanto a sociedade compreendam não apenas os impactos da desinformação sobre a democracia, mas também seus efeitos concretos sobre a natureza e a governança ambiental”, diz a professora.
Próximos passos
Segundo a orientadora, os próximos passos da pesquisa concentram-se na análise empírica da implementação da Resolução TSE nº 23.732/2024 no contexto das eleições gerais de 2026, o que corrobora a necessidade de verificar em que medida as diretrizes normativas relativas ao uso de inteligência artificial, automação de conteúdos e social bots foram efetivamente aplicadas, fiscalizadas e sancionadas, principalmente diante de práticas de desinformação ambiental e climática.
“Essa abordagem ratifica a importância de avaliar não apenas o desenho normativo da resolução, mas sua capacidade concreta de incidência sobre a dinâmica informacional, ao mesmo tempo em que a pesquisa avança na atualização e sistematização das iniciativas da sociedade civil, como observatórios digitais, agências de checagem e projetos de educação midiática, resultando na análise do impacto real dessas ações na mitigação da circulação de conteúdos enganosos e de suas limitações frente à crescente sofisticação das estratégias automatizadas. Bem como na análise dos retrocessos e dos avanços recentes incorporados pelas próprias plataformas digitais em seus termos de uso e políticas internas, especialmente no que se refere à identificação, rotulagem e remoção de atividades automatizadas inautênticas”, considera Clara Machado.
As autoras da pesquisa afirmam que ele contribui para a proteção da integridade do processo democrático, ao evidenciar como social bots são usados na desinformação sobre meio ambiente e mudanças climáticas principalmente em contextos eleitorais. “Ao mapear iniciativas e estratégias, indicando caminhos regulatórios baseados em transparência e proteção de direitos fundamentais, a pesquisa fortalece de forma promissora a confiança social nas eleições e no debate democrático sobre políticas climáticas”, encerra Caroline Jacques.
Autor: Gabriel Damásio
Fonte: Asscom Unit




