Fact-checking e Inteligência Artificial (IA) no Brasil: Usos, limites e potencialidades na luta contra a desinformação

Neste dezembro último (de 2023) apresentei, ao lado da colega de doutorado Mariana Alcântara, a comunicação “Fact-checking e Inteligência Artificial (IA) no Brasil: Usos, limites e potencialidades na luta contra a desinformação” no III Congreso Internacional de Investigación y Transferencia en Comunicación (Intracom).

Veja nossa apresentação abaixo.

Intracom-2023-Mariana-e-Moises

Resumo da apresentação

No contexto atual de dataficação (Van Dijck, 2014) da sociedade da informação (Castells 1999), a revolução algorítmica (Lindem, 2017) e abundância de dados (Boczkowski, 2021) abriu portas para o uso de novas tecnologias, algumas com potencial inovador, em diferentes frentes, especialmente na comunicação e, por tabela, no jornalismo. No entanto, essas mesmas tecnologias também podem ser utilizadas para amplificar exponencialmente a criação e disseminação de desinformação, especialmente nas redes sociais digitais, seja no norte ou no sul global (Wasserman & Madrid-Morales, 2022; Chan, 2021). Uma dessas tecnologias que surgiram e foram rapidamente adotadas nos últimos anos é a chamada Inteligência Artificial (IA), com seus desdobramentos em machine learning, Large Language Model (LLM) e redes neurais (Diakopoulos, 2019; Napoli, 2014; Marconi, 2020).

Diante desse cenário, a proposta em questão tem em vista responder à seguinte pergunta de pesquisa: como as agências de checagem de fatos brasileiras e outras iniciativas similares têm utilizado ferramentas de IA para combater a desinformação? Para tanto, foram catalogados e analisados seis projetos: 1) Lupe Chatbot (Agência Lupa); 2) Fátima Chatbot (Aos Fatos); 3) Radar (Aos Fatos); 4) BuscaFatos; 5) FakeCheck; e 6) Veritate.
Compreender como se desenrola esse fenômeno no âmbito profissional jornalístico é essencial para que se possa descobrir maneiras para desvendar lógicas coordenadas impulsionadas por campanhas de desinformação de espectro nacional e internacional.

Além disso, o uso de IA pelo jornalismo pode auxiliar na detecção de conteúdos ultra falsificados gerados por essa mesma tecnologia. Esses tópicos são defendidos por Salaverría e Cardoso (2023) como áreas de pesquisa prioritárias nos próximos anos.
Novas IA surgem todos os dias com grande potencial para automatização não só de processos como também tarefas anteriormente destinadas aos humanos. Implicações de máquinas conectando nós informacionais, realizando tarefas comunicacionais de forma autônoma, criando novos conteúdos, a partir de largos bancos de dados, e conectadas à rede mundial de computadores, com capacidade de espalhamento sobre-humanas, não podem ser ignoradas, principalmente, em um contexto contemporâneo crescente em que circulam diferentes tipos de desinformação (Wardle & Derakhshan, 2017; Kapantai et al., 2021) e cujos impactos na sociedade ainda estão por ser compreendidos adequadamente.

Em termos metodológicos, este artigo parte de uma acepção mista (Machado & Palacios, 2007) quali-quantitativa, cujo caminho a ser percorrido será: a) descrição exaustiva de como funcionam as iniciativas de IA que compõem o corpus; b) análise dos objetivos e metodologias de checagem com ajuda de IA utilizadas e descritas pelas próprias iniciativas; c) categorização de abordagens e usos das IA de checagem, e d) confronto com abordagem teórica atual sobre verificação de fatos e IA.

Os resultados parciais sugerem que as iniciativas e agências brasileiras de checagem de fatos com IA ainda são experimentais e com uso apenas de IA Fracas (Túñez-López et al, 2021), de baixa complexidade e/ou com pouca ou quase nenhuma automação, como bots e chatbots simples, resultando em baixas capacidades de interação e aprendizado de máquina, ou seja, baixa capacidade de verificação automática de fatos, propriamente dita, evidenciando dependência, ainda, de intervenção humana para completar o processo de checagem e, posteriormente, divulgação dos resultados.

Este cenário, no entanto, pode mudar com o advento das IA generativas. Além disso, nota-se um papel importante das plataformas no fomento e em participação nas estruturas das IA no corpus analisado, acentuando uma plataformização (Poell & Nieborg & Van Dick, 2020) das IA pelas big techs (Meta, Google, Microsoft, Apple, Twitter) e uma consequente limitação no desenvolvimento e inovações neste campo. Tal fato também demonstra dependência dessas iniciativas de verificação posicionadas no sul global para com as plataformas, estabelecidas, em sua grande maioria, no norte global, para o desenvolvimento, a partir de incentivos tecnológicos e financeiros (ex: Aos Fatos e Lupa), de iniciativas de checagem de fatos por meios tecnológicos de ponta, como inteligência artificial.

Outro apontamento diz respeito ao fluxo de farsas que circulam no ecossistema digital. Uma vez detectado e verificado, o conteúdo não é removido automaticamente pelas plataformas de redes sociais. Mesmo com auxílio das IA, as empresas jornalísticas ainda não possuem autonomia, pois não possuem poder para remover conteúdos, contas ou páginas. Essa tarefa está nas mãos das big techs, que seguem seus próprios ritmos e interesses, mesmo com potencialidades algorítmicas para acelerar tais processos de “contradesinformação”.

Palavras-chaves: inteligência artificial (IA), desinformação, fact-checking, Brasil

Referências:

Boczkowski, P. J. (2021). Abundance: On the experience of living in a world of information plenty. Oxford University Press.

Castells, M. (1999). A Era da Informação: Economia, Sociedade e Cultura Vol. 1 – O Poder da Identidade. São Paulo, Ed. Paz e Terra.

Chan, A. S. Jornalismo de dados, universalismo digital e inovação na periferia mundial. King’s Research Portal, 278.

Diakopoulos, N. (2019). Automating the news: How algorithms are rewriting the media. Harvard University Press.

Linden, C. G. (2018). Algoritmos para Jornalismo: o futuro da produção de notícias. Líbero, (41), 5-27.

Kapantai, Eleni; Christopoulou, Androniki; Berberidis, Christos; Peristeras, Vassilios (2021). A systematic literature review on disinformation: Toward a unified taxonomical framework. New media & society, v. 23, n. 5, pp. 1301-1326.

Machado, E., & Palacios, M. (2007). Um modelo híbrido de pesquisa: a metodologia aplicada pelo GJOL. Metodologia de pesquisa em jornalismo. Petrópolis: Vozes, 199-222.

Marconi, F. (2020). Newsmakers: Artificial intelligence and the future of journalism. Columbia University Press.

Napoli, P. M. (2014). Automated media: An institutional theory perspective on algorithmic media production and consumption. Communication theory, 24(3), 340-360.

Poell, T., Nieborg, D., & van Dijck, J. (2020). Plataformização. Revista Fronteiras, 22(1).

Salaverría, Ramón; Cardoso, Gustavo (2023). “Future of disinformation studies: emerging research fields”. Profesional de la información, v. 32, n. 5, e320525.

Túñez-López, J. M., Fieiras-Ceide, C., & Vaz-Álvarez, M. (2021). Impact of Artificial Intelligence on Journalism: transformations in the company, products, contents and professional profile. Communication & society, 34(1), 177-193.

Wardle, C., & Derakhshan, H. (2017). Information Disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe report DGI(2017)09.

Wasserman, H., & Madrid-Morales, D. (Eds.). (2022). Disinformation in the global south. Wiley Blackwell.

Van Dijck, J. (2014). Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & society, 12(2), 197-208.

Leave a Reply

Your email address will not be published. Required fields are marked *