Responsabilidade Civil pela Disseminação de Fake News Geradas por Inteligência Artificial

Gabriela dos Passos Lozinski
Laura Capobiango
Lucas Peron Sikora

INTRODUÇÃO – A URGÊNCIA DO ENFRENTAMENTO JURÍDICO À DESINFORMAÇÃO ALGORÍTMICA 

O trabalho analisa os desafios da desinformação algorítmica nas sociedades democráticas, focando nas implicações jurídicas, sociais e éticas do uso de inteligência artificial generativa. O estudo destaca como algoritmos, ao direcionarem informações com base em interesses comerciais ou ideológicos, prejudicam o debate público e a formação da vontade democrática.

Utilizando o contexto jurídico brasileiro e experiências internacionais, o texto defende a necessidade de novos marcos normativos para combater os riscos da desinformação automatizada sem infringir a liberdade de expressão.

Propõe a responsabilização dos agentes envolvidos no desenvolvimento de tecnologias digitais, além de uma maior regulação estatal e incentivo à alfabetização midiática. O trabalho argumenta que a liberdade de expressão deve ser equilibrada com o direito à informação de qualidade e a proteção da esfera pública contra manipulações tecnológicas.

Nas primeiras décadas do século XXI, com o advento da chamada “sociedade informacional” (CIDRI, 2024, p. 20), foi alterada a dinâmica de circulação de conhecimentos. Assim, seja no Brasil, seja internacionalmente, se intensificou a manipulação maliciosa dos efeitos da desinformação, que é um fenômeno antigo, muito anterior à experiência da digitalização em massa.

Se a própria definição do que se entende por “mentira” já representa um desafio para a Academia, especialmente diante da “ausência de verdades absolutas” (COELHO, 2021), identificar sua origem revela-se uma tarefa quase impossível. Entretanto, exemplos históricos transnacionais – que vão desde o escândalo alienígena do “Grande Engodo da Lua” (“The ‘Great Moon Hoax’”), de 1835 (VIDA, 2012), ao pânico causado pela suposta invasão marciana derivada da Adaptação do Romance de H. G. Wells, A Guerra dos Mundos (“The War of the Worlds”), pela emissora americana CBS ao formato de rádio novela em 1938 (VICTORIA UNIVERSITY, s.d.) ou, ainda, em um recorte brasileiro, à influência em um dos primeiros e maiores motins da história relacionados à imunização no Brasil, a Revolta da Vacina de 1904 (HECHT, 2020) – reiteram as consequências essencialmente danosas da disseminação de notícias falsas pela mídia e, em especial, sua veloz propagação e seu potencial rentável e benéfico a determinadas classes de pessoas.

Embora já tenha se consagrado enquanto uma realidade histórica, hoje, a disseminação daquilo atualmente classificado como “Fake News” representa desafios que transcendem fronteiras nacionais, requerendo cooperação e diálogo entre países. O desenvolvimento constante de tecnologias alicerçadas em sistemas algorítmicos, que se alimentam de um fluxo incessante de dados (“Big Data”), inclusive pessoais, aliado ao acesso (em tese) universal de mídias sociais de que a sociedade depende construiu um ecossistema em que a fácil, rápida e pessoalmente direcionada disseminação de desinformação ameaça a democracia, a segurança nacional e os direitos humanos, como privacidade e autonomia.

Neste contexto, o presente estudo propõe analisar de maneira crítica a responsabilidade civil pela propagação de fake news geradas por sistemas de inteligência artificial, se utilizando de ferramentas do direito comparado. Para tal, o estudo se debruça sobre os instrumentos legais atualmente disponíveis no ordenamento brasileiro, como o Código Civil, a Lei Geral de Proteção de Dados Pessoais (LGPD), o Marco Civil da Internet e a recente Resolução TSE nº 23.732/2024.

O POSICIONAMENTO JURÍDICO BRASILEIRO FRENTE À DISSEMINAÇÃO DE FAKE NEWS GERADAS POR INTELIGÊNCIA ARTIFICIAL

A disseminação de fake news geradas por inteligência artificial (IA) mostrou ao ordenamento jurídico brasileiro a sua obsolescência e passou a exigir uma reinterpretação dos direitos da personalidade em face das novas tecnologias. O fenômeno das notícias falsas – impulsionado por sistemas capazes de criar conteúdos sintéticos, como deepfakes e bots autônomos – demonstrou-se como ameaça não apenas a honra e a imagem de indivíduos, mas também o próprio regime democrático.

Se faz mister iniciar o debate acerca da propagação e disseminação de fake news observando o fragmento do voto proferido nos autos nº 0034767-48.2020.8.16.0000 pelo Exmo. relator Des. Fernando Paulino da Silva Wolff Filho, onde se afirmou que:

(…) em sede de colisão entre a liberdade de imprensa e direitos da personalidade (por exemplo, imagem, honra e privacidade), deve ser dada primazia à liberdade de imprensa e ao direito à informação intrínseco a ela, de modo que apenas quando comprovada a flagrante inveracidade dos fatos veiculados é que será possível a concessão de tutela inibitória (a posteriori) pelo Poder Judiciário, com a determinação de retirada da notícia do acesso público (…) (TJPR – 17ª Câmara Cível – 0034767-48.2020.8.16.0000 – Curitiba –  Rel.: DESEMBARGADOR FERNANDO PAULINO DA SILVA WOLFF FILHO –  J. 06.12.2021).

Diante disso, se faz evidente que, embora a proteção da liberdade de expressão e de imprensa seja valor essencial em um Estado Democrático de Direito, tal prerrogativa não pode ser utilizada como escudo para a difusão de informações sabidamente inverídicas com o propósito de causar dano ou manipular a opinião pública.

Para o professor Oscar Cidri o conceito jurídico de fake news é ainda algo controverso. Afirma o pesquisador do grupo de estudos GEDAI vinculado ao programa de pós-graduação da UFPR que:

(…) o conceito jurídico do fenômeno da desinformação sofre com a sinuosidade da linha que divide aquilo que seria juridicamente enquadrado, ou não, como uma desinformação maliciosa com o objetivo de causar algum dano ou obter algum lucro. (…) (CIDRI NETO, 2024, p. 91).

A Constituição da República Federativa do Brasil, em seu art. 5º, assegura a liberdade de expressão e de comunicação, vedando o anonimato, ao mesmo tempo em que protege a honra, a vida privada e a imagem das pessoas, garantindo o direito à indenização pelos danos decorrentes de sua violação. No entanto, a propagação deliberada de informações falsas mediante tecnologias que mascaram a autoria ou alteram artificialmente vozes e rostos, frequentemente sem transparência quanto à sua origem, ultrapassa o exercício legítimo desses direitos, convertendo-se em instrumento de desinformação e manipulação social – como pontuado no acórdão anteriormente referenciado.

Como exemplo dessas tecnologias, destaca-se o Veo 3, Um modelo avançado de geração de vídeos com inteligência artificial desenvolvido pelo Google DeepMind. Com capacidade de transformar comandos de texto ou imagens de referência em vídeos ultrarrealistas de até 8 segundos, com resolução de até 4K e áudio nativo — incluindo diálogos, efeitos sonoros e trilhas sonoras.

A ferramenta oferece controle criativo refinado, permitindo ajustes de câmera, estilo e ambientação, sendo ideal para criadores de conteúdo, profissionais de marketing e cineastas. Para acessar o Veo 3, é necessário assinar o plano Google AI Ultra, disponível em mais de 70 países. A ferramenta pode ser utilizada por meio do aplicativo Gemini ou da plataforma Flow. Usuários do plano Google AI Pro também têm acesso limitado para testes.

A esse respeito, o Código Civil Brasileiro disciplina, em seus arts. 11 a 21, os direitos da personalidade, conferindo proteção contra a exposição indevida, a distorção da imagem e a ofensa à honra. Tais dispositivos são particularmente relevantes quando se observa que deepfakes, utilizados para simular declarações ou comportamentos inexistentes, violam frontalmente esses direitos, ensejando o dever de reparação civil. Ademais, nos termos do art. 927 do mesmo diploma, a responsabilidade por tais danos pode ser objetiva, caso se demonstre atividade de risco, como ocorre com plataformas que permitem a disseminação automatizada desses conteúdos.

Nessa ótica, a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018) tentou reforçar o direito à autodeterminação informativa, impondo limites ao tratamento de dados pessoais, inclusive quando utilizados no treinamento de sistemas de IA. Ao estabelecer princípios como o da transparência e da finalidade, essa legislação buscou coibir práticas abusivas que, ao manipular dados, contribuem para a fabricação de narrativas falsas com aparência de veracidade. Contudo, como observa-se na atualidade, encontra-se obsoleta diante da demanda de situações que se recorrem ao judiciário.

No campo digital, o Marco Civil da Internet (Lei nº 12.965/2014) dispõe sobre a responsabilidade dos agentes de internet, prevendo, em seus arts. 18 a 21, hipóteses de responsabilização civil por danos decorrentes de conteúdo gerado por terceiros, especialmente quando não há cumprimento de ordens judiciais para remoção. Além disso, a norma reconhece como pilares a proteção da privacidade e da liberdade de expressão, sem deixar de impor o dever de colaboração com autoridades na apuração de ilícitos.

Diante desse cenário, a Justiça Eleitoral brasileira adotou medidas específicas por meio da Resolução TSE nº 23.732/2024, que dispõe sobre a propaganda eleitoral e o enfrentamento à desinformação em processos eleitorais. Essa normativa introduz, entre outras previsões, a proibição do uso de conteúdos sintéticos gerados por IA que deturpem ou simulem a imagem ou fala de candidatos, exigindo identificação explícita de materiais artificiais e autorizando, em determinadas hipóteses, a retirada imediata de conteúdos inverídicos pelas plataformas, mesmo sem ordem judicial.

Ainda cabe ressaltar que o Superior Tribunal de Justiça tem reiteradamente reconhecido a tutela da honra e da imagem como bens jurídicos de proteção civil, inclusive em ambientes digitais. Embora ainda não existam súmulas específicas sobre IA e fake news, às decisões judiciais relativas a danos morais decorrentes de ofensas virtuais vêm aplicando os princípios da responsabilidade civil previstos nos artigos 186 e 927 do Código Civil, especialmente em casos que envolvem a propagação massiva de conteúdos ofensivos por meio das redes sociais.

O BRASIL DIANTE DO CENÁRIO INTERNACIONAL: UMA ANÁLISE COMPARADA DAS EXPERIÊNCIAS INTERNACIONAIS DE COMBATE À DISSEMINAÇÃO DE FAKE NEWS ALGORÍTMICAS 

Em face do recente histórico relacionado à propagação de fake news, os Estados adotaram contra a desinformação as mais diversas medidas, que incluem leis, códigos de conduta, regulamentos supranacionais e ações voltadas à autorregulação de plataformas digitais. No entanto, os desafios impostos pelas tecnologias de inteligência artificial (IA) têm remodelado esse cenário, exigindo respostas normativas mais específicas e atualizadas. Conforme alerta o jurista italiano, Oreste Pollicino (2023), a questão da desinformação envolve a complexa tarefa de compatibilizar a liberdade de expressão com a necessidade de regulação, o que varia significativamente entre ordenamentos jurídicos. A partir desta premissa, compreende-se a multiplicidade de medidas adotadas pelos Estados, das quais serão tratados alguns exemplos com base no Relatório Geral (POLLICINO, 2023, op. cit.) igualmente desenvolvido por Pollicino.

No Reino Unido, a “Online Safety Act” estabelece um dever legal de cuidado às plataformas digitais na gestão de conteúdos nocivos, ainda que não necessariamente ilegais. Essa legislação atribui à Ofcom, autoridade reguladora de comunicações, a competência para fiscalizar o cumprimento das obrigações legais e aplicar sanções às plataformas que não atuarem de forma diligente na mitigação de riscos. A proposta rompe com o modelo europeu tradicional de “imunidade” dos intermediários e reflete um redirecionamento normativo promovido após o Brexit, aproximando-se de um regime de responsabilização mais direto e proativo no combate à desinformação.

Na França, a resposta regulatória se concentrou na promulgação, em 2018, de uma lei voltada especificamente à manipulação de informações durante períodos eleitorais. Inspirada pela legislação alemã, onde, em 2017 foi aprovada a “NetzDG” (Netzwerkdurchsetzungsgesetz, a Lei Alemã de Atuação nas Redes, voltada ao combate célere – sob pena de multa – de discursos de ódio e desinformação por parte das plataformas de redes sociais) essa norma busca impedir a rápida e massiva propagação de fake news com potencial de comprometer a integridade do pleito.

As plataformas digitais são obrigadas a cumprir deveres de transparência e cooperação, sob a supervisão da ARCOM, entidade reguladora audiovisual francesa. Além disso, a lei prevê um procedimento judicial de urgência, permitindo a remoção de conteúdos classificados como desinformativos em até 48 horas, desde que preenchidos critérios objetivos de evidência, disseminação e risco ao processo democrático.

Por sua vez, a União Europeia adota uma abordagem co-regulatória robusta, com destaque para o Digital Services Act (DSA), que impõe às plataformas digitais, especialmente às de grande porte, obrigações concretas de moderação de conteúdo, transparência e gestão de riscos sistêmicos. O DSA é complementado pelo fortalecimento do Código de Práticas contra a Desinformação, que evoluiu de um modelo de autorregulação para uma estrutura co-regulatória vinculante. As medidas incluem auditorias independentes, repositórios públicos de anúncios digitais e a implementação de protocolos de crise voltados à proteção da integridade democrática e da segurança pública. Ainda assim, a ausência de uniformidade conceitual entre os Estados-Membros — como no caso das definições nacionais de desinformação — representa um desafio à harmonização normativa e à efetividade regulatória em escala europeia.

Em contrapartida, de acordo com Pollicino, os Estados Unidos mantêm uma abordagem liberal no trato da desinformação, fortemente ancorada na Primeira Emenda da Constituição, que assegura ampla liberdade de expressão. A jurisprudência da Suprema Corte impõe barreiras rigorosas a qualquer forma de intervenção estatal sobre o discurso, exigindo que eventuais restrições sejam estritamente necessárias e proporcionais. Ademais, a Seção 230 do Communications Decency Act garante imunidade às plataformas digitais pela publicação de conteúdos de terceiros, consolidando um regime em que essas empresas não são tratadas como editoras. Com isso, privilegia-se a autorregulação das plataformas, que mantêm liberdade ampla para definir suas políticas internas de moderação de conteúdo, em contraste com a tendência europeia de responsabilização regulada por entes estatais ou supranacionais.

Diante desse panorama, evidencia-se que, embora os modelos de enfrentamento à desinformação variem, a crescente influência de sistemas algorítmicos exige um novo marco analítico. A utilização de IA para gerar, personalizar e disseminar conteúdos desinformativos transforma a lógica da desinformação e impõe desafios inéditos aos modelos jurídicos tradicionais de responsabilidade civil e regulação de conteúdo.

Em segundo momento, sob a específica perspectiva das transformações operadas pelas tecnologias de inteligência artificial, é possível identificar dois recortes centrais no fenômeno contemporâneo da disseminação de fake news (BONTRIDDER; POULLET, 2021) (MARIN; VIGARIU, 2023). O primeiro refere-se à capacidade das técnicas de IA em facilitar a criação de conteúdos falsificados altamente sofisticados, como é o caso dos “deepfakes”. O segundo recorte diz respeito ao papel das técnicas algorítmicas na amplificação da desinformação na web, sobretudo por meio do “microtargeting” (prática impulsionada pelo modelo econômico das plataformas digitais, baseado na lógica da publicidade personalizada), que permite a segmentação precisa de públicos e a difusão dirigida de conteúdos desinformativos com elevada eficácia persuasiva.

Como já mencionado, a estratégia co-regulatória europeia privilegia a atuação multissetorial, com destaque para a responsabilidade das plataformas digitais. Nesse contexto, o AI Act, aprovado em 2024, representa o primeiro marco jurídico abrangente da União Europeia voltado à regulação da inteligência artificial (GABORIT, 2024). Estruturado com base em uma pirâmide de classificação de riscos, o regulamento impõe exigências específicas para sistemas considerados de alto risco, especialmente quando aplicados em setores sensíveis como infraestrutura crítica, saúde, justiça, segurança, crédito e educação. Embora a desinformação não seja categorizada como risco autônomo, o AI Act contribui para sua contenção ao exigir a rotulagem de conteúdos gerados por IA (como deepfakes) e ao estabelecer salvaguardas para usos sensíveis da tecnologia. Ao lado do Digital Services Act e do Código de Práticas sobre Desinformação (BONTRIDDER; POULLET, 2021, op. cit.), o AI Act integra um conjunto normativo voltado à proteção dos direitos fundamentais e ao fortalecimento da confiança pública nas dinâmicas digitais europeias.

A ascensão da desinformação algorítmica — produzida por sistemas generativos, como os que criam deepfakes, e amplificada por algoritmos de recomendação em redes sociais — representa, então, um dos mais complexos desafios jurídicos da era digital. Conforme destaca o Prof. Haochen Sun (2023), a combinação entre políticas publicitárias de monetização e o funcionamento opaco dos algoritmos transforma a disseminação de fake news em uma prática rápida, lucrativa e de elevado impacto social, afetando valores fundamentais como democracia, saúde pública e segurança nacional. Em resposta, o autor propõe um novo paradigma regulatório baseado em três princípios estruturantes: transparência, inteligibilidade e accountability. Embora países como França e China tenham iniciado reformas legislativas que exigem que plataformas tornem seus algoritmos relacionados à desinformação compreensíveis e auditáveis, tais normas ainda carecem de efetividade prática.

Como solução complementar, Sun sugere a criação de um Sistema de Revisão de Desinformação Algorítmica (Algorithmic Disinformation Review System – ADRS), fundamentado em uma abordagem multissetorial. Esse modelo prevê a atuação coordenada de agências administrativas, especialistas e usuários, com o objetivo de promover a fiscalização dinâmica das plataformas e assegurar responsabilidade jurídica diante da desinformação gerada por inteligência artificial. Trata-se, portanto, de uma proposta que alia governança democrática a exigências técnico-jurídicas, buscando superar as deficiências dos regimes normativos atuais e mitigar os riscos sistêmicos da desinformação automatizada.

Por fim, o uso de IAs também é internacionalmente considerado uma alternativa para o reconhecimento algorítmico e a neutralização antecipada de conteúdos desinformativos. Enquanto entusiastas defendem sua eficiência e redução de custos em relação à supervisão humana (KERTYSOVA, 2018), críticos alertam para os riscos éticos e de violação aos direitos à informação e à liberdade de expressão (BONTRIDDER; POULLET, 2021, op. cit.). Não obstante às oportunidades vislumbradas na outra face desta mesma moeda, evidente é que tais tecnologias podem igualmente ampliar a escala e a eficácia da desinformação, o que exige, pois, respostas jurídicas apropriadas.

CONCLUSÃO: DESAFIOS E PERSPECTIVAS PARA A REGULAÇÃO DA RESPONSABILIDADE CIVIL NA ERA ALGORÍTMICA

A ascensão das tecnologias de inteligência artificial, sobretudo as de natureza generativa, transformou o ecossistema da informação, trazendo consigo a intensificação da desinformação e impondo, por consequência, novos desafios à dogmática da responsabilidade civil. A propagação automatizada de fake news reconfigura os padrões tradicionais de autoria, intencionalidade e causalidade, todos estes elementos centrais para a atribuição de responsabilidade jurídica, o que dificulta a tarefa de identificar agentes de ilícitos e responsabilizá-los.

O ordenamento brasileiro, apesar de já possuir normas que se propõem a lidar com esta temática, como os dispositivos do Código Civil sobre os direitos da personalidade, a LGPD, o Marco Civil da Internet e determinadas normas eleitorais, ainda carece de instrumentos normativos específicos e atualizados. Existem tentativas de normatizar o tema, como exemplificado pelo PL 2630/2020, que é conhecido como “Projeto de Lei das Fake News” e busca regulamentar a

transparência de redes sociais e de serviços de mensagens privadas, sobretudo no tocante à responsabilidade dos provedores pelo combate à desinformação e pelo aumento da transparência na internet, à transparência em relação a conteúdos patrocinados e à atuação do poder público, bem como estabelece sanções para o descumprimento da lei. (FEDERAL, 2025)

O projeto, aprovado pelo pelo Plenário do Senado e remetido à Câmara de Deputados em 03/07/2020, encontra-se parado desde então, tendo como última movimentação o encaminhamento à Coordenação de Arquivo em 30/03/2022 (FEDERAL, 2025). Tal ausência de movimentação ilustra a mora em regular o tema, possivelmente em decorrência da intrincada rede de interesses e da forte atuação das chamadas big techs por meio de lobbying. Em situação semelhante se vê a jurisprudência, que, embora caminhe no sentido de proteger bens jurídicos no ambiente digital, também encontra dificuldade em se manter atualizada.

A comparação com experiências internacionais revela que, enquanto a União Europeia aposta em uma abordagem corregulatória e multissetorial, outros países, como os Estados Unidos, adotam uma postura mais liberal, fundada na autorregulação das plataformas e na ampla proteção à liberdade de expressão. Com esta reflexão amparada no Direito comparado porém focada na realidade nacional, é imprescindível que se avance na construção de um marco jurídico específico sobre o uso de inteligência artificial, considerando não apenas os aspectos técnicos da tecnologia, mas também as dimensões éticas e sociais da desinformação.

Por fim, a responsabilidade civil pela disseminação de fake news geradas por IA deve ser compreendida não somente com a finalidade de reparação, fim em si mesma, mas também como uma ferramenta de contenção e prevenção de danos estruturais à democracia. O desafio posto à doutrina e ao legislador é o de elaborar respostas jurídicas que, sem cercear a liberdade de expressão, sejam capazes de responsabilizar suficientemente os agentes envolvidos, preservando os pilares de um Estado Democrático de Direito.

 

REFERÊNCIAS BIBLIOGRÁFICAS

BONTRIDDER, Noémi; POULLET, Yves. The role of artificial intelligence in disinformation. Data & Policy, Cambridge: Cambridge University Press, v. 3, e32, 2021. DOI: https://doi.org/10.1017/dap.2021.20. Disponível em: https://www.cambridge.org/core/services/aop-cambridge-core/content/view/7C4BF6CA35184F149143DE968FC4C3B6/S2632324921000201a.pdf/the-role-of-artificial-intelligence-in-disinformation.pdf.

BONTRIDDER; POULLET, Op. cit.

BONTRIDDER; POULLET, Op. cit.

BRASIL. Constituição (1988). Constituição da República Federativa do Brasil de 1988. Diário Oficial da União, Brasília, DF, 5 out. 1988.

BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Diário Oficial da União, Brasília, DF, 11 jan. 2002.

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet. Estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil. Diário Oficial da União, Brasília, DF, 24 abr. 2014.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais – LGPD. Diário Oficial da União, Brasília, DF, 15 ago. 2018.

BRASIL. Resolução TSE nº 23.732, de 27 de fevereiro de 2024. Dispõe sobre os atos gerais das eleições de 2024, inclusive propaganda eleitoral, condutas ilícitas e uso de tecnologias. Diário da Justiça Eletrônico – TSE, Brasília, DF, 27 fev. 2024.

BRASIL. SUPERIOR TRIBUNAL DE JUSTIÇA. Código Civil comentado: doutrina e jurisprudência. 11. ed. atual. São Paulo: Revista dos Tribunais, 2022.

CIDRI NETO, Oscar Carlos. Fake news como instrumento de desinformação e ataque ao estado democrático de direito na sociedade informacional. 2024. Dissertação (Mestrado em Direito) – Universidade Federal do Paraná, Curitiba, 2024. Disponível em: https://hdl.handle.net/1884/88611. Acesso em: 11 abr. 2025.

COELHO, Gabriel Bandeira. A teoria do discurso como base epistemológica de compreensão para a sociologia da ciência: aportes sobre a (des)fundamentação e a desconstrução das verdades absolutas. Sociologias, Porto Alegre, v. 23, n. 58, p. 106-142, set./dez. 2021. Disponível em: https://www.scielo.br/j/soc/a/3yTQ4WpgbMZf8pKFcKjZcXk/?lang=pt. DOI: https://doi.org/10.1590/15174522-106716.

FEDERAL, Senado. Projeto de Lei n° 2630, de 2020: lei das fake news. Lei das Fake News. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/141944. Acesso em: 06 jun. 2025.

GABORIT, Pascaline. A sociopolitical approach to disinformation and AI: concerns, responses and challenges. Journal of Political Science and International Relations, New York, v. 7, n. 4, p. 82, out. 2024. DOI: https://doi.org/10.11648/j.jpsir.20240704.11.

​HECHT, Larissa Infante. O vírus da desinformação: a propagação das notícias falsas pela imprensa durante a Revolta da Vacina, no século passado, e o movimento contra a vacina do sarampo na internet. 2020. Monografia (Graduação em Comunicação Social – Jornalismo) – Escola de Comunicação, Universidade Federal do Rio de Janeiro, Rio de Janeiro. Disponível em: https://pantheon.ufrj.br/bitstream/11422/14904/1/LHecht.pdf.

KERTYSOVA, Katarina. Artificial intelligence and disinformation: how AI changes the way disinformation is produced, disseminated, and can be countered. Security and Human Rights, v. 29, n. 1-4, p. 55-81, 12 dez. 2018. Disponível em: https://www.scienceopen.com/document?vid=f0151b0c-b6aa-42c8-ba99-471321efa5fe​.

MARIN, Constantin-Alexandru; VIGARIU, Manuel Gabriel. Dissemination of fake news within transnational public spaces: legal aspects, psychological dynamics of disinformation, and the impact of artificial intelligence. Journal of Research and Innovation for Sustainable Society (JRISS), Thoth Publishing House, v. 5, n. 2, p. 169-174, 2023. ISSN 2668-0416. DOI: https://doi.org/10.33727/JRISS.2023.2.20:169-174.

PARANÁ. Tribunal de Justiça do Estado do Paraná. Agravo de Instrumento n. 0034767-48.2020.8.16.0000. Relator: Des. Fernando Paulino da Silva Wolff Filho. Curitiba, 18 set. 2020. Disponível em: www.tjpr.jus.br. Acesso em: 10 abr. 2025.

POLLICINO, Oreste. Freedom of speech and the regulation of fake news. Cambridge, Antwerp, Chicago: Intersentia, 2023. (Ius Comparatum). p. 26. Disponível em: https://hdl.handle.net/11565/4061618.

SUN, Haochen. Regulating algorithmic disinformation. Columbia Journal of Law & the Arts, New York, v. 46, n. 4, p. 367-418, 2023. Disponível em: https://ssrn.com/abstract=4485761.

VICTORIA UNIVERSITY. Evaluating information: War of the worlds. Disponível em: https://libraryguides.vu.edu.au/evaluating_information_guide.

VIDA, István Kornél. The ‘Great Moon Hoax’ of 1835. Hungarian Journal of English and American Studies (HJEAS), v. 18, n. 1/2, p. 431-441, 2012. Disponível em: http://www.jstor.org/stable/43488485.

Enviar Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *