Responsabilização das plataformas digitais pela violação de direitos autorais
Autores: Rafael Fonseca dos Santos e Marcos Wachowicz
O avanço exponencial dos sistemas de inteligência artificial (IA) autônomos introduziu dilemas jurídicos relevantes, sobretudo quanto à responsabilização por danos físicos decorrentes de sua atuação. A autonomia decisória desses sistemas, aliada à opacidade de funcionamento, a chamada “caixa preta”, desafia os modelos tradicionais de responsabilidade civil. Este artigo analisa o tema sob duas perspectivas complementares: a soft law e a hard law. No plano internacional, destacam-se diretrizes da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) e da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), que, embora não vinculantes, estabelecem princípios fundamentais de transparência, aplicabilidade e responsabilização humana. No âmbito da União Europeia, o Regulamento de Inteligência Artificial (AI Act), a Proposta de Diretiva de Responsabilidade por IA e a revisão da Diretiva de Responsabilidade por Produtos apresentam soluções normativas mais concretas, com presunções legais de causalidade e inversão do ônus da prova, conferindo maior previsibilidade às vítimas. No Brasil, o Projeto de Lei n. 2.338/2023 representa o esforço inicial de regulação da IA, aproximando-se do modelo europeu, mas com lacunas quanto à responsabilidade objetiva e maior dependência da interpretação judicial. Conclui-se que a responsabilização por danos físicos de IA autônoma demanda equilíbrio entre inovação tecnológica e proteção de direitos fundamentais, impondo ao Direito a tarefa de adaptação contínua.
Palavras-chave: Inteligência Artificial; Sistemas Autônomos; Responsabilidade Civil; Soft Law; Hard Law; Autonomia Tecnológica.
Introdução
Robóticos demais e, aparentemente, desprovidos de consciência¹ para assumir responsabilidades e capacidade postulatória, no entanto, autônomos o suficiente para tomar decisões e exercer comportamentos não calculados: este é o dilema jurídico introduzido pelo desenvolvimento exponencial dos sistemas de inteligência artificial autônomos. Softwares de IA têm ocupado, cada vez mais, o cotidiano humano. Dentre os inúmeros benefícios desse avanço tecnológico, está a “terceirização” de atividades pelos sistemas de Inteligência Artificial Autônomos: sistemas que conseguem aprender, decidir e agir por conta própria, sem intervenção humana direta².
Assim, tarefas corriqueiras, como a condução de veículos autônomos³, o funcionamento de robôs de limpeza domésticos e até mesmo a operação de drones de entrega, que antes dependiam da dedicação humana, agora podem ser feitas por esses sistemas, disponibilizando tempo humano valioso para atividades mais complexas. Apesar da inegável otimização que esses sistemas trazem, a crescente autonomia da IA não está isenta de desafios, especialmente quando um mau funcionamento pode ocorrer em ambientes físicos. Seja por falhas na programação, dados de treinamento incompletos ou mesmo pela imprevisibilidade de interações complexas com o mundo real, a incapacidade de uma IA autônoma em processar corretamente uma situação ou executar uma ação planejada pode levar a danos físicos sérios para os humanos.
A explosão destes sistemas inteligentes deu-se de tal forma que, até o presente momento, o mundo ainda se esforça para acompanhar seu desenvolvimento no que tange a regulação das IA’s. Dessa forma, surge o questionamento: como deve ser feita a responsabilização de incidentes causados por esses sistemas? O Direito está pisando em um terreno instável e, por hora, desconhecido.
Em face disso, a humanidade busca soluções e regulamentações para organizar a expansão tecnológica de forma global, através de diretrizes como a Recomendação sobre a Ética da Inteligência Artificial da UNESCO e as Guidelines on Corporate Governance of State-Owned Enterprises 2024 da OCDE. São ferramentas importantes para a padronização internacional das regulamentações a respeito do assunto, no entanto, não possuem caráter vinculante, exercendo apenas uma “função norteadora”. Diante das limitações da soft law, a responsabilização por danos físicos decorrentes de IA autônoma exige análises mais rigorosas. Nesse cenário, o presente artigo examina o dilema jurídico da atribuição de culpa e as iniciativas de normatização voltadas a essa tecnologia.
SOFT LAW: A responsabilização dos sistemas de Inteligência Artificial autônomos de acordo com as diretrizes internacionais
Soft law (também chamado de soft norm, droit doux, direito flexível e direito plástico) consiste em regras não vinculantes adotadas em foros internacionais, como os fornecidos por institutos privados. Apesar de não terem força vinculante, essas regras de soft law guiam os negócios privados e as instituições jurídicas locais (especialmente o Parlamento e o Judiciário) para manter um ambiente de harmonização internacional de direitos.
As diretrizes da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) e da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) são fundamentais para criar um padrão ético e responsável para a Inteligência Artificial. A Recomendação sobre a Ética da Inteligência Artificial da UNESCO e as Guidelines on Corporate Governance of State-Owned Enterprises 2024 da OCDE são exemplos de soft laws que ajudam a estabelecer estruturas robustas para a responsabilização e a prestação de contas em casos de danos provocados por sistemas de IA, propondo mecanismos essenciais que garantem a transparência, a explicabilidade e a responsabilidade jurídica.
Uma premissa fundamental que une ambas as organizações é a noção de que, apesar da crescente autonomia dos sistemas de IA, a responsabilidade ética e legal por decisões e ações que resultem em danos deve ser sempre atribuída a entidades humanas, sejam elas pessoas físicas ou jurídicas. A Recomendação da UNESCO sobre a Ética da Inteligência Artificial de 2021 enfatiza que nenhum ser humano ou comunidade deve ser prejudicado, em qualquer dimensão, durante o ciclo de vida dos sistemas de IA. A Recomendação reforça que a responsabilidade e a imputabilidade ética por decisões baseadas em IA devem sempre recair sobre os atores envolvidos no seu ciclo de vida.
A UNESCO rejeita expressamente a ideia de conceder personalidade jurídica à IA, afirmando que tais sistemas não devem ter esse estatuto, uma perspectiva que encontra eco na literatura acadêmica que discute os desafios éticos e legais dessa atribuição.
Em paralelo, as Diretrizes da OCDE sobre a Governança Corporativa de Empresas Estatais, embora focadas especificamente nestas entidades, estipulam que os conselhos de administração devem possuir autoridade e competência para a gestão estratégica e supervisão de riscos, sendo integralmente responsabilizados por suas ações6. A OCDE ainda destaca a importância de uma clara definição da responsabilidade coletiva e individual dos membros do conselho, sem distinções, cujos princípios se aplicam analogamente à necessidade de identificar e responsabilizar autores humanos na cadeia da IA.
Para garantir um desenvolvimento e uso ético e seguro da tecnologia, as diretrizes propõem um conjunto de mecanismos organizados em duas dimensões complementares: a primeira focada em tornar os sistemas de IA compreensíveis, e a segunda em estabelecer a devida responsabilização por suas ações e impactos ao longo de todo o ciclo de vida. A primeira dimensão, Transparência e Explicabilidade, é considerada pela Recomendação da UNESCO como um pré-requisito essencial para proteger os direitos humanos e os princípios éticos. As pessoas devem ser plenamente informadas quando decisões são tomadas com base em algoritmos de IA, especialmente se afetarem seus direitos ou segurança, e devem ter a oportunidade de solicitar explicações.
A explicabilidade, no contexto da UNESCO, significa tornar inteligível e fornecer informações sobre o resultado dos sistemas de IA, incluindo a compreensão de suas entradas, saídas e funcionamento. Em situações de sérias ameaças aos direitos humanos, pode até exigir o compartilhamento de códigos ou dados. As Diretrizes da OCDE complementam essa visão ao exigir que empresas estatais observem altos padrões de transparência e integridade, o que implica a divulgação sistemática de informações materiais, como resultados financeiros e operacionais, e a implementação de sistemas de gestão de riscos abrangentes.
A segunda dimensão, Responsabilização Jurídica, é abordada pela UNESCO com a proposta de desenvolver mecanismos adequados de supervisão, avaliação de impacto, auditoria e devida diligência, incluindo proteção de denunciantes, para garantir a responsabilização pelos sistemas de IA ao longo de seu ciclo de vida5. Projetos técnicos e institucionais devem assegurar a rastreabilidade e auditabilidade do funcionamento dos sistemas de IA.
A Recomendação incentiva os Estados-membros a fortalecer a capacidade do Poder Judiciário para tomar decisões relacionadas a sistemas de IA, mantendo sempre a supervisão humana5. As Diretrizes da OCDE para empresas estatais reforçam que os mecanismos de governança da IA devem ser inclusivos, transparentes e multidisciplinares, abrangendo antecipação, monitoramento de impacto, execução e reparação. A convergência entre as recomendações internacionais, enquanto soft law, revela que o desenvolvimento ético da IA não se limita à criação de sistemas tecnicamente seguros, mas exige a construção de uma infraestrutura de governança que garanta rastreabilidade, auditabilidade e responsabilização em todas as fases do ciclo de vida dos sistemas inteligentes.
O verdadeiro teste dessa abordagem reside na capacidade de equilibrar a inovação tecnológica com a proteção dos direitos humanos, assegurando que cada decisão automatizada possa ser questionada, compreendida e, quando necessário, revertida por atores humanos devidamente identificados e responsabilizados.
No entanto, a natureza não vinculante das soft laws apresenta um desafio jurídico significativo. A ausência de obrigatoriedade legal significa que a adesão a essas diretrizes é voluntária, dependendo da soberania e da discricionariedade de Estados e entes privados. Consequentemente, não há garantia de que as recomendações da UNESCO ou da OCDE sejam implementadas de forma consistente em nível internacional.
HARD LAW: Análise comparada da legislação da UE e o desenvolvimento legislativo no Brasil a respeito da Inteligência Artificial Autônoma
2.1. A União Europeia como pioneira na legislação de IA
A União Europeia (UE) tem se posicionado como precursora global na busca por um quadro jurídico abrangente e harmonizado para a Inteligência Artificial, distinguindo-se por uma abordagem regulatória baseada em riscos. Essa estratégia foi delineada inicialmente em documentos como o Livro Branco sobre Inteligência Artificial de 2020 da Comissão Europeia9, documento político de consulta popular sem caráter vinculante, que delimitou os principais pontos a serem abordados posteriormente pelo Regulamento sobre Inteligência Artificial da União Europeia (AI Act)10.
O Regulamento é uma diretriz de caráter vinculante, aprovado em 2024 e com a aplicação da maioria das suas disposições previstas para 2 de agosto de 2026, que, dentre outras provisões, estabelece a classificação dos sistemas de IA conforme o grau de risco representado em potencial, impondo obrigações proporcionais a cada um. Partindo da premissa de que o “risco” é a “combinação da probabilidade de ocorrência de danos com a gravidade desses danos”, a abordagem europeia segmenta os sistemas de IA. No patamar mais extremo, figuram as práticas de IA proibidas, consideradas inaceitáveis por violarem valores fundamentais.
Contudo, o principal foco regulatório recai sobre os sistemas de IA de alto risco, dada sua capacidade autônoma de interagir com ambientes físicos e, consequentemente, causar danos significativos à saúde, segurança ou direitos fundamentais.
Essa classificação abrange IA que atua como componente de segurança em produtos já regulados (como dispositivos médicos ou veículos autônomos), ou sistemas listados em seu Anexo III que operam em domínios críticos como infraestruturas essenciais e serviços de saúde de emergência.
Tais sistemas são submetidos a obrigações rigorosas de conformidade, como gestão de riscos, governança de dados e supervisão humana, visando mitigar os perigos inerentes à sua operação autônoma. Abaixo desse nível, os sistemas de risco limitado e risco mínimo possuem menos exigências.
Embora não seja uma lei de responsabilidade per se, suas obrigações de conformidade para IA de alto risco (avaliações de risco, governança de dados, supervisão humana) são precursores importantes para a responsabilização.
Faz-se cada vez mais necessária a regulamentação da responsabilidade civil no que tange a operação de IA. Com esse objetivo, também no cenário europeu, surge a Proposta de Diretiva de Responsabilidade por IA (AI Liability Directive – AILD)11, apresentada pela Comissão Europeia em 2022, atualmente em processo de tramitação legislativa.
A Proposta procura assegurar plena proteção às vítimas de danos causados pela IA, além de buscar segurança jurídica para empresas que desenvolvem ou utilizam IA no que diz respeito à sua eventual exposição em matéria de responsabilidade: “A presente proposta abrange as ações nacionais de indemnização baseadas principalmente na culpa de qualquer pessoa, com vista a indemnizar todo o tipo de danos e todo o tipo de vítimas. Complementam-se mutuamente no intuito de formar um regime de responsabilidade civil global eficaz” 12.
Um conceito determinante para a compreensão da responsabilidade por danos físicos em sistemas de IA autônoma é o da “caixa preta”13: contexto em que o processo de funcionamento de uma IA é estranho aos seus usuários, que têm conhecimento apenas de seus resultados.
Juntamente de outras características desses sistemas, como sua complexidade e autonomia, pode tornar-se difícil e oneroso para as vítimas a identificação da pessoa responsável e a prova dos requisitos necessários a uma ação de indenização bem-sucedida. Logo, a Diretiva busca resolver a dificuldade para as vítimas de provar culpa e causalidade14 decorrentes dessa natureza da IA.
Visando superar o problema da “caixa preta”, em seu artigo 3º, a proposta assegura às vítimas o recurso à divulgação. Em outras palavras, confere à vítima acesso a dados e documentações (que, de outra maneira, seriam inacessíveis) necessários para identificar o responsável e fundamentar sua ação de indenização.
Levando em consideração as referidas dificuldades, o documento procura “aliviar” o fardo do ônus da prova para vítimas de danos causados por IA, reduzindo-o, de forma seletiva, ao aplicar “presunções ilidíveis” a respeito da causalidade; em seu artigo 4º, a Diretiva prevê que, caso certas condições sejam preenchidas (por exemplo, se o demandante provar a culpa do demandado em relação a um dever de diligência e for razoavelmente provável que a ação do demandado tenha influenciado o resultado da IA), o tribunal presume que houve um nexo causal entre a falha do demandado e o dano causado pelo sistema de IA, ou seja, ocorre a inversão do ônus da prova.
Dessa forma, a Proposta de Diretiva de Responsabilidade por IA busca atualizar o entendimento jurídico vigente de forma a superar as dificuldades impostas pela complexidade e obscuridade do funcionamento de Inteligências Artificiais, garantindo às vítimas de seu mau funcionamento o mesmo respaldo legal assegurado por outras situações já positivadas, bem como a devida responsabilização de seus causadores.
Complementarmente a esta estrutura, a União Europeia também propôs a Revisão da Diretiva de Responsabilidade por Produtos (PLD)13, que visa modernizar a responsabilidade do produtor para incluir explicitamente a IA e o software como “produtos”, quando inseridos em produtos ou quando são, por si só, o produto. Essa revisão mantém o regime de responsabilidade objetiva do produtor por produtos defeituosos, facilitando a indenização por danos causados por IA defeituosa, independentemente de culpa.
O conjunto formado pelo AI Act, pela proposta de Diretiva de Responsabilidade por IA e pela revisão da PLD evidencia a estratégia abrangente da União Europeia para suprir lacunas normativas da inteligência artificial, garantindo proteção efetiva às vítimas, segurança jurídica à inovação e consolidando-se como referência regulatória no setor.
2.2. O cenário brasileiro
No cenário jurídico brasileiro, a discussão sobre a responsabilização por danos causados por sistemas de Inteligência Artificial autônomos, especialmente os físicos, encontra-se em uma fase de intensa e complexa construção, carecendo ainda da consolidação normativa observada em outros blocos, como a União Europeia.
O desafio principal reside em adaptar institutos jurídicos preexistentes à natureza peculiar da IA, marcada pela autonomia, complexidade e opacidade, que dificultam a tradicional atribuição de culpa e a prova do nexo causal. Nesse contexto de evolução, o Projeto de Lei nº 2.338/202316, atualmente em tramitação no Congresso Nacional, emerge como o principal esforço para estabelecer um marco legal da IA no país.
O Projeto de Lei, seguindo o caminho da abordagem europeia, assenta-se em fundamentos que priorizam a “centralidade da pessoa humana” e a “reparação integral de danos”. Preconiza princípios como a “transparência e explicabilidade”, a “supervisão e determinação humana efetiva e adequada”, e a “diligência devida e auditabilidade” ao longo do ciclo de vida da IA.
Tais diretrizes são cruciais, pois a falha na observância desses deveres por parte dos “agentes de inteligência artificial” (desenvolvedores, distribuidores e aplicadores) pode vir a fundamentar a responsabilização. O Projeto de Lei também espelha a lógica da UE17 ao estabelecer uma classificação de riscos, com usos de “risco excessivo” sendo vedados – a exemplo de sistemas de armas autônomas (SAA) e certas IAs que instiguem comportamentos que causem danos à saúde ou à segurança.
Os sistemas de “alto risco”, categoria em que se enquadram os veículos autônomos, aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, e a gestão de infraestruturas críticas, áreas de grande potencial para danos físicos, são submetidos a medidas de governança mais rigorosas, conforme detalhado no Capítulo IV do PL.
No que tange diretamente à responsabilização civil, o Capítulo V do PL 2338/2023 busca harmonizar a aplicação da legislação existente às novas realidades da IA. Para as relações de consumo, a responsabilidade por danos causados por IA “permanece sujeita às regras da Lei nº 8.078, de 1990 (Código de Defesa do Consumidor- CDC)”, o que, em tese, favorece a vítima dada a responsabilidade objetiva do fornecedor por vícios e fatos do produto ou serviço.
Para os demais casos, o Projeto de Lei remete às normas do Código Civil de 2002 (Lei nº 10.406) cuja regra geral é a responsabilidade subjetiva, demandando a prova da culpa do agente. No entanto, de forma inovadora, o parágrafo único do art. 36 estabelece que a definição do regime de responsabilidade aplicável deve considerar o “nível de autonomia do sistema de IA e o seu grau de risco”, permitindo uma modulação judicial que pode aproximar a IA autônoma da responsabilidade objetiva (atividade de risco) mesmo fora das relações de consumo.
Embora este seja um avanço crucial, a ausência de uma regra legal explícita de responsabilidade objetiva para IA de alto risco, como ocorre na proposta de revisão da Diretiva de Responsabilidade por Produtos (PLD) da UE, mantém um grau de incerteza que dependerá da interpretação judicial.
O ponto mais significativo do PL na superação do desafio da “caixa preta” e do nexo causal é o art. 37, que permite ao juiz inverter o ônus da prova quando a vítima for “hipossuficiente ou quando as características de funcionamento do sistema de IA tornem excessivamente oneroso para a vítima provar os requisitos da responsabilidade civil”. Essa previsão é fundamental para garantir a reparação integral, ao conceder ao magistrado a discricionariedade de aliviar o fardo probatório da vítima.
Contudo, essa solução se distingue da proposta de Diretiva de Responsabilidade por IA da União Europeia (AILD), que sugere presunções legais de causalidade e/ou culpa em cenários específicos de alto risco e em caso de não conformidade, facilitando a prova ex lege, aquela que é derivada diretamente de lei, e de forma mais uniforme. A abordagem brasileira, ao depender da análise judicial casuística, pode gerar menor previsibilidade e, consequentemente, incerteza jurídica para vítimas e agentes envolvidos.
Embora o PL estabeleça obrigações de governança como documentação, testes, e avaliação de impacto algorítmico, bem como preveja auditorias e acesso a dados, a efetividade de muitas dessas medidas, e seu impacto na facilitação da prova, dependerá de regulamentação infralegal por parte do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), conferindo um caráter ainda em construção à responsabilização da IA no Brasil.
Reflexões sobre a atribuição de responsabilidade na era da IA:
A jornada empreendida neste artigo, do plano ético e voluntário da soft law às iniciativas concretas de hard law na Europa e no Brasil, revela que o dilema jurídico introduzido pelos sistemas de inteligência artificial autônomos, de “como responsabilizar” por seus danos físicos, ainda não possui uma resposta única e plenamente consolidada.
Como a análise demonstrou, a autonomia da IA e a complexidade de sua “caixa preta” são os grandes obstáculos à aplicação dos regimes de responsabilidade civil tradicionais, forçando os ordenamentos jurídicos a buscar soluções inovadoras que garantam a proteção às vítimas e a segurança jurídica.
Nesse contexto, a União Europeia, com sua abordagem pioneira e abrangente, apresenta um modelo que busca preencher explicitamente as lacunas legais. Por meio do Regulamento sobre Inteligência Artificial (AI Act) para prevenção e conformidade, e de propostas como a Diretiva de Responsabilidade por IA (AILD) e a revisão da Diretiva de Responsabilidade por Produtos (PLD), a UE avança para um regime que facilita a prova para as vítimas através de presunções legais de causalidade e culpa, transferindo ao demandado o ônus de ilidir essa presunção. Esta abordagem, embora ainda em tramitação, visa a uma maior previsibilidade e uniformidade na reparação de danos, respondendo de forma direta aos desafios da opacidade e da complexidade da IA.
O cenário brasileiro, por sua vez, reflete a influência dessa abordagem, mas com particularidades que moldam um caminho próprio. O PL 2338/2023, ao adaptar a legislação civil existente, oferece avanços importantes, como a manutenção da responsabilidade objetiva em relações de consumo e a previsão de uma inversão do ônus da prova por discricionariedade judicial em casos de hipossuficiência da vítima.
Contudo, é aqui que reside a principal distinção crítica: enquanto o modelo europeu se move em direção a presunções ex lege, o brasileiro, ao depender da análise judicial casuística, pode gerar menor previsibilidade e, consequentemente, incerteza jurídica para vítimas e agentes envolvidos.
A efetividade de muitas dessas medidas, como auditorias e acesso a dados para a prova, dependerá ainda da regulamentação infralegal, conferindo ao nosso sistema um caráter de “obra em construção”.
A responsabilidade, portanto, não é um problema insolúvel, mas sim um desafio que exige uma resposta contínua e colaborativa. É imperativo que o Direito mantenha-se vigilante e ágil para acompanhar o ritmo da inovação, buscando um equilíbrio fundamental entre fomentar o desenvolvimento tecnológico e, acima de tudo, salvaguardar os direitos humanos. Em última análise, a responsabilização adequada de desenvolvedores e operadores é condição indispensável para que a autonomia da inteligência artificial se converta em instrumento de benefício social, e não em fonte de riscos e insegurança.
REFERÊNCIAS
MIT TECHNOLOGY REVIEW BRASIL. Por que será difícil saber se a IA se tornará consciente. [2023]. Disponível em: https://mittechreview.com.br/por-que-sera-dificil-saber-se-a-ia-se-tornara-consciente/. Acesso em: 27 jul. 2025.
XAVIER, Fabio Correa.MIT TECHNOLOGY REVIEW BRASIL. Desafios éticos e técnicos da IA autônoma. [2025]. Disponível em: https://mittechreview.com.br/desafios-eticos-tecnicos-ia-autonoma/. Acesso em: 29 jul. 2025.
TESLA revela carro totalmente autônomo projetado para serviço de robô-táxi. In: UOL Economia. [S. l.], 11 out. 2024. Disponível em: https://economia.uol.com.br/noticias/estadao-conteudo/2024/10/11/tesla-revela-carro-totalmente-autonomo-projetado-para-servico-de-robo-taxi.htm. Acesso em: 31 jul. 2025.
EXTRA GLOBO. Acidentes envolvendo carros Tesla em piloto automático já mataram 17 nos EUA. [S. l.], 2023. Disponível em: https://extra.globo.com/blogs/page-not-found/post/2023/06/acidentes-envolvendo-carros-tesla-em-piloto-automatico-ja-mataram-17-nos-eua.ghtml. Acesso em: 29 jul. 2025.
UNESCO. Recomendação sobre a Ética da lnteligência Artificial. Disponível em: <https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence>.
OCDE (2024), OCDE Guidelines on Corporate Governance of State-Owned Enterprises 2024, OCDE Publishing, Paris, https://doi.org/10.1787/18a24f43-en.
Soft Law e Direito Privado Estrangeiro: fontes úteis aos juristas. Disponível em: <https://www.migalhas.com.br/coluna/migalhas-de-direito-privado-estrangeiro/380100/soft-law-e-direito-privado-estrangeiro-fontes-uteis-aos-juristas>.
FORREST, Katherine. The Ethics and Challenges of Legal Personhood for AI. Página 1175. Disponível em:<https://www.yalelawjournal.org/forum/the-ethics-and-challenges-of-legal-personhood-for-ai>.
COMISSÃO EUROPEIA. Livro Branco sobre a inteligência artificial: uma abordagem europeia virada para a excelência e a confiança. Bruxelas, 2020. COM(2020) 65 final. Acesso em: 31 jul. 2025.
UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.º 300/2008, (UE) n.º 167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial). Jornal Oficial da União Europeia, L 2024/1689, 12.7.2024. Disponível em: http://data.europa.eu/eli/reg/2024/1689/oj. Acesso em: 30 jul. 2025.
COMISSÃO EUROPEIA. Proposta de Diretiva do Parlamento Europeu e do Conselho relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial (Diretiva Responsabilidade da IA). Bruxelas, 2022. COM(2022) 496 final. Acesso em: 29 jul. 2025.
COMISSÃO EUROPEIA. Proposta de Diretiva do Parlamento Europeu e do Conselho relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial (Diretiva Responsabilidade da IA). Bruxelas, 2022. COM(2022) 496 final. P. 4. Acesso em: 29 jul. 2025.
KOSINSKI, Matthew. What Is Black Box AI and How Does It Work?. [S. l.]. Disponível em: https://www.ibm.com/think/topics/black-box-ai. Acesso em: 31 jul. 2025.
COMISSÃO EUROPEIA. Proposta de Diretiva do Parlamento Europeu e do Conselho relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial (Diretiva Responsabilidade da IA). Bruxelas, 2022. Artigo 4º. COM(2022) 496 final. Acesso em: 31 jul. 2025.
COMISSÃO EUROPEIA. Proposta de Diretiva do Parlamento Europeu e do Conselho relativa à responsabilidade pelos produtos defeituosos (reformulação). Bruxelas, 2022. COM(2022) 495 final. Acesso em: 29 jul. 2025.
BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o desenvolvimento, fomento e o uso ético e responsável da inteligência artificial com base centralidade da pessoa humana. Brasília, DF, 31 de janeiro de 2025. Acesso em: 31 jul. 2025.
MONTEIRO, Laura Schertel Ferreira; ANDRADE, Otávio de Morato; GABRIEL, Fabio. Regulação da IA: semelhanças e diferenças entre o PL 2.338/2023 e o EU AI Act. In: ConJur. [S. l.], 27 maio 2024. Disponível em: https://www.conjur.com.br/2024-mai-27/regulacao-da-ia-semelhancas-e-diferencas-entre-o-pl-2-338-2023-e-o-eu-ai-act/. Acesso em: 29 jul. 2025.

