por Marcello Ávila Nascimento
I. O Novo Campo de Batalha da Propriedade Intelectual
A Inteligência Artificial (IA) generativa representa a maior alavanca de produtividade do século, mas também o maior fator de risco jurídico oculto da última década. Se antes o foco da propriedade intelectual era em como registrar e proteger o novo (o lado ofensivo), o cenário mudou drasticamente para a gestão de passivos e a defesa contra a infração (o lado defensivo).
A tecnologia de IA está avançando muito mais rapidamente do que os marcos regulatórios existentes. No Brasil, a Lei de Propriedade Industrial (LPI, Lei nº 9.279/96) não previa algoritmos que inventam ou copiam. O resultado é um vácuo legal onde o conceito de infração (o ato de violar a patente) se choca com o conceito de responsabilidade civil (quem deve pagar por essa violação), remetendo a discussão diretamente ao Código Civil.
Este artigo se destina a Diretores Jurídicos, Gestores de Risco e R&D, explorando a complexidade de quem deve “pagar a conta” quando a IA inadvertidamente reproduz uma invenção protegida, e quais ações de compliance são urgentes para mitigar esse risco.
II. O Fator Criptomnésia e a Infração Inadvertida
A raiz técnica do risco de litígio reside na forma como os modelos de IA são treinados. A IA é alimentada por data sets massivos que, invariavelmente, incluem milhões de documentos publicamente acessíveis, tais como bancos de dados de patentes, artigos científicos e códigos-fonte.
Ocorre um fenômeno análogo à criptomnésia (termo psicológico que designa a confusão entre memória e imaginação): a IA, tendo absorvido a informação técnica de uma invenção patenteada, pode reproduzir aquela solução como se fosse um output original. A máquina não “sabe” que a fonte era protegida.
O risco jurídico para a empresa usuária é a infração inadvertida. Uma empresa pode ser acusada de infração direta por um produto gerado pela IA, mesmo que não tenha tido má-fé ou intenção de copiar. Isso nos leva diretamente à questão da responsabilidade.
III. O Dilema Central da Responsabilidade Civil na LPI
Quando uma IA cria um design, um código ou um produto que cai no escopo de proteção de uma patente de terceiros, inicia-se um litígio que tem como ponto de partida a infração da LPI, mas se aprofunda nas regras de responsabilidade civil. O grande nó jurídico é a dificuldade de atribuir culpa (ou dolo) a uma máquina.
A. Responsabilidade Objetiva vs. Subjetiva
No Direito de Patentes, a regra geral é o que chamamos de responsabilidade objetiva em relação ao ato de infringir. Ou seja, se o produto final (a materialização da invenção) viola as reivindicações de uma patente vigente, a infração se estabelece, independentemente da intenção do infrator. A alegação de “eu não sabia que a IA estava copiando” não serve como defesa para o ato de infringir.
Entretanto, a discussão se torna mais complexa ao atribuir a responsabilidade na cadeia de produção da IA:
- Responsabilidade Objetiva (O Produto): A empresa que fabrica e comercializa o produto gerado pela IA é o alvo primário, pois detém o domínio do fato do produto colocado no mercado e o lucro da operação.
- Responsabilidade Subjetiva (A Culpa): Para responsabilizar o desenvolvedor da IA ou o fornecedor do dataset, o litigante precisará, muitas vezes, provar a culpa ou dolo (negligência, imprudência ou imperícia) na forma como a IA foi criada ou treinada. Por exemplo, se o desenvolvedor de um LLM falhou deliberadamente em aplicar filtros para excluir material protegido por PI, isso pode configurar culpa.
B. Os 3 Candidatos à Responsabilidade
A incerteza legal força o detentor da patente a litigar contra diversos players na cadeia, buscando a indenização (reparação do dano) e a cessação da infração.
- A Empresa Usuária (Fabricante/Importador): É o alvo mais fácil e com maior potencial de pagamento. A responsabilidade é objetiva sobre o produto (violação da LPI), e é dela a responsabilidade final de realizar o Freedom-to-Operate (FTO) antes de lançar o produto.
- A Desenvolvedora ou Fornecedora da IA (OpenAI, Google, etc.): Litigar contra esses gigantes será primariamente uma disputa contratual. A defesa deles será de que a IA é uma ferramenta neutra, e a responsabilidade criativa é do usuário. A responsabilidade só será aplicada se houver prova clara de má-fé ou falha em garantir a integridade do software (responsabilidade por vício ou fato do produto).
- O Fornecedor do Data Set (A Contaminação na Fonte): O risco de infração ocorre na fase de treinamento, quando o modelo absorve o material patenteado. Se o fornecedor do data set não obteve as licenças necessárias para o uso de dados protegidos, ele pode ser responsabilizado por uma violação indireta ou contribuição para a infração.
IV. O Problema da “Caixa Preta” (Black Box) nos Litígios
Se a definição da responsabilidade já é complexa, a prova da infração (o mérito do litígio) é igualmente desafiadora, esbarrando na natureza opaca dos modelos de IA. A “Caixa Preta” refere-se à incapacidade de rastrear as etapas e variáveis internas do modelo de Machine Learning que levaram a um output específico.
Desafios no Contencioso de Patentes:
- Dificuldade de Prova para o Requerente (Titular da Patente): Para provar que a invenção gerada pela IA infringe sua patente, o titular precisaria, idealmente, analisar o código-fonte ou o modelo do infrator (a IA). Isso esbarra em alegações de segredo industrial e no custo proibitivo de uma perícia complexa. O caso se torna, muitas vezes, uma prova por inferência e evidências externas, e não por análise direta do algoritmo.
- A Defesa da Empresa Acusada: Para provar que não houve infração (ou seja, que a IA não copiou), a empresa usuária precisaria revelar o pipeline de criação e o dataset Isso coloca a empresa entre a cruz e a espada: ou revela segredos industriais valiosos sobre o funcionamento do seu modelo, ou corre o risco de ser considerada culpada por falta de transparência.
- Contaminação de Segredo Industrial: Além do risco de infração, há o perigo de vazamento de segredos industriais da própria empresa usuária. Se engenheiros inserirem informações confidenciais (“prompts” detalhados, desenhos técnicos internos) em IAs públicas, esses dados podem contaminar os modelos subsequentes e serem inadvertidamente “sugeridos” a concorrentes, destruindo o requisito de ineditismo de futuros pedidos de patente da própria empresa.
V. Estratégia e Mitigação de Riscos (Ações de Compliance)
Diante desse cenário de incerteza e alto risco de responsabilidade objetiva, o Jurídico de TICs precisa sair da reatividade e migrar para uma postura ativa de compliance. O foco é criar barreiras jurídicas e contratuais que protejam a empresa do passivo gerado pela IA.
1. FTO (Freedom-to-Operate) Mandatório para Todo Output de IA
- O Princípio: Tratar toda invenção gerada pela IA como se fosse um “protótipo de um novo engenheiro júnior”.
- Ação Prática: Nenhum produto, processo ou design que tenha tido contribuição significativa de IA pode ser levado ao mercado sem uma busca de FTO prévia. Isso exige a contratação de escritórios especializados para mapear o risco de infração de patentes vigentes e assegurar a Livre Operação no mercado.
2. Governança de Prompts e Dados
- Controle de Entrada: Criar políticas internas rigorosas definindo quais tipos de dados (e em qual nível de confidencialidade) podem ser inseridos em modelos de IA. É essencial restringir o uso de IAs públicas genéricas para P&D que lide com segredos industriais.
- Documentação (Compliance): Manter registros detalhados sobre os data sets utilizados para treinar IAs internas e documentar o processo de validação humana (quem, quando e por que aprovou o output da IA) para uso em defesa judicial.
3. Contratos e Cláusulas de Indenização (Warranties)
- Alocação de Risco: Ao adquirir soluções de IA de terceiros, é crucial negociar cláusulas contratuais de indenização (warranty) que obriguem o desenvolvedor da IA a assumir o custo da defesa legal (custas processuais, honorários e eventuais condenações) caso o output do modelo resulte em litígio por infração de Propriedade Intelectual.
- Licenciamento de Dados: Exigir do fornecedor do data set garantias contratuais de que o material utilizado no treinamento da IA foi devidamente licenciado e não contém violações de direitos de terceiros.
VI. Conclusão
A Inteligência Artificial é a tecnologia que definirá o sucesso corporativo na próxima década. No entanto, sua natureza opaca e o descompasso com a Lei de Patentes transformam a inovação em um terreno minado de responsabilidade civil.
O Jurídico não pode mais se contentar com a mera proteção do código; deve agora se concentrar em proteger a empresa do passivo gerado por esse mesmo código. A ausência de um marco legal específico força o litígio de PI para as complexas regras do Código Civil e exige uma atuação jurídica de compliance preventivo, que envolva FTOs obrigatórias e uma rigorosa gestão de prompts e dados.
Se a sua empresa está utilizando IA generativa no seu P&D, é imperativo que o departamento jurídico realize imediatamente um mapeamento de riscos e estabeleça as barreiras de compliance necessárias para proteger o seu balanço financeiro e a continuidade da sua operação.
Restando dúvidas envie um e-mail para inpi@avilanascimento.adv.br, ou entre em contato pelo telefone (21) 3208-3838 ou pelo WhatsApp (21) 97272-8787.
Referências:
ABBOTT, Ryan. The Reasonable Robot: Artificial Intelligence and the Law. Cambridge: Cambridge University Press, 2020.
BRASIL. Lei nº 9.279, de 14 de maio de 1996. Regula direitos e obrigações relativos à propriedade industrial. Diário Oficial da União, Brasília, DF, 15 maio 1996.
Site oficial do escritório Ávila Nascimento Advocacia. Disponível em: https://avilanascimento.adv.br/#informativos. Acesso em 2025.
BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. BRASIL. Senado Federal. Projeto de Lei nº 2.338, de 2023. Regulamenta o uso da Inteligência Artificial no Brasil para proteger os direitos fundamentais. Disponível em: https://www.senado.leg.br/atividade/materia/getPDF.asp?t=MP&id=162608. Acesso em: nov. 2025.
WORLD INTELLECTUAL PROPERTY ORGANIZATION (WIPO). Generative AI and Intellectual Property. Geneva: WIPO, 2024. Disponível em: https://www.wipo.int/about-ip/en/ai/generative_ai.html. Acesso em: 20 nov. 2025.
Responsabilidade Civil e Infração de Patentes por IA
O que é Criptomnésia e como ela causa infração de patentes?
Criptomnésia é o fenômeno em que a IA, treinada em vastos data sets (incluindo patentes), reproduz uma solução protegida sem rastreamento. Isso gera a infração inadvertida, pois a empresa copia o ativo sem ter conhecimento ou má-fé.
O desenvolvedor da IA pode ser responsabilizado por infrações?
Sim, mas essa responsabilidade é geralmente subjetiva. O litígio se concentra em provar culpa ou falha contratual na forma como o modelo foi treinado ou vendido. É crucial exigir cláusulas de indenização (warranty) no contrato.
Como o problema da "Caixa Preta" afeta os litígios de patentes envolvendo IA?
A opacidade do algoritmo impede que o titular da patente rastreie o processo de cópia (dificultando a prova da infração). Além disso, dificulta a defesa da empresa acusada (que precisa revelar segredos do modelo).
Por que o FTO (Freedom-to-Operate) é mandatório para outputs de IA?
O FTO (Livre Operação) é a única forma de mitigar o alto risco de infração inadvertida. Toda solução gerada pela IA deve ser submetida a uma busca de FTO para garantir que não viola patentes vigentes antes de ser comercializada.
escritório de propriedade intelectual, advogado de marcas na barra, advogado especialista em marcas na barra da tijuca, advogado de marcas no península, advogado especialista em marcas no península, advogado de marcas e patentes, advogado na barra da tijuca, advogado de inpi, advogado de direito autoral, advogado de direito digital, advogado especialista em inpi, advogado de propriedade intelectual, advogado especialista em propriedade intelectual na barra, registro de marca, registro de marca online, registro de marca 100% online, registro de marca em 24h, registro de marca sem burocracia, registro de patente, registro de desenho industrial, registro de programa de computador, registro de software, registro no inpi,


