A interseção do direito contratual, da inteligência artificial (IA) e dos contratos inteligentes conta uma história interessante, mas complexa. À medida que a tecnologia assume um papel mais proeminente na compra e na tomada de decisões, levanta questões importantes sobre como funcionam os conceitos jurídicos básicos, como oferta, aceitação e intenção. Com o uso crescente da IA, também começam a surgir preocupações sobre a responsabilização, a aplicação e a possibilidade de fracasso. Este artigo aborda essas questões examinando três questões principais:
- Como os contratos inteligentes e os sistemas automatizados de tomada de decisão baseados em IA desafiam os princípios tradicionais de construção de contratos, como oferta, aceitação e intenção?
- Os sistemas de IA devem ser considerados entidades legais capazes de celebrar contratos ou a responsabilidade deve caber exclusivamente aos desenvolvedores ou usuários?
- Que soluções existem se um contrato inteligente falhar devido ao mau funcionamento da IA ou à manipulação externa?
Contratos inteligentes, tomada de decisão automatizada e design de contrato tradicional
Compreendendo a formação de contratos
No domínio do direito contratual, três elementos essenciais constituem um contrato válido: uma doação, aceitaçãode novo o objetivo. Simplificando, uma parte faz uma oferta, a outra aceita e ambas expressam a intenção comum de firmar um acordo vinculativo. Esses elementos se concentram mais na interação humana.
- Dar: Uma parte propõe realizar ou abster-se de uma determinada ação.
- Aceitação: A outra parte concorda com os termos da oferta.
- O objetivo: Ambas as partes devem ter a intenção de celebrar um acordo juridicamente vinculativo.
Quando consideramos contratos inteligentes e sistemas baseados em IA, estes sistemas tradicionais enfrentam grandes desafios.
Contratos Inteligentes e a Erosão dos Contratos Tradicionais
UM contrato inteligente é um acordo autoexecutável com termos escritos diretamente no código. Ao funcionarem com base na tecnologia blockchain, estes contratos proporcionam transparência e segurança, mas também complicam os conceitos tradicionais.
- Dar: Em geral, fazer uma oferta requer uma negociação cuidadosa. No entanto, os contratos inteligentes podem automatizar esse processo, o que levanta a questão: “oferta” terá o mesmo significado se o código for gerado em vez da interação humana?
- Aceitação: Ao contrário dos contratos convencionais, onde a aceitação é um ato consciente, os contratos inteligentes operam automaticamente com base em condições programadas. Se as condições forem cumpridas, o contrato é celebrado sem qualquer outra contribuição da pessoa. Isso nos leva a nos perguntar: como definimos aceitação se ela é inteiramente orientada por código?
- O objetivo: O conceito de propósito torna-se ainda mais obscuro. Os sistemas de IA podem operar com algoritmos sem supervisão humana, complicando a compreensão tradicional da intenção. Embora possa haver intenção na criação de um contrato, torna-se difícil para as máquinas criarem um contrato sem interação humana direta.
Tomada de decisão automática e contratos inconscientes
Os sistemas de IA, especialmente aqueles com algoritmos avançados, podem negociar e executar contratos automaticamente. Esta capacidade amplia os limites do direito contratual tradicional, que depende fortemente da tomada de decisões humanas.
Por exemplo, se uma IA decidir que é hora de celebrar um contrato com base em dados de mercado, essa ação constitui “aceitação”? Se a IA opera sem intenção humana, podemos realmente considerar as suas decisões como expressões válidas de vontade? O princípio de acordo-a base do direito contratual- torna-se difícil de manter quando a maquinaria faz parte da equação. A essência do direito contratual – que ambas as partes concordam voluntariamente com os termos – fica confusa quando uma das partes é um algoritmo.
O estatuto jurídico dos sistemas de IA: a IA deve ser reconhecida como entidade legal?
À medida que a IA continua a desenvolver-se, surge um debate importante: devemos reconhecer os sistemas de IA como entidades jurídicas capazes de celebrar contratos? Tradicionalmente, apenas pessoas físicas e jurídicas, como empresas, podem celebrar contratos. Os sistemas de IA são frequentemente vistos como ferramentas responsáveis por pagamentos aos seus desenvolvedores ou usuários.
Argumentos para ver a IA como empresas legítimas
- Independência: Os sistemas modernos de IA podem operar de forma independente, levantando a questão de saber se devem ser responsabilizados como entidades jurídicas. Se a IA pode negociar e finalizar contratos, alguns dizem que também deveria arcar com as obrigações legais que acompanham essas ações.
- Responsabilidade: Dar status legal à IA pode organizar a responsabilização. Se uma IA quebrar um contrato, ela poderá ser responsabilizada? Isto poderia simplificar os processos jurídicos, tratando a IA como atores independentes, semelhantes às empresas.
- Bom desempenho: Reconhecer os sistemas de IA como empresas legítimas pode facilitar as transações. Esta mudança pode reduzir a necessidade de supervisão humana constante em processos baseados em IA, incentivando operações mais rápidas e eficientes.
Argumentos contra a IA como entidade legal
- Déficits de organização comportamental: A IA não tem pensamento moral e ético. Os quadros jurídicos tradicionais pressupõem que as entidades jurídicas compreendem o impacto das suas ações. Uma vez que a IA funciona com base em algoritmos e não em considerações éticas, tratá-la como uma pessoa colectiva coloca desafios significativos.
- Imprevisibilidade: Os sistemas de IA, especialmente aqueles que utilizam aprendizagem automática, podem comportar-se de formas imprevisíveis. Responsabilizar a IA por tais ações levanta dificuldades, pois até os desenvolvedores podem ter dificuldades para responsabilizar as decisões tomadas pelas suas criações. Parece mais razoável responsabilizar os desenvolvedores ou usuários.
- Questões regulatórias: Dar estatuto legal à IA pode confundir os quadros regulamentares. Como podemos punir a IA por ações erradas? Os métodos tradicionais, como multas ou prisão, não funcionam na máquina, tornando difícil impor a responsabilização.
Uma abordagem equilibrada: a responsabilidade dos desenvolvedores e usuários
Atualmente, o consenso é que a IA não deve ser considerada entidade legal. Em vez disso, a responsabilidade deve recair sobre as pessoas ou organizações que apoiam a IA. Esta abordagem mantém a responsabilidade das pessoas em primeiro lugar.
Neste contexto, o objetivo de responsabilidade entre para brincar. Uma vez que o empregador é responsável pelas ações do empregado, os desenvolvedores e usuários podem ser responsabilizados pelas decisões tomadas pelos seus sistemas de IA.
Soluções para falha de contrato inteligente devido a mau funcionamento da IA ou fraude externa
Os contratos inteligentes são projetados para automatizar e minimizar o erro humano. No entanto, esse recurso pode ser problemático se o contrato inteligente não funcionar corretamente ou for usado incorretamente.
Problemas decorrentes de mau funcionamento da IA
Se a IA falhar – seja devido a um erro de codificação ou a circunstâncias imprevistas – as consequências podem ser enormes, especialmente se um contrato inteligente for executado incorretamente. Os remédios legais tradicionais são semelhantes cancelamento (quebra de contrato) ou mudar (alterar termos) não funciona facilmente em contratos inteligentes imutáveis.
As soluções possíveis incluem:
- Intervenção Judicial: Os tribunais podem precisar intervir para impedir a implementação de um contrato inteligente em caso de mau funcionamento. Isso pode incluir a interrupção de transações no blockchain ou a anulação completa do contrato. No entanto, isto levanta preocupações sobre o enfraquecimento dos principais benefícios dos contratos inteligentes, como a descentralização e a automação.
- Cláusulas de Força Maior: Os desenvolvedores podem instalar força maior cláusulas contratuais inteligentes para lidar com mau funcionamento inesperado ou eventos externos. Tais cláusulas podem permitir a suspensão ou alteração do contrato caso surjam determinadas circunstâncias, dando às partes a oportunidade de negociar uma solução.
- Seguro de Responsabilidade Civil: Os usuários de IA e contratos inteligentes podem considerar a obtenção de um seguro de responsabilidade especial para cobrir possíveis perdas devido a mau funcionamento. Esta abordagem transfere o risco das partes individuais para a seguradora, garantindo que as perdas sejam tratadas sem a necessidade de intervenção legal.
Fala sobre engano externo
Os contratos inteligentes também são vulneráveis a ameaças externas, como hacking ou exploração de código. A aplicação de soluções para tais violações pode ser difícil, especialmente em sistemas onde as identidades das entidades são frequentemente desconhecidas.
Possíveis soluções podem incluir:
- Inspeção de Segurança: Testar regularmente o código do contrato inteligente e implementar fortes medidas de segurança pode ajudar a reduzir o risco. Por exemplo, o uso de múltiplas assinaturas – exigindo diversas aprovações antes de assinar um contrato – pode melhorar a segurança.
- Governança Blockchain: Podem ser estabelecidas estruturas de governação lideradas pela comunidade para lidar com problemas quando os contratos inteligentes são interrompidos. Esses sistemas podem reverter atividades maliciosas ou congelar ativos em resposta a fraudes.
- Ação Legal por Violação: Os tribunais podem reconhecer violações causadas por manipulação extrínseca como motivo para anular contratos ou fornecer soluções. No entanto, tal como o mau funcionamento da IA, isto cria uma tensão entre a necessidade de supervisão humana e os benefícios da imutabilidade.
A conclusão
A ascensão dos contratos inteligentes e dos sistemas automatizados de tomada de decisão baseados em IA está a desafiar os princípios do direito contratual tradicional, especialmente aqueles relacionados com a oferta, aceitação e intenção. Embora os sistemas de IA possam não ser reconhecidos como entidades jurídicas, as questões de responsabilidade jurídica e de prestação de contas continuarão a ser centrais à medida que estas tecnologias se tornam mais integradas nos negócios.
Para reduzir os riscos associados ao mau funcionamento da IA e à manipulação externa, os programadores, utilizadores e profissionais jurídicos devem desenvolver novas soluções, incluindo cobertura.
Referências:
- arquivo:///Users/aabisislam/Downloads/4.+Impact+of+Artificial+Intelligence+on+Contract+Law.pdf
- Diário: Werbach, K., & Cornell, N. (2017). “Contratos Ex Machina.” Diário de Direito do Duque67(2), 313-382.
- Diário: Raskin, M. (2017). “A Lei e Regulamentação dos Contratos Inteligentes.” Revisão de tecnologia jurídica de Georgetown1(2), 305-341.
- Diário: Sklaroff, JM (2018). “Contratos inteligentes e o custo da imutabilidade.” Revisão jurídica da Universidade da Pensilvânia166(1), 263-303.
Aabis Islam é um estudante que cursa BA LLB na National Law University, Delhi. Com um forte interesse em Direito de IA, a Aabis está interessada em explorar a interseção entre inteligência artificial e estruturas jurídicas. Dedicada a compreender as implicações da IA em diferentes contextos jurídicos, a Aabis está empenhada em investigar os desenvolvimentos na tecnologia de IA e a sua aplicação prática no campo jurídico.