O noticiário eletrônico do
Supremo Tribunal Federal deu publicidade, recentemente, a seus procedimentos
para a instalação, na mais alta corte, do Victor, equipamento de inteligência
artificial (entre nós, IA; na origem norte-americana, AI).
Como divulgado e informado, o
Victor (denominação que homenageia o inolvidável Victor Nunes Leal, pioneiro
entre nós da sistematização da jurisprudência do Supremo), a início, terá como
objetivo central a identificação de processos em que veiculados temas de
repercussão geral (expressão que rotula um dos principais critérios de
admissibilidade e conhecimento de recursos extraordinários).
Mas igualmente se notícia que,
a esse passo inicial, seguirão etapas de ampliação do uso do Victor. Assim é
que, em futuro por certo próximo, o valioso instrumento poderá desenvolver
aptidões similares ao raciocínio humano, com mais rapidez e profundidade que as
congêneres faculdades dos indivíduos. Como qualquer ferramenta avançada de IA,
com o tempo tais instrumentos desenvolvem até mesmo uma atividade autônoma.
Acredita-se, ao menos em teoria, que assim as decisões judiciais poderão ganhar
em celeridade, segurança e previsibilidade. E tudo isso nos parece plausível.
Cumpre, contudo, ter sempre em
mente a questão da responsabilidade pelos eventuais resultados errôneos do
programa, seja por mau funcionamento, seja por seu não funcionamento em caso
concreto.
O dano decorrente do uso de
equipamento dotado de IA evidentemente não acarreta diretamente a
responsabilidade do equipamento ou do sistema inteligente, já que eles,
conquanto instrumentos sofisticados, não dispõem de um requisito relevante para
que a responsabilização legal (civil ou penal) aconteça: a personalidade, como
tal reconhecida para efeitos legais.
A responsabilidade, dependendo
das circunstâncias de cada caso, recairá num dos três seguintes núcleos de
imputação (ou conjuntamente em todos eles): no programador do software de
IA, no operador do Direito (advogado, magistrado etc.) da entidade ou
instituição que o tem em seus quadros funcionais, ou na própria entidade e
instituição. A responsabilidade do programador fica excluída se provado que o
uso do sistema, tal como concebido, não estava disposto de forma tal que sempre
ocorreria um dano. Assim, sendo a programação “sadia”, eventuais danos,
decorrentes de seu uso, são imputáveis ao usuário e ou à entidade/instituição
em que ele está integrado. Para resumir, fixemos caber a responsabilidade, no
caso:
- ao programador, quando o programa tenha
sido disponibilizado sem suficiente proteção ou aptidão funcional, quando
isso era essencial à sua utilização segura;
- ao usuário ou à entidade/instituição que o programador integra, quando, cientes elas da vulnerabilidade do sistema, não adotaram soluções tecnológicas que as protegessem.
Todavia se o programa é, além
de adequado e conducente a fins lícitos, técnica e tecnologicamente protegido,
mas mesmo assim houver defeito em seu funcionamento ou invasão por hackers (neste
caso, mediante recursos ainda não conhecidos ou pensáveis pelo estado da arte,
quando do evento danoso), configurar-se-á, em princípio, situação de força
maior ou de fato de terceiro, excludente da responsabilidade do programador e
do usuário. A exclusão de responsabilidade por alegação de simples negligência
só deve ser admitida quando o usuário ou o programador não tinha conhecimento
da probabilidade do dano tal como não a teria qualquer pessoa razoável.
Tampouco haverá
responsabilidade de programadores, fabricantes ou usuários quando o equipamento
de IA, desenvolvendo por seus próprios algoritmos capacidades de opção e ação
com finalidades ilícitas ou danosas, produz “conscientemente” um resultado
perverso. Aqui reside, por certo, uma das mais ominosas questões envolvidas na
temática da IA. E duas perguntas, para as quais, sinceramente, não temos ainda
respostas seguras: essa hipótese pode realmente acontecer? Em caso afirmativo,
a quem atribuir responsabilidade? Problemas desse tipo, ao menos no presente
momento, somente podem despertar uma reação: é imperioso discutir a fundo os
limites tecnológicos concernentes à IA, bem como fixar um regramento ético para
envolvidos no desenvolvimento e na utilização de tais equipamentos.
No Instituto dos Advogados de
São Paulo, funciona uma comissão especial encarregada de elaborar um código de
ética para sistemas inteligentes, presidida pela ilustre advogada Priscila
Ungaretti de Godoy Walter. É também de nosso conhecimento que esforços da mesma
natureza se desenvolvem presentemente na IBM e seguramente em outras grandes
empresas. A matéria também é objeto de algumas poucas leis de alguns países. No
momento em que o STF ingressa nessa fascinante seara, provavelmente muito útil
seria um amplo intercâmbio de ideias e experiências.
Sérgio Ferraz é advogado,
parecerista, procurador aposentado do estado do Rio de Janeiro, professor
titular aposentado da Universidade Federal do Rio de Janeiro (UFRJ) e da
PUC-Rio e doutor em Direito pela UFRJ. É membro efetivo e presidente da
Comissão de Direito Administrativo do Instituto dos Advogados de São Paulo
(Iasp) e fundador e membro do Conselho Superior da Associação Paulista de
Direito Administrativo (APDA).
Revista Consultor
Jurídico
0 comentários:
Postar um comentário