Faculdade de Direito promove debates acerca da regulação de inteligências artificiais

Evento traz pesquisadores e professores da casa para discutir o assunto em diversos âmbitos

Salão nobre da Faculdade de Direito da USP [Reprodução/YouTube.com/@FaculdadedeDireitodaUSP]

No dia 13 de maio, uma série de debates com professores e pesquisadores discutiu o uso de inteligências artificiais em diversas perspectivas. Como, por exemplo, seus riscos e benefícios, a regulação das plataformas digitais e o reflexo das IA’s (inteligências artificiais) na relações humanas. Um desses debates foi conduzido pelo professor Juliano Maranhão, especialista em direito digital e inteligências artificiais aplicadas ao direito.

Insuficiência da regulação estatal 

Deve ser votado, até o dia 23 de maio, o PL2338 no Senado Federal, projeto de iniciativa do senador Rodrigo Pacheco do PSD (Partido Social Democrático) que visa a regulamentação das IA’s. “É importante que tenhamos uma regulamentação que nos coloque, de forma atualizada, no contexto mundial, acertando nos maiores desafios como a manutenção do emprego, o desenvolvimento e o respeito à condição humana”, disse o senador Eduardo Gomes, do PL (Partido Liberal), relator do projeto.

Presidente do Senado Rodrigo Pacheco (PSD) [Reprodução/Wikimedia Commons]
Maranhão analisou sobre as dificuldades de se regular os sistemas de inteligências artificiais. “A legislação é uma escolha mais genérica e abstrata, mas é importante procurar pensar em casos concretos para entender se a previsão se encaixa bem”, disse. Segundo ele, um dos principais desafios da regulamentação é não impedir, nem desestimular os agentes da sociedade e do mercado a usar essa tecnologia.

O texto do PL traz a previsão de direitos, que entre eles está o de explicação sobre os dados utilizados, o modelo, e os critérios de decisão desse modelo, entre outras informações sobre o software. Isso pode funcionar muito bem quando se pensa em processamento de dados pessoais, mas em sistemas mais complexos como os de controle de um avião ou um programa com uma acurácia importante de diagnóstico médico remoto, não faz tanto sentido, segundo Maranhão. Nesses casos é muito mais difícil explicar como a IA toma certa decisão. “Temos que tomar cuidado sobre o grau de exigência que a legislação atribui para os cidadãos façam uma pretensão diante do judiciário”, explica.

Senado Federal [Reprodução/https://www12.senado.leg.br]
O professor evidenciou um ponto do texto do projeto de lei que pode gerar complicações, que é o termo “pessoas afetadas”, que define as pessoas que têm o direito à explicação, mas é um termo muito abstrato, segundo ele. Nos aviões, diversos sistemas são controlados por inteligências artificiais, “Faria sentido que qualquer passageiro tivesse o direito de obter informações e dados utilizados para o treinamento dessa IA? Acho que dificilmente alguém diria sim”.

Arranjos institucionais e fiscalização

“A gente tem uma tecnologia que avança muito rápido e o Estado está sempre atrás deste avanço, e como podemos contornar isso?”, disse Maranhão. Segundo o professor, futuramente será impossível ter uma autoridade centralizada que fiscalize todas as tomadas de decisão de IA’s. Para ele, é preciso que elas se tornem juridicamente e eticamente inteligentes, ou seja, que sejam capazes de deliberar sobre a correção ou não das suas ações em contextos específicos. “O direito não está só nos tribunais, ele está no dia a dia quando cumprimos regras voluntariamente ou temos reações que sejam ilícitas ou ilegais”, complementa.   

Outra grande dificuldade de tornar o direito computável é a interpretação e o fato de que a interpretação incorpora valores. “Para a regulação de IA vamos depender da regulação por código”.

Seja o primeiro a comentar

Faça um comentário

Seu e-mail não será divulgado.


*