As implicações da interação entre tecnologia e direito têm ocupado meus pensamentos nos últimos tempos.
A tecnologia, especialmente a de base digital, está imbricada no cotidiano da humanidade, expandindo-se em velocidade assustadora. Estima-se que tudo que for tarefa repetitiva deixará de existir nos próximos anos e será substituído por recursos automáticos. Em contrapartida, novas profissões devem surgir, especialmente aquelas ligadas à expansão tecnológica.
Na última terça-feira, durante a Semana do Conhecimento Empresarial realizado em parceria pelo Claretiano e a ACE Batatais, assisti à palestra “Gestão do presente, gestão do futuro e a gestão da inovação: quais caminhos seguir?”, ministrada pelo incrível Gil Giardelli, um dos grandes estudiosos da inovação e da cultura digital.
Giardelli apoanta a inevitabilidade da expansão tecnológica e os muitos caminhos e recursos para o desenvolvimento econômico, social e pessoal.
Olho sob um outro ângulo: a era da tecnologia digital deve promover o uso cada vez mais frequente ou, talvez, a dependência cada vez maior de recursos de automatização, gerenciado por inteligência artificial, ou seja, gerenciada por algoritmos.
Não é futuro. Já está acontecendo.
As instituições financeiras já usam recursos de inteligência artificial para atendimento ao cliente e análise de crédito. Aliás, é cada vez mais comum se ouvir dos gerentes de banco que o financiamento foi negado por causa do “sistema”.
A inteligência artificial já chegou ao judiciário. Em 2018 o Supremo Tribunal Federal pôs em operação o Victor, aplicação destinada a otimizar e agilizar a tramitação de processos, desenvolvido em parceria com a Universidade de Brasília. A primeira e mais singela das funcionalidades do Victor é identificar os casos que são tema de repercussão geral (em rápida síntese, a repercussão geral é uma forma de julgamento de processos em massa, de acordo com o tema do recurso; por exemplo: reajustes da caderneta de poupança e do FGTS). Um servidor treinado faz a análise de um recurso no tempo médio de 44 minutos. O Victor faz a mesma análise em 5 segundos.
O Facebook dispõe de uma poderosíssima ferramenta de análise preditiva, mapeando tudo que o usuário vê, curte, compartilha e, com base nestas informações apresenta outras postagens, oferece produtos e serviços e, também, comercializa estas informações para instituições financeiras, empresas de análise de risco, de publicidade e, até mesmo, de assessoria política. Parece de tudo muito útil. E é. Mas também pode ser utilizado para manipulação e o caso mais emblemático é o escândalo da Cambridge Analytica, empresa britânica que utilizou os dados e recursos disponibilizados pelo Facebook para influenciar a eleição última presidencial americana (que galgou Trump ao cargo) e a saída do Reino Unido da União Europeia (o chamado, Brexit).
No início de 2017, o canal de notícia CW6 exibiu uma reportagem sobre uma menina de seis anos que encomendou uma casa de bonecas utilizando o assistente virtual Alexa, da Amazon. O problema é que outros dispositivos Alexa que “ouviram” a reportagem, também encomendaram a mesma casa de bonecas. Pelo que se sabe, a Amazon já corrigiu o problema.
Repito: os exemplos acima não saíram de um livro de ficção nem são ideias de algum visionário. São realidade. Caminhamos para um mundo que poder ser (ou que efetivamente será) influenciado, administrado e controlado por algoritmos.
A inteligência artificial pretende ser a replicação da racionalidade humana, potencializada pelos recursos tecnológicos digitais desenvolvidos ao longo dos últimos cinquenta anos. Só não podemos nos esquecer que a racionalidade humana é produto de um processo evolutivo de milhões de anos e que, mesmos os mais célebres cientistas cognitivos não a conhecem ou dominam com precisão.
Não há dúvida de que são realmente espetaculares e podem contribuir para a construção de um mundo muito melhor. Mas também permitem o oposto.
Em suma, o problema é: quem controla os algoritmos?
A questão não é nova. Há vinte anos, Lawrence Lessig, professor da Universidade de Harvard, lançou o livro “O Código e Outras Leis do Ciberespaço”, alertando sobre o progressivo controle do comportamento humano por programas de computador.
Não há dúvida sobre a inevitabilidade e progressividade do uso da inteligência artificial e, mais que isso, da incomensurável utilidade destas aplicações. Porém, é hora de se instituírem mecanismos que promovam a transparência e o controle da inteligência artificial e seus códigos de programação.
É claro que quem detém os algoritmos não está disposto a simplesmente publicar o código-fonte. Sabe-se que este é o coração de muitos negócios valiosos. Vejam que o Facebook já pediu desculpas, pagou multas e se comprometeu a instituir medidas de controle, mas não a dar transparência sobre os recursos de suas aplicações.
O Brasil já tem uma primeira regulação a este respeito: a Lei Geral de Proteção de Dados (a LGPD), que entra em vigor em agosto de 2020, e obriga pessoas, empresas e o setor público a proteger os dados, a privacidade e a liberdade de autodeterminação do indivíduo, o que inclui a obrigação de transparência quanto ao tratamento de dados pessoais.
É um primeiro passo, ainda tímido, pois o foco e a proteção de dados pessoais e não propriamente o controle da inteligência artificial.
Mas é válido como primeira preocupação para que o mundo distópico contado pelas irmãs Wachowski em The Matrix não se torne realidade.