sexta-feira, 17 de fevereiro de 2023

No Caminho para a IA 2 Superando a Lógica

No Caminho para a IA: Profecias do Direito e os Fundamentos Conceituais da Era da Aprendizagem de Máquina


Por Thomas D. Grant & Damon J. Wischik


Capítulo anterior


[19]Capítulo 2 Superando a Lógica


No direito, como nós vimos no capítulo 1, o contraste entre formalismo e indutivismo foi praticamente evidente desde o momento em que os juristas começaram a considerar que a lógica não poderia explicar tudo sobre o direito. O contraste continua a definir as linhas que pervadem os estudos legais e das olíticas judiciais, especialmente nos Estados Unidos e também, parcialmente, em outras jurisdições de common law. As linhas são prontamente discerníveis. Volumes de literatura e disputas em andamento são reunidos em um lado ou no outro. As pessoas que pensam sobre e praticam o direito identificaram-se em termos adversários em referência a qual lado daquelas linhas elas se colocam. Na computação, como nós notamos no capítulo 1, as linhas não são traçadas em um relevo tão claro. Elas certamente não são os pontos de referência para a identidade intelectual dos campos opostos de cientistas da computação. O deslocamento conceitual que sustenta a emergência da aprendizagem de máquina tem tido impacto enorme, mas não tem sido objeto de discurso sustentado, muito menos de batalha ideológica montada. Dessa forma, talvez, os cientistas da computação desfrutem de uma certa felicidade em suas relações profissionais, mas, provavelmente, eles também estejam menos alertas para a distinção que a aprendizagem de máquina introduz entre os empreendimentos presentes deles e os que eles estavam fazendo antes.

Nós examinaremos nos três capítulos imediatamente posteriores a este os ingredientes que se envolvem para tornar a aprendizagem de máquina tão diferente da tradicional programação baseada em algoritmo. Esses ingredientes são os dados (capítulo 3), a descoberta de padrões (pattern finding)(capítulo 4) e a predição (capítulo 5). Antes de os examinarmos, nós desejamos considerar o contraste adicional entre a aprendizagem de máquina e o que veio antes. A ascensão do realismo legal foi explicitamente um desafio [20]ao que veio antes no direito, e, assim, o contraste era patente. Com a emergência da aprendizagem de máquina dirigida por indução, o contraste não deveria ser menos claro, mas as pessoas continham a deixá-lo escapar. A superação da lógica é necessária, se alguém deve compreender qual é a novidade sobre a aprendizagem de máquina – e porque esse tipo de computação apresenta desafios especiais quando se chega aos valores da sociedade no geral.


2.1 Formalismo no Direito e Algoritmos na Computação


Os formalistas legais começam com a observação, à qual poucos objetam, de que o direito envolve regras. Eles identificam que a tarefa no direto, se realizada por um advogado ou juiz, é aquela de aplicação das regras aos fatos, novamente, em si mesmo, uma proposição irrepreensível ou, pelo menos, não surpreendente. Onde o formalismo é distinto é em sua alegação de que essas considerações fornecem um entendimento completo do direito. “O raciocínio legal,” disse o estudioso crítico do direito do fim do século XX Roberto Under, “é formalista quando a mera invocação de regras e a dedução de conclusões a partir delas é acreditada ser suficiente para cada escolha legal autorizada.”1 Um correlativo importante segue-se a partir de uma semelhante concepção do direito.2 O formalista diz que, se a tarefa do raciocínio legal é realizada corretamente, significando em concordância com a lógica e as regras aplicáveis, o advogado ou juiz alcança a resultado correto. O resultado poderia consistir em um julgamento (adotado por um juiz e vinculativo (binding) para as partes em disputa) ou em uma reunião de instruções (briefing) (por um advogado para o seu cliente), mas qualquer que seja o foro ou propósito, o resultado surge de uma operação lógica, não diferindo muito da aplicação de um axioma matemático. No entendimento dos formalistas, dessa forma, seque-se que a resposta dada a uma questão legal, se por um advogado ou por um juiz, é suscetível de uma processo lógico de revisão. Um resultado errôneo pode ser identificado ao rastrear de volta os passos que o advogado ou juiz devem ter seguido e encontrar um passo na operação onde o técnico cometeu um erro. Dessa maneira, a razão (why) de um julgamento correto ser correto pode ser explicado por referência às regras e ao raciocínio sobre os quais ele está baseado; e um incorreto pode ser diagnosticado quase da mesma maneira.

À época de Oliver Wendell Holmes jr., embora o formalismo legal há muito tivesse uma longa linha de antecedentes distintos tais como Blackstone (quem nós citamos no nosso Prólogo), um contemporâneo de Holmes, C. C. Langdell, Decano (Dean) e Bibliotecário da Harvard Law School, tinha chegado a ser especialmente associado com ele. Holmes mesmo identificava o Decano como arquiexpoente [21]desse modo de raciocínio legal. Em uma análise de livro em 1880, ele refereriu-se a Langdell, quem era um amigo e colega, como “o maior teólogo filosófico vivo.”3 O comprimento era um pouco sarcástico quando falado entre os racionalistas que se prezam no final do século XIX. Em correspondência pessoal aproximadamente na mesma época, Holmes chamou Langdell de um jurista que “é todo pela lógica e odeia qualquer referência a qualquer coisa fora dela.”4 Um estudioso posterior, a partir da vantagem do século XX, sugeriu que Langdell foi menos um formalista do que Holmes e outros lhe fizeram ser, mas, mesmo assim, reconhecem a associação muito difundida e o entendimento recebido: “o formalismo legal [como associado com Langdell] consistia na visão de que a inferência dedutiva a partir de princípios legais objetivos e imutáveis determina as decisões corretas em disputas legais.”5

Se ou não Langdell considerava ser essa a única maneira pela qual o direito funciona, Holmes certamente não considerava, e o contraste declarado entre os dois definiu as linhas que permanecem familiares na jurisprudência até hoje em dia. Em suas próprias palavras, Holmes rejeitou “a noção de que a única força em ação no desenvolvimento do direito é a lógica.”6 Com isso, ele não quis dizer que “os princípios governando outros fenômenos também [não] governem o direito.”7 Holmes aceitava que a lógica desempenha um papel no direito: “os processos de analogia, discriminação e dedução são aqueles nos quais [os advogados] estão mais em casa. A linguagem da decisão judicial é principalmente a linguagem da lógica.”8 Que a lógica dedutiva e o raciocínio indutivo coexistem no direito já pode ter sido aceito, pelo menos a um certo grau, na época de Holmes.9 Em vez disso, o que Holmes rejeitava era “a noção de que um [sistema legal] … pode ser calculado como a matemática, a partir de alguns axiomas gerais de conduta.”10 Era dessa forma que Holmes ridicularizava um “juiz muito eminente,” quem disse que “ele nunca deixou uma decisão seguir a menos que ele estivesse absolutamente certo que ela estava correta” e daqueles que tratam um julgamento divergente “como se isso signficasse que um lado ou o outro não estivesse fazendo suas contas corretamente, e [que] se eles se esforçassem mais, o acordo inevitalmente chegaria.”11 Se o formalista rigoroso pensava que toda a correção e todo o erro no direito estão prontamente distinguidos e os seus pontos de origem prontamente identificados, então Holmes considerava que o formalismo, como teoria legal, era deficiente.

A concepção comum da ciência da computação é análoga à teoria formalista do direito. Importantes características dessa conceção são: escrever a descrição de um problema como uma especificação formal; inventar um algoritmo, ou seja, uma sequência passo a passo de instruções que pode ser programada em um computador; e analisar o algoritmo, por exemplo, para estabelecer que ele resolve corretamente o problema especificado. “O termo algorimo é usado em [22]ciência da computação para descrever um … método adequado de resolução de problemas para implementação como um programa de computador. Os algoritmos são a substância (stuff) da ciência da computação: eles são os objetos de estudo centrais no campo [de estudo].”12 Em algumas áreas, o interesse está na invenção de um algoritmo para satisfazer a especificação. Por exemplo, dada a expressão do problema Tome uma lista de nomes e ordeno-os alfabeticamente, o cientista da computação poderia decompô-la recursivamente em para ordenar uma lista, primeiro, ordene a primeira metade, em seguida, ordene a segunda metade, então junte as duas metades, e, em seguida, analisar essas instruções ulteriormente em algo como permutar dois itens particulares na lista. Em outras áreas, o interesse está na saída do algoritmo. Por exemplo, dada a expressão do problema Preveja o caminho provável do furação, o cientista da computação poderia dividir um mapa em células e, no interior de cada célula, resolver simples equações de ciência atmosférica para predizer como a velocidade do vento muda de minuto para minuto. Em uma ou outra situação, o trabalho do cientista da computação é codificar uma tarefa em passos simples, cada passo capaz de ser (i) executado em um computador, e (ii) raciocinado, por exemplo, para depurar (debug) porque um programa de computador gerou uma saída incorreta (ou seja, um resultado incorreto). Os passos são compostos em código fonte, e o exame do código fonte pode revelar como o programa funcionou ou falhou. Sucesso e falha estão prontos para serem percebidos. Os erros que causam a falha, embora algumas vezes frustantemente emaranhados no código, eventualmente, são encontravéis por um programador suficientemente perspicaz para os encontrar.


2.2 Superando Algoritmos


Contudo, a aprendizagem de máquina nem funciona como código algorítmico nem deve ser entendida como se fosse código algorítmico. Saídas (outputs) de aprendizagem de máquina não são efetivamente explicadas apenas pela consideração do código fonte (source code) envolvido. Kroll et al., quem nós consideraremos mais de perto em um momento, em uma discussão de como tornar algoritmos mais responsabilizáveis (accountable) explica:


A aprendizagem de máquina … é particularmente inadequada para análise de código fonte porque ela envolve situações onde a regra decisional mesma emerge automaticamente a partir dos dados específicos sob análise, algumas vezes de maneiras que nenhum humano pode explicar. Nesse caso, o código fonte sozinho ensina ao revisor muito pouco, uma vez que o código apenas expõe o método de aprendizagem de máquina usado e não a regra de decisão dirigida por dados.”13


[23]Na aprendizagem de máquina, o trabalho do cientista da computação é reunir um conjunto de dados de treinamento (training dataset) e programar um sistema que seja capaz de aprender a partir desses dados. A saída do treinamento é uma coleção de milhões de valores de parâmetro afinados (fine-tuned) que configuram um algoritmo. Os algoritmos que os cientistas da computação programam na moderna aprendizagem de máquina são embaraçosamente simples pelos padrões da ciência da computação clássica, mas eles são enormemente ricos e expressivos em virtude de terem milhões de parâmetros.

A espinha dorsal da aprendizagem de máquina é um método simples, chamado de método do gradiente (gradient descent).14 É através do método do gradiente que o sistema alcança as suas configurações ótimas para esses milhões de parâmetros. É como o sistema obtém a sua afinação (fine-tuning). Para ficar claro, não é o programador humano que afina (fine tunes) o sistema; é um processo matemático que o programador humano coloca em movimento que realiza a afinação (fine-tuning). Construída dessa forma sobre a espinha dorsal do método do gradiente, a aprendizagem de máquina tem se sobressaido em tarefas tais como classificação de imagem e tradução, tarefas onde a especificação matemática e a lógica matemática não funcionaram. Essas realizações justificam os elogios que esse método simples tem recebido. “O método do gradiente pode escrever código melhor do que você.”15 Após o treinamento, ou seja, após a configuração do algoritmo através do estabelecimento de seus valores de parâmetro, o estágio final é invocar o algoritmo que toma decisões sobre instâncias de novos dados. É um algoritmo que está sendo invocado, no sentido trivial de que ele consiste em passos simples que podem ser executados em um computador; mas o seu comportamento não pode ser entendido raciocinando logicamente sobre o seu código fonte, uma vez que o seu código fonte não inclue os valores de parâmetro aprendidos.

Além disso, é fútil tentar raciocinar logicamente sobre o algoritmo, mesmo dados todos os valores de parâmetro. Uma tal análise seria tão fútil quanto analisar a decisão de um juiz a partir das leituras do encefalograma do seu cérebro. Apenas há valores demais para um analista fazer sentido. Em vez disso, os algoritmos aprendidos por máquina são avaliados empiricamente, medindo como els executam sobre dados de teste. Cientistas da computação falar em análise de “caixa-preta (black-box)” e “caixa-branca (white-box)” de um algoritmo. Na análise de caixa-branca nós consideramos a estrutura interna de um algoritmo, ao passo que na análise de caixa-preta nós consideramos apenas as suas entradas e saídas. Algoritmos aprendidos por máquina são avaliados puramente sobre a base de quais saídas eles geram para quais entradas, ou seja, por análise de caixa-preta. Onde os cientistas da computação têm buscado tratar de preocupações sobre discriminação e equidade (fairness), eles têm buscado fazê-lo com a análise caixa-negra como sua base.16 Em resumo, um “algoritmo” de aprendizagem de máquina é melhor pensado como uma encarnação (embodiment) opaca de seu conjunto de dados [24]de treinamento e critério de avaliação, não como um procedimento lógico baseado em regras. Dessa forma, os problemas com os quais a aprendizagem de máquina poderia estar envolvida (tais como discriminação injusta) não devem ser tratados como e eles fossem um procedimento lógico baseado em regras.


2.3 A Persistência da Lógica Algorítmica


Todavia, as pessoas continuam a tratar a aprendizagem de máquina como se ela fosse apenas isto – um procedimento baseado em regras lógicas, não diferente, em tipo, da programação tradicional baseada em lógica algorítmica. Essa maneira inadequada de tratar aprendizagem de máquina – tratando-a como se fosse o código fonte de um algritmo que fosse o responsável pela produção de suas saídas – não está limitada ao discurso legal. Contudo, ela é muito mais visível ali. Descrições formais, algorítmicas, da aprendizagem de máquina são ubíquas na literatura legal.17 A persistência da lógica algorítmica em descrições de como os computadores funcionam é visível mesmo entre escritores legais que, de outra maneira, reconhecem que a aprendizagem de máquina é diferente.18

Mesmo Kroll et al, quem reconhecem que a aprendizagem de máquina “é particularmente inadequada para análise de código fonte,” ainda se referem a “uma máquina [que] foi ‘treinada’ através de exposição a uma grande quantidade de dados e infere uma regra a partir dos padrões que ela observa.”19 Associar a aprendizagem de máquina com “uma regra a partir de padrões que ela observa” levará um leitor incauto a concluir que a máquina aprendeu uma regra claramente expressa no sentido do direito ou de árvores de decisão. De fato, a máquina não fez tal coisa. O que foi feito é descoberta de um padrão que está “bem além da interpretação tradicional,” essas sendo as palavras muito mais aptas que Kroll et al. mesmos usam para reconhecer a opacidade de um mecanismo de aprendizagem de máquina.20

Kroll e seus colaboradores tratam extensivamente dos desafios em analisar os sistemas de computadores dos quais a sociedade crescentemente depende. Nos capítulos 6-8, nós retornaremos para estender a nossa analogia a alguns dos desafios. Aqui, uma palavra é apropriada sobre o trabalho de Kroll et al., porque esse trabalho ressalta igualmente a urgência dos desafios e as armadilhas que a persistência da lógica algorítimica apresenta.

Há muitas ferramentas de caixa-branca (white-box tools) para a análise de algoritmos, por exemplo, baseadas na análise matemática do código fonte. Kroll et al. dedica a maior parte do seu artigo em Accountable Algorithms (2017) a ferramentas de engenharia de software de caixa-branca e às ferramentas regulatórias relacionadas que podem ser usadas para assegurar responsabilidade (accountability). A persistência da lógica algorítmica aqui, novamente, pode levar a uma armadilha: o leitor incauto pensa que algoritmos de aprendizagem de máquina [25]são per se algoritmos; aqui estão ferramentas para tornar os algoritmos responsabilizáveis; portanto, nós podemos tornar a aprendizagem de máquina responsabilizável. Kroll et al. marcam a armadilha com uma bandeira de alerta, mas ela é uma bastante pequena. Eles reconhecem, em uma nota de rodapé, que todas as técnicas de caixa-branca que eles discutem simplesmente não se aplicam aos mecanismos de aprendizagem de máquina e que o melhor que pode ser feito é regular a decisão para usar a aprendizagem de máquina: “Embora alguns sistemas de aprendizagem de máquina produzem resultados que são difíceis de predizer com antecedencia e estão bem além da interpretação tradicional, a escolha para lidar com um tal sistema, em vez de com um que pode ser interpretado e governado é, em si mesma, uma decisão sobre o design do sistema.”21 Isso não está dizendo como entender melhor a aprendizagem de máquina. Isso não está dizendo para usar aprendizagem de máquina. O resultado, se alguém devesse seguir Kroll et al., seria estreitar o conjunto de problema a uma questão muito mais fácil – o que fazer sobre sistemas que apenas usar a lógica algorítmica tradicional.

De fato, é a questão mais fácil que ocupa a maior parte de Accountable Algorithms, de Kroll et al. Quarenta e cinco páginas dele discutem a análise de caixa-branca, a qual não se aplica a sistemas de aprendizagem de máquina. Em seguida, dezoito páginas consideram a análise de caixa-preta. Uma exploração da análise de caixa-preta é mais direta ao ponto – o ponto sendo analisar a aprendizagem de máquina.

Mas uma armadilha também é apresentada ali. As páginas sobre a análise de caixa-preta são intituladas de “Projetando algoritmos para assegurar fidelidade a escolhas políticas substantivas (Designing algorithms to ensure fidelity to substantive policy choices).” Por definição, a análise de caixa-preta é agnóstica quanto do projeto (design) dos “algoritmos” que estão produzindo os resultados que ela analisa. A análise de caixa-preta está interessada com a saída do sistema, não com o funcionamento interior que gera a saída. Sugerir que “projetando algoritmos” é a maneira correta que vai “assegurar fidelidade” para algum valor externo é cair na armadilha algorítmica. É assumir que a lógica algorítmica está em funcionamento, quando o desafio real envolve sistemas de aprendizagem de máquina, a característica distintiva da qual é que eles operam fora dessa lógica. A análise de caixa-preta, a qual Kroll et al. sugerem depende do projeto de um algoritmo, de fato, funciona tão bem analizando decisões tomadas por um bando de papagaios dispépticos.

Em um artigo posterior, Krol expande a pequena bandeira de rodapé e traça uma distinção entre sistemas e algoritmos.22 Como Kroll usa as palavras, o sistema inclui o contexto humano sócio-técnico – as dinâmicas de poder e os valores humanos por trás dos objetivos de design, e assim por diante – ao passo que o algoritmo é mecanismo têcnico de tomada de decisão embutido no sistema. É o “sistema,” no sentido que ele estipula, que lhe interessa principalmente.23 Kroll argumenta que um “sistema” de aprendizagem de máquina é necessariamente escrutável, uma vez que ele é um sistema construído por engenheiros humanos, e escolhas [26]humanas sempre podem ser examinadas. Mas, uma vez mais, essa é uma observação que se aplicaria exatamente tanto quanto se a escolha dos engenheiros fosse usar um bando de papagaios. É a essência da caixa-preta que nós conheçamos apenas qual saída é dada, se um nome, uma cor, uma coordenada espacial, ou um grasnido (squawk). Nós não sabemos como se chegou àquela saída. Enquanto Kroll trata da aprendizagem de máquina mesma, ele não oferece ferramentas para transmitir escrutabilidade a ela mas, em vez disso, apenas isto: “a questão de como construir efetivos regimes de testes de caixa-branca para sistemas de aprendizagem de máquina está longe de estabelecida.”24 Dizer que testes de caixa branca não produzem respostas “estabelecidas” para questões de caixa negra é um eufemismo. E o problema que ele subestima é o problema mesmo que os ativistas e as instituições políticas estão convocando os cientistas da computação para tratar: como testar um sistema de aprendizagem de máquina para estar certo de que ele não tem efeitos indesejáveis. Falando sobre aprendizagem de máquina dessa maneira, o que se deixa com alguém é uma esperança: a saber, uma esperança de que a aprendizagem de máquina, mesmo se ela possa ser o mais potente mecanismo até hoje inventado para operações computacionais, não será construída em “sistemas” pelos muitos indivíduos e instituições que vivem obter lucro a partir de seu uso. Na exploração de modelos de caixa-branca, os modelos lógicos de escrutabilidade revelam pouco ou nada sobre aprendizagem de máquina. Insistência em semelhante exploração apenas ressalta a persistência da lógica algorítmica a despeito da revolução que essa tecnologia representa.

Muitas explicações de aprendizagem de máquina que visam a não especialistas exibem essas deficiências. Os advogados, como um grupo particular de não especialistas, talvez, estejam particularmente suscetíveis aos apelos mal orientados a modelos lógicos de computação. É verdadeiro que o direito estatutório (statutory law) tem sido comparado a código fonte25; advogados que sejam formalistas de coração podem considerar a comparação confortadora.26 Também é verdadeiro que uma geração anterior de softwate conseguiu resolver certos problemas legais bastantes difíceis, especialmente onde se diz respeito a regime estatutório ou regulatório, como o código tributário (tax code). Contudo, a aprendizagem de máquina não está limitada em sua aplicação a tarefas que, como o cálculo de uma responsabilidade fiscal (tax liability), são elas mesmas algorítmicas (no sentido de que um operador humano pode prontamente descrever as tarefas como uma progressão lógica aplicando regras fixas a fatos dados). O código fonte de computador não é a característica da aprendizagem de máquina que a coloca à parte do tipo de computação que veio antes. Os advogados precisam abandonar a ideia de que a lógica – a dedução passo a passo de soluções através da aplicação de uma regra – é o que está em funcionamento na era da aprendizagem de máquina. Aqui, nós postulamos, a leitura de Holmes tem um efeito salutar.

Holmes tornou clara a posição dele, contrastando-a com aquela aceita pelos juristas do que nós poderíamos, se anacronisticamente, chamar da escola algorítmica, [27]quer dizer, os formalistas. Em Lochner v. New York, talvez sua mais famosa dissidência (dissent), Holmes declarou, “proposições gerais não decidem casos concretos.”27 Isso era para rejeitar o raciocínio dedutivo em termos claros e publicamente. Se ou não nós consideramos que essa é uma boa maneira de pensar sobre o direito,28 ela é precisamente como nós devemos pensar se nós devemos entender a aprendizagem de máquina; a aprendizagem de máquina demanda que nós pensemos além da lógica. Os cientistas da computação mesmos, tanto quanto os advogados e outros leigos (laypersons), deveriam reconhecer essa transição conceitual, pois ela é indispensável para a emergência da aprendizagem de máquina que agora está transformando o campo de estudo deles e tanto mais além.

Com o contraste em mente entre as maneiras formais de pensar sobre o direito e sobre a computação, nós agora podemos elaborar os elementos do pensamento pós-lógica que o direito e a lei compartilham: os dados, a descoberta de padrões (pattern finding) e a predição.


Próximo capítulo


ORIGINAL:

GRANT, T. D.; WISCHIK, D. J. On the path to AI: Law’s prophecies and the conceptual foundations of the machine learning age. Palgrave Macmillian Cham: 2020. pp.19-31. Disponível em: <https://link.springer.com/book/10.1007/978-3-030-43582-0>


TRADUÇÃO:

EderNB do Blog Mathesis

Licença: CC BY 4.0


1 [27]Unger (1976) 194.

2 A descrição de Unger não é única nem necessariamente a descrição definitiva do formalismo legal. Uma variedade de matizes existe na definição do formalismo legal. O uso pejorativo da palavra “mera” por Unger, em particular, bem pode ser abandonado: dizer que a aplicação lógica de regras aos fatos é o caminho para os resultados legais de maneira alguma implica que as operações cognitivas envolvidas – e as oportunidades para desacordo – sejam triviais. A cautela de Dijkstra, de que apenas matemáticos muito bons estão prontos para os rigores lógicos da computação (tradicional), incorre em um análogo para advogados.

3 Holmes, Book Notice Reviewing a Selection of Cases on the Law of Contracts, with a Summary of the Topics Covered by the Cases, By C.C. Langdell, 14 Am. L. Rev. 233, 234 (1880).

4 Carta de Holmes para Pollock (10 de abril de 1881), reimpressa De Wolfe Howe (ed.)(1942). Embora o ceticismo de Holmes sobre a abordagem formalista tenha Langdell mais famosamente como alvo, Walbridge Abner Field, Ministro-presidente (Chief Justice) da Suprema Corte Judicial de Massachusetts, também caiu sob suas vistas. Ver Budiansky (2019) 199-200.

5 Kimball (2009) e referências para escritores id. em 108 n. 134. Ver também Cook 88 N.D. L. REV. 21 (2012); Wendel, 96 Corn. L. Rev. 1035, 1060–65, 1073 (2011). A contribuição indiscutível de Langdell – o método de casos (case method) para o ensino do direito – provocou rebelião em seus estudantes pela mesma razão de que ele não começa com regras claras: ver Gersen, 130 Harv. L. Rev. 2320, 2323 (2017). Cf. Grey, Langdell’s Orthodoxy, 45 U. Pitt. L. [28]Rev. 1 (1983), quem chamou atenção para o rigor e as vantagens do formalismo clássico.

Richard Posner, ao entendimento do método legal por Holmes de quem nós retornaremos depois (capítulo 10, p.119), descreve a lógica como central para o raciocínio legal à época, embora o “senso comum” também esteja envolvido:

A tarefa do estudioso legal era vista como sendo extrair uma doutrina a partir de uma linha de casos ou a partir do texto estatutório e da história, reafirmá-la, talvez a procurar ou buscar extendê-la, ao mesmo tempo que se empenhando por resultados ‘sensíveis’ à luz dos princípios legais e do senso comum. Lógica, analogia, decisões judiciais, um punhado de princípios tais como o princípio do precedente (stare decisis) e o senso comum eram as ferramentas da análise.

Posner, 115(5) Harv. L. Rev. 1314, 1316 (2002).

6 10 Harv. L. Rev. at 465.

7 Id. Para uma consideração do papel da lógica de Langdell na consideração de Holmes do direito, ver Brown & Kimball, 45 Am. J. Leg. Hist. 278–321 (2001).

8 10 Harv. L. Rev. at 465–66.

9 O que não quer dizer que Holmes necessariamente teria concordado com o entendimento de outros juristas de como ele coexistem. Edward Levi, no seu texto sobre raciocínio legal, disse isto: “É costumeiro considerar o raciocínio a partir da jurisprudência (case-law) como indutivo e a aplicação dos estatutos (statutes) como dedutivo,” Levi, An Introduction to Legal Reasoning (1949) 27. Tribunais de common law descreveram a sua função na aplicação de regras derivadas a partir de casos passados como envolvendo os dois tipos de raciocínio – indução para derivar as regras; dedução a partir de uma regra derivada dessa maneira. Ver, por exemplo, Skelton v. Collins (High Court of Australia, Windeyer J., 1966) 115 CLR 94, 134; Home Office v. Dorset Yacht Co Ltd. [1970] A.C. 1004, 1058–59 (House of Lords, Diplock LJ). Cf. Norsk Pacific Steamship et al. v. Canadian National Railway Co., 1992 A.M.C. 1910, 1923 (Supreme Court of Canada, 1992, McLachlin J.); In the Matter of Hearst Corporation et al. v. Clyne, 50 N.Y.2d 707, 717, 409 N.E.2d 876, 880 (Court of Appeals of New York, 1980, Wachtler J.). Cf. Benjamin Cardozo, The Nature of the Judicial Process (1921) 22–23. O contraste de Levi – entre a indução para o common law e dedução para regras tais como contidas em estatutos – tem sido notado em conexão com programação de computadores: ver, por exemplo, Tyree (1989) 131.

10 10 Harv. L. Rev. At 465.

11 Id.

12 Robert Sedgewick, Algorithms (4ª ed.) (2011) Section 1.

13 Kroll et al., Accountable Algorithms, U. Pa. L. Rev. at 638 (2017).

14 Para uma descrição formal do método do gradiente (gradient descent), e algumass de suas variantes, ver, por exemplo, Bishop, Pattern Recognition and Machine Learning [29](2007) Seção 5.2.4. O método do gradiente é atribuído ao matemático francês Augustin-Louis Cauchy (1789-1857) em uma obra publicada em 1847 (ver Claude Lemaréchal, Cauchy and the Gradient Method (2012), Documental Math. p. 251). O método do gradiente, quando aplicado à descoberta de valores de parâmetro para uma rede neural, é conhecido como back propagation.

15 Tweet de @karpathy, 1.56 p.m., Aug. 4, 2017. https://twitter.com/karpathy/status/893576281375219712? Ver mais, por exemplo, Murphy (2012) 247, 445.

16 Kroll et al. supra n. 76 at 650-51, 658-87. Os testes para discriminação em algoritmos de aprendizagem de máquina descritos aqui, os quais se originam a partir de Cynthia Dwork et al., Fairness Through Awareness, ITCS Conf. Proc. (3rd) (2012), derivam-se de uma definição de caixa preta.

17 Ver, por exemplo, as obras citadas por Barocas & Selbst, Big Data’s Disparate Impact, 104 Cal. L. Rev. 671, 674 n. 11. Ver também Alan S. Gutterman, Glossary of Computer Terms, in Business Transactions Solutions §217:146 (atualização de janeiro de 2019)(“a máquina meramente segue um programa cuidadosamente construído”); Chessman, 105 Cal. L. Rev. 179, 184 (2017) (“A evidência produzida por programas de computador possivelmente merece escrutínio adicional … porque a complexidade de programas de computador torna difícil … detectar erros”); Gillespie in Gillespie et al. (eds.) (2014) 167, 192 (“algorítmica lógica … depende de escolhas proceduralizadas de uma máquina projetada por operadores humanos para automatizar algum substituto (proxy) do julgamento humano”), e o mesmo como citado por Carroll, Making News: Balancing Newsworthiness and Privacy in the Age of Algorithms, 106 Geo. L.J. 69, 95 (2017). Como nós observaremos abaixo, a lógica algorítmica persiste também na legislação e no regulamento: ver o capítulo 6, p.70.

18 Ver, por exemplo, Roth, 126 Yale L. J. 1972, 2016–2017 (2017) quem diz “a programação de uma máquina … poderia proferir uma falsidade por design” (ênfase acrescentada). Outro exemplo é encontrado em Barocas & Selbst, 104 Cal. L. Rev. em 674 (2016), quem, como Roth, entende que “o processo de mineração de dados mesmo” está no coração da aprendizagem de máquina, mas ainda dize que “os algoritmos poderiam exibir essas tendências [desagradáveis] mesmo se eles não tivessem sido programados manualmente para o fazer …”, uma formulação que presta contas de algoritmos que não são escritos da maneira convencional, mas que ainda não escapam da gravidade da ideia do código fonte (ou seja, aquele que é “programado”). Benvenisti tem isso precisamente, quando ele cita a observação do Council of Europe Rapporteur Wagner de que “a provisão de todos os códigos fontes … pode nem mesmo ser suficiente.” Benvenisti, Upholding Democracy and the Challenges of New Technology: What Role for the Law of Global Governance? 29 EJIL 9, 60 n. 287 (2018), citando, inter alia, Wagner, Rapporteur, Committee of Experts on Internet Intermediaries (MSI-NET, Council of Europe), Study on the Human Rights Dimensions of Algorithms (2017) 22.

19 [30]Kroll et al., supra n. 76, at 679 (ênfase adicionada).

20 Id., n. 9. Outros usaram os mesmos termos, similarmente correndo o risco de combinar a saída dos sistemas de aprendizagem de máquina com “regras.” Por exemplo, os distintos pesquisadores médicos Ziad Obermeyer & Ezekiel J. Emanuel, quem escreveram descrições convicentes de como a aprendizagem de máquina funciona, referem-se à aprendizagem de máquina como “abordando problemas como um médico (doctor) progredindo através da residência poderia: aprendendo regras a partir de dados” (ênfase adicionada). Obermeyer & Ezekiel, Predicting the Future—Big Data, Machine Learning, and Clinical Medicine, 375(13) NEJM 1216 (Sept. 29, 2016).

21 Kroll et all. em n.9. A condição “alguns sistemas de aprendizagem de máquina” reconhece que, pelo menos, alguns sistemas de aprendizagem de máquina, tais como as redes neurais (neural networks), estão bem além da interpretação tradicional. Verdadeiro, alguns simples sistemas categorizados como “aprendizagem de máquina” produzem regras facilmente entendidas e, portanto, são passíveis de análise de caixa-branca. Alguém pode ouvir esse uso do termo “aprendizagem de máquina” para se referir a cálculos básicos que poderiam ser realizados em uma simples tabela do Excel. Esses não são os sistemas formando a emergente era da aprendizagem de máquina, ou seus desafios, distintivos.

22 Kroll (2018) Phil. Trans. R. Soc. A 376.

23 De fato, Kroll (2018) é sobre sistemas, não sobre algoritmos – por exemplo, ele usa “algoritmo” e palavras relacionadas 16 vezes, e “sistema” e palavras relacionadas 235 vezes.

24 Id., p.11. Tem havido tentativas de encontrar abordagens de caixa-branca para o entendimento de redes neurais, notavelmente Shwartz-Ziv & Tishby (2017), mas tal teoria não é amplamente aceita: Saxe et al. (2018).

25 Ver especialmente a analogia extendida de Lessig: Lessig, Code and Other Laws of Cyberspace (1999) 3–8, 53. Ver também Tyree (1989) 131.

26 Para uma analogia a partir do posicionamento psciológico de que o formalismo legal vem supostamente antes dos “estágios posteriores do desenvolvimento cognitivo e moral,” ver Huhn, 48 Vill. L. Rev. 305, 318–39 (2003). Nós não ousamos opinar quanto a se a analogia de Huhn é convincente, quer para o direito, quer para a ciência da computação.

27 Lochner v. New York, 198 U.S. 45, 76 (1905) (Holmes, j., [opnião] divergente).

28 Posner observa que os juristas têm disputado por dois mil anos: Posner (1990) 24-25. O contraste entre o formalismo e os outros tipos de análise legal, sempre que o primeiro surge e qualquer que seja o nome pelo qual ele seja chamadao (“positivismo,” “realismo,” etc.), está no coração de grande parte da tensão intelectual – e ideológica – na advocacia (lawyering), na judicatura (judging) e na educação legal (law sccholarship) americanas. Isso também é visível no direito internacional. Ver o Prológo, pp.xii-xiii, n.17. Como expresso no capítulo 1, nós tratamos do contraste com a aprendizagem de máquina para propósitos de analogia, não para nos juntarmos em um debate sobre os méritos do formalismo ou de duas alternativas no direito.

Nenhum comentário:

Postar um comentário