Perspectivas sobre o Humanismo Digital
Manifesto de Viena sobre o Humanismo Digital
Parte III Ética e Filosofia da Tecnologia
[71]Humanismo Digital e os Limites da Inteligência Artificial
por Julian Nida-Rümelin
Resumo Este capítulo é programático em estilo e conteúdo. Ele descreve alguns padrões e um argumento central daquilo que eu considero como a visão do humanismo digital e o que nós expomos em nosso livro (Nida-Rümelin e Widenfeld 2018). O argumento central diz respeito à crítica da IA forte e fraca. Este capítulo não discute os aspectos lógicos e metafísicos, os quais eu considero serem partes do contexto mais amplo da teoria da razão (Nida-Rümelin 2020, caps. VI e VII).
I
A expressão “inteligência artificial” (IA) é multifacetada e é usada com significados diferentes. Na acepção mais ampla e menos problemática, IA denota tudo; desde processos controlados por computador, o cálculo de funções, a solução de equações diferenciais, otimização logística e controle de robôs até sistemas de “autoaprendizagem (self-learnind),” software de tradução, etc. A concepção mais problemática e radical de IA diz que não há diferença categórica entre processos controlados por computador e processos de pensamento humano. Essa posição é frequentemente referida como “IA forte.” Então, a “IA fraca” é meramente a tese de que todos processos de pensamento e decisão, em princípio, poderiam ser simulados por computadores. Em outras palavras, a diferença entre IA forte e fraca é a diferença entre identificação e simulação. A partir dessa perspectiva, a IA forte é um programa de desilusão: O que parece para nós ser uma propriedade caracteristicamente humana não é nada exceto o que pode ser realizado como um programa de computar. O humanismo digital ocupa o lado oposto.
[72]II
O filósofo analítico John Searle (1980) concebeu um famoso experimento de pensamento. Searle pede-nos para nos imaginarmos sendo um falante monolíngue de inglês “trancado em uma sala e a quem foi dado um grande lote (batch) de escrita (writing) chinesa,” mais “um segundo lote de escrita chinesa” e “um conjunto de regras” em inglês “para a correlação do segundo lote com o primeiro lote.” As regras “correlacionam um conjunto de símbolos formais com outro conjunto de símbolos formais”: “formal” (ou “sintático”) significando você “pode identificar os símbolos inteiramente pelas formas (shapes) deles.” Um terceiro lote de símboloss chineses e mais instruções em inglês capacitam você “a correlacionar elementos desse terceiro lote com elementos dos dois primeiros lotes” e, por esse meio, instruem a você “a devolver certos tipos de formas em resposta a certos tipos de símbolos chineses.” Aqueles dando os símbolos a você “chamam o primeiro lote de ‘um script’” [uma estrutura de dados com aplicações em processamento de linguagem natural], “ele chamam o segundo lote de ‘uma história’, e eles chamam o terceiro lote de ‘questões’”; “o conjunto de regras em inglês… eles chamam de ‘o programa’”: você mesmo não sabe de nada disso. Mesmo assim, você “sai-se tão bem seguindo as instruções” que “a partir do ponto de vista de alguém fora do quarto,” as suas respostas são “absolutamente indistinguíveis daquelas de falantes chineses.” Apenas olhando para as suas respostas, ninguém pode dizer que você não fala uma palavra de chinês. Do lado de fora, diante da abertura (slot), há um falante nativo de chinês, quem, tendo formulado a história e as questões, e tendo recebido as respostas, conclui que alguém que também fala chinês tem de estar presente no quarto.
O elemento crucial faltante aqui é aparente: É o entendimento da língua chinesa. Mesmo se um sistema – nesse caso, o quarto chinês – seja funcionalmente equivalente a alguém que entende chinês, o sistema mesmo não entende chinês. Entender e falar chinês requer vários tipos de conhecimento. Uma pessoa que fale chinês refere aos objetos correspondentes com termos específicos. Com proferimentos específicos, ela persegue certos objetivos correspondentes. Baseada no que ela ouviu (em chinês), ela forma certas expectativas, etc. O quarto chinês não tem nenhumas dessas características. Ele não tem nenhuma intenção; ele não tem expectativas que provem que ele fale e entenda chinês. Em outras palavras, o quarto chinês simula o entendimento de chinês sem ele mesmo possuir um comando da língua chinesa.
Anos depois, Searle (1990) radicalizou esse argumento em conexão com o realismo filosófico (Nida-Rümelin 2018), quer dizer, a tese de que há um mundo que existe independentemente de se ele está sendo observado ou não. Signos apenas têm significado para nós, os usuários de signos e interpretadores de signos. Nós atribuímos significado a certas letras ou símbolos para comunicação, concordando que essas letras ou esses símbolos representam a alguma coisa. Eles não têm significados fora dessas convenções. É enganoso conceber o computador como uma máquina de processamento de caracteres, ou sintática, que segue certas regras lógicas ou gramaticais. O computador é composto por vários elementos que podem ser descritos pela física, e os processos computacionais são uma sequência de estados eletrodinâmicos e eletroestáticos. Portanto, signos são atribuídos a esses estados, aos quais nós [73]atribuímos certas interpretações e regras. Os processos físicos no computador não têm sintaxe, eles não “conhecem” nenhuma regra lógica ou gramatical, e eles nem mesmo são sequências de caracteres. A interpretação sintática é relativa ao observador. Visto que estuturas sintáticas são relativas ao observador, o mundo não é um computador. Esse argumento é radical, simples e preciso. Ele depende de uma filosofia realista e de uma interpretação mecanicista de computadores. Computadores são aquilo que eles são materialmente: objetos que podem ser completamente descritos e explicados usando os métodos da física. A sintaxe não é uma parte da física; a física não descreve signos, nem regras gramaticais, nem conclusões lógicas e nem algoritmos. O computador simula processos de pensamento sem ele mesmo pensar. Propriedades mentais não podem ser definidas por características de comportamento. O modelo da máquina algorítmica, do mecanismo, é inadequado tanto como um paradigma para o mundo físico quanto como um paradigma para o pensamento humano.
Uma concepção realista é muito mais plausível do que uma concepção comportamental relativa a estados mentais (Block 1981). As dores caracterizam um tipo específico de sentimentos que são desagradáveis e que usualmente nós buscamos evitar. No dentista, nós fazemos um esforço para suprimir qualquer movimento, de maneira que nós não interfiramos com o tratamento, mas, de maneira nenhuma, isso significa que nós não tenhamos dor. Até o imaginário super-Spartan, quem não pisca nem sob dor severa, pode ter dor. É simplesmente absurdo igualar “ter dor” a certos padrões de comportamento.
III
De uma maneira geral, pode ser mostrado que provas lógicas e matemáticas não podem ser baseadas em algoritmos, como estudantes de lógica formal aprendem cedo em seu estudo. Já os cálculos da lógica de predicados de primeira ordem não admitem prova algorítmica escrita. A razão fundamental para esse fenômeno, de que sistemas lógicas mais complexos do que a lógica proposicional não são algorítmicos nesse sentido, é o teorema da incompletude de Kurt Gödel (Gödel 1931), provavelmente, o mais importante teorema de lógica formal e metamatemática. Esse teorema mostra que, no geral, entendimento e inteligência não podem ser adequadamente apreendidos no interior de um paradigma maquínico (Lucas 1961). Alguém pode interpretar o teorema de Gödel como a prova de que a mente humana não funciona como um algoritmo. Possivelmente, até a consciência em geral seja baseada na incompletude, como Roger Penrose (1989) argumenta, mas, até agora, eu permaneço agnóstica quanto a essa questão, contudo, estando convencida de que nem o mundo nem os seres humanos funcionam como uma máquina.
Se humanos devessem interagir tão deteministicamente quanto máquinas de Turing (Turing 1950), então inovação genuína mesma não seria imaginável. Se fosse possível prever o que nós fazemos e acreditamos no futuro, inovações genuínas não existiriam. Inovações disruptivas em conhecimento e tecnologia requerem que o conhecimento e a tecnologia futuros não sejam parte do conhecimento e da tecnologia antigos. A suposição de um determinismo abrangente é incompatível com inovação verdadeira (Popper 1951, 1972). É mais plausível assumir que a tese da IA fraca, a [74]tese de que toda a deliberação humana pode ser simulada por sistemas de software, está errada do que assumir que não há inovação genuína.
IV
O humanismo digital defende o emprego das tecnologias digitais a fim de melhorar as condições da vida humana e preservar sistemas ecológicos, também a partir dos interesses vitais das gerações futuras. Contudo, ao mesmo tempo, ele opõe-se veementemente ao desenvolvimento tecnológico supostamente autárquico da transformação digital. Ele opõe-se à autodepreciação da competência humana na decisão e ação na forma da IA forte e fraca; ele opõe-se à subsunção do julgamento e da ação humanos sob o paradigma de uma máquina que gere saídas determinadas a partir de entradas dadas.
A utopia do humanismo digital exige um afastamento consistente a partir do paradigma da máquina. Nem a natureza como um todo nem os humanos deveriam ser concebidos como máquinas. O mundo não é um relógio, e os humanos não são automata. As máquinas podem expandir, até potencializar, o escopo da ação e do poder criativo humanos. Elas podem ser usadas para o bem e para o detrimento do desenvolvimento da humanidade, mas elas não podem substituir a responsabilidade humana de agentes individuais e a responsabilidade cultural e social das sociedades humanas. Paradoxalmente, a responsabilidade de indivíduos e grupos é alargada pela tecnologia de máquina e tecnologias digitais. As responsabilidades expandidas de interação possibilitadas através das tecnologias digitais e do desenvolvimento das redes comunicativas e interativas antes apresentam novos desafios para o ethos de responsabilidade, do qual o ser humano racional não pode se evadir ao delegar a responsabilidade a sistemas autônomos, sejam eles robôs ou sistemas de software de autoaprendizagem.
O humanismo digital retém as condições humanas de prática responsável. Ele não comete um equívoco de categoria. Ele não atribui propriedades mentais baseando-se em uma simulação do comportamento humano. Em vez disso, ele aguça os critérios da responsabilidade humana diante da disponibilidade das tecnologias digitais, exige uma expansão da atribuição de responsabilidade à comunicação e interação mediadas por tecnologias digitais, e não permite a agentes reais (quer dizer, a nós, humanos) desviarem-se e passarem a responsabilidade para uma suposta autonomia de máquinas digitais. O humanismo digital está dirigido ao fortalecimento da responsabilidade humana, à realização dos potenciais da digitalização que aliviam o peso do conhecimento e dos cálculos desnecessários para conceder às pessoas a possibilidade de se concentrarem naquilo que é essenial e contribuirem para um futuro mais humano e justo para a humanidade.
[75]Referências
Block, Ned (1981), Psychologism and Behaviorism, The Philosophical Review 90 (1): 5 – 43.
Gödel, Kurt (1931), Über formal unentscheidbare Sätze der Principia Mathematica und verwandter
Systeme I, Monatshefte für Mathematik und Physik 38: 173 – 198.
Lucas, John R. (1961), On Minds, Machines and Gödel, Philosophy 36: 112 – 127.
Nida-Rümelin, Julian (2018), Unaufgeregter Realismus. Eine philosophische Streitschrift, Paderborn: mentis.
Nida-Rümelin, Julian (2020), Eine Theorie praktischer Vernunft, Berlin/Boston: De Gruyter.
Nida-Rümelin, Julian, Weidenfeld, Nathalie (2018), Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz, München: Piper (tradução italiana: Milano: Franco Angeli 2019; tradução coreana: Pusan National University Press 2020).
Penrose, Roger (1989), The Emperor’s New Mind: Concerning Computers, Minds, and the Laws of Physics, Oxford University Press.
Popper, Karl (1951), Indeterminism in Quantum Physics and Classical Physics, British Journal of Philosophy of Science 1: 179 – 188.
Popper, Karl (1972), Objective Knowledge, Oxford University Press.
Searle, John (1980), “Minds, Brains and Programs”, Behavioral and Brain Sciences 3 (3): 417 – 457.
Searle, John (1990), “Is the Brain a Digital Computer?”, Proceedings and Addresses of the American Philosophical Association, 64 (3): 21 – 37.
Turing, Alain (1950): Computing Machinery and Intelligence, Mind 59: 433 – 460.
ORIGINAL:
NIDA-RÜMELIN, J. Digital Humanism and the Limits of Artificial Intelligence. In: GHEZZI, C. et al. (eds.). Perspective on Digital Humanism. Springer Cham: 2022. p.71-75. Disponível em: <https://link.springer.com/book/10.1007/978-3-030-86144-5>
TRADUÇÃO:
EderNB do Blog Mathesis
Licença: CC BY 4.0
Nenhum comentário:
Postar um comentário