segunda-feira, 4 de março de 2024

Perspectivas sobre o Humanismo Digital – É simples, é Complicado – Último Ensaio

Perspectivas sobre o Humanismo Digital


Manifesto de Viena sobre o Humanismo Digital


Parte XI Realizando o Humanismo Digital


Ensaio anterior


[335]É simples, é Complicado


por Julia Neidhardt, Hannes Werthner e Stefan Woltran


Resumo A história não é um processo estritamente linear; o nosso progresso é algo cheio de contradições. Isso é o que nós temos de ter em mente para encontrar respostas para os desafios urgentes relacionados a, e até causados por, a transformação digital. Neste capítulo, nós refletimos sobre os aspectos contraditórios do humanismo digital, o qual é uma abordagem para fomentar o controle e design da infraestrutura digital em concordância com valores e necessidades humanas. Soluções aparentemente simples revelam-se ser altamente complexas quando as examinando mais de perto. Focando-nos em alguns aspectos-chave como exemplos (não exaustivos) do dilema simples/complicado, nós argumentamos que, no fim, respostas políticas são requeridas.


A história é um processo dialético. Isso também é verdadeiro para a transformação digital em andamento (provavelmente muito melhor denominada de informatização, visto que ela está informatizando quase tudo). Muito desse desenvolvimento já aconteceu no passado, despercebido pela mídia de massa e pela maior parte dos tomadores de decisão na política e indústria. Hoje em dia, essa transformação aparece na superfície, deixando muitos com a impressão de um automatismo, de um processo sem controle humano, guiado por algumas forças “externas.” É por isso que a noção de humanismo digital é tão importante. Como uma abordagem para neutralizar efeitos negativos da transformação digital, ele objetiva estimular o controle e o design da infraestrutura digital de acordo com valores e necessidades humanas. Enquanto numerosas pessoas apoiam (ou, pelo menos, simpatizam com) esses fins e objetivos gerais do humanismo digital, há questões sutis quando olhando nos bastidores do que precisam ser discutidas e resolvidas. Nós deveríamos resistir à tentação das soluções triviais, as quais não prevalecerão em uma discussão séria.

O nosso progresso como sociedade é cheio de contradições e, algumas vezes, até aponta para trás. Tendo em mente tais contradições e que os processos históricos não seguem diretamente para frente linearmente, nós tentamos abordar alguns desses aspectos contraditórios do humanismo digital examinado o par entrelaçado “simples” [336]e “complicado.” O que parece ser simples é complicado, e vice-versa. Esse capítulo também reflete uma discussão entre nós, os autores: o nosso debate algumas vezes controverso pode servir como um projeto (blueprint) para um futuro processo “dialético” para encontrar concordâncias em assuntos complicados, também em um debate público. A lista seguinte, de maneira alguma exaustiva, representa algumas das questões “simples/complicadas” que o humanismo digital tem de tratar:

  • Interdisciplinaridade. O impacto da digitalização sobre as nossas vidas é óbvio, e todo mundo sente o seu poder (tanto positivo quanto negativo). Fenômenos negativos a serem tratados incluem a monopolização da Web, questões relacionadas à automatização do trabalho, problemas com respeito à IA e tomada de decisão, a emergência de bolhas de filtro, a difusão de notícias falsas, a perda de privacidade e a prevalência de vigilância digital. Embora todos esses sejam aspectos do mesmo processo disruptivo, eles manifestam-se muito diferentemente. Consequentemente, um amplo espectro de desafios tem de ser tratado. A conclusão óbvia e simples é: a interdisciplinaridade é necessária para os enfrentar, para entender a presença complicada e dar forma ao futuro digital.

    Mas é assim realmente tão simples, visto que a interdisciplinaridade traz os seus próprios desafios? Por exemplo, é muito difícil obter a mesma terminologia com os mesmos significados. Além disso, a maneira como o panorama de pesquisa está organizado ainda dificulta a interdisciplinaridade. Pesquisadores interdisciplinares (especialmente os mais jovens) frequentemente não obtêm financiamento, uma vez que eles tocam comunidades diferentes, mas não são suficientemente especializados para estarem nos seus centros, o que frequentemente conduz a análises negativas; assim, como fomentar a interdisciplinaridade para o humanismo digital em nível de conteúdo, de método e institucional? Ainda mais, como a informática – como uma disciplina-chave – frequentemente chega com uma atitude para “resolver problemas,” mas, ao mesmo tempo, nem sempre vendo o lado dos efeitos e dos impactos de longo prazo do seu trabalho. Cientistas da computação não podem ou nem mesmo deveriam ser a única força motora. Mas se assim, o papel da informática e dos seus métodos necessita de alguma clarificação. Para um fundamento sólido de humanismo digital, trocas através das várias disciplinas são necessárias por todo o processo, ou seja, quando realizando análise, quando desenvolvendo novas tecnologias e quando as adotando na prática. Olhando para trás na história, alguém vê que os artefatos criados por cientistas da computação têm impacto similar (se não ainda maior, dada a sua natureza mais universal) ao que o motor a vapor teve na Revolução industrial. Mas não foram os engenheiros quem organizaram os trabalhadores e conceberam medidas de bem-estar social; foi um esforço muito mais amplo, incluindo líderes intelectuais com origens diversas juntos com os trabalhadores e seus sindicatos.

  • Humanos decidem. Como está escrito no manifesto, “Decisões com consequências que têm o potencial para afetar direitos humanos individuais ou coletivos têm de continuar a ser tomadas por humanos” (Werthner et al. 2019). Em um mundo tornando-se mais e mais complicado e diverso, é óbvio que decisões de longo alcance e fundamentais deveriam ser tomadas por humanos. É sobre nós e nossa sociedade – dessa maneira, é nossa responsabilidade, nós somos responsáveis por nós mesmos. Isso parece ser um princípio simples.

    [337]Contudo, isso pode ser um pouco mais complicado; pesquisa empírica em psicologia e tomada de decisão humana mostra (ver Kahnemann 2011 ou Meehl 1986) que algoritmos estatísticos bastante simples (por exemplo, modelos de regressão múltipla) parecem superar humanos, mesmo os especialistas no respectivo campo de estudo, em particular quando decisões de longo prazo devem ser tomadas. Nós humanos tendemos a construir modelos causais do mundo, como uma “simplificação” para ser capazes de entender o mundo. Esse é o caso mesmo ou especialmente em casos complicados onde a aleatoriedade desempenha um papel importante. Adicionalmente, parâmetros não observados ou não considerados podem influenciar decisões humanas.1 Assim, a questão não parece ser um nem nem (either or nor), mas antes como e quando combinar humanos e máquinas – complicados!

  • TI para o bem. O humanismo digital não apenas tenta eliminar as “desvantagens das tecnologias de informação e comunicação, mas encorajar a inovação centrada no humano” (Werthener et al. 2019); o seu foco também está na criação de um mundo melhor no qual viver, para contribuir para uma sociedade melhor. Em essência, é simples quando tomando como exemplo a crise do Corona, onde a informatização tem mostrado o seu potencial positivo (tanto na pesquisa quanto na possibilitação de um funcionamento ulterior da nossa sociedade). E quanto alguém examina os Objetivos de Desenvolvimento Sustentável das Nações Unidas (ODS – https://sdgs.un.org/goals), alguém pode perceber que eles apenas podem ser alcançados através de pesquisa apropriada em TI e em sua aplicação.

    Mas, novamente, a realidade é um pouco mais complicada. Desde os anos de 1980, a desigualdade de renda tem aumentado em praticamente todas as principais economias avançadas, e esse é o período de contínua digitalização.2 Mas não apenas a fenda no interior da sociedade alargou-se3 - seguindo as “regras” da economia de plataforma em rede com os seu princípio de que os vencedores levam tudo (winners take it all) – também há uma crescente fenda de mercado entre companhias. Por exemplo, hoje em dia, as primeiras sete companhias mais valorizadas em bolsas de valores são companhias de plataforma de TI; de volta em 2013, apenas duas delas estavam entre as 10 no topo. Adicionalmente, o crescimento de produtividade tem desacelerado, onde alguém teria esperado um crescimento substancial, como previsto por várias companhias de relações públicas no campo da TI. Dessa forma, também o bolo de riqueza a ser distribuída não cresce para “apaziguar” a maioria da população.4 É difícil isolar as causas desse desenvolvimento socioeconômico, mas, certamente, a tecnologia desempenha um papel crucial. Assim, isso é complicado, na análise e também na descoberta de respostas tecnológicas e políticas adequadas.

  • [338]Tecnologia ética. Estando ciente do impacto dos nossos artefatos, nós reconhecemos a necessidade de desenvolver nova tecnologia ao longo de diretrizes éticas. Departamentos de informática ao redor do mundo têm incluído a ética em seus currículos, quer como cursos autônomos ou embutidos em assuntos técnicos específicos. Também a indústria tem acompanhado; algumas companhias até oferecem ferramentas específicas, e associações tais como a IEEE fornecem diretrizes para o design ético de sistemas.5 Assim, se nós seguirmos essas diretrizes, oferecermos cursos e comportarmo-nos eticamente, então isso funcionará, pelo menos a longo prazo. Isso é simples.

    Mas, novamente, a realidade pode ser um pouco mais complicada. A maior parte da pesquisa em IA, especialmente com respeito a aprendizagem de máquina, é realizada por grandes companhias de plataformas de TI. Essas companhias tentam se antecipar a regulação “demais” e argumentam em favor de autorregulação. Contudo, essa pesquisa é realmente independente, não é apenas “lavagem de ética (ethics washing),” como observado por Wagner (2018)? Casos como o Google demitindo Timnit Gebru e Margaret Mitchell fazem soar o sino de alarme.6 Mas isso não é apenas sobre independência de pesquisa, é também sobre reprodutibilidade de resultados, transparência de financiamento ou a estrutura de governança de pesquisa (ver Ebell et al. 2021). E há outros problemas sutis, nós argumentamos em favor de igualdade (fairness) em recomendação ou resultados de busca. Mas como definir igualdade, é com respeito ao provedor de informação ou produtos, é com respeito a leitores ou consumidores (e qual subgrupo), ou nós temos de definir igualdade com respeito a algum critério social geral? Um passo a mais: assumamos que todas essas questões sejam resolvidas e todos nos comportemos de acordo com o imperativo categórico de Kant; então, nós podemos garantir comportamento ético geral ou um bom resultado? Assumindo-se o conceito de coevolução tecnologia-humano, nós temos um processo de “otimização” evolucionária, o qual pode levar a um ótimo local mas não a um global (por exemplo, impedimento de estruturas automaticamente monopolistas). Ainda mais, essa evolução “não evolui e si mesma,” mas é – como em nosso contexto – governada pelas relações desiguais de poder econômicas e sociais existentes. Assim, a ética sozinha pode não ser suficiente.

  • É sobre a economia.7 A transformação digital como um processo técnico-socioeconômico tem de ser colocada em um contexto histórico. Alguém poderia aplicar a teoria econômica contemporânea para entender o que está acontecendo (a “mão invisível” de acordo com Adam Smith, ou seja, seguindo seu interesse pessoal consumidores e firmas criam uma alocação eficiente de recursos para o todo da sociedade). Contudo, o mundo econômico têm sido substancialmente mudado pela transformação digital. O valor do trabalho está no processo de ser reduzido pela automatização crescente e uma possível renda básica incondicional. Essas são simples observações, mas quais são as implicações? Qual é, em última instância, o papel dos humanos no processo de produção? [339]Ou mesmo, qual é o valor de uma companhia? Tudo isso ainda pode ser apreendido e entendido por teorias tradicionais?

    Novamente, isso é complicado, visto que os dados parecem tornar-se a característica mais distinta com a qual as pessoas podem contribuir (pelo menos, na Web) neste novo mundo. Aparentemente, é cada vez menos o excedente (surplus)(“Mehrwert”) gerado por humanos no processo de trabalho que é relevante, mas antes o valor adicionado pelo fluxo sem fim de dados, ou seja, seus traços comportamentais na Web. Esses dados são usados para desenvolver, treinar e otimizar serviços dirigidos por IA. Dessa forma, os usuários estão permanentemente realizando trabalho não pago. Portanto, um usuário é todos os três, um consumidor, um produtor e um recurso, ao mesmo tempo (Butollo e Nuss 2019). Além disso, “em vez de ter um mercado transparente no qual os preços postados levam a descoberta de valor, nós temos um mercado opaco no qual os consumidores suportam companhias de Internet via, essencialmente, um imposto invisível” (Vardi 2018). Tudo isso está relacionado ao papel central de plataformas online. Contudo, a investigação do seu domínio tecnológico e os desequilíbrios resultantes de poder pode requerer uma perspectiva analítica em rede, integrando informática, estatística e ciência política. Mas tais abordagens novas para entender as novas regras do jogo econômico e os mecanismos que conduzem a revolução digital dirigida por dados são complicadas. Contudo, até onde nós conhecemos, não há método aceito para mensurar o calor da economia dos dados, ou dos dados mesmos. Dados são o centro desse desenvolvimento e até são chamados por vários observadores de as “pepitas de ouro (gold nugget)” de hoje. Enquanto que valoração externa é difícil, as grandes plataformas online estão cientes da situação e estão investindo pesadamente. Nós necessitamos de pessoas criativas, com olhos de diferentes disciplinas, para conceberem intuições iluminadoras adicionais – tanto metodológicas quanto práticas. Lembre-se mais uma vez da Revolução Industrial: o entendimento do motor a vapor não resulta imediatamente na Critique of Political Economy de Marx.

  • E é sobre política. Já é conhecimento cotidiano que a informática continuará a causar mudanças profundas. Tudo isso parece ser um automatismo, até como uma força da natureza. Contudo, nós nem pensamos que haja um ser superior que seja responsável, nem, em uma mentalidade similar, que os desenvolvimentos seguem estritamente um “determinismo histórico.” Se nós, as pessoas, deveríamos ser a força motora, a abordagem simples seria que todas as pessoas participassem em decisões que dessem forma ao nosso futuro, seja via eleições democráticas ou via iniciativas participativas.

    Contudo, na prática, experiências são contraditórias e, dessa maneira, complicadas. Um exemplo: embora fossem as mídias sociais que alegaram estabelecer as bases para processos participativos,8 os anos recentes têm mostrado que o efeito delas está frequente e suficientemente indo na direção oposta e abastece a perda de confiança em elaboradores de política (e, dessa maneira, na democracia, a longo prazo). Adicionalmente, os elaborados de política parecem estar, pelo menos algumas vezes, sem poder contra os automatismos de mercado, os quais, por sua vez, levam à tendência de deixar as pessoas votarem em “homens fortes.” Hoje em dia, são as plataformas mesmas que tomam decisões inerentemente políticas quando, por exemplo, banem indivíduos ou grupos inteiros de opinião. Em conclusão, com a visão simplista de que a Internet [340]fomentará participação, nós terminamos em uma situação complexa que deslocou o poder das pessoas para atores globais que tomam decisões opacas. E esses quase monopolistas não apenas administram as plataformas globais “visíveis” mas, nos fundos, construíram uma infraestrutura crítica para o funcionamento da economia inteira (serviço de nuvem, serviços de aprendizagem de máquina, etc.). Alguma coisa tem de ser feita, essa é a requisição simples. Mas as opções disponíveis são todas difíceis: por exemplo, construir infraestruturas próprias (por exemplo, europeias), ou regulações, ou até a nacionalização dessas companhias. Cada uma dessas alternativas levanta questões complicadas: isso deveria ocorrer em uma escala global ou nacional ou regional? A respeito da regulação, o que deveria ser tratado, a inteira pilha de tecnologia ou apenas a camada superior de software? A respeito da nacionalização, quem mesmo teria o poder para fazer isso? Ou quem deveria operar e controlar essas infraestruturas? Não haverá respostas simples à frente, mas discussões longas e complicadas em uma escala global, as quais, frequentemente, são devastadoramente inefetivas. Como um projeto (blueprint) nós mencionamos a discussão de um Taxa de Tobin (Tobin-Tax) como uma lição aprendida a partir da crise de 2008, e que não se materializou em qualquer forma depois de 13 anos de debate.

  • Nós como acadêmicos. Retornando ao nosso papel como acadêmicos, à primeira vista, ele parece simples: especificamente, nas disciplinas técnicas nós tentamos resolver questões abertas, testar novas hipóteses, encontrar novos modelos para descrever o mundo, etc. Nossos artigos são analisados por colegas e nós apresentamos nossos resultados para a comunidade, em jornais e conferências. E, em alguns casos raros, esses resultados encontram seu caminho para o mundo real, tornando-o, afortunadamente e algumas vezes, um lugar melhor.

    Claramente a vida não é tão simples assim; nós estamos cientes de todos os efeitos das nossas contribuições? Nós temos pensado sobre a nossa responsabilidade, como formulada por Popper (1971)? Soluções técnicas científicas não são sempre para o melhor; algumas vezes essas soluções e artefatos até pioram a situação. Adicionalmente, essas soluções dependem do contexto e podem refletir estruturas e relações correntes. Quando alegações normativas entram em jogo, as coisas imediatamente tornam-se mais complicadas, e normas podem ser vistas como conflitando com a liberdade de pesquisa. Especialmente em tecnologia, cientistas podem ser relutantes, visto que pelo menos alguns frequentemente percebem suas atividades de pesquisa como separadas de valores e normas sociais. Além disso, a crise da COVID trouxe a ambígua relação entre política, ciência e pesquisa para a agenda mais uma vez, demonstrando que nós precisamos estar cientes das armadilhas e consequências quando determinado a relação delas (Habermas 1970). Nós, como pesquisadores, temos de comunicar que há dois lados da ciência, uma “ciência pronta (ready-made science)” e uma “ciência-em-criação (science-in-the-making)” (ver Denning e Johnson 2021 ou Latour 1987). A ciência também é um processo, começando com o esforço com o que nós temos de conhecer, na direção de teorias e modelos, ou seja, ciência estabelecida (settled science). Dessa maneira, em certas situações, nós não podemos fornecer respostas 100% certas, e isso tem de ser comunicado ao público, aos políticos. Um aspecto relacionado é o desenvolvimento rápido da tecnologia, constantemente (re)formando o nosso mundo, o que assusta as pessoas e cada vez mais leva à crítica da tecnologia; algumas vezes é difícil confiar no progresso tecnológico. Como um exemplo, conforme a transformação digital [341]leva a automatização e reorganização do trabalho, certos empregos desaparecerão, o que, por sua vez, levanta uma reserva intrínseca contra a tecnologia moderna (a despeito disso, tem de ser enfatizado que também poderia ser uma benção para a sociedade como um todo se certos trabalhos desaparecessem). A questão complicada é como gerenciar esse processo, com uma perspectiva social ou de mercado, apenas.

Como outros processos socioeconômicos ou sociotécnico-econômicos, a transformação digital é um empreendimento dialético, cheio de contradições, gerando questões simples e complicadas frequentemente sem soluções fáceis. Alguém necessita entender a tecnologia para construir uma infraestrutura técnica para o humano e a sociedade, mas, ao mesmo tempo, esse objetivo só é alcançável se há um amplo apoio a partir das pessoas Intuições científicas têm de ser comunicadas e a participação é requerida (“Ciência Cidadã (Citizen Science)”). As pessoas têm de entender o poder que elas (ainda) têm nesta nova sociedade, onde as regras fundamentais estão sob mudança, mas o conhecimento básico sobre essas questões frequentemente é severamente deficiente. Como um exemplo, também a crise da COVID mostrou que questões de privacidade frequentemente são levantadas de maneiras estranhas: nós temos visto imensas reservas contra aplicativos rastreadores de contato, enquanto que, ao mesmo tempo, as pessoas marcam suas consultas de vacinação em seus stories do Facebook.

O humanismo digital não é apenas sobre pesquisa fundamental e aplicada, onde disciplinas diferentes têm de cooperar, mas é também sobre tipos diferentes de atividade que têm de ser integradas, desde pesquisa até inovação, educação, instruções políticas, e comunicação com o público. Tão simples ou complicado como possa ser, são necessários caminhos adiante e soluções democráticas. Ou, para colocar simplesmente: no fim, questões tecnológicas necessitam de respostas políticas.


Referências


Butollo, F., e Nuss, S. (2019) Marx und die Roboter. Vernetzte Produktion, künstliche Intelligenz

und lebendige Arbeit. Dietz Berlin (em alemão).

Danziger, S., Levav, J., & Avnaim-Pesso, L. (2011) Extraneous factors in judicial decisions. Proceedings of the National Academy of Sciences, 108(17), 6889-6892.

Denning, P., and Johnson, J. (2021) Science Is Not Another Opinion. Communications of the ACM.

3 (64)

Ebell, C., Baeza-Yates, R., Benjamins, R. et al. (2021) Towards intellectual freedom in an AI Ethics

Global Community. AI Ethics (2021). https://doi.org/10.1007/s43681-021-00052-5

Habermas, J. (1970) “Technology and Science as ‘Ideology.’” In Toward a Rational Society: Student Protest, Science, and Politics, trad. Jeremy J. Shapiro. Boston: Beacon Press. (Artigo original: Habermas, J. (1968) Technik und Wissenschaft als “Ideologie”. Man and World 1 (4):483-523.)

Kahneman, D. (2011) Thinking, fast and slow. London: Penguin Books

Latour, B. (1987) Science in Action: How to Follow Scientists and Engineers through Society. Harvard University Press.

Meehl, P. E. (1986) Causes and effects of my disturbing little book. Journal of personality assessment, 50(3), 370-375.

Popper, K. R., (1971) The moral responsibility of the scientist. Bulletin of Peace Proposals, 2(3), 279-283

Vardi, M. (2018) How the hippies destroyed the Internet. Communications of the ACM. 7 (61).

Wagner, B. (2018) Ethics as an escape from regulation. From “ethics-washing” to ethics-shopping?

In: Emre, B., Irina, B., Liisa, J.U.A. (Hg.): Being Pro fi led: Cogitas Ergo Sum. 10 Years of ‘Profiling the European Citizen’. Amsterdam University Press, Amsterdam, pp. 84 – 88.

Werthner, H. et al. (2019) The Vienna Manifesto on Digital Humanism. https://dighum.ec.tuwien.ac.at/dighum-manifesto/


ORIGINAL:

NEIDHARDT, J.; WERTHNER, H.; WOLTRAM, S. It Is Simple, It Is Complicated. In: GHEZZI, C. et al. (eds.). Perspective on Digital Humanism. Springer Cham: 2022. p. 335-342. Disponível em: <https://link.springer.com/book/10.1007/978-3-030-86144-5>


TRADUÇÃO:

EderNB do Blog Mathesis

Licença: CC BY 4.0


1[337]Danzinger et al. (2011) mostra que “decisões judiciais podem ser influenciadas por variáveis estranhas que não deveriam ter influência sobre decisões legais.” Quando examinando decisões de conselhos de liberdade condicional (parole boards), os autores descobriram que a probabilidade de uma decisão favorável é maior no começo do dia de trabalho, ou antes do intervalo para comida do que depois; assim, ou antes ou depois de um intervalo do caso (break matter).

3Há até uma nova fonte de desigualdade que brota de viés nos dados, uma questão que nós não discutiremos adicionalmente aqui.

4Como um resultado, examine as respectivas eleições e o sucesso da direita populista.

5[338]IEEE P7000 – IEEE Draft Model Process for Addressing Ethical Concerns During System Design. https://standards.ieee.org/project/7000.html

7Nós omitimos “estúpido,” para não ofender o leitor.

8[339]De fato, as mídias sociais contribuíram para amplos movimentos políticos, tais como a Primavera Árabe.

Nenhum comentário:

Postar um comentário