terça-feira, 6 de junho de 2023

Perspectivas sobre o Humanismo Digital - Humanismo Digital e Questões Globais na Ética da Inteligência Artificial

Perspectivas sobre o Humanismo Digital


Manifesto de Viena sobre o Humanismo Digital


Parte III Ética e Filosofia da Tecnologia


Ensaio anterior


[83]Humanismo Digital e Questões Globais na Ética da Inteligência Artificial


por Guglielmo Tamburrini


Resumo Na luta contra pandemias e crises climáticas, no desafio da fome zero, na preservação da paz e estabilidade internacionais e na proteção da participação democrática na tomada de decisão política, a IA tem papéis crescentes – e frequentemente de dois-gumes – a desempenhar em conexão com questões éticas que têm uma dimensão genuinamente global. A governança da ambivalência da IA nesses contextos assoma grande tanto na agenda da ética da IA quando na do humanismo digital.


1 Introdução


Questões éticas globais interessam à humanidade como um todo e a cada membro da espécie humana, independentemente da posição, das funções e da origem dele ou dela. Questões proeminentes desse tipo incluem a luta contra pandêmias e crises climáticas, o desafio da fome zero, a preservação da paz e estabilidade internacionais, e a proteção da democracia e participação cidadã na tomada de decisão política. Qual é o papel que a IA está desempenhando – com suas tecnologias e sistemas cada vez mais pervasivos – e será provável que desempenhará em conexão com esses desafios éticos globais?

A pandemia de COVID-19 levantou desafios distintos à proteção da saúde e do bem-estar humanos através do globo, os quais estão inextricavelmente relacionados a questões mundiais de resiliência econômica e proteção da educação, do trabalho e dos direitos de participação na vida social. A inteligência artificial (IA) tem o potencial para se tornar uma ferramenta tecnológica principal para satisfazer erupções pandêmicas e cuidar de questões éticas. De fato, dados de propagação de infeção e tecnologias de aprendizagem de máquina (AM) pavimentam o caminho para a predição de padrões de difusão, identificação e avaliação da efetividade de medidas farmacológicas, socias e ambientais, até e incluindo o monitoramento de nichos ecológicos da vida selvagem, cuja preservação é tão importante para restringir contatos frequentes com espécies animais selvagens e relacionados a espalhamentos de vírus. Similarmente, a IA fornece ferramentas tecnológicas para otimizar a [84]produção e distribuição de comida assim como para lutar contra escassezes de comida (famines) e mover-se na direção do objetivo na agenda do desenvolvimento sustentável da NU da fome zero (zero hunger).

Falhas para usar efetivamente tecnologias de IA para combater pandemias e a fome mundial podem qualificar-se como omissões moralmente significantes. Junto com essas omissões, outra fonte de falha moral pode surgir a partir dos papéis eticamente ambivalentes que a IA está ativamente assumindo no contexto de outros desafiso globais. Por um lado, os modelos IA podem contribuir para identificar padrões de consumo de energia e medidas correspondentes de mitigação do aquecimento climático. Por outro lado, o treinamento do modelo IA e o gerenciamento de dados massivos (big data) produzem uma considerável pegada de carbono. Similarmente, aplicações militares de IA podem melhorar redes de Comunicaçãoes, Comando e Controle (C3) e aumentar tanto a precisão quanto a efetividade de sistemas de armas, levando a uma redução de vítimas militares e civis em situações de guerra. E todavia, uma corrida armamentista em andamento em IA pode aumentar o ritmo (tempo) de conflitos além do controle humano significativo e reduzir o limite para dar início a conflitos, por essa maneira, ameaçando a paz e estabilidade internacionais. Tão importante, sistemas IA podem ajudar alguém a recuperar a informação política diversificada que é necessária para o exercício da cidadania democrática responsável. Contudo, tanto em países autoritários quanto em democráticos, sistemas IA já têm sido utilizados cercear a liberdade e participação na tomada de decisão política.

Como casos exemplares da IA desempenhando papéis ambivalentes em questões éticas globais, eu me focarei aqui na crise climática e na preservação da paz global e estabilidade internacional. Valores e necessidades humanas universais que são valorizados pelo humanismo digital desempenham um papel crucial na governança dessa ambivalência da IA.


2 Ética da inteligência Artificial e a Crise Climática


Modelos IA são bem ajustados para identificarem e monitorarem padrões de consumo de energia, em adição a sugerir medidas políticas para reduzir emissões de carbono em transportes, energia e outros setores de produção caracterizados por elevadas pegadas de carbono. A contribuição potencial da IA para ações de mitigação de emergência climática é extensivamente ilustrada pelo Grupo de IA para Mudança Climática (Rolnick et al 2019) e defendida em múltiplas iniciativas correntes da pesquisa e indústria da IA (https://aiforgood.itu.int/). A IA é apresentada aqui como uma oportunidade tecnológica para promover igualmente a justiça intergeracional e intrageracional e promulgar responsabilidades humanas em relação a outras entidades vivas. Contudo, exatamente os mesmos valores e responsabilidades éticas impelem as comunidades de IA a olharem de perto para o quintal da sua própria pegada de carbono. As previsões mais otimistas sugerem que a pegada de carbono do inteiro setor de tecnologia digital, incluindo a IA, permanecerá estável entre agora e 2050 (Blair 2029). Mas mesmo essa perspectiva otimista não é razão para inação. De fato, se outros setores de produção reduzirão sua pegada de carbono, de acordo com os objetivos do Acordo de Páris, a proporção das emissões globais de carbono tendo sua origem no setor de TCI aumentará consideravelmente através do mesmo intervalo temporal.

[85]No interior do setor altamente diferenciado da TCI, está em andamento discussão extensa sobre o consumo de energia de software não de IA, como blockchain e outros softwares de criptomoedas, os quais se estima consumirem montantes de energia excedendo a necessidade de energia de países como Ucrânia ou Suécia (https://cbeci.org/cbeci/comparisons/). Em contraste com isso, ainda não está claro que fração do consumo de energia do setor da TCI pode ser especificamente atribuída à IA em geral ou aprendizagem de máquina e aos outros subcampos comerciais e de pesquisa em particular. Os dados disponíveis são principalmente anedóticos. Foi estimado que GPT-2 e GPT-3 – dois modelos exitosos de processamento de linguagem natural (PLN) – foram treinados através de montantes imensos de dados textuais e deram origem a uma pegada de carbono comparável àquela de cinco carros médios do começo ao fim do seus ciclo de vida (Strubel et al. 2019). Esfoços de avaliação mais sistemáticos claramente são necessários.

Considerando o imapcto cada vez mais pervasivo das tecnologias de IA, o White Paper on IA, liberado em 2020 pela Comissão Europeia, recomenda tratar a pegada de carbono de sistemas de IA através do seu ciclo de vida e cadeia de suprimentos: “Dada a importância cada vez mais crescente da IA, o impaco ambiental de sistemas de IA tem de ser devidamente considerado do começo ao fim do seu ciclo de vida e através da inteira cadeia de suprimentos, por exemplo, com respeito ao uso de recursos para o treinamento de algoritmos e armazenamento de dados” (UE 2020, p.2). Todavia, alguém deveria cuidadosamente notar que o desenvolvimento de métricas e modelos adequados para a estimativa da pegada de carbono da IA, de maneira geral, é um problema desafiador e elusivo. Para começar, é difícil circunscrever precisamente a IA no interior do setor mais amplo da TCI. Além disso, uma avaliação suficientemente realista requer que alguém considere as camadas mais amplas de interação entre as tecnologias de IA e a socieddade, incluindo mudanças induzidas pela IA no trabalho, no tempo livre e nos padrões de consumo. Essas camadas de interações mais amplas têm se provado difíceis de abranger e medir no caso de várias outras tecnologias e sistemas.

Sem menosprezar a importância e dificuldade de alcançar uma avaliação suficientemente realista, o que já é conhecido sobre o ciclo de vida tanto de sistemas de IA exemplares como GPT-2 e GPT-3 quanto da cadeia de suprimento de dados massivos para a AM é suficiente para originar um conjunto interrelacionado de questões políticas. Alguém deveria estabelecer limites quantitativos para o consumo de energia para o treinamento de modelos de IA? Como as quotas de carbono para IA, se alguma, devem ser identificadas nos âmbitos nacional e internacional? Como distribuir partes equitativas dos limitados recursos de IA para negócios, pesquisa e administração pública? Quem deveria ficar encarregado de decidir que dados para o treinamento da IA coletar, preservar e, eventualmente, livrar-se deles pelo bem da proteção ambiental? (Lucivero 2019). Apenas tratando dessas questões de justiça e sustentatbilidade ambientais a IA pode ser tornada completamente compatível com a permanência em nosso planeta da vida humana e a ação moral única que vem com ela, fundamentando a dignidade moral e a satisfação das resposanbilidades que a nossa espécie tem em relação a todas as entidades vivas (Jonas 1979).


[86]3 Ética e a Corrida de Armas da Inteligência Artificial


A proteção tanto da vida humana quanto da dignidade tem desempenhado um papel crucial no debate legal sobre sistemas de armas autônomas (autonomous weapons systems) (SAA (AWS)), quer dizer, sistemas de armas que são capazes de selecionar e atacar objetivos militares sem requererem nenhuma intervenção humana após a sua ativação. O amplo espectro de posições emergindo nesse debate, invariavelmente, tem reconhecido como uma séria possibilidade a ocorrência de SAAs suprimindo vidas humanas em violação ao Direito Humanitário Internacional (International Humanitariam Law) (DHI (IHL)) (Amoroso e Tamburrini 2020). De fato, sistemas perceptivos de IA, desenvolvidos por aprendizagem de máquina e pavimentando o caminho para SAAs mais avançados, foram descobertos, atráves de testes adversariais, incorrerem em erros inesperados e contraintuitivos que operadores humanos facilmente detectariam e evitariam. Notável no contexto do debate sobre SAAs é o caso do ônibus escolar tomado como um avestruz (ostrich) (Szegedy et al. 2014). Uma vez que ônibus escolares apropriadamente usados e os seus passageiros são protegidos por distinção em DHI e princípios de proporcionalidade, o exemplo naturalmente sugere a questão seguinte: quem será responsabilizado por atos de SAAs inesperados e difíceis de prever que alguém consideraria como crimes de guerra, tivessem eles sido cometidos por um ser humano?

Adicionalmente, tem-se alegado que o uso dos SAAs implica uma violação da dignidade humana (Amoroso e Tamburrini 2020, p.5). Robert Sparrow aptamente resume essa visão, indicando que a decisão de tomar a vida de outra pessoa tem de ser compatível com reconhecimento da personalidade daqueles com quem nós interagimos na guerra. Portanto, “quando o SAA decide lançar um ataque, a relação interpessoal relevante está faltando,” e a dignidade humana das vítimas potenciais não está reconhecida. “De fato, em alguma acepção fundamental, não há um alguém quem decida se o alvo do ataque deveria viver ou morrer” (Sparrow 2016, pp. 106-7).

Essas várias preocupações sobre o DHI e respeito à dignidade humana têm sido sustentadas desde de 2013 pela internacional Campanha para Parar Robôs Assassinos (Campaign to Stop Killer Robots) em defesa de um banimento dos SAAs letais. A campanha também tem extensivamente alertado que SAAs podem gerar ameaças especiais à paz internacional. Essa é uma precondição fundamental para o florescimento da vida humana, que qualquer interpretação sensível do humanismo como uma doutrina e movimento – incluindo o humanismo digital – está obrigada a reconhecer como um valor altamente estimado. Os SAAs ameaçam a paz tornando as guerras mais fáceis de serem travadas por causa dos números reduzidos de soldados envolvidos, estabelecendo condições para interações de desertores imprevisíveis entre SAAs no campo de batalha e acelerando o ritmo da guerra além das habilidades cognitivas e sensório-motores humanas.

A IA pode causar ameaças à paz e estabilidade internacionais também no novo domínio da guerra cibernética (cyberwarfare). De fato, espera-se que sistemas de aprendizagem de IA tornem-se cada vez mais centrais ali, não apenas pelo potencial deles para expandirem os conjuntos de ferramentas de defesa cibernética, mas também para lançarem contra-ataques mais eficientes (Christen et al. 2020, p.4). Ataques cibernéticos que têm como alvo o comando e as redes de controle de armas nucleares, o racking de sistemas de ativação de armas nucleares ou a geração de falsos alertas de ataque nuclear levantam preocupações especiais. De acordo, a confluência de armas cibernéticas de IA com armas nucleares intensifica aquela ameaça distintiva à permanência em nosso [87]planeta da vida humana e da ação moral que físicos e outros cientistas têm denunciado publicamente pelo menos desde o Manifesto Russell-Einstein em 1955.

Desde o desenvolvimento dos SAAs até sistemas de IA para a descoberta de vulnerabilidades de software e o travar de conflitos cibernéticos, uma corrida de armas em IA está bem em progresso. A armamentização da IA deveria ser internacionalmente regulada e a corrida de armas em IA propriamente refreada. O humanismo digital, com suas análises e políticas inspiradas por valores éticos universais e pela proteção da dignidade humana, tem um papel central a desempenhar nesse empreendimento formidável.


4 Observação Conclusivas


A agenda da ética da IA tem estado interessada principalmente com questões éticas surgindo em específicos domínios de aplicação da IA. Casos familiares são questões surgindo em conexão com decisões automáticas em empréstimos, carreiras e contratação para emprego, avaliação do prêmio de seguros ou julgamentos de tribunal para a concessão de liberdade condicional. Afetando seletivamente grupos designados de partes interessadas, essas podem igualmente ser chamados de questões éticas locais. Em vez disso, aqui, o foco foi colocado sobre questões éticas que são globais, na medida que impactam o gênero humano e todos os membros da espécie humana como tais. A crise climática e a corrida de armas em IA foram usadas como casos exemplares para ilustrar tanto a diferença entre questões éticas locais e globais quanto a necessidade de uma governança apropriada dos papéis eticamente ambivalentes da IA. Por último, mas não menos importante, argumentou-se que a governança ética dessa ambivalência faz apelo crucial a valores humanos universais que qualquer doutrina ou movimento merecedor do nome de humanismo digital tem de endossar e suportar no contexto da revolução digital.


Referências


Amoroso D., Tamburrini G. (2020) ‘Autonomous Weapons Systems and Meaningful Human Control: Ethical and Legal Issues’, Current Robotics Reports 1(7), pp. 187 – 194. https://doi.org/10.1007/s43154-020-00024-3

Blair G. S., (2020) ‘A tale of two cities: reflections on digital technology and the natural environment’, Patterns 1(5). https://www.cell.com/patterns/fulltext/S2666-3899(20)30088-X

Christen M., Gordijn B., Loi M. (eds) (2020). The Ethics of Cybersecurity. Cham: Springer. https://link.springer.com/book/10.1007%2F978-3-030-29053-5

European Commission (2020). White paper on AI. A European approach to excellence and trust, Bruxelles, 19 de fevereiro de 2020. https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en

Jonas H. (1979). Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main: Insel-Verlag.

Lucivero, F. (2019) ‘Big data, big waste? A reflection on the environmental sustainability of big data initiatives’, Science and Engineering Ethics, 26, pp. 1009 – 30. https://doi.org/10.1007/s11948-019-00171-7

[88]Rolnick D. et al. (2019) ‘Tackling Climate Change with Machine Learning’, arxiv.org.1906.05433.https://arxiv.org/abs/1906.05433

Sparrow R. (2016) ‘Robots and Respect: Assessing the Case Against Autonomous Weapon Systems’, Ethics & International Affairs 30(1), pp. 93-116.

Strubell E., Ganesh A., McCallum A. (2019) ‘Energy and Policy Considerations for Deep Learning in NLP’, arxiv.org.1906.02243.https://arxiv.org/abs/1906.02243

Szegedy Ch. et al. (2014) ‘Intriguing properties of neural networks,’ arxiv.org.1312.6199v4. https://arxiv.org/abs/1312.6199v4


Próximo ensaio


ORIGINAL:

TAMBURRINI, G. Digital Humanism and Global Issues in Artificial Intelligence Ethics. In: GHEZZI, C. et al. (eds.). Perspective on Digital Humanism. Springer Cham: 2022. p.83-88. Disponível em: <https://link.springer.com/book/10.1007/978-3-030-86144-5>


TRADUÇÃO:

EderNB do Blog Mathesis

Licença: CC BY 4.0

Nenhum comentário:

Postar um comentário