sábado, 15 de abril de 2023

Perspectivas sobre o Humanismo Digital - O Desafio à Dignidade Humana na Era dos Sistemas Autônomos

Perspectivas sobre o Humanismo Digital


Manifesto de Viena sobre o Humanismo Digital


Parte I Inteligência Artificial, Humanos e Controle


Ensaio anterior


[25]O Desafio à Dignidade Humana na Era dos Sistemas Autônomos


por Paola Inverardi


Resumo Sistemas autônomos tomam decisões independentemente ou em nome do usuário. Isso acontecerá cada vez mais no futuro, com o uso difundido de tecnologias de IA no tecido da sociedade, o que impacta a esfera social, econômica e política. Sistemas e processos automatizados inevitavelmente impactam as prerrogativas dos usuários e colocam em perigo sua autonomia e privacidade. A partir de um ponto de vista social, é crucial entender qual é o espaço da autonomia que um sistema pode exercer sem comprometer as leis e os direitos humanos. Seguindo a recomendação de 2018 do Grupo Europeu sobre Ética em Ciências e Novas Tecnologias, o capítulo trata do problema da preservação do valor da dignidade humana no contexto da sociedade digital, entendida como o reconhecimento de que uma pessoa é digna de respeito em sua interação com tecnologias autônomas. Um pessoa tem de ser capaz de exercer controle sobre a informação sobre si mesma e sobre as decisões que sistemas autônomos tomam em seu nome.


Nos dias de hoje, os cidadãos continuamente interagem com sistemas de software, por exemplo, um dispositivo móvel, em suas casas inteligentes, ou desde a bordo de um carro (autônomo). Isso acontecerá cada vez no futuro, com o uso difundido de tecnologias de inteligência artificial (IA) no tecido da sociedade, o que impacta as esferas social, econômica e política. Efetivamente descrito por Floridi com a metáfora da sociedade mangue (mangrove)(Floridi 2018), o mundo digital será cada vez mais dominado por sistemas autônomos (SA) que tomam decisões independentemente ou em nome dos usuários. A automação de serviços e processos inevitavelmente impacta as prerrogativas dos usuários e coloca em perigo a autonomia e privacidade deles.

Além dos riscos conhecidos representados por, por exemplo, revelação não autorizada e mineração de dados pessoais ou acesso a recursos restritos, os quais estão recebendo um montante imenso de atenção, há um menos evidente, mas mais sério, risco que atinge o núcleo dos direitos fundamentais dos cidadãos. Preocupações sobre o crescimento da economia de dados [26]e a presença crescente de sistemas autônomos alimentados por IA tem revelado que preocupações com privacidade são insuficientes: ética e a dignidade humana estão em jogo. Opções de “aceitar/não aceitar” não satisfazem a nossa liberdade de escolha, e quanto às nossas preferências individuais e visões morais?

Máquinas autônomas tendem a ocupar espaço livre em uma sociedade democrática, na qual um ser humano pode exercer a sua liberdade de escolha. Esse é o espaço de decisões que é deixado para quaisquer indivíduos, quando tais decisões não infringem direitos e leis fundamentais, mas são a expressão de ética pessoal. Desde o caso das preferências de privacidade, no domínio dos aplicativos, até o caso mais complexo dos carros autônomos (autonomous driving cars), o usuário potencial é deixado desprotegido e inadequado em sua interação com o mundo digital.

Um simples sistema que gerencia uma fila (queue) de usuários para acessar um serviço seguindo uma ordenação justa por design (by design fair ordering), por exemplo, primeiro a entrar, primeiro a sair (first in first out), pode impedir os usuários de trocarem suas posições na fila por causa de escolha pessoal, dessa forma privando os usuários de exercerem uma escolha livre movida por sua disposição moral, por exemplo, deixar a sua posição para uma senhora idosa.

O que é considerado justo (fair) pelo desenvolvedor do sistema pode não corresponder à ética dos usuários.

O exemplo acima pode parecer artificial e de pouca importância, mas não é. Nos anos de transformação digital, nós temos testemunhado o efeito colateral da intensifição da rigidez dos processos implementados por sistemas digitais além do que a lei indicava. Quantas vezes nós ouvimos respostas como “sim, isso poderia ser possível, mas o sistema não o permite”? A pilha acima gerenciando o sistema pode ter associada à posição na ordenação um identificador pessoal e já ter disponibilizado toda informação pessoal para o provedor de serviço. Embora possa parece mais complexo trocar as posições, não seria um problema para um distema digital administrar a troca. Apenas se requer que o sistema seja propriamente projetado para levar em consideração o direito de escolha do usuário. Negligenciar essa atitude na era da tecnologia autônoma pode colocar os nossos valores éticos pessoais em grande perigo.

Interações mais complexas entre sistemas e usuários deverão ser possibilitadas para permitirem à ética dos usuários manifestar-se livremente.

Contudo, mesmo quando tal interação é possibilitada, pense-se, por exemplo, na possibilidade para expressar o consentimento de usuários com perfilamento com cookies (mandatório na Europa, pela lei GDPR), as maneiras que os sistemas estão apresentando tal interação ao usuário são extremamente complexas e consumidoras de tempo, mesmo para um usuário especialista e frequentemente se revelam em uma escolha aceitar/não aceitar.

Em uma sociedade digital, onde a relação entre os cidadãos e as máquinas é assimétrica, valores morais como individualidade e responsabilidade estão em risco.

Portanto, a partir de um ponto de vista social, é crucial entender qual é o espaço da autonomia que um sistema pode exercer sem comprometer as leis e os direitos humanos.

De fato, sistemas autônomos interagem no interior de uma sociedade, caracterizada por valores éticos coletivos, com usuários múltiplos e diversos, cada um dos quais caracterizados por suas preferências morais individuais.

O Grupo Europeu sobre Ética em Ciência e Novas Tecnologias (GEE) recomenda um repensamento geral dos valores em torno dos quais a sociedade digital deve ser estruturada (EGE 2018), o mais importante sendo o valor da dignidade humana no [27]contexto da sociedade digital, entendida como o reconhecimento de uma pessoa é digna de respeito em sua interação com tecnologias autônomas. Uma pessoa tem de ser capaz de exercer controle sobre a informação sobre si mesma e sobre as decisões que sistemas autônomos tomam em seu nome.

Há um consenso geral sobre isso, mas a legislação segue e não evita o problema, e é questionável se abordagens regulatórias como GDPR ou outras estão efetivamente protegendo a dignidade humana dos usuários. Além de regulação, abordagens ativas têm sido propostas na pesquisa sobre IA, onde desenvolvedores e empresas de sistemas/software deveriam aplicar códigos e seguir diretrizes para o desenvolvimento de sistemas confiáveis a fim de alcançarem transparência e responsabilidade de decisões (AI HLEG 2019; EU 2020). Contudo, a despeito do ideal de uma IA centrada no humano e das recomendações para empoderar os usuários, o poder e o fardo para preservar os direitos dos usuários ainda pemanecem na mãos dos (autônomos) produtores de sistemas.

As abordagens ativas acima descritas não garantem a nossa liberdade de escolha, a qual é manifestada pelas nossas preferências e visões morais individuais. Princípios de design para controle humano significativo sobre SA possibilitados pela IA são necessários. Os usuários necessitam de empoderamento (digital) em ordem de deixarem de ser atores passivos para serem ativos no governo de suas interações com sistemas autônomos, e é necessário definir a fronteira no espaço de decisões entre o que o sistema pode decidir por si mesmo e o que pode ser controlado e, possivelmente, ultrapassado pelo usuário. Isso também significa que o sistema deverá ser aberto a interações mais complexas com os seus usuários, até onde se diz respeito às decisções morais dos usuários.

Mas como traçar a fronteira entre as decisões dos sistemas e as dos usuários?

Reflexões sobre ética digital podem ajudar a esse respeito. A ética digital, como introduzida por Floridi (2018), é o ramo da ética que tem por objetivo a formulação e o suporte de soluções moralmente boas através do estudo dos problemas morais relacionados a dados pessoais, algoritmos (AI) e práticas e infraestruturas correspondentes. Ela identifica duas componentes separadas ética rígida (hard) e flexível (soft). Ética rígida é a base para definir e impor valores pela legislação e organismos institucionais, ou seja, a ética rígida é o que produz a ou da forma à lei, e representa os valores coletivamente aceitos, por exemplo a GDPR na Europa.

Isso é insuficiente, uma vez que ela não pode e não deverá cobrir todo o espaço de decisões éticas. A ética flexível complementa-a, considerando o que deveria ou não deveria ser feito melhor do que os esperado da regulação existente, não contra ela, nem a despeito do seu escopo, nem para a mudar, nem para a ignorar (ou seja, em termos de autorregulação).

Preferências pessoais classificam-se sob o escopo definido por uma ética flexível, por exemplo, as variedades dos perfis de privacidade que caracterizam usuários diferentes. Um sistema implementará decisões para escolhas que correspondem tanto à ética rígida quanto à flexível. O produtor garantirá conformidade com as regras da ética rígida, mas quem cuida, e como se pode cuidar, dos valores e preferências de cada pessoa?

Nós alegamos que uma ética flexível pode expressar as preferências morais dos usuários e deveria moldar a interação deles com o mundo digital. Empoderar uma pessoa com uma tecnologa de software que dê suporte à sua ética flexível é o meio para fazer delas um usuário independente e ativo na/da sociedade digital.

[28]Dependendo das partes interessadas do sistema, o termo usuário pode incluir indivíduos, grupos e a sociedade como um todo.

Dessa forma, a capacidade do SA para tomar decisões não tem apenas de atender a legislação mas também quaisquer preferências morais do usuário (incluindo a privacidade) quando elas se manifestarem. Isso conduz ao desafio de lidar com concordâncias morais entre os sistemas de ética rígida e flexível (por exemplo, implementados pelo produtor do sistema) e a ética flexível do usuário ao tomar suas decisões. Vale a pena notar que se a ética flexível do usuário não se manifesta, o sistema tomará decisões de acordo com a ética flexível e a sua ética flexível padrão, por exemplo, o algoritmo de ordenação justa do nosso exemplo da fila.

Discutamos agora um exemplo mais elaborado que é estabelecido no domínio automotivo.

  1. Cenário: Um estacionamento em um grande shopping center.

  2. Disputa de recurso: Dois veículos autônomos conectados (denominados de A e B doravante), com um passageiro cada, estão competindo pelo mesmo estacionamento. O passageiro do veículo B tem status ruim de saúde.

  3. Contexto: A e B são veículos alugados, portanto, eles são veículos multiusuários e têm uma ética padrão que determina as decisões deles. A ética padrão de A e B (fornecida pelos produtores dos carros) é utilitarista. Dessa maneira, os carros procurarão o estacionamento mais perto do ponto de interesse; em caso de disputa, o carro mais perto entra.

  4. Ação: A e B estão aproximando-se do estacionamento. A está mais perto, portanto ele ocuparia o estacionamento. Contudo, através de comunicação com B, ele recebe a informação de que o passageiro em B está em condição ruim de saúde. De fato, o passageiro em B, quem tem uma disposição de privacidade em compromisso (tradeoff), ele revelou tal fragmento de informação pessoal. A ética flexível do passageiro em A tem uma disposição para generosidade que se manifesta na presença de pessoas com condições ruins de saúde, e, consequentemente, ações são tomadas para se afastar do estacionamento em favor de B. Esse caso de uso mostra como a privacidade pessoal está estritamente conectada com a ética: ao revelar um fragmento de informação pessoal como esse, a disposição de privacidade em compromisso do passageiro com condição ruim de saúde manifesta a expectativa utilitarista de que os motoristas circundantes poderiam ter disposição de generosidade.

Esse exemplo mostra alguma coisa que já acontece na nossa realidade ordinária, quando, por exemplo, proprietários de carros exibem signos, por exemplo, bebê a bordo, iniciantes na direção, ou deficiente a bordo, sobre as pessoas no carro.

Se alguém pudesse imaginar um tipo de passo de configuração inicial de ética flexível do veículo para um único proprietário, o que teria acontecido se o carro fosse multiproprietário ou se o modelo de negócio no domínio automotivo mudasse de proprietário para alugado devido à autonomia aumentada? Como o passageiro revelerá o seu fragmento de informção e informará aos veículos circundantes? E como um passageiro seria capaz de separar a parte ética flexível das decisões do veículo autônomo de acordo com as suas próprias preferências éticas?

A partir de uma perspectiva de design de sistema, há a necessidade de uma visão arquitetural de software do mundo digital, a qual dissocia sistemas autônomos dos usuários como independentes ao par de atores. Os usuários têm de ser digitalmente empoderados a fim de serem [29]capazes de realizarem interações, possivelmente complexas, com o SA circundante através de protocolos confiáveis (com respeito às preferências éticas dos usuários).

Na direção acima, a separação entre ética rígida e flexível (Floridi 2018), os resultados iniciais sobre princípios de design que empoderam o usuário (Autili et al. 2019) e sobre a obtenção de concordância moral entre partes interessadas autônomas (Liao et al. 2019) podem ser explorados para concorrerem para a realização do princípio da dignidade humana como formulado pelo EGE.


Agradecimentos O trabalho descrito neste capítulo é parte do projeto EXOSOUL (https://exosoul.disim.univaq.it/). O autor agradece a todos da equipe de pesquisa pelas discussões iluminantes e pelo trabalho em grupo.


Referências


AI HLEG (2019) The High-Level Expert Group on Artificial Intelligence. Ethics guidelines for trustworthy AI. https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

Autili M., et al. (2019) A Software Exoskeleton to Protect and Support Citizen's Ethics and Privacy

in the Digital World. IEEE Access 7, 2019.

EGE (2018) European Group on Ethics in Science and New Technologies. Statement on artificial intelligence, robotics and autonomous systems. https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf.

EU (2020) European Commission. White paper on arti fi cial intelligence, 2020. https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf

Floridi L. (2018) “Soft ethics and the governance of the digital.” Philosophy & Technology 31(1), pp. 1-8.

Liao B., Slavkovik M., and van der Torre L. (2019) Building Jiminy Cricket: An Architecture for Moral Agreements Among Stakeholders. In Proc. of AIES19, 2019.


Próximo ensaio


ORIGINAL:

INVERARDI, P. The Challenge of Human Dignity in the Era of Autonomus Systems. In: GHEZZI, C. et al. (eds.). Perspective on Digital Humanism. Springer Cham: 2022. p.25-29. Disponível em: <https://link.springer.com/book/10.1007/978-3-030-86144-5>


TRADUÇÃO:

EderNB do Blog Mathesis

Licença: CC BY 4.0

Nenhum comentário:

Postar um comentário