domingo, 28 de janeiro de 2024

Perspectivas sobre o Humanismo Digital - Design Responsável de Tecnologia; Conversas para o Sucesso

Perspectivas sobre o Humanismo Digital


Manifesto de Viena sobre o Humanismo Digital


Parte IX Sistemas e Sociedade


Ensaio anterior


[271]Design Responsável de Tecnologia; Conversas para o Sucesso


por Susan J. Winter e Brian S. Butler


Resumo O humanismo digital exige novas tecnologias que intensifiquem a dignidade e autonomia humanas através da educação de, controle de ou, de outra maneira, responsabilizando os desenvolvedores. Contudo, essa abordagem para o design responsável de tecnologia, paradoxalmente, depende da premissa de que a tecnologia seja um caminho para a superação das limitações humanas, enquanto assumindo que os desenvolvedores mesmos sejam capazes de feitos super-humanos de prognóstico. Reconhecer os desenvolvedores mesmos como sujeitos a limitações humanas significa que o design responsável de tecnologia não pode ser meramente uma questão de esperar os desenvolvedores criarem tecnologia que leve a certos resultados desejáveis. Em vez disso, o design responsável envolve esperar que as tecnologias sejam projetadas de maneiras que forneçam conversações ativas, significativas, contínuas entre desenvolvedor e tecnologia, entre usuário e tecnologia, e entre usuário e desenvolvedor – e esperando que os projetistas e usuários comprometer-se-ão com aquelas conversações.


O humanismo digital demanda novas tecnologias que aperfeiçoem a dignidade e autonomia humanas, infundindo a ética no processo de design e dentro de normas e padrões. Essas demandas são ecoadas até por políticos na arena internacional (Johnson 2019):


a missão … deve ser assegurar que as tecnologias emergentes sejam projetadas desde o princípio para liberdade, abertura e pluralismo, com as corretas salvaguardas no lugar para protegerem nossos povos. … nós necessitamos chegar a um acordo sobre um conjunto comum de princípios globais para dar forma às normas e aos padrões que guiarão o desenvolvimento de tecnologia emergente (Boris Johnson, Discurso às Nações Unidas, 2019)”


Embora nós devamos nos esforçar para alcançar essa visão de tecnologia responsável, nós também deveríamos compreender que ela não pode ser satisfeita. Tecnologias são criadas por pessoas. Tanto tecnologias quanto pessoas são limitadas. Por causa dessas limitações, o melhor que nós podemos esperar é que as novas tecnologias possibilitem diálogo contínuo que reconheça e responda à necessidade da dignidade e autonomia humanas.

[272]Embora existam muitas matizes e variações, uma das maneiras mais simples para entender a premissa fundamental do humanismo digital é considerar um humanista digital em contraste com um tecnólogo digital. Ambos querem criar uma mundo melhor e aprimorar a condição humana. Ambos veem a tecnologia como uma forma de superação das limitações humanos e para tornas as coisas melhores.

Onde eles diferem é que os tecnólogos digitais veem a criação de tecnologias que eliminem a necessidade de envolvimento humano através de automação como caminho primário aprimoramento sustentado, substancial na condição humana. Carros autônomos (self-driving cars) buscam remover a necessidade de um motorista humano. Reconhecimento facial baseado em IA busca remover o humanos do processo de reconhecimento. Em contraste, os humanistas digitais buscam mudar através do encorajamento de tecnologias que posicionem os seres humanos no centro, empoderando-os para promulgarem seu próprio bem-estar. Wikis possibilitam a seres humanos criarem coleções de informação útil para aprendizagem eficiente. Plataformas sociais possibilitam a pessoas com objetivos similares criarem comunidades de prática mutuamente solidária.

No entanto, enquanto eles diferem significativamente com respeito ao papel dos humanos na aplicação da tecnologia para melhorar a condição humana, uma coisa que muitos tecnólogos e humanistas digitais compartilham é uma suposição sobre o relacionamento entre os desenvolvedores e as tecnologias que eles criam. Se é implicita ou explicitamente, frequentemente se assume que os desenvolvedores criam tecnologias que, por sua vez, dão forma às ações e escolhas dos usuários (Gibson 1977). As ações dos desenvolvedores levam a diferentes tecnologias existindo (ou não), tendo características particulares (ou não), criando disponibilidades que habilitam (ou impedem) os usuários a (de) terem ações particulares ou fazerem escolhas particulares (por exemplo, Anderson e Robey 2017).

É esse suposto poder do desenvolvedor para dar forma à tecnologia e ao subsequente comportamento do usuário que é a base dos esforços para causar o design responsável de tecnologia através da educação de, do controle de ou, de outra maneira, responsabilizando os desenvolvedores. Esforços para infundir a ética em currículos de ciência da computação refletem essa suposição, por exemplo, o Embedding EthicsTM @ Harvard, que:


embute filósofos diretamente em cursos de ciência da computação para ensinar estudantes a como pensarem passo a passo as implicações éticas e sociais do seu trabalho. (https://embeddedethics.seas.harvard.edu/)”


A premissa é que, se nós estimularmos a apreciação dos desenvolvedores pela ética, os carros autônomos que eles criam serão seguros e eficientes, ampliarão a mobilidade para comunidades mal atendidas e criarão um mundo melhor, mais equitativo. Se nós sensibilizarmos os desenvolvedores para a necessidade de privacidade, eles construirão proteções de privacidade dentro da IA para reconhecimento facial, o que aumentará a segurança pessoal e social sem supervigilância intrusiva. Educados, pensativos, eticamente conscientes, os desenvolvedores projetarão wikis que rejeitarão informação não verificada e imprecisa. Os desenvolvedores que estão cientes das implicações éticas e sociais do seu trabalho encorajarão a regulação que resultará em plataformas que suportem comunidades pró-sociais de prática e bloqueiem aquelas que estão perseguindo os objetivos de violência e ódio.

Um pouco paradoxalmente, essa abordagem para o design responsável de tecnologia está baseada sobre a premissa de que a tecnologia é um caminho para a superação das limitações humanos, enquanto também assumindo que os desenvolvedores sejam capazes de feitos praticamente super-humanos de [273]prognóstico e influência. Desenvolvedores eticamente treinados, sensibilizados e bem regulados ainda ficarão surpresos por como, quando e porque os seus “responsavelmente projetados” carros autônomos, software de reconhecimento facial, wikis, plataformas de mídias sociais serão lançados. Os contextos são infinitamente variáveis, e os usuários são “criativos.” Assumir que um desenvolvedor (ou um usuário, a propósito) irá “acertar (get it right)” superestima drasticamente a capacidade dos humanos para imaginar, antecipar e influenciar o funcionamento de mesmo dos sistemas sociotécnicos mais básicos.

O design responsável de tecnologia não pode ser meramente uma questão de expectativa de que os desenvolvedores criem tecnologia que leve a certos resultados desejáveis. Postular essa definição de design responsável necessariamente requer uma capacidade que está além do alcance de qualquer designer humano e levará a expectativas sobre responsabilidades e obrigações de desenvolvedores que, na melhor das hipóteses, são irracionais e, na pior, perigosamente equivocadas.

Antes disso, o design responsável envolve esperar que as tecnologias sejam desenvolvidas de maneiras que se preparem para conversas ativas, significantes, contínuas entre o desenvolvedor e a tecnologia, entre o usuário e a tecnologia, e entre o usuário e o desenvolvedor, e a expectativa de que designers e usuários comprometer-se-ão em se engajarem nessas conversas. Está bem dentro da nossa habilidade criar sistemas e tecnologias que preparem as disponibilidades (affordances) para conversas designer-tecnologia, usuário-tecnologia e designer-tecnologia. De fato, diante das limitações humanas sublinhadas acima, as únicas formas de design responsável de tecnologia que são viáveis são aquelas baseadas em engajamento repetido, iterativo, ativo, adaptativo com a tecnologia pelos desenvolvedores. Em vez de definirmos sucesso como desenvolvedores criando uma design responsável, nós temos de esperar que eles se engajem em um processo sem fim de design responsável.

Uma abordagem comum para possibilitar essas conversas envolve os desenvolvedores incorporando (e comprometendo-se com o uso de) disponibilidades que lhes permitam coletar e cuidar de dados sobre a tecnologia. Carros autônomos registram os seus estado e ação. Tecnologias de reconhecimento facial por IA rastreiam escolhas de classificação. Wikis suportam o rastreio de mudanças de conteúdos e ações de usuário. Plataformas sociais rastreiam conteúdo bloqueado. Isso é visto por alguns como o mínimo requerido pelo design responsável de tecnologia. Contudo, em última instância, essa abordagem ainda presume que desenvolvedores terão a habilidade um pouco super-humana para usar os dados para analisar, monitorar, rastrear e interrogar a performance e o uso da tecnologia, enquanto, também, tendo o controle necessário para não abusar dos dados.

Como a citação de Boris Johnson acima indica, preocupações sobre os resultados de novas tecnologias não estão limitadas ao simples desempenho dos componentes tecnológicos do sistema. O design responsável implica engajamento responsável com o sistema sociotécnico maior e os processos através dos quais significado, propósito e valores emergem. Os desenvolvedores terão de construir (e comprometerem-se com o uso de) disponibilidades que lhes permitam coletar e cuidar de dados não apenas sobre o componente tecnológico, mas o sistema sociotécnico maior no qual ele está embutido. Registros de ações por carros autônomos são importantes, mas igualmente importantes são as escolhas do motorista. O design responsável de IA e reconhecimento facial requer atenção com as questões de precisão, mas também com questões de adequação na aplicação delas. Wikis responsavelmente projetadas têm de filtrar informação errada (misinformation) e desinformação, mas também têm de escolher [274]como equilibrar os desejos de leitores com a inclusão de vozes e povos silenciados. Plataformas sociais têm de rastrear o volume de postagens e tipos de conteúdo, mas também continuamente considerarem os compromissos (trade-offs) entre os objetivos econômicos dos provedores e os objetivos cívicos da sociedade maior. Engajar-se em diálogo com um sistema requer que os desenvolvedores engajem-se com essas questões enquanto também equilibrando as necessidade de privacidade e segurança.

Essas conversas podem ocorrer em múltiplos níveis e em formas diversas. Uma abordagem ágil ou de codesign cria um diálogo direto entre usuários e designers que é muito mais rica do que é possível com o método de desenvolvimento em cascata (waterfall). A regulamentação também coloca usuários, desenvolvedores e tecnologias em conversa um com os outros. Os usuários também podem usar o mercado para expressarem as preferências deles. É claro, o design responsável de tecnologia não pode querer dizer que um desenvolvedor seja responsável por todos os resultados da tecnologia. Antes disso, nós argumentamos que eles são responsáveis pela criação e engajamento que suportam diálogo, engajamento e adaptação contínuos entre desenvolvedores, elementos tecnológicos e outras partes envolvidas (stakeholders).

Pela sua própria natureza, os tecnólogos digitais estabelecem-se com um problema fundamentalmente mais difícil com respeito ao design responsável possibilitador. Estabelecendo suas visões na eliminação do envolvimento significativo dos humanos com o sistema através de automação, eles necessariamente tornam o diálogo entre desenvolvedores e aqueles sistema mais difícil de suportar e alcançar. Construir em rastreabilidade, registros detalhados, relatórios de exceção e em uma extensa operação investigativa para analisar e responder a esses dados de uma maneira oportuna tornou-se essencial. Na melhor das hipóteses, construir essa capacidade para um sistema mais responsável requer custo e esforço adicionais substanciais. Na pior, ela requer que os desenvolvedores incorporem características e funções que são contrárias aos objetivos da automação, estabelecendo o design responsável em oposição ao que um tecnólogo digital considera ser um processo efetivo de design.

Em contraste, um humanista digital que deseja melhorar a condição humana através do empoderamento das pessoas já está predisposto para o diálogo possibilitador entre os elementos humanos e técnico de um sistema sociotécnico, porque esse diálogo é uma parte integral da sua abordagem. Portanto, a incorporação de características e funções adicionais que possibilitem aos desenvolvedores participarem nesse diálogo é uma proposição mais simples e menos provável de ser visto como contrária aos objetivos do processo de design. O humanismo digital pode ajudar-nos a reconhecer as limitações dos seres humanos e o papel que a tecnologia pode desempenham no empoderamento dos humanos para superarem essas limitações. Essa é uma contribuição significante que o humanismo digital pode fazer. Reconhecer as limitações de desenvolvedores e usuários, e adotar modelos de design e uso responsáveis que acomodem essas limitação ao colocar essas comunidades em conversação contínua poderia ser uma contribuição ainsa mais poderosa do humanismo digital.

Se os carros autônomos são possibilitados pela internet das coisas, a inteligência artificial por reconhecimento facial, wikis automonitoradoras, plataformas de comunidade online ou alguma outra aplicação de tecnologia emergente, não são as consequências de designers que falharam em antecipar o impacto das suas criações que nós deveríamos temer. Isso nós temos de esperar mesmo com treinamento extenso em tomada de decisão ética. Não há outro resultado que seja possível. Antes disso, é o designer que tem a húbris para acreditar que ele pode antecipar completamente os resultados das suas criações – e, como um resultado, [275]falha em possibilitar e participar nas conversações que são necessárias para se engajar adaptativamente com a tecnologia e suas implicações que são as partes irresponsáveis que deveriam ser o objeto de preocupação.


Referências


Anderson, C. e Robey, D. (2017). Affordance potency: Explaining the actualization of technology affordances, Information and Organization, 27(2), 100-115, 2017.

Embedding EthicsTM @ Harvard, https://embeddedethics.seas.harvard.edu/, recuperado em 15 de abril de 2021.

Gibson, J. L. (1977). A Theory of Affordances. In R. Shaw and J. Bransford (Eds.) Perceiving, Acting and Knowing: Toward an Ecological Psychology, Hillsdale, NJ: Lawrence Erlbaum Associates, Inc. pp. 67-82.

Johnson, B. (2019). Prime Minister speech for the UN General Assembly, 14 de setembro, https://www.gov.uk/government/speeches/pm-speech-to-the-un-general-assembly-24-september-2019.


Próximo ensaio


ORIGINALq:

BUTLER, B. S.; WINTER, S. J. Responsible Technology Design: Conversations for Success. In: GHEZZI, C. et al. (eds.). Perspective on Digital Humanism. Springer Cham: 2022. p. 271-275. Disponível em: <https://link.springer.com/book/10.1007/978-3-030-86144-5>


TRADUÇÃO:

EderNB do Blog Mathesis

Licença: CC BY 4.0

Nenhum comentário:

Postar um comentário