Perspectivas sobre o Humanismo Digital
Manifesto de Viena sobre o Humanismo Digital
Parte VII Educação e Habilidades do Futuro
[183]Requerimentos Educacionais para Robótica Social Positiva
por Johanna Seibt
Resumo A robótica social não cria ferramentas, mas 'outros' sociais que agem no espaço físico e simbólico das interações sociais humanas. A fim de guiar o profundo potencial disruptivo dessa tecnologia, a robótica social tem de ser reposicionada – nós temos de a reconceber como uma emergente área interdisciplinar onde a perícia na realidade social, como espaço físico, prático e simbólico, está constitutivamente incluída. Eu apresento aqui os princípios orientadores para um semelhante reposicionamento, “a Robótica Social Integrativa,” e argumento que o caminho para aplicações culturalmente sustentáveis (preservadoras de valor) ou positivas (intensificadoras de valor) da robótica social segue via um redirecionamento das humanidades e ciências sociais. Em vez de criar novas formações (educations) estripando as humanidades e ciências sociais, os estudantes têm de adquirir completa competência disciplinaria nessas disciplinas, assim como a nova habilidade para dirigir essas qualificações na direção de participação em times multidisciplinares de desenvolvedores.
Os assim chamados de robôs sociais são agentes artificiais projetados para se moverem e agirem no espaço físico e simbólico das interações sociais humanas – como guias automatizados, recepcionistas, garçons, acompanhantes, tutores, assistentes domésticos, etc. De acordo com projeções correntes, já por volta de 2025 haverá um mercado de US$ 100 bilhões para robôs de serviço e, por volta de 2050, nós poderíamos ter 50% de todas as outras atividades de trabalho automatizadas (McKensy 2017). Como economistas alegremente sinalizam, na “era da automação” (ibid.) é crucial ser claro sobre a diferença decisiva entre digitalização e IA desincorporada, de um lado, e IA social corporificada, do outro. O ‘como se (as if)’ da sociabilidade simulada em IAs incorporadas (robôs sociais) cativa-nos com facilidade desconcertante. Pela primeira vez na história da humanidade, nós produzimos, por razões econômicas, artefatos tecnológicos que não são mais ferramentas para nós – nós estamos construindo “outros sociais”.
Mais de uma década de pesquisa sobre interação humano-robô (IHR) revela quão voluntariamente os humanos engajam-se com robôs sociais, praticamente, mas também no âmbito [184]afetivo, e esses resultados de pesquisa levantam questões teóricas e éticas de longo alcance. Os eventos entre humanos e robôs realmente contam como ações sociais? Nós chegaremos a preferir os novos “amigos” que nós construímos às amizades humanos para cultivar? Se os robôs exibem emoções, as quais intensificam a fluidez das interações sociais (Fischer 2019), nós seremos capazes de aprender a não responder com emoções morais (simpatia)? Ou os robôs deveriam ter direitos? Os robôs sociais desqualificar-nos-ão para interagirmos autenticamente com outras pessoas?
Decisões relativas ao uso de robôs sociais não são apenas altamente complexas – como o exemplos dos robôs sexuais ilustra mais surpreendentemente – mas também destinadas a ter repercussões sócio-culturais importantes. Contudo, a legislação baseada em pesquisa sobre robôs sociais está atolada em um “engarrafamento triplo de descrição, avaliação e regulação” (Seibet et al. 2020a, b) combinando incerteza descritiva e prescritiva. Correntemente, nós não conhecemos precisamente como descrever as reações humanas a robôs de maneiras não metafóricas; a falta de terminologia precisa e conjunta dificulta a comparabilidade dos estudos empíricos; e as resultantes incertezas preditivas das nossas avaliações tornam impossível fornecer recomendações regulatórias suficientemente claras e gerais.
Cada vez mais engenheiros robóticos apreciam que as criações deles requeiram competência de decisão muito além das suas educações científicas. Publicações únicas (por exemplo, ver Nourbakhsh 2013; Torras 2018) e a recente “Iniciativa Global sobre a Ética de Sistemas Automatizados e Inteligentes” da IEEE documentam esforços impressionantes “para assegurar que toda parte envolvida no projeto e desenvolvimento de sistemas autônomos e inteligentes esteja educada, treinada e empoderada para priorizar considerações éticas de maneira que essas tecnologias sejam avançadas para o benefício da humanidade” (IEEE n.d.).
Embora nós devêssemos endossar sinceramente os esforços deles, surge a questão de se novos padrões educacionais, requerendo módulos obrigatórios de ética em educações de engenharia, serão suficientes. Mais precisamente, esses esforços podem não ser suficientes enquanto nós retivermos o modelo corrente do processo de pesquisa, design e desenvolvimento (modelo PD&D) em robótica social.
De acordo com o corrente modelo PD&D, os roboticistas, suportados por alguma perícia de outras disciplinas, criam um objeto (robô) que se supõe funcionar através de contextos de aplicação. O que esses objetos significam em um contexto de aplicação específica dificilmente se torna explícito. Mesmo se estudantes de engenharia devessem adquirir maior sensibilidade para a importância de considerações ética – por exemplo, como um primeiro passo, a intuição de que “considerações éticas” vão além da ética de pesquisa (manipulação de dados, formulários de consentimento, etc.) - é questionável se mesmo um inteiro ano de estudo (usando a nomenclatura europeia: um módulo de 60 ECTS) poderia transmitir adequadamente as competências responsáveis por tomada de decisão sobre o espaço simbólico das interações sociais humanas. O espaço simbólico das interações humanas é possivelmente o mais complexo domínio da realidade que nós conhecemos – estruturado não apenas por condições físicas e institucionais, mas também por práticas individuais e sócio-culturais de “criação de sentido,” com variações dinâmicas em escalas de tempo muito diferentes. Mesmo um estudo completo no âmbito de mestrado (4-5 anos) nas ciências sociais ou humanidades mal é suficiente para equipar estudantes com a perícia profissional (métodos analíticos e categorias descritivas) necessária para entender pequenas regiões ou certos aspectos da realidade social humana.
[185]Para resumir, dado que a análise das implicações éticas e sócio-culturais da robótica social requer perícia profissional nas ciências sociais ou humanidades, a qual breves módulos de ética não podem proporcionar, o nosso modelo corrente de PD&D para o desenvolvimento de aplicações de robótica social coloca responsabilidades sobre os engenheiros mas destacados das quais eles não podem ser liberados.
Dessa maneira, o caminho adiante é modificar o modelo PD&D para aplicações de robótica social. Em linha com estratégias de design tais como “design sensível a valor” (Friedman et al. 2002), “design por valores” (Van den Hoven 2005), “formação mútua” (Šabanović 2010) e “design sensível a valor centrado em cuidado” (Van Wynsberghe 2016), a proposta de “Robótica Social Interativa” (RSI) (Seibt et al. 2020a, b) propõe um novo paradigma de desenvolvimento ou modelo PD&D que é feito sob medida para a nossa situação corrente. Como uma resposta que tem como alvo o engarrafamento triplo e os riscos sócio-culturais da robótica social, a RSI postula um processo PD&D que se conforma com os cinco princípios seguintes (para detalhes, ver ibid.):
(P1) O princípio do processo: o produto de um processo de PD&D em robótica social não são objetos (robôs) mas interações sociais.
Esse princípio torna explícito que a robótica social gera (não instrumentos, mas) novas formas de interações que (1) são melhor entendidas como envolvendo formas de sociabilidade assimétrica e, até mais importantemente, (2) pertencem a uma rede complexa de interações sociais humanas. Essa mudança no nosso entendimento do foco da pesquisa da robótica social imediatamente motiva o seguinte princípio:
(P2) O princípio da qualidade: o processo de PD&D tem de envolver, desde o começo e através de processo inteiro, perícia em todas as disciplinas que são diretamente relevantes para a descrição e avaliação da(s) interação(ões) social(is) envolvidas na aplicação prevista.
O princípio da qualidade demanda o envolvimento constitutivo (a) da perícia relativa ao sucesso funcional da aplicação imaginada – por exemplo, ciência da saúde, gerontopsicologia, ciência da educação, ou enfermagem – mas também (b) da perícia dos pesquisadores das ciências sociais e humanidades, a fim de assegurar análise adequada do contexto de interação sócio-cultural a aplicação. Os engenheiros de robótica correntemente desenvolvem aplicações frequentemente guiados apenas pela sua própria imaginação ética e competência social, a qual é, na nossa situação corrente, uma subestimação altamente problemática. Uma condição central para um entendimento mais profundo do contexto de interação sócio-econômico é formulada no seguinte princípio:
(P3) O princípio da complexidade ontológica: qualquer interação social I é um composto de (pelo menos) três componentes <I1, I2, I3>, os quais são realizações relativas a agentes de concepções de interações como vistas a partir da perspectiva de (pelo menos) dois agentes interagindo e um observador externo. As concepções de interação de cada um dos agentes interagindo diretamente (ou seja, I1 e I2), por sua vez, consistem em descrições perspectivas (a partir de uma visão em primeira, segunda e terceira pessoa) da contribuição do agente, enquanto que a concepção de interação do observador externo é apenas a partir de uma perspectiva de terceira pessoa. O processo de PD&D na robótica social tem de prever, discutir e desenvolver as interações sociais na base de uma consideração perspectiva das interações sociais.
[186]Um entendimento diferenciado de interações sociais ao longo dessas linhas permite-nos analisar em detalhe como as pessoas experienciam as interações delas com um robô; investigações profundas desses processos parcialmente pré-conscientes de “sociomorfose” e a sua fenomenologia consciente associada (Seibt et al. 2020b) são elementos cruciais na avaliação contínua do design (físico, cinemático e funcional) do robô, como demandado pelo seguinte princípio:
(P4) O princípio do contexto: a identidade de qualquer interação social é relativa ao seu contexto (espacial, temporal, institucional, etc.). Dessa forma, o processo de PD&D tem de ser conduzido com ciclos de retroalimentação regulatória de curto prazo, contínuos e compreensivos (design participativo) de maneira que a nova interação social seja integrada com todos os fatores contextuais relevantes. Importantemente, a retroalimentação participativa continua por bastante tempo após a “colocação do robô,” até que uma nova normalidade seja formada.
Uma vez que, de acordo com o princípio 2 da RSI, o princípio da qualidade, os pesquisadores das humanidades e, em particular, os eticistas estão incluídos no processo de RD&D, o princípio do contexto assegura que tanto as preferências individuais das partes envolvidas sejam levadas em conta quando os interesses da sociedade no geral. O princípio do contexto reconhece a complexidade da realidade social, mas também expressa um comprometimento com uma determinação empírica (de baixo para cima) e normativa (de cima para baixo) do “que importa” no contexto de dada aplicação. Isso é reforçado pelo seguinte princípio:
(P5) O princípio dos valores em primeiro lugar: Aplicações-alvo da robótica social têm de se conformarem com uma especificação da máxima de não substituição: robôs sociais apenas podem fazer o que humanos deveriam mas não podem fazer. (Mais precisamente: robôs apenas podem proporcionar interações sociais que humanos deveriam proporcionar, relativo ao valor V, mas não podem proporcionar, relativo à restrição C.) A especificação contextual da máxima de não substituição é estabelecida pela deliberação conjunta de todas as partes envolvidas. Análises e avaliações axiológicas são repetidas por todos os estágios do processo de RD&D.
A formulação do princípio de valores em primeiro lugar (Values-First Principle), assim a como máxima de não substituição (Non-Replacement Maxim), refletem um comprometimento com uma consideração de valores em linha com o pragmatismo clássico, valores são realizados em interações e experiências, de uma maneira estritamente dependente de contexto. Por conseguinte, a abordagem RSI começa com uma extensa fase de entrada, com cuidadosa pesquisa de campo sobre o panorama do contexto de interação antes de inserir a nova interação, e é acompanhada por um contínuo diálogo de valor de todas as partes envolvidas (incluindo os eticistas entre os pesquisadores/desenvolvedores) que chega à fase do “novo normal” muitos meses depois da colocação do robô.
O princípio do valor em primeiro lugar da RSI pode ser aplicado em dois níveis diferentes de ambição. Primeiro, aplicações podem ser selecionados que se adequem à máxima de não substituição relativa a um contexto C e gerem um valor V1 que, dentro do contexto C, é ranqueado mais elevadamente do que um valor V2, o qual é negativamente afetado pela aplicação. Por exemplo, um robô acompanhante para residentes idosos em uma casa de repouso que auxilia no estabelecimento de telecomunicação com a família do residente elevará a autonomia do residente; dado que a casa de repouso não pode oferecer assistência humana contínua e plano de visita em pessoas com a família está no lugar, o residente pode ranquear o aumento da sua autonomia mais alto do que a perda de algum contato humano com os funcionários. [187]Uma semelhante aplicação, a qual autoriza um aumento de um valor relativo para o ranqueamento axiológico no interior do contexto, pode ser considerada como culturalmente sustentável.
Segundo, trabalhando com um filtro de seleção mais restritivo, times de desenvolvedores trabalhando com RSI poderiam escolher buscar aplicações que (1) sujeitem-se à máxima de não substituição relativa a uma classe de contextos e (2) gerem um valor V1 sem afetar o ranqueamento axiológico nessa classe de contexto. Por exemplo, a entrega de mediação de conflito via um robô de telecomunicação humanoide sem gênero, aparentemente, pode aumentar a probabilidade de que as partes em conflito encontrem resoluções construtivas para conflito carregados de gênero (Druckman et al. 2020); isso parece ser devido ao fato de que o robô sem gênero não fornece estímulos para o viés perceptivo relacionado ao gênero, uma característica que mediadores deveriam, mas (tipicamente) não podem exibir (Skewes et al. 2019). Uma semelhante aplicação, onde uma interação humano-robô é intrinsecamente valiosa, pode ser considerada uma instância de robótica social positiva (em extensão e especificação adicional da noção de “computação positiva” (Calvo e Peters 2014)).
Eu descrevi os cinco princípios da abordagem RSI aqui em algum detalhe a fim de motivar as três alegações seguintes sobre o que a robótica culturalmente sustentável e positiva implicaria para a futura educação superior:
Alegação 1: Reposição robótica social: Dados os riscos socioculturais correntemente incalculáveis do uso universal de robôs sociais, nós necessitamos de novos modelos PD&D (tais como a RSI) onde (a) a perícia das humanidades e ciências sociais esteja central e constitutivamente incluída desde o começo até o fim, e (b) aplicações sejam desenvolvidas de uma maneira dirigida por valor.
Alegação 2: Nenhuma nova formação (education), renovar e redirecionar as humanidades: Nós temos de conceber a robótica social como uma emergente área interdisciplinar de pesquisa – mas nós ainda não estamos na posição de introduzirmos novas formações de bacharelado e mestrado nessa área. A robótica social culturalmente sustentável ou até positiva, correntemente, ainda necessita da combinação de perícia profissional em todas as disciplinas relevantes, ou seja, perícia que é adquiria no curso de completas formações profissionais nessas disciplinas. Contudo, se as educações de humanidades no futuro visam a qualificarem estudantes para trabalharem em times de desenvolvedores em robótica social, as humanidades também necessitam mudar sua autoimagem de áreas de conhecimento puramente reflexivas para (também) pró-ativamente engajadas e ajustarem seus currículos de acordo.
Alegação 3: Criar interfaces: A fim de equipar os estudantes com habilidades adequadas para trabalharem em times interdisciplinares de desenvolvimento para robótica social culturalmente sustentável ou positiva, nós temos de estabelecer módulos de interface. As disciplinas centrais da emergente área interdisciplinar da robótica social, tais como robótica, antropologia, filosofia, (geronto)psicologia, design, saúde, enfermagem e educação, deveriam incluir módulos do trabalho de curso de um semestre (tipicamente três cursos) onde os estudantes adquirem habilidades em comunicação e colaboração interdisciplinar, assim como algumas introduções básicas à terminologia e aos métodos de outras disciplinas centrais, com foco na ética.
A alegação 1, postulando a inclusão constituída das humanidades e ciências sociais, é uma consequência direta do segundo princípio da RSI, o “princípio da qualidade”: é cientificamente irresponsável construir aplicações de alto risco sem envolver aquelas disciplinas que podem profissionalmente avaliarem os riscos de corrupções de valor (a corrupção do discurso público e das práticas e averiguação (fact-finding) por algoritmos de mídias sociais ilustra as consequências de desenvolvimento tecnológico irresponsável).
A alegação 3 segue-se a partir do quinto princípio da RSI, o “princípio dos valores em primeiro lugar,” o qual oferece uma saída gradual, em estágio, do corrente engarrafamento triplo da regulação baseada em pesquisa. Se os times de desenvolvedores concentram-se em aplicações positivas, intensificadoras de valor, [188]nós gradualmente podemos aprender mais sobre encontros humanos com robôs sociais enquanto reduzindo os riscos potenciais – construindo as aplicações que “que nós poderíamos querer de qualquer maneira.” Contudo, como os meus comentários sobre o princípio de valores em primeiro lugar podem comunicar, o discurso sobre valor e a análise de valores requer uma certa mentalidade, uma tolerância com ambiguidade, complexidade e contextualidade profunda, que não podem ser aprendidas aplicação de regras de cima para baixo ou como transferência lateral de “como fazer (how-to).” Enquanto uma educação nas humanidades cultiva o desenvolvimento de tais mentalidades especiais, isso não é assim em outras disciplinas. Um curso preparatório em ética aplicada com exemplos bem escolhidos (por exemplo, ver o material de curso em conexão com Torras 2018) gradualmente podem treinar estudantes de disciplinas de não humanidades para entenderem mais sobre atitudes epistêmicas e padrões de raciocínio em domínios normativos complexos, mas, provavelmente, não será suficiente para os adquirir. Vice-versa, como correntemente explorado em um módulo educacional suplementar sobre “Desenvolvimento Tecnológico Humanista” na Universidade de Aarhus, a fim de criarem interfaces epistemológicas e comunicativas a partir do outro lado, os estudantes de humanidades deveriam aprender um pouco de programação e design e construírem um robô rudimentais.
Finalmente, consideremos a alegação 2, a alegação de que nós não deveríamos forçar em favor de novas formações, pelo menos não agora. Essa alegação poderia ser surpreendente, em vista de interdisciplinas como bioinformática ou nanotecnologia onde a identificação de um novo campo de pesquisa rapidamente conduziu à introdução de novas formações. Por outro lado, como a pesquisa climática (Climate Research) e biologia de sistemas (Systems Biology) ilustram, há áreas interdisciplinares das quais a complexidade, relativa ao nosso entendimento corrente, requer competências disciplinares completas. Se nós começamos a interferir com um domínio tão intrincado como a realidade social, e nos importamos com mais do que dinheiro, nós não podemos nos permitir soluções baratas com formações interdisciplinares recortadas e coladas de várias fontes. Dadas a complexidade e contextualidade da realidade social, dada a demanda por aplicações dirigidas por valor baseadas em pesquisa de qualidade (ver os princípios 2-5 de RSI), a robótica social necessita de times de desenvolvedores com perícia completa, em vez de conhecimento em mosaico, em ordem de criar futuros dignos de se viver.
Referências
Calvo, R.A., Peters, D. (2014). Positive computing: technology for wellbeing and human potential. MIT Press.
Druckman, D., Adrian, L., Damholdt, M.F., Filzmoser, M., Koszegi, S.T., Seibt, J., Vestergaard, C. (2020). Who is Best at Mediating a Social Conflict? Comparing Robots, Screens and Humans. Group Decis. Negot. https://doi.org/10.1007/s10726-020-09716-9
Fischer, K. (2019). Why Collaborative Robots Must Be Social (and even Emotional) Actors. Techné Res. Philos. Technol. 23, 270 – 289.
Friedman, B., Kahn, P., Borning, A. (2002). Value sensitive design: Theory and methods. University of Washington technical report 02 – 12.
IEEE, n.d. IEEE SA – The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems
[WWW Document]. URL https://standards.ieee.org/industry-connections/ec/autonomous-systems.html (acessado em 28/10/2020).
[189]McKinsey Global Institute, A Future that Works, Automation, Employment and Productivity, 2017, https://www.mckinsey.com/mgi/overview/2017-in-review/automation-and-the-future-of-work/a-future-that-works-automation-employment-and-productivity
Nourbakhsh, I.R. (2013). Robot futures. MIT Press.
Šabanović, S. (2010). Robots in society, society in robots. Int. J. Soc. Robot. 2, 439 – 450.
Seibt, J., Damholdt, M.F., Vestergaard, C. (2020a). Integrative social robotics, value-driven design, and transdisciplinarity. Interact. Stud. 21, 111 – 144.
Seibt, Johanna, Vestergaard, C., Damholdt, M.F. (2020b). Sociomorphing, Not Anthropomorphizing: Towards a Typology of Experienced Sociality, in: Culturally Sustainable Social Robotics--Proceedings of Robophilosophy 2020, Frontiers of Arti fi cial Intelligence and Its Applications. IOS Press, Amsterdam, pp. 51 – 67.
Skewes, J., Amodio, D.M., Seibt, J. (2019). Social robotics and the modulation of social perception and bias. Philos. Trans. R. Soc. B Biol. Sci. 374, 20180037.
Torras, C. (2018). The Vestigial Heart. MIT Press.
Van den Hoven, J. (2005). Design for values and values for design. Information age 4, 4 – 7.
Van Wynsberghe, A. (2016). Service robots, care ethics, and design. Ethics Inf Technol 18, 311 – 321.
ORIGINAL:
SEIBT, J. Educational Requirements for Positive Social Robotics. In: GHEZZI, C. et al. (eds.). Perspective on Digital Humanism. Springer Cham: 2022. p.183-189. Disponível em: <https://link.springer.com/book/10.1007/978-3-030-86144-5>
TRADUÇÃO:
EderNB do Blog Mathesis
Licença: CC BY 4.0
Nenhum comentário:
Postar um comentário