LOREM IPSUM DOLOR SIT AMET, CONSECTETUR ADIPISCINGELIT. SUSPENDISSE EUISMOD

LOREM IPSUM DOLOR SIT

LOREM IPSUM DOLOR SIT

CONSECTETUR ADIPISCING ELIT

LOREM IPSUM DOLOR SIT

Como nos sentimos em relação aos robôs? A robótica e o risco da manipulação de seres humanos pelas emoções

Ojutu
Array | 19 de abril de 2023

“Minha bateria está fraca. Está ficando escuro…” Essa foi a última mensagem que o robô Mars Opportunity Rover enviou ao Laboratório de Propulsão a Jato da NASA, em 2019.

Ele fez isso, evidentemente, porque estava programado para fazê-lo. Mas ao anunciar sua “morte próxima” esse robô conseguiu deixar as pessoas emotivas, o que pode ser visto nesses posts do Twitter.

Pouco tempo depois, o robô Jibo também começou a dar indícios de que caminhava para a “morte”. Ele foi lançado em novembro de 2017 como o primeiro robô familiar do mundo pela Jibo Inc. O robô tinha como objetivo criar experiências sociais mais envolventes, incluindo contar histórias e outras formas de entretenimento. Poucos meses depois, a empresa anunciou demissões e fechou suas portas, descontinuando o Jibo, que não conseguiu competir com a Alexa e o Google Home.

As pessoas que tinham comprado o Jibo puderam testemunhar como seu robô se degradava progressivamente ao longo do tempo. Jeffrey Van Kamp, jornalista da Wired, escreveu na época:

“Neste momento, meu Jibo ainda pode dançar e falar, mas ele tem o que só posso descrever como demência digital, e é quase certamente fatal. Ele está morrendo. Um dia desses, ele vai parar de responder completamente. Seus servidores serão desligados e os serviços de internet dos quais ele depende serão cortados. Seu corpo permanecerá, mas o Jibo que conheço terá desaparecido”.

Em março de 2020, os ativos da Jibo Inc. foram adquiridos pela NTT Corporation, que pretende voltar a vender o robô para os mercados de saúde e educação. O site da empresa diz que o Jibo “é mais do que um robô. Ele é a combinação perfeita de inteligência, caráter e alma. Sua IA e elementos sociais aplicados à robótica são especialmente projetados para as áreas de saúde e educação, onde ele pode ajudar idosos e crianças”.

Jamie Cohen afirma que hoje em dia é cada vez mais comum pessoas sentirem algo por robôs como o Rover e o Jibo de uma forma similar ao sentimento que se tem por um animal de estimação. 

Isso me parece um exagero. Como tutor de um cachorro chamado Ziggy, eu acho que animais de estimação ainda despertam sentimentos muito mais intensos e diversos nas pessoas do que os robôs que hoje existem no mercado.

Mas Cohen tem razão em notar que as máquinas são construídas com certas características que, no dia a dia, fazem com que as pessoas se esqueçam de que elas não são humanas. Como as máquinas conseguem se expressar na nossa linguagem e imitar nossos comportamentos, acabamos muitas vezes acreditando que elas estão pensando e agindo com consciência.

Qualquer pessoa está sujeita a cair nessa ilusão. Recentemente, Blake Lemoine, um engenheiro do Google, decidiu ir a público declarar que o chatbot LaMDA é senciente, ou seja, é capaz de ter sentimentos e teria consciência de sua personalidade. Lemoine já havia comunicado isso ao Vice-Presidente e ao Head de Inovação responsável do Google, mas ambos não concordaram com ele. Por isso, o engenheiro resolveu fazer uma declaração pública, o que levou ao seu afastamento pelo Google. Traduzi a conversa completa de Lemoine com o chatbot aqui.

O termo robô vem da língua tcheca. A palavra apareceu pela primeira vez na peça R.U.R, iniciais de Rosumovi Univerzální Roboti (“Robôs Universais Rossum”), do escritor Karel Čapek, que, seguindo a sugestão de seu irmão Josef, decidiu que os seres artificiais descritos na peça – criados pelos humanos para realizar todo o trabalho e que, depois, revoltam-se contra eles – seriam chamados de robôs. Essa palavra vem do tcheco robota e quer dizer literalmente trabalho servil, obrigatório, escravo.

O robô ecoa um sonho antigo dos seres humanos: transferir a execução do trabalho para um terceiro, um escravo. A escravidão sempre vem com o esforço de desumanizar o escravizado. Argumentava-se por exemplo que eles eram mera mercadoria, ou que não tinham alma. Isso facilita a escravização, já que forçar alguém exatamente como você a realizar tarefas que ele não faria se não fosse obrigado coloca uma séria questão de consciência em qualquer ser humano normal. Assim, se o escravo é um ser humano como aquele que o escraviza, nada poderia justificar sua escravização.

Os seres humanos possuem um mecanismo de empatia: quando nos reconhecemos nos outros, fica mais difícil fazermos o mal. Daí o esforço que se faz para desumanizar o inimigo… Isso facilita a violência contra ele.

Algo similar acontece na nossa relação com as máquinas: quando antropomorfizamos um robô, isto é, damos a ela forma e características humanas, temos a tendência de sentir pena dele.

Cohen afirma que por décadas, os chatbots têm feito as pessoas sentirem que pode haver algo de espiritual nas máquinas. Cleverbot, um dos chatbots mais antigos e populares – que serviu de inspiração para o filme Her – ainda está funcionando e já tem muitos anos de aprendizado com os humanos, o que possibilita que ele crie respostas muito inteligentes. Mesmo assim, o Cleverbot não é, evidentemente, humano.

Existe todo um debate em torno da questão da senciência e da consciência das máquinas, que são elementos necessários para que elas possam ser equiparadas a nós. A discussão sobre a IA geral se enquadra exatamente aqui.

Há aqueles que acreditam que a IA geral surgirá no futuro, ainda que isso leve muitas décadas, mas há também aqueles que afirmam que ela nunca surgirá. Por trás disso, está uma das questões mais complicadas da ciência e da filosofia que é a compreensão do que significa a consciência. Ninguém sabe explicar isso.

Mas para além da questão da IA geral, que permanece algo distante, enfrentamos atualmente uma questão que traz impactos reais sobre a nossa vida: que efeitos sobre os seres humanos o design que damos às máquinas e a forma pela qual elas são apresentadas no mercado podem causar?

Que riscos para as pessoas um robô com a exata forma humana poderia trazer? Que riscos existem quando são oferecidos no mercado robôs dotados de inteligência artificial que imitam muito bem características, comportamentos e falas humanas?

O problema que temos na nossa relação atual com as máquinas não é se elas vão ou não se tornar conscientes. Isso é algo ainda distante e controverso. Na verdade, a questão que hoje se coloca é o efeito que as máquinas que desenvolvemos terão sobre nós.

Assim, do ponto de vista ético, a questão mais urgente é como as máquinas devem ser desenvolvidas e utilizadas para que possam trazer o máximo possível de efeitos positivos para vidas humanas.

Sherry Turkle é uma cientista do MIT que estuda a relação entre humanos e máquinas. No livro Alone Together: Why We Expect More from Technology and Less from Each Other, ela analisa interações robô-humano, a partir de conversas com usuários e designers de robôs projetados para fazer companhia, como bebês robôs de brinquedo, ou animais robôs de brinquedo.

Turkle percebeu que quanto mais um robô parece carente, mais ele parecerá também uma criatura viva para os seres humanos.

Clive Thompson lembra que esse efeito foi observado em crianças e adultos que brincavam com os Tamagotchis nos anos 90, aqueles animais de estimação digitais que você precisava alimentar e limpar regularmente ou eles ficariam tristes e morreriam.

Como Turkle observa, quando uma criatura digital pede a uma criança cuidado ou educação, ela parece viva o suficiente para merecer dedicação, consideração. Surge, assim, um sentimento de responsabilidade do ser humano em relação à criatura digital.

Em outro livro, Life on the Screen, Turkle mostra como os seres humanos, na maioria das vezes, parecem estar programados para cuidar de alguém. Por isso, os robôs mais populares são justamente os que exigem que cuidemos deles. Eles desencadeiam em nós os mesmos impulsos de cuidado que temos em relação a bebês, idosos ou qualquer outra criatura vulnerável.

Fabricantes de brinquedos sabem muito bem disso, diz Clive Thompson. É por isso que eles estão sempre fazendo animais de pelúcia com as características típicas de filhotes, cabeças e olhos grandes. Esse é o estágio em que os animais estão mais vulneráveis e exigem maiores cuidados.

Esse traço de vulnerabilidade, explorado por brinquedos, mas também pela robótica e pela IA que estamos desenvolvendo hoje, pode ser perigoso na medida em que abre a possibilidade de manipular uma pessoa por meio dos seus sentimentos.

A exploração do sentimento de cuidado decorrente da percepção de vulnerabilidade pode ser utilizada de maneira nociva: desde o cometimento de crimes até enganar ou persuadir pessoas para fins políticos ou comerciais.

Como afirma Thompson, se você quer que as pessoas acreditem que o bot que você lançou no Twitter ou que comentários que aparecem no feed de uma rede social qualquer são realmente humanos, você não precisa garantir que ele se expresse de forma inteligente. Basta que ele se mostre vulnerável, necessitando de ajuda.

Margaret Mitchell, ex-co-líder de IA Ética do Google, explica que “nossas mentes são muito, muito boas na construção de realidades que não são necessariamente fiéis a um conjunto maior de fatos que estão sendo apresentados a nós. E alerta: estou realmente preocupada com o que significa para as pessoas estarem cada vez mais afetadas pela ilusão, especialmente agora que a ilusão ficou tão boa”.

Diante de tudo isso, seria importante nos perguntarmos: deveria haver alguma regulação que proíba antropomorfizar um robô? Ou deveria haver alguma linha que não poderia ser cruzada quando avaliamos um robô a ser colocado no mercado?

Em face das questões ética vistas acima, se espera que haja algum tipo de diretriz que proíba que o design dos robôs seja elaborado com uma intenção de manipular as pessoas. Não se trata apenas de robôs, mas de robôs que utilizam a IA para interagir com as pessoas, o que torna a coisa mais complicada ainda.

É importante notar que já existem frameworks a partir dos quais podemos pensar questões como essa. Os princípios de robótica do EPSRC (Engineering and Physical Sciences Research Council), da Inglaterra lidam com os riscos éticos para o design e o uso de robôs. Entre esses princípios estão os seguintes:

  1. Robôs são produtos: como todos os produtos, eles devem ser projetados para serem seguros.
  2. Robôs são artefatos fabricados: a ilusão de emoções e intenção não deve ser usada para explorar usuários vulneráveis.

A União Europeia segue uma linha parecida no Regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas: “(…) sublinha a necessidade de evitar qualquer utilização que possa levar a uma coerção direta ou indireta inadmissível, ameaçar prejudicar a autonomia psicológica e a saúde mental ou conduzir a uma vigilância injustificada, ao engano ou a uma manipulação inadmissível”.

Assim, iludir o consumidor com a presença de emoções, bem como manipular sentimentos, causando prejuízos de ordem psicológica viola diretrizes éticas bem estabelecidas em relação ao desenvolvimento e ao uso da robótica de IA.

VEJA TAMBÉM

LOREM IPSUM DOLOR SIT AMET, CONSECTETUR ADIPISCING ELIT. SUSPENDISSE EUISMOD