LOREM IPSUM DOLOR SIT AMET, CONSECTETUR ADIPISCINGELIT. SUSPENDISSE EUISMOD

LOREM IPSUM DOLOR SIT

LOREM IPSUM DOLOR SIT

CONSECTETUR ADIPISCING ELIT

LOREM IPSUM DOLOR SIT

Ética das virtudes: uma abordagem para a concretização dos princípios éticos da inteligência artificial

Ojutu
Array | 19 de abril de 2023

No estágio atual em que a ética da inteligência artificial (IA) se encontra nos deparamos com uma situação na qual os princípios éticos já estão bem estabelecidos e a grande questão passa a ser como fazer com que tais princípios se tornem uma realidade dentro das organizações.

Afinal de contas, belos princípios que não são colocados em prática não fazem efeito nenhum sobre a vida das pessoas e o bem-estar da sociedade.

artigo A Virtue‑Based Framework to Support Putting AI Ethics into Practice, de Thilo Hagendorff, toca exatamente nesse ponto e propõe que o caminho para colocar a ética de IA em prática está nas virtudes.

A artigo apresenta uma proposta para reorientar a ética da IA com base numa abordagem da ética das virtudes, a fim de tornar a concretização da ética uma prioridade.

Até agora, explica Hagendorff, todas as principais iniciativas de ética da IA escolheram uma abordagem baseada em princípios (deontológica), que busca guiar a pesquisa e o desenvolvimento em direção à ética, oferecendo uma lista de princípios a serem seguidos.

Vejamos 6 iniciativas relevantes nessa linha. 

  1. Os Princípios de IA Asilomar, desenvolvidos pelo Future of Life Institute.
  2. Declaração de Montreal para a IA Responsável.
  3. Os princípios do IEEE – Institute of Electrical and Electronics Engineers.
  4. Os princípios do Statement on Artificial Intelligence, Robotics and Autonomous Systems, publicado pelo Grupo Europeu de Ética em Ciência e Novas Tecnologias da Comissão Europeia.
  5. Os cinco princípios abrangentes para um código de IA, apresentados no relatório do Comitê de Inteligência Artificial da Câmara dos Lordes do Reino Unido.
  6. Os princípios publicados pelo Partnership on AI.

Segundo Hagendorff, a abordagem principiológica da ética de IA como das declarações vistas acima, tem muitas deficiências:

  • não tem mecanismos de reforço;
  • não é sensível a diferentes contextos e situações;
  • falha em lidar com a complexidade técnica da IA;
  • usa termos e conceitos que são abstratos demais para serem colocados em prática.

É verdade que de IA baseada em princípios percebeu principalmente as duas últimas deficiências citadas e passou por uma “virada prática”, enfatizando como é crucial que os princípios sejam postos em prática. 

Mas as diretrizes de como colocar a ética da IA em prática continuam seguindo a abordagem baseada em princípios, o que faz com que esse esforço prático acabe sendo minado pelas mesmas deficiência já apontadas em relação a essa ética.

Por isso, Hagendorff propõe a ética da virtude, uma abordagem até agora amplamente sub-representada, como um complemento promissor à ética deontológica que prevalece na IA.

A aplicação da ética da virtude no campo da ética de IA se daria pela correlação feita entre princípios éticos de IA com determinadas virtudes. Para isso, devemos fazer a seguinte pergunta: “qual virtude A, B, C se traduz em um comportamento que provavelmente levará a um resultado que corresponda aos requisitos dos princípios X, Y, Z”?

Mesmo que tenhamos muitas declarações que trazem diversos princípios éticos de IA – Floridi e Cowls listam 47 deles – já há um consenso sobre um conjunto de princípios que são requisitos para uma IA ética. Hagendorff menciona a justiça, a privacidade, a segurança, a accountability e a explicabilidade. Mas há outros como a beneficência, a não maleficência e a autonomia.

As quatro virtudes de IA

A proposta de Hagendorff é de que devemos associar a esses princípios, quatro virtudes básicas: justiça, honestidade, responsabilidade e cuidado. Para ele, essas quatro virtudes de IA são suficientes para cobrir todos os princípios estabelecidos.

A justiça serve como base para o desenvolvimento de algoritmos justos e esforços para usar a IA apenas nos contextos sociais em que seja justo aplicá-la.

A honestidade impulsiona os esforços para estabelecer transparência e para fornecer explicações adequadas do processo de decisão, o que é demandado pelo princípio da explicabilidade.

A responsabilidade, isto é, o desenvolvimento de um entendimento em relação ao impacto que a IA pode ter, desestimula comportamentos antiéticos que podem prevalecer no contexto do desenvolvimento e da utilização dessa tecnologia.

O cuidado tem a ver com a empatia, com o desenvolvimento de uma percepção em relação às necessidades dos outros e à vontade de atendê-las quando possível. Ele cria a base para motivar profissionais a impedir que aplicações de IA causem danos diretos ou indiretos.

As virtudes de IA de segunda ordem

Essas virtudes da IA, no entanto, não são suficientes para tornar a ética da IA algo que possa ser concretizado. Isso porque, na prática, a tomada de decisão ética enfrenta muitas limitações, que podem comprometer o desenvolvimento das quatro virtudes. 

São fatores como o contexto (incentivos financeiros, estresse, etc.), a pressão dos pares (grupos que seguem normas antiéticas), a liderança (decisões gerenciais antiéticas), vieses implícitosdesengajamento moral etc.

Para lidar com problemas desse tipo outras duas virtudes devem ser acrescentadas: a prudência e a firmeza moral. Estas são “virtudes de IA de segunda ordem” que atuam para oferecer a melhor defesa possível contra os efeitos das limitações de ordem fática que recaem sobre a ética.

A prudência é uma sabedoria de ordem prática que demanda uma compreensão de si mesmo bem estabelecida. A prudência confere ao indivíduo a capacidade de identificar os efeitos das limitações supracitadas em seu próprio comportamento. Desse modo, ela acaba inibindo forças psicológicas ocultas que podem prejudicar a tomada de decisões éticas.

A firmeza moral, por sua vez, é a vontade de manter ideais e responsabilidades morais, potencialmente contra todas as probabilidades, o que pode ser muito difícil quando alguém se vê, por exemplo, diante da influência de colegas. Essa virtude vai agir para neutralizar as forças que levam a comportamentos antiéticos.

São as virtudes da IA de segunda ordem, portanto, que vão permitir que uma pessoa viva de acordo com as 4 virtudes básicas da IA.

O treinamento ético

Mas como “nenhum homem é uma ilha”, para que as virtudes da IA frutifiquem é necessário educar as pessoas e isso se dá num contexto organizacional e cultural específico. Deve haver, portanto, iniciativas de formação em ética que capacitem as pessoas a promover e implementar a ética da IA. Essa formação precisa fazer com que os profissionais percebam que eles podem ter um impacto em questões eticamente relevantes na vida de muitas pessoas.

Além disso, devem ser estabelecidas auditorias e grupos de discussão nos quais os profissionais possam refletir e discutir sobre as questões éticas relacionadas às suas escolhas profissionais.

Outras medidas que podem implementar as virtudes da IA são a influência positiva do líder, o clima ético e a cultura de trabalho nas organizações, a diminuição do estresse e da pressão e a abertura organizacional para críticas externas.

É esse treinamento ético que fará com que as quatro virtudes básicas da IA (justiça, responsabilidade, honestidade e cuidado) e as duas virtudes da IA de segunda ordem (prudência e fortaleza) sejam colocadas em prática nas organizações.

Embora a abordagem da ética das virtudes tenha problemas – o que todas as éticas têm – ela talvez seja realmente a melhor proposta se levarmos em consideração que a implementação da ética de IA deve ser feita caso a caso.

Implementar a ética de IA com base em virtudes permitiria montar um treinamento ético mais ajustado para cada contexto organizacional e, mais do que isso, daria uma maior proteção aos princípios éticos contra o ambiente que ameaça degradá-los.   

VEJA TAMBÉM

LOREM IPSUM DOLOR SIT AMET, CONSECTETUR ADIPISCING ELIT. SUSPENDISSE EUISMOD