Princípios Éticos da Technoethics
Os fundamentos que orientam cada formação, cada análise e cada decisão da Technoethics — alinhados às melhores referências internacionais em IA responsável.
Ética não é opcional. É fundamento.
A Technoethics acredita que a inteligência artificial precisa ser desenvolvida, adotada e governada com critérios éticos claros, referências robustas e compromisso com os direitos fundamentais das pessoas.
Nossos princípios não são declarações abstratas. Eles orientam a curadoria dos nossos conteúdos, a metodologia das nossas formações, o uso que fazemos das ferramentas tecnológicas e as posições que assumimos publicamente sobre os impactos da IA na sociedade.
Estes princípios são informados pelas principais referências internacionais: as diretrizes da OECD e da UNESCO sobre IA, os Ethics Guidelines for Trustworthy AI da Comissão Europeia, o AI Act europeu e a norma ISO 42001, entre outros instrumentos de governança responsável.
Referências internacionais
OECD AI Principles
Princípios da OCDE para IA responsável, adotados por mais de 40 países.
UNESCO Recommendation on AI Ethics
Recomendação global adotada pelos 193 estados-membros da UNESCO.
ISO 42001
Norma internacional de sistemas de gestão de inteligência artificial.
Ethics Guidelines for Trustworthy AI
Diretrizes da High-Level Expert Group on AI da Comissão Europeia.
Nossos princípios éticos
IA Centrada no Ser Humano
A Technoethics se compromete a promover uma IA centrada no ser humano, que considere os direitos fundamentais, o impacto na sociedade, no mundo do trabalho e no meio ambiente.
Isso significa que toda análise, formação e posicionamento público da Technoethics parte da pergunta: como essa tecnologia afeta as pessoas? Não como ela afeta a eficiência, a produtividade ou o lucro — mas as pessoas, em sua dignidade, autonomia e direitos fundamentais.
A IA centrada no ser humano reconhece que sistemas automatizados tomam decisões com consequências reais sobre vidas reais — no acesso ao crédito, na contratação de pessoas, na prestação de cuidados de saúde, na administração da justiça. Por isso, o design, a adoção e a governança da IA precisam colocar o ser humano — e não a máquina — no centro do processo decisório.
Beneficência e Impacto Social Positivo
A IA deve ser uma força para o bem, promovendo benefícios sociais e reduzindo danos. Este princípio orienta tanto a avaliação dos sistemas que analisamos quanto a forma como desenvolvemos e entregamos nossas formações.
Reconhecemos que a inteligência artificial possui potencial transformador — na saúde, na educação, na ciência, no acesso à informação e na resolução de problemas complexos. Ao mesmo tempo, reconhecemos que esse potencial pode ser mal direcionado, concentrando benefícios em poucos e distribuindo riscos de forma desigual.
Por isso, a Technoethics avalia tecnologias não apenas pela sua capacidade técnica, mas pelo seu impacto concreto: Quem se beneficia? Quem assume os riscos? Como os efeitos são distribuídos? Essas perguntas orientam nossa análise crítica e independente.
Transparência e Uso Responsável de IA
A Technoethics está comprometida com a transparência no uso das ferramentas de inteligência artificial em suas próprias atividades. Isso implica compromissos concretos:
- A Technoethics não utilizará IA para clonar voz ou imagem de professores, instrutores ou qualquer pessoa, sem consentimento explícito e informado.
- Conteúdos gerados total ou parcialmente por IA serão sinalizados de forma clara quando isso for relevante para o usuário.
- Não utilizaremos IA para criar personas artificiais, apresentar como humano o que é automatizado, ou simular interações que não existem de fato.
- Nosso uso de IA é instrumental e auxiliar — não substitui a autoria, o julgamento ou a responsabilidade intelectual das pessoas envolvidas.
A transparência sobre como a IA é utilizada internamente é parte do nosso compromisso com a integridade institucional. Não podemos ensinar ética em IA sem praticá-la.
Supervisão Humana e Controle sobre a IA
A Technoethics defende que sistemas de inteligência artificial devem ser concebidos, implementados e operados de modo a preservar a capacidade humana de supervisão, correção e intervenção.
- Todas as decisões relevantes da Technoethics — editoriais, pedagógicas, estratégicas — são tomadas por pessoas, não por algoritmos.
- A IA é utilizada como ferramenta auxiliar, e nunca como substituta da perspectiva, do julgamento ou da responsabilidade humana.
- Defendemos que organizações precisam manter controles efetivos sobre os sistemas de IA que adotam, com capacidade real de auditoria, correção e desativação.
- Acreditamos que a automação de decisões com impacto sobre pessoas exige mecanismos robustos de revisão humana e recursos adequados.
Este princípio está diretamente alinhado ao conceito de human oversight presente nos frameworks regulatórios mais avançados, incluindo o EU AI Act e as recomendações da OECD.
Letramento em IA e Formação Ética
A Technoethics acredita que o letramento em inteligência artificial é uma necessidade estratégica para profissionais, líderes e organizações — e que esse letramento deve ser informado por uma perspectiva ética sólida.
Nosso compromisso com a formação ética implica:
- Desenvolver o pensamento crítico sobre IA — não apenas habilidades técnicas de uso, mas a capacidade de avaliar, questionar e governar sistemas automatizados.
- Promover o conhecimento de boas práticas e governança de IA nas organizações, em linha com os frameworks regulatórios relevantes.
- Fornecer formação que permita a aplicação ética da IA em contextos profissionais concretos — jurídico, médico, financeiro, público e corporativo.
- Contribuir para que mais profissionais e organizações adotem critérios éticos na avaliação e implementação de tecnologias de IA.
Referências que orientam este princípio