A “garantia” da ética por trás da Inteligência Artificial.

A Ética (do grego antigo: ethos “”caráter””, “”costume””) é o conjunto de padrões e valores morais de um grupo ou indivíduo. Na filosofia clássica, a ética não se resumia apenas aos hábitos ou costumes socialmente definidos e comuns, mas buscava a fundamentação teórica para encontrar o melhor modo de viver e conviver, isto é, a busca do melhor estilo de vida, tanto na vida privada quanto pública. Sendo assim, teremos que encontrar a melhor forma de viver com a inteligência artificial fazendo parte do nosso cotidiano e a ética é um pilar fundamental deste processo.

À medida que a IA é mais amplamente adotada nas operações comerciais, as organizações devem garantir que esta tecnologia seja usada de forma ética. Como ponto de partida, as organizações baseiam-se frequentemente em princípios corporativos genéricos e amplamente divulgados por organizações como ONU e OCDE, combinados com advogados ou conselhos de revisão independentes para avaliar os riscos éticos de casos individuais de utilização de IA.

No entanto, uma vez que os princípios são amplos e por vezes abstratos, os líderes de projetos muitas vezes não conseguem tomar decisões independentes se seus projetos utilizando IA são éticos ou não. Isto, combinado com a falta de visibilidade dos departamentos jurídicos e dos conselhos de revisão sobre os usos da IA dentro da empresa, projetos de IA potencialmente antiéticos podem passar despercebidos e este cenário representa riscos graves para a empresa, incluindo danos à reputação ou violações de conformidade.

À medida que os modelos de IA são cada vez mais utilizados em áreas críticas como os cuidados de saúde, as finanças e os veículos autônomos, o potencial de danos quando estes sistemas cometem erros torna-se muito maior. Se um modelo de IA cometer um erro de acordo com os padrões éticos, quem será o responsável? Os criadores do modelo de IA? Os usuários dos resultados de um modelo? Com níveis crescentes de complexidade, torna-se mais difícil prever e controlar as ações éticas de um sistema autônomo, tornando a questão da responsabilização mais desafiadora.

O Gartner, empresa de aconselhamento na área de tecnologia, publicou um estudo de caso, no qual os líderes de projetos tecnológicos podem aprender como a IBM construiu uma estrutura de governança para agilizar o processo de detecção e gerenciamento de preocupações éticas tecnológicas em projetos envolvendo IA.

A equipe de ética e proteção de dados da IBM percebeu que simplesmente estabelecer o Conselho de Ética de IA e criar princípios éticos amplos não era suficiente para gerenciar proativamente projetos de IA no que diz respeito a questões éticas tecnológicas. Em vez disso, a empresa precisava de uma estrutura de governança para operacionalizar estes princípios e criar orientações práticas que os gerentes de projetos de IA pudessem utilizar para resolver preocupações éticas tecnológicas sobre diferentes casos de uso.

Os líderes de negócios e proteção de dados da IBM aproveitaram uma estrutura de governança para abordar questões éticas tecnológicas em projetos de IA. Esta estrutura é composta por quatro funções principais: um Comitê Consultivo de Políticas, um Conselho de Ética em IA, “Pontos Focais” de ética em IA e uma rede de defensores da ética tecnológica.

Rede de Defesa – No primeiro nível, a IBM aproveita o apoio de uma rede de base de funcionários que promovem uma cultura de tecnologia de IA ética, responsável e confiável ao compartilhar e promover os princípios e práticas de ética tecnológica da IBM dentro de suas equipes para promover uma ética tecnológica inclusiva e diversificada em toda a IBM.

Pontos focais de ética em IA – Em seguida, cada unidade de negócios possui Pontos Focais ou representantes de unidades de negócios que atuam como o primeiro ponto de contato dentro de suas unidades de negócios para identificar e avaliar proativamente preocupações de ética tecnológica, mitigar riscos de ética tecnológica para casos de uso individuais e encaminhar projetos, conforme necessário, ao Conselho de Ética da IA para revisão.

Conselho de Ética da IA – Parte integrante da estrutura de governança da IBM, o Conselho de Ética de IA é copresidido pelo líder global de ética em IA da empresa, da IBM Research, e pelo diretor de proteção de dados. É composto por um órgão multidisciplinar e centralizado de representantes que são responsáveis por definir e manter as políticas, práticas e comunicações de ética de IA da IBM e aconselhar ou determinar ações apropriadas quando unidades de negócios e pontos focais tiverem dúvidas ou preocupações como parte de uma avaliação de ética tecnológica.

Comitê Consultivo de Política – No nível mais alto, o comitê consultivo de políticas é composto por líderes seniores responsáveis por determinar os objetivos regulatórios e de políticas públicas globais da IBM, bem como os riscos e estratégias de privacidade, dados e ética tecnológica da IBM. Este comitê supervisiona o trabalho do Conselho de Ética da IA e analisa o impacto das preocupações com privacidade, regulamentação e ética tecnológica em toda a empresa e nas oportunidades do cliente.

Escritório de Projetos de Ética do CPO – Apoiando cada um dos níveis da estrutura de governança de IA da IBM está o escritório do projeto de ética do CPO. Este pequeno escritório de projetos fica dentro do Chief Privacy Office da IBM e apoia a implementação de prioridades éticas tecnológicas. As responsabilidades do escritório também incluem, servir como elo de ligação formal entre o Conselho de Ética da IA, os Pontos Focais e a rede de defesa e gerenciar e priorizar fluxos de trabalho definidos pelo Conselho de Ética da IA.

Os desafios éticos da inteligência artificial são vastos e complexos, abrangendo questões como a transparência nos algoritmos, o viés e a discriminação, a privacidade dos dados, a responsabilidade por decisões automatizadas e o impacto no emprego. A experiência da IBM demonstra que, para gerenciar proativamente questões éticas em projetos de IA, não basta apenas estabelecer princípios éticos e um Conselho de Ética. É crucial implementar uma estrutura de governança robusta e multidisciplinar para garantir o uso responsável e inclusivo da IA. Isso promoverá uma cultura de ética e responsabilidade, mitigando riscos e assegurando que a IA contribua positivamente para a sociedade.

Escrito por:

Data:

Compartilhar: