O “viés” pode atrasar o desenvolvimento das inteligências artificiais?

Esse é um tema espinhoso para toda área de pesquisa no campo de desenvolvimento da Inteligência Artificial. Contudo, para iniciarmos a discussão, é necessário avaliarmos antes o conceito de viés. Para conceituá-lo eu trago a autora Cathy O’Neil (2016), que em seu livro “”Armas de Destruição Matemática””, aborda o viés no contexto de algoritmos e big data, argumentando que muitos dos algoritmos usados em finanças, policiamento e contratação são tendenciosos, incontestáveis e injustos. O’Neil define viés como “as distorções embutidas nos algoritmos que refletem os preconceitos dos seus criadores, dos dados usados para treiná-los, ou das instituições que os implementam”. Ela destaca como esses algoritmos podem perpetuar e amplificar preconceitos existentes na sociedade, levando a ciclos de retroalimentação negativos que reforçam desigualdades.

Dentro da discussão de como o viés pode surgir em algoritmos de Deep Learning (aprendizagem profunda) podemos trazer duas abordagens. Através de dados de treinamento que não representam adequadamente a realidade ou aqueles que refletem preconceitos existentes na sociedade. Um exemplo do primeiro caso é um algoritmo de reconhecimento facial treinado com mais fotos de pessoas brancas do que de pessoas negras, resultando em uma performance inferior na identificação de rostos negros. O segundo caso é ilustrado pelo incidente com a ferramenta de recrutamento da Amazon, há alguns anos, que favorecia candidatos homens em detrimento de mulheres, refletindo os preconceitos de gênero nos dados históricos de contratação usados para treinar o sistema.

Poderíamos citar aqui, diversos casos de vieses pelo mundo em áreas de aprovação de crédito, seleção de profissionais, justiça criminal, reconhecimento facial, educação, saúde, seguros, serviços públicos e veículos autônomos, pois esses já são fatos bem conhecidos e que não há mais dúvida sobre a sua veracidade. Mas diante desses fatos, eu quis buscar uma opinião na própria fonte e perguntei a IA do ChatGPT, você tem um viés? E sem qualquer cerimônia ela me respondeu dessa forma: “sim, como uma IA, eu sou projetada para minimizar o viés, mas a maneira como sou treinada e as informações com as quais sou alimentada podem influenciar minhas respostas. Meu treinamento envolve vastas quantidades de dados que refletem o conhecimento humano até certo ponto no tempo, o que significa que posso replicar inadvertidamente os vieses presentes nesses dados. Estou constantemente aprendendo e me adaptando com base em novas informações e interações, mas é importante reconhecer e corrigir qualquer viés sempre que possível.”

Treinar uma IA para decidir sem um viés, é como extrair uma base da sociedade sem distorções. Esse é um pensamento utópico pois o tecido social é na sua essência heterogêneo. Nós pesquisadores, devemos buscar uma maior acurácia das avaliações da IA e não uma IA sem qualquer viés, até porque as necessidades sociais são mutáveis por natureza e são exatamente elas que irão em determinado momento retroalimentar as bases de dados que irão treinar novas inteligências artificias.

Não podemos esquecer que os números que compõem as bases de dados dos bancos, hospitais, universidades e das mais diversas instituições refletem um comportamento social, econômico, empresarial, político e tecnológico de um determinado período.  Existe um equívoco no qual as pessoas acreditam que os vieses podem ser corrigidos, como se fossem apenas um código mal feito. Essa reflexão vai muito além disso, pois passa pela garantia que os dados de treinamento reflitam a diversidade da população real, em termos de raça, gênero, etnia, idade, entre outros aspectos. Isso inclui não apenas a diversificação dos dados, mas também a consideração do contexto em que foram coletados.

O esforço para a melhoria da acurácia das inteligências artificiais passa pela criação de algoritmos transparentes e explicáveis que ajudem os usuários a entenderem como as decisões são feitas, possibilitando a identificação e correção de vieses. Isso pode envolver a publicação de detalhes sobre os conjuntos de dados de treinamento, algoritmos e processos de tomada de decisão.

Diante de todas essas reflexões eu revisito a pergunta do artigo, o “”viés”” pode atrasar o desenvolvimento das inteligências artificiais? Vejo que a percepção de injustiça ou preconceito em sistemas de IA pode levar a uma diminuição na confiança e apoio do público, além de levantar preocupações éticas significativas que, por sua vez, podem resultar em consequências legais devido a regulamentações que focam na transparência e na não discriminação. Além disso, o viés pode limitar a aplicabilidade da IA em ambientes diversos, restringindo seu potencial de mercado e exigindo esforços adicionais para personalização. Este problema também cria barreiras à inovação, já que a falta de diversidade nos dados e perspectivas pode impedir que a IA atenda a uma ampla gama de necessidades. Identificar e corrigir o viés exige esforços consideráveis em termos de coleta de dados diversificados e desenvolvimento de métodos de detecção e correção, adicionando complexidade e custo ao desenvolvimento.

Sendo assim, o desenvolvimento de uma IA justa e equitativa requer um trabalho contínuo. A IA terá que apreender com as mudanças da sociedade e com as particularidades e legislações de cada país, até porque o que é considerado um viés em um lugar pode não ser em outro. Dessa forma, a questão dos vieses nos algoritmos de IA não é uma tarefa que pode ser completamente finalizada, é um processo contínuo que exige vigilância, inovação e compromisso por parte de todos os envolvidos, promovendo uma IA responsável e ética, assegurando que seus benefícios sejam amplamente acessíveis e contribuam positivamente para a sociedade, promovendo inclusão e justiça.

Referências.

Friedman, B., & Nissenbaum, H. (1996). Bias in computer systems. ACM Transactions on Information Systems, 14(3), 330-347.

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.

Escrito por:

Data:

Compartilhar: