Do curso: Como Desenvolver sua Estratégia Digital

Como evitar vieses e outras armadilhas

– Assim como qualquer tecnologia, os algoritmos de IA podem ser usados de maneira errada ou nociva. A interferência estrangeira nas eleições de 2016 nos EUA é um caso bem documentado de abuso do poder da inteligência artificial. Organizações com boas intenções podem fazer mau uso da IA de pelo menos três maneiras. Depois de conscientizadas, elas podem mitigar os riscos de fazer isso. Primeiro: a IA pode perpetuar e até ampliar vieses históricos. Os algoritmos aprendem sendo treinados com dados. Mas e se os próprios dados forem tendenciosos? E se as decisões tendenciosas de empréstimo por parte de um banco tiverem sido influenciadas, pelo menos em parte, por preconceitos raciais? E se os recrutadores tiverem um histórico de preconceito contra mulheres e minorias? E se o sistema de policiamento e os códigos tiverem um histórico de preconceito contra certos setores da sociedade? É provável que os vieses nos dados sejam ampliados quando algoritmos de aprendizado de máquina treinados com esses dados fizerem previsões e motivarem novas decisões sobre a quem oferecer empréstimo, quem contratar e quem colocar na prisão. Como mitigar esses riscos? Comece garantindo a diversidade da equipe que desenvolve os algoritmos. Isso deve aumentar a consciência inicial sobre possíveis vieses implícitos nos dados históricos. Verifique se o conjunto de dados não é excessivamente voltado a um segmento da sociedade. Nesse caso, o algoritmo aprenderia principalmente com base nesse segmento e, apesar de parecer robusto, poderia ser tendencioso contra as minorias. Por fim, faça uma auditoria dos algoritmos antes de liberá-los para uso comercial. Segundo: como os dados são a matéria-prima para treinar os algoritmos, é fácil para as organizações ignorar os direitos de privacidade das pessoas. Em uma jurisdição após a outra, a Califórnia, a União Europeia, a Índia e outros governos estão impondo regulamentações mais rigorosas para proteger os direitos individuais de privacidade e aplicando multas pesadas a quem os viola. Sem atenção deliberada para proteger os direitos de privacidade das pessoas, as organizações também correm o risco de prejudicar a própria reputação. Terceiro: é possível que as organizações confiem demais nos dados e algoritmos. Muitos aspectos importantes das decisões e ações de pessoas e equipes continuam difíceis – talvez impossíveis – de observar e quantificar. Em alguns contextos, como reuniões da alta diretoria ou do conselho de administração, qualquer tentativa de fazer uma gravação em vídeo pode prejudicar a dinâmica das discussões e impedir a troca espontânea de ideias. Em um artigo para a Harvard Business Review, Cassie Kozyrkov, cientista-chefe de decisões do Google, observou que as pessoas também podem sofrer o chamado efeito IKEA. Quando as pessoas se esforçam muito para reunir um banco de dados, podem acabar se apaixonando por ele, mesmo que boa parte dele seja um lixo. Portanto, é importante que as pessoas que estão treinando e implementando algoritmos de IA se lembrem de que eles devem ser vistos como complementos do instinto, não como substitutos. Cientes dos riscos associados à adoção cega ou rejeição cega da IA, agora os cientistas estão trabalhando para desenvolver a IA explicável, ou seja, algoritmos de IA que não só aprendam com os dados, mas também revelem o que aprenderem. É um desenvolvimento importante, pois a IA explicável abriria a caixa preta dos algoritmos, facilitando escolhas mais sábias por parte dos usuários ao decidir quando aceitá-los ou rejeitá-los. A IA explicável também ajudaria os tomadores de decisão humanos a se tornarem mais inteligentes em suas próprias tomadas de decisão. Observe sua organização. Como os conjuntos de dados da organização poderiam conter vieses implícitos? Sua organização é cuidadosa ou descuidada na proteção dos direitos de privacidade das pessoas? Quais são as áreas em que o instinto deveria continuar desempenhando um papel importante ou até dominante nas tomadas de decisões, pelo menos no futuro próximo?

Conteúdos