Um dos maiores riscos para o uso efetivo da IA na empresa é a desconfiança dos trabalhadores. Muitos funcionários temem e desconfiam da IA ou permanecem sem confiança do seu valor no local de trabalho.
As ansiedades sobre a eliminação do emprego não são infundadas, segundo muitos estudos. Um relatório do Instituto Brookings, “Automação e Inteligência Artificial: Como as máquinas estão afetando pessoas e lugares”, estimou que cerca de 36 milhões de empregos “enfrentam alta exposição à automação” na próxima década. Os empregos mais vulneráveis à eliminação estão na administração de escritórios, produção, transporte e preparação de alimentos, mas o estudo descobriu que até 2030, praticamente todas as ocupações serão afetadas até certo ponto pela automação habilitada para IA. (O Gartner afirmou que, em 2020, a IA seria um motivador de emprego positivo, eliminando 1,8 milhão de empregos enquanto cria 2,3 milhões de empregos.).
Uma preocupação mais imediata é o ceticismo predominante sobre o valor da IA no local de trabalho: 42% dos executivos de TI e de negócios entrevistados não “entendem completamente os benefícios e uso da IA no local de trabalho”, de acordo com a pesquisa CIO Agenda 2019 do Gartner. O medo do desconhecido explica parte desse ceticismo, afirmou o relatório, acrescentando que os líderes empresariais e de TI devem assumir o desafio de quantificar os benefícios da IA aos funcionários. As empresas devem se esforçar para vincular a IA a KPIs tangíveis, como o aumento da receita e o tempo economizado, bem como treinar os funcionários nas novas habilidades que precisarão em um local de trabalho habilitado para IA.
Sem a confiança dos trabalhadores, os benefícios da IA não darão em nada, disse Beena Ammanath, diretora-gerente de IA da Deloitte Consulting LLP, em um artigo sobre os principais riscos de IA que as empresas devem enfrentar ao implementar a tecnologia.
“Vi casos em que o algoritmo funciona perfeitamente, mas o trabalhador não é treinado ou motivado a usá-lo”, disse Ammanath. Considere o exemplo de um sistema de IA em um chão de fábrica que determina quando uma máquina de fabricação deve ser desligada para manutenção.
“Você pode construir a melhor solução de IA – pode ser 99,998% precisa – e pode estar dizendo ao trabalhador da fábrica para desligar a máquina. Mas se o usuário final não confia na máquina, o que não é incomum, então essa IA é um fracasso”, disse Ammanath.
À medida que os modelos de IA se tornam mais complexos, a explicação — entendendo como uma IA chegou à sua conclusão — se tornará cada vez mais difícil transmitir aos trabalhadores de linha de frente que precisam confiar na IA para tomar decisões.
As empresas devem colocar os usuários em primeiro lugar, de acordo com os especialistas entrevistados neste relatório sobre técnicas explicadas de IA: Os cientistas de dados devem se concentrar em fornecer as informações relevantes para o especialista em domínios específicos, em vez de entrar nas de como um modelo funciona. Para um modelo de aprendizagem de máquina que prevê o risco de um paciente ser readmitido, por exemplo, o médico pode querer uma explicação das razões médicas subjacentes, enquanto um planejador de alta pode querer saber a probabilidade de reinternação.
Aqui está um resumo de mais três grandes riscos de IA discutidos no artigo citado acima: