O uso de algoritmos pela inteligência artificial – IA exige a atualização de modelos de referência para gestão de riscos, visando garantir sistemas confiáveis, justos e responsáveis. É o que propõem, em artigo – publicado na revista “GV Executivo” – os pesquisadores da Escola de Administração de Empresas de São Paulo, da Fundação Getúlio Vargas (EAESP/FGV), Carlos Eduardo Brandão e João Luiz Becker, ao manifestarem a preocupação de que a adoção da inteligência artificial pelas organizações possa gerar impactos imprevisíveis, como discriminação.
Na avaliação de Brandão e Becker, “altos níveis de automação podem contribuir para o aumento de riscos, como a reprodução de vieses e práticas discriminatórias ocasionadas por falhas de reconhecimento facial de suspeitos de crimes; acidentes causados por veículos com sistemas de direção autônomos e interferência nos processos de aprendizagem humana”.
Embora tenha sido concebida para adaptar recursos e funções tecnológicas às interações com humanos, de modo a responder de forma cada vez mais precisa às demandas do usuário, os autores entendem que “a inteligência artificial deve ‘obedecer’ a princípios éticos, como responsabilidade, mediante a aplicação de mecanismos de auditoria; transparência sobre capacidades e limitações dos sistemas e ética, baseada na supervisão e intervenção humana, o que é fundamental para lidar com essa tecnologia”.
Trabalhando com uma revisão sistemática de 173 trabalhos científicos sobre o tema – acessados em bases de dados, como Web of Science e Scopus – o estudo da EAESP defende a tese de que o processo de gestão de riscos seja cíclico e alinhado aos objetivos da inteligência artificial nas organizações.
Além disso, os autores propõem o emprego de medidas como identificar, categorizar e avaliar os riscos mapeados, considerando a possibilidade de ocorrência de um evento de risco na organização. O passo seguinte consistiria no registro e comunicação dos respectivos impactos às partes interessadas e órgãos de regulação, tendo em vista responder ao esforço de mitigação e constante monitoramento dos resultados.
Para a montagem da estrutura de gestão de risco, o artigo da EAESP sugere a criação de um comitê de risco nas organizações para supervisionar o uso dos sistemas de inteligência artificial e orientar as medidas para a mitigação de impactos. “Ao longo de sua jornada, as organizações devem assumir riscos adequados aos seus objetivos e metas, evitando a superexposição ou a subexposição, potencialmente prejudiciais aos seus negócios”, concluem os autores.