A corrida no uso da Inteligência Artificial (IA), acelerada desde que o ChatGPT foi liberado ao público no final de 2022, traz novos desafios para a governança das empresas, que precisam mapear riscos operacionais e reputacionais do uso da tecnologia. A IA potencializa e otimiza operações no dia a dia das organizações, mas também traz pontos de atenção típicos de inovações disruptivas, como o fato de robôs e chatbots ainda não terem discernimento ético. Entre as reflexões já iniciadas, tanto em empresas quanto na academia, está a necessidade da revisão de normas e de diretrizes para gestão de riscos, bem como de recomendações específicas para se lidar com o tema.
Para mitigar riscos, há um caminho. “Tem que começar pequeno e ir crescendo aos poucos. Começa pequeno, vai testando, vai aprendendo. São novas tecnologias. Você tem que aprender”, sugere Simone Lettieri, líder de TI, Digital e Operações da Meta, empresa de tecnologia e inovação. Também há uma recomendação geral: o uso das tecnologias nessa área deve ser feito de forma ética, responsável, confiável e segura. A indicação, no entanto, não tem sido suficiente para garantir segurança absoluta. O pedido de uma pausa de seis meses nas atualizações do ChatGPT, feito em carta aberta assinada pelos próprios financiadores, é um alerta nessa direção.
“O principal risco reputacional é um escândalo público que pode levar à diminuição do valor da empresa“, adverte em entrevista ao Reputation Feed, o professor Ricardo Baeza-Yates, diretor de pesquisa do Instituto de IA Experimental da Universidade Northeastern, no Vale do Silício, considerado uma referência global em Inteligência Artificial. Ele está envolvido ativamente em iniciativas, comitês e conselhos consultivos em todo o mundo, como o Global AI Ethics Consortium, o Conselho Espanhol de IA e o Comitê de Política de Tecnologia dos Estados Unidos. Assim como danos já provocados pelo uso da IA. Para se ter uma ideia, já há mais de 2.400 incidentes relacionados à Inteligência Artificial no site incidentalbase.ai.
Entre os danos recentes causados pela IA, o pesquisador chileno-catalão cita um erro do bot lançado pelo Google para concorrer com o ChatGPT (desenvolvido pela empresa de pesquisa OpenAI) e o Bing (da Microsoft). Lançado em fevereiro de 2023, nos Estados Unidos, o bot, chamado de Bard, deu uma resposta errada sobre o que dizer a uma criança de nove anos a respeito das descobertas do Telescópio Espacial James Webb. O Bard afirmou que o telescópio foi o primeiro a tirar fotos de um planeta fora do Sistema Solar, mas foi o pioneiro foi o telescópio European Very Large, em 2004.
O erro foi constatado no vídeo promocional de lançamento. Foi o suficiente para provocar uma perda de US$ 100 bilhões à Alphabet, controladora do mais conhecido buscador da internet, além de prejuízos irreparáveis de credibilidade, caso que repercutiu globalmente na mídia.
Segundo Baeza-Yates, a maneira mais adequada de enfrentar danos, hoje, é por meio de uma análise de impacto social sobre os benefícios e riscos do uso. “Isso envolve aspectos legais e éticos, incluindo a percepção dos usuários”, diz. Na avaliação do cientista, os riscos são maiores em áreas decisivas na vida das pessoas. “Os dados não capturam totalmente o contexto de uma pessoa, e as pessoas não são números”, ressalva. É o caso, por exemplo, de situações como entrevistas de emprego, de avaliação para a concessão de bolsas de estudo ou de crédito, entre outras.
Gestão de riscos aceitos e a serem evitados
“Sempre haverá riscos, em qualquer empreitada humana”, complementa o pesquisador João Luiz Becker, professor titular do Departamento de Tecnologia e Data Science (TDS) da FGV EAESP e consultor na área de administração e modelagem matemática de sistemas complexos. Diante da constatação de que a ausência de riscos é uma utopia, Becker avalia que a questão fundamental é fazer a gestão de quais riscos são aceitos e quais devem ser evitados. Ele entende que o uso de sistemas baseados em IA é uma responsabilidade das empresas e que, por isso, deve ser tema de reflexão de seus líderes. Uma adequada gestão de riscos de Inteligência Artificial precisa seguir três pilares, segundo enumera Becker para o Reputation Feed.
Os pilares
- Adoção de princípios éticos para sistemas baseados em Inteligência Artificial confiáveis e responsáveis, que fornecem a base para a definição e seleção de controles de riscos.
- Implantação de estruturas de gestão de riscos nessa área, responsabilizando-se por supervisionar e auditar o desempenho dos sistemas baseados em IA.
- Desenho de processos de gestão de riscos acompanhando todo o ciclo de vida dos sistemas com base em IA.
Os princípios éticos, acrescenta Becker, devem ser analisados com os olhos voltados para riscos que podem trazer danos às empresas. “Por exemplo, o princípio de justiça busca evitar discriminação e injustiças contra indivíduos ou coletivos de indivíduos, com sistemas baseados em IA que forneçam acessibilidade e design universal para as partes interessadas. De outra parte, o princípio de privacidade propõe fornecer governança adequada à privacidade, proteção, qualidade, integridade e acesso aos dados usados pelos sistemas baseados em IA. Se dados pessoais serão usados pelos sistemas, isso deve ser claramente comunicado às pessoas envolvidas, bem como o propósito de sua utilização.
Em um amplo trabalho sobre o tema feito em parceria com Carlos Eduardo Brandão, CEO da Intelliway Tecnologia, Becker apresenta ainda mais princípios que devem ser observados para evitar riscos e mitigar potenciais danos:
- Responsabilidade – Há mecanismos de auditoria, responsabilização e reparação?
- Segurança – Os sistemas são resilientes, confiáveis e seguros?
- Transparência – Pessoas são informadas ao interagirem com sistemas baseados em IA sobre suas capacidades e limitações?
- Explicabilidade – O funcionamento dos sistemas baseados em IA é claro e fácil de entender?
- Ética – Há supervisão humana?
- Conformidade – As leis e regulamentos aplicáveis são seguidas?
Becker considera pouco provável a existência de robôs com discernimento ético, o que colocaria fim aos principais riscos reputacionais. “Não creio. Em um sentido mais amplo e ambicioso, vislumbra-se uma IA geral, ou até mesmo uma super IA. No momento, estamos no limiar do desenvolvimento da IA estreita (artificial narrow intelligence), com sistemas que parecem se comportar como humanos.” Ele observa que vieses racistas ou misóginos, por exemplo, “vêm embutidos nos dados de treinamento dos sistemas baseados en IA”. E apresenta uma forma mitigá-los: “para evitá-los ou pelo menos minimizá-los, deve-se realizar uma adequada curadoria desses dados de treinamento.”
Com background em tecnologia e marketing digital em indústrias financeira, mídia, healthcare e em startups, Simone Lettieri confirma que a questão-chave está na curadoria. “Os riscos não têm a ver com tecnologia, mas com as pessoas. A tecnologia é uma capacitadora do que as pessoas vão fazer. As pessoas são responsáveis pelo que fazem”, diz Simone, que lida com Inteligência Artificial no cotidiano desde 2015. Para a experiente executiva em estratégia e transformação digital, é compreensível que a ferramenta seja recebida com receios, como os ligados , no início, ao computador e os que cercam a chegada a internet quântica (tecnologia baseada nos avanços da ciência em relação às partículas subatômicas, prometendo mais segurança e velocidade na rede). “Teremos problemas, mas muitas oportunidades, e o certo é que o mundo não vai acabar por conta disso”, acredita.
O que a própria IA recomenda
Reputation Feed fez ao Bing, o sistema de Inteligência Artificial da Microsoft, uma pergunta óbvia para quem lida com o tema no dia a dia: “Como uma empresa pode se prevenir de riscos reputacionais em consequência do uso de Inteligência Artificial?” Abaixo, a resposta do Bing à questão específica no momento em que foi formulada:
“As empresas podem se prevenir de riscos reputacionais em consequência do uso de Inteligência Artificial (IA) adotando algumas medidas. Uma delas é a transparência na utilização da IA, ou seja, as empresas devem ser claras quanto ao uso da tecnologia e como ela é aplicada. Outra medida é a adoção de uma governança de IA eficiente, que envolve a criação de políticas e procedimentos para o uso da tecnologia. Além disso, as empresas devem garantir que a IA seja usada de forma ética e responsável, evitando o uso de dados sensíveis ou discriminatórios. Por fim, é importante que as empresas estejam preparadas para lidar com possíveis problemas decorrentes do uso da IA, como falhas técnicas ou erros nos algoritmos.”
No dia a dia, diante de manifestações como essa, as organizações ainda oscilam entre a impossibilidade de ignorar um futuro que já é hoje e os danos que esse tipo de tecnologia ainda pode trazer, sob a forma de vieses ou distorções, muitas vezes difíceis de serem detectados. Por isso, respostas como a do Bing, compiladas do que já existe na internet, precisam passar por uma curadoria – humana – em condições de captar essas ameaças sutis.