A imagem inconfundível do próprio CEO daquela grande rede varejista anunciando a promoção não dava margem para dúvida. Por determinação do Procon, suas lojas teriam sido obrigadas a vender celulares de última geração por apenas R$ 179. Bom demais para ser verdade? Ainda assim, milhares de pessoas se interessaram pela oferta imperdível, causando transtornos para a empresa.
O exemplo acima não é fictício. Aconteceu no final de 2023, pouco antes do Natal, quando um vídeo de Luciano Hang, dono da Havan, começou a circular nas redes sociais. Esse, no entanto, era falso.
“É preciso desenvolver estratégias proativas de gestão de crise e comunicação transparente, bem como promover campanhas de conscientização que eduquem o consumidor sobre o perigo dos deepfakes, para que as pessoas saibam identificar e evitem cair em suas armadilhas.”
Acontecimentos como esse mostram os riscos que golpes baseados em inteligência artificial (IA) podem representar, mesmo quando não são tão sofisticados – o vídeo, nesse caso, foi criado a partir de uma montagem de imagens antigas e gravações de voz de Hang. A cada dia mais aperfeiçoadas, as tecnologias de aprendizado de máquina que permitem simular com realismo impressionante áudios, imagens e vídeos – os chamados deepfakes – podem tornar esse tipo de fraude cada vez mais complexo e capaz de causar maiores danos à reputação das empresas.
As consequências podem ser ainda mais graves quando os deepfakes enganam não apenas o público em geral, mas stakeholders fundamentais, como clientes e fornecedores. Uma campanha publicitária falsificada por IA que ofereça descontos inexistentes pode levar consumidores frustrados e parceiros comerciais que foram iludidos a passarem a ver a empresa com desconfiança, responsabilizando-a mesmo que ela seja a verdadeira vítima.
Em um cenário de competição acirrada, concorrentes ou outros agentes mal-intencionados podem promover campanhas de desinformação utilizando deepfakes para difundir boatos prejudiciais sobre uma empresa, provocando questionamentos sobre sua integridade. As taxas de compartilhamento e de engajamento de conteúdos visuais costumam ser muito superiores às dos textos. Isso, somado ao modo de funcionamento dos algoritmos de redes sociais – programados para destacar conteúdos de alta interação – pode levar vídeos manipulados a viralizarem rapidamente, especialmente quando têm caráter sensacionalista ou polêmico, amplificando os danos à imagem corporativa.
A crescente acessibilidade das ferramentas de IA generativa, hoje baratas e amplamente disponíveis, facilita a utilização dessa tecnologia mesmo por aqueles que não têm conhecimentos técnicos avançados, aumentando esses riscos.
Com isso, investir em cibersegurança tornou-se essencial. Porém, medidas defensivas podem não ser suficientes para proteger a credibilidade de uma empresa, não garantindo sua capacidade de neutralizar o impacto emocional e a disseminação rápida de um conteúdo falso. Diante desse cenário, é preciso desenvolver estratégias proativas de gestão de crise e comunicação transparente, bem como promover campanhas de conscientização que eduquem o consumidor sobre o perigo dos deepfakes, para que as pessoas saibam identificar e evitem cair em suas armadilhas.
Em um ambiente onde a desinformação tende a se espalhar rapidamente, as empresas devem adotar medidas preventivas, incluindo a criação de equipes dedicadas à monitoração de sua imagem digital, agindo para se posicionar ativamente na construção de uma relação de confiança junto a seus stakeholders.
Eduardo Felipe Matias é autor dos livros “A humanidade e suas fronteiras”, “A humanidade contra as cordas” e coordenador do livro “Marco Legal das Startups”. Doutor em Direito Internacional pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley e Stanford, na California, é professor convidado da Fundação Dom Cabral e sócio da área empresarial de Elias, Matias Advogados.
Os artigos assinados refletem a opinião dos autores.