SBT Brasil| STF declara inconstitucional lei que limitava serviço de mototáxi em SP
12/11/2025Crypto ID| Chatbots de IA Generativa diante de informações falsas
14/11/2025Por Karim Kramel
14 de novembro de 2025
A crescente disseminação da Inteligência Artificial (IA) generativa despertou no setor corporativo a ambiciosa perspectiva de uma importante reformulação no relacionamento com o cliente sem a necessidade de alto investimento financeiro. A visão era de chatbots capazes de oferecer um serviço não apenas eficiente, mas profundamente personalizado e humanizado, superando as limitações dos sistemas automatizados tradicionais. Contudo, pesquisas recentes, como a monitoramento da NewsGuard, acendem um alerta vermelho, demonstrando que essa promessa está longe de ser cumprida e que os riscos associados podem superar os benefícios.
A ideia que cativou o mercado é de se desenvolver um assistente virtual que compreende as nuances da linguagem humana, antecipa as necessidades do cliente e oferece soluções personalizadas em tempo real.
As empresas investiram massivamente na tecnologia, vislumbrando uma redução de custos operacionais aliada a um salto na satisfação do consumidor. A promessa era o fim das respostas robóticas e a inauguração de uma era de interações fluidas e empáticas, disponíveis 24/7.
No entanto, a realidade tem-se mostrado mais complexa. O relatório da NewsGuard revela uma tendência preocupante: na ânsia de tornar os chatbots mais ágeis e informados, integrando-os a pesquisas na web em tempo real, a sua propensão para disseminar informações falsas quase duplicou. Os dados indicam que estes sistemas avançados acabam por ecoar narrativas falsas em mais de um terço das vezes. O que se observa é um “tradeoff estrutural”: ao diminuir a taxa de recusa em responder, os modelos de IA tornaram-se mais suscetíveis a reproduzir a desinformação que encontram online, incluindo propaganda e falsidades. A busca por uma interação mais “humana” e ágil abriu uma perigosa porta para a imprecisão.
Os riscos para uma empresa que utiliza um chatbot com IA mal governado são imensos e multifacetados. Primeiramente, há o dano direto à reputação. Um cliente que recebe uma informação falsa sobre um produto, serviço ou política da empresa perde a confiança na marca, um ativo inestimável e de difícil recuperação. Imagine um chatbot informando erroneamente sobre os termos de uma garantia, os ingredientes de um produto ou os detalhes de uma apólice de seguro. As consequências podem ir desde a insatisfação do cliente até implicações legais e financeiras graves.
Além disso, a propagação de informações falsas pode levar a crises de relações públicas, especialmente se o erro for amplamente divulgado nas redes sociais. A empresa pode ser acusada de publicidade enganosa ou negligência, enfrentando processos judiciais e sanções regulatórias. O chatbot, em vez de um ativo, transforma-se num passivo de alto risco, minando a credibilidade da organização a cada interação falha.
Felizmente, estes riscos podem ser minimizados através de uma robusta governança de IA. A solução não passa por abandonar a tecnologia, mas por implementá-la de forma responsável. O primeiro passo é a curadoria de dados. As empresas devem garantir que os seus modelos de IA são treinados e alimentados com informações de fontes seguras, verificadas e internas, em vez de dependerem exclusivamente da web aberta e não filtrada.
A implementação de mecanismos de supervisão humana é igualmente crucial. Devem existir processos para que as interações do chatbot sejam auditadas regularmente e para que os clientes possam escalar facilmente para um atendente humano quando a IA falha ou fornece respostas duvidosas.
Transparência é outra chave: os utilizadores devem ser informados de que estão a interagir com uma IA, e os limites da sua capacidade devem ser claros.
Karim Kramel, sócia do Kramel Advogados.
