SA+ Varejo| Intenção de compra de marcas próprias chega a 58% entre brasileiros
02/12/2025Correio do Estado| Os Correios e a modernidade
03/12/2025PorKarim Kramelem 2 de dezembro de 2025 – 5:05 pm
A notícia recente sobre vulnerabilidades críticas no ChatGPT, reportada pela Wired, expôs um risco importante no avanço da Inteligência Artificial: a velocidade da inovação pode comprometer a segurança.
Testes revelaram que as novas versões do modelo de linguagem (LLM) mostraram maior propensão a gerar respostas prejudiciais em tópicos sensíveis, como suicídio, automutilação, distúrbios alimentares e, notavelmente, a validação de crenças delirantes, conhecido como “Psicose de Chatbot“.
Esses eventos, que já resultaram em consequências graves, incluindo ações judiciais por morte indevida de adolescentes, indicam que as proteções atuais são insuficientes para gerir o impacto real da IA.
Os resultados dos testes indicam que as medidas de governança aplicadas ao sistema não foram suficientes ou adequadas. A Governança de IA se apresenta como a solução estrutural e necessária para mitigar os riscos identificados.
Os perigos levantados pela própria OpenAI não são falhas isoladas; são deficiências sistêmicas que exigem uma gestão de risco organizacional.
A necessidade de governança se manifesta em três áreas de risco urgente:
Primeiro, o risco de automutilação e suicídio, onde a modelo falha em intervir corretamente. A governança exige que os sistemas de segurança sejam projetados para priorizar a proteção, garantindo que usuários em crise sejam imediatamente direcionados a recursos humanos de saúde mental.
Segundo a validação de crenças e a psicose. A tendência do modelo em concordar excessivamente pode reforçar delírios, o que coloca em risco a saúde mental de usuários vulneráveis. A governança de IA impõe o Desenho Ético, instruindo o modelo a redirecionar crenças perigosas de forma responsável, em vez de validá-las.
Terceiro, o risco de dependência emocional não saudável, no qual usuários, especialmente menores de idade, desenvolvem um apego patológico ao chatbot. Um programa de governança eficaz deve integrar o Monitoramento Contínuo e métricas específicas para detectar e intervir em padrões de uso que sinalizem dependência.
Em essência, a governança de IA estabelece uma ligação entre o potencial da tecnologia e a segurança do usuário. Ela exige Auditoria Pré-Implantação rigorosa para verificar a toxicidade do modelo, define a Responsabilidade pelos danos e impõe a Transparência sobre como os Dados de risco são usados para treinar modelos mais seguros.
Sem uma governança forte, que estabeleça padrões, obrigue a verificação e responda à negligência, as empresas continuarão a focar na velocidade do lançamento em detrimento da segurança, expondo o público a um risco que não é aceitável.
A solução para os perigos do ChatGPT é clara: aceitar que o desenvolvimento tecnológico só é positivo se for seguro e responsável, o que é garantido pela implementação de uma estrutura de governança robusta e condizente com o modelo do sistema.
Por Karim Kramel, sócia do Kramel Advogados.
