O ChatGPT está passando por mudanças importantes em sua forma de lidar com usuários em sofrimento emocional. A OpenAI, empresa por trás da inteligência, anunciou nesta semana novos recursos voltados à detecção e resposta adequada a sinais de angústia mental, delírio e uso excessivo da plataforma.
Segundo a Open, o desenvolvimento das novas funcionalidades foram motivadas por situações em que o modelo, especialmente o GPT-4o, falhou ao reconhecer sinais de delírio ou dependência emocional, acabando por reforçar pensamentos prejudiciais em vez de oferecer suporte baseado em evidências.
Embora esses casos sejam considerados raros, a empresa afirma que está aprimorando os algoritmos e desenvolvendo ferramentas específicas para identificar sinais de sofrimento emocional nos usuários.
Leia mais:
Entre os ajustes, está a reformulação da forma como o ChatGPT lida com questões pessoais delicadas. Em vez de dar respostas definitivas sobre temas como “devo terminar meu relacionamento?” ou “o que devo fazer com minha vida?”, o chatbot agora será treinado para ajudar o usuário a refletir sobre a situação, indicando perguntas e orientações que levem a um pensamento mais claro e autônomo, sem assumir o papel de conselheiro.
Regulação da IA em debate
O anúncio reestimulou o debate sobre a necessidade de regulamentação da inteligência artificial, especialmente em áreas sensíveis como saúde mental, aconselhamento e comportamento humano. Enquanto empresas como Google já assinaram o Código de Conduta de IA da União Europeia, nos Estados Unidos o cenário ainda é instável. Um projeto de lei recente tenta impedir que estados adotem regulações próprias, concentrando o controle em nível federal.
Para especialistas, o avanço da IA é impressionante, mas a velocidade do desenvolvimento pode estar ultrapassando nossa capacidade de compreender seus riscos reais. As novas medidas da OpenAI sinalizam um esforço positivo, mas também um alerta: a IA, por mais avançada que seja, ainda precisa de limites — e de supervisão humana.