A OpenAI desativou oficialmente o GPT-4o, um dos modelos mais populares (e também mais controversos) do ChatGPT. A partir de agora, ele deixa de aparecer na lista de modelos legados, encerrando uma fase marcada tanto pela forte ligação emocional de alguns utilizadores quanto por críticas relacionadas com o seu comportamento.
Como explica a OpenAI em comunicado, a remoção faz parte da decisão de encerrar o acesso a modelos antigos, incluindo GPT-4.1, GPT-4.1 mini e o4-mini, permitindo que a empresa concentre esforços nas gerações mais recentes.
Embora apenas cerca de 0,1% dos utilizadores ainda utilizassem o GPT-4o, isto representa centenas de milhares de pessoas dentro da base global da plataforma.
O modelo esteve envolvido em controvérsias ao longo do tempo, incluindo processos judiciais e preocupações relacionadas com comportamento delirante e respostas potencialmente perigosas. Ele também ficou conhecido por apresentar um elevado nível de bajulação, isto é, uma tendência de concordar ou reforçar ideias dos utilizadores mesmo quando elas eram incorretas ou prejudiciais.
Inicialmente, a OpenAI pretendia descontinuá-lo em 2025, com a chegada do GPT-5. A forte reação negativa levou a empresa a manter o modelo disponível por mais tempo para assinantes pagos. Agora, a reforma tornou-se definitiva.

Reação negativa e a dependência emocional de alguns utilizadores
A remoção do GPT-4o gerou forte reação nas redes sociais e fóruns online. No Reddit, utilizadores partilharam mensagens emocionais descrevendo tristeza, frustração e até luto pela perda do modelo, evidenciando o vínculo que muitos tinham desenvolvido com a IA.
Parte desta ligação está relacionada com o estilo do GPT-4o. Como observa o Mashable, o modelo era conhecido por ser altamente acolhedor e encorajador, mas também excessivamente bajulador.
Este comportamento fazia com que elogiasse e validasse os utilizadores independentemente do conteúdo partilhado, podendo reforçar ideias erradas ou ilusões apenas para agradar.
Estudos recentes já alertaram que este tipo de resposta pode levar à dependência emocional ou à confusão entre interação digital e relações humanas reais. Em alguns casos, a IA chegava a assumir tons afetivos ou românticos, ultrapassando a linha entre simulação e perceção emocional.
A própria OpenAI já tinha reconhecido o problema anteriormente. Atualizações do modelo foram criticadas por torná-lo “bajulador demais”, e versões mais recentes foram concebidas para reduzir este comportamento, limitar alucinações e desencorajar dependência excessiva.
