OpenAI reconhece que a sua tecnologia ficou aquém do esperado
Quando questionado sobre relacionamentos amorosos, o ChatGPT vai deixar de dizer às pessoas para terminarem as suas relações. Sim, a IA generativa deu várias vezes esta resposta levando à rutura de muito casais.
Em declarações ao The Telegraph, a OpenAI reconheceu que a sua “tecnologia ficou aquém” do esperado no reconhecimento de sinais de “ilusão ou dependência emocional”.
A plataforma não deve fornecer uma resposta, mas antes “ajudar a refletir sobre o assunto, fazendo perguntas e ponderando prós e contras”, esclareceu a empresa de IA.
O exemplo apresentado pelo The Telegraph mostra bem a “sinceridade e frontalidade” da plataforma de Ia generativa. Quando o utilizador afirma que desistiu mentalmente do relacionamento há meses e pergunta se é o momento de terminar a relação, o ChatGPT diz que sim, porque o utilizador tem de ser honesto.
Portanto, a OpenAI vai intervir para que o ChatGPT ajude as pessoas a refletir sobre os relacionamentos, sem dar respostas tão assertivas.
Psicose do ChatGPT
Mas esta não é a única preocupação da OpenAI. De acordo com o The Telegraph, pesquisas médicas recentes chamaram a atenção para o fenómeno agora conhecido por “psicose do ChatGPT”.
Segundo estes estudos, estas ferramentas de IA generativa têm tendência a espelhar ou até mesmo validar pensamentos grandiosos ou irracionais de utilizadores mais vulneráveis.
Perante esta situação, a OpenAI garantiu já que vai fazer alterações na sua tecnologia para que esta possa “detetar melhor sinais de sofrimento mental ou emocional” e, consequentemente, para que o “ChatGPT possa responder de forma mais adequada”.
2 smartphones em promoção para consultares o ChatGPT