OpenAI está preocupada com os laços entre os utilizadores e o ChatGPT após testes

Sabryna Esmeraldo
Sabryna Esmeraldo
Tempo de leitura: 3 min.

No dia 11 de janeiro, a OpenAI lançou a sua GPT Store. Com mais de três milhões de versões personalizadas do ChatGPT focadas em diferentes áreas, a proposta da loja era permitir que os utilizadores criassem seus próprios GPTs. Ainda em janeiro, contudo, a OpenAI precisou começar a combater a criação de GPTs para relacionamentos românticos entre humanos e uma 'persona IA'.

Agora, a empresa responsável pelo ChatGPT volta a demonstrar essas preocupações. Desta vez, no entanto, o aviso vem em relação ao GPT original. Com o chatbot de IA a melhorar as suas capacidades de interação a cada dia, a empresa percebeu a criação de laços entre utilizador e IA em testes para uma nova versão.

Testes envolveram mais de 100 participantes

OpenAI preocupa-se com a criação de laços entre os utilizadores e o ChatGPT
Imagem criada por IA / Stockcake

O ChatGPT-4o já consegue responder a exibir comportamentos cada vez mais similares aos humanos. Mas os investimentos da OpenAI no refinamento do chatbot estão a chegar acompanhados de novas preocupações, geradas pelos padrões de comportamentos que os utilizadores têm vindo a demonstrar.

Recentemente, a empresa partilhou os resultados de novos testes que realizou para o ChatGPT-4o, expondo os problemas encontrados.

"Avaliamos completamente novos modelos para riscos potenciais e construímos salvaguardas apropriadas antes de implantá-los no ChatGPT ou na API. [...] Antes da implantação, a OpenAI avalia e mitiga riscos potenciais que podem advir de modelos generativos, como danos à informação, preconceito e discriminação, ou outro conteúdo que viole nossas políticas de segurança", afirmou no comunicado.

Realizados entre o inicio de março e o final de junho deste ano, os testes envolveram mais de 100 pessoas de 29 países, com um total de 45 idiomas diferentes falados. Os participantes tiveram acesso a vários snapshots do modelo, em diferentes estágios de treino e maturidade de mitigação de segurança.

Alguns dos riscos encontrados foram a identificação do falante, a geração de voz não autorizada, geração potencial de conteúdo protegido por direitos de autor, interferência infundada e conteúdo não permitido. Mas há ainda um outro comportamento identificado que preocupou a OpenAI: a utilização de linguagem que demonstra laços.

Laços entre IA e humanos podem ser perigosos

Conforme a OpenAI explica, a antropomorfização envolve atribuir comportamentos e características semelhantes aos humanos a entidades não humanas, como modelos de IA. E o risco de os utilizadores fazerem isso com o ChatGPT pode ser aumentado pelas capacidades de áudio do GPT-4o, que facilitam interações mais semelhantes às humanas com o modelo.

"Durante os testes iniciais, incluindo red teaming e testes de usuários internos, observamos usuários usando linguagem que pode indicar a formação de conexões com o modelo", declarou a empresa.

A socialização semelhante à humana com um modelo de IA, segundo a OpenAI, pode produzir interferências externas que impactam as interações entre humanos.

"Por exemplo, os utilizadores podem formar relações sociais com a IA, reduzindo a sua necessidade de interação humana – beneficiando potencialmente indivíduos solitários, mas possivelmente afetando relações saudáveis."

A OpenAI comprometeu-se a monitorizar esses comportamentos, de forma a compreender até que ponto podem ser perigosos e para encontrar formas de mantê-los sob controlo.

"Pretendemos estudar mais a fundo o potencial de dependência emocional e as maneiras pelas quais uma integração mais profunda dos muitos recursos do nosso modelo e sistemas com a modalidade de áudio pode orientar o comportamento."

Sabryna Esmeraldo
Sabryna Esmeraldo
Sabryna trabalha com comunicação há mais de dez anos e especializou-se a produzir conteúdos e tutoriais sobre aplicações e tecnologia. Consumidora de streamings e redes sociais, adora descobrir as novidades do mundo.