No dia 11 de janeiro, a OpenAI lançou a sua GPT Store. Com mais de três milhões de versões personalizadas do ChatGPT focadas em diferentes áreas, a proposta da loja era permitir que os utilizadores criassem seus próprios GPTs. Ainda em janeiro, contudo, a OpenAI precisou começar a combater a criação de GPTs para relacionamentos românticos entre humanos e uma 'persona IA'.
Agora, a empresa responsável pelo ChatGPT volta a demonstrar essas preocupações. Desta vez, no entanto, o aviso vem em relação ao GPT original. Com o chatbot de IA a melhorar as suas capacidades de interação a cada dia, a empresa percebeu a criação de laços entre utilizador e IA em testes para uma nova versão.
Testes envolveram mais de 100 participantes
O ChatGPT-4o já consegue responder a exibir comportamentos cada vez mais similares aos humanos. Mas os investimentos da OpenAI no refinamento do chatbot estão a chegar acompanhados de novas preocupações, geradas pelos padrões de comportamentos que os utilizadores têm vindo a demonstrar.
Recentemente, a empresa partilhou os resultados de novos testes que realizou para o ChatGPT-4o, expondo os problemas encontrados.
"Avaliamos completamente novos modelos para riscos potenciais e construímos salvaguardas apropriadas antes de implantá-los no ChatGPT ou na API. [...] Antes da implantação, a OpenAI avalia e mitiga riscos potenciais que podem advir de modelos generativos, como danos à informação, preconceito e discriminação, ou outro conteúdo que viole nossas políticas de segurança", afirmou no comunicado.
Realizados entre o inicio de março e o final de junho deste ano, os testes envolveram mais de 100 pessoas de 29 países, com um total de 45 idiomas diferentes falados. Os participantes tiveram acesso a vários snapshots do modelo, em diferentes estágios de treino e maturidade de mitigação de segurança.
Alguns dos riscos encontrados foram a identificação do falante, a geração de voz não autorizada, geração potencial de conteúdo protegido por direitos de autor, interferência infundada e conteúdo não permitido. Mas há ainda um outro comportamento identificado que preocupou a OpenAI: a utilização de linguagem que demonstra laços.
Laços entre IA e humanos podem ser perigosos
Conforme a OpenAI explica, a antropomorfização envolve atribuir comportamentos e características semelhantes aos humanos a entidades não humanas, como modelos de IA. E o risco de os utilizadores fazerem isso com o ChatGPT pode ser aumentado pelas capacidades de áudio do GPT-4o, que facilitam interações mais semelhantes às humanas com o modelo.
"Durante os testes iniciais, incluindo red teaming e testes de usuários internos, observamos usuários usando linguagem que pode indicar a formação de conexões com o modelo", declarou a empresa.
A socialização semelhante à humana com um modelo de IA, segundo a OpenAI, pode produzir interferências externas que impactam as interações entre humanos.
"Por exemplo, os utilizadores podem formar relações sociais com a IA, reduzindo a sua necessidade de interação humana – beneficiando potencialmente indivíduos solitários, mas possivelmente afetando relações saudáveis."
A OpenAI comprometeu-se a monitorizar esses comportamentos, de forma a compreender até que ponto podem ser perigosos e para encontrar formas de mantê-los sob controlo.
"Pretendemos estudar mais a fundo o potencial de dependência emocional e as maneiras pelas quais uma integração mais profunda dos muitos recursos do nosso modelo e sistemas com a modalidade de áudio pode orientar o comportamento."