Quando se fala em Inteligência Artificial (IA), o normal é que nos lembramos da gigante Open AI, criadora do Chat GPT. Posto isto, pode surgir a pergunta: como funciona um sistema destes? O mais curioso é que nem a própria empresa sabe.
Aparentemente, estamos todos em pé de igualdade, no que toca à tentativa de compreender o mecanismo exato de funcionamento da IA. Tanto assim é que o próprio CEO da empresa, Sam Altman, refere que “não [resolveram] a interpretabilidade” (via Futurism).
Altman refere não saber as decisões tomadas para chegar às respostas
As declarações de Altman foram proferidas durante um grande evento na Suíça, que aconteceu na semana passada. Neste, o CEO da Open AI terá sido várias vezes questionado sobre como os modelos de linguagem grande (LLM) funcionam.
Nesse sentido, Altman referiu que a empresa não sabe como é que alguns resultados imprecisos são atribuídos. O próprio vai mais longe e acrescenta não saber algumas das decisões tomadas para chegar às respostas.
Face a este desconhecimento, seguiu-se uma pergunta lógica: porquê continuar com o lançamento de novos modelos? Segundo a mesma fonte, o CEO da empresa mostrou alguma perplexidade com a pergunta e assegurou que a IA da Open AI é segura.
O problema associado a isto é que a maioria dos responsáveis por sistemas de IA também não percebem como é que a IA funciona. Pode parecer algo bizarro, até porque esta tem mão humana, mas a verdade é que é isso que acontece.
Um estudo britânico conclui que este desconhecimento das empresas de IA é geral
Quem o concluiu foi um conjunto de 75 especialistas que fizeram um estudo relacionado com o governo do Reino Unidos. Estes adiantaram que o conhecimento é “muito limitado”, pelo que a compreensão dos sistemas de IA é praticamente inexistente.
Segundo a Futurism, pode ler-se no relatório que “as técnicas de explicação e interpretabilidade do modelo podem melhorar a compreensão dos pesquisadores e desenvolvedores sobre como funcionam os sistemas de IA de uso geral, mas esta pesquisa é incipiente”.
A indústria reconhece, de um modo geral, este problema, no entanto há quem esteja a tentar resolvê-lo. Um exemplo disso é a Anthropic, que refere ter feito um investimento avultado em pesquisas relacionadas com a interpretabilidade do funcionamento de IA.
Ainda assim, a própria empresa assegura que este trabalho está a começar, pelo que não é de esperar ter resultados para já. De qualquer forma, é expectável que um amplo conhecimento dos modelos de IA torne os seus recursos mais seguros.
Quanto à Open AI, ficou claro, através das palavras de Altman, que ainda não há ideia de como os produtos funcionam. Ainda assim, o próprio refere que quanto mais conhecimento melhor, pelo que não é de descartar que a Open AI faça um investimento forte para tentar interpretar a sua própria IA.