
São cada vez mais as pessoas que usam chatbots de Inteligência Artificial (IA), como o Chat GPT, para falar. Em teoria, quanto mais falas com uma plataforma de IA, mais inteligente ela fica ou, pelo menos, mais aprende sobre o tema da conversa e melhor te conhece.
Na prática, não é bem assim. Quem o refere é a própria Microsoft, através de um estudo que realizou com a Salesforce. Esta analisou cerca de 200.000 conversas, a partir de inúmeros modelos. Entre estes, o GPT-4.1, o Gemini 2.5 Pro e o DeepSeek R1, por exemplo.
O que conclui o estudo?
O estudo em questão mostra-nos que estes sistemas de IA tendem a “perder-se na conversa”, principalmente quando o utilizador tem conversas naturais, misturadas com outras interações dispersas (via Windows Central). Ou seja, quando falas com a IA como se falasses com um amigo, de forma natural.
A pesquisa da Microsoft dá-nos ainda números, para ajudar à compreensão dos dados. Desde logo, começa por referir que, para perguntas simples, a taxa de sucesso ronda os 90%. No entanto, o desempenho tende a baixar para os 65%, durante conversas mais longas.
Outro dado interessante que o estudo analisa tem a ver com o comprimento das respostas. Foi possível determinar que as respostas ficam até 300% mais longas, quando envolvem múltiplas interações numa só pergunta/conversa.
Assim, havendo mais palavras por resposta, abre-se também um espaço maior a eventuais falsas suposições e alucinações. A pesquisa sugere que isto acontece com os principais modelos de IA, presentes nos chatbots mais populares da atualidade.
Este é sem dúvida um ponto onde a IA ainda tem claro espaço de melhoria. Não só pelo facto da IA estar muitas vezes no centro de grande parte das novidades tecnológicas da atualidade, mas também porque os utilizadores veem cada vez mais um assistente pessoal, nos chatbots.
Prova disso é outro estudo anterior da Microsoft, que nos diz que milhões de pessoas já usam a IA como ajudante no trabalho de dia e confidente pessoal à noite (via Público).
