A OpenAI, responsável pelo ChatGPT, está a desenvolver uma ferramenta para detetar imagens geradas por inteligência artificial com um alto grau de precisão. A passar por testes internos antes de chegar a público, a ferramenta já se mostra "99% confiável".
A informação foi revelada por Mira Murati, diretora de tecnologia do ChatGPT e do gerador de imagens DALL-E, durante a conferência Tech Live do Wall Street Journal em Laguna Beach, Califórnia. Esse anúncio foi relevado ao lado do CEO da OpenAI, Sam Altman, conforme noticiou a Bloomberg.
Os progressos da OpenAI
Pelo rápido crescimento das plataformas de IA generativa, a necessidade de ferramentas de deteção também aumenta. Para identificar notícias falsas e conteúdos que violam direitos de autor, várias plataformas estão a tentar desenvolver formas de detetar o uso de IA.
A própria OpenAI chegou a lançar em janeiro uma ferramenta para identificar conteúdos em texto criados por IA, mas o recurso mostrou-se impreciso e foi arquivado em julho. A empresa afirmou estar a trabalhar na melhoria desse software.
A criação de uma ferramenta para identificar imagens criadas por IA que já se mostra 99% confiável em seus testes internos, representa um grande avanço para a empresa. O cronograma de lançamento público não foi divulgado.
Durante a conferência, os executivos da OpenAI também deram dicas sobre o modelo de IA que seguirá o GPT-4 e as possíveis melhorias. Em julho, a startup entrou com um pedido de marca registrada "GPT-5" no Escritório de Marcas e Patentes dos Estados Unidos.
Quando questionada sobre a possibilidade de o GPT-5 não gerar mais as chamadas "alucinações" (informações inventadas que os modelos anteriores estavam propensos a oferecer), Murati declarou um enigmático "Talvez".
"Vamos ver. Fizemos muito progresso na questão das 'alucinações' com o GPT-4, mas não estamos onde precisamos estar”, afirmou ela.
Editores 4gnews recomendam: