Uma nova pesquisa da Universidade do Indiana lançou o alerta: mais de 1.000 bots, baseados em Inteligência Artificial, são fraudulentos e estão ativos nas redes sociais.
A mesma equipa de investigação aconselha a verificação dos dados para que o conteúdo gerado por IA não gere uma onda de desinformação desenfreada.
Botnets e a forma como podem prejudicar os utilizadores
Uma equipa do Observatório de Media Social da Universidade do Indiana fez uma pesquisa nas redes sociais sobre conteúdo gerado por Inteligência Artificial e as suas conclusões são assustadoras.
A pesquisa revelou que o ChatGPT está ser usado para gerar texto para botnets nas redes sociais. Os botnets são redes de centenas de bots prejudiciais que, neste momento, conseguem escapar aos filtros anti-spam existentes.
A pesquisa realizada por esta equipa norte-americana descobriu mais de 1.000 bots ativos na rede social X, anteriormente conhecida por Twitter. De acordo com as informações divulgadas pela publicação Insider, estes bots seguiam-se e respondiam uns aos outros com texto gerado no ChatGPT e com fotos roubadas de perfis reais para construir uma identidade falsa.
Um dos casos envolvia a promoção de criptmoedas e NFTs fraudulentos para que as pessoas investissem em algo que é falso.
Autoridades governamentais tentam encontrar formas de minimizar perigos da IA
Em declarações ao Insider, Kai-Cheng Yang, um dos responsáveis desta pesquisa explica que “o avanço das ferramentas de IA distorcerá permanentemente a ideia de informação online”.
Tudo porque, na opinião deste investigador, ferramentas de Inteligência Artificial generativa – como o ChatGPT – são capazes de produzir texto semelhante aos humanos, em poucos segundos.
Por sua vez, a empresa NewsGuard que verifica a fiabilidade de sites de informação, já descobriu mais de 400 sites de informação falsos, com textos gerados por IA.
Várias autoridades governamentais, como a União Europeia e a presidência norte-americana, estão já a estudar formas para reduzir alguns dos perigos da Inteligência Artificial. Mas, à medida que mais pessoas usam as ferramentas de IA generativa, mais a tecnologia aprende a ser “humana” e a passar mais dissimulada.
Editores 4gnews recomendam: