Microsoft, Google e OpenAI unidas para Inteligência Artificial responsável

Mónica Marques
Mónica Marques
Tempo de leitura: 2 min.

A Casa Branca deu o mote e Microsoft, Google e OpenAI vão unir esforços para o desenvolvimento responsável de Inteligência Artificial.

As três empresas vão aceitar que as suas plataformas sejam analisadas por especialistas independentes para garantir a segurança, proteção e responsabilidade social.

Empresas de IA reconhecem problemas originados pelo rápido desenvolvimento da tecnologia

imagem de uma silhueta robótica
A administração norte-americana tem vindo a apelar para um desenvolvimento responsável da Inteligência Artificial Crédito@GerdAltmann/Pixabay

Várias entidades governamentais têm mostrado alguma preocupação e apelado ao desenvolvimento responsável de Inteligência Artificial. Recentemente, a União Europeia enviou uma comitiva para a Ásia para tentar negociar regulamentação semelhante à que já existe na Europa para o desenvolvimento desta tecnologia.

Também a administração norte-americana de Joe Biden tem impulsionado as empresas tecnológicas do seu país a garantir que esta tecnologia beneficia a sociedade, sem comprometer a “segurança, direitos ou valores democráticos”.

Tanto o presidente Joe Biden como a vice-presidente Kamala Harris têm vindo a falar com os líderes desta nova área para impulsionar o desenvolvimento responsável de Inteligência Artificial. E parece que os seus esforços começam a dar resultados.

De acordo com a agência noticiosa Bloomberg, Microsoft, Google e OpenAI preparam-se para concordar com um conjunto de medidas práticas que garantem este desenvolvimento. Por exemplo, as empresas vão permitir que especialistas independentes analisem os seus modelos de Inteligência Artificial no que diz respeito a comportamentos indesejados, segurança cibernética e vulnerabilidades.

Já para lidar com os riscos sociais – preconceitos –, as empresas vão pesquisas e analisar minuciosamente as implicações envolvidas. Vão também partilhar informações e medidas de segurança entre si e com o próprio governo. Tudo em nome de uma abordagem colaborativa e segura para o desenvolvimento responsável de Inteligência Artificial.

Também podem ser adotadas medidas mais práticas e visíveis para os utilizadores. Por exemplo, o conteúdo visual e áudio, gerado por IA, pode passar a ter marca d’água para evitar um uso indevido ou desinformação.

Dizem os especialistas que a natureza voluntária deste acordo é um bom exemplo das dificuldades enfrentadas pelos legisladores para acompanhar o rápido desenvolvimento de Inteligência Artificial. E são cada vez mais entidades governamentais a envolverem-se num processo complexo e com um ritmo bastante acelerado.

Editores 4gnews recomendam:

Mónica Marques
Mónica Marques
Ao longo de mais de 20 anos de carreira na área da comunicação assistiu à chegada do 3G e outros eventos igualmente inovadores no mundo hi-tech. Em 2020 juntou-se à equipa do 4gnews. monicamarques@4gnews.pt