
Sabemos que os chatbots de inteligência artificial têm sido utilizados para diversas tarefas que, idealmente, exigiriam a consulta de um profissional especializado, como médicos, advogados, entre outros. À medida que os utilizadores recorrem às IAs para pedidos cada vez mais específicos, é provável que acabem também por partilhar mais informações pessoais, preferências e gostos com os chatbots. No entanto, é preciso ter cuidado com isso se quiseres manter a tua privacidade.
Recentemente, a Meta anunciou que vai começar a utilizar os dados recolhidos nas interações com os utilizadores através do Meta AI para apresentar anúncios direcionados nas suas plataformas.
A partir de 16 de dezembro, os serviços de IA da big tech irão usar as informações partilhadas para vender anúncios segmentados a utilizadores específicos. A medida será aplicada tanto em chats de voz e mensagens de texto que utilizam o Meta AI como noutros serviços de inteligência artificial da empresa.
“Esta atualização vai ajudar-nos a melhorar as recomendações que oferecemos às pessoas nas nossas plataformas, para que tenham mais probabilidade de ver conteúdo em que realmente estão interessadas — e menos conteúdo que não seja do seu interesse.”
- Meta.
Assim, se conversares com as ferramentas de IA da Meta sobre caminhadas, por exemplo, a empresa passará a reconhecer o teu interesse pelo tema e poderá apresentar recomendações relacionadas, como anúncios de ténis para caminhada.
Por outro lado, a Meta garante que não utilizará informações partilhadas com as suas IAs sobre temas como “crenças religiosas, orientação sexual, opiniões políticas, saúde, origem racial ou étnica, convicções filosóficas ou filiação sindical” para segmentar anúncios.
Este é um alerta para redobrares a atenção na tua relação com a IA da Meta, especialmente se valorizas a tua privacidade digital e não queres ver os temas mencionados ao chatbot a serem usados em publicidades, recomendações ou outras publicações.
Apesar da mudança, os utilizadores continuarão a poder controlar as preferências de anúncios e personalizar os conteúdos exibidos nas plataformas da empresa, incluindo a opção de impedir que atividades em sites ou aplicações fora da rede social sejam usadas para exibir publicidades.
Por mais que as big techs afirmem que as suas IAs respeitam a privacidade dos utilizadores, sabemos que estas tecnologias estão sujeitas a falhas. Como noticiado pelo 4gnews, uma vulnerabilidade (já corrigida) do ChatGPT chegou a expor publicamente dados íntimos dos utilizadores.