Mais uma grande empresa de tecnologia está treinando modelos de IA com dados de usuários — sem informá-los primeiro. Seguindo os passos da Meta (Facebook, Instagram, WhatsApp e Threads) e do Grok (X), o LinkedIn incluiu usuários automaticamente no treinamento de sua IA, assim como em modelos de “afiliados” não identificados.
O LinkedIn pertence à Microsoft, que também detém uma grande participação na OpenAI, desenvolvedora do ChatGPT. Apesar da conexão, o LinkedIn esclareceu que os dados dos usuários não serão utilizados para treinar os modelos básicos da OpenAI, mas serão compartilhados com a Microsoft para seus próprios softwares de IA.
Leia também
De acordo com a rede social: “Os modelos de inteligência artificial que o LinkedIn usa para alimentar recursos de IA generativa podem ser treinados pelo LinkedIn ou por outro provedor. Por exemplo, alguns dos nossos modelos são fornecidos pelo serviço Azure OpenAI da Microsoft.”
O porta-voz Greg Snapper acrescentou: “Utilizamos os modelos da OpenAI disponibilizados pelo Azure AI Service da Microsoft como outros clientes ou usuários desse serviço de API. E quando usamos os modelos disponibilizados por esse serviço, não enviamos dados de volta à OpenAI para que eles treinem seus modelos.”
“Quando o LinkedIn treina modelos de IA generativa, buscamos minimizar informações pessoais nos conjuntos de dados usados para treinar os modelos, inclusive usando tecnologias de aprimoramento de privacidade para redigir ou remover dados pessoais do conjunto de treinamento.”
A plataforma acrescentou que não está treinando “modelos de IA geradores de conteúdo” com dados da UE, EEE ou Suíça. A EEE é a Área Econômica Europeia, que inclui todos os 27 membros da União Europeia, além da Islândia, Liechtenstein e Noruega.
Como desativar?
Se você está em um país onde o LinkedIn começou a usar seus dados para treinar IA, é fácil desativar a função. Vá para a seção de privacidade de dados nas configurações e desative a opção “Usar meus dados para treinar modelos de IA de criação de conteúdo”.
No entanto, ativistas da privacidade continuam preocupados com a decisão do LinkedIn de incluir os usuários automaticamente no treinamento de múltiplos modelos de IA. Mariano delli Santi, diretor jurídico e de políticas da Open Rights Group, uma organização sem fins lucrativos de defesa da privacidade com sede no Reino Unido, disse à Forbes: “O modelo de opt-out mais uma vez se prova totalmente inadequado para proteger nossos direitos. O público não pode se responsabilizar por monitorar e fiscalizar cada empresa online que decide usar seus dados para treinar IA. O consentimento opt-in não é apenas um requisito legal, mas uma necessidade de bom senso.”
Ele pediu que o órgão regulador de privacidade do Reino Unido “tome medidas urgentes contra o LinkedIn e outras empresas que pensam estar acima da lei.”