A União Europeia aprovou, na quarta-feira, 14, a Lei que regula as práticas relacionadas à inteligência artificial no bloco. Foram 499 votos a favor, 28 contra e 93 abstenções. A proposta inicial foi aprovada na Comissão Europeia em 21 de abril. “As regras visam promover a adoção de IA centrada no ser humano e confiável e proteger a saúde, a segurança, os direitos fundamentais e a democracia de seus efeitos prejudiciais”, disse o Parlamento Europeu, em comunicado.
A regulação de práticas relacionadas à IA tem sido um tema constante em vários países, inclusive no Brasil. “Esse movimento que aconteceu na Europa é bastante sintomático. O surgimento da inteligência artificial generativa de larga escala e a rápida adoção desse tipo de solução por várias empresas do mundo acontece em busca de economia, eficiência e, muitas vezes, para manter sua competitividade perante os outros”, diz Fernando Moulin, partner da Sponsorb, professor e especialista em negócios e transformação digital.
Leia também:
– 6 mitos e verdades sobre IA e ChatGPT na legislação brasileira
A Europa, tradicionalmente, tem um papel avançado em termos de proteção do uso de dados. Foi a região que legislou primeiro, sobre a proteção do dado individual, com a lei equivalente à Lei Geral de Proteção de Dados (LGPD) no Brasil. “Grande parte dos líderes civis e as pessoas estão se questionando sobre o potencial impacto (seja positivo ou negativo) dessas soluções no futuro do trabalho, nas transformações sociais, na divulgação de fake news e de deep fake. Em todos os países do mundo, seja em maior ou menor grau, à exceção da China, há discussões sobre quais são os limites toleráveis nesse momento, além do uso consciente e adequado das soluções de inteligência artificial”, completa Fernando Moulin.
No Brasil, o projeto de Lei 2.338/2023 propõe a regulamentação da IA com o “objetivo de proteger direitos fundamentais das pessoas humanas”. São destaques a necessidade de informação prévia sobre as interações com sistemas de IA, a explicação das decisões tomadas por eles e a proibição da discriminação e de comportamentos perigosos. “O ponto que mais preocupa os empresários é a responsabilidade civil, visto que o PL traz possibilidade de aplicação de multas altas e até proibição do uso de IA e, o que é ainda mais crítico, não há definição da autoridade responsável pela fiscalização e consequente aplicação dessas sanções de modo que, para o sucesso da lei, é essencial que os critérios de fiscalização sejam muito bem definidos e que haja respeito e coerência por parte da agência reguladora. Esse tipo de regulamentação é impreterível, não há como lutar contra, e precisará ser colocada em prática o mais rápido possível”, explica Gabriela Schirmer, sócia-fundadora do Perroni Sanvicente & Schirmer Advogados.
Itália contra o ChatGPT
Em março, a Itália foi o primeiro país a proibir o ChatGPT. De acordo com o regulador que garante a proteção de dados dos italianos, a plataforma aparenta ser um grande risco para a privacidade dos usuários, podendo até mesmo divulgar informações pessoais em relação a pagamentos na internet. O GDPR, que representa a principal Lei de Dados e Privacidade da Europa, define a maneira como usar, processar e armazenar os dados pessoais e, além de bloquear o chatbot, abriu uma investigação se a plataforma cumpre o Regulamento Geral de Proteção de Dados. O ChatGPT voltou a funcionar no país em abril.
Leia também:
- 5 bilionários da tecnologia que só falam de inteligência artificial
- Os 15 maiores riscos da inteligência artificial
- A IA deixará os seres humanos inúteis?
A proibição ocorreu por conta de dois fatores: o ChatGPT não tem autorização para a coleta de dados pessoais dos usuários, mesmo que seja somente para aprimorar o chatbot; e pela exposição de usuários menores de idade, já que o software não possui métodos de verificação de idade.
A investigação italiana acendeu um alerta para os outros órgãos reguladores de proteção de dados da União Europeia. O grupo de defesa do consumidor BEUC também pediu às autoridades nacionais e da UE que realizem investigações sobre o ChatGPT e chatbots semelhantes, após a apresentação de uma reclamação nos EUA. De acordo com o provedor de classificações de segurança cibernética Security Scorecard, Dan Morgan, a proibição mostra a importância da conformidade regulatória para empresas que operam na Europa.
Carta aberta contra a IA
Também em março, repercutiu na internet a notícia de que mais de 1300 cientistas, empresários de tecnologia e representantes do meio acadêmico assinaram uma carta aberta com o título “pause experimentos de IA: carta aberta”, pedindo que os experimentos com IA sejam pausados por determinado período. O documento inclui nomes importantes do Vale do Silício como Elon Musk, Steve Wozniak, instituições de Oxford, Cambridge, Stanford, Columbia, além de empresas como Google, Microsoft, Amazon e até o historiador Yuval Noah Harari. Em um dos trechos da carta eles afirmam que a IA compete com a inteligência humana podendo até oferecer riscos maiores à humanidade e de acordo com laboratórios especializados, a IA não está cumprindo com os cuidados e recursos necessários.