4 pilares para usar a inteligência artificial com responsabilidade

Hiroshi Watanabe/Getty Images
Hiroshi Watanabe/Getty Images

O objetivo do levantamento é chamar a atenção para a criação de políticas e de supervisão da inteligência artificial

As soluções de inteligência artificial estão desempenhando um papel desproporcional na formação de indivíduos e no bem-estar futuro, mesmo que poucos dentro ou fora das empresas entendam completamente como ela funciona. 

“No entanto, uma estrutura de IA abrangente – que permita e operacionalize a confiança, responsabilidade e transparência – é, muitas vezes, insuficiente ou inexistente nas companhias”, diz o sócio-líder de data & analytics, automação e inteligência artificial da KPMG, Ricardo Santana.

LEIA MAIS: 6 casos em que a implementação da inteligência artificial foi um fiasco

A companhia especializada em serviços profissionais de auditoria e consultoria acaba de divulgar o relatório “Um Modelo de Governança em Inteligência Artificial está Surgindo”, com os quatro pilares necessários para que as soluções de inteligência artificial sejam transformadoras. O objetivo do levantamento, que examinou os temas regulatórios atuais em torno da governança sobre a tecnologia em todo o mundo, é chamar a atenção para a criação de políticas e de supervisão da inteligência artificial.

Veja, na galeria a seguir, os quatro princípios levantados pela KPMG:

  • 1. Integridade

    Durante as inspeções e monitoramento da inteligência artificial, é fundamental que as empresas assegurem que não há alterações que possam comprometer o objetivo ou a intenção original da tecnologia. “Para que as soluções de IA sejam transformadoras, é necessário que exista a integridade do algoritmo e a validade dos dados, incluindo a linhagem e a adequação de como as informações são usadas”, diz o relatório. Nesse sentido, organizações de todos os tipos e tamanhos, ao se depararem com o enorme fluxo de dados, devem garantir a integridade das informações, empenhando-se para evitar vazamentos e abordagens inapropriadas.

    Stanislaw Pytel/Getty Images
  • 2. Explicabilidade

    O segundo princípio baseia-se na transparência da utilização da tecnologia e no entendimento dos processos de tomada de decisão do algoritmo. Em outras palavras, a empresa tem que ser capaz de explicar como e por que um modelo de inteligência artificial tomou determinada decisão, identificando quais fatores foram considerados para chegar ao resultado obtido. Tal característica parte do pressuposto de que todas as respostas obtidas pelos sistemas inteligentes devem ser explicáveis, sem segredos, apoiando-se na ética e na responsabilidade para garantir soluções justas e com processos claros e bem definidos.

    PM Images/Getty Images
  • 3. Equidade

    Outra importante diretriz para garantir a governança apropriada da inteligência artificial passa por uma equidade, que assegura que os sistemas sejam éticos, isentos de preconceitos e que os atributos protegidos não sejam utilizados. Ao serem construídos em cima de sistemas matemáticos que refletem uma sociedade injusta, a tendência é que os algoritmos também tomem decisões e posicionamentos discriminatórios. Por isso, as empresas devem redobrar a atenção para os bancos de dados que alimentam o funcionamento da inteligência artificial, para que sejam o mais isento possível de estereótipos e preconceitos.

    Kilito Chan/Getty Images
  • 4. Resiliência

    O quarto pilar sinalizado no relatório é a resiliência dos algoritmos, que diz respeito à robustez técnica, à agilidade em todas as plataformas e à resistência contra agentes mal-intencionados. Segundo os especialistas da KPMG, as soluções devem ser resistentes contra ataques e invasões do sistema, garantindo que todos os componentes utilizados na IA estejam adequadamente protegidos. Sendo assim, a tecnologia deve ser capaz de resistir às perturbações e instabilidades do sistema, para garantir uma governança adequada dos algoritmos no uso da ferramenta de inteligência artificial.

    Andriy Onufriyenko/Getty Images

1. Integridade

Durante as inspeções e monitoramento da inteligência artificial, é fundamental que as empresas assegurem que não há alterações que possam comprometer o objetivo ou a intenção original da tecnologia. “Para que as soluções de IA sejam transformadoras, é necessário que exista a integridade do algoritmo e a validade dos dados, incluindo a linhagem e a adequação de como as informações são usadas”, diz o relatório. Nesse sentido, organizações de todos os tipos e tamanhos, ao se depararem com o enorme fluxo de dados, devem garantir a integridade das informações, empenhando-se para evitar vazamentos e abordagens inapropriadas.

Siga FORBES Brasil nas redes sociais:

Facebook
Twitter
Instagram
YouTube
LinkedIn

Siga Forbes Money no Telegram e tenha acesso a notícias do mercado financeiro em primeira mão

Baixe o app da Forbes Brasil na Play Store e na App Store.

Tenha também a Forbes no Google Notícias.

Copyright Forbes Brasil. Todos os direitos reservados. É proibida a reprodução, total ou parcial, do conteúdo desta página em qualquer meio de comunicação, impresso ou digital, sem prévia autorização, por escrito, da Forbes Brasil ([email protected]bes.com.br).