A inteligência artificial (IA) veio para ficar. A ascensão da IA levou muitas empresas a implementar ferramentas como ChatGPT, Dall-E 2 e Midjourney em seus fluxos de trabalho. No entanto, o boom da IA destacou a necessidade de regulamentações para compensar seus riscos e desafios.

Entre os perigos da IA estão o possível vazamento de dados confidenciais, seu potencial de desinformação – seja pela falta de transparência ou pelas intenções maliciosas de seus usuários – e seu status nebuloso de direitos autorais. Por causa disso, várias empresas estão proibindo o uso de IA generativa.

Em uma pesquisa da Bloomberg, mais de 50% das empresas pesquisadas revelaram que estão criando políticas para regulamentar o uso da IA. Agora, mais do que nunca, as empresas devem investir em estratégias de Inteligência Artificial Responsável (RAI).

O que é a Inteligência Artificial Responsável (RAI)?  

De acordo com a Microsoft, a Inteligência Artificial Responsável é um tipo de IA que fortalece os valores desejados pela sociedade. Esses valores incluem justiça, confiabilidade, privacidade, segurança, inclusão, transparência e responsabilidade. Por extensão, uma estratégia de RAI ajuda a identificar riscos de IA e a mitigar possíveis falhas.

É importante esclarecer que os modelos de IA responsável não foram projetados para lidar com um número repentino e inimaginável de riscos relacionados à IA. As estratégias de RAI devem evoluir junto com a tecnologia que elas protegem.

Os riscos das aplicações de Inteligência Artificial (IA) de terceiros 

Um estudo do MIT Sloan Management Review e do Boston Consulting Group (BCG) identifica que a adoção frenética de aplicações de IA de terceiros está expondo muitas empresas a novos riscos comerciais, legais e de reputação. Esses riscos podem ser difíceis de identificar e mitigar sem uma metodologia de RAI.

Embora a acessibilidade dessas ferramentas seja um grande atrativo, elas não estão isentas de riscos. Basta ver a violação de dados de usuários do ChatGPT em março.

O problema está no fato de que os programas de RAI estão tendo dificuldade em acompanhar os avanços da inteligência artificial. Ironicamente, isso levou a uma redução no investimento em modelos de RAI quando eles são mais necessários do que nunca.

Quantas empresas aplicam modelos de RAI?  

De acordo com o estudo do MIT Sloan Management Review e BCG, a porcentagem de organizações caracterizadas como líderes em RAI aumentou 13% em 2023 em comparação com o ano passado. Mesmo 7% das empresas que não se classificam como líderes tinham uma abordagem para modelos de IA responsável.

Apesar desses resultados positivos, isso não significa que a implementação de modelos de IA responsável deva ser negligenciada. Esses programas devem fazer um trabalho melhor para identificar e mitigar os riscos de aplicações de terceiros. Cerca de 55% das falhas relacionadas à IA são provenientes dessas ferramentas.

As consequências de lidar com essas aplicações sem regulamentação incluem danos à reputação, perda da confiança do cliente, perda de lucros, penalidades regulatórias, desafios de conformidade e litígios.

O que você precisa fazer para ter uma boa estratégia de RAI?  

A esta altura, está claro: não adotar uma estratégia de RAI é um risco à segurança. Embora sua implementação exija planejamento e investimento, as empresas podem adotar as seguintes medidas para implementar um bom programa de RAI.

Os programas de RAI devem continuar a crescer   

A tecnologia está em constante mudança, assim como os métodos de RAI. Isso inclui não apenas a expansão da escala e do escopo desses programas, mas também a garantia de que eles se apliquem a toda a organização e não apenas a situações específicas.

As ferramentas de terceiros precisam ser avaliadas minuciosamente   

Atualmente, muitas empresas dependem de ferramentas de IA de terceiros. Seu uso continuará a crescer com a adoção de ferramentas de IA generativas e outros desenvolvimentos. Conforme mencionado acima, elas apresentam riscos legais e comerciais.

Embora não exista uma solução absoluta para mitigar os riscos da IA, as empresas devem avaliar o uso dessas ferramentas de forma adequada e contínua. Quanto mais filtros forem empregados, mais eficaz será a estratégia de RAI.

Aqui estão alguns dos elementos que podem ser auditados e monitorados para se ter uma estrutura de gerenciamento de riscos que garanta o uso responsável da IA em sua empresa:

  • Práticas de RAI do fornecedor

  • Se a linguagem contratual da ferramenta exige a adesão aos princípios de RAI

  • A certificação do fornecedor, se disponível

  • Revisões internas da ferramenta quando integrada a um produto ou serviço

  • Adesão aos requisitos regulatórios relevantes e aos padrões do setor

Prepare-se para as iminentes regulamentações de IA 

A União Europeia está trabalhando na Lei de IA, a primeira estrutura regulatória internacional para inteligência artificial. E essa não será a última legislação que buscará controlá-la. Diante dessa onda iminente de regulamentações, as empresas que já estiverem preparadas para cumpri-las terão uma enorme vantagem sobre as que não estiverem.

Os CEOs devem estar envolvidos para que a RAI atinja todo o seu potencial  

O envolvimento dos CEOs pode aumentar os benefícios dos programas de RAI, o que reduz os riscos do uso da inteligência artificial. As empresas em que os CEOs desempenham um papel ativo nos programas de RAI, contratando ou definindo metas, obtêm mais benefícios. Isso se tornará ainda mais importante com o advento das regulamentações.

Investa na Inteligência Artificial Responsável  

Agora não é o momento de reduzir os equipamentos voltados para o uso ético ou responsável da IA. No último ano, a adoção dessa tecnologia cresceu exponencialmente. Não há melhor momento para investir em programas de RAI.

O estudo do MIT Sloan Management Review e BCG observa que as organizações que usam aplicações de IA de terceiros e aderem aos regulamentos sofrem 12% menos falhas em comparação com as empresas que não aderem a essas políticas.

A IA está mudando constantemente. Mais cedo ou mais tarde, o mundo se adaptará a essa tecnologia. Cabe às empresas se prepararem para o que o futuro reserva. Elas não só economizarão tempo e dinheiro ao cumprir as regulamentações futuras, como também terão uma vantagem sobre aquelas que se acomodarem.

Quer saber mais sobre a Inteligência Artificial e seus debates éticas? Assista ao nosso episódio do

target=”_blank” rel=”noopener”>Podcast IT with ME!

Artigo original: ¿Cómo garantizar un uso responsable de la inteligencia artificial (IA)?