A inteligência artificial (IA) veio para ficar. A ascensão dessa tecnologia levou muitas empresas a implementar ferramentas como ChatGPT, Dall-E 2 e Midjourney em seus fluxos de trabalho. No entanto, o boom da IA destacou a necessidade de regulamentações para compensar seus riscos e desafios.
Entre os perigos da IA estão o possível vazamento de dados confidenciais, seu potencial para desinformar – seja devido à falta de transparência ou às intenções maliciosas de seus usuários – e sua situação nebulosa de direitos autorais. Por causa disso, várias empresas estão proibindo o uso de IA generativa.
Em pesquisa realizada pela Bloomberg, mais de 50% das empresas pesquisadas revelaram que estão criando políticas para regulamentar o uso de IA. Agora, mais do que nunca, as empresas devem investir em estratégias de Inteligência Artificial Responsável (RAI).
O que é uma Inteligência Artificial Responsável (RAI)?
Segundo a Microsoft, a Inteligência Artificial Responsável é um tipo de IA que aprimora os valores desejados para a sociedade. Estes incluem justiça, confiabilidade, privacidade, segurança, inclusão, transparência e responsabilidade. Por extensão, uma estratégia de RAI ajuda a identificar riscos de IA e mitigar possíveis falhas.
Deve-se notar que os modelos de Inteligência Artificial Responsável não foram concebidos para lidar com um número repentino e inimaginável de riscos relacionados à IA. As estratégias da RAI devem evoluir junto com a tecnologia que abrigam.
Os riscos de aplicativos de Inteligência Artificial (IA) de terceiros
Um estudo conduzido pelo MIT Sloan Management Review e pelo Boston Consulting Group (BCG) identifica que a adoção frenética de aplicações de IA de terceiros está expondo muitas empresas a novos riscos comerciais, legais e de reputação. Estes podem ser difíceis de identificar e mitigar sem uma metodologia RAI.
Embora a acessibilidade dessas ferramentas seja um grande atrativo, elas não são isentas de riscos. Basta olhar para o vazamento de dados do usuário ChatGPT de março.
O problema é que os programas RAI estão tendo problemas para acompanhar os avanços da inteligência artificial. Ironicamente, isto levou a uma redução no investimento em modelos RAI quando estes são mais necessários do que nunca.
Quantas empresas aplicam os modelos RAI?
De acordo com o estudo MIT Sloan Management Review e BCG, a percentagem de organizações caracterizadas como líderes na RAI aumentou 13% em 2023 em comparação com o ano passado. Mesmo 7% das empresas que não se classificam como líderes tiveram abordagem a modelos de Inteligência Artificial Responsável. No geral, a maturidade da RAI melhorou até agora este ano.
Apesar destes resultados positivos, não significa que a implementação de modelos de Inteligência Artificial Responsável deva ser negligenciada. Esses programas devem fazer um trabalho melhor na identificação e mitigação dos riscos de aplicativos de terceiros. 55% das falhas relacionadas à IA vêm dessas ferramentas.
As consequências da execução destas aplicações sem regulamentação incluem danos à reputação, perda de confiança do cliente, lucros cessantes, penalidades por falta de regulamentação, desafios de conformidade e litígios.
O que você deve fazer para ter uma boa estratégia de RAI?
A esta altura, está claro: não adotar uma estratégia RAI é um risco à segurança. Embora sua implementação exija planejamento e investimento, as empresas podem seguir os seguintes passos para colocar em funcionamento um bom programa de RAI:
Os programas RAI devem continuar a crescer
A tecnologia está em constante mudança e os métodos da RAI também devem mudar. Isto inclui não só expandir a escala e o alcance de tais programas, mas também garantir que eles se aplicam a toda a organização e não apenas a situações específicas.
As ferramentas de terceiros devem ser cuidadosamente avaliadas
Atualmente, muitas empresas dependem de ferramentas de IA de terceiros. A sua utilização continuará a crescer com a adoção de ferramentas generativas de IA e outros avanços. Como já mencionado, estes acarretam riscos jurídicos e comerciais.
Embora não exista uma solução absoluta para mitigar os riscos das aplicações de IA, as empresas devem avaliar de forma adequada e consistente a utilização destas ferramentas. Quanto mais filtros forem utilizados, mais eficaz será a estratégia RAI.
Aqui estão alguns dos elementos que podem ser auditados e monitorados para ter uma estrutura de gestão de riscos que garanta o uso responsável da IA no seu negócio:
-
As práticas de RAI do Vendedor
-
Se a linguagem contratual da ferramenta exige adesão aos princípios da RAI
-
Certificação do vendedor, se disponível
-
Revisões internas da ferramenta quando integrada a um produto ou serviço
-
Aderência aos requisitos regulatórios relevantes e aos padrões do setor
Prepare-se para regulamentos de IA iminentes
A União Europeia está trabalhando no AI Act, o primeiro marco regulatório internacional para essa tecnologia. E esta não será a última legislação que buscará controlá-la. Face a esta onda iminente de regulamentações, as empresas que já estão preparadas para cumprir terão uma enorme vantagem sobre aquelas que não estão.
Os CEOs devem estar envolvidos para que a RAI alcance todo o seu potencial
O envolvimento do CEO pode aumentar os benefícios dos programas RAI, mitigando os riscos do uso da IA. As empresas em que os CEOs desempenham um papel ativo nos programas da RAI, contratando ou estabelecendo metas, obtêm mais benefícios. Isso se tornará ainda mais importante com o advento das regulamentações.
Invista em Inteligência Artificial Responsável
Não é hora de cortar custos com equipamentos focados no uso ético ou responsável da IA. No último ano, a adoção dessa tecnologia cresceu exponencialmente. Não há melhor momento para investir em programas RAI.
O estudo MIT Sloan Management Review e BCG indica que as organizações que utilizam aplicações de IA de terceiros e cumprem os regulamentos sofrem 12% menos falhas em comparação com empresas que não aderem a essas políticas.
A IA está em constante mudança. Mais cedo ou mais tarde, o mundo se adaptará a essa tecnologia. Cabe às empresas se prepararem para o que o futuro reserva. Eles não apenas economizarão tempo e dinheiro quando se trata de cumprir os regulamentos futuros, mas também terão uma vantagem contra aqueles que descansam sobre os louros.
Artigo original: ¿Cómo garantizar un uso responsable de la inteligencia artificial (IA)?