Dicas Top é uma coluna semanal em que destacamos o que é tendência no mundo da tecnologia atualmente e listamos maneiras de explorar essas tendências. Nesta semana, estamos analisando quatro riscos relacionados ao aprendizado de máquina que devem ser observados.
O aprendizado de máquina (ML) é uma tecnologia realmente impressionante. O próprio fato de termos conseguido desenvolver modelos de IA que são capazes de aprender e melhorar com o tempo é notável.
Graças aos seus incríveis recursos de reconhecimento de padrões e de tomada de decisões, o aprendizado de máquina está assumindo um papel central no cenário tecnológico global, com empresas de todos os setores verticais já obtendo benefícios ou esperando benefícios potenciais da implementação dessa tecnologia.
Mas nem tudo é arco-íris. Como acontece com qualquer forma de tecnologia, o ML também apresenta certos riscos. Aqui estão quatro dos mais críticos.
1. Dados ruins ou tendenciosos
Está se tornando um clichê dizer isso, mas um modelo de ML é tão bom quanto os dados usados para treiná-lo. Os dados de entrada que estão sendo inseridos no modelo durante a fase de treinamento determinam a precisão de seus resultados na implementação.
Portanto, não é preciso dizer que os dados de entrada devem ser dados de alta qualidade, precisos, sem erros, diversificados, variados e sem ruídos (ou seja, dados sem sentido ou corrompidos que não podem ser interpretados corretamente pelo modelo). Dados “sujos” ruidosos, imprecisos ou enganosos, especialmente durante a fase de treinamento, podem resultar em um modelo profundamente falho em um nível fundamental – a ponto de não conseguir cumprir a finalidade pretendida.
Verificar sempre a integridade dos dados de treinamento ajuda a criar um modelo que produz resultados precisos e imparciais.
2. Excesso de ajuste
Overfitting refere-se a uma situação indesejável em que o modelo de ML tem um desempenho extremamente bom com seus dados de treinamento, mas não consegue fornecer resultados precisos ao lidar com dados do mundo real. Isso ocorre quando o modelo detecta padrões adicionais nos dados de treinamento. Esses padrões adicionais geralmente são distúrbios indesejados que afetam os recursos de previsão do modelo.
Digamos que um modelo de ML esteja sendo treinado para detectar imagens de mesas. Infelizmente, os dados de treinamento incluem um grande número de imagens que também contêm cadeiras. Essa inclusão de cadeiras confunde o modelo, levando-o a considerar as cadeiras como um fator de classificação, o que significa que ele pode não ser capaz de reconhecer uma imagem de uma mesa sem a presença de uma cadeira.
Para evitar o ajuste excessivo, é preciso garantir que os dados que você está usando sejam variados e não contenham nenhum ruído que possa ser mal interpretado como outro padrão que deva ser incluído nos critérios de classificação.
3. Aprendizado de máquina adversarial
O aprendizado de máquina adversarial refere-se a um tipo de ataque que visa interromper o funcionamento de um modelo de ML manipulando os dados de entrada ou até mesmo obtendo acesso não autorizado ao próprio modelo. O objetivo final desse tipo de ataque é afetar negativamente os recursos do modelo, resultando em previsões falhas e imprecisas. Os três principais tipos de ataques adversários ao aprendizado de máquina são:
-
Envenenamento de dados: Esse ataque é realizado durante a fase de treinamento. O invasor adiciona dados defeituosos ou enganosos ao conjunto de dados de treinamento.
-
Evasão: Os ataques de evasão são realizados durante a fase de inferência, em que o modelo de ML foi implantado e é colocado para funcionar em dados do mundo real. Nesse caso, os dados manipulados com ruído suficiente, que é imperceptível ao olho humano, mas que pode ser reconhecido pelo modelo, são inseridos nele para fazer com que ele classifique os dados incorretamente.
-
Inversão: Os ataques de inversão envolvem alimentar as saídas de um modelo de ML em um modelo separado para prever os dados de entrada. Isso é especialmente preocupante, considerando que muitos dados de entrada tendem a ser do tipo altamente sensível.
4. Privacidade dos dados
Alguns modelos de ML são treinados em dados pessoais incrivelmente confidenciais (por exemplo, informações financeiras ou médicas), e as organizações que usam esses dados devem cumprir as normas de proteção de dados, como o GDPR e a HIPAA.
Além disso, como já vimos no ponto anterior, também é possível reproduzir os dados de treinamento de um modelo de ML usando inversão. Um método comum de combater a inversão de modelos é adicionar ruído aos dados. Infelizmente, como sabemos, o ruído pode tornar o modelo menos preciso. No entanto, há alguns desenvolvimentos positivos nesse sentido: uma equipe de pesquisadores do MIT desenvolveu uma estrutura para proteção de dados conhecida como Privacidade Provavelmente Aproximadamente Correta (PAC). Essa estrutura permite que os desenvolvedores determinem a menor quantidade de ruído necessária para proteger os dados e, ao mesmo tempo, manter os níveis de desempenho. No entanto, essa estrutura ainda está em seus estágios iniciais, e ainda não se sabe se ela é realmente eficaz.
O futuro do aprendizado de máquina traz muitos riscos
O ML ainda está em um estágio relativamente incipiente, com as organizações ainda experimentando e explorando suas possibilidades. Os riscos que mencionamos acima estão apenas arranhando a superfície; à medida que essa tecnologia continuar a crescer, espere o surgimento de muitas outras ameaças. Além de desenvolver funções primárias de ML, agora é o momento certo para as organizações investirem também no fortalecimento de seus modelos de ML para se protegerem contra todas as ameaças, tanto as existentes quanto as futuras.
Artigo original: https://blogs.manageengine.com/corporate/general/2024/04/04/top-tips-watch-out-for-these-4-machine-learning-risks.html