Oportunidade ou ameaça: Inteligência Artificial e Machine Learning desafiam a segurança digital
Postado porRogério
em 17/05/2018 em ArtigosUm grupo de cientistas de universidades americanas e britânicas, incluindo Stanford, Yale, Oxford e Cambridge, junto de organizações da sociedade...
Um grupo de cientistas de universidades americanas e britânicas, incluindo Stanford, Yale, Oxford e Cambridge, junto de organizações da sociedade civil e representantes da indústria de cibersegurança buscaram responder essa pergunta no estudo The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation, publicado recentemente, que aborda uma série de potenciais usos maliciosos da inteligência artificial com foco em machine learning.
Além de permitir que malwares do tipo zero-day apareçam com mais frequência e sejam direcionados de maneira mais precisa, inclusive neutralizando as defesas existentes, a inteligência artificial e o machine learning, quando usados pelos cibercriminosos, expõem também uma falha preocupante dessas tecnologias, que é a possibilidade de indução de classificações equivocadas por meio de informações contraditórias ou da contaminação da base de dados.
Como explica o estudo, o machine learning depende de dois fatores básicos: a qualidade do algoritmo de aprendizado e a integridade do conjunto de dados usado como base. Assim, ataques envolvendo inteligência artificial podem acabar tendo essas duas áreas como alvo: manipulação ou alteração do algoritmo de aprendizado ou a danificação do conjunto de dados usado para o mecanismo de machine learning.
No caso das plataformas de segurança com mecanismos de machine learning que se baseiam em padrões conhecidos de malware ou mesmo em dados de comportamento, o método primário para comprometer o mecanismo de inteligência artificial dessas soluções é por meio da manipulação da base dados usada para fazer previsões e detecções mais precisas.
A tendência é que os cibercriminosos passem a usar suas próprias capacidades de machine learning para aumentar a velocidade e a precisão dos seus ataques, simulando perfeitamente o comportamento de usuários da empresa. Se essa manipulação passar despercebida, o feed das ferramentas de segurança vai ser impactado de maneira considerável e, quando a empresa perceber a alteração, pode ser tarde demais, e o hacker pode já ter obtido acesso aos dados mais valiosos da organização ? isso pode levar dias e até meses.
Além da dificuldade de identificar quando um hacker estar usando inteligência artificial para se passar por um usuário legítimo usando inteligência artificial para burlar sistemas de machine learning, é também um desafio diagnosticar quando um modelo de machine learning está mal configurado, recebendo influências de viés ou funcionando de maneira incorreta.
Não existe nenhuma solução definitiva para o uso de inteligência artificial de maneira criminosa. Assim como as empresas fornecedoras de software estão constantemente aprimorando suas capacidades com o machine learning, os hackers vão continuar se sofisticando usando essa mesma tecnologia. Ou seja, trata-se de uma corrida constante para estar à frente das ameaças.
Por isso, as empresas não podem contar apenas com tecnologias. É preciso investir na colaboração entre os responsáveis pelas políticas de segurança e pesquisadores, e na adoção de melhores práticas éticas criadas por especialistas em inteligência artificial.
Rogério
em 17/05/2018 em Artigos