Existem vários desafios tecnológicos e éticos que comprometem a fiabilidade dos modelos de Machine Learning. Um dos principais desafios é a falta de robustez, que é uma propriedade essencial para garantir que os modelos de ML são utilizados de forma segura. Melhorar a robustez não é tarefa fácil porque os modelos são inerentemente suscetíveis a amostras adversariais: amostras de dados com perturbações subtis que causam comportamentos inesperados. Os engenheiros de ML e os profissionais de segurança ainda não possuem os conhecimentos e as ferramentas necessárias para evitar tais perturbações, pelo que as amostras adversariais representam uma grande ameaça para o ML e para os sistemas inteligentes que dele dependem.
“Artificial Intelligence and Cybersecurity: The (lack of) security of Machine Learning models” será apresentado por João Vitorino (doutorando ProDEI), dia 21 de março, às 14:00, na sala I -115.
Sobre o palestrante:
João Vitorino é investigador do GECAD, uma unidade de I&D do ISEP, e doutorando na FEUP, no Programa Doutoral em Engenharia informática. Tem um Mestrado em Engenharia de Inteligência Artificial, para além de várias certificações nas áreas de IA e redes de computadores. Tem colaborado com várias empresas e instituições em projetos internacionais de I&D, e tem sido responsável pela concetualização e desenvolvimento de soluções de IA para várias aplicações reais de cibe segurança.
O foco do seu trabalho tem sido a robustez adversarial em domínios de dados tabulares complexos. Desenvolveu um método inteligente que executa ataques adversariais realistas e mecanismos de formação que fornecem modelos de ML seguros para tarefas complexas como a classificação de ciberataques.
João recebeu o prémio “2023 Outstanding MSc Thesis Award”, atribuído pela IEEE Portugal Section, com a tese “Realistic Adversarial Machine Learning to improve Network Intrusion Detection”, uma análise à robustez dos algoritmos de machine learning, tendo sido proposto o método “AP2M – Adaptative Perturbation Pattern Method”.