RAISA3: l'atelier ECAI 2020 sur la robustesse des systèmes d'IA contre les attaques contradictoires

0
90

Posté sur

Date de début

Date limite d'inscription des participants

Type

Ateliers

Saint Jacques de Compostelle, Espagne, 8 juin 2020

L'atelier RAISA3 se concentrera sur la robustesse des systèmes d'IA contre les attaques adversaires. Alors que la plupart des efforts de recherche sur l'IA contradictoire étudient les attaques et les défenses concernant des algorithmes d'apprentissage machine particuliers, notre approche consistera à explorer l'impact de l'IA contradictoire au niveau de l'architecture du système. Dans cet atelier, nous aborderons les attaques IA contradictoires menacées qui peuvent avoir un impact sur un système AI à chacune des différentes étapes de traitement, y compris: à l'étape d'entrée des capteurs et des sources, à l'étape de conditionnement des données, pendant la formation et l'application d'algorithmes d'apprentissage automatique , au stade de l'association homme-machine et lors de l'application dans le cadre de la mission. Nous discuterons en outre des attaques contre les technologies informatiques prises en charge.

L'atelier RAISA3 est un événement d'une journée complète et comprendra des conférenciers invités travaillant dans le domaine de la recherche, ainsi qu'un certain nombre de présentations pertinentes sélectionnées à travers un Appel à participation.

En général, les attaques IA contradictoires contre les systèmes AI prennent trois formes: 1) les attaques d'empoisonnement des données injectent des points de données mal étiquetés ou malicieusement dans les ensembles de formation afin que l'algorithme apprenne la mauvaise cartographie, 2) les attaques par évasion perturbent les échantillons d'entrée correctement classés juste assez pour provoquer des erreurs dans la classification d'exécution, et 3) les attaques par inversion testent à plusieurs reprises des algorithmes entraînés avec des entrées de cas limites afin de révéler les limites de décision et les données d'apprentissage précédemment cachées. La protection contre les attaques d'apprentissage contradictoires comprend des techniques qui nettoient les ensembles d'entraînement de valeurs aberrantes afin de contrecarrer les tentatives d'empoisonnement des données, et des méthodes qui sacrifient les performances de l'algorithme initial afin d'être robustes aux attaques d'évasion. Au fur et à mesure que les capacités d'IA s'intègrent dans les facettes de la vie quotidienne, la nécessité de comprendre les attaques et les effets adverses et les approches d'atténuation pertinentes pour les systèmes d'IA deviennent d'une importance capitale.

Au cœur de cette méthodologie se trouve la notion de modélisation des menaces, qui soutiendra un discours pertinent en ce qui concerne les attaques et les atténuations potentielles.

Le format de l'atelier est structuré pour encourager un échange d'idées animé entre les chercheurs en IA travaillant sur le développement de techniques pour atténuer les attaques adverses contre les systèmes d'IA de bout en bout.

Lignes directrices pour la soumission

Les articles doivent être formatés comme indiqué dans le modèle de papier. PDF adapté au référentiel ArXiv (jusqu'à 8 pages). Les travaux déjà publiés (ou en cours de révision) sont acceptables. La soumission et l'examen des articles seront gérés via Easychair.

  • Les soumissions ne sont pas anonymisées

Liste des sujets

  • Étape de conditionnement des données
  • Étape de déploiement
  • Techniques de protection et de détection contre les attaques adverses à boîte noire, à boîte blanche et à boîte grise
  • Défenses contre les attaques d'entraînement
  • Réponse et récupération basées sur:
  • Niveaux de confiance

Comités

  • Daniel Clouse, Département américain de la défense
  • Courtney Corley, Laboratoire national du Pacifique Nord-Ouest
  • David Cox, MIT-IBM Watson AI Lab
  • Stephan Günnemann, Université technique de Munich
  • Ariel Herbert-Voss
  • Nick Malyska, MIT Lincoln Laboratory
  • Rebecca Zubajlo, Massachusetts Institute of Technology

Comité d'organisation

  • William W. Streilein (coprésident), MIT Lincoln Laboratory
  • Olivia Brown, Laboratoire MIT Lincoln
  • Rajmonda Caceres, MIT Lincoln Laboratory
  • Eliezer Kanal, CMU Software Engineering Institute

Lieu

Saint Jacques de Compostelle, Espagne

Plus d'information