ByzFL : La solution lausannoise pour une IA plus fiable et sécurisée

Dans un monde où l’intelligence artificielle s’immisce dans notre quotidien, des chercheurs vaudois apportent une solution innovante pour garantir sa fiabilité. Face aux défis que pose l’utilisation de données peu fiables, l’équipe du professeur Rachid Guerraoui à l’EPFL a développé ByzFL, un outil révolutionnaire pour renforcer la sécurité des systèmes d’intelligence artificielle.
L’apprentissage fédéré : une révolution dans le monde de l’IA
L’apprentissage fédéré représente une avancée majeure dans le domaine de l’intelligence artificielle. Contrairement aux méthodes traditionnelles qui centralisent d’énormes quantités de données, cette approche permet aux modèles d’IA d’apprendre à travers un réseau d’appareils ou de serveurs décentralisés. Cette méthode préserve les données à leur source, répondant ainsi aux préoccupations croissantes en matière de confidentialité et de sécurité1.
Cette technologie, particulièrement développée dans la région lémanique, est d’autant plus pertinente à l’heure où les données sont considérées comme « le nouveau pétrole » de notre économie numérique. Mais comme le souligne le Professeur Guerraoui de l’EPFL, ce qui rend ces systèmes efficaces les rend également vulnérables1.
Le défi des données non fiables dans les systèmes d’IA
Le principal problème que rencontrent les systèmes d’IA actuels réside dans leur vulnérabilité face aux données incorrectes. Ces erreurs peuvent provenir de multiples sources : saisies incorrectes, capteurs défectueux, ou même manipulations malveillantes1.
Pour les applications quotidiennes comme les recommandations de films ou l’aide à la rédaction, ces imprécisions ont peu de conséquences. Mais qu’en est-il lorsque l’IA sera intégrée dans des domaines critiques comme le diagnostic médical ou la conduite autonome ? C’est précisément ce défi que les chercheurs lausannois ont décidé de relever1.
ByzFL : l’innovation vaudoise pour une IA sécurisée
Après une décennie de recherches théoriques, le laboratoire d’informatique distribuée de l’EPFL, en collaboration avec l’Institut national de recherche en sciences et technologies du numérique, a développé ByzFL. Cette bibliothèque Python est spécialement conçue pour tester et améliorer la robustesse des modèles d’apprentissage fédéré face aux menaces adverses15.
La particularité de ByzFL est qu’elle n’isole pas les bonnes données des mauvaises, mais utilise des schémas d’agrégation robustes pour ignorer les valeurs extrêmes. Par exemple, si trois capteurs mesurent des températures raisonnables (6, 7 et 9 degrés) tandis qu’un quatrième indique -20 degrés, le système élimine automatiquement cette valeur aberrante1.
Vers des applications critiques plus sûres
Pour les applications critiques comme les diagnostics médicaux ou les transports autonomes, la fiabilité de l’IA est cruciale. « Le jour où nous mettrons vraiment l’IA générative dans les hôpitaux ou les infrastructures de transport, la sécurité deviendra problématique à cause des mauvaises données », prévient le Professeur Guerraoui1.
ByzFL représente ainsi une étape importante vers une IA plus sûre et plus fiable, capable de fonctionner efficacement même en présence de données imparfaites135.
La Suisse, terre d’innovation pour l’IA sécurisée
Le professeur Guerraoui estime que la Suisse, et particulièrement la région lémanique, a un rôle important à jouer dans le développement d’une IA sûre et robuste. « Nous avons une tradition de sérieux. Nous construisons des choses qui fonctionnent, nous pouvons utiliser la garantie de la qualité suisse pour mettre en place un système de certification », affirme-t-il1.
Cette innovation locale s’inscrit parfaitement dans la tradition d’excellence scientifique vaudoise, et pourrait contribuer à faire de la région un centre mondial pour l’IA responsable et sécurisée.
ByzFL a été conçu et développé par John Stephen, Geovani Rizk, Marc Gonzalez Vidal, Rafael Pinot, Rachid Guerraoui (tous de l’EPFL) et François Taiani (de l’INRIA).
Mehdi El Mhamdi, Julian Steiner, Peva Blanchard, Nirupam Gupta, Rafael Pinot, Youssef Allouah, Abdellah El Mrini, John Stephan, Sadegh Farhadkhani, Geovani Rizk, Arsany Guiguis, Georgios Damaskinos, Sebastien Rouault, Richeek Patra, Mahsa Taziki, Hoang Le Nguyen et Alexandre Maurer sont tous des étudiantes et étudiants et des postdoctorantes et postdoctorants qui ont collaboré avec le professeur Guerraoui pour relever le défi des systèmes d’IA sûrs sans données fiables.