Lorsqu’on parle d’intelligence artificielle (IA), on entend généralement l’apprentissage par les machines, qui permet de déduire des règles de décision à partir des caractéristiques statistiques des ensembles de données. L’emploi de certaines formes d’intelligence artificielle peut aussi trouver sa place dans la protection de la population, pour améliorer la détection précoce des risques, selon un article récent publié dans le blog de Alert Swiss.
Grâce à l’augmentation de la puissance de calcul, à la disponibilité des données et aux algorithmes évolutifs, l’intelligence artificielle (IA) est devenue une technologie habilitante qui trouve des applications dans de nombreux domaines de la société et de l’économie. Aujourd’hui, le terme générique IA fait généralement référence au champ de l’apprentissage automatique, c’est-à-dire aux algorithmes qui apprennent des règles de décision à partir des caractéristiques statistiques de données d’apprentissage. L’IA pourrait aussi servir à la protection de la population, par exemple pour améliorer la reconnaissance précoce des risques, à condition toutefois de prendre en compte les exigences propres à ce domaine.
Robustesse et fiabilité de l’IA
Les modèles d’IA ne sont toutefois pas une panacée. Ils restent très limités lorsqu’il s’agit d’intégrer des concepts à partir d’un petit nombre d’exemples, de comprendre des liens de causalité ou de transférer les connaissances acquises dans d’autres domaines. L’utilisation de l’IA est particulièrement profitable lorsqu’on est en présence de grandes quantités de données, ce qui souvent n’est pas le cas pour les scénarios de danger à faible probabilité d’occurrence mais fort impact. En matière de protection de la population, les décisions sont souvent une question de vie ou de mort, raison pour laquelle il faut faire preuve de prudence si l’on transmet des compétences décisionnelles à des modèles d’IA dont la robustesse et la fiabilité ne sont souvent pas suffisamment garanties.
Non seulement les modèles d’IA sont sensibles aux cyberattaques, mais ils présentent de nouvelles vulnérabilités. Dans le domaine de la reconnaissance d’images, par exemple, il existe de nombreux exemples frappants d’erreurs de classification dues à des corrélations aléatoires dans les données, à des angles de vue inhabituels ou à la manipulation d’éléments subordonnés que les humains ne perçoivent qu’inconsciemment. Dans le champ de la protection de la population, l’IA devrait être utilisée principalement, jusqu’à nouvel ordre, pour l’aide à la décision mais pas pour prendre des décisions en autonomie.
Actuellement, moins de 1 % de la recherche en IA porte sur la robustesse et la sécurité des modèles. Il apparait donc nécessaire de poursuivre le financement de la recherche fondamentale dans le but de tester et de certifier les modèles afin de réduire les asymétries d’information lors de leur acquisition. C’est une condition sine qua non de l’intégration à grande échelle et en toute sécurité de l’IA dans la société et l’économie d’ici 2030 sans que les accidents ou les cyberattaques n’augmentent dans des domaines tels que les transports, la médecine ou les infrastructures critiques.