Les IA visées par un nouveau hack

0

Au premier trimestre 2021, des chercheurs du centre de cybersécurité du Maryland (Etats-Unis) ont publié une étude dans laquelle ils alertent sur un nouveau type de cyberattaque visant spécifiquement les intelligences artificielles.

En effet, le hack force l’IA à consommer beaucoup plus d’énergie pour fonctionner, tout en ralentissant sa performance.Alors que de nombreuses entreprises auraient de plus en plus recours à l’intelligence artificielle dans les années à venir, les attaques visant ces dernières, bien que peu démocratisées, se doivent d’être alertées afin de minimiser leurs conséquences.

Ce nouveau type d’attaque a pour effet de ralentir la capacité des réseaux « shallow-deep », un certain type d’architecture d’IA distribuée, à produire des résultats.  Ces architectures « shallow-deep », de par leur conception, permettent à la fois une consommation d’énergie plus faible pour résoudre les problèmes, et un temps de compréhension plus rapide permettant aux modèles de produire des résultats avant que l’ensemble de ceux-ci soient déterminés.

Tout d’abord, cela renforce le fait que les nouvelles technologies apportent toujours de nouvelles vulnérabilités qui attendent d’être découvertes et espérons-le, corrigées. Cela renforce la cybersécurité comme un effort soutenu au long cours, plutôt qu’une intervention ponctuelle. 

Deuxièmement, alors que les réseaux « shallow-deep » n’en sont encore qu’à leurs débuts du point de vue de la production, cette recherche constitue un avertissement précoce envers une confiance excessive dans les technologies d’intelligence artificielle pour prendre des décisions critiques sans contrôle effectué par un humain.

Si la compromission d’un modèle d’IA peut servir les missions d’un acteur malveillant, il sera certainement ciblé. Cette recherche ne met en évidence qu’une seule façon dont un mauvais acteur pourrait compromettre un type de système d’IA.

Dans cet exemple, imaginez un attaquant ralentissant une IA chargée de prendre des décisions en matière de sécurité des informations, ce qui lui permettrait de passer complètement inaperçu. Ou imaginez les effets du ralentissement d’une IA chargée d’accélérer le développement d’un médicament ou d’un vaccin capable de sauver des vies. Dans ces deux exemples, il serait extrêmement difficile de remonter jusqu’à une IA compromise.

À la suite des récents piratages de la supply chain, le moment est désormais opportun pour les développeurs de systèmes d’IA de s’assurer que les meilleures pratiques de développement de logiciels sécurisés soient mis en place, mais aussi de réfléchir à la façon dont les utilisateurs et les attaquants peuvent abuser de ces systèmes dans le monde réel, afin de concevoir des contrôles de sécurité natifs en conséquence. 

Share.

About Author

Leave A Reply