L’Intelligence Artificielle et le Machine Learning : nous sommes en train de construire une arme toute puissante

0

De nos jours, les avancées technologiques nous ne permettent pas encore d’atteindre l’intelligence artificielle parfaite, mais pour autant ce n’est pas encore nécessaire. Une intelligence artificielle n’a pas besoin d’être irréprochable, il suffit qu’elle soit juste meilleure que l’intelligence humaine. Un chauffeur basé sur l‘IA n’est peut-être pas infaillible, mais il est certainement moins infaillible qu’un chauffeur humain.

C’est également le cas dans le domaine de la cybersécurité où les experts informatiques sont en train de changer les règles de jeu à l’aide du Machine Learning.

Le Machine Learning n’a rien de nouveau ; son utilisation a connu une forte croissance en popularité dans le milieu de la cybersécurité lors de l’avènement du Big Data (lire notre précédent article « La Big Question du Big Data » ici). Les termes « Intelligence Artificielle » et « Machine Learning » sont souvent utilisés comme étant des synonymes, mais il faut savoir que le ML est un sous-domaine de l’IA associé aux statistiques et à l’analyse prédictive.

Autrement dit, le Machine Learning est un moyen pour soutenir la mise en ouvre d’une IA. C’est une recette déjà bien connue qui est censée augmenter drastiquement nos chances dans la détection et la prévention des cyber-attaques.

La question qui se pose désormais est que si nous sommes arrivés à cette conclusion en quatre petits paragraphes, pensez-vous que les organisations criminelles ne feront pas pareil ? Pensez-vous qu’elles attendront tout simplement qu’on crée cette arme toute puissante ?

L’intelligence artificielle est une technologie qui promet de révolutionner la cybersécurité – alors pourquoi les pirates s’abstiendraient de l’appliquer à la cybercriminalité ? C’est un scénario auquel il vaut la peine d’y réfléchir.

La cybersécurité du futur pourrait également ouvrir la voie à une nouvelle ère de piratage, preuves à l’appui :

Les organisateurs du Cyber Grand Challenge, un concours parrainé par l’agence américaine de défense DARPA, ont donné un aperçu du pouvoir de l’IA lors de leur édition en 2016. Sept superordinateurs se sont battus pour montrer que les machines peuvent en effet trouver des vulnérabilités logiciel plus vite qu’un humain.

La technologie peut être utilisée pour perfectionner tout codage, en la débarrassant des défauts exploitables. Mais que faire si ce pouvoir tombe dans de mauvaises mains ?

Par exemple, les cybercriminels peuvent utiliser ces fonctionnalités pour scanner un logiciel et trouver des vulnérabilités jusqu’alors inconnues, puis les exploiter. Contrairement à un humain, une IA peut le faire avec la vitesse et la précision d’une machine. Les piratages qui avant prenaient énormément de temps pourraient devenir une réalité plus récurrente dans ce scénario de cauchemar.

Ajoutons ici le fait que, de nos jours, le modèle « as-a-service » est devenu une prestation à la mode pour les cybercriminels. On n’a plus besoin de posséder des compétences en développement afin de pirater quelqu’un. Toute une palette d’outils (de kits d’exploit, de logiciels malveillants etc.) est à la disponibilité d’un simple amateur… s’il est prêt à payer le prix.

Ces services de location-piratage pourraient éventuellement incorporer une IA. Il n’est donc pas difficile pour les experts de la sécurité d’imaginer un monde où les IA peuvent aider les pirates informatiques à créer de puissantes cyber-armes. Alors, qu’est-ce qui les empêche ?

Un facteur essentiel ici est le prix – créer une intelligence artificielle peut coûter cher. Quiconque essaie d’utiliser ce type de technologie à des fins malveillants aura cette barrière d’entrée. En outre, ils devront également sécuriser les meilleurs talents pour la programmation.

Un autre facteur qui peut retarder cette évolution est le besoin. Pour l’instant, il n’est simplement pas nécessaire d’investir autant dans une IA afin de découvrir des nouvelles 0-days. Internet comporte déjà assez de portes dérobées connues.

Avec le temps, cette situation risque de changer. Les coûts de la puissance informatique vont diminuer inévitablement et les vulnérabilités connues seront corrigées en majeure partie. Sommes-nous prêts à affronter le risque d’une guerre virtuelle de type IA versus IA ?

Share.

About Author

Fondateur et Président d’ITrust. Diplômé de l’IUP STRI, ingénieur en télécommunications et réseaux informatiques, il a été successivement Responsable Sécurité de la salle de marché BNP Paribas, consultant sécurité pour la Banque Postale et le Crédit Lyonnais. En 2007, il fonde ITrust et dirige la société.

Leave A Reply