TELECOM PARIS ALUMNI
Retour aux actualités
Article suivant Article précédent

Revue TELECOM 192 - Compte rendu du Télécom Paris Talks 13 décembre 2018 L'impact de l'Intelligence Artificielle dans les métiers de la Cybersécurité

Articles Revue TELECOM

-

11/04/2019


COMPTE RENDU DU TELECOM PARIS TALKS ¹



13 décembre 2018 L’impact de l’Intelligence Artificielle dans les métiers de la Cybersécurité


Par Laura Peytavin (1990) dans la revue TELECOM n° 192


Les intervenants


Propos introductifs

La conférence part d’un premier exemple très illustratif et qui marque les esprits, celui du combat réalisé de plusieurs Intelligences Artificielles (IA) entre elles en 2016 lors d’un « Cyber Grand Challenge » organisé par la DARPA aux Etats-Unis. Les nécessités nouvelles qui appellent l’Intelligence Artificielle à la rescousse de la cybersécurité ont été énumérées : les architectures en nuage (les « clouds ») avec toujours plus de complexité logicielle (les SDN), les APIs insuffisamment sécurisées aux effets systémiques en cas de panne, les tailles toujours plus massives de données à traiter, les objets connectés déployés par milliards laissés sans protection, et enfin les utilisateurs, nous les humains, toujours aussi faillibles, sujets à de l’ingénierie sociale– avec en filigrane une société numérique où les « fake news ou infox » (pris dans son acception la plus large) constituent une des plus grandes des menaces.

Les intervenants sont notamment invités à chercher les réponses aux grand questionnements suivants :

• En quoi l’IA bouleverse les champs de la cybersécurité, et en particulier est-ce que l’IA est plus au service de l’attaque que de la défense ?

• Quels sont les impacts de l’IA sur les formations nécessaires aux futurs experts, et en général sur les métiers et les carrières en cybersécurité ?


Le point de vue de l’ANSSI sur les apports de l’IA à la cybersécurité

Le secteur exprime une attente forte vis-à-vis de l’IA dans le domaine de la détection, notamment pour détecter les nouvelles menaces pour lesquelles on ne dispose pas encore de marqueurs techniques, et donc repérer ce qui n’est pas encore connu. L’apport sous l’angle du traitement d’un très grand nombre d’événements est également très appréciable ;

• Cependant, à ce stade, l’ANSSI défend une vision qui nécessite une supervision humaine de la détection, quand bien même elle s’appuierait sur des outils d’analyse basés sur l’IA ;

• Concernant l’IA dans les cyberattaques, à ce stade il n’y a pas d’exemple public connu, mais les capacités d’automatisation (souvent rapprochées de l’IA) et de latéralisation permettent l’élaboration d’outils (virus) de plus en plus sophistiqués ;

• Concernant les métiers, le rapprochement entre les data-scientistes du monde académique « IA » et les experts cyber est un enjeu clé, sachant que la communauté IA est déjà très sollicitée sur beaucoup d’autres problématiques.


Le point de vue académique

Grégory Blanc cite un article du MIT Technology Review d’août 2018 qui explique que l’avènement de l’IA en cybersécurité est pour l’heure très directement motivé par le volume du travail de détection des menaces qui s’accroit et par le manque de compétence et ressources pour faire face à ces menaces, avec un objectif d’automatisation de la détection et de la réponse la plus complète possible, avec comme matière algorithmique principale les solutions d’apprentissage supervisée dans leur ensemble.

Au niveau recherche en France et en Europe, il y a cependant encore une certaine dichotomie entre les communautés académiques en science des données (Big Data) et en Cybersécurité. Par contre au sein de la communauté Cybersécurité, 2018 aura été, après l’année GDPR en 2017, une année de workshops, publications et conférences très largement consacrés à l’IA (conférence CE&SAR et l’European Cyber Week de novembre entre autres).

Au niveau des cursus des étudiants en cybersécurité aujourd’hui à Télécom SudParis, l'enseignement des sciences des données et de la cybersécurité sont pour le moment disjoints, mais avec de premières intégrations de notions de data science pour permettre aux étudiants de mieux appréhender les outils de détection et de supervision qui reposent sur ces concepts.

Grégory signale qu’il faut cependant toujours faire attention aux résultats de recherche qui sortent et qui sortiront encore. Le travail se fait sur des jeux de données qui sont toujours trop petits et non équilibrés, tempérant ainsi ce sentiment de « magie » de l’apprentissage supervisé.

Enfin, Grégory conclue sur de nouveaux travaux dans le domaine de l’empoisonnement de données et de l’évasion de modèles appris (adversarial machine learning), activités qui commencent pour chercher à anticiper ce que seront les contre-attaques de jeux de données pollués à dessein par les attaquants.


Les principaux thèmes et questions débattus lors de la table ronde

« Pourquoi parle-t-on tant d’IA en 2018 dans les métiers de la Cybersécurité ? »,

Il y a eu beaucoup d’attaques systémiques récentes, qui ont fait du bruit et ont précipité le besoin de comprendre ce que l’IA va apporter comme nouvelles capacités offensives et comme moyens de défense dans le proche avenir.

Alors que les données numériques à protéger ne cessent d’augmenter en volume et en valeur alors que dans le même temps l’innovation apportée par l’apprentissage profond semble apporter beaucoup de promesses.

Cependant, le problème de l’explicabilité et de la traçabilité des approches connexionnistes (réseaux de neurones profonds) est partagé. Il pose un problème juridique lorsqu’il s’agira de dresser les responsabilités lors d’incidents ou accidents numériques.

Les intervenants conviennent que les approches qui seront suivies pour assurer notre sécurité numérique n’abandonneront pas facilement l’hybridation dans les solutions et les processus, mêlant approches classiques explicables (analytiques ou à base de règles) et pures approches par apprentissage supervisé.

Pour le moment le « mindset » et le capital de savoir-faire des professionnels en cybersécurité tournent autour de la sécurité des systèmes, des réseaux, du code, qu’ils soient du côté des hackers ou des analystes en cyber-veille. Quand et comment sauront-ils embrasser aussi les savoirs et les compétences des data-scientists et des spécialistes de l’apprentissage supervisé ? Pour Grégory Blanc, il est vraisemblable que l’imagination et l’innovation est au pouvoir chez les hackers eux-mêmes dont certains sont d’excellents mathématiciens et pour qui les modèles connexionnistes et d’apprentissage supervisé ou non supervisé ne font pas peur. Ils mettront en œuvre des attaques illustrant ces synergies, nourris d’une motivation supplémentaire consistant à aller chercher ce qu’il y a sous le « capot de l’IA ».

En terme académique, les cas d’usage de cybersécurité qui se présentent désormais vont donner l’occasion de voir converger les deux domaines Big Data et Cybersécurité - pour in fine une IA au service de la cybersécurité, et vice et versa une cybersécurité au service de l’IA.


Peut-on décrire plus précisément des cas d’utilisation de l’IA en préparation par les hackers ?

Après des attaques virales récentes, de nature systémique, de type « Wanacry » et « Not Petya », qui ont joué finalement par opportunisme en exploitant des vulnérabilités négligemment trop répandues encore, on peut penser que l’IA va permettre aux attaquants de passer de l’opportunisme à la préparation avec scans massifs des « devices » sur Internet, de malwares boite à outils effectuant de la préanalyse pour construire ainsi des attaques massives, systémiques et polymorphes à la fois.

On constate déjà dans la cinétique des attaques latérales les formes d’une meilleure intelligence pour aller chercher les comptes les plus vulnérables et les comptes à haut privilèges.

On pressent que l’analyse des réseaux sociaux par des outils d’IA va permettre des spear phishing extrêmement ciblés et bien fait – La protection des accès par captcha risque par exemple de subir des attaques par usage systématique de reconnaissance de caractères ou d’images très performantes.

Le Cyber Grand Challenge et d’autres expérimentations par IBM laissent présager que des outils d’IA utilisés par des hackers pourraient devenir très dangereux ; quand on voit par exemple ce que donne la convergence entre deux réseaux de neurones qui apprennent l’un de l’autre. C’est ainsi que des « password cracker » extrêmement performants ont déjà vu le jour.

La mise à disposition dans le domaine public opensource d’outils d’analyse d’image pour recomposer une partie d’image manquante ou de recomposition des mouvements des lèvres est préoccupante car c’est l’outil idéal pour réaliser des attaques par messages frauduleux de type « attaque au président ».


Quels risques supplémentaires font peser les objets connectés ?

Ils sont très nombreux (plusieurs milliards) et rajoutent à chaque fois de nouveaux risques. Ces objets n’auront toujours que des ressources limitées pour s’auto-protéger, ce qui fait que le problème de leur sécurité ne sera jamais maîtrisé par design. Il est probable que la cybersécurité des constellations d’objets connectés passera plutôt par l’usage de de modèles d’apprentissage non supervisé voire même markovien adapté à un périmètre d’analyse peu maîtrisé.


Sur le déficit en termes de profils et experts en cybersécurité. Que voit-on des besoins et profils à l’avenir ?

La cybersécurité passe par la protection des cibles, qui, en premier rideau, sont très souvent les êtres humains eux-mêmes, avec leur faille utilisée par l’attaquant pour leur faire faire la ou les premiers étages de l’attaque ou de la compromission. Et pour les tromper, l’IA est déjà à l’œuvre pour faire de l’ingénierie sociale à grande échelle. À ce niveau, les compétences sont relativement éloignées de la connaissance de codes malveillants mais plutôt à la croisée de l’analyse comportementale, de la maitrise du langage (chatbot) et même de la psychologie humaine. Tout un pan de savoir qui ouvre à des profils complètement différents de ceux qui intégraient le secteur auparavant.

L’apprentissage supervisé dans les techniques d’IA est marqué par des biais cognitifs de leur concepteur et des administrateurs. Ces biais en cybersécurité comme dans tout autre domaine sont dommageables de telle sorte que le secteur qui n’a de cesse de chercher des talents qui manquent à l’appel doit en profiter pour ouvrir les portes à plus de femmes et de profils différents.


Que peut-on dire sur les perspectives économiques croisés des secteurs IA et cybersécurité ?

Le marché de l’IA connait une croissance de 34% par an, et de son côté le secteur de la cybersécurité croit de 15% par an.


Que peuvent dire les acteurs du secteur sur l’éthique et la morale de leur métier ?

Les hackers ne sont pas les commanditaires directs de la plupart des attaques. Ce sont les donneurs d’ordre qui sont divers, depuis les mafias, des intérêts privés divers jusqu’au états. Les spécialistes du secteur sont la plupart des entreprises qui innovent pour continuer à protéger contre des menaces cyber toujours plus sophistiqués et nombreuses, mais aussi des individus très sensibles aux valeurs d’une société numérique éthique et juste (ex le refus des employés de Google pour la mise à contribution de leur IA sur un contrat avec la NSA).

Par ailleurs François Charbonnier de l’ANSSI rappelle que la France a été à l’initiative d’un cyberespace dans lequel le « hack-back » des états serait combattu pour éviter des escalades ravageuses.



Biographie de l'auteur


Laura Peytavin, diplômée de Télécom ParisTech (1990), est consultante avant-vente chez Proofpoint, certifiée CISSP depuis 2017. Elle est vice-présidente de l’association Télécom ParisTech alumni et y co-anime son groupe professionnel Cybersécurité.

 @LauraPeytavin

 www.linkedin.com/in/laurapeytavin




128 vues Visites

J'aime

Commentaires0

Veuillez vous connecter pour lire ou ajouter un commentaire

Articles suggérés

Articles Revue TELECOM

Revue TELECOM 194 - Editorial Laura Peytavin et Yves Poilane

User profile picture

Rédaction Revue TELECOM

13 novembre

Articles Revue TELECOM

Revue TELECOM 193 - La kippa bleue

User profile picture

Rédaction Revue TELECOM

15 juin

Articles Revue TELECOM

Revue TELECOM 193 - La transformation digitale (numérique) 2.0

User profile picture

Rédaction Revue TELECOM

15 juin