La bulle artificielle de l’intelligence artificielle et l’avenir de la cybersécurité.

Je pense que le récent article du New York Times sur le boom de l’intelligence artificielle dans la Silicon Valley a fait réfléchir sérieusement les individus à propos de l’avenir de la cybersécurité, à la fois dans un futur proche et lointain.

Je crois que des questions comme celles-ci valent la peine d’être étudiées :

  • Où la préoccupation frénétique de l’ « IA », qui n’existe seulement que dans les rêves des futurologues, va-t-elle mener ?
  • Combien de milliards de plus les investisseurs mettront-ils dans les entreprises qui, au mieux, « inventeront » ce qui a été inventé des décennies auparavant, et au pire ne mèneront à rien, simplement à du marketing gonflé… imbéciles ?
  • Quelles sont les vraies opportunités pour le développement des technologies en cybersécurité des machines intelligentes ?
  • Et quel sera le rôle des humains experts dans ce Meilleur des mondes ?

PARFOIS, QUAND JE FREQUENTE DES INCONDITIONNELS DE L’INTELLIGENCE ARTIFICIELLE ICI DANS LA VALLEY, JE ME SENS COMME UN ATHEISTE A UN CONGRES D’EVANGELISTES.

Jerry Kaplan, informaticien, auteur, futuriste et entrepreneur accompli (cofondateur de Symantec)

Ce qui se passe désormais dans le domaine de l’ « IA » ressemble à une bulle de savon. Et nous savons tous ce qu’il arrive aux bulles de savon si elles sont manipulées par des clowns de cirque (sans jeu de mots !) : elles éclatent.

Maintenant, bien sûr, sans mesures audacieuses et sans investissements risqués, un avenir fantastique ne deviendra jamais réalité. Mais le problème d’aujourd’hui est que derrière cette vague d’enthousiasme généralisé pour l’ « IA » (rappelez-vous, l’IA n’existe pas de nos jours, ce pourquoi je mets des guillemets), des sociétés fictives startups apparaissent.

Quelques startups ? Quel est le problème, me direz-vous.

Le problème est que ces startups fictives ne sont pas en train d’attirer des millions mais des milliards de dollars d’investissement, en surfant sur la nouvelle vague d’euphorie autour de l’IA l’apprentissage automatique. Une chose est claire, c’est que l’apprentissage automatique existe depuis des décennies : il a été élaboré pour la première fois en 1959, a été assimilé dans les années 70, a fleuri dans les années 90, et continue d’être florissant ! Aujourd’hui, cette « nouvelle » technologie est re-nommée « intelligence artificielle », elle adopte une aura de science révolutionnaire, elle arrive à avoir les brochures les plus brillantes, les campagnes de marketing les plus splendidement sophistiquées. Et tout ceci est destiné à la faiblesse omniprésente de l’humain de croire aux miracles, et aux théories du complot à propos des soi-disant technologies « traditionnelles ». Mais malheureusement, le domaine de la cybersécurité n’a pas échappé à cette nouvelle bulle « IA »…

artificial-intelligence

Lorsqu’il s’agit de cybersécurite, de nouveaux produits « révolutionnaires » sont mis en œuvre, comme si par magie, ils avaient enfin résolu tous les problèmes de sécurité et protéger n’importe qui et n’importe quoi des menaces informatiques d’un seul coup. Les nouvelles startups ne reculent devant rien pour présenter des informations qui manipulent l’opinion publique et maintiennent une incompréhension générale de la situation réelle. Pendant ce temps, dans les faits réels, sous le capot de certains de ces produits « révolutionnaires », il n’existe pas du tout de « technologies de pointe ». A la place, se trouve une technologie vieille comme le monde, celle de la machine à vapeur ! Mais qui y jette un coup d’œil ? Et qui permet à quiconque d’y jeter un oeil ? Vous pouvez trouver plus d’informations sur cette situation ici.

Certaines de ces startups sont même allées jusqu’à obtenir une introduction en bourse. Certains des capitaux risques initiaux le font bien, s’ils revendent rapidement ; mais à plus long terme, il s’agit d’un marché boursier décevant en tout et pour tout. Pour des affaires déficitaires fondées sur le marketing de produits miracles, elles ne payent pas de dividendes, et la forte baisse du cours des actions après le pic ne peut être arrêtée. Entre temps, cette pyramide machine de marketing brillante et continue doit payer, et ce n’est pas donné.

Un petit retour en arrière s’impose.

Aucun capital risque de l’IA de la cybersécurité n’a encore fait de bénéfices !

Le capital risque est appelé de cette façon car il encourt un risque. Un bon capital risque est celui qui connaît où il est mieux de placer ses fonds (et combien) de manière à en tirer de bons profits dans telle ou telle année. Néamoins, il y a une nuance lorsqu’il s’agit de l’ « IA » : aucun capital risque de l’IA de la cybersécurité n’a encore fait de bénéfices ! Donc pourquoi un capital risque prendrait la peine d’investir dans un capital risque de l’IA ? Bonne question.

Le principal objectif des modèles commerciaux pour la plupart des startups de la Silicon Valley (pas toutes ; il existe des exceptions heureuses) n’est pas d’entreprendre des recherches sérieuses et chères et de présenter des produits/technologies utiles qui se vendront bien. A la place, elles veulent créer des bulles : attirer des investisseurs, vendre vite au prix des actions basées sur l’ « évaluation de futurs profits » et puis… eh bien, ensuite le chaos (pertes massives) sera désormais le problème de quelqu’un d’autre. Mais attendez. Il y a mieux encore : en réalité, les revenus ne font que RALENTIR un tel modèle !

IL NE S’AGIT PAS DE SAVOIR COMBIEN VOUS GAGNEZ MAIS DE CE QUE VOUS VALEZ. ET QUI EN VAUT LE PLUS ? LES ENTREPRISES QUI PERDENT DE L’ARGENT.

Silicon Valley, 2014

Voici un modèle typique d’affaires, un extrait de 75 secondes de la série TV Silicon Valley (bien qu’elle soit drôle et farfelue, elle est basée sur des faits réels !) :

 

Les bulles de l’IA rappellent celle de la bulle du marché immobilier aux Etats-Unis, qui avait eu un effet boule de neige et qui avait rapidement mené à la crise mondiale financière. La pyramide des sous-produits d’investissement fondée sur des hypothèques subprimes convenait à beaucoup de monde : des millions de personnes en ont tiré profit, et des dizaines de milliers d’autres encore plus. Puis soudain, boom : la pyramide s’est effondrée, l’économie mondiale a commencé à être bancale, et les trous ont été bouchés avec l’argent des contribuables pour éviter un Armageddon financier. Les contribuables sont bien évidemment les mêmes personnes et entreprises qui ont investi de l’argent au début. Vous n’êtes pas au courant du scandale de ces dix dernières années ? Je vous conseille de regarder le film The Big Short.

Comme si ce souvenir ne suffisait pas, la bulle de l’intelligence artificielle comporte un autre danger, discréditer l’apprentissage automatique : un des sous domaines les plus prometteurs de la cybersécurité.

Par exemple, la quantité de programmes malveillants a augmenté de près d’un millier de fois en l’espace de dix ans. Au début du siècle, nous analysions chaque jour environ 300 types différents de malwares, désormais ce chiffre a trois zéros derrière lui. Et combien de fois le nombre de nos analystes a-t-il augmenté ? Quatre. Donc, comment nous tenons le choc ? En deux mots : l’apprentissage automatique.

La bulle de l’intelligence artificielle discrédite l’apprentissage automatique : un des sous domaines les plus prometteurs de la cybersécurité.

Aujourd’hui, 99,9% des attaques que nous détectons sont en réalité détectées par nos systèmes automatisés. Vu comme ça, c’est comme si nos analystes n’avaient rien à faire ? Eh bien, c’est tout le contraire. Ils se concentrent sur le peaufinage de ces systèmes pour les rendre plus efficaces, et pour en développer de nouveaux.

Par exemple, nous avons des experts qui ne font rien mais qui couvrent des cyberattaques vrrraaaiment complexes, et qui transmettent par la suite leurs nouveaux savoir faire et compétences sur nos systèmes automatisés. Ensuite, des experts en données scientifiques expérimentent différents modèles et méthodes d’apprentissage automatique.

Contrairement aux startups fictives, nous protégeons les utilisateurs via un gigantesque nuage d’infrastructures, qui est capable de résoudre rapidement et efficacement beaucoup plus de tâches complexes. Et oui, c’est pour cette raison que nous appliquons plusieurs modèles différents de l’apprentissage automatique.

Les seules cyberattaques où nous avons enquêté manuellement sont les rares cas où nous avons été confrontés aux plus complexes. Et pourtant, même si nous disposons des machines nécessaires, nous avons toujours du mal à trouver suffisamment de personnel spécialisé. Qui plus est, le nombre d’exigences spécifiques dont nous avons besoin chez nos analystes de KL est toujours plus grand.

Tôt ou tard, le cirque de « l’intelligence artificielle sauvera le monde » touchera à sa fin. Les experts seront finalement autorisés à tester les produits miracles de l’intelligence artificielle, les clients réaliseront qu’ils se sont fait arnaquer, et les investisseurs perdront de l’intérêt. Mais comment l’apprentissage automatique se développera-t-il par la suite ?

PAR LE PASSE, LA SILICON VALLEY A FAIT FACE A UN FAUX DEPART CONCERNANT L’INTELLIGENCE ARTIFICIELLE. PENDANT LES ANNEES 1980, UNE GENERATION PRECEDENTE D’ENTREPRENEURS CROYAIENT EGALEMENT QUE L’INTELLIGENCE ARTIFICIELLE ETAIT LA VAGUE DU FUTUR, MENANT A UNE EFFERVESCENCE DE STARTUPS. A CETTE EPOQUE, LEURS PRODUITS OFFRAIENT PEU DE VALEUR COMMERCIALE, ET L’ENTHOUSIASME COMMERCIAL AVAIT FINI PAR UNE DECEPTION, MENANT A UNE PERIODE CONNUE AUJOURD’HUI COMME « L’HIVER DE L’INTELLIGENCE ARTIFICIELLE ».

John Markoff, New York Times

Les suites/conséquences de l’éclatement de la bulle de l’intelligence artificielle feront que des domaines similaires en souffriront inévitablement. « L’apprentissage automatique ? Les réseaux de neurones artificiels ? L’analyse cognitive ? Ou d’autres mots tendance à l’intelligence artificielle ? Non merci, ça me suffit ! »

Il y a pire encore : le sort de la bulle de l’intelligence artificielle ternira l’intérêt des technologies prometteuses durant de nombreuses années, tout comme dans les années 80.

Toujours est-il que des vendeurs établis continueront d’investir dans des technologies intelligentes. Par exemple, nous avons introduit les technologies du boosting et l’arbre de décision afin de détecter des attaques ciblées sophistiquées et fournir une protection proactive contre les menaces futures (oui, il y a des menaces qui n’existent pas encore !).

Un domaine de développement particulièrement prometteur est celui d’augmenter la complexité de l’image corrélationnelle des évènements à travers tous les niveaux d’infrastructure et plus tard l’analyse des machines du paysage de données afin de détecter les cyberattaques les plus complexes avec précision et fiabilité. Nous avons déjà mis en place ces éléments sur notre plateforme KATA et sommes impatients d’en développer davantage.

Le sort de la bulle de l’intelligence artificielle ternira l’intérêt des technologies prometteuses durant de nombreuses années, tout comme dans les années 80.

Mais comment les startups honnêtes de l’apprentissage automatique s’en sortiront-elles ? Hélas, le terme abusif de l’intelligence artificielle ne fera que ralentir le développement.

Notons cependant que ce progrès ne s’achèvera pas : il continuera de se développer, quoiqu’à un rythme plus lent.

L’humanité progressera doucement mais sûrement vers l’automatisation de tout ce qui se trouve sous le soleil, jusque dans les processus quotidiens les plus infimes et les plus simples. Il ne s’agira pas uniquement d’automatisation, mais d’interaction adaptative entre l’homme et la machine, fondée sur des algorithmes très avancés de l’apprentissage automatique. Nous assistons déjà à cette interaction adaptative, et la vitesse à laquelle elle est en train de se déployer dans de plus en plus d’applications différentes est parfois effrayante.

Le domaine de la cybersécurité sera lui aussi confronté à une automatisation croissante.

Par exemple, nous avons déjà la solution pour intégrer la sécurité dans le paradigme des « villes intelligentes » (y compris divers aspects robotiques tels que la gestion automatique du trafic routier) pour le contrôle sûr des infrastructures critiques. Et le déficit des experts deviendra encore plus sévère, pas vraiment à cause de la propagation des technologies, mais plus à cause des demandes croissantes concernant les compétences du personnel. Les systèmes de l’apprentissage automatique pour la cybersécurité requièrent des connaissances encyclopédiques et des compétences affûtées spécifiques à partir d’un large éventail de domaines (y compris le big data, des preuves informatiques et des enquêtes, et la programmation de systèmes et d’applications). Il est rare de trouver un être humain qui possède toutes ces connaissances spécifiques et l’expérience requise : c’est ce qui fait des spécialistes des individus vraiment exclusifs/hauts de gamme/leaders. Et enseigner toutes ces connaissances spécifiques et vastes n’est pas non plus chose facile. Mais c’est nécessaire si nous voulons assister à un véritable développement des technologies intelligentes. Pas le choix.

Qui sera donc en charge de ce Meilleur des mondes dans le futur ? L’homme continuera-t-il à contrôler les robots ? Ou ce sera l’inverse ?

En 1999,  Raymond Kurzweil a proposé une théorie sur l’intelligence symbiotique (même si d’autres ont eu d’autres idées similaires auparavant) : la fusion de l’homme et de la machine, un organisme cybernétique combinant l’intelligence des humains et le gigantesque pouvoir informatique des superordinateurs (« intelligence humachine »). Ceci n’est pas de la science-fiction, c’est déjà en train de se produire. Et son développement continu est à mon humble avis, non pas seulement la voie la plus probable, mais aussi la plus bénéfique vers le développement de l’humanité.

La fusion de l’homme et de la machine n’est pas seulement la voie la plus probable, mais aussi la plus bénéfique vers le développement de l’humanité.

Mais le développement futur de la fusion de l’homme et de la machine ira-t-il aussi loin au point d’atteindre la singularité technologique ? L’homme perdra-t-il la capacité de dominer la situation, laissant le plein contrôle du monde aux machines de manière irréversible ?

L’élément clé d’une machine purement dotée de l’intelligence artificielle est la capacité de s’améliorer et de se perfectionner encore et encore sans l’intervention de l’homme, une aptitude qui pourrait sans cesse s’accroître jusqu’à sortir des limites de ses algorithmes. En d’autres termes, une machine purement dotée de l’intelligence artificielle est une nouvelle forme d’intelligence. Et le lointain (mais théoriquement probable) jour qui annoncera « la sortie de l’algorithme » signalera le début de la fin de notre monde tel que nous le connaissons tous. Pour le bien de l’humanité, selon les lois de la robotique, les machines pourraient un jour nous débarrasser de la souffrance mentale et le fardeau de l’existence.

IA : UNE VRAIE PERCEE DANS LA CYBERSECURITE OU UNE OPERATION MARKETING ? @E_KASPERSKY S’EN PREND A LA BULLE DE L’INTELLIGENCE ARTIFICIELLE ET MISE SUR L’APPRENTISSAGE AUTOMATIQUE #AI_OILTWEET

Ou… peut être qu’un programmeur (comme c’est toujours souvent le cas) laissera quelques bugs dans le code ? Attendons de voir…

ai_oil

LIRE LES COMMENTAIRES 0
Laisser un commentaire