Archives du mot-clé intelligence artificielle

Le mythe de la Singularité : faut il craindre l’intelligence artificielle ? Un livre passionnant de Jean-Gabriel Ganascia

Le mythe de la Singularité : faut il craindre l'intelligence artificielle ? Jean-Gabriel Ganascia

Le mythe de la Singularité : faut il craindre l’intelligence artificielle ? Jean-Gabriel Ganascia

L’intelligence artificielle fait partie de ces buzzwords très présents aujourd’hui dans les médias alors que le sujet existe depuis de nombreuses années (1). (Re)lire à ce sujet Innovation et technologies numériques, ou l’éternel retour et le gai savoir Oct. 2016 sur ce blog.

Le terme Intelligence articielle lui-même a été inventé en 1955 (plus de 60 ans déjà) et pour la presse, il inclut pèle-même les chatbots, le deep learning, les algorithmes, le big data, les robots …  Le sujet fait peur, renvoie vers la domination à venir de la machine / ordinateur / robot sur l’homme, et le spectre du chômage de masse. Une image sombre et c’est demain.

Dans ce contexte, la lecture d’un livre nommée « Le mythe de la Singularité : faut-il craindre l’intelligence artificielle ? » s’impose. Son auteur, Jean-Gabriel Ganascia, philosophe, professeur, chercheur au CNRS (en particulier dans le domaine de l’intelligence artificielle) connait bien le sujet et dans une livre concis, il analyse avec raison et passion deux sujets complémentaires, l’intelligence artificielle et son corollaire la Singularité. Peu sont ceux qui osent avoir une vision différente, qui ose questionner la pensée unique sur le sujet, une pensée partagée par de grands scientifiques comme Stephen Hawking  et patrons des grandes entreprises numériques américaines comme Elon Musk (2), et c’est ce qui rend la lecture du livre de Jean-Gabriel Ganascia particulièrement passionnante.

L’intelligence artificielle est là, bien là pour Jean-Michel Ganascia, mais sous plusieurs formes. Il développe les différences entre le concept de départ,  l’intelligence artificielle faible,  l’intelligence artificielle forte et l’intelligence artificielle générale. Il y a confusion ce qui n’aide pas à la clarté du débat mais c’est surtout la Singularité qui pose le plus de problèmes à l’auteur.

Rappelons que c’est la date à laquelle les ordinateurs seront plus «  intelligents  » que les hommes (et prendront le pouvoir). Les deux prédictions les plus connues sont 2023 pour Vernor Vinge, l’écrivain de science-fiction qui a imaginé le concept, et 2045 pour d’autres comme Ray Kurzweil, futurologue et « chef produit » chez Google. (3)

By Courtesy of Ray Kurzweil and Kurzweil Technologies, Inc.

By Courtesy of Ray Kurzweil and Kurzweil Technologies, Inc.

Jean-Gabriel Ganascia explique donc que la théorie de la Singularité est basée sur deux « lois » ou plutôt conjonctures : celle de Moore et celle de Ray Kurzweil, et sur un concept de science fiction. La loi de Moore prévoit l’augmentation régulière sans fin de la puissance de calcul des processeurs, nécessaires au développement de l’intelligence artificielle. La prédiction de Ray Kurzweil qui, à partir de sa vision de l’histoire de notre planète qu’il imagine asymptotique, associé avec la loi de Moore, aboutit à l’arrivée prochaine de la Singularité. Enfin,  l’auteur regrette que ce soit la science fiction qui soit le socle du concept, car il n’y pas de science dans ce concept.

Rien de scientifique, uniquement des conjonctures non prouvées, dans ces trois éléments servant de base au développement de cette Singularité d’où la notion de Mythe, titre du livre. L’auteur démonte avec précision et une approche à la fois pragmatique et philosophique les trois bases du mythe qui s’effondre de lui-même si on analyse les faits.

Il note également le côté mystique des discours des tenants de la singularité. La Singularité  comme une parousie technologique, une date messianique, qui ajoute du mystère au mythe. (4) (5)

MIT Technologie Review

MIT Technologie Review

La conclusion de Jean-Gabriel Ganascia peut surprendre. Il nous parle des pompiers pyromanes,  le terme décrivant les grandes entreprises numériques (les GAFA+) qui développent l’intellignce artificielle ET qui mettent en garde sur ces dangers potentiels.  Ces entreprises communiqueraient beaucoup sur ce sujet car pendant ce temps-là, on ne parle pas des dangers beaucoup plus présents et réels de pans entiers de responsabilité que les états abandonnent en matière de santé, d’éducation, d’identité à ces mêmes entreprises. Il appelle ce concept le « détournement d’attention ». Est-ce volontaire ? Au lecteur de décider. Mais c’est le vrai sujet qui devrait nous inquiéter beaucoup plus que le mythe de la Singularité.

Une lecture chaudement recommandé d’un auteur humaniste, entre Renaissance et Cioran, pensant différemment et l’exprimant clairement et factuellement. Indispensable.

A suivre, avec la lecture de la Guerre des Intelligences du Dr Laurent Alexandre.

@PierreMetivier

Notes

Neil Graham - Artificial intelligence - 1979

Neil Graham – Artificial intelligence – 1979

  1. L’auteur de cet article lui-même a étudié le sujet pendant ces études universitaires il y a « quelques » années et nombreux sont les concepts déjà présents à l’époque. Merci de ne pas me demander la date de ces études mais ni le web ni les mobiles n’existaient (rassurons le lecteur, les dinosaures avaient disparu !). Indice –>
  2. Même si de grands noms de la science et de l’industrie supporte l’idée de singularité technologique, d’autres n’y « croient » pas parmi lesquelles :  Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier, et Gordon Moore (celui-là même de la loi citée en support du concept). Source Wikipedia
  3. Sur ces dates, sachant que personne n’a su prédire l’arrivée de Twitter ou de Facebook, leur développement, leur rôle dans le monde d’aujourd’hui, pour ne citer que ces deux exemples récents, la raison conseille de prendre avec prudence toutes ces dates annoncées et toutes les prédictions.
  4. On retrouve ces mêmes accents mystiques chez les défenseurs des bitcoins et de la blockchain. Nous l’avions noté en lisant le livre de Philippe Rodriguez, la révolution blockchain, un même vocabulaire religieux, une naissance sans père (dans le cas de la blockchain), un crédo nécessaire – La révolution blockchain, un livre qui ne laisse pas indifférent.
  5. On the possibility of divine intelligence, Ray Kurzweil is quoted as saying, « Does God exist? I would say, ‘Not yet.’

Pour aller plus loin

EnregistrerEnregistrer

EnregistrerEnregistrer

EnregistrerEnregistrer

EnregistrerEnregistrer

EnregistrerEnregistrer

EnregistrerEnregistrer

Innovation et technologies numériques, ou l’éternel retour et le gai savoir

Portrait de Nietzsche (c) Seb Jarnot pour Philosophie magazine

Portrait de Nietzsche (c) Seb Jarnot pour Philosophie magazine

Ce qui va suivre n’est pas un billet autour des idées de Nietzsche. C’est une simple citation d’un concept et d’un livre pour illustrer des sujets plus prosaïques de notre monde numérique.

Et d’abord, l’éternel retour utilisé dans son sens premier. De très nombreuses produits ou services technologiques, allant changer notre vie, sont présentés à longueur de média. Pourtant, pour beaucoup d’entre eux, ils existent depuis « longtemps », lancés sous d’autres noms, avec plus ou moins de réussite. Ils disparaissent et reviennent, toujours plus révolutionnaires mais sans toujours plus de succès. Nous allons passer en revue très brièvement quelques-uns de ces produits et technologie sans ordre particulier.

Villa Arpel - Mon oncle de Jacques Tati

Villa Arpel – Mon oncle de Jacques Tati

La smart home ou maison connectée. C’est une nouvelle version de la domotique, elle-même basée sur les automatismes de portail ou de volets. Cette domotique a longtemps végétée, la faute au manque d’installateurs passionnés, à l’absence d’interopérabilité, à la pléthore de standards, aux prix conséquents, à un manque d’usage réel, résultant d’une clientèle réduite. Jacques Tati s’en moquait gentiment dans « Mon Oncle » en 1958, il y a près de 60 ans. La smart home est le retour de la domotique, cette fois connectée, avec les acteurs des GAFA, comme Google (Nest), Apple (Home/Homekit), Amazon (Alexa) ayant rejoint ce marché. Malgré les progrès indéniables, (presque) tous les freins cités précédemment existent toujours si on veut automatiser sa maison.

Les wearables ou bracelets connectés mesurent de nombreuses caractéristiques de votre course ou votre randonnée à vélo. Ils existent depuis des années, chez Garmin par exemple. Les cyclosportifs et les cyclotouristes ont pour beaucoup des montres GPS ou des ordinateurs de bord qui mesurent toutes sortes de données y compris fréquence de pédalage ou le rythme cardiaque. Rien de nouveau sous le soleil de la Vallée de Chevreuse ou des pentes du Mont Ventoux.

Albert Ducrocq - L'ère des robots - 1953

Albert Ducrocq – L’ère des robots – 1953

La robotique, autre sujet mythique, est encore plus ancien. Des automates de Vaucansson à Nao et Pepper, il y a eu beaucoup de projets annoncés, de livres, de films, générant de nombreux fantasmes.

En 1953, il y a plus de 60 ans, Albert Ducrocq a écrit « L’ère des robots ». Il y parlait déjà de révolution industrielle, de capteurs, de traitement de l’information ou d’imagination artificielle.

Les robots industriels (ou la mécatronique) sont clairement un domaine avancé et ils équipent de nombreuses usines, mais qui, parmi vous, chers lecteurs, possède un robot chez lui (hors éventuellement) un bot aspirateur ?

Neil Graham - Artificial intelligence - 1979

Neil Graham – Artificial intelligence – 1979

L’intelligence artificielle date des années 50 (John Mc Carthy / Marvin Minsky) et on la retrouve sous différents noms et variantes comme les réseaux neuronaux, les systèmes experts et plus récemment le machine learning ou deep learning. L’idée est de « programmer l’intelligence » des machines grâce à des algorithmes.

La progression de ces algorithmes est indéniable mais elle est aussi (surtout?) permise par l’augmentation de la puissance de calcul, de capacités de stockage et de la disponibilité des données.

Les données, justement, plus ou moins big et open, ont toujours existé, stocké sur des tablettes d’argile ou des papyrus. Au Moyen-Age, le cloud (*) était au Mont Saint Michel. Ces données se sont développées avec l’imprimerie, plus récemment stockés dans des bases de données relationnelles. Le terme big data a presque 20 ans (1997).  Et les applications réelles sont encore rares, si beaucoup d’acteurs rêvent d’en faire plus.

MOS Commodore Kim computer kit - 1975

MOS Commodore Kim computer kit – 1975

Autour des makers, les kits de type Arduino ou Raspberry Pi ressemblent à s’y méprendre au kits électroniques que l’on pouvait acheter dans les magasins d’électronique il y a des dizaines d’années. Nous y avons consacré un article. Et il y avait déjà des cartes avec processeurs, comme le Kim chez MOS / Commodore, dans les années 70, pour les plus aventureux des hobbyistes de l’époque (parents des makers d’aujourd’hui) qui souhaitaient disposer d’un ordinateur en kit, programmable en assembleur.

  • Pour aller plus loin – C’est l’histoire d’un make ou plus exactement un test de Keyduino, un kit Arduino et NFC
Le vidéotéléphone 1948

Le vidéotéléphone 1948

La vidéo-conférence a été le sujet d’un des tous premiers articles de ce blog il y a 6 ans. Les premiers prototypes  de vidéo conférence datent d’avant la deuxième guerre mondiale, et cette technologie n’a pas trouvé son marché (hors un peu de télé-conférence professionnelle). Elle a été remplacée par les ICQ, AIM et autres MSN Messengers eux-même remplacés par Skype, puis Periscope, Whatsapp avant la prochaine fournée.

Et l’internet des objets ? Le terme a été inventé par Kevin Ashton au siècle dernier (1999) alors qu’il travaillait sur la RFID au Auto-ID center. Avant cela, en 1982, un distributeur de boisson avait été déjà connecté à l’université Carnegie Mellon. Le M2M ou MachineToMachine, l’informatique ubiquitaire, d’autres noms pour un même concept de connexion des objets.

Et on aurait pu ajouter la voiture autonome, la virtualisation, les imprimantes 3D … la liste est longue (et ce billet aussi, trop).

« Tout cela pour en arriver où, vieux bougon ? » me demande un lecteur (dont je tairai le nom mais qui a raison de poser la question. NDLR).

Il faut continuer de rêver et d’imaginer tout en sachant garder raison, en prenant du recul au delà des buzzwords, sur toutes les annonces des prochaines révolutions technologiques, sur les startups qui vont tout changer aujourd’hui ou demain matin.

Ceci dit, il y a des évolutions. Et même si il y en a toujours eu, elles semblent s’accélérer.

  • D’abord, les technologies et l’infrastructure évoluent. La disponibilité de nouveaux nombreux capteurs, de mobiles, de cartes de développement plus petites, économiques et puissantes, d’une connectivité abondante et variée, nous incite à penser que certains produits et services, qui ont échoués par le passé peuvent devenir de vraies innovations. Entre un flop et un succès, il y a parfois 10 ou 20 ans. Par exemple, 17 ans séparent deux tablettes d’Apple – le Newton (flop) et l’iPad (succès). N’oublions pas non plus le monde open que l’on peut rapprocher du gai savoir, permettant à des millions de créateurs, de développeurs d’imaginer et partager leur travail et leur connaissances et donc amplifier le mouvement.
  • Ensuite, il y a heureusement quelques concepts réellement nouveaux, qui ont émergés récemment, comme la blockchain ou les ordinateurs quantiques dont les applications et les usages restent bien sûr à être imaginés et conçus.

Dans tous les cas, la question reste la même – trouver des usages à toutes ces technologies. Sans usages, point d’innovation. Tant que cela reste sur le papier des magazines ou entre des balises HTML, mais pas dans les habitudes des consommateurs ou dans les infrastructures qui font tourner notre monde, toutes ces belles idées resteront de beaux exercices de style. Une innovation ne se décrète pas, elle se constate comme nous le répétons régulièrement.

Pour en revenir à Nietszche, en plus du concept d’éternel retour (des idées technologiques), le gai savoir est une métaphore qui rapproche tous ceux qui, non seulement voient dans les applications permises par la technologie numérique (mais pas que) une manière d’améliorer la vie de chacun mais y contribuent et partagent leur travail, créant ainsi des innovations citoyennes de plus en plus nombreuses.

Pour terminer avec notre philosophe, rappelons aussi ses mots prophétiques, extraits des Fragments posthumes, semblant annoncer l’arrivée de l’internet et des réseaux sociaux il y a plus de 115 ans. « Grâce à la liberté des communications, des groupes d’hommes de même nature pourront se réunir et fonder des communautés. Les nations seront dépassées ». Etonnant, non ?

A suivre

@pierremetivier

(*) Aujourd’hui, le cloud, c’est l’ordinateur de quelqu’un d’autre, excellente définition de Tristan Nitot.

Pour aller plus loin