Illustration : H. W. Wesso Edmond Hamilton, « The Universe Wreckers » in Amazing Stories, Volume 5 N°2, 1930.

Q198 | Demain, l’histoire d’un futur technologique

Début

Le contenu de ce billet fait partie de l’ouvrage Situations 2043. Découvrez réflexions et récits prospectifs et n’hésitez pas à lancer le débat !

Couverture du livre Situations 2043 co-rédigé par Frédéric Jaccaud, Boris Bruckler, Laurent Bolli et Rodolphe Koller.
Illustrations et mise en page par Maxime Schertenleib

1. Bienveillant faiseur de mots.

Ces lignes sont écrites le 29 mai 2023. Voilà six mois jour pour jour que ChatGPT est disponible sur le Web. Cette date restera, dans l’histoire des technologies, comme celle de l’arrivée sur la grande agora du Web des interfaces en langage naturel [1] basées sur des algorithmes d’intelligence artificielle.

On en entendait bien sûr parler depuis longtemps, comme une sorte de pratique technico-magique, encore assez éloignée des usages concrets destinés au grand public. Mais d’un jour à l’autre, du 29 au 30 novembre 2022, ChatGPT, service proposé par la société OpenAI, apparaît sur nos écrans et bouleverse notre rapport à l’IA et plus généralement à l’information.

D’un concept diffus, lointain, spécialisé, en devenir, l’intelligence artificielle devient réelle, face à nous, internautes interloqués. La combinaison de la simplicité extrême du dialogue écrit sous la forme d’une conversation naturelle, le « chat », et de la magie de l’instantanéité des réponses artificielles servies par le modèle sous-jacent, le « GPT » [2], fascine les plus aguerris des ingénieurs comme les étudiants les moins attentifs. Toutes autres formes d’interfaces avec des bases de connaissances physiques ou numériques semblent tout à coup devenues comme de vieux albatros cloués au sol, terriblement gauches et veules, pour reprendre la métaphore de Baudelaire.

Nous sommes comme projetés dans un futur qui paraissait encore si loin, habitués aux processus spasmodiques de ruissellement des inventions de laboratoires sur le marché accessible au grand public. L’histoire des technologies ne regorge pas d’exemples similaires. On peut penser à l’imprimerie qui dans le même ordre d’idée a permis de rapidement diffuser le savoir. On peut également citer le moteur thermique qui a complètement transformé notre rapport à la puissance et aux flux des biens et des personnes. Dans l’espace dématérialisé, la messagerie électronique a été un bouleversement de nos usages dans l’échange d’informations. Mais rien d’un tel impact.

Le rôle des copistes a duré plus de cent ans après l’invention de l’imprimerie, le moteur thermique a mis plus d’un demi-siècle pour être disponible auprès du plus grand nombre (Ford T, seize millions d’exemplaires), et le message électronique et les autres paradigmes d’interaction que nous utilisons tous les jours, présentés par Doug Engelbart en 1968, n’ont été rendus accessibles que quinze ans plus tard dans un produit véritablement industriel : ce sera le Macintosh.

Avec ChatGPT, l’adoption est d’une fulgurance d’un tout autre ordre, que seul le réseau social TikTok approche un peu [3]. Il n’a fallu qu’une dizaine de mois pour que la valeur de la société dépasse les trente milliards de dollars et accueille plus de 1,8 milliard d’utilisateurs. La quatrième version du modèle, déjà, se base sur plus de cent soixante-quinze milliards de paramètres qui rendent ainsi possibles n’importe quels types de résultats composés de chiffres et de lettres, que ceux-ci soient du code informatique, de la poésie, du récit fantastique, un jeu textuel, un diagnostic médical ou l’imitation des alexandrins de Baudelaire [4].

Cette intégration immédiate d’une nouvelle technologie dans nos quotidiens, ce passage direct du laboratoire de recherche à nos bureaux, sont tout à fait inhabituels. La sensation de puissance instantanée que procure l’utilisation de ChatGPT fascine, effraie, soulève les médias, réveille brutalement les élites politiques, économiques et culturelles et fait rire les étudiant-e-s qui ont entre les mains un faiseur de mots qui les dispense de fastidieuses heures de rédaction.

Couverture du Time Magazine du 6 mars 2023

De la couverture du Time Magazine du 6 mars 2023 qui affiche une capture d’écran demandant à ChatGPT ce qu’il pense du titre composé par les humains journalistes, à la décision de l’État italien, sur recommandation des autorités responsables de la sécurité des données, de couper l’accès au service sur le territoire, en passant par la grève prononcée en mai 2023 par le syndicat des scénaristes américains, la planète est en complète ébullition.

Tout le monde est pris de cours et personne ne sait quoi faire. Mais tout le monde teste et personne ne décroche. Une seule conversation avec le robot langagier et nous voilà dépendants, déjà partagés entre volonté d’abstinence et enivrement de puissance. La scène de l’IA s’empare du modèle et la ruée vers l’or (qui n’a pas été dématérialisée) est lancée. Des centaines de nouveaux services, plus impensables les uns que les autres, voient le jour [5] et de nouvelles galaxies de start-ups illuminent le cloud. Les réseaux médiatiques surchauffent face à l’avalanche de promesses de lendemains qui chantent auxquels répondent les sirènes catastrophistes, dans un vacarme assourdissant.

La tchatche du chat : le travestissement de l’IA

Cette adoption quasi instantanée, bouleversante, n’est pas du fait de l’IA à proprement parler, mais d’une compréhension fine des méthodes d’optimisation de nos rapports avec des systèmes complexes, des machines. Ce rapport implique une constante négociation avec le cœur des systèmes techniques qui se déroule sur une interface, c’est-à-dire un point de rencontre possible, situé à mi-chemin entre la cognition humaines et les processus électriques binaires des machines. On parle d’interactions humain-machine (IHM), et c’est en résumé l’ensemble des méthodes, outils et artefacts déployés pour instrumenter les machines et intelligibiliser les échanges de charges électriques des milliards de transistors qui composent les microprocesseurs.

Cette discipline, issue de l’ergonomie, des sciences cognitives et de la psychologie, est souvent appelée UX, acronyme de User eXperience (expérience utilisateur), lorsqu’il s’agit de son application aux interfaces Web et aux objets connectés. Personnifiée par la figure emblématique de Donald Norman [6], qui a lancé le terme, l’UX permet d’identifier les paradigmes d’interaction les plus susceptibles d’être adoptés par les utilisateurs concernés.

Source : inria.fr

Dans le cas de ChatGPT, le travail sur l’interaction s’est porté sur la manière d’entrer des textes et d’afficher les réponses. La modalité de la conversation textuelle, c’est-à-dire le « chat » (bavarder, converser, discuter en anglais) est un vrai coup de génie des concepteurs de l’interface. C’est d’abord une interaction très connue qui ne demande aucun apprentissage : les gens échangent déjà des milliers de messages via leur smartphone de cette manière. La compréhension du « comment faire » est instantanée.

Ensuite, une approche esthétique minimaliste est adoptée. L’écran est dégagé de toute autre incitation à l’interaction : pas de menu, pas de message, pas d’annonce, pas de chemin alternatif. Seul le champ d’entrée est présent sur la page. Il ne contient pas d’indication sur le comment, par une injonction de type « demandez-moi quelque chose » ou « décrivez ce que vous cherchez », des phrases qui renforceraient la fonction du système. Non. L’injonction est d’un autre ordre : « envoie un message » [send a message].

Cet appel à l’action est remarquable, car il induit immédiatement chez l’internaute la manière d’interagir – l’échange de messages – comme il ou elle le ferait avec n’importe quel autre de ses contacts humains. On est déjà ailleurs que dans un moteur de recherche classique. Finalement, la réponse au message ne parvient pas d’un coup, mais s’écrit petit à petit, mot après mot ou plutôt, token par token [7] , imitant et renforçant le sentiment d’un cerveau humain qui réfléchirait à la bonne formulation. Ces éléments d’interaction, qui n’ont rien à voir avec l’IA, forment une interface qui finit presque par disparaître au profit de sa fonction première.

Toute l’attention de l’utilisateur est captée par la fenêtre de réponse, espace central, presque dénudé, mais dont on ressent le dessin minutieux, à la manière des lignes pures d’un Dieter Rams [8]. Toute la place est dédiée à la fascination provoquée par la réponse, parfaitement rédigée et souvent pertinente, qui s’égrène mot à mot, dans une forme de spectacle magique. L’oracle est à l’œuvre. Ces quelques instants pendant lesquels l’utilisateur est spectateur du système lui laissent le temps d’imaginer la puissance qu’il a activée si simplement et les trésors linguistiques qu’il a extraits et qui lui appartiennent désormais. Après quelques tapotements sur un clavier, des heures de travail semblent se produire instantanément, générant un sentiment de satisfaction par la rapidité d’appropriation du processus, le système produisant du contenu souvent meilleur que ce que l’on aurait pu faire dans le même temps.

Mais cela ne s’arrête pas encore là. Les concepteurs de l’interface ont poussé jusqu’au bout le travestissement de la machine en la dotant d’une capacité à imiter des phrases de liaisons sociales entre les questions et les réponses. Ainsi, à la demande : « Write a description of a lamb for a kid who has never seen one in his life », le système commencera par : « Sure ! I’d be happy to describe a lamb for you », avant de se lancer dans une description détaillée d’un agneau. Il y a là les signes de compétences d’analyse conversationnelle poussées qui prennent en compte, de manière subtile, ce qui fait une conversation humaine. En complétant la paire adjacente [9] du tour de parole entre l’utilisateur et le système, celui-ci s’approprie les normes conversationnelles et fluidifie l’échange. Cette imitation aurait pu provoquer un sentiment de rejet tout aussi instantané s’il n’avait pas été assez perfectionné. Et c’est bien l’autre clé du succès phénoménal du système : l’imitation « juste », qui n’est ni ironique, ni obséquieuse, ni comique, ni mécanique. Elle est bienveillante. Et ChatGPT a bien été entraîné à la bienveillance.

Toutes les variantes basées sur des modèles de langage massif (LLM [10]) désormais disponibles partagent une conception identique très simple à formuler : ce sont des modèles d’IA qui sont entraînés à calculer la probabilité qu’un mot (techniquement, un token) puisse suivre un mot qui le précède. Plus un mot a une probabilité élevée, plus il sera susceptible d’être choisi comme suite plausible aux suites d’assemblages textuels précédents. C’est en même temps limpide et terriblement compliqué à réaliser. Pour y arriver en quelques secondes, ChatGPT, dans sa version 4, analyse jusqu’à vingt milles token précédant celui qu’il doit choisir. Ce sont des milliards de dollars d’investissement consentis par les argentiers d’OpenAI, dont Microsoft. Des milliers d’heures d’entraînement avec des humains qui qualifient les réponses données et permettent au modèle d’améliorer son colossal travail de calcul. Ce sont des milliards de données.

A peu près tout ce qui a été numérisé et rendu disponible sur le Web a été avalé par le système : tous les livres, l’entièreté de Wikipédia, des milliards de lignes de code open source, la plupart des contenus des réseaux sociaux, les médias en ligne, les sites de référence. Une masse inimaginable de productions humaines dématérialisées. Car au départ, il s’agit bien de savoirs humains. ChatGPT se sert dans la bibliothèque que nous avons créée depuis les débuts de World Wide Web en 1989. Ce ne serait, sous cet aspect, qu’un moteur de recherche plus convivial. Une sorte d’usine miraculeuse, particulièrement performante, qui va pêcher pour nous dans l’océan de signes binaires produits par l’humanité. C’est évidemment bien plus.

Cela touche notre rapport au corps, de nos mains qui écrivent (écrivaient ?), à nos yeux qui témoignent des lignes qui se composent désormais toutes seules et à notre cerveau, dont tout à coup, on se met à douter de l’impénétrabilité et de la domination sur les machines. Cela touche notre rapport au temps. Nous ne savons plus très bien où situer le futur, si nous le construisons consciemment ou s’il s’impose à nous.

L’omniscience apparente des interfaces d’IA et la façon déjà bien calibrée de les interroger en modélisant pour elles des prompt afin d’obtenir des réponses séduisantes, nous interrogent finalement sur nos limitations à produire des signes originaux, curieux, spontanés, complexes ou simplement beaux pour nous, au-delà de la vanité immédiate et de la vacuité artificielle.

Transcendance et projection d’organes

Nous sommes au mois de septembre 2016. Eric Almquist, John Senior et Nicolas Bloch, trois chercheurs en stratégie marketing du cabinet Bain & Company, publient dans la prestigieuse revue Harvard Business Review un article qui s’intitule « The Elements of Value ». Ils y exposent un modèle, basé sur des milliers d’interviews, qui permet de décrire la perception de la valeur d’un produit ou d’un service par celles et ceux qui l’utilisent. Ils détaillent comment ils ont procédé pour construire cette représentation :

«Dans nos recherches, nous n’acceptons pas d’emblée la déclaration d’un consommateur selon laquelle un certain attribut d’un produit est important ; (…) nous explorons ce qui sous-tend cette déclaration. Par exemple, lorsqu’une personne dit que sa banque est “pratique”, sa valeur découle d’une combinaison d’éléments fonctionnels tels que le gain de temps, l’évitement de tracas, la simplification et la réduction des efforts. Et lorsque le propriétaire d’un Leica de 10 000 $ parle de la qualité du produit et des photos qu’il prend, un élément sous-jacent qui transforme la vie est l’autoréalisation, qui découle de la fierté de posséder un appareil photo utilisé par des photographes célèbres depuis un siècle. »

Le modèle se présente sous forme d’une pyramide, conçue comme une extension de celle de Maslow de 1943. 

Elle est divisée en quatre étages dans lesquels trente facettes de la notion de valeur sont distribuées.

Explore les éléments de valeur

À la base, on trouve le niveau fonctionnel, avec des attributs tels que « gain de temps », « réduction de l’effort » ou « intégration ». Il s’agit de valeurs conscientes, directement perçues lors de l’utilisation du produit ou du service et reliées aux tâches que l’utilisateur cherche à accomplir.

Le deuxième niveau concerne les valeurs émotionnelles qui vont de la « réduction de l’anxiété » à la « nostalgie » en passant par le « fun et l’amusement ». À cet étage de la pyramide, la perception des valeurs est moins consciente. Elle est à la fois plus diffuse et plus profonde, et les personnes interrogées peinent à exprimer clairement ce qu’elles ressentent.

Dès le troisième niveau, proche du sommet, les attributs se font plus rares et plus universels. On touche à ce qui est perçu comme un levier de changement de nos comportements, de nos rapports aux autres, de notre façon de voir le monde.

Les auteurs appellent cette strate « life changing » et nomment les valeurs « appartenance », « héritage » ou « réalisation de soi ». Ce sont des produits et des services qui dépassent largement l’accomplissement d’une tâche. Ce sont des objets fétiches que nous transportons d’un appartement à un autre ou des réseaux sociaux dans lesquels nous nous épanouissons, quelles qu’en soient les raisons. Ce sont des services et des produits qui nous changent la vie prosaïquement ou poétiquement, nous motivent jour après jour et nous font voir le monde autrement. Ce sont, pêle-mêle, les GPS embarqués qui nous rassurent au moment de rejoindre une destination inconnue, la montre héritée de notre grand-mère qui nous rappelle des moments précieux, le groupe d’amis que l’on retrouve sur Twitch au moment de lancer une nouvelle session de League of Legends.

Très peu de produits, d’objets ou de services atteignent ce niveau, et personne ne connaît la recette pour en fabriquer. Mais il y a encore un dernier étage. Les auteurs y placent un seul et unique attribut. Une valeur reine qui, si elle est atteinte, promet richesse et gloire instantanées sur les marchés : la self-transcendence, que l’on peut traduire en français par autotranscendance. Cette notion est à comprendre, dans ce contexte, comme une référence à un état d’esprit ou à l’expérience d’une personne qui va au-delà de sa propre individualité et se connecte à quelque chose de plus vaste ou de plus élevé. Cela peut impliquer un dépassement des limites personnelles, des préoccupations matérielles ou des notions conventionnelles de soi.

Percevoir cette valeur est rare par définition. On ne s’autotranscende pas tous les jours ! La percevoir dans un produit ou un service est à la limite d’une forme de folie. Et pourtant, quand on lit des témoignages d’utilisateurs de ChatGPT, et des outils d’IA similaires, le doute s’installe. Certains craignent qu’il ne les « prive de leur motivation, de leur créativité et de leur esprit critique [11] » , en d’autres termes, que le robot les fasse régresser dans une autotranscendance inversée, une sorte de retour au fond de la grotte de Platon.

Shital Shah, à la tête de la recherche en ingénierie de Microsoft, décrit dans son tweet du 2 décembre 2022, sa découverte du service :

«ChatGPT a été largué sur nos écrans il y a un peu plus de vingt-quatre heures. C’est comme si vous vous réveilliez avec la nouvelle de la première explosion nucléaire et que vous ne savez pas encore quoi en penser, mais vous savez que le monde ne sera plus jamais le même.» [12]

Lors des nombreuses coupures du service, notamment dues à l’augmentation extrêmement rapide du nombre d’utilisateurs, les réactions ont été particulièrement révélatrices, résumées par des « je ne peux plus vivre sans ChatGPT » et « je suis à l’arrêt complet ».

Les modèles d’IA, couplés à une modalité d’interaction humaine (le langage naturel), seraient donc au sommet de la pyramide des valeurs perçues. Elles donneraient accès à une expérience de vie qui changerait non seulement nos habitudes de travail, mais aurait un effet beaucoup plus profond sur nous-mêmes, notre développement et notre propre identité.

La conversation avec la Machine Universelle, qui a réponse à tout et qui est toujours d’une infiniment bienveillante, nous permettrait d’atteindre un autre nous-mêmes, plus éclairé, plus évolué, plus créatif et surtout plus puissant. Et même si certaines voix s’élèvent (et pas des moindres [13] ) pour décrire cette Pandora comme le début de la fin de l’humanité, le grand remplacement des humains par les machines désormais autonomes et omniscientes, force est de constater que l’adoption est généralisée.

Les réactions dithyrambiques de lendemains qui chantent ou profondément fatalistes qui nous condamnent à devenir des techno-esclaves rappellent que l’humain est avant tout un être biologique fondé sur le besoin de puissance et d’accumulation [14] pour sa survie. Depuis son existence de Sapiens, il cherche à « projeter ses organes » comme le décrit si justement Ernst Kapp [15]– un des premiers penseurs à proposer une philosophie de la technique – pour augmenter ses capacités physiologiques et gagner en puissance.

À ce titre, ChatGPT ne serait qu’un outil, extrêmement sophistiqué, qui permettrait cette projection, cette externalisation du corps et de la pensée. Ainsi Kapp postule-t-il dans son principal ouvrage que la réponse aux questions « Quelle est l’origine des outils ? » et « Qui suis-je ? » est la même. Il explique : « Le concept de “projection d’organe” sert à expliquer la production des artefacts. Ceux-ci naissent par réplication morphologique et par prolongement fonctionnel des organes du corps. Ainsi un marteau reproduit la forme de l’avant-bras et du poing fermé ». Il est intéressant de noter que Kapp présente deux aspects de la projection d’organes : les prolongements fonctionnel (on accroît et prolonge un organe du corps) et morphologique (on le fait en copiant la forme de l’organe).

Et c’est précisément ce qui se passe avec les outils d’intelligence artificielle. Non seulement les chercheurs-ingénieurs ont développé des « réseaux de neurones » afin d’accroître et prolonger nos propres neurones, mais ils l’ont fait en reproduisant – virtuellement – le mécanisme de renforcement observé dans notre cerveau. Mais cette externalisation a un autre effet. Pour reprendre Kapp :

«(…) nous concevons cette projection d’organe d’une part comme la transposition inconsciente de quelque chose de corporel vers l’extérieur, dans sa reproduction matérielle [ndla : logicielle dans notre cas], d’autre part comme l’utilisation rétrospective du mécanisme pour l’intelligibilité de l’organisme.»

Cet éclairage sur les effets rétroactifs des artefacts produits par les humains sur leur propre analyse de leurs capacités permet une mise en perspective des nouveaux instruments tels que ChatGPT et des discours qui en émergent.

Se retrouver face à toute la connaissance (dématérialisée) du monde nous met en retour face à nos propres connaissances, en tant qu’individus et en tant que société.

Nous voilà munis d’un outil qui permettrait, a priori, de mieux nous comprendre, ou du moins, de manière inconsciente, de transformer notre rapport à nos savoirs, à notre fonctionnement, à notre façon de penser nous-mêmes.

L’intelligence artificielle, modulée par le langage humain, sans filtre technique, nous donne accès à des capacités véritablement in-imaginables. Au-delà des premières productions pendant lesquelles on s’amuse à créer en quelques secondes des lettres d’amour enflammées, des programmes de fitness personnalisés ou les lignes de codes d’un générateur d’images, la question du « comment » étant vite résolue, reste celle du « quoi » : l’imaginaire n’est pas automatisable.

On ne peut que le provoquer en se servant de ces nouveaux outils comme des catalyseurs de pensées, et il est impossible de prédire quels effets cela aura, ni quels seront les changements les plus fondamentaux. Ce travail d’anticipation n’est plus du ressort de ChatGPT, c’est le nôtre.

2. Où est passé le futur?

Nous sommes le 25 février 2009, il fait un petit 4 °C dehors. Dans l’architecture néo-brutaliste du Centre International de Conférence de Genève s’ouvre la quatrième édition de LIFT, un événement de trois jours qui s’interroge sur notre futur, technologique comme sociétal, professionnel comme personnel. Les huit cents participants et participantes se pressent à l’entrée, cherchent leur badge et la chaleur d’un premier café. Ils et elles se préparent à écouter, débattre et participer à des workshops sur le thème de cette édition : « Where did the future go? ».

Il y a là matière à penser. Mais pourquoi cette thématique ? Et pourquoi cette année-là, neuf ans après l’an 2000 ? Imaginer, anticiper et prédire le futur, qu’il soit lointain ou juste après l’instant présent, sont des intuitions nées avec les premiers hommes. Toutes formes d’anomalies dans la stabilité relative de notre environnement étaient alors prétexte à formuler des présages, à deviner des volontés divines et à voir des signes, augures de notre destinée prochaine. Plus la science avançait, plus les théories de prédiction devenaient sophistiquées, méthodiques et calculatoires. Raisonnables, en quelque sorte. Les cours de la bourse étaient anticipés à grand renfort de données statistiques, les modèles de météorologie se basaient sur des capteurs de toutes sortes dont les données étaient digérées par les ordinateurs les plus puissants du moment, les études de marché et la compréhension de plus en plus fine de nos habitudes de consommation promettaient de concevoir et de vendre le produit parfait au consommateur idéal.

La culture, le sport, l’apprentissage scolaire, toutes les activités humaines étaient désormais orientées par la recherche de solutions optimisées, calibrées, industrielles promettant de comprendre notre fonctionnement et d’anticiper nos besoins futurs. Et bien que les pratiques empiriques, ancestrales, continuent à se juxtaposer – sans quelques frictions par ailleurs – aux modèles plus scientifiques, la soif d’imaginer de quoi demain est restée inextinguible. C’est à la fois prévenir les peurs de l’inconnu et une façon de faire le point sur le présent tout en se donnant une direction, un agenda.

Depuis les débuts de la révolution industrielle, notre rapport au futur a été longtemps calibré par le point de mire que représentait le passage du millénaire : l’an 2000. Ce point focal de l’histoire humaine, que l’on pouvait alors envisager comme ni trop lointain ni trop proche, a organisé la pensée futuriste, autorisé les fantasmes technologiques, conduit les productions culturelles et alimenté les espoirs de construire un monde finalement moderne dans lequel les affres de la vie terrestre sont relayées à des machines pendant que nous nous baladons en voiture volante entre les gratte-ciels ou partons tranquillement en week-end sur la Lune.

De la plus triviale marque d’opticien, aux noms de mégaprojets paneuropéens (Agenda 2000), ce repère temporel a endossé la majeure partie des réflexions sur le développement de nos sociétés futures, souvent appuyées par des avancées technologiques continues dont on ne doutait pas un seul instant qu’elles puissent un jour nous faire défaut.

L’an 2000, date forcément fatidique, marque aussi la première grande angoisse technocentrée : le bug généralisé, la panne planétaire qui devait mettre à mal l’entièreté de la société civilisée. C’est la soudaine prise de conscience que la grande machine de la dématérialisation était en marche. Les systèmes n’étaient pas prêts pour intégrer un changement de format calendaire aussi colossal. Cette nouvelle peur était celle de la perte de données. Des produits humains d’un genre nouveau, un patrimoine invisible, déposé dans des bibliothèques qui le sont tout autant. Données dont on ne percevait pas encore qu’elles allaient devenir une nouvelle matière première, un or bleu extrait de mines électriques microscopiques. Des données précieuses, fragiles et dont nous allions devenir rapidement dépendants. Nous avons alors pris conscience du poids de nos vies numériques et de la peur du dossier corrompu, de la machine qui fait défaut. C’est là peut-être les premiers signes d’une perte d’enchantement pour le futur. Malgré notre toute-puissance alimentée par des océans de pétrole qui semblaient à jamais inépuisables, malgré nos prouesses de miniaturisation technologique et nos exploits extraplanétaires, malgré l’accroissement de notre espérance de vie et notre capacité à réduire le monde en poussière, nous nous retrouvions à la merci de notre propre système de calendrier.


Et puis rien ne s’est passé d’extraordinaire après le 1er janvier du nouveau millénaire.


Pas de bug généralisé, pour commencer. Encore une fois, nous nous étions fait avoir par notre incapacité à prédire quoique ce soit de l’avenir, même très proche. Aucune voiture volante à l’horizon non plus ; ni de réacteur à fusion, ni d’agences de voyages pour Mars. Pas de robots serviteurs – on ne se doute pas que ceux-ci prendront des formes plus alarmantes –, pas de nourriture en pilule et des plastiques qui ne sont finalement pas si utiles pour construire des habitations. Nos planches à roulettes ont toujours des roues, nous avons toujours autant de peine à apprendre une langue étrangère et bien que nos outils informatiques s’améliorent rapidement, il semble que cela aille de pair avec une complexité et une prédation des ressources croissantes.

Ce n’est pas anodin pour comprendre les instruments dont nous nous entourons aujourd’hui et notre motivation à projeter le futur. L’an 2000 ne tient aucune de ses promesses, et nous voilà largués dans le brouillard des lendemains sans nouveau repère.

Source : pinterest.com – Paul n

La translation s’opère du champ des objets physiques aux nouveaux univers numériques. Les inventions se font moins spectaculaires, plus intangibles. Les processeurs sont plus puissants chaque année, mais qui s’en soucie ? Leurs formes ne changent pas vraiment. Les écrans s’aplatissent et Google s’enrichit, mais toujours pas de frigos vraiment intelligents ! Comme le Projet du Futur semble nous échapper et que les fantastiques vaisseaux spatiaux de la science-fiction n’atterrissent pas à l’astroport de Genève, nous peinons à réenchanter le futur.

Il faut aussi dire que la période n’est pas propice. Non seulement le futur est mort, mais le présent n’est pas joyeux : récession dès les premières années du millénaire puis crises des subprimes et crise de la dette dans la zone euro, et pour finir une pandémie. Dans son livre Futurs ? [16], le chercheur Nicolas Nova expose bien cette problématique et éveille notre curiosité sur le glissement opéré par la science-fiction grandiloquente vers une réalité aux contours à la fois plus riches et plus subtils : effectivement nous n’avons pas de jetpacks, mais en revanche nous pouvons admirer les lacs vitrifiés de Titan depuis notre téléphone mobile. Il montre qu’en fait il y a une densité fabuleuse d’interrogations sur le présent dont la technologie a modifié en profondeur le paysage de nos pratiques.

Il faut en somme d’abord « normaliser », c’est-à-dire intégrer dans la continuité de nos usages, les nouveaux produits et les services que permettent les technologies, en particulier celles liées à Internet, aux réseaux de données et aux échanges d’informations qui en résultent. Cette normalisation prend du temps. On n’intègre pas si rapidement les fulgurances techniques qui elles-mêmes ne sont pas exposées avec un usage précis. C’est d’ailleurs là qu’il faut chercher l’origine des injonctions du monde capitaliste occidental pour faire de l’innovation disruptive, en créant des start-ups dans des incubateurs et des accélérateurs gérés par des acteurs du changement qui font du design thinking calibré par des méthodes de gestion de projet dites agiles.

Depuis l’an 2000, il y aurait donc à la fois la mort de la pensée du Futur et l’organisation systématique de la pensée du présent. Non pas dans un but de projeter les formes que pourrait prendre une société idéale à construire ensemble, dans un projet sur le long terme, mais dans une perspective d’intégration accélérée de paradigmes technologiques économiquement profitables.

L’idée de prédiction, d’anticipation structurée de nos avenirs technologiques, reste un puissant aphrodisiaque pour tous les entrepreneurs de la technologie et une source inépuisable que juteuse de revenus pour des sociétés de conseil. On touche ici à deux figures antiques : celle de l’oracle et celle du devin. Même si la résistance s’organise autour de travaux plus réflexifs – la plupart du temps issus d’écoles d’art et de design, et des pratiques qui en émergent – l’écrasement de nos pouvoirs d’imagination par l’omniprésence des injonctions à l’innovation freine le réenchantement du futur.

À propos d’innovation, toujours vendue comme la panacée à nos problèmes systémiques, il faut en rappeler le sens. Le mot latin Innovatio veut dire « renouvellement », et consiste donc à créer les conditions du statu quo : le renouvellement pour le maintien de la situation présente. Innover ne répond à aucun agenda commun, aucune vision d’un futur souhaitable, négocié et inclusif. L’innovation est un ajout au contrat technoculturel existant pour maintenir le monde (occidental) dans son contrat de fonctionnement actuel.

C’est à nouveau au cours des années 2000 que l’idée de progrès, c’est-à-dire l’idée d’un mouvement vers quelque chose, d’une progression, a été évincée par le concept d’innovation qui imprime un rythme rapide aux cycles de remplacement des artefacts avec pour seule mesure la croissance économique.

Le présent a donc pris une place toujours plus imposante. Le passé était vu comme inaccessible, car sa numérisation n’avait pas eu lieu – il faudra attendre pratiquement vingt ans pour que les grands chantiers de reconnexion avec notre patrimoine historique voient le jour, notamment celui de Venice Time Machine [17], lancé par le Professeur Kaplan à l’EPFL en 2015 – et le futur (ou les futurs) semblait déjà avoir intégré le présent de manière latente, en attente de normalisation des usages.

La machine à augmenter les capacités humaines

Retour en arrière. On est le 9 décembre 1968 à San Francisco, il est 10 h du matin. Il fait un étonnant 15 °C, amené par la pluie fine qui tombe depuis le matin.

Aux abords du Bill Graham Civic Auditorium, juste après la 9e Avenue et Market Street, Douglas Engelbart et l’équipe d’ingénieurs de l’Augmentation Research Center se pressent dans le brouillard qui capitonne la ville. Après des mois de préparation, ils s’apprêtent à lancer une démonstration qui va révolutionner nos rapports au numérique. Mais ils ne le savent pas encore. Ils sont préoccupés par les câbles qui sortent du bâtiment et qui relient leur laboratoire au vénérable immeuble. Ils vérifient que l’ordinateur et les modems qu’ils ont construits pour l’occasion sont bien fonctionnels. Ils n’ont eu que peu de temps pour répéter et rien de ce qu’ils vont montrer n’existait encore quelques mois plus tôt.

Pourtant, pendant une heure et demie, devant un millier de scientifiques d’abord sceptiques puis ébahis, ils déroulent leur concept de « machine à augmenter les capacités humaines », un système futuriste basé sur des échanges entre ordinateurs. Non seulement celui-ci propose des dispositifs techniques totalement nouveaux, comme la souris, mais il les met en relation avec une interface visuelle et un système logiciel qui connecte des contenus hybrides – texte, son, vidéo. Tous les paradigmes d’interaction qui nous semblent si naturels aujourd’hui sont présentés : fenêtres, hypertexte, graphiques, navigation et saisies de commande rapides, vidéoconférence, pointeur, traitement de texte, liaison dynamique de fichiers, contrôle de révision et éditeur collaboratif en temps réel. L’exercice devient démonstration, c’est une réussite totale. Douglas Engelbart entre dans l’histoire et influence toute l’informatique matérielle et logicielle que nous connaissons.

Cet événement est d’autant plus remarquable qu’il a failli ne pas avoir lieu. Personne ou presque, dans le petit monde de l’informatique des années 60, ne voyait dans l’ordinateur une machine capable de faire autre chose que de résoudre rapidement des calculs compliqués. L’idée même que le futur de l’ordinateur puisse profondément changer la société, influencer notre rapport au monde, notre manière de communiquer, d’apprendre et d’interagir, n’était pas envisagée.

Ce futur était perçu comme peu probable, voire fantaisiste. Il a fallu à l’équipe d’Engelbart une détermination sans faille et un travail acharné pour changer cette perception. Mais surtout, il a fallu une forme de rêverie, une vision, qu’il raconte avoir eue pendant ses heures de garde, au milieu de la Seconde Guerre mondiale. Il se pose alors la question : « Et si ? [18] Et si toute cette débauche de science et de technologie au service de la guerre pouvait servir à autre chose ? Et si les calculateurs pouvaient servir à augmenter l’intelligence humaine plutôt que de la détruire ? ».

Même si cette question paraît emplie d’une naïveté nostalgique aujourd’hui, elle aura suffisamment obsédé Engelbart pour qu’il la concrétise à sa manière. Cet événement, aujourd’hui nommé The Mother of All Demos, a désormais sa page Wikipédia [19] et sa retranscription filmée est disponible sur YouTube [20]. Wikipédia et YouTube : deux services emblématiques de la révolution numérique qui découlent directement des concepts avancés par Engelbart et ses équipes.

L’invention de la normalité future

Cet épisode de l’histoire des technologies est également remarquable par la manière, presque la méthode, utilisée pour donner à voir un futur potentiel de nos vies à venir.

En se plaçant volontairement dans la posture d’utilisateur, sans même expliquer la technique qui se cache derrière les dispositifs qu’il utilise, Doug Engelbart joue au Magicien d’Oz. La démonstration n’est pas réalisée avec des dispositifs commerciaux viables et il ne s’agit même pas de prototypes : la plupart des effets ont été simulés par des opérateurs. Ce qui lui importe, c’est d’embarquer son audience dans l’histoire d’un futur quotidien, d’une future idée de normalité.

On retrouve déjà le besoin de normalisation pour penser le futur. Il s’attache à ce que toutes les interactions soient fluides, et son ton calme est celui du collègue de tous les jours croisé à la cafétéria. Il prend son temps, ses exemples sont d’une banalité que tout le monde a vécue : liste de courses, small talks, consultation de catalogue. On est très loin du show des start-ups actuelles.

Cette apparente nonchalance cache en réalité un travail de documentation technique très important ainsi qu’une réflexion théorique fondamentale qui prend forme dans un rapport qu’il a écrit quatre ans plus tôt, en 1962 : « Augmenting Human Intellect : A Conceptual Framework » . Ce qui permet à sa présentation d’être aussi réaliste et crédible est le fait qu’elle soit justement fondée sur une démarche documentaire et une recherche appliquée extrêmement détaillée.

Ce processus commence par un questionnement (what if?), avec un but non pas technique, mais sociétal, une situation imaginée, ancrée dans un futur quotidien, une normalité à venir. Puis vient la capacité à donner forme à cette rêverie, d’abord par sa théorisation, par un travail de documentation et de renseignements. Puis par la matérialisation, par la définition de ses contours physiques, dans le détail, aussi loin que possible. On construit alors des scénarios ad hoc que l’on accessoirise pour simuler au plus proche cette réalité possible. Pour finir, il y a l’exposition par la démonstration, la mise en scène de la proposition, l’interaction avec les publics, la confrontation des idées concrétisées avec les futurs usagers potentiels, le débat sur la pertinence et les nouvelles questions qui sont inévitablement soulevées.

Ces trois phases – documentation, matérialisation, exposition – sont à la base d’une démarche de conception particulière dont les contours sont aujourd’hui mieux définis : le design spéculatif ou design fiction en anglais dont le but n’est plus tellement de trouver une solution à un problème bien posé, mais d’explorer les potentialités des artefacts technologiques et des usages actuels en interrogeant leurs déploiements futurs et leur intégration dans nos quotidiens.

Cette démarche a émergé bien après l’épisode du Bill Graham Civic Auditorium de 1968. Ce n’est dans les faits qu’en 2005 que Bruce Sterling, auteur de science-fiction américain, imagine le terme. Il inscrit d’emblée la démarche en plaçant l’utilisateur au centre dans son quotidien : « Le design fiction est l’utilisation délibérée de prototypes diégétiques pour suspendre l’incrédulité à l’égard du changement » .

On a là le principe fondamental de la conception fictionnelle. Il s’agit de se plonger dans une réalité possible, plausible, connectée au présent et réaliste. Alors peuvent commencer la critique, le débat et l’analyse. Bruce Sterling sera ensuite repris par son ami Julian Bleecker qui va écrire l’essai de référence « Design Fiction. A short essay on design, science, fact and fiction [23]» et qui en donnera une définition complète et éclairée d’exemples.

Dans son essai, il explique :

« Le design fiction se déploie dans l’espace entre l’arrogance de la science factuelle et l’imaginaire sérieusement ludique de la science-fiction, faisant des choses qui sont à la fois vraies et fausses, tout en étant conscient de l’ironie de la confusion – et la revendiquant même comme un avantage. C’est une pratique de design, tout d’abord, parce qu’elle ne fait pas autorité, elle n’a aucun intérêt à définir une vérité canonique. Elle peut travailler confortablement avec le vernaculaire et le pragmatique et parce qu’elle a dans son vocabulaire le mot “personne” – et non “utilisateurs” – avec tout ce que cela implique. Finalement, parce qu’elle peut fonctionner avec esprit, embrasser les situations paradoxales et adopter une position critique. Elle ne présume rien sur l’avenir, si ce n’est qu’il peut y avoir des avenirs simultanés et multiples et même une fin à tout.»

Ce premier texte d’intention a donné lieu à un nouveau type d’agence et de services dont se servent aujourd’hui la plupart des grandes sociétés industrielles à forte maturité numérique. Un des plus connus est le studio de Dunne & Raby, établi en 1994, auteur d’un autre ouvrage de référence sur le sujet Speculative Everything, Design, Fiction, and Social Dreaming [24], publié en 2013, dans lequel les auteurs formalisent la démarche et montrent le fameux diagramme des futurs.

Aujourd’hui, pour réfléchir au futur de nos vies dans le nuage artificiel, il semble difficile de se passer d’une telle démarche. Rappelons-nous qu’il reste impossible de prédire les usages technologiques futurs avec une marge d’erreur raisonnable et une précision utilisable pour développer des services ou des produits. Personne n’a anticipé Facebook, aucun futurologue engagé par Nokia n’a vu venir le smartphone, même Google – société puissante s’il en est – n’a pas réussi à prédire des services comme ChatGPT avant qu’OpenAI lance sa plateforme.

S’il est impossible de prédire avec exactitude la météo numérique qui nous attend, l’avenir de nos habitudes dématérialisées et celui des outils et des dispositifs qui cohabiteront avec nous dans nos quotidiens à venir, on se doit tout de même d’ouvrir le champ des probables. D’abord c’est une manière de se réapproprier un futur que l’on souhaite, que l’on comprend, que l’on peut expliquer, et qui, finalement, nous sera plus familier et peut-être plus épanouissant. C’est ensuite une manière d’envisager le futur par la pratique, la construction et l’action : on cesse de subir et de réagir pour provoquer et agir, c’est-à-dire créer des conditions fertiles pour développer ce futur qui nous échappe si fréquemment.

Finalement, c’est prendre le temps de s’interroger sur nos pratiques, de retrouver une sensibilité aux signaux faibles, aux usages curieux, aux pratiques locales, à l’ensemble de ce que Bernard Stiegler appelle l’exosomatisation [25], et de s’en servir, à la manière d’un ethnographe pour décrypter nos propres sociétés.

En quelque sorte, il nous reste la clé de l’imaginaire, de la poésie au sens premier du terme. Déplions les plissures du réel et décryptons nos rêves éveillés, respirons les arômes du présent pour esquisser les contours de futurs qui nous motivent à l’exploration.

Notes

  1. Pour une définition française, voir : traite- ment automatique des langues. (2018b). GDT. https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8396637/traitement-automatique-des-langues. Consulté le 27 juin 2023.

  2. GPT est l’acronyme de Generative Pre-trained Transformers qui désigne une forme d’IA issue du traitement du langage naturel.

  3. « Lancé en 2016, TikTok a engrangé cent millions d’utilisateurs la première année.» Ex- trait de : Graziani, T. (2018, 21 octobre). How Douyin became China’s top short-video App in 500 days – WalktheChat. WalktheChat. . Consulté le 27 juin 2023.

  4. Voici un vers du poème écrit par ChatGPT : « Le temps s’écoule, impitoyable et fugace, Em- portant avec lui tout espoir de grâce. Dans cet univers où l’ombre règne en souveraine, L’âme s’égare, en proie à une triste rengaine. »
  5. Lukan, E. (2023). 151 Fun AI Tools You’ve Never Heard Of. https://www.synthesia.io/. Consulté le 27 juin 2023.

  6. Don Norman est un ingénieur et psychologue américain, pionnier du domaine des interactions entre humains et ordinateurs. Il a inven- té l’acronyme UX – pour User eXperience – afin de désigner l’ensemble des phénomènes d’interactions entre les humains et les machines ainsi que les méthodes et les outils d’investigation et de description de ces phénomènes. Il a écrit de nombreux ouvrages de référence. Il est co-fondateur de la société de conseil Nielsen Norman Group

  7. Un token, dans les modèles d’IA qui génère du texte, peuvent être considérés comme des morceaux de mots. Avant que le système ne traite la demande, l’entrée est décomposée en token. Ces token ne sont pas découpés exactement à l’endroit où les mots commencent ou se terminent – ils peuvent inclure des espaces de fin et même des sous-mots. De manière empirique: 1 token = ~4 chars en anglais ou 3/4 mots.

  8. Dieter Rams (né en 1932), est un designer industriel allemand contemporain qui a eu une influence majeure sur la conception des produits industriels pour la maison. Il a notamment travaillé pour la société Braun. Son style épuré et méticuleux, soucieux du moindre dé- tail, a beaucoup inspiré Jonathan Ive, célèbre ancien directeur du design d’Apple.

  9. Schegloff, E. A., & Sacks, H. (1973). Opening up Closings. Semiotica, 8(4). https://doi.org/10.1515/semi.1973.8.4.289

  10. Un modèle de langage massif (LLM) est un type d’algorithme d’intelligence artificielle (IA) qui utilise des techniques d’apprentissage profond et des ensembles de données massifs pour comprendre, résumer, générer et prédire de nouveaux contenus. https://www.techtarget.com/whatis/definition/large-language-model-LLM. Consulté le 6 juin 2023.

  11. The Learning Network. (2 février 2023). « What Students Are Saying About ChatGPT. » The New York Times. https://www.nytimes.com/2023/02/02/learning/students-chatgpt.html?auth=login-google1tap&login=google1tap. Consulté le 27 juin 2023.

  12. Le message sur la plateforme Twitter de Shital Shah du 2 décembre 2022, 4h43 (CEST) : « ChatGPT was dropped on us just bit over 24 hours. It’s like you wake up to the news of first nuclear explosion and you don’t know yet what to think about it but you know world will never be the same again. »

  13. Le témoignage du 16 mai 2023 de Sam Altman, CEO d’OpenAI, devant le Congrès américain est éloquent à ce sujet. Il motive la création de ChatGPT par la nécessité d’étudier, de manière ouverte et partagée, les risques que de tels modèles d’IA sont susceptibles de poser à la société et exhorte les sénateurs à réguler leur utilisation. PBS NewsHour. (16 mai 2023). WATCH LIVE : OpenAI CEO Sam Altman testifies on artificial intelligence before Senate committee [Vidéo]. YouTube. Consulté le 27 juin 2023, à l’adresse https://www.youtube.com/watch?v=P_ACcQxJIsg.

  14. Voir et écouter à ce sujet l’éclairante interview du 18 juillet 2022 de Jean-Baptiste Fressoz. Élucid [interviews ELUCID] (Éd.). (2022, 18 juin). CRISE CLIMATIQUE ET ÉNERGÉTIQUE : REGAR- DER LA VÉRITÉ EN FACE – Jean-Baptiste Fressoz [Vidéo]. YouTube. Consulté le 27 juin 2023, à l’adresse https://youtu.be/mMQwdUxF_bQ

  15. Kapp, E. (1877). Principes d’une philosophie de la technique. Traduction de l’allemand par Grégoire Chamayou, Vrin, 2007.

  16. Nova, N. (2014). Futurs ?: La panne des imaginaires technologiques. Les Moutons Électriques.

  17. Une présentation du projet sur le site de l’École Polytechnique Fédérale de Lausanne: https://www.epfl.ch/research/domains/venice-time-machine/. Consulté le 6 juin 2023.

  18. « What if ? » dans le texte original.

  19. L’histoire de la démonstration de Doug Engelbart : Center, S. L. (11 décembre 2028). The Mother of All Demos. Lemelson Center for the Study of Invention and Innovation. https://invention.si.edu/mother-all-demos. Consulté le 27 juin 2023.

  20. La démonstration de Doug Engelbart a été filmée et on peut en trouver une version complète sur la plateforme Youtube : Quake, V. (2020, 25 décembre). The Mother of All Demos, presented by Douglas Engelbart (1968) [HD 720p 2020 reupload] [Vidéo]. YouTube. Consulté le 27 juin 2023, à l’adresse https://youtu.be/2nm47PFALc8

  21. Engelbart, D. C. (s. d.). Augmenting HumantIntellect : A Conceptual Framework – 1962 (AUG- MENT,3906,) – Doug Engelbart Institute. SRI International. https://www.dougengelbart.org/pubs/augment-3906.html

  22. Texte original : Design Fiction is the delibe- rate use of diegetic prototypes to suspend dis- belief about change.

  23. Bleecker, J. (2009). « Design fiction : A short essay on design, science, fact, and fiction. » [Essai].

  24. Dunne, A., & Raby, F. (2013). Speculative Eve- rything : Design, Fiction, and Social Dreaming. MIT Press.

  25. « Le terme d’exosomatisation désigne l’extériorisation technique du vivant, c’est-à- dire la production d’organes exosomatiques par les organismses.», in: Alombert, A., & Krzykawski, M. (2021). Vocabulaire de l’Internation. Appareil. https://doi.org/10.4000/appareil.3752.

Laisser un commentaire

Your email address will not be published.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Dernières parutions

BOB nous fait perdre le nord

BOB a mis à l’arrêt tous les systèmes GPS. Cette catastrophe technologique révèle notre dépendance aux systèmes de géolocalisation et permet aussi
Retour auDébut

Don't Miss

Q209 | Un agent conversationnel comme partenaire prospectif ?

L'utilisation de l'intelligence artificielle générative pour soutenir la planification de

Quartier Livre | Quand la SF offre des solutions

Et si la (science)-fiction était le meilleur outil dʹanticipation des