Pour ceux qui ont déjà vécu un lever de soleil en montagne, certaines rencontres et discussions font l’effet similaire. Vous voyez d’abord les rayons éclairer d’autres sommets, plus hauts; vous suivez cette lumière qui descend vers vous petit à petit avant d’être finalement ébloui·e et réchauffé·e. Les échanges avec le Dr. Ulf Ehlert, chef de la stratégie et politique auprès du bureau du conseiller scientifique de l’OTAN, provoquent ces effets. Le Dr. Ehlert a cette faculté de simplifier la complexité en la rendant compréhensible et captivante, comme vous pouvez le voir sur son blog – https://understandinginnovation.blog/ .
Le présent billet est une traduction et adaptation de son article “Converging Technologies – A Topic for NATO” paru dans le recueil “Tomorrow’s Technology – A Double Edged Sword”.
Il décrit à lui seul le contexte dans lequel la prospective technologique évolue de nos jours, met des mots sur des intuitions ayant mené à diverses activités du programme de prospective Deftech, tout en expliquant de façon limpide pourquoi nous n’avons jamais eu autant besoin d’imaginer le futur.
Un des objectifs de la prospective technologique est de permettre de concevoir les implications, positives et négatives, de choses qui n’existent pas encore. Les implications sont naturellement plus larges que l’aspect technologique uniquement et vont avoir des répercussions sur les facettes politiques, économiques, sociétales, écologiques, légales et éthiques de la société (PESTEL). Mais comment rendre conscientes et faire interagir des parties prenantes qui ne sont pas encore identifiées à auxquelles nous ne pouvons présenter que des scénarios ou des récits fictionnels ?
Au coeur de ce défi se trouve une divergence entre la connaissance d’un problème éventuel d’une part et le contrôle de ce problème d’autre part. Connu sous le nom du “dilemme de Collingridge”, du nom de son créateur David Collingridge, celui-ci se paraphrase comme tel:
Lorsque le changement est facile, la nécessité de ce changement n’est pas perçue;
Lorsque la nécessité du changement est évidente, celui-ci est devenu coûteux, difficile et long.
Si nous pensons aux débats actuels autour de l’intelligence artificielle, de la robotique, des bio-technologies, nous nous rendons compte que nous nous trouvons face à ce dilemme. Dans le premier cas pour chacun de ces domaines, nous ne connaissons pas toutes leurs applications futures et certainement pas leurs impacts sur la société en général. Dans le deuxième cas, lorsque celles-ci seront arrivées à maturité, nous pourrons clairement observer leurs impacts, les effets escomptés ainsi que les conséquences involontaires. Nous pourrons définir ce que nous voudrions changer et comment nous voudrions contrôler ces technologies. A ce moment cependant les technologies sont déjà disponibles sur le marché et nos moyens de contrôle sont désormais limités. Plus nous en savons donc sur une technologie, moins nous la contrôlons (source).
Quelle est donc la cause profonde de ce dilemme ? Il s’agit de la manière dont se développe et mûrit la technologie au fil du temps.
La nature de la technologie
Si la technologie est considérée comme un moteur essentiel du progrès et de la prospérité de l’humanité, son fonctionnement interne reste un mystère. Dans son ouvrage “The Nature of Technology”, W. Brian Arthur décrit la technologie comme un système adaptatif complexe qui évolue selon un chemin qui n’est pas prédéterminé. Si le chemin suivi peut être expliqué avec le recul, il ne peut pas être prédit a priori. Afin d’illustrer son propos, Arthur suggère trois caractéristiques clés des technologies:
- Une technologie est composée d’éléments qui sont eux-mêmes des technologies.
Toute nouvelle technologie est toujours construite sur les technologies précédentes. La technologie ne peut pas sauter de la pierre à feu à la centrale nucléaire sans étapes intermédiaires. - Une technologie est l’orchestration de phénomènes dans un but précis.
Nous utilisons notre compréhension des phénomènes naturels et les combinons pour atteindre un objectif. Cet objectif, ou but, est défini par les humains ; et sans ce but, nous pourrions avoir une idée brillante, mais pas une technologie fonctionnelle et utile. C’est une observation essentielle. La technologie sert toujours un objectif humain ; elle n’a pas de vie propre ni de raison d’être inhérente ; la technologie est toujours soumise à l’intention humaine. En outre, cette caractéristique implique que le développement technologique est en fait un effort et une responsabilité partagés entre spécialistes et profanes. Du côté des spécialistes, l’orchestration est la discipline et l’art des ingénieurs, tandis que les scientifiques se concentrent sur la découverte et la validation des phénomènes. Du côté des profanes, l’expression de l’objectif est l’affaire de tous, en tant qu’utilisateur unique, en tant que client parmi d’autres et en tant que citoyen. Chacun d’eux peut être à l’origine du développement d’une nouvelle technologie (par une nouvelle orchestration, par la découverte d’un nouveau phénomène ou par la définition d’un nouvel objectif). Et chacun d’entre eux est responsable du résultat. - Les domaines technologiques évoluent avec la société dans un processus d’adaptation mutuelle.
On pourrait considérer les domaines technologiques comme des familles d’orchestrations d’un ensemble de phénomènes, qui sont applicables à de nombreuses fins mais qui ne sont spécifiques à aucune. Des exemples, tels que l’énergie à vapeur, les chemins de fer, la pétrochimie ou la microélectronique, montrent qu’ils ont façonné et souvent transformé les économies et les sociétés. Cependant, l’influence inverse est moins évidente, et parfois oubliée : la façon dont la société a façonné les domaines technologiques.
La machine à vapeur a d’abord été développée pour pomper l’eau des mines de charbon, et le succès de cette application a déclenché l’imagination des développeurs et des utilisateurs pour envisager les problèmes supplémentaires qu’une machine à vapeur pourrait résoudre. Ces considérations ont conduit à la mécanisation de la fabrication (actionnée par des machines à vapeur statiques et immobiles) et de l’agriculture (utilisant des machines à vapeur mobiles).
Dans cet exemple, l’histoire a commencé avec l’eau dans les mines de charbon et s’est terminée avec la disparition des chevaux et des bœufs en tant que sources d’énergie primaires de l’humanité. Ce résultat à long terme n’était ni prévisible ni prévu, et encore moins planifié. Il est plutôt le résultat de l’influence de la technologie sur la société et de l’influence de la société sur la technologie. Ces deux influences se produisent en même temps, elles se chevauchent et interagissent ; d’où les notions de co-évolution et d’adaptation mutuelle d’Arthur. Le résultat est la spirale vers l’avant que nous appelons le progrès.
Si les domaines technologiques évoluent en même temps que la société et si la technologie n’a pas de but propre, nous arrivons à une autre question fondamentale : Quelle est notre motivation à poursuivre le développement technologique, et qu’attendons-nous de la technologie ? Que voulons-nous vraiment ?
Motivations humaines / Attentes humaines
En 2010, l’historien et archéologue Ian Morris a publié dans son livre “Why the West rules — For Now” une longue analyse des données sur le développement humain dans différents coins du globe, couvrant les 16 000 ans depuis la dernière période glaciaire. Sur la base de ses recherches, il reconnaît les différences entre les individus, mais il conclut que de grands groupes de personnes (comme les sociétés) auront toujours un comportement similaire, quel que soit le lieu ou l’époque. Et il exprime ce concept avec des mots directs et francs :
Le changement est causé par des personnes paresseuses, avides et effrayées
à la recherche de moyens plus faciles, plus rentables et plus sûrs de faire les choses.
Et elles savent rarement ce qu’elles font.
Les gens n’ont pas un désir explicite pour la technologie en tant que telle ; ils l’utilisent plutôt comme leur outil pour changer et ajuster leur environnement en fonction de leurs besoins. En accord avec la deuxième caractéristique d’Arthur, la technologie est soumise à la volonté de l’homme ; en termes très généraux, la technologie génère des façons de faire plus faciles, plus rentables et plus sûres. Mais en dehors de l’impact prévu, c’est-à-dire des changements souhaités, la technologie entraîne également des conséquences non voulues. Ian Morris déclare clairement à quel point notre capacité à prévoir toutes les conséquences des technologies que nous utilisons est limitée. Cela conduit à la question suivante : Pourquoi n’anticipons-nous pas toutes les conséquences de nos actions ?
La première raison, fort simpliste, qui nous vient à l’esprit serait de laisser entendre, à tort, que si les gens de savent pas, c’est qu’ils ne peuvent pas savoir. Cela amènerait à conclure – et ce serait encore une fois une erreur – que nous ne pouvons de toute façon pas influencer la technologie: nous pouvons donc arrêter d’y penser. Une telle vision fataliste est aussi commode que gravement erronée – elle rejette toute responsabilité pour les effets de la technologie et, en même temps, prive la société de son rôle actif dans la co-évolution et l’adaptation mutuelle.
Il y a cependant une seconde raison pour laquelle nous n’anticipons pas les résultats de ce que nous faisons. Notre réflexion sur les technologies émergentes se situe entre deux pôles extrêmes : des attentes irréalistes et un manque d’imagination.
Le penseur et prospectiviste Roy Amara a inventé ce concept dans ce qui est connu sous le nom de « loi d’Amara » :
Nous avons tendance à surestimer l’effet de la technologie à court terme et à sous-estimer l’effet à long terme.
À court terme, nous nous concentrons sur l’objectif visé par une technologie émergente spécifique,
par exemple l’impression en 3D. En tant que clients individuels, nous avons une idée assez claire des avantages que nous attendons d’une application spécifique, par exemple, un étui personnalisé pour votre appareil mobile. Nous avons tendance à voir les avantages à court terme à travers cette lentille plutôt personnelle. En nous concentrant sur notre bénéfice individuel immédiat, nous avons tendance à ignorer l’effort nécessaire pour transformer une telle technologie en un produit commercialisable. C’est pourquoi nos espoirs à court terme sont souvent déçus.
À long terme, nous n’avons pas d’attentes spécifiques ; nous sommes heureux tant que le bénéfice immédiat est garanti et maintenu. Nous n’avons pas d’idée, même vague, quant aux objectifs involontaires et aux applications imprévues qui évolueront avec le temps, à mesure que la société se familiarisera avec un domaine technologique et fera preuve de plus de créativité dans son utilisation.
Par exemple, l’avantage potentiel de l’impression en 3D pour la construction d’une toute nouvelle classe de dispositifs micro-électroniques tridimensionnels ne nous vient pas à l’esprit au départ ; ils nous surprennent donc, dépassant nos attentes relativement faibles.
Ni en tant qu’individus ni en tant que société, nous ne voyons le rôle actif que joue la société pour influencer la technologie ;
notre perspective reste plutôt limitée à nous-mêmes et à notre rôle passif d’être influencés par la technologie.
Cette compréhension limitée laisse notre réflexion sérieusement incomplète, négligeant notre propre influence sur les risques et sur les avantages potentiels que l’évolution future des technologies pourrait entraîner. Parce que nous ne considérons pas la société comme un acteur actif, nous ne saisissons pas systématiquement les occasions qui nous sont offertes de façonner l’avenir des développements technologiques, ni en tant que clients ni en tant que décideurs (politiques).
Faire face aux conséquences involontaires
Nous faisons cependant de notre mieux pour traiter les technologies et leurs effets indésirables. Essentiellement, les sociétés ont développé deux approches différentes de la gestion des risques : une approche a priori (principalement employée en Europe) et une approche a posteriori (par exemple, aux États-Unis). Ces approches ont été conçues et établies pour contrôler les effets potentiellement indésirables de produits ou services concrets, c’est-à-dire des applications technologiques spécifiques.
L’approche a priori cherche à éviter les risques potentiels. Ce principe de précaution est largement appliqué dans l’Union européenne. Il exige la preuve qu’un nouveau produit ou service soit conforme aux réglementations existantes afin que ce produit ou service puisse entrer sur le marché. Ces réglementations visent à garantir qu’aucun préjudice ne sera causé aux clients individuels, à la société ou à l’environnement. Cette approche est privilégiée dans un système juridique qui repose sur le droit codifié ; l’effort principal est investi dans la définition et l’application des règlements appropriés.
L’approche a posteriori accepte les risques potentiels et traite les conséquences au fur et à mesure qu’elles se présentent. Elle suppose que tout nouveau produit sera conçu et livré de manière à éviter efficacement tout préjudice pour les individus, la société ou l’environnement. Si un dommage survient et peut être attribué à un produit spécifique, l’auteur de ce produit est tenu pour responsable et doit compenser le dommage. Cette approche est plus facile à mettre en œuvre dans un système juridique fondé sur la jurisprudence ; l’effort principal est investi dans les litiges.
Les deux approches partagent une condition préalable commune qui est essentielle pour notre discussion : elles supposent qu’il existe une entité juridique clairement identifiable (une personne physique ou morale) qui est propriétaire du produit en question. La propriété est généralement accompagnée d’un intérêt économique clair à obtenir ou à conserver de l’accès à un marché. Sur cette base, la personne morale est soit obligée de prouver la conformité du produit aux réglementations en vigueur, soit tenue responsable de tout dommage survenant. Tant que le gain économique attendu généré par le produit est supérieur au coût des tests de conformité (ou à l’indemnisation des dommages potentiels), les deux approches ont démontré une efficacité raisonnable pour faire face aux effets indésirables d’applications technologiques spécifiques.
Nous devons nous demander honnêtement si ces deux approches seront encore appropriées, voire applicables, à l’avenir. Et nous devons simultanément être conscients que les approches elles-mêmes sont difficiles à changer. Elles existent toutes deux dans des cadres juridiques et institutionnels qui se sont développés au fil des siècles ; ces cadres existent parce que les sociétés ont investi un temps considérable et des ressources dans leur création et leur maintien.
Par conséquent, et indépendamment des différences philosophiques importantes, aucune société ne peut facilement se permettre d’adapter son approche ou d’adopter une approche alternative.
Les instruments du passé
Ces dernières années, la nature du débat public sur l’impact de la technologie a évolué. Aujourd’hui, nous observons une controverse considérable sur les risques potentiels émanant des aliments génétiquement modifiés, de la thérapie des cellules souches ou de l’intelligence artificielle. Il est tout à fait naturel qu’une partie de ce débat appelle à un certain contrôle de ces domaines technologiques afin d’éviter ou du moins de minimiser les dommages potentiels. Et il est tout aussi naturel que les sociétés se tournent vers les approches de gestion des risques qu’elles ont déjà mises en place.
Mais cette fois, nous sommes confrontés à un défi fondamental : tant l’approche a priori que l’approche a posteriori sont conçues pour contrôler des applications spécifiques de la technologie, alors que les discussions actuelles portent sur l’ensemble de domaines technologiques, ce qui remet en question l’applicabilité même de l’une ou l’autre approche. Les deux approches reposent sur l’hypothèse fondamentale d’une entité juridique propriétaire de la technologie en question. Si cela est vrai pour les produits concrets, la situation pour un domaine technologique est moins claire.
Un domaine technologique n’est pas défini de manière spécifique ; il n’a pas de portée fixe, ce qui est juste une conséquence logique de son caractère émergent. En outre, un domaine technologique n’a pas non plus de propriétaire concret ; au contraire, la propriété est implicitement partagée par de nombreuses parties prenantes d’horizons et d’intérêts divers, notamment les universités, les établissements de recherche, l’industrie et le grand public. Enfin, et toujours en raison du caractère émergent, le résultat concret d’un nouveau domaine technologique, en bien ou en mal, est encore inconnu. Pour toutes ces raisons, les conditions juridiques préalables à l’application de l’une ou l’autre approche à tout domaine technologique sont difficiles à remplir. Cela implique que les outils de gestion des risques dont nous disposons sont trop grossiers pour être utilisés pour le contrôle des domaines technologiques. Ils ne peuvent pas être efficaces pour les traiter et sont des instruments du passé, pas de l’avenir.
Envisager une petite expérience de réflexion : Et si nous insistions pour utiliser ces outils quand même ? Dans le cadre de l’approche a priori, l’absence de produits et de résultats clairement définis dans un domaine technologique signifie qu’il est pratiquement impossible de fournir des preuves positives de la conformité d’un domaine technologique aux réglementations existantes. Une application rigide de cette approche conduirait donc nécessairement à une interdiction complète de toute recherche et développement dans un domaine technologique spécifique. Dans le cadre de l’approche a posteriori, l’absence d’un propriétaire clair du domaine technologique pose un problème en ce qui concerne les litiges potentiels : qui doit effectivement être tenu responsable ? En outre, la nature émergente des domaines technologiques implique que la dimension des dommages potentiels futurs est encore inconnue : même si nous connaissons l’auteur, cette entité juridique pourrait être trop petite pour compenser l’ensemble des dommages causés, laissant une grande partie des coûts encourus à la société.
Cela signifie que nous ne pouvons pas exercer un contrôle efficace sur les domaines technologiques par le biais des approches de gestion des risques établies. En fait, nous sommes entre le marteau et l’enclume : nous pourrions soit étrangler l’évolution de tout un domaine technologique, soit accepter implicitement un risque considérable et nationaliser le coût de la réparation des dommages.
Bien sûr, nous pouvons considérer que de telles discussions sur l’impact potentiel des domaines technologiques émergents ne sont qu’une tendance temporaire. Mais est-ce plausible ? De telles discussions vont-elles simplement disparaître ? Ou le contraire est-il plus probable ? Allons-nous assister à d’autres discussions sur les domaines technologiques et leur impact sur la société ?
Le nouveau dilemme « Pourrions-nous? » ou « Devrions-nous? »
L’humanité a dépassé le point où nous pouvons maintenant causer de sérieux dommages à notre propre avenir, soit physiquement, en mettant directement en danger notre existence ; soit métaphysiquement, en changeant potentiellement la signification d’être humain. Il suffit de considérer la fission nucléaire, l’intelligence artificielle ou les technologies convergentes comme la génétique et les bio-technologies. Il est donc très probable que les discussions sur ces domaines technologiques (et d’autres) se poursuivent et même gagnent en intensité.
Ces débats seront difficiles et controversés, et ils nous forceront à réfléchir à ce que devrait être, selon nous, une science responsable au XXIe siècle. Bien entendu, la liberté de la science par rapport aux interférences politiques reste le principe directeur qui nous tient à cœur. Dans le cadre de ce principe, nous continuerons à appliquer des contraintes éthiques sur les méthodes utilisées pour acquérir de nouvelles connaissances.
Au-delà de la question de savoir « comment nous faisons de la science« , un défi plus important se profile toutefois, concernant la question de « ce que nous faisons de la science« , la question de la responsabilité des résultats à long terme de la recherche scientifique et des technologies émergentes.
Jusqu’à présent, l’humanité a pu se soustraire à cette question pour plusieurs raisons.
Améliorer la prise de conscience
Dans le passé, nous n’avions pas les moyens de nuire directement à notre existence ; ni intentionnellement ni par inadvertance. Nous n’étions pas conscients des effets néfastes à long terme de nos prouesses technologiques. C’est ce qui explique l’optimisme débridé jusqu’au début du XXe siècle, la foi aveugle dans les progrès que la science et la technologie allaient inévitablement apporter. Quelles que soient nos réalisations depuis la Révolution industrielle, nous n’avions ni les moyens ni la conscience d’une destruction importante.
Dans la première moitié du 20e siècle, nous avons appris la puissance de l’atome et développé des moyens d’utiliser la fission nucléaire. Pour la première fois, nous avions créé un outil qui pouvait potentiellement détruire notre existence. Et nous avons rapidement pris conscience de ce potentiel. Nous disposions soudain d’un moyen qui pouvait entraîner de graves destructions. Pourtant, nous avons considéré ce moyen comme exceptionnel et n’avons pas changé notre façon de penser.
Vers la fin du XXe siècle, nous avons acquis une meilleure compréhension de notre impact sur la planète et de la mesure dans laquelle nous avions mis en péril nos propres moyens de subsistance. Avec le recul, cette prise de conscience n’a été que lente, car les conséquences involontaires des actions passées devenaient de plus en plus visibles (pensez à la pollution, à l’épuisement des ressources, à la diminution de la biodiversité ou au changement climatique). Avec cette prise de conscience, notre compréhension de notre capacité de destruction involontaire n’a cessé de croître.
Aujourd’hui, nous essayons de réfléchir à l’impact potentiel de la recherche scientifique, dans un effort bien intentionné pour prévenir les conséquences négatives. Dans cet effort, nous semblons nous concentrer sur la zone de transition entre la science fondamentale et la science appliquée, sur les technologies émergentes qui semblent très prometteuses au vu des bénéfices futurs, alors que leur forme concrète est encore en cours d’élaboration. Prenons l’exemple de l’intelligence artificielle ou du génie génétique qui font actuellement l’objet d’un débat public controversé : tous deux ont le potentiel de changer le sens psychologique, physiologique, voire moral du mot « humain », en bien ou en mal. Le résultat de ces technologies émergentes n’est en aucun cas prédéterminé ou certain. Pourtant, pleinement conscient de cette incertitude, il est toujours plausible que ces technologies puissent devenir un jour de nouveaux moyens de destruction.
Que cela nous plaise ou non : l’humanité a perdu l’innocence de l’ignorance en gagnant l’accès à des moyens potentiellement destructeurs.
Avec la prise de conscience et l’augmentation de ces moyens, nous ne pouvons aujourd’hui ni nier ni rejeter la responsabilité ; la responsabilité des résultats voulus et non voulus de la recherche scientifique.
Réalisable ! Désirable ?
Tout cela conduit à la question fondamentale que notre génération se doit d’aborder : Qu’est-ce que la science responsable au 21e siècle ?
Dans le passé, nous n’utilisions qu’une seule question simple pour guider toute notre recherche scientifique : « Pourrions-nous?” C’est une question de simple faisabilité : Pourrait-on comprendre, apprendre, savoir ? Et plus loin, vers le développement technologique : Pourrait-on faire quelque chose avec ces connaissances ? Depuis les révolutions scientifique et industrielle, la science et la technologie sont l’art du possible : nous avons fait ce que nous pouvions.
Toutefois, compte tenu des moyens dont dispose l’humanité au XXIe siècle, la faisabilité seule ne suffit pas. Nous devons plutôt compléter la faisabilité par la désirabilité pour orienter nos recherches. Nous devons ajouter les questions « Devrions-nous », « Devrions-nous savoir ceci » et, plus loin, « Devrions-nous faire ceci ». Et si la réponse est « non » pour certaines recherches spécifiques, nous devons faire très attention à la manière et à quelle étape de développement nous devrions imposer des contraintes : à la science fondamentale en général ? Ou, plus spécifiquement, sur les applications concrètes résultant de la recherche technologique? Ce sont les choix difficiles que nous devons (apprendre à) faire.
Les questions « Pourrions-nous? » et « Devrions-nous? » posent un véritable dilemme : comment éviter les conséquences indésirables de la recherche scientifique sans étouffer les bénéfices tant recherchés ? C’est une question importante et toujours sans réponse. La seule certitude qui se profile est la suivante : les approches radicales ne résoudront pas le problème. Alors qu’une interdiction totale de la recherche scientifique signifierait la fin du progrès humain, une attitude de laisser-faire pourrait conduire à l’autodestruction. Ni la panique ni le battage médiatique n’offrent de conseils judicieux. Nous devrons faire des choix judicieux pour trouver le juste milieu entre le « rien » et le « tout ».
L’évolution actuelle semble avoir passé d’un dilemme « inconnu connu (unknown known) » à un dilemme du type « connu inconnu (known unknown)« . Des progrès ont été réalisés, mais connaître ne signifie pas encore résoudre. Nous devons nous rendre compte que ce “devrions-nous” n’est pas une question superflue, ni une question que nous pouvons remettre à plus tard. Les outils dont nous disposons sont inefficaces, alors que la demande d’une politique appropriée augmente sur deux fronts : en ce qui concerne la technologie ainsi que la politique en matière de science et d’entreprenariat en général. Nous devons donc accélérer nos efforts et, en même temps, nous devons innover.
Cela correspond aux célèbres paroles d’Alvin Toffler dans “Le choc du futur” :
Le futur arrive toujours trop vite, et pas dans le bon ordre.
La prospective technologique n’a certes pas la réponse à toutes les questions ouvertes ici, mais elle permet d’illustrer des alternatives qu’il s’agira de qualifier et prioriser afin de pouvoir passer à l’action. Elle permet également d’initier un discours fédérateur sur ce qui doit devenir un échange entre scientifiques, politiciens et citoyens, et ce aussi bien au niveau national qu’international.
Les nouveaux domaines technologiques ne représentant pas simplement des défis technologiques; les questions éthiques ne se limitant pas aux applications militaires; leurs impacts ne s’arrêtant pas aux frontières nationales, il est tant de changer radicalement notre approche à la technologie et à l’innovation… avant qu’il ne soit réellement trop tard.
Quelques lectures supplémentaires:
- Rapport d’information sur les systèmes d’armes létaux autonomes, 22 juillet 2020 (Apporte un peu d’objectivité et de sérénité dans un débat fortement médiatisé et hystérique mené par le fantasme d’images hollywoodiennes)
- The Trouble with Emerging Technologies, Marc Saner, May 7th 2015