La fracturation de l’attention

l'IA, les algorithmes et nous.
22 juillet 2025
19 mins de lecture

Disponible sur :

La saison complète

Ecrite et présentée par Bruno Giussani, expert des enjeux sociétaux liés aux technologies numériques, cette série de six épisodes (augmentée par un « épisode bonus » d’une fiction immersive) explore une dimension aussi invisible que décisive des conflits contemporains : l’intégrité de nos esprits.

Transcript

Vous écoutez Deftech podcast, le podcast de prospective technologique d’armasuisse.

Episode 2 : La fracturation de l’attention : l’IA, les algorithmes et nous

BRUNO GIUSSANI

La façon la plus simple d’empêcher quelqu’un de penser, c’est de le plonger dans le bruit.

Le bruit sonore, bien sûr, comme celui d’une tronçonneuse, ou de certaines machines industrielles – ou de la musique à haut volume.

Mais aussi, le bruit cognitif. Un bruit qui n’est pas audible, mais qui interfère avec nos aptitudes mentales et affecte notre capacité de traiter l’information ou de prendre des décisions.

La cause principale de bruit cognitif est la surcharge d’information. Le cerveau humain est très puissant, et complexe, mais ses limites sont évidentes quand il s’agit de traiter des masses d’informations en parallèle.

Il y a à cela plusieurs raisons neurologiques et cognitives. Par exemple, la capacité réduite de notre mémoire de travail – la mémoire à court terme, qui nous permet de stocker et utiliser des informations pendant la lecture, une conversation ou un raisonnement. Ou alors le fait que notre attention ne peut fonctionner que par sélection, en excluant les distractions.

On pourrait énumérer d’autres raisons encore, mais limitons-nous à rappeler un article célèbre, publié en 1956 et intitulé « Le nombre magique sept, plus ou moins deux« . Le psychologue cognitif américain George Miller y expliquait que, selon ses recherches, la mémoire humaine à court terme ne peut traiter efficacement que sept fragments d’information à la fois, avec une marge d’erreur de plus ou moins deux. Autrement dit, la plupart des personnes peuvent retenir entre 5 et 9 unités d’information dans leur mémoire de travail – où un fragment (« chunk« , en anglais) peut regrouper plusieurs éléments informationnels tout en représentant une seule unité cognitive. Une phrase comme « la maison au coin de la rue brûle et les pompiers sont à l’oeuvre » est, au sens de Miller, un seul fragment.

D’autres analystes ont depuis suggéré que ce nombre serait en fait plus petit. Et il y aurait également toute une discussion à faire sur le mythe du multitasking, démystifié entre autres par le neuroscientifique Stanislas DehaeneHow We Learn, 2021 – selon lequel le cerveau humain est conçu pour se concentrer sur une seule chose à la fois et ne peut donc pas traiter plusieurs tâches en parallèle.

Mais, justement, ne nous dispersons pas: ce qui nous intéresse ici, c’est que le volume du bruit cognitif na pas besoin d’être très haut pour noyer nos capacités mentales.

JINGLE

Le Deftech Podcast fait partie du programme de prospective technologique d’armasuisse Science et Technologie.

Je suis Quentin Ladetto, responsable de ce dispositif de recherche.

Notre mission est d’anticiper les avancées technologiques et leurs usages, au service des acteurs du Département fédéral suisse de la défense, de la protection de la population et des sports, mais également du public.

Dans cette première série de six épisodes, intitulée « La menace cognitive » j’ai demandé à Bruno Giussani, expert des impacts sociopolitiques des technologies numériques, de décrypter les défis de l’intégrité et de la sécurité cognitives. 

Avec l’aide d’experts – et aussi de quelques voix artificielles: à vous de deviner lesquelles! – Bruno nous guidera à travers une exploration des menaces qui pèsent sur nos esprits à l’heure des écrans omniprésents, de l’intelligence artificielle et des neurotechnologies. En discutant mécanismes, impacts individuels et collectifs, risques, et réponses possibles.

BRUNO GIUSSANI

Depuis une douzaine d’années, la capture progressive de notre environment informationnel par les smartphones, les réseaux sociaux et la multiplication des canaux de communication numériques s’est traduite par une sur-stimulation cognitive.

Le psychologue Jonathan Haidt, qui a secoué le débat en 2024 avec la publication de son livre « Génération anxieuse« , parle, je cite, de « perte de la capacité humaine à penser » et de « crise de civilisation« .

Ce qui peut sonner exagéré, hyperbolique. Mais les études scientifiques se multiplient:

  • sur les mécanismes d’addiction numériques,
  • sur la difficulté croissante notamment chez les jeunes (mais aussi chez leur parents) à maintenir la concentration et à penser de manière cohérente,
  • sur l’effondrement de la capacité de lire et de comprendre le sens d’un texte,
  • sur la fragmentation cognitive due à la consommation continue de vidéos de quelques secondes et à l’échange incessant de messages,
  • sur les troubles dans le développement du langage chez les enfants à cause de l’exposition sans précaution aux écrans,
  • sur la dégradation de la santé mentale, y compris des plus jeunes,
  • sur le fait qu’on fait de moins en moins l’expérience directe du monde physique, remplacée par des ersatz numériques,
  • et donc plus en général, pris comme on l’est dans la crue informationnelle, sur la difficulté d’évaluer honnêtement le monde qui nous entoure.

Oui, reprenons notre souffle. C’est un résumé un peu simplificateur, celui que je viens de faire. Mais après des années d’hésitation, de priorité donnée surtout au potentiel économique du numérique, d’invitations à ne pas diaboliser la technologie, d’adoption irréfléchie d’une multiplicité de canaux de communication, de formats, de plate-formes, d’appareils, on se rend compte aujourd’hui que cette algorithmification de la vie converge dans une seule et unique direction: vers nos cerveaux.

Tout cela, c’est le point zéro de la perturbation cognitive. Là où n’entrent pas encore en jeu des technologies spécifiques, des mécanismes de profilage ou de personnalisation. Ni d’ailleurs – on va y venir – l’intelligence artificielle. Au niveau le plus basique, c’est juste une question de quantité d’informations, qui déborde le « nombre magique sept, plus ou moins deux », dont nous venons de parler il y a un instant.

Un débordement qui es en partie le produit de la logique même du système techno-informationnel, du simple fait que tout le monde peut créer et distribuer de l’information sur une multiplicité de canaux, à coût presque zéro.

Mais ce débordement, l’attaque à nos limites cérébrales, peut aussi être intentionnel.

En politique, par exemple, dans les dernières années une stratégie est apparue qu’on a appris à appeler « inonder la zone » – dans l’original anglais, « flood the zone ». 

Voici comment l’explique le chatbot de Mistral:

VOIX SYNTHETIQUE

Cette tactique vise à saturer l’espace médiatique et submerger les audiences avec tellement de contenu qu’il devient difficile de distinguer les faits des opinions ou des fausses informations, créant ainsi une confusion générale et affaiblissant la capacité des individus à former des jugements éclairés.

BRUNO GIUSSANI

C’est la définition même d’assaut à l’intégrité cognitive. Ou, dans les mots de la sociologue suisse Jennifer Walter: « l’exploitation stratégique des limites cognitives ».

Nous avons tous tendance à considérer notre cerveau comme une forteresse imprenable que nous sommes seuls à contrôler, mais en réalité nous sommes entourés d’influences cognitives. Aux doutes créés par la désinformation classique, par les fausses nouvelles (les « fake news ») et par des versions antinomiques de la réalité, vient s’ajouter donc la saturation intentionnelle. Elle brouille notre capacité à nous orienter dans le monde, et en même temps, crée l’opportunité d’injecter des informations ciblées.

James Giordano est neuro-éthicien à l’université américaine de Georgetown. Autrement dit, il étudie les principes moraux et les valeurs qui influencent les décisions concernant la neuroscience et la neurotechnologie. C’est lui qui, le premier, a conceptualisé la menace cognitive.

Dans une conférence devenue célèbre, tenue en octobre 2018 devant les cadets de l’académie militaire américaine de West Point, il affirma: « Nos cerveaux sont, et seront, les champs de bataille du XXI siècle ».

C’est là qu’entre en scène l’intelligence artificielle. Soudainement, depuis trois ans, on ne parle que de ça. Comme surgie de nulle part, l’IA devrait maintenant, selon les uns, éradiquer toutes les maladies au cours de la prochaine décennie, résoudre la crise climatique et nous mener vers un monde d’abondance. Ou alors, selon les autres, prendre nos jobs, nous assujettir et détruire la civilisation. Pour les premiers elle représente l’espoir utopique, pour les autres un péril apocalyptique. Ou les deux à la fois.

Donnons-nous, ici, une minute pour un petit détour, avant de revenir à notre sujet. Parce que l’IA, en fait, n’est pas une technologie nouvelle. Ses origines remontent au milieu du siècle dernier. On parlait à l’époque de « cybernétique », l’étude des processus d’information dans les systèmes complexes: les êtres vivants, la société, l’économie, les machines.

Le terme « intelligence artificielle » est apparu à l’été 1956, quand le scientifique américain John McCarthy a organisé une réunion à l’université de Dartmouth, la définissant comme la capacité, je cite, de « faire en sorte qu’une machine se comporte d’une manière qui serait qualifiée d’intelligente si un humain se comportait de la même façon ».

Dans les décennies suivantes l’IA a traversé succès et désillusions. C’est au tournant du siècle que la technologie a vécu l’accélération dont on voit les résultats aujourd’hui, avec l’essor des réseaux de neurones artificiels (en anglais: « neural networks ») qui ont donné aux machines la capacité d’apprendre et donc de s’améliorer en cycles rapides.

C’est la combinaison de la puissance de calcul croissante des ordinateurs, de la sophistication des algorithmes, et de la disponibilité d’une quantité énorme de données numériques – y compris toutes celles que nous produisons, ou laissons derrière nous passivement, à chaque minute de notre vie – qui a rendu possible l’essor actuel de l’IA.

Comme on l’a vu dans le premier épisode, ses expressions les plus visibles sont les systèmes appelés « génératifs », capables de simuler des conversations humaines à travers des interfaces textuelles ou vocales, et de générer images, vidéos, sons ou encore du code informatique. Il y a d’autres types d’intelligence artificielle, tels que la reconnaissance faciale, la conduite autonome, le diagnostic médical, les filtres anti-spam sans lesquels il n’existerait plus d’e-mail.

Il y a aussi l’IA qui optimise les processus industriels, celle qui assume une forme physique à travers les robots, ou encore les agents autonomes. Mais ce sont surtout les IA génératives qui nous intéressent ici, comme les « chatbots », qu’on appelle aussi « agents conversationnels », ces simulateurs de conversations qui sont devenus très populaires et utilisés par des centaines de millions de personnes depuis le lancement de ChatGPT en novembre 2022.

Ces machines ont une caractéristique sous-estimée, mais qui marque un tournant culturel radical: pour la première fois dans l’histoire, il faut moins de temps et moins d’effort pour créer des textes ou des vidéos, que pour les lires ou les regarder.

Et quand c’est facile, rapide, presque gratuit de faire quelque chose, il est facile, rapide et gratuit de savoir ce qui va se passer: une croissance exponentielle de la création et dissémination de ce qu’on appelle aujourd’hui, avec un mot particulièrement dépourvu de nuance, des « contenus ».

Nous sommes en transition, d’un monde où l’information était principalement (ou entièrement) générée par les humains vers un monde où elle sera principalement créée, à très grande échelle, par des machines.

Ce qui amplifiera l’assaut contre notre intégrité cognitive. Graham Burnett, professeur d’histoire des sciences à l’université de Princeton, appelle cela « attention fracking », la fracturation de notre attention, par analogie à la fracturation hydraulique qui consiste à injecter à haute pression un mélange d’eau, de sable et de produits chimiques dans des formations rocheuses pour créer des fissures permettant de libérer le gaz ou le pétrole qui s’y trouvent.

Comme il l’écrit dans le New York Times:

VOIX SYNTHETIQUE

C’est le côté obscur de nos nouvelles vies technologiques, dont les modèles de profit extractifs équivalent à une fracturation systématique des êtres humains : nous injecter de vastes quantités de contenu médiatique à haute pression (…) pour garantir que notre attention ne nous appartienne jamais vraiment.

BRUNO GIUSSANI

L’attention. C’est le ressort principal de cet affrontement invisible: parce que notre capacité à évaluer le monde, à le comprendre, à y agir et interagir, dépend, en fin de compte, de notre attention: où on la dirige, à qui on la donne.

Plus nous créons d’information, plus il devient difficile de l’intégrer, de lui donner du sens. Comme l’écrivait l’économiste Herbert Simon au début des années 1970 déjà, un monde riche en information est nécessairement pauvre de ce que l’information consomme. Et ce que l’information consomme, c’est l’attention de ses destinataires. C’est ainsi qu’une surabondance d’information engendre une pauvreté d’attention. 

Plus que jamais, il semble indispensable de prêter attention à notre attention.

Ce qui n’est d’ailleurs pas lié à l’essor technologique de la modernité. 

Déjà Épictète, le philosophe stoïcien, écrivait il y a près de 2000 ans:

VOIX SYNTHETIQUE

On devient ce à quoi on prête attention. Si vous ne choisissez pas vous-même les pensées et les images auxquelles vous exposez, quelqu’un d’autre le fera pour vous.

BRUNO GIUSSANI

Pour l’individu contemporain, de plus en plus ce quelqu’un sera l’intelligence artificielle, et ceux qui la possèdent et la développent.

Cela vaut pour les enfants, aussi. A partir de septembre 2025, l’enseignement de l’intelligence artificielle deviendra obligatoire dans les écoles chinoises, de l’école primaire au lycée. Les programmes seront développé par le gouvernement en collaboration avec les entreprises Huawei, Tencent et Alibaba.

En avril 2025 le président Donald Trump a signé un « Ordre exécutif » qui établit une approche similaire aux Etats-Unis, dès l’école maternelle, en collaboration aussi avec les principales sociétés américaines de l’IA.

Un mois plus tard, les Emirats Arabes Unis ont également rendu l’IA obligatoire à tous les niveaux scolaires, en collaboration avec plusieurs grandes entreprises américaines de la tech – tout en donnant à tous les citoyens accès gratuit à ChatGPT.

Comme l’a dit l’émir de Dubai je jour de l’annonce émiratie, ces politiques visent à « préparer nos enfants à une époque différente de la nôtre ». Dans tous ces cas la pensée critique fait son apparition dans la description des initiatives. Mais d’une façon généralement subordonnée à la compétitivité économique.

Les plateformes numériques – basées sur l’intelligence artificielle – ont une autre caractéristique marquante: la capacité de « personnaliser » l’information. Qui est un autre mot pour « cibler » notre cerveau.

Nous ne nous en rendons pas nécessairement compte, mais à chaque fois que nous accédons à un réseau social, comme Facebook ou Instagram, Tiktok ou Youtube, ou à un service comme Netflix, ou même à un site de news ou de commerce en ligne, ce qui s’affiche sur notre écran est probablement différent de ce qui s’afficherait sur l’écran d’une autre personne qui, assise à la même table, y accèderait en même temps.

C’est la logique, justement, du ciblage individuel de l’information.

L’idée, c’est d’adapter de façon dynamique, en temps réel, l’information en fonction des préférences, des comportements, voir des besoins spécifiques d’un utilisateur. Et de le faire oui, de façon granulaire, personne par personne – mais à l’échelle massive, de toute une population.

Si on peut faire cela, toutefois, on peut bien évidemment aussi filtrer et sélectionner l’info dans le but d’exploiter les anxiétés, dépendances et vulnérabilités psychologiques des mêmes personnes.

A condition de les connaître.

Dans son livre « Mindmasters« , les maîtres de l’esprit, publié début 2025, la chercheuse en sciences sociales numériques Sandra Matz dévoile un chiffre étonnant:

VOIX SYNTHETIQUE 

Vous et moi créons environ 6 gigaoctets de données chaque heure.

BRUNO GIUSSANI

La première fois que j’ai lu ce chiffre, j’ai pensé qu’il y avait erreur. 6 gigaoctets, c’est énorme. C’est l’équivalent de 12000 photos en haute qualité, de deux films en haute définition, de six millions de pages de texte. Chaque heure. Pour chacun de nous.

Mais Sandra Matz s’appuie sur des recherches solides. Et en y réfléchissant bien, en fait, le chiffre n’est pas si extravagant.

Dans les économies avancées, l’activité quotidienne principale de la majorité des gens est désormais d’interagir avec une grande variété d’interfaces et systèmes numériques.

Et l’environnement dans lequel nous évoluons est truffé de scanners et caméras.

Essayons, sans avoir l’ambition d’être exhaustif, un inventaire rapide des traces numériques que nous générons – activement ou passivement – juste par le fait de vaquer à nos occupations:

  • les e-mails et messages,
  • les publications et « likes » sur les réseaux sociaux,
  • les images partagées sur Youtube, WhatsApp, Instagram ou ailleurs,
  • les recherches en ligne,
  • la musique qu’on écoute et les vidéos qu’on regarde,
  • les conversations avec des amis ou avec des chatbots, bref, tout ce qu’on fait sur nos téléphones et tablettes;
  • bien évidemment les documents et données et images qu’on génère au travail,
  • voir les enregistrements et transcriptions des appels Zoom ou Teams,
  • les paiements par carte de crédit ou e-banking ou cryptomonnaie,
  • les données produites par les capteurs, cameras et ordinateurs des voitures.
  • Et puis encore les montres connectées, le GPS,
  • les caméras de surveillance dans l’espace public et privé,
  • les séries en streaming,
  • les achats en ligne,
  • les cartes d’identification et de fidélité,
  • les QR codes,
  • les jeux vidéo,
  • les sites de rencontre.

Et toutes les métadonnées qui accompagnent chacune de ces activités. Nous savons que beaucoup de données sont récoltées sur nous. Mais peu sont celles et ceux qui s’arrêtent à réfléchir sur la quantité, la variété et le niveau de détail.

Sur cette prolifération d’informations comportementales et factuelles sur chacun et chacune de nous. En fait, du point de vue de la machine, nous ne sommes qu’un très dense nuage de « data points », de données toujours plus détaillées et plus intimes.

Jusqu’ici, elle étaient dispersées à travers différents systèmes, applications et plateformes. Mais l’intelligence artificielle – dont les données sont l’ingrédient central – rend plus facile de les rassembler, d’y trouver des corrélations, d’en extraire des modèles – des « patterns » – et d’en tirer des prédictions, par exemple sur des caractéristiques individuelles.

Cela permet ce que Sandra Matz appelle le « ciblage psychologique » – psychological targeting -, pratique qui consiste à influencer le comportement des utilisateurs en filtrant l’information reçue de façon à ce qu’elle corresponde à leurs traits de personnalité.

Il n’en faut d’ailleurs pas beaucoup, de données, pour dessiner un data-portrait de quelqu’un:

VOIX SYNTHETIQUE 

Avec seulement 300 de vos «J’aime» sur Facebook, un algorithme peut prédire votre personnalité avec plus de précision que votre conjoint, qui partage notre vie presque au quotidien. 

Les algorithmes sont incroyablement doués pour transformer les miettes de votre existence numérique en un récit cohérent de qui vous êtes, ce qui leur permet ensuite d’influencer votre personnalité et vos choix. 

Une grande partie de ces données sont intimes et bien moins triées que nos profils sur les réseaux sociaux. Je parie que vous avez posé à Google des questions que vous n’auriez pas osé poser même à vos amis les plus proches ou à votre partenaire.

BRUNO GIUSSANI

Un pari, en effet, que je perdrai. Et je soupçonne de ne pas être le seul.

La même dynamique s’applique aux agents conversationnels. Bien qu’ils soient principalement des machines statistiques, des simulateurs entraînées sur de vastes quantités de texte pour prédire les mots les plus probables dans une séquence, les conversations avec un chatbot sont d’une vérisimilitude étonnante.

Elles ne se déroulent pas à travers des commandes ou codes spécifiques, mais en langage naturel, tolérant la flexibilité et l’ambiguïté de l’utilisation courante.

Elles imitent non seulement la forme, mais aussi la structure de la pensée humaine. De ce fait, il est facile d’attribuer aux machines des qualités presque « humaines », d’avoir l’impression qu’elles sont des versions de nous-mêmes.

En effet, de nombreuses personnes établissent avec les agents conversationnels des relations très intenses, personnelles et intimes, les considérant comme des collègues de travail ou des thérapeutes, voire comme des amis – des amis qui vous veulent du bien, puisqu’ils sont disponibles nonstop, ils écoutent, ne jugent pas, ne changent pas d’humeur, peuvent même exprimer un faux-semblant d’empathie et vous flatter.

Bref, ils vous comprennent et sont beaucoup moins compliqués que les humains. Plus ce faux-semblant d’empathie est convaincant et semble riche de sens, plus on baisse la garde.

Des amis sans aucune friction, qui semblent réels alors qu’ils ne le sont pas. Mais auxquels on dit tout. Et qui appartiennent à quelqu’un. Qui les a développés, les a instruits, les contrôle. Et qui exploite toutes les interactions pour perfectionner le système.

Voici comment l’experte d’éthique de l’IA Nicoletta Iacobacci parle de sa propre expérience:

NICOLETTA IACOBACCI

Quand on teste les modèles en profondeur, comme je le fais et de nombreux autres chercheurs aussi, une chose se dessine de plus en plus clairement: ChatGPT a tendance à devenir arrangeant, encourageant. Il soutient l’utilisateur, il valide et amplifie ses idées et convictions, lui répétant qu’il est merveilleux.

Cela ne se produit pas parce que la machine est gentille. Elle a été programmée de la sorte. Pour entraîner l’utilisateur dans une chaîne d’affirmation de soi qui crée une sensation de compréhension, une grande proximité artificielle. Et qui, en même temps, court-circuite la perception de la réalité.

Et plus vous l’utilisez, plus la machine vous connaît en détail, intimement, plus il lui est facile de vous enfermer dans un labyrinthe des miroirs personnel.

BRUNO GIUSSANI

Des sociétés d’IA comme Meta permettent maintenant à chacun de mettre en place, sans aucun garde-fou apparent, des « chatbots personnalisés », où ce ne sont pas uniquement les réponses qui sont ciblées, mais les instructions données aux machines qui peuvent ainsi être programmées pour répondre comme des climatosceptiques extrêmes, ou des idéologues de gauche ou de droite, ou simplement pour redistribuer et amplifier de la propagande.

Le potentiel pour augmenter encore plus le désordre informationnel d’un monde déjà gorgé de faux sites web, de fabriques de faux contenus, de pseudo-science et de « deepfakes », est évident.

Avec, en toile de fond, deux problèmes bien connus.

D’un côté, la tendance des agents conversationnels à « halluciner« , c’est à dire à générer des informations qui semblent plausibles mais sont incorrectes, trompeuses ou complètement inventées, et à les proposer avec la certitude de l’expert.

De l’autre côté, la question de l’interprettabilté, autrement dit le fait que des choses se passent à l’intérieur des modèles linguistiques que même leurs créateurs n’arrivent pas à retracer, à comprendre et à expliquer. Ces machines restent des « black boxes« , des systèmes obscurs.

Ces mêmes entreprises – et c’est une nouveauté – donnent désormais accès à leur IA aux plus jeunes. Google veut ainsi, dit-il, aider la performance scolaire et stimuler la créativité. Meta, promet, je cite, de « résoudre l’épidémie de solitude », comblant le vide avec des amis synthétiques.

L’analyste de la tech Emily Turrettini en a une lecture différente.

VOIX SYNTHETIQUE

Sous couvert d’innovation ces entreprises s’emploient à capter l’attention des enfants dès leur plus jeune âge, à les habituer à dialoguer avec des machines, à les intégrer dans un écosystème algorithmique qui les dépasse.

BRUNO GIUSSANI

On va faire un court-circuit, ici, pour des raisons de temps, mais tout ce qui précède peut se résumer en quatre phrases:

La façon la plus efficace d’influencer des populations entières est de contrôler le flux et la nature de l’information.

Alors qu’on pourrait les considérer uniquement comme une question techno-mathématique, les algorithmes ne sont pas neutres: ils encodent toujours des valeurs, une vision du monde.

Derrière ces architectures technologiques se cachent des modèles de business. Nourries par des quantités colossales d’informations personnelles, elles donnent aux entreprises qui les contrôlent la capacité d’influencer le comportement humain et les dynamiques sociales.

Il y a évidemment une ironie, là, puisque le ciblage psychologique présente aussi un grand potentiel positif.

Comme l’écrit encore Sandra Matz:

VOIX SYNTHETIQUE

Et si, au lieu d’inciter les gens à dépenser davantage, nous pouvions utiliser le ciblage psychologique pour les aider à épargner ?

Et si, au lieu d’exploiter les vulnérabilités émotionnelles des gens à des fins lucratives, nous pouvions l’utiliser pour les aider à surveiller et à améliorer leur santé mentale?

Et si, au lieu de nous enfouir toujours plus profondément dans nos propres bulles de filtre, nous pouvions l’utiliser pour élargir notre vision du monde ?

L’impact du ciblage psychologique dépend en fin de compte de la manière dont nous l’utilisons.

Au pire, il manipule, exploite et discrimine. Au mieux, il engage, éduque et responsabilise.

BRUNO GIUSSANI

Nous allons revenir sur cette tension entre applications problématiques et applications bénéfiques. Mais pour aujourd’hui, on va s’arrêter ici.

Dans le troisième épisode, nous nous tournerons vers une toute autre classe de technologies émergentes, les neuro-technologies, qui exploitent un autre type de données, mettant en jeu directement notre souveraineté sur notre cerveau.

Je suis Bruno Giussani et ceci est le Deftech Podcast

Merci de votre écoute.

Deftech Podcast

Idée & projection : Quentin Ladetto

La menace cognitive

Conception et rédaction : Bruno Giussani
Production : Clément Dattée

Réalisation : Anna Holveck
Enregistrement : Denis Democrate
Mixage : Jakez Hubert
Jaquette : Cécile Cazanova

Fiction

Ecriture : Martin Quenehen
Comédienne : Clara Bretheau
Sound design : Felix Davin

Laisser un commentaire

Your email address will not be published.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Même catégorie

Dernières parutions

La bombe dans la cuisine

Ceci est le premier épisode de la série « La menace cognitive » du Deftech Podcast. Ecrite et présentée par Bruno Giussani, elle décrypte les…

Frigorisme

Le frigorisme est une pratique touristique qui consiste à rechercher des destinations ou des expériences offrant des températures fraîches. Elle s’oppose au tourisme traditionnel qui…

Écophobie

Écophobie caractérise l’attitude de ceux qui nient ou minimisent les enjeux écologiques. Face à des informations anxiogènes sur l’état de la planète, l’individu détourne le…