Remparts légaux

La réponse réglementaire face aux menaces cognitives.
22 juillet 2025
19 mins de lecture

Disponible sur :

La saison complète

Ecrite et présentée par Bruno Giussani, expert des enjeux sociétaux liés aux technologies numériques, cette série de six épisodes (augmentée par un « épisode bonus » d’une fiction immersive) explore une dimension aussi invisible que décisive des conflits contemporains : l’intégrité de nos esprits.

Transcript

Vous écoutez Deftech podcast, le podcast de prospective technologique d’armasuisse.

Episode 5 : Remparts légaux : la réponse réglementaire face aux menaces cognitives.

BRUNO GIUSSANI

En janvier 2025, un petit livre est sorti en Italie.

L’auteur en est un jeune philosophe chinois de Hong Kong, Jianwei Xun. Il s’agissait de sa première traduction en langue étrangère. Entretemps l’essai a été publié aussi en français et en d’autres langues. Le livre a fait immédiatement beaucoup de bruit: journaux, télévisions, références dans les conversations online et offline. Il a de toute évidence touché un nerf à vif.

Comme on a essayé de le décrire dans les épisodes précédents, notre société baigne dans la surproduction de réalité, où les technologie, notamment les réseaux sociaux et l’intelligence artificielle, déterminent de plus en plus notre relation au monde et aux autres.

Certains de leurs codes sont explicites, comme l’objectif de nous rendre accros. D’autres sont dissimulés, tels que la manipulation algorithmique.

Entreprises et politiciens se servent de cette dynamiques en en abusent, secondés dans l’ombre par ceux que l’écrivain Giuliano da Empoli appelle « les ingénieurs du chaos« .

Dans cette confusion, les justes mots peuvent aider à s’orienter, comme un phare dans la tempête. Et Xun a trouvé le bon mot.

Son livre s’intitule « Hypnocratie« .

Il y décrit, je cite, le « nouveau régime de réalité » dans lequel nous vivons. Un système où le pouvoir n’opère plus par la force ou la persuasion rationnelle, mais par la modulation directe et algorithmique des états de conscience collectifs. Les plateformes numériques et les chatbots, dit-il, se révèlent pour ce qu’ils sont: non pas des outils de communication, mais des systèmes hypnotiques qui fondent ce qu’il appelle une « architecture de la suggestion » et remodèlent activement la façon dont nous percevons et interprétons la réalité.

VOIX SYNTHETIQUE

l’Hypnocratie est le premier régime qui agit directement sur la conscience. Elle ne contrôle pas les corps. Elle ne réprime pas les pensées. Elle induit plutôt un état de transe permanente. Un sommeil lucide. Une transe fonctionnelle. L’éveil a été remplacé par le rêve guidé. La réalité par la suggestion continue. Avec la submersion des sens par des stimuli constants, l’esprit critique est doucement endormi et la perception est remodelée, couche par couche. Pendant ce temps, les écrans ne cessent de briller dans la nuit de la raison.

BRUNO GIUSSANI

L’idée d’Hypnocratie est radicale, et inconfortable. Mais dans la pénurie de notions qui nous aident à organiser notre expérience contemporaine, elle offre un cadre de lecture puissant.

Elle prend en compte tant la manipulation algorithmique de la perception que la manipulation politique de l’attention, celle opérée par exemple par le président américain Donald Trump et son flux incessant d’annonces, de provocations et d’actions outrancières.

Elle aide également à expliquer pourquoi les réponses rationnelles n’ont que peu de prise :

VOIX SYNTHETIQUE

Alors que la plupart des analystes se concentrent encore sur des phénomènes tels que les « fake news » ou la « post-vérité », à Washington nous assistons à une transformation bien plus profonde : l’émergence d’un système où le contrôle s’exerce non pas en réprimant la vérité, mais en multipliant les récits au point que tout point fixe devient impossible.

BRUNO GIUSSANI

La photo de Trump en Pape, le bras droit levé dans un salut nazi-ou-pas-nazi de Elon Musk, la théâtralité des déportations d’immigrés, le non-respect des décisions judiciaires: chaque provocation fonctionne comme ce que Xiu appelle un « séparateur de réalité ».

Qui brise le contexte partagé, crée des univers interprétatifs parallèles et place les observateurs, en fonction de leurs convictions préexistantes, dans des bulles de réalité distinctes et irréconciliables.

VOIX SYNTHETIQUE

Alors que les critiques continuent à opposer des arguments rationnels, des données et un raisonnement logique, ils ignorent totalement que le pouvoir contemporain opère désormais exclusivement par la modulation des états de conscience.

Leur critique reste prisonnière du modèle de communication des Lumières, où la vérité doit triompher par son mérite intrinsèque, sans comprendre qu’elle est désormais un produit esthétique, une expérience collective générée par la répétition, l’émotion et la suggestion d’une réalité algorithmique.

JINGLE

Le Deftech Podcast fait partie du programme de prospective technologique d’armasuisse Science et Technologie.

Je suis Quentin Ladetto, responsable de ce dispositif de recherche.

Notre mission est d’anticiper les avancées technologiques et leurs usages, au service des acteurs du Département fédéral suisse de la défense, de la protection de la population et des sports, mais également du public.

Dans cette première série de six épisodes, intitulée « La menace cognitive » j’ai demandé à Bruno Giussani, expert des impacts sociopolitiques des technologies numériques, de décrypter les défis de l’intégrité et de la sécurité cognitives. 

Avec l’aide d’experts – et aussi de quelques voix artificielles: à vous de deviner lesquelles! – Bruno nous guidera à travers une exploration des menaces qui pèsent sur nos esprits à l’heure des écrans omniprésents, de l’intelligence artificielle et des neurotechnologies. En discutant mécanismes, impacts individuels et collectifs, risques, et réponses possibles.

BRUNO GIUSSANI

Quelques semaines plus tard, alors qu’ »Hypnocratie », dont je vous ai parlé avant le générique, continuait d’être discuté et commenté, on a découvert que le penseur chinois n’existait pas. Que le livre était en fait une performance narrative imaginée par l’éditeur italien et philosophe, Andrea Colamedici. Il l’a réalisée en collaboration avec deux IA génératives, celles de Anthropic et de OpenAI, avec lesquelles il entretient une grande familiarité.

En effet, son deuxième job est d’enseigner le « prompt thinking » à l’Institut européen de design de Rome, c’est à dire l’art subtil d’interroger et dialoguer avec l’intelligence artificielle pour obtenir les résultat souhaités. En injectant dans le débat culturel une idée captivante, d’origine artificielle, Colamedici a donc réussi d’un même coup analyse et démonstration. Et si le philosophe chinois n’existe pas, la notion d’Hypnocratie n’est toutefois pas moins pertinente. Elle n’explique pas tout, mais aide à comprendre beaucoup de ce qu’on a discuté jusqu’ici dans ce podcast.

Comment, dans cet état d’hypnose, trouver la lucidité pour confronter l’influence algorithmique sur nos esprits? Et, inversement, malgré l’accélération technologique qui nous happe, comment faire face à l’Hypnocratie? Sans avoir la prétention d’être exhaustif, essayons quelques pistes.

Lorsqu’on est confrontés, collectivement, à une menace d’une telle ampleur et vitesse, la première tentation est souvent d’imposer des règles. De répondre par la loi, en fixant des limites, en définissant juridiquement ce qui est permissible et ce qui ne l’est pas. En créant des protections, des droits et obligations. En interdisant des méthodes ou produits considérés nocifs.

C’est une question compliquée. La seule évocation des mots « règle » et « interdiction » est suffisante pour susciter des réactions de rejet. Ceci est particulièrement vrai quand on parle de technologie. Ces toutes dernières années, fortement encouragé par les entreprises productrices, s’est en effet imposé le narratif selon lequel la réglementation entraverait l’innovation.

Ainsi, par exemple, protéger l’individu de l’extraction de ses données personnelles ralentirait le développement de l’intelligence artificielle. Ce débat dépasse le cadre de notre propos. On va donc se contenter d’en noter l’existence.

Reste qu’un type de réponses possibles à la menace cognitive est effectivement d’ordre juridique et réglementaire.

Et puis il y a nombre d’autres réponses d’ordre social et culturel.

Mais aujourd’hui, on va commencer par la loi.

Pendant longtemps, le fonctionnement de l’esprit humain a été considéré non seulement comme incompréhensible, mais aussi comme inviolable. Les instruments juridiques qui protègent la liberté ne prennent donc généralement pas en compte la sphère cognitive.

Cette inviolabilité est maintenant remise en question par la confluence d’une technologie, l’IA, qui peut excaver nos données personnelles, et d’une autre, la neurotech, qui peut décoder nos émotions et commence à percer nos pensées. C’est un enjeu vertigineux, qui n’est pour l’instant reflété presque nulle part dans le corpus législatif mondial.

Plusieurs accords internationaux, déclarations et recommandations ont certes été élaborés, qui visent à réglementer spécifiquement les neurotechnologies. Mais juridiquement, ils sont tous non contraignants.

Il existe aussi des instruments qui contiennent des dispositions ou des principes qu’on peut considérer adjacents. La liberté de pensée est protégée

En principe, cela signifie que la liberté de pensée d’un individu ne doit jamais être violée. Dans les trois chartes toutefois, elle est associée explicitement à la liberté religieuse et de conscience, alors que l’intégrité cognitive n’y est ni mentionnée, ni sous-entendue.

Les normes dont s’est dotée l’Union Européenne en matière de technologies numériques sont probablement les plus conséquentes. Le Règlement général sur la protection des données (RGPD) de 2016 définit les règles concernant la collecte, le traitement et la conservation des données à caractère personnelle. Il confère également aux individus des droits de contrôle sur l’utilisation des informations, tels que le droit d’accès, de rectification, ou le droit à l’effacement (connu comme « le droit à l’oubli »). Il englobe aussi des normes de transparence et de consentement.

La Loi européenne sur les services numériques de 2022 contient des mesures de tutelle des consommateurs notamment en matière de liberté d’expression et protection des données. Elle attribue aussi plus de responsabilité aux plateformes numériques par rapport aux informations qu’elles diffusent. Bien que les principes qu’ils contiennent puissent indirectement s’y rapporter, aucun de ces deux textes ne traite pourtant de façon spécifique des risques d’atteinte à l’intégrité cognitive.

On se rapproche de notre sujet avec la Loi sur l’intelligence artificielle – le « AI Act » – promulguée par l’Union Européenne en 2024. C’est une normative qui n’a pas plu aux grandes entreprises technologiques. Elle encadre le développement, la mise sur le marché et l’utilisation des systèmes d’IA, en tenant compte en particulier des droits fondamentaux. Elle s’articule autour d’une approche par les risques, en classant les systèmes d’IA en quatre groupes en fonction de leur impact potentiel.

Certaines applications sont considérées à « risque minimal« , et ne sont donc pas réglementées. D’autres, à « risque limité« , sont soumises notamment à des obligations de transparence.

L’objectif principal est de garantir par exemple que les utilisateurs ne soient pas dupés par un chatbot qui prétendrait être un humain, et que l’information générée artificiellement soit visiblement indiquée comme telle.

La troisième catégorie est celle des systèmes jugés à « haut risque« , est sont donc réglementés. il s’agit de ceux utilisés dans les infrastructures critiques (eau, ou électricité) ou la santé, ainsi que de ceux qui peuvent déboucher sur un traitement préjudiciable. Rentrent dans ce groupe par exemple les outils qui trient les CV pour le recrutement, qui déterminent l’accès à l’éducation ou notent les examens, ou qui évaluent la solvabilité lors de demandes de crédit. Ces systèmes doivent être testés rigoureusement avant leur mise sur le marché, et accompagnés tout au long de leur utilisation par une supervision humaine.

Enfin, il y a les pratiques qui présentent des « risques inacceptables« , et qui sont tout simplement interdites. Il s’agit par exemple de la notation sociale, de la prédiction des crimes et des systèmes de catégorisation biométrique. Et c’est dans cette catégorie que le législateur a choisi d’insérer les menaces cognitives.

Voici un extrait de l’article 5.1.a de l’AI Act:

VOIX SYNTHETIQUE

Est interdite la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui déploie des techniques subliminales au-delà de la conscience d’une personne, ou des techniques délibérément manipulatrices ou trompeuses, ayant pour objectif ou pour effet de fausser sensiblement le comportement d’une personne ou d’un groupe de personnes en altérant de manière appréciable leur capacité à prendre une décision en connaissance de cause, les amenant ainsi à prendre une décision qu’elles n’auraient pas prise autrement.

BRUNO GIUSSANI

Et voici un extrait de l’article 5.1.b :

VOIX SYNTHETIQUE

Est interdite la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui exploite les vulnérabilités d’une personne physique ou d’un groupe spécifique de personnes en raison de leur âge, d’un handicap ou d’une situation sociale ou économique particulière, avec pour objectif ou pour effet d’altérer de manière significative le comportement de cette personne.

BRUNO GIUSSANI En d’autres mots, l’intégrité mental est un droit fondamental, et tout développement l’affectant doit être autorisé par la loi. Des discussions sont en cours dans d’autres pays d’Amérique Latine pour inscrire ces droits dans la loi, comme au Mexique – avec une proposition clairement inspirée du Chili – au Brésil ou en Argentine. En 2022 d’ailleurs, une organisation qui promeut l’intégration régionale appelée le Parlement latino-américain et caribéen – connue comme Parlatino – a établi une loi-type sur les «neurodroits». Voici, traduites et résumées par nos soins, les tutelles principales qu’elle envisage :

VOIX SYNTHETIQUE

Le droit à la vie privée mentale, ainsi que le droit inaliénable de ne pas être soumis à une quelconque forme d’intervention sur ses connexions neuronales, d’interférence avec les processus cognitifs, ou d’intrusion au niveau du cerveau par l’utilisation de neurotechnologie, interfaces cerveau-ordinateur ou tout autre système ou appareil, sans consentement libre, exprès et éclairé, et même dans les cas où cette intervention pourrait se faire de façon inconsciente.

BRUNO GIUSSANI

Les travaux du Parlatino font écho à ceux, de 2017, du Morningside Group, un groupe de scientifiques, éticiens et technologues qui sont à l’origine de la notion de « neurodroits« , qui désigne les protections en termes de droits humains nécessaires pour relever les défis posés par les neurotech.

Ils ont identifié cinq neurodroits principaux :

VOIX SYNTHETIQUE

Premier: Le droit à la vie privée cognitive, c’est à dire la capacité de protéger son activité mentale contre toute divulgation.

Deuxième: Le droit d’identité, ou la capacité de contrôler son intégrité mentale et son identité.

Troisième: Le droit à l’autonomie, c’est à dire la liberté de pensée et la liberté de choisir ses actions.

Quatrième: Le droit à l’augmentation, ou la garantie d’un accès équitable aux améliorations des capacités cognitives rendues possibles par la technologie. 

Cinquième: Le droit à la protection, ou la tutelle contre les biais algorithmiques.

BRUNO GIUSSANI

Un autre pays où un cadre normatif est en discussion est la Suisse. Fin 2024, une initiative a été déposée au Parlement pour amender l’article 10 de la Constitution. Actuellement, entre autre, il stipule: « Tout être humain a droit à la liberté personnelle, notamment à l’intégrité physique et psychique. » L’initiative vise à y ajouter explicitement la tutelle de l’intégrité cognitive.

Elle a été présentée par la députée centriste Isabelle Chappuis, qui nous explique pourquoi :

ISABELLE CHAPPUIS

Parce que si nos ancêtres ne l’ont pas inscrite dans notre constitution, aux côtés de l’intégrité physique et l’intégrité psychique, c’est simplement qu’ils ne pouvaient pas imaginer que notre esprit devienne une cible.

Aujourd’hui, il l’est, alors il faut le protéger. Ce n’est pas un droit « nice to have ». C’est un droit fondamental. En l’ancrant dans la Constitution, on le placerait au-dessus de la liberté de commerce et de la logique de marché.

Ce droit deviendrait alors en quelque sorte notre boussole pour légiférer sur les IA, sur les algorithmes ou encore sur les technologies à venir.

BRUNO GIUSSANI

Isabelle Chappuis plaide ici non seulement pour un amendement constitutionnel, mais aussi pour une réorientation.

Dans l’histoire récente, la prééminence de la liberté de commerce a conduit à critiquer, édulcorer ou abandonner de nombreuses tentatives de régulation, dans tous les domaines et dans de très nombreux pays. Mais face à la menace cognitive, dit-elle, il est impératif de privilégier notre droit de penser librement. De donner la priorité à la souveraineté cognitive sur la logique mercantile. Traçant ainsi une frontière symbolique et juridique qui pourrait devenir l’axe structurant de l’éthique et de la régulation des technologies de demain.

Ce soit dit en passant: c’est l’approche inverse à celle de Donald Trump qu’on a évoqué il y a une minute.

Pour boucler ce petit catalogue d’instruments et de propositions légales – qui est représentatif mais pas du tout exhaustif – il nous faut mentionner qu’en septembre 2024, la Californie, siège de nombreuses grandes entreprises technologiques, a été le premier Etat américain à introduire la protection des « données cérébrales » dans la loi.

Finalement, citons encore les travaux de deux penseurs de la technologie, Marcello Ienca de l’EPFL de Lausanne et de l’Université de technologie de Munich, et Roberto Andorno, de l’Université de Zurich. Ils proposent quatre nouveaux droits humains pour protéger ce qu’ils appellent « le dernier refuge de la vie privée« : notre cerveau.

On a déjà parlé des trois premiers: les droits à la liberté cognitive, à l’intégrité mentale et à la vie privée mentale. Le quatrième est le droit à la continuité psychologique. Ce concept fait référence à la capacité de chacun à maintenir dans le temps la cohérence et la stabilité de notre expérience psychique. De nous percevoir comme une entité continue malgré les changements.

Répétons cette dernière phrase: « la capacité de nous percevoir comme une entité continue ». Elle anticipe que les neurosciences et les technologies de demain pourraient interférer avec notre cognition jusqu’à ne plus être en mesure de nous percevoir comme la même personne. Jusqu’à nous faire perdre la tête. Le moins que l’on puisse dire à ce point est que le développement d’outils juridiques pour un domaine en progression accélérée est d’une grande complexité.

Il est indispensable de conjuguer la tutelle de valeurs et principes essentiels comme les droits humains avec la souplesse nécessaire à ne pas entraver l’innovation. Il faut aussi définir clairement la responsabilité des entreprises qui conçoivent et emploient les outils qui peuvent influencer ou altérer les processus cognitifs.

Il va falloir trouver également un équilibre entre les droits des individus à leur vie privée cognitive et l’intérêt général de la société. On pourrait être emmenés à autoriser une certaine violation, légitime, de l’intimité mentale, de manière ciblée et proportionnée, comme par exemple quand il s’agit de vérifier par des capteurs le niveau de vigilance des conducteurs de trains. Y aurait-il d’ailleurs un niveau d’influence cognitive qui serait généralement acceptable?

Et à un tout autre niveau de questionnement: si nous ne pouvons pas comprendre pleinement comment les intelligences artificielles fonctionnent et pourquoi elles produisent un certain résultat, quel niveau d’autonomie faut-il leur accorder?

Jusqu’à quel point une IA devrait être autorisée à déterminer d’elle-même de ce sur quoi elle peut décider? Si des entités synthétiques vont exister parmi nous, avec des capacités cognitives imitant les nôtres, faudra-t-il leur attribuer une personnalité juridique ? Ou, à leur tour, des protections d’ordre psychologique ?

Ce ne sont que quelques-unes des énormes questions que soulève l’avancée de l’IA et des neurotechnologies.

Et puis, il y a la guerre cognitive, dont on a déjà parlé, où attaquer nos esprits sert une stratégie de conquête.

Petit rappel, sous forme de question: qu’est-ce qu’on gagne, quand on gagne une guerre cognitive? Isabelle Chappuis :

ISABELLE CHAPPUIS

On gagne les esprits, donc on gagne les décisions.

Dans le sens que celui qui maîtrise la guerre cognitive, il n’a pas besoin d’occuper un territoire, il occupe les cerveaux. Il y sème le doute, il divise, détourne la tension, et il affaiblit en gros la volonté collective.

Et puis à la fin, l’autre tombe de lui-même, sans s’en rendre compte d’ailleurs.

BRUNO GIUSSANI

L’utilisation de technologies et stratégies cognitives à des fins militaires soulève entre autres la question du droit international et de sa pertinence en relation à ce défi. Les armes algorithmiques et neurocognitives ne font actuellement l’objet d’aucun accord international, alors qu’il existe des conventions sur les armes chimiques et biologiques et des traités contre la prolifération nucléaire.

Elles ne sont pas considérées explicitement non plus dans les règles internationales qui encadrent la conduite de la guerre, qui sont principalement contenues dans le droit international humanitaire – par exemple dans les Conventions de Genève.

Toutefois, nous dit Mauro Vignati, expert du Comité International de la Croix Rouge :

MAURO VIGNATI

De façon générale, je dois dire que le droit humanitaire a été conçu de façon assez ample pour pouvoir considérer aussi des technologies qui n’étaient pas encore conçues et présentes au moment où on a formulé les différentes lois qui les composent.

Cela dit, la première chose à faire, c’est que tous les États implémentent correctement le droit pour après identifier s’il y a des lacunes et éventuellement proposer des améliorations du droit.

BRUNO GIUSSANI

Est-ce qu’alors, dans le contexte actuel, de réalignement géostratégique et de compétition économique et militaire, des nouvelles règles internationales sur la guerre cognitive seraient utiles et surtout, réalistes?

ISABELLE CHAPPUIS

Utiles, évidemment. Réalistes, pas encore, mais indispensable, ça c’est sûr. C’est un peu comme les armes chimiques ou nucléaires. Elles donnent un signal normatif fort.

Même si certains trichent, et c’est toujours le cas, on le sait, le droit, au moins, il trace une sorte de frontière morale. Il dit ce qui est intolérable et il fixe les lignes rouges.

BRUNO GIUSSANI

Au Centre pour la politique de Sécurité à Genève, le directeur des risques globaux et émergents Jean-Marc Rickli cadre la discussion en termes de subversion :

JEAN-MARC RICKLI

A l’inverse de la coercition qui utilise la force physique et la violence, la subversion, elle, est une tentative délibérée de saper une autorité légitime et elle est en passe de devenir un élément central des stratégies de pouvoir et d’influence à l’échelle mondiale.

Dès lors, il serait judicieux de créer un régime de contrôle de la subversion, notamment dans le domaine algorithmique, à l’instar de ceux du contrôle des armements que l’on a développé au début de l’ère atomique. La croissance exponentielle de la désinformation et des atteintes cognitives assistées par l’IA a donné naissance à une nouvelle classe d’ADM, qui ne sont pas des armes de destruction massive, mais des armes de désinformation de masse, qui pourraient in fine se transformer en armes de destruction mentale.

A la différence des armes nucléaires, cependant, les technologies de subversion ne sont pas développées par les gouvernements, mais sont essentiellement développées par le secteur privé. Il est impossible de stopper la prolifération de lignes de code, et donc ces développements par le secteur privé, plus la nature même de l’espace digital, font qu’on assiste à des phénomènes de prolifération très rapides. Et cette démocratisation débridée augmente donc encore plus le besoin de structures de gouvernance internationales et nationales

BRUNO GIUSSANI

Ramenant la question à l’échelle des pays, Isabelle Chappuis, qui est par ailleurs membre de la Commission de politique de sécurité du Conseil National suisse, pense que cela devrait aller de pair avec la dissuasion :

ISABELLE CHAPPUIS

Je pense que nous aurions besoin d’une doctrine de dissuasion cognitive (…). Parce qu’en fait, une guerre cognitive qui est bien menée, elle peut détruire une démocratie de l’intérieur, sans bombes, sans bruit. Juste en fracturant la confiance, en brouillant la vérité et en sapant la volonté d’agir ensemble. (…) En matière de sécurité, ne pas avoir de doctrine, c’est en quelque sorte déjà perdre. Une doctrine, ce n’est pas une menace, c’est un cadre stratégique clair qui définit ce qui constitue une attaque, qui précise ce à quoi on s’engage à répondre et qui dissuade ceux qui seraient tentés de franchir la ligne.

Aujourd’hui, l’absence de doctrine cognitive, c’est une faille stratégique. Parce qu’elle laisse nos sociétés démocratiques désarmées, vulnérables, dans une guerre invisible que d’autres, eux, ont déjà théorisé et déjà instrumentalisé. Alors il est temps d’y répondre, par le droit, par des alliances, et des règles internationales, et par une doctrine.

Notre réplique, si j’ose dire, contre cet ennemi invisible, doit absolument être systémique. Parce que notre ennemi est diffus et nous devons agir de manière collective. Nous devons penser « Gesamtverteidigung », défense totale, défense militaire, économique, évidemment, mais aussi cognitive, émotionnelle et sociale.

BRUNO GIUSSANI

Ou comment rendre robustes la société et préparer les individus qui la composent.

C’est ce à quoi nous allons nous intéresser dans le prochain – et dernier – épisode.

Je suis Bruno Giussani et ceci est le Deftech Podcast.

Merci de votre écoute.

Deftech Podcast

Idée & projection : Quentin Ladetto

La menace cognitive

Conception et rédaction : Bruno Giussani
Production : Clément Dattée

Réalisation : Anna Holveck
Enregistrement : Denis Democrate
Mixage : Jakez Hubert
Jaquette : Cécile Cazanova

Fiction

Ecriture : Martin Quenehen
Comédienne : Clara Bretheau
Sound design : Felix Davin

Laisser un commentaire

Your email address will not be published.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Même catégorie

Dernières parutions

Guerre cognitive

Ceci est l'épisode 4 de la série « La menace cognitive » du Deftech Podcast. Ecrite et présentée par Bruno Giussani, elle décrypte les défis…

La fracturation de l’attention

Ceci est l'épisode 2 de la série « La menace cognitive » du Deftech Podcast. Ecrite et présentée par Bruno Giussani, elle décrypte les défis…

La bombe dans la cuisine

Ceci est le premier épisode de la série « La menace cognitive » du Deftech Podcast. Ecrite et présentée par Bruno Giussani, elle décrypte les…