8 janv. 2019

La physique quantique vue par Nassim Haramein

L'univers interconnecté
 
Selon le physicien Nassim Haramein, tout dans l'univers est connecté, de l'échelle la plus petite à la plus grande, grâce au rôle unificateur de la gravité. Selon sa  théorie, c'est l'espace qui définit la matière. Notre monde matériel est de l'espace en vibration qui est la source de la matière. Il fait appel à Einstein: "les objets physiques ne sont pas dans l'espace, mais ces objets sont une extension de l'espace..." et à John Wheeler " l'espace vide n'est pas vide, il est le siège de la physique la plus violente"
C'est l'espace qui relie l'ensemble de l'univers ou l'ensemble d'une particule. L'espace est présent entre les galaxies, entre les planètes, entre nos cellules, entre nos atomes... La structure atomique est constituée de 99,999% d'espace. En fait, le monde matériel est constitué essentiellement de vide, la matière ne représente que 0,001%. Donc Nassim Haramein propose de s'intéresser plutôt à la partie vide qu'à la partie physique.
C'est donc un champ informationnel énergétique extrêmement dense qui remplit le vide Il rappelle que "la base de la physique quantique prédit que tout point dans l'espace oscille, ces fluctuations sont infinies en chaque point, chaque point dans l'espace contient une énergie infinie..." Ce champ quantique du vide à l'échelle de Planck contient une très puissante énergie, à l'infini. Selon Haramein qui s'appuie sur les recherches de John Wheeler, "le vide est tellement saturé d'énergie, il est tellement dynamique et rapide qu'il se connecte par de micros trous de ver qui s'interconnectent dans l'ensemble de l'univers."
Une des bases de la recherche d'Haramein repose sur le proton à l'échelle de Planck-Wheeler (1,62x10ˉ35m). Il parle de points d'information (les particules/points de Planck sont des pixels quantiques existant dans la densité du vide) qui forment la masse du proton : 1055 g/cm3, soit exactement la masse de l'univers... ce qui induit que le proton est un trou noir au niveau quantique, et il contient la masse de l'univers de par sa nature hologrammiqueA partir de cela, Haramein développe le principe d'univers connecté au travers de la structure du vide, car c'est l'espace vide qui connecte tout, le vide est un champ source de l'unification.
Les objets ne définissent pas l'espace mais c'est l'espace qui définit les objets. Ainsi, il pense que le vide quantique est plein ! et plein de quoi ? Plein d'énergie (à l'infini), plein d'informations concernant les constantes universelles, concernant les mémoires cosmologiques, concernant les mémoires du vivant.
Et pour fonctionner le vide a une structure : c'est l’énergie du vide qui assure la cohésion de l’Univers, cette énergie du vide est géré par le vide du champ de Planck. Son explication remet en cause l'existence de la matière noire et de l'énergie noire, à l'instar de l'astrophysicien Jean-Pierre Petit, Nassim Haramein pense que l'introduction de ces paramètres pas encore démontrés ne sont que des pansements sur la Théorie cosmologique standard inachevée. L’énergie noire, qui est agissante tant au niveau quantique du proton que dans l'accélération de l'expansion de l'univers, n’existe pas en tant que telle... elle est de nature gravitationnelle, c'est de l'énergie issue de l'équilibre des polarités dans l’effondrement du vide sur lui-même.
N'ayant pas plus d'information sur cette énergie issue de l'effondrement du vide sur lui-même, je pense qu'Haramein fait référence à l'énergie cinétique engendrée par le mouvement entre 2 polarités qui transporte en elle-même l'ensemble des constantes mathématiques et informationnelles de l'univers précedent, car à l'échelle d'un univers un des pôles de la polarité se situe au point de départ de l'expansion de l'univers et l'autre pôle à son point de résorption (comme une lente et profonde respiration entre l'inspir et l'expir puis entre l'expir et l'inspir).
Selon ses recherches, Nassim Haramein pense que la structure du vide repose sur l'organisation des points de Planck sous la forme d'un cuboctaèdre composé de 64 tétraèdres : donc la base géométrique d'assemblage de triangles, puis de pyramides produit de l'information quantique. Il explique sa théorie en faisant appel à la géométrie quantique : le tétraèdre est la base de la structure du vide et produit l'organisation nécessaire à la diffusion de cette énergie informationnelle en ondes scalaires pour construire notre réalité physique.
Cosmos de la création continue : il explique que notre soleil est un trou noir, que le proton est un trou noir et que les trous noirs, qui sont criblés de trous de ver, répondent à une distribution fractale : ils sont répartis depuis l’infiniment petit jusqu’à l’Univers lui-même qui est un trou noir qui absorbe et diffuse de l'information en permanence. Les galaxies et les étoiles contiennent un trou noir en leur centre.
Donc la structure de l'espace/temps se déplace en torsion en intégrant l'effet de couple. Au lieu d'une surface espace-temps lisse, élastique, il propose le modèle du tore en double structure pour représenter le trou noir. Ainsi pour chaque rotation il y a une contre rotation, l'univers est un double Tore.
La création d'univers s'effectue quand un proton s'échappe de l'univers puisque le proton lui-même contient la masse de l'univers, masse composée d'information (comme les constantes universelles, thermiques, gravitationnelles et pleins d'autres mémoires) et comme des protons s'échappent en permanence de notre univers, il y a une création continue de nouveaux univers, une création continue de matière. Et c'est de la matière connectée puisque c'est une même structure hologrammique qui se répand en structure fratale.
L'approche unificatrice de la structure géométrique du vide de Nassim Haramein rappelle la démarche ésotérique et visiblement cette démarche ne lui est pas étrangère car il s'y réfère fréquemment. Le savoir et l'expérimentation physique et métaphysique des Anciennes Civilisations a inspiré nos savants de l'Antiquité à nos jours et continuent à alimenter les diverses branches de l'ésotérisme.
Comme bien d'autres physiciens et biologistes contemporains, il considère que nous entrons maintenant dans un nouveau domaine de la physique quantique : une physique globalisante de l'information quantique structurante tenant compte des interactions multidimensionnelles, tenant compte des interactions avec le vivant biologique.
Plus qu'un champ unifié, l'univers est un tissage d'informations mathématiques et géométriques, cette nouvelle approche de la physique quantique confirme étonnamment la validité du tantrisme (philosophie/science pratique et opérative issue du yoga). Le tantra se définit comme un processus continu de tissage, d'interconnexions d'informations qui s'influencent les unes les autres pour dérouler/étirer un tapis multidimensionnel de Conscience/Connaissance essence de toute réalité. De nombreux physiciens dont Nassim Haramein et Philippe Guillemant travaillent dans cette direction.

© Didier Luccan, auteur de Vers la Sagesse Quantique, aux éditions Bussière

 



9 nov. 2018


« La complémentarité homme-machine est une fable »

 Fabien Benoit
Aricle de Usbek&Rica  

« Anatomie d'un antihumanisme radical ». Le sous-titre du dernier essai d'Éric Sadin est pour le moins explicite. Dans ce nouveau livre, qu'on peut lire comme la suite logique des deux précédents (La Vie algorithmique et La Silicolonisation du monde, tous deux publiés aux éditions de L'Échappée), le philosophe s'attaque à l'intelligence artificielle, qu'il considère comme « l'enjeu du siècle ». D'après lui, l'IA telle qu'elle se développe aujourd'hui vient parachever l'ambition des grands acteurs du capitalisme numérique de s'infiltrer dans chaque interstice de notre vie privée pour y trouver de nouvelles sources de profit. Face à une évolution qu'il juge quasiment inéluctable, Éric Sadin appelle à faire remonter au plus vite des témoignages et des contre-expertises émanant des hôpitaux, des écoles et des entreprises, terrains sur lesquels les IA commencent à être déployées.
Usbek & Rica : Dans votre précédent ouvrage, La Silicolonisation du monde, vous évoquiez « l’irrésistible ascension du libéralisme numérique » ou, en d’autres termes, la volonté des grands acteurs du numérique de transformer l’intégralité de nos vies en données et d’en tirer profit à chaque instant. En quoi, comme vous le laissez entendre dans votre nouvel essai, l’intelligence artificielle représente-t-elle le stade ultime de ce mouvement ?
Si l’intelligence artificielle représente le nouveau Graal économique de notre temps, c’est qu’en effet, elle fait entrer le libéralisme dans une sorte de stade ultime de son histoire. Et cela pour deux raisons. La première, c’est que l’IA permet de continuellement susciter des opérations marchandes. Car ce qui la caractérise, c’est sa puissance à analyser et à interpréter des masses de données et à formuler en retour des recommandations. Par exemple, la fonction d’un miroir connecté ne vise pas seulement à réfléchir une présence, mais à collecter des données relatives au visage et au corps afin de suggérer des produits ou services supposés appropriés en fonction de l’analyse évolutive des états physiologiques, voire psychologiques. Ce type d’exemple pourrait être décliné sur de longues pages.
« L'IA s’offre une formidable machinerie à générer continuellement des profits »
La seconde raison, c’est que l’IA offre, pour le monde de l’entreprise, l’occasion d’optimiser comme jamais les modes de production, pas seulement en automatisant un nombre sans cesse croissant de tâches et en supprimant des emplois à haute compétence cognitive, mais également en instaurant de nouveaux modes de management au moyen de capteurs et de systèmes d’interprétation en temps réel des « mesures de performance » du personnel destinés à définir à chaque instant les bonnes actions à entreprendre. Par cette double prérogative, l’IA s’offre une formidable machinerie à générer continuellement des profits et à instaurer des modes d’organisation hautement rationalisés.



De plus en plus de chercheurs prestigieux préfèrent aujourd'hui travailler pour les laboratoires créés par ces grandes entreprises plutôt que pour la recherche publique. Selon vous, à quel moment le monde de la recherche a-t-il « basculé » du côté de l’industrie, du marché ?
Ce mouvement massif d’affiliation des ingénieurs et des programmeurs à l’industrie du numérique remonte au tout début des années 2000, lorsque les grands groupes ont commencé à disposer d’énormes moyens financiers et se devaient de mobiliser des compétences scientifiques et techniques pour se développer. À cette fin, les Google, Amazon, Apple, Uber, Facebook, etc. surent habilement jouer d’un puissant pouvoir de séduction, offrant des émoluments importants tout en affirmant qu’ils faisaient advenir de nouveaux modes de management cool et « horizontaux » - toute cette rhétorique oiseuse et si souvent rebattue dont il me semble que nous sommes aujourd’hui heureusement revenus.
« La technique, en tant que champ relativement autonome, n’existe plus. Seul demeure le techno-économique »
Parallèlement, il s’est opéré une immixtion des grands groupes de l’industrie du numérique au sein des centres de recherche publics, des écoles d’ingénieurs et des grandes universités du monde entier. Dorénavant, toutes les institutions de recherche et de formation bénéficient de fonds de sponsoring émanant de l’industrie du numérique qui contribue ainsi à définir les programmes. Cette inféodation du monde technoscientifique aux intérêts de l’industrie représente un drame dans la mesure où aujourd’hui la technique, en tant que champ relativement autonome, n’existe plus. Seul demeure le techno-économique. En cela, ce sont des formes de pluralités qui se trouvent ainsi neutralisées au profit de productions fondées sur des logiques strictement mercantiles et utilitaristes.
À cette enseigne, il est temps de contredire les discours formulés par les ingénieurs qui, d’un côté contribuent à ces développements et qui, d’un autre côté, ne cessent d’invoquer à tout bout de champ l’« éthique », qui correspond désormais à une coquille vide, à un vague fourre-tout ne produisant rien de concret et qui ne sert qu’à témoigner de bonnes intentions de façade. À l’opposé de cette mascarade, nous devrions plus que jamais appeler à une indépendance de la recherche, et plus encore à développer de tout autres imaginaires techniques. Je crois que c’est ce qu’il nous manque cruellement aujourd’hui.
Le Français Yann Le Cun dirige FAIR, le laboratoire d'intelligence artificielle de Facebook. / © Jérémy Barande / Wikimedia (CC)
Quand on pense à l’interprétation de toutes ces données, on en vient à votre idée que l’intelligence artificielle a le pouvoir d’énoncer la vérité, de nous dire ce qui est vrai et ce qui ne l’est pas, de nous dire ce que nous devons faire et ce que nous ne devons pas faire… C’est là que réside l’antihumanisme que vous évoquez dans votre ouvrage ?
Ce qui caractérise l’intelligence artificielle, c’est que c’est une puissance d’expertise qui ne cesse de se perfectionner. Ses systèmes auto-apprenants sont capables d’analyser des situations toujours plus variées et de nous révéler des états de fait dont certains étaient ignorés à notre conscience. Et ils le font à des vitesses qui dépassent sans commune mesure nos capacités cognitives. C’est pourquoi nous vivons un changement de statut des technologies numériques : elles ne sont plus seulement destinées à nous permettre de manipuler de l’information à diverses fins, mais à nous divulguer la réalité des phénomènes au-delà des apparences.
« La technique se voit attribuée de prérogatives inédites : éclairer de ses lumières le cours de notre existence »
En cela, ces systèmes computationnels sont dotés d’une singulière et troublante vocation : énoncer la vérité. La technique se voit attribuée de prérogatives inédites : éclairer de ses lumières le cours de notre existence. En ce sens, nous vivons le « tournant injonctif de la technique ». Il s’agit là d’un phénomène unique dans l’histoire de l’humanité qui voit des techniques nous enjoindre d’agir de telle ou telle manière. Et cela ne s’opère pas de façon homogène, mais s’exerce à différents degrés, qui peuvent aller d’un niveau incitatif, à l’œuvre dans une application de coaching sportif par exemple suggérant tel complément alimentaire, à un niveau prescriptif, dans le cas de l’examen de l’octroi d’un emprunt bancaire, ou dans le secteur du recrutement qui use de robots numériques et de « chatbots » afin de sélectionner les candidats.
Alors, on argue de la fable de la « complémentarité homme-machine ». En réalité, plus le niveau de l’expertise automatisée se perfectionnera plus l’évaluation humaine sera marginalisée. Et cela va jusqu’à atteindre des niveaux coercitifs, emblématiques dans le champ du travail, qui voit des systèmes édicter à des personnes les gestes à exécuter. Le libre exercice de notre faculté de jugement se trouve substitué par des protocoles destinés à orienter et à encadrer nos actes. Voit-on la rupture juridico-politique est en train de s’opérer ?
Éric Sadin / © Stephan Larroque


L’Intelligence artificielle s’appuie notamment sur des capteurs, des objets connectés, chargés d’agréger des données, des informations, en continu. On parle depuis des années d’un raz-de-marée à venir en la matière mais pour l’heure, il ne s’est toujours pas produit. Dans quelle mesure n’agitez-vous pas un fantasme autour de l’essor de ces technologies pour alimenter votre propos ?
Il faut saisir que ce mouvement ne s’opère pas de façon spectaculaire mais ne cesse pour autant de s’accroître. Que sont les enceintes connectées récemment mises sur le marché ? Des capteurs de nos paroles. Que sont les compteurs Linky ? Des instances de compréhension de nos comportements adossées à l’usage des divers objets électriques au sein de nos domiciles. Que pensez-vous que sera la voiture autonome ? Un organe de suivi de nos conduites au sein des habitacles : analyse des paroles échangées, de nos activités, de nos visages et de nos états, jusqu’à celle de la sudation - de notre sueur - captée par les sièges.
« Au moment où des techniques sont appelées à nous dire la vérité, elles se trouvent maintenant douées de la faculté de parole »
Car la voiture ne fera pas que nous piloter d’un point à un autre, mais elle nous parlera en toutes circonstances. À ce titre, il est troublant de relever qu’au moment où des techniques sont appelées à nous dire la vérité, elles se trouvent maintenant douées de la faculté de parole. Le véhicule ne cessera de s’adresser à nous en vue de nous conseiller, en fonction de nos états, de nous rendre dans telle pharmacie ou de faire une pause dans tel restaurant, qui auront au préalable acheté des mots-clés. La voiture autonome s’offrira comme une instance à parfaitement nous accompagner, dans tous les sens du terme, en fonction de nos besoins et désirs supposés et de notre humeur du moment.
C’est cela que je nomme le « pouvoir-kairos », la volonté de l’industrie du numérique d’être continuellement présente à nos côtés afin de chercher à chaque occasion profitable à infléchir nos gestes. Nous allons de plus en plus être entourés de spectres chargés d’administrer nos vies. La lutte industrielle verra une compétition de la présence, chaque acteur s’évertuant à imposer indéfiniment son empire spectral au dépend de tous les autres.
 La voiture autonome Chrysler Pacific hybride de Waymo lors d'une phase de test dans les rues de Los Altos (Californie) en 2017. / © Dllu-Flickr (CC)
Vous affirmez que l'expression même « d'intelligence artificielle » doit être questionnée. Pourquoi ?
Il n’est pas anodin que les sciences computationnelles aient renouées depuis une dizaine d’années avec le modèle neuronal, qui remonte à la cybernétique. Il se fonde sur le postulat selon lequel le cerveau humain incarne une forme organisationnelle parfaite du traitement de l’information et de l’appréhension du réel et que nos existences, tant individuelles que collectives, devraient dorénavant battre au rythme de cadences hautement dynamiques, conformément à une vision utilitariste du monde.
« Nous n’avons, en aucune manière, affaire à une réplique de notre intelligence, mais à un abus de langage laissant croire que l’IA serait habilitée à se substituer à la nôtre »
Tout un neuro-lexique se constitue qui emprunte, sans vergogne et sans souci de précision terminologique, au registre des sciences cognitives. Sont évoqués des puces « synaptiques », « neuromorphiques », des « processeurs neuronaux »... Néanmoins, nous n’avons, en aucune manière, affaire à une réplique de notre intelligence, même partielle, mais à un abus de langage laissant croire que l’IA serait, comme naturellement, habilitée à se substituer à la nôtre en vue d’assurer une meilleure conduite de nos affaires. C’est pourquoi, il convient de remettre en cause le terme « intelligence artificielle ». En vérité, nous avons plus exactement affaire à un mode de rationalité cherchant à optimiser toute situation et à satisfaire nombre d’intérêts privés.
Quand on parle d’une IA qui peut énoncer la vérité et nous dire comme agir, cela ne s’apparente-t-il pas à une forme de religion ?
Plus que de religion, je préfère parler de « surmoi » : une instance à énoncer la vérité à laquelle nous allons accorder de plus en plus d’aura, à propos de laquelle nous allons de moins en moins voir qu’elle charrie des intérêts autant qu’une vision du monde que nous allons peu à peu considérer comme « naturelle ». Et ça, c’est terrible, car nous avons affaire à un modèle de société qui entend supprimer tout défaut et tendre vers le fantasme de la perfection. Cette ambition relève notamment d’un déni de notre faillibilité. Or, notre faillibilité suscite le désir d’expérimenter, l’audace de nous aventurer dans l’inconnu, elle appelle d’exprimer notre singularité et de témoigner de notre responsabilité. En cela, elle permet à la pluralité humaine de se manifester. Car l’exploitation de l’IA impose une vision hygiéniste du monde qui procède notamment d’un déni de la subjectivité et de nos facultés, celles précisément que nous devrions plus que jamais chercher à exprimer.
« C’est la façon dont nous pensons et agissons dans notre vie quotidienne qui est menacée, pas la façon dont nous surfons sur Internet »
Mais n’est-ce pas trop difficile d’appréhender ces sujets ? Beaucoup de personnes ignorent encore ce qu’est l’IA. Ne faut-il par commencer par des initiatives plus petites, plus mobilisatrices, je pense par exemple à Solid, le nouveau projet de Tim Berners-Lee  - le créateur du web - qui veut nous redonner la maîtrise de nos données ?
C’est la façon dont nous pensons et agissons dans notre vie quotidienne qui est menacée, pas la façon dont nous surfons sur Internet. Tim Berners-Lee est resté figé à son moment historique : le web. Il pense que le problème, c’est le web. Le problème, ça n’est pas le web, ni la pub sur Internet. La question centrale regarde celle du dessaisissement en cours de notre autonomie de jugement et de notre liberté de décision et d’action. Nous sommes démunis par la vitesse des développements qui nous empêche de nous prononcer en conscience et qui sont présentés comme étant inéluctables. 
Tim Berners-Lee, l'inventeur du World Wide Web / © ITU Pictures - Flickr
C’est la raison pour laquelle je termine mon livre par un manifeste qui appelle à une nécessaire mobilisation. Alors que les évangélistes de l’automatisation du monde ne cessent d’entreprendre - parmi lesquels Emmanuel Macron et Cédric Viliani, qui ne jurent que par le dogme de la croissance au mépris de toutes les conséquences civilisationnelles -, nous nous sommes laissés aller à des formes d’apathie. Un mouvement contraire, faisant valoir de tout autres principes appelle, avant toute chose, de contredire les flopés de techno-discours fabriqués de toute pièce et qui se voient colportés de partout par des experts patentés.
« Plus on compte nous dessaisir de notre pouvoir d’agir et plus il convient d’être agissant »
C’est pourquoi, il convient d’abord de faire remonter des témoignages, de salutaires contre-expertises émanant de la réalité du terrain, là où ces systèmes opèrent, sur les lieux de travail, dans les écoles, les hôpitaux… Nous devrions tout autant manifester notre refus à l’égard de certains dispositifs lorsqu’il est estimé qu’ils bafouent notre intégrité et notre dignité. Et nous devrions enfin développer des contre-imaginaires, de tout autres imaginaires en actes. Contre cet assaut antihumaniste, faisons prévaloir une équation simple mais intangible : plus on compte nous dessaisir de notre pouvoir d’agir et plus il convient d’être agissant. C’est ce principe qui, plus que jamais, devrait nous inspirer et qui, à ma mesure, a déterminé l’écriture de mon livre.
Image à la une : © Stephan Larroque

11 oct. 2018

Des scientifiques ont connecté le cerveau de 3 personnes, leur permettant de partager leurs pensées





Des neuroscientifiques ont réussi à établir des connexions cérébrales à trois voies, permettant à trois personnes de partager leurs pensées, et dans ce cas précis, de jouer à un jeu du genre Tetris. L’équipe de recherche estime que cette expérience pourrait être menée à plus grande échelle, dans l’optique de connecter des réseaux entiers de personnes.
Ce système fonctionne grâce à l’utilisation d’une combinaison d’électroencéphalogrammes (EEG) (qui permettent d’enregistrer les impulsions électriques indiquant l’activité cérébrale) et de stimulation magnétique transcrânienne (TMS), dans laquelle les neurones sont stimulés à l’aide de champs magnétiques.
Les chercheurs à l’origine de ce nouveau système, l’ont surnommé BrainNet, et affirment qu’il pourrait éventuellement être utilisé pour mettre en contact de nombreux esprits, même sur le Web.
En plus de donner accès à de nouvelles méthodes de communication, BrainNet pourrait nous permettre d’en apprendre plus sur le fonctionnement du cerveau humain, à un niveau plus profond. « Nous présentons BrainNet qui, à notre connaissance, est la première interface directe dite cerveau-cerveau, non invasive pour une résolution collaborative de problèmes (…). L’interface permet à trois sujets humains de collaborer et de résoudre une tâche en utilisant une communication directe de cerveau à cerveau », écrivent les chercheurs.

Vous aimerez également :

Dans l’expérience mise en place par les scientifiques, deux « expéditeurs » ont été connectés à des électrodes EEG et ont été invités à jouer à un jeu de type Tetris, impliquant des blocs qui tombent. Ces derniers devaient décider si chaque bloc devait subir une rotation ou non.
Pour ce faire, il leur a été demandé de regarder l’une des deux lumières clignotantes situées de chaque côté de l’écran : l’une clignotant à 15 Hz et l’autre à 17 Hz, émettant de ce fait dans le cerveau des signaux différents, que l’EEG pourrait capter.
Ces choix ont ensuite été relayés vers un seul « récepteur », via une capsule TMS pouvant générer des flashs de lumière fantôme dans l’esprit du récepteur, appelés phosphènes. Le récepteur ne pouvait pas voir toute la zone de jeu, mais devait faire pivoter le bloc qui tombait si un signal de flash lumineux était envoyé.
Sur cinq groupes différents de trois personnes, les chercheurs ont atteint une précision moyenne de 81.25%, ce qui est très encourageant pour un premier essai.
Afin d’augmenter la complexité de l’exercice, les expéditeurs pouvaient également ajouter une deuxième information, indiquant si le destinataire avait bien compris le premier message. De plus, les récepteurs ont été en mesure de déterminer lequel des expéditeurs était le plus fiable, en se basant uniquement sur les communications cérébrales.
Selon les chercheurs, cela promet de pouvoir développer des systèmes prenant en charge des scénarios bien plus réalistes, dans lesquels la non-fiabilité humaine pourrait être un facteur.
Le système actuel ne peut transmettre qu’un « bit » (ou flash) d’information à la fois, mais l’équipe de l’Université de Washington et de l’Université Carnegie Mellon pense que cette configuration pourra être étendue à l’avenir.
Il faut savoir que le même groupe de chercheurs a déjà réussi à relier deux cerveaux avec succès, amenant les participants à jouer à un jeu de 20 questions, les uns contre les autres. De nouveau, des flashs de phosphène fantômes ont été utilisés pour transmettre des informations, dans ce cas précis, « oui » ou « non ».
Pour l’instant, le nouveau système est lent et peu fiable, à savoir que ce travail n’a pas encore été évalué par la communauté des neurosciences. Néanmoins, il donne un aperçu intéressant d’une potentielle manière de communication entre individus à l’avenir.
Selon les scientifiques, cette technique pourrait en effet nous aider à mettre en commun nos ressources mentales, afin de tenter de résoudre des problèmes majeurs. « Nos résultats soulèvent la possibilité de futures interfaces cerveau à cerveau permettant la résolution coopérative de problèmes par des humains, utilisant un « réseau social » de cerveaux connectés », explique l’équipe de recherche.


Quelles quantités de combustibles sont nécessaires pour combler les besoins énergétiques mondiaux ?



Le dernier siècle a vu l’entrée de l’Homme dans l’ère de l’industrie technologique et de l’information. Chaque jour, des centaines de millions de personnes prennent les transports en commun, utilisent leur véhicule, leur ordinateur, leur téléphone, et tous les autres appareils de la vie quotidienne nécessitant de l’énergie pour fonctionner. Cette énergie provient majoritairement de sources non-renouvelables. Pour chacun de ces combustibles, quelles quantités sont nécessaires pour combler les besoins énergétiques de la planète ?

Même s’il existe plusieurs sources d’énergie renouvelable comme l’énergie hydroélectrique, solaire ou éolienne, la plus grande fraction de l’énergie produite provient de l’utilisation de combustibles et carburants non-renouvelables. Selon l’Agence d’Information sur l’Énergie des États-Unis, la quantité d’énergie générée par toutes les sources à travers le monde était de 155.481 TW (térawatts) en 2014.


Sur le même sujet :

 
Ces sources d’énergies n’ont pas le même rendement concernant la conversion en puissance utilisable et le transport courte et longue distance. Ainsi, le total d’énergie consommée par les foyers, les entreprises et autres secteurs d’activité est légèrement inférieur : il représente environ 70% de l’énergie produite. L’énergie requise pour alimenter tous les besoins de la planète s’élève à environ 5.60×1020 Joules, bien que ce nombre soit en réalité compliqué à évaluer précisément. Selon le carburant, quelle quantité doit être produite pour combler ces besoins ?


Le charbon : un polluant représentant un tiers de l’énergie mondiale

Tout d’abord utilisé comme source de chaleur de par sa structure compacte, le charbon est une forme de carbone qui peut être brûlé en présence d’oxygène, pour libérer de l’énergie. C’est de cette manière que les carburants fossiles, et plus précisément ceux basés sur le carbone, fonctionnent sur Terre, en raison de la forte abondance d’oxygène dans l’atmosphère.



Centrale à charbon située à Datteln, en Allemagne. Le charbon représente la source d’énergie fossile la plus polluante. Crédits : Arnold Paul
Pour chaque kilogramme de charbon brûlé, un total de 2.312 × 107 J est libéré. Cela signifie qu’il faudrait brûler un total de 24 milliards de tonnes de charbon dans le but de fournir l’énergie nécessaire pour combler les besoins énergétiques planétaires. Actuellement, le charbon représente un tiers de l’énergie produite dans le monde ; 8 milliards de tonnes de charbon extrêmement polluant sont ainsi brûlées chaque année.


Diesel, essence et GPL : l’essor du pétrole

Le pétrole inclut le diesel, l’essence, les carburants lourds à base de pétrole et le gaz de pétrole liquéfié (GPL). Tandis que le charbon fut le combustible majoritaire des 18ème et 19ème siècles, le pétrole a dominé le 20ème siècle avec l’avènement des automobiles et de l’aviation. Comme le charbon, le pétrole libère de l’énergie par combustion. Mais contrairement au charbon, le pétrole rapporte plus d’énergie pour la même masse de combustible.




Pour chaque kilogramme de pétrole (sous la forme d’essence) brûlé, un total de 4.64×107 J est libéré. Cela signifie qu’il faudrait brûler 12 milliards de tonnes de pétrole pour combler les besoins mondiaux en énergie. Puisque le pétrole n’a commencé à être véritablement utilisé que dans les années 1850, l’on estime qu’entre 100 et 135 milliards de tonnes ont été brûlées jusqu’à aujourd’hui, avec 4 milliards de tonnes brûlées chaque année au taux d’utilisation actuel.


Le gaz naturel liquéfié : un combustible peu polluant

Remplacer les autres sources d’énergie fossiles par le gaz naturel liquéfié (GNL) a conduit à une importante diminution de la pollution environnementale ces dernières années. Le GNL fournit aujourd’hui plus de 20% de l’énergie mondiale, avec un rendement plus élevé que le charbon et le pétrole et bien moins de composants polluants que ces deux derniers.



Des réservoirs de gaz naturel liquéfié alimentant le bateau de croisière MS Viking Grace. Crédits : Markus Rantala
Pour chaque kilogramme de GNL brûlé, un total de 5.36×107 est libéré. Cela nécessiterait donc 10.4 milliards de tonnes de NPL brûlées chaque année pour combler les besoins énergétiques planétaires. Malgré une pollution environnementale moins importante, les quantités nécessaires demeurent très élevées, et aucune diminution importante de dioxyde de carbone n’est possible, que ce soit avec le charbon, le pétrole ou le GNL.


Centrales nucléaires, uranium et réacteurs à fission

En lieu et place de carburants basés sur le carbone, des éléments fissibles bien plus lourds présents sur Terre, comme l’uranium et le thorium, peuvent être utilisés pour produire de l’énergie. Lorsque l’uranium 235 est frappé par un neutron, il l’absorbe et se sépare en deux éléments plus légers, libérant d’autres neutrons et créant ainsi une réaction en chaîne ; c’est sur ce principe que reposent les réacteurs à fission nucléaire.
Ces réacteurs nucléaires contrôlent efficacement le taux de réaction, régulant ainsi également la production d’énergie. Bien que l’uranium 235 soit bien moins abondant que le charbon, le pétrole ou le gaz naturel, et requiert un lourd processus de raffinage, son rendement est bien plus élevé, avec 8.06×1013 J d’énergie libérée pour chaque kilogramme d’uranium utilisé.


La fission nucléaire repose sur la séparation d’éléments lourds, comme l’uranium, en éléments plus légers, libérant une grande quantité d’énergie. Sur cette photo, le réacteur à fission nucléaire expérimental RA-6 (Argentine). Crédits : Centro Atomico Bariloche
Pour combler les besoins énergétiques mondiaux, seules 7000 tonnes d’uranium seraient nécessaires chaque année. Malgré ce haut rendement, l’énergie nucléaire ne fournit actuellement qu’une petite fraction de l’énergie totale produite à travers le monde, avec 444 réacteurs en fonctionnement et environ 62 autres en cours de construction.

Fusion nucléaire : la source d’énergie du futur

Bien qu’encore expérimentale, la fusion nucléaire se présente comme le Graal des sources d’énergie. Des éléments légers et abondants, comme l’hydrogène et ses isotopes, peuvent fusionner en éléments plus lourds, libérant de grandes quantités d’énergie. Ce sont ces réactions de fusion thermonucléaire qui alimentent les étoiles. L’énergie nucléaire provient de la libération d’énergie décrite par l’équivalence masse-énergie d’Einstein, E=mc².



La fusion nucléaire repose sur la fusion de deux éléments légers en un élément plus lourd. Encore hypothétique, de nombreux réacteurs expérimentaux arrivent aujourd’hui à confiner un plasma de plusieurs millions de degrés à l’intérieur d’un champ magnétique. Crédits : Université de Princeton
La fusion nucléaire possède un rendement théorique supérieur à celui de la fission, soit 6.46×1014 J pour chaque kilogramme d’hydrogène utilisé. Ainsi, seuls 867 tonnes d’hydrogène annuelles seraient nécessaires pour combler les besoins énergétiques de la planète. L’abondance d’hydrogène, l’absence de pollution atmosphérique et la grande stabilité physique des réactions, font de la fusion nucléaire la source d’énergie future la plus prometteuse.


Matière-antimatière : un rendement imbattable, mais une source d’énergie peu plausible

Là où la fission et la fusion nucléaires ne libèrent qu’une fraction de la masse des éléments sous forme d’énergie, la réaction matière-antimatière présente une conversion énergétique totale. Une annihilation matière-antimatière parfaite libère en effet 8.99×1016 J d’énergie par kilogramme de matière-antimatière combinée. Ainsi, seules 3.1 tonnes d’antimatière annuelles suffiraient à combler les besoins énergétiques mondiaux.



La réaction matière-antimatière permet une conversion énergétique totale. Malgré un rendement très élevé, trop peu d’antimatière est créée annuellement pour que cette source d’énergie soit plausible. Crédits : CERN
Cela signifie que, chaque jour, 8.5 kg d’antimatière devraient être produits. Malheureusement, cette quantité est loin, très loin d’être atteignable à court ou moyen terme. En effet, le LHC, par exemple, ne produit que quelques microgrammes d’antimatière chaque année. Cette source d’énergie, bien qu’intéressante, restera donc purement théorique pendant encore un long moment.
Actuellement, plus de 10 milliards de combustibles fossiles sont brûlés chaque année à travers le monde. La conséquence directe de cette dynamique est une augmentation drastique de la pollution environnementale (eau, air, écosystèmes). Les sources d’énergie renouvelable représentent une solution partielle, mais la fusion nucléaire se présente véritablement comme la solution énergétique du futur.



30 juin 2018

La médecine quantique, révolution scientifique ou arnaque ?


La médecine quantique, révolution scientifique ou arnaque?

De nombreux Français se tournent vers des médecines non conventionnelles. Une nouvelle thérapie dite «quantique» promet monts et merveilles à ses adeptes grâce à des machines futuristes. Problème: impossible de prouver les bienfaits de ce traitement censé guérir avant même les premiers symptômes.

 Quentin Reno 

Temps de lecture: 5 min

Scandales sanitaires, effets secondaires des médicaments, manque d’écoute du malade… Les griefs s’accumulent contre la médecine traditionnelle. Les Français croient de moins en moins aux vaccins et de plus en plus à l’homéopathie. Pour preuve, 40% d’entre eux auraient recours aux médecines alternatives et complémentaires (MAC). Selon l’Organisation mondiale de la santé (OMS), il y en aurait plus de quatre cents. L’Ordre des médecins n’en reconnaît que quatre: l’homéopathie, l’acupuncture, la mésothérapie (par injections locales) et l’ostéopathie –malgré une efficacité contestée.
Parmi les laissés-pour-compte des MAC, la médecine quantique fait son trou. Quantique comme la physique, dont elle reprend le lexique complexe et les applications technologiques. Médecine, parce qu’elle se propose de remédier à diverses pathologies –de la digestion aux maladies auto-immunes. Depuis 2010, elle séduit de plus en plus d’adeptes, en témoigne le congrès annuel à Reims ou à Aix-en-Provence, qui réunit plusieurs centaines de convaincus.
Le thérapeute s’appuie sur des machines aux airs de Retour vers le futur, branchées sur un PC, pour faire votre bilan. Après quoi, il vous bombarde d’ondes censées agir au niveau cellulaire. Attention: pas question de guérison, mais de prévention. Cette médecine est prédictive. Les praticiens affirment soigner le mal avant même que les symptômes n'apparaissent. Une ambigüité qu’ils concèdent: difficile de dire si le patient a réellement guéri où s’il n’aurait jamais contracté la maladie.

Des miracles sur fond de technologie

La thérapeute quantique Jacqueline Jacques en a fait son mode de vie. Cette sexagénaire dispense des formations au SCIO, «Opération d’interface scientifique du corps». Derrière ce nom digne d’un film de SF, un petit boîtier diffuseur d’ondes, relié au patient par des capteurs attachés à ses chevilles, poignets et crâne. Aucune sensation. «C’est une très faible intensité», justifie Jacqueline qui gère la séance derrière son PC de gamer avec un logiciel au graphisme plutôt kitsch. Elle débute ses séances par une mise au point:
«Je ne guéris pas, je fais de la prévention et ne me substitue en aucun cas à un traitement classique.»
Un crédo derrière lequel se protègent les thérapeutes quantiques, en conflit avec les médecins traditionnels irrités par ces méthodes farfelues. En cinq minutes, le SCIO analyse le corps du patient et pose un diagnostic –déshydratation, problème de vue, douleurs… Le remède? Pendant près d’une heure, Jacqueline clique dans tous les sens pour «harmoniser le patient». Comme par magie.






Pendant la séance, Jacqueline Jacques tente également d’entrer dans l’intimité des patients en les questionnant sur leur famille I Quentin Reno
Courbée sur sa canne, cette Québécoise raconte: «Je ne me soigne plus qu’avec la médecine quantique.» Il y a vingt ans, on lui découvre une sclérose en plaques. Cinq jours après, elle stoppe son traitement. «Les médecins m’ont annoncé la maladie comme une fatalité. Selon moi, c’est le stress qui l’a provoquée. Je n’étais pas heureuse dans ce que je faisais et j’ai décidé de changer de vie.» Depuis, elle parcourt la planète pour dispenser son savoir quantique à coups de formations facturées 2.000 euros les quelques jours. Mais surtout, elle affirme être «dans une phase de régénération».

«Ce qui fait peur, c’est que ça défie l’entendement»

Cet optimisme, on retrouve sur le T-shirt de Marina: «La vie en plus belle, plus magique, plus extraordinaire.» À 50 ans, débordante d’énergie, elle a retrouvé le sourire avec la médecine quantique. Le poignet en miettes suite à un mauvais mouvement de yoga, cette coach pour adolescents se tourne après deux opérations infructueuses vers cette nouvelle médecine dite révolutionnaire. «J’ai un peu de mal avec le mot "médecine". Je préfère “thérapie”, c’est plus flou», lâche-t-elle dans un rire sonore. Pour elle, ça marche. Idem pour une amie, séropositive, dont le foie –condamné selon les hospitaliers– aurait été sauvé lors d’une séance quantique.
«Ce qui fait peur, c’est que ça défie l’entendement. Plus ça avance, plus les grands scientifiques sont conscients de leurs limites», assure Marina mystérieusement.
Comment expliquer ces miracles? Pour Alain Autret, ancien chef de service neurologie au CHU de Tours et auteur de Les effets placebo: des relations entre croyances et médecines, «l’effet placebo est extrêmement fort»:
«Quand on se persuade que le traitement fonctionne, le cerveau libère deux neurotransmetteurs: l’endorphine, pour le plaisir, et la dopamine, pour la récompense. À cette chimie s’ajoute la relation avec le thérapeute.»
Un cocktail qui améliore l’état de santé. D’où sa conclusion: «Si les patients sont satisfaits de la thérapeutique, ils iront mieux.» D’autant qu’il rappelle, citant le professeur de médecine à la Harvard Medical School (HMS) Ted Kaptchuk: «Plus la machine est complexe, plus l’effet placebo est important!»

Quand les dérives guettent

En France, une entreprise surfe sur la vague: Physioquanta, créée en 2005. Son dirigeant Guillaume Moreau revendique sur son site 1.700 «professionnels de la santé» qui utiliseraient ses produits. La vente de machines quantiques lui a rapporté en 2016 plus de 4 millions d’euros de chiffre d’affaires, un bilan en augmentation de plus de 5% par rapport à l’année précédente.
À LIRE AUSSI J'ai eu l'enfance la plus bio qu’on puisse imaginer, sans vaccins. Et j’ai été malade tout le temps
Parmi les hits: le Physioscan, qui «repère et corrige les déséquilibres énergétiques»; l’Oligoscan, qui «évalue en un instant minéraux, oligo-éléments, stress oxydatif et métaux lourds»; ou encore le Milta, qui «associe de façon synergique des émetteur lasers, des diodes infrarouges et des diodes RVB, fonctionnant dans un tunnel magnétique». Un programme abscons pour le commun des mortels.
Des promesses qui ont aussi laissé perplexe l’Agence nationale de sécurité du médicament et des produits de santé (ANSM). Depuis fin 2009, une décision a interdit à Physioquanta de faire la publicité de certaines machines. Il a été reproché à l’entreprise de vanter des vertus médicales non prouvées. Contacté à plusieurs reprises, Guillaume Moreau n’a pas donné suite à nos sollicitations.

Aucun abus signalé

Pour Serge Blisko, président de la Mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes), il n’existe «aucun médecin ou médicament quantique digne de ce nom». «Des faux praticiens ont lancé ce concept, mais personne n’a été fichu de dire ce que c’était. C’est une vaste fumisterie. Mon point de vue, en tant que président de la Miviludes et médecin, c’est que ce sont des mots qui ne veulent rien dire.»
Cette Mission surveille du coin de l’œil le colloque quantique annuel dont «beaucoup d’intervenants sont défavorablement connus». La première édition en 2010 a même réuni l’équipe du professeur Luc Montagnier, codécouvreur du sida en 1983 et prix Nobel de médecine en 2008 avec Françoise Barré-Sinoussi. Il s’est par ailleurs illustré le 7 novembre dernier lors d’une conférence-débat au théâtre Michel, à Paris, en imputant la mort subite du nourrisson aux vaccins. «C’est le parfait exemple d’un monsieur très diplômé, extrêmement important dans le monde scientifique, qui a dérivé au fil des années», se désole Serge Blisko.
La médecine quantique séduit autant qu’elle divise, sans encore créer de réelles inquiétudes: la Miviludes souligne qu’aucun abus n’a été signalé. «Nous n’avons pas un rôle de censure. Si des gens veulent professer la médecine quantique et que des adultes paient très cher une consultation, on ne peut pas l’empêcher», explique Serge Blisko. Alain Autret est de cet avis. Pour le neurologue: «C’est légitime pour le patient de chercher à se soulager. On vit de croyances. C’est bien, mais il ne faut pas que ça soit au détriment du traitement médical.» Signe que la médecine traditionnelle a tout un public à (re)conquérir.

sources: Coline Vazquez et Bruno Lus — — mis à jour le 1 décembre 2017 à 10h10 
http://www.slate.fr