Connect with us

science

Une nouvelle théorie en physique prétend résoudre le mystère de la conscience

Published

on

Une nouvelle théorie en physique prétend résoudre le mystère de la conscience

Sommaire: La conscience ne peut pas être réduite à la seule activité neuronale, disent les chercheurs. Une nouvelle étude suggère que la dynamique de la conscience peut être comprise à travers un cadre conceptuel et mathématique nouvellement développé.

la source: Université Bar-Ilan

Comment 1,4 kg de tissu cérébral crée-t-il des pensées, des sentiments, des images mentales et un monde intérieur ?

La capacité du cerveau à créer de la conscience en intrigue certains depuis des milliers d’années. Le secret de la conscience réside dans le fait que chacun de nous a une subjectivité, quelque chose comme sentir, ressentir et penser.

Au lieu d’être sous anesthésie ou dans un sommeil profond et sans rêve, pendant que nous sommes éveillés, nous ne « vivons pas dans le noir » – nous faisons l’expérience du monde et de nous-mêmes. Mais comment le cerveau crée une expérience consciente et la zone du cerveau qui en est responsable reste un mystère.

Selon le Dr Nir Lahav, un physicien de l’Université Bar-Ilan en Israël, « C’est tout un mystère car il semble que notre expérience consciente ne peut pas provenir du cerveau, et en fait, ne peut provenir d’aucun processus physique. »

Aussi étrange que cela puisse paraître, l’expérience consciente ne peut pas être trouvée dans notre cerveau ou réduite à une activité neuronale.

Le Dr Zakaria Nehme, philosophe de l’Université de Memphis, déclare : « Pensez-y de cette façon, lorsque je me sens heureux, mon cerveau créera un modèle distinct d’activité neuronale complexe. Ce modèle neuronal sera complètement associé à mon sentiment conscient. de bonheur, mais ce n’est pas mon sentiment réel. C’est juste un modèle neuronal qui représente Mon bonheur. C’est pourquoi un scientifique qui regarde dans mon esprit et voit ce modèle doit me demander ce que je ressens, parce que le modèle n’est pas le sentiment lui-même, mais simplement une représentation de celui-ci. »

En conséquence, nous ne pouvons pas réduire l’expérience consciente de ce que nous ressentons, ressentons et pensons dans toute activité cérébrale. Nous ne pouvons trouver que des associations avec ces expériences.

Après plus de 100 ans de neurosciences, nous avons de très bonnes preuves que le cerveau est responsable de la formation de nos capacités conscientes. Alors, comment est-il possible que ces expériences conscientes ne se trouvent nulle part dans le cerveau (ou dans le corps) et ne puissent être réduites à une activité neuronale complexe ?

Cette énigme est connue sous le nom de problème difficile de la conscience. C’est un problème si difficile que jusqu’à il y a deux décennies, seuls les philosophes en parlaient et même aujourd’hui, bien que nous ayons fait d’énormes progrès dans notre compréhension de la base neuroscientifique de la conscience, il existe encore suffisamment de théorie pour expliquer ce qu’est la conscience et comment résoudre ce problème. problème difficile.

READ  SpaceX termine la production de Dragon Crew Capsule

Le Dr Lahaf et le Dr Nehme ont récemment publié une nouvelle théorie physique dans la revue frontières en psychologie Il prétend résoudre le difficile problème de la conscience d’une manière purement physique.

Selon les auteurs, lorsque nous changeons notre hypothèse sur la conscience et supposons qu’il s’agit d’un phénomène relatif, le mystère de la conscience s’estompe naturellement. Dans l’article, les chercheurs développent un cadre conceptuel et mathématique pour comprendre la conscience d’un point de vue relativiste.

Selon le Dr Lahav, auteur principal de l’article, « la conscience doit être étudiée en utilisant les mêmes outils mathématiques que les physiciens utilisent pour d’autres phénomènes relativistes connus ».

Pour comprendre comment la relativité résout le problème difficile, considérons un phénomène relativiste différent, la vitesse constante. Choisissons deux observateurs, Alice et Bob, où Bob est dans un train roulant à vitesse constante et Alice le regarde depuis le quai. Il n’y a pas de réponse physique absolue à la question de savoir quelle est la vitesse de Bob.

La réponse dépend du cadre de référence de l’observateur.

À partir du cadre de référence de Bob, il mesurera qu’il est immobile et qu’Alice, avec le reste du monde, recule. Mais du cadre d’Alice, c’est Bob qui bouge et elle est immobile.

Bien que leurs mesures soient opposées, les deux sont correctes, uniquement à partir de cadres de référence différents.

Parce que la conscience, selon la théorie, est un phénomène relatif, nous retrouvons la même situation dans l’état de conscience.

Maintenant, Alice et Bob sont dans des cadres cognitifs de référence différents. Bob mesurera qu’il a une expérience consciente, mais qu’Alice n’a qu’une activité cérébrale sans aucun signe d’expérience consciente réelle, tandis qu’Alice mesurera qu’elle a une conscience et que Bob n’a qu’une activité neuronale sans aucune preuve de son expérience consciente.

Tout comme dans le cas de la vitesse, bien qu’il y ait des mesures opposées, les deux sont correctes, mais à partir de référentiels cognitifs différents.

En conséquence, en raison du point de vue relatif, il n’y a aucun problème avec le fait que nous mesurons différentes propriétés à partir de différents cadres de référence.

Le fait que nous ne puissions pas trouver l’expérience consciente réelle lors de la mesure de l’activité cérébrale est dû au fait que nous mesurons à partir du mauvais cadre de référence cognitif.

Selon la nouvelle théorie, le cerveau ne crée pas notre expérience consciente, du moins pas par des calculs. La raison pour laquelle nous avons une expérience consciente est due au processus de mesure physique.

En bref, différentes mesures physiques dans différents référentiels montrent des propriétés physiques différentes dans ces référentiels même si ces référentiels mesurent le même phénomène.

READ  Des astronomes indiens ont découvert des dizaines d'étoiles variables dans la région de NGC 381

Par exemple, supposons que Bob mesure le cerveau d’Alice dans le laboratoire alors qu’elle se sent heureuse. Bien qu’ils observent des caractéristiques différentes, ils mesurent en fait le même phénomène de différents points de vue. Les types de mesures étant différents, différents types de caractéristiques sont apparus dans les référentiels cognitifs.

Pour que Bob puisse observer l’activité cérébrale en laboratoire, il doit utiliser des mesures de ses organes sensoriels tels que ses yeux. Ce type de mesure sensorielle montre le substrat qui provoque l’activité cérébrale – les neurones.

Après plus de 100 ans de neurosciences, nous avons de très bonnes preuves que le cerveau est responsable de la formation de nos capacités conscientes. L’image est dans le domaine public

Ainsi, dans son cadre cognitif, Alice n’a qu’une activité neuronale représentant sa conscience, mais aucun signe de son expérience consciente réelle elle-même. Mais pour qu’Alice mesure son activité nerveuse en tant que bonheur, elle utilise un autre type de mesure. Elle n’utilise pas les organes sensoriels, elle mesure ses représentations neuronales directement par l’interaction entre une partie de son cerveau et d’autres parties. Il mesure ses représentations neuronales en fonction de ses relations avec d’autres représentations neuronales.

Il s’agit d’une mesure complètement différente de celle de notre système sensoriel et, par conséquent, ce type de mesure directe montre un type de caractéristique physique différent. Nous appelons cette propriété l’expérience consciente.

En conséquence, à partir de son cadre cognitif de référence, Alice mesure son activité neuronale comme une expérience consciente.

voir également

Cela montre des scintigraphies cérébrales périnatales mettant en évidence les domaines liés à l'autisme

En utilisant les outils mathématiques qui décrivent les phénomènes relativistes en physique, la théorie montre que si la dynamique de l’activité neuronale de Bob pouvait être modifiée pour ressembler à la dynamique de l’activité neuronale d’Alice, les deux seraient dans le même cadre cognitif de référence et auraient exactement le même expérience consciente que l’autre.

Les auteurs veulent maintenant continuer à examiner les mesures minimales et précises dont tout système cognitif a besoin pour créer la conscience.

Les implications d’une telle théorie sont énormes. Il peut être appliqué pour déterminer quel animal a été le premier animal du processus évolutif à avoir conscience, quand un fœtus ou un enfant commence à devenir conscient, quels patients souffrant de troubles de la conscience sont conscients et quels systèmes d’intelligence artificielle ont déjà un faible (si tout) degré de conscience.

A propos de cette prise de conscience et de l’actualité de la recherche en physique

auteur: Ilana Oberlander
la source: Université Bar-Ilan
Contact: Ilana Oberlander – Université Bar Ilan
image: L’image est dans le domaine public

recherche originale : libre accès.
« Théorie de la relativité de la conscienceÉcrit par Nir Lahav et al. frontières en psychologie


Sommaire

Théorie de la relativité de la conscience

READ  Le télescope spatial Hubble de la NASA capture cette plus grande image jamais réalisée ; Il révélera de nombreux secrets

Au cours des dernières décennies, l’étude scientifique de la conscience a considérablement accru notre compréhension de ce phénomène insaisissable. Cependant, malgré le développement critique de notre compréhension de l’aspect fonctionnel de la conscience, nous manquons toujours d’une théorie de base concernant l’aspect phénoménologique.

Il existe un « fossé interprétatif » entre notre connaissance scientifique de la conscience fonctionnelle et ses aspects phénoménologiques « subjectifs », que l’on appelle le « problème difficile » de la conscience. L’aspect phénoménologique de la conscience est la réponse de la première personne à la question « qu’est-ce que c’est », et il s’est avéré jusqu’à présent ne pas adhérer à la direction de la recherche scientifique.

Les partisans des dualismes naturels soutiennent qu’ils consistent en un élément spécial, non réducteur et primitif de la réalité, indépendant des aspects fonctionnels et physiques de la conscience. Les escrocs, quant à eux, soutiennent qu’il ne s’agit que d’une illusion épistémologique et que tout ce qui existe est en fin de compte des propriétés physiques et non phénoménales.

Nous soutenons que les positions binaires et délirantes sont erronées parce qu’elles supposent tacitement que la conscience est une propriété absolue qui ne dépend pas de l’observateur.

Nous développons un argument conceptuel et mathématique pour une théorie relativiste de la conscience dans laquelle le système possède ou ne possède pas de conscience phénoménologique. Concernant certains observateurs.

La conscience phénoménale n’est ni privée ni illusoire, elle n’est que relative. Dans le cadre de référence d’un système cognitif, il sera observable (perspective à la première personne) et dans un autre cadre de référence, il ne le sera pas (perspective à la troisième personne). Les deux cadres cognitifs d’attribution sont vrais, tout comme dans le cas d’un observateur qui prétend être au repos tandis que l’autre prétend que l’observateur a une vitesse constante.

Étant donné que la conscience est un phénomène relatif, aucune des deux positions de l’observateur ne peut être privilégiée, toutes deux décrivant la même réalité sous-jacente. En nous appuyant sur des phénomènes relativistes en physique, nous avons développé une formulation mathématique de la conscience qui comble le fossé explicatif et résout le problème difficile.

Étant donné que le cadre de référence cognitif à la première personne fait également des observations légitimes sur la conscience, nous concluons par argument que les philosophes peuvent apporter des contributions utiles à la science de la conscience en collaborant avec des neuroscientifiques pour explorer la base neurale des structures phénoménologiques.

Continue Reading
Click to comment

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

science

Ingénieur – Des « mégaclusters » de satellites pourraient mettre en péril la reconstitution du trou d’ozone

Published

on

Ingénieur – Des « mégaclusters » de satellites pourraient mettre en péril la reconstitution du trou d’ozone

Le Protocole de Montréal de 1987 a réglementé avec succès les CFC nocifs pour la couche d’ozone afin de protéger la couche d’ozone, réduisant ainsi le trou d’ozone au-dessus de l’Antarctique, et une reprise est attendue dans les 50 prochaines années.

Cependant, de nouvelles recherches de Université de Californie du Sud Ecole d’Ingénieurs de Viterbi Il a montré que ces oxydes ont été multipliés par huit entre 2016 et 2022 et continueront de s’accumuler à mesure que le nombre de satellites en orbite terrestre basse (LEO) augmentera, mettant ainsi la couche d’ozone en danger dans les décennies à venir.

Les chercheurs ont expliqué que sur 8 100 objets en orbite terrestre basse, 6 000 sont des satellites Starlink lancés au cours des dernières années et que la demande d’une couverture Internet mondiale entraîne une augmentation rapide du lancement d’essaims de petits satellites de communication.

SpaceX est le leader de ce projet, avec l’autorisation de lancer 12 000 satellites Starlink supplémentaires et jusqu’à 42 000 satellites prévus. Amazon et d’autres sociétés dans le monde envisagent également de créer des constellations allant de 3 000 à 13 000 satellites, ajoutent les auteurs de l’étude.

Les satellites Internet ont une durée de vie d’environ cinq ans seulement, les entreprises doivent donc lancer des satellites de remplacement pour maintenir le service Internet, ce qui poursuit un cycle d’obsolescence programmée et de contamination imprévue, ont indiqué les chercheurs.

Les oxydes d’aluminium déclenchent des réactions chimiques qui détruisent l’ozone stratosphérique, qui protège la Terre des rayons ultraviolets. Les oxydes ne réagissent pas chimiquement avec les molécules d’ozone, mais conduisent plutôt à des réactions destructrices entre l’ozone et le chlore, conduisant à l’appauvrissement de la couche d’ozone.

READ  Des astronomes indiens ont découvert des dizaines d'étoiles variables dans la région de NGC 381

Étant donné que les oxydes d’aluminium ne sont pas consommés dans ces réactions chimiques, ils peuvent continuer à détruire molécule après molécule d’ozone pendant des décennies à mesure qu’ils dérivent dans la stratosphère, ont indiqué les chercheurs.

« Ce n’est que ces dernières années que les gens ont commencé à penser que cela pourrait devenir un problème », a déclaré Joseph Wang, chercheur en astronautique à l’Université de Californie du Sud et auteur correspondant de l’étude, dans un communiqué. « Nous avons été l’une des premières équipes à considérer les implications de ces faits. »

Puisqu’il est impossible de collecter des données sur des engins spatiaux en feu, des études antérieures ont utilisé des analyses de micrométéorites pour estimer la contamination potentielle. Cependant, les chercheurs ont indiqué que les micrométéorites contiennent très peu d’aluminium, un métal qui représente 15 à 40 % de la masse de la plupart des satellites. Ces estimations ne s’appliquent donc pas bien aux nouveaux satellites.

Au lieu de cela, les chercheurs ont modélisé la composition chimique et les liaisons au sein des matériaux satellites lors de leurs interactions aux niveaux moléculaire et atomique. Les résultats ont permis aux chercheurs de comprendre comment la matière change avec différents apports d’énergie.

L’étude a été financée par NASAIl a été constaté qu’en 2022, la rentrée des satellites a augmenté la quantité d’aluminium dans l’atmosphère de 29,5 % au-dessus des niveaux normaux.

La modélisation a montré qu’un satellite typique de 250 kg avec 30 pour cent de sa masse d’aluminium générerait environ 30 kg de nanoparticules d’oxyde d’aluminium (taille de 1 à 100 nanomètres) lors de la rentrée. La plupart de ces particules sont générées dans la mésosphère, entre 50 et 85 kilomètres (30 à 50 miles) au-dessus de la surface de la Terre.

READ  Les astronomes confirment avoir capturé une image directe de la "plus petite planète en dehors du système solaire" à 400 années-lumière

L’équipe a ensuite calculé que, en fonction de la taille des particules, il faudrait jusqu’à 30 ans pour que les oxydes d’aluminium dérivent jusqu’aux hauteurs stratosphériques, où se trouvent 90 % de l’ozone troposphérique.

Les chercheurs estiment qu’au moment où les constellations de satellites actuellement prévues seront achevées, 912 tonnes d’aluminium tomberont sur Terre chaque année. Cela libérerait environ 360 tonnes d’oxydes d’aluminium par an dans l’atmosphère, soit une augmentation de 646 % par rapport aux niveaux naturels.

L’étude a été publiée dans la revue en libre accès AGU Lettres de recherche géophysiqueentièrement lisible ici.

Continue Reading

science

Des chercheurs de l’Université de Californie du Sud ont prouvé que le noyau terrestre perdait de la vitesse.

Published

on

Des chercheurs de l’Université de Californie du Sud ont prouvé que le noyau terrestre perdait de la vitesse.

Le noyau interne a commencé à ralentir vers 2010, se déplaçant plus lentement que la surface de la Terre. Crédit : Université de Californie du Sud

Une nouvelle étude fournit des preuves claires que le noyau interne de la Terre a commencé à ralentir vers 2010.

Université de Californie du Sud Les scientifiques ont découvert que le noyau interne de la Terre ralentit par rapport à la surface de la planète, un phénomène qui a commencé vers 2010 après des décennies de tendance inverse. Ce changement majeur a été révélé par l’analyse de données sismiques détaillées provenant de tremblements de terre et d’essais nucléaires. La décélération est affectée par la dynamique du noyau externe liquide environnant et par l’attraction gravitationnelle du manteau terrestre, ce qui peut légèrement affecter la rotation de la Terre.

Dynamique du noyau interne

Des scientifiques de l’Université de Californie du Sud ont prouvé que le noyau interne de la Terre reculait – ralentissait – par rapport à la surface de la planète, comme le montre une nouvelle étude publiée le 12 juin dans la revue nature.

La communauté scientifique débat depuis longtemps du mouvement du noyau interne, certaines études suggérant qu’il tourne plus vite que la surface de la Terre. Cependant, des recherches récentes de l’Université de Californie du Sud montrent de manière concluante qu’à partir de 2010 environ, le noyau interne a ralenti et se déplace désormais à un rythme plus lent que la surface de la planète.

« Quand j’ai vu pour la première fois les sismogrammes qui faisaient allusion à ce changement, j’ai été mystifié », a déclaré John Vidal, professeur de géosciences au doyen de l’USC Dornsife College of Letters, Arts and Sciences. « Mais lorsque nous avons trouvé vingt autres observations pointant vers le même schéma, la conclusion était inévitable. Le noyau interne avait ralenti pour la première fois depuis plusieurs décennies. D’autres scientifiques ont récemment plaidé en faveur de modèles similaires et différents, mais notre dernière étude fournit la solution la plus convaincante. »

READ  Le détecteur d'ondes gravitationnelles de LIGO est de retour en action après 3 ans de mises à niveau

Déclin et ralentissement relatifs

Le noyau interne est dans un état d’inversion et de rétraction par rapport à la surface de la planète car il se déplace légèrement plus lentement au lieu de plus vite que le manteau terrestre pour la première fois depuis environ 40 ans. Par rapport à sa vitesse des décennies précédentes, le noyau interne ralentit.

Le noyau interne est une boule solide de fer et de nickel entourée d’un noyau externe de fer et de nickel liquides. D’environ la taille de la Lune, le noyau interne se trouve à plus de 3 000 milles sous nos pieds et présente un défi pour les chercheurs : il ne peut être ni visité ni vu. Les scientifiques doivent utiliser les ondes sismiques des tremblements de terre pour créer des visualisations du mouvement du noyau interne.

Une nouvelle approche de l’approche itérative

Vidal et Wei Wang, de l’Académie chinoise des sciences, ont utilisé des formes d’onde et des tremblements de terre répétés, contrairement à d’autres recherches. Les tremblements de terre répétés sont des événements sismiques qui se produisent au même endroit pour produire des sismogrammes identiques.

Dans cette étude, les chercheurs ont compilé et analysé les données sismiques enregistrées autour des îles Sandwich du Sud à partir de 121 tremblements de terre répétés survenus entre 1991 et 2023. Ils ont également utilisé les données de deux essais nucléaires soviétiques entre 1971 et 1974, ainsi que des essais répétés français et américains. Expériences nucléaires issues d’autres études du noyau interne.

Vidal a déclaré que le ralentissement de la vitesse du noyau interne était causé par le balancement du noyau externe de fer liquide qui l’entoure, qui génère le champ magnétique terrestre, en plus des forces gravitationnelles des zones denses du manteau rocheux sus-jacent.

READ  Le télescope spatial James Webb détecte 3 possibles étoiles de matière noire

Impact sur la surface de la Terre

Les effets de ce changement dans le mouvement du noyau interne de la surface terrestre ne peuvent que faire l’objet de spéculations. Vidal a déclaré que le retrait du noyau interne pourrait modifier la durée d’une journée de quelques fractions de seconde : « Il est très difficile de remarquer que, de l’ordre d’un millième de seconde, il se perd presque dans le bruit des océans. et l’ambiance. »

Les futures recherches menées par les scientifiques de l’USC espèrent tracer plus en détail le chemin du noyau interne afin de révéler exactement pourquoi il change.

« La danse intérieure du cœur est peut-être plus vibrante que ce que nous connaissons jusqu’à présent », a déclaré Vidal.

Référence : « Inner Core Retraction by Seismic Waveform Reflections » par Wei Wang, Jun E. Fidel, Guanying Pang, Keith D. Cooper et Ruyan Wang, 12 juin 2024, nature.
est ce que je: 10.1038/s41586-024-07536-4

Outre Vidal, les autres auteurs de l’étude comprennent Ruian Wang de l’Université de Californie du Sud Dornsife, Wei Wang de l’Académie chinoise des sciences, Guanying Pang de l’Université Cornell et Keith Cooper de l’Université de l’Utah.

Cette recherche a été soutenue par la National Science Foundation (EAR-2041892) et l’Institut de géologie et de géophysique de l’Académie chinoise des sciences (IGGCAS-201904 et IGGCAS-202204).

Continue Reading

science

Obtenez jusqu’à 90 % de précision dans le bruit

Published

on

Obtenez jusqu’à 90 % de précision dans le bruit

Une téléportation quantique de haute précision a été réalisée par une équipe de recherche utilisant une nouvelle technologie d’intrication hybride qui résiste au bruit ambiant, avec un taux de réussite proche de 90 %. Crédit : SciTechDaily.com

Les scientifiques ont fait progresser la téléportation quantique en atténuant les interférences sonores grâce à une nouvelle méthode impliquant l’intrication hybride, atteignant une précision de près de 90 % dans la téléportation des états quantiques, ce qui pourrait considérablement améliorer la communication quantique sécurisée.

Une équipe de recherche dirigée par l’académicien Guangkan Guo de l’Université des sciences et technologies de Chine (USTC) relevant de l’Académie chinoise des sciences (CAS), en collaboration avec l’équipe de recherche de l’Université de Turku, en Finlande, a réussi à surmonter le bruit ambiant pour atteindre ce. Téléportation quantique de haute précision utilisant l’intrication hybride en plusieurs parties. Leurs découvertes ont été récemment publiées dans la revue Avancement de la science.

Surmonter les défis de la téléportation quantique

La téléportation quantique est un protocole crucial dans les communications quantiques, permettant la téléportation d’états quantiques inconnus grâce à l’utilisation de l’intrication quantique. Cependant, en raison de la nature fragile de l’intrication quantique, la téléportation quantique est très sensible au bruit. Réaliser une téléportation quantique de haute précision dans des environnements bruyants constitue un défi urgent.

Étapes de la téléportation quantique bruyante

Étapes de téléportation quantique bruyante. Crédit : Chow-de Liu et al.

Avancées dans la gestion du bruit quantique

Auparavant, pour résoudre le problème de la décohérence des systèmes quantiques ouverts dans un environnement bruyant, l’équipe de recherche a mis au point une méthode complète de régularisation. Photon Polarisation et fréquence, tirant parti de la conception avancée du chemin optique et des dispositifs de modulation spatiale de la lumière programmables. Cette approche leur a permis de créer un simulateur quantique de décohérence de phase entièrement contrôlable et de réaliser une téléportation quantique au-delà du bruit, en utilisant des effets de mémoire non locaux.

READ  Le télescope spatial Hubble de la NASA capture cette plus grande image jamais réalisée ; Il révélera de nombreux secrets

Nouvelles technologies en téléportation quantique

Cependant, les effets de mémoire non locale nécessitent des ressources quantiques strictes telles que l’intrication environnementale, ce qui ne peut être réalisé en général. Sur la base de ces résultats, le présent travail présente une technique de transmission quantique plus polyvalente qui atténue efficacement le bruit ambiant.

En utilisant un simulateur quantique de décohérence de phase entièrement contrôlable, les chercheurs ont introduit des modifications de phase spécifiques dans l’environnement pour établir un état initial intriqué de photons à double polarisation et fréquence. Ces photons ont ensuite été distribués à deux stations utilisateur distinctes, chacune subissant une évolution de décohérence.

Conclusion et implications

En fin de compte, grâce à la communication classique, les chercheurs ont effectué des opérations unitaires appropriées sur les qubits récupérés pour récupérer l’état quantique transmis, atteignant une précision calculée de près de 90 %. Les états de polarisation ne violent jamais l’inégalité de Bell, ce qui suggère une téléportation quantique basée sur une non-localité quantique cachée.

Cette méthode offre une nouvelle façon de surmonter le bruit ambiant, différente des techniques traditionnelles telles que la séparation dynamique et les sous-espaces sans cohérence, et fait progresser la compréhension de la non-localité quantique.

Référence : « Surmonter le bruit dans la téléportation quantique à l’aide de l’enchevêtrement hybride multipart » par Zhao De Liu, Olli Siltanen, Tom Kossila, Rui Heng Miao, Chen Shi Ning, Chuanfeng Li, Guang Kan Ju et Jyrki Bello, 1er mai 2024, Avancement de la science.
est ce que je: 10.1126/sciadv.adj3435

Continue Reading

Trending

Copyright © 2023