Les préons, constituants des quarks ?

Lien

- Les préons, constituants des quarks ?
Don Lincoln, Pour la Science, p19-25

Ce mois-ci est riche en nouvelles perspectives en physique, notamment ce nouvel univers des constituants supposés des quarks et leptons, appelés préons.

- Dans les 12 particules élémentaires connues, certaines propriétés se répètent. Ce schéma suggère l'existence possible d'une structure interne de ces objets.

- Ces particules pourraient être composées d'entités plus petites, que les physiciens désignent sous le terme générique de « préons ».

- Aucune donnée expérimentale ne confirme aujourd'hui cette hypothèse. Mais la question pourrait être tranchée par le collisionneur lhc du CERN et par d'autres expériences.

Le modèle standard considère les quarks et les leptons comme ponctuels et indivisibles. Pourtant, de nombreux indices suggèrent que ces particules pourraient en fait être composées d'éléments encore plus petits. Cela permettrait d'expliquer que certaines particules ont des propriétés communes.

Le tableau des quarks et des leptons comporte trois colonnes nommées générations (la question de la multiplicité des particules est souvent nommée « problème des générations »). La première, tout à gauche, inclut les quarks u et d ainsi que l'électron et le neutrino électronique, c'est-à-dire tout ce qui est nécessaire pour expliquer l'Univers qui nous est familier. La deuxième génération contient les versions un peu plus massives des mêmes particules ; la troisième génération comprend les particules les plus lourdes.

Le modèle standard traite les quarks et les leptons comme des particules ponctuelles, dépourvues de structure interne. Mais la répétition des propriétés d'une génération à l'autre, comme pour les éléments chimiques, laisse penser que les quarks et les leptons ont une structure sous-jacente.

Forts de ces observations, les physiciens théoriciens ont proposé de nombreux modèles de sous-structures pour les quarks et les leptons. Le terme générique de « préon » s'est imposé pour désigner leurs constituants.

Pour illustrer ces modèles, prenons une version simple proposée en 1979 indépendamment par l'Israélien Haïm Harari et l'Américain Michael Shupe, et ultérieurement étendue par H. Harari et son étudiant Nathan Seiberg, tous deux à l'Institut Weizmann en Israël. Ils ont proposé l'existence de deux sortes de préons, l'un de charge électrique +1/3, l'autre de charge nulle. Chacun de ces préons a un homologue, une antiparticule, de charge opposée : –1/3 et 0, respectivement. Ces préons sont des fermions, des particules de matière. Chaque quark ou lepton est une combinaison de trois préons. Deux préons de charge +1/3 et un de charge nulle, par exemple, constituent un quark u, alors que l'antiquark u– est formé de deux préons de charge –1/3 et d'un de charge nulle. Les bosons vecteurs de force, quant à eux, sont des combinaisons de deux ou six préons. Le boson W+, porteur de l'interaction faible qui agit à la fois sur les quarks et les leptons, a trois préons de charge +1/3 et trois de charge 0.

La situation se complique quand nous portons notre attention sur les deuxième et troisième générations. Dans ce modèle, on fait l'hypothèse que les générations deux et trois sont des états excités des configurations de la première génération, de même que les atomes excités sont des atomes où des électrons ont sauté d'un état à un autre, d'énergie supérieure. En outre, on pense qu'un mécanisme inconnu assure la cohésion des préons au sein des quarks et des autres particules.

Si les préons qui constituent les particules des deuxième et troisième générations sont les mêmes que pour la première, il y a certainement quelque chose chez les préons qui permet aux particules d'interagir plus ou moins avec le champ de Higgs. Cela expliquerait pourquoi les particules des générations deux et trois sont plus lourdes.

En outre, les préons et les supercordes peuvent coexister, les dimensions des supercordes se situant à une échelle beaucoup plus petite que celle des quarks et des leptons.

Une autre alternative, s'inspirant des préons, est celle qu'a proposée en 2005 Sundance Bilson-Thompson, de l'Université d'Adélaïde en Australie. Dans son modèle, les préons seraient des tresses torsadées d'espace-temps, des objets constitués du tissu de l'espace-temps, et non des particules ponctuelles.

Il y a bien d'autres choses dans l'article, notamment le fait que plus l'échelle est petite, plus l'énergie est grande, ce qui impliquerait que la masse d'une particule soit inférieure à la somme de ses composants, etc.

Nouvelle théorie géométrique de la relativité quantique

Lien

- Nouvelle théorie géométrique de la relativité quantique

Eric Weinstein

Pour New Scientist, ce n'est que du sensationalisme mais cette nouvelle théorie d'un physicien qui s'était tourné vers la finance, Eric Weinstein, aurait l'avantage de donner des réponses à tous les mystères de la physique actuelle (matière noire, expansion, etc.) en unifiant relativité générale et mécanique quantique dans ce qu'il appelle "Geometric Unity" généralisant les symétries.

Le groupe de symétrie de Weinstein résulte de sa tentative de concilier les équations d'Einstein (courbure de l'espace-temps) avec les équations de Yang-Mills, sur lesquelles il travaille depuis longtemps, tout comme celle de Dirac, toutes les deux régissant les interactions de particules au niveau quantique.

C'est donc une géométrisation semblable à celle de la gravité par la relativité générale (mais avec 14 dimensions) qui en représenterait une approximation. Dans ce cadre, la constante cosmologique ne serait pas constante, variant en fonction de la courbure de l'univers. Nous sommes dans un fragment relativement plat de l'univers, ce qui explique que la constante cosmologique soit si petite. La matière noire résulterait d'une brisure de symétrie de particules dont une moitié serait sans interaction avec les champs électromagnétiques. Les 3 générations de particules à l'origine de la théorie des préons émergeraient spontanément de cette théorie. Il semblerait enfin qu'on puisse se passer du boson de Higgs pour rendre compte de la masse des bosons W et Z.

Tout ceci est peut-être faux, ce n'est pour l'instant qu'une construction mathématique même pas encore publiée (voir les critiques), mais permettrait du moins des prédictions expérimentales vérifiables avec le LHC (cependant certaines nouvelles particules prédites auraient dû déjà y être découvertes). Si ces hypothèses étaient vérifiées, ce serait un véritable saut comparable à celui d'Einstein. A suivre, donc...

On peut signaler aussi des progrès de la théorie holographique (mais, c'est moins nouveau).

L’intrication quantique persiste entre deux photons si l’un disparaît

Lien

- L'intrication quantique persiste entre deux photons si l’un disparaît

L'intrication quantique persiste entre deux photons si l’un disparaît

Les chercheurs ont réalisé une fascinante variante des expériences précédentes d’échange d’intrication (schéma du bas sur l’image ci-dessus). Ils ont commencé par produire une première paire de photons intriqués et ont mesuré la polarisation sur le photon 1. Ensuite seulement ils ont fabriqué la paire de photons (3-4) et effectué une mesure d’état de Bell avec les photons 2 et 3. Ils ont vérifié leurs résultats en réalisant plusieurs fois la même expérience. Ils ont constaté, comme le prévoyait les équations de la mécanique quantique, que les résultats des mesures sur la polarisation de ces multiples essais identiques avec le photon 4 montraient que les paires de photons 1-4 étaient intriquées, alors même que les photons 1 avaient à chaque fois disparu.

Le plus paradoxal est que, selon les lois de la relativité restreinte, si des observateurs voyageaient à des vitesses différentes, ils ne pourraient s'accorder sur le moment où les deux photons 1 et 4 existent simultanément. Il en résulte, selon Hagai Eisenberg que « vous ne pouvez pas dire que le système est intriqué à tel ou tel moment ». Toutefois, l'intrication existe bel et bien. Le grand physicien Anton Zeilinger ajoute, à propos de cette expérience : « Elle est remarquable car elle montre plus ou moins que les événements quantiques sont au-delà de nos notions quotidiennes sur l'espace et le temps ».

C'est un grand pas de plus (et la preuve de l'inadéquation de nos représentations). Je trouvais effectivement que l'intrication semblait contredire la simultanéité relative des événements, ce qui n'est donc pas le cas puisqu'il n'y a aucune simultanéité, seulement interaction (intrication) puis non-localité qui n'est pas une simultanéité (mais ne pourrait-on inverser l'ordre de causalité dans certains référentiels relativistes ?). C'est plutôt la cryptographie qui pourrait en pâtir si on peut détruire (lire) un photon sans détruire l'intrication ?

Le contrôle d’un atome à 20nm près

Lien

- Le contrôle d'un atome à 20nm près

Les "piège à ions de Paul" permettent d'enfermer un atome dans un champ électromagnétique (...) Les physiciens ont réussi à ajuster la fréquence radio de manière à ce qu'elle soit en phase avec le mouvement de l'atome. Le système présenté a vocation de synchroniser le mouvement de deux atomes, même très éloignés.

Mais cette étude met surtout en avant la possibilité pour la première fois de suivre en continu la position d'un atome, avec un domaine d'incertitude de 20 nm. A partir de cette information, la vitesse est mesurée par moyen optique.

On pourrait donc avoir la position et la vitesse d'un atome en contradiction avec le principe d'incertitude d’Heisenberg ? Ou 20nm serait la limite entre monde quantique et classique ?

D'autres ont visualisé une réaction chimique :

A rapprocher du fait que l'on peut visualiser un parcours "classique" d'électron autour du noyau à condition de l'éloigner à grande distance du noyau (atome de Rydberg).

Une « cape d’invisibilité » qui détourne la chaleur

Lien

- Une "cape d'invisibilité" qui détourne la chaleur

Une plaque de cuivre et de silicium structurée comme des métamatériaux permet de propager la chaleur autour d'une zone centrale sans l'affecter.

Le cuivre est un bon conducteur de chaleur, tandis que le silicium utilisé, appelé PDMS, est mauvais conducteur.

"En mettant sur une plaque de cuivre des structures annulaires de silicium, on obtient un matériau qui conduit la chaleur dans toutes les directions à des vitesses variables qu'on peut contrôler".

"Ce qui est impressionnant, c'est que des méthodes optiques puissent s'appliquer au domaine très différent de la thermodynamique".

Cette façon de canaliser la chaleur pourrait avoir de très nombreuses applications, entre autres en électronique mais dans toutes sortes de domaines. En tout cas, ces "capes d'invisibilité" s'appliquent déjà aussi bien à l'optique qu'au son ou aux tremblements de terre.

Pas d’anti-gravité pour l’anti-matière ?

Lien

- Pas d'antigravité pour l'antimatière ?

La réponse n'est pas encore assurée mais la poursuite des expériences, avec des antiatomes d'hydrogène qu'on laisse tomber, devrait confirmer qu'il n'y a aucune différence gravitationnelle entre matière et antimatière.

Confirmer une évidence ne semble avoir aucun intérêt mais cela permet de se débarrasser de toutes les hypothèses qui prétendaient le contraire. Notamment l'absence d'antimatière aurait pu être expliquée par une antigravité les faisant se repousser.

C'est vraiment de la science-fiction mais il faut savoir que l'antimatière a donné lieu à beaucoup de délires depuis sa déduction par Dirac. A l'origine, il y avait juste une valeur au carré qui pouvait avoir des solutions aussi bien positives que négatives. On sait désormais que c'est juste la charge électrique qui est inversée (entre électron et positron), ce qui suffit à en faire des valeurs inversées mais on a voulu (Dirac lui-même) qu'il y ait aussi une "énergie négative", correspondant à un trou, voire que l'antimatière remonterait le temps, et pourquoi pas une antigravitation, en effet.

C'est bien sûr très décevant et beaucoup plus banal d'avoir juste des charges électriques opposées...

Les réfutations du satellite Planck

Lien

- Les réfutations du satellite Planck (PLS)

Par exemple, une question débattue depuis plus de dix ans est la suivante : les constantes fondamentales changent-elles au cours du temps ? Certains modèles supposent que la constante de structure fine, qui régit l'intensité de la force électromagnétique, varie avec le temps (...) Les résultats de Planck montrent que ce paramètre ne varie pas, dans la limite de précision de l'expérience. De même, parmi les nombreux modèles d'énergie sombre développés par les cosmologistes, certains supposent que cette composante hypothétique de l'Univers a des propriétés qui évoluent avec le temps. Si les données de Planck peuvent difficilement préciser les caractéristiques de l'énergie sombre, elles n'indiquent pas que l'énergie sombre varie au cours du temps.

Dans un autre domaine, lié à la physique des particules, les données de Planck permettent de tester le nombre de familles de neutrinos (...) Une famille supplémentaire de neutrinos aurait eu une influence sur les fluctuations du fond diffus, mais ce type de modification n'est pas observé dans les résultats. Il n'y aurait bien que trois familles de neutrinos.

L'Univers, est-il « chiffonné » selon l'expression de l'astrophysicien Jean-Pierre Luminet ? On ne trouve pas de trace d'images multiples du fond diffus, ce qui limite les possibilités que l'Univers soit replié sur lui-même.

Et, fini ou pas, l'Univers tourne-t-il sur lui-même ? Là encore, une rotation globale de l'Univers serait observable par le biais d'une série de motifs en spirale que l'on devrait observer dans des directions opposées, spirales dont la structure serait déterminée par les abondances de matière et d'énergie sombre. Là encore, l'analyse ne révèle rien qui serait compatible avec une telle rotation, pas plus qu'on ne trouve la trace de cordes cosmiques, sortes d'immenses concentrations filiformes d'énergie dont la formation est jugée possible à l'issue de l'inflation.

Une autre observation inexpliquée de wmap qui se confirme est la présence d'une tache froide dans la carte des fluctuations de température. Elle est située en bas à droite de la carte.

Il semble qu'on n'ait pas non plus de traces d'un pré-Big Bang comme il avait été supposé, en tout cas Alain Riazuelo n'en parle pas.

Qu’est-ce qu’un objet complexe ?

Lien

- Qu'est-ce qu'un objet complexe ?

Nombre d'idées ont été proposées pour définir et évaluer la complexité des objets, des processus et des interactions. L'une des propositions, la profondeur logique de Charles Bennett, retient l'attention générale. Grâce à des résultats accumulés depuis son introduction en 1977, elle constitue la piste la plus sérieuse pour une définition scientifique robuste de complexité structurelle ou de richesse en organisation. La mise au point d'outils qui, dans certains cas, la mesurent, permet d'envisager des applications.

Selon la vision de Ch. Bennett, la complexité structurelle d'un objet (qu'il dénomme profondeur logique) est la longueur du calcul, mesurée en cycles de machine ou plus généralement en ressources de calcul (temps, mémoire ou parallélisme), nécessaire pour qu'un programme court en produise une description explicite et détaillée.

Pour être authentiquement organisé ou structurellement complexe, un objet doit pouvoir être décrit assez brièvement par un programme, ou quelque chose qui y ressemble, dont le fonctionnement est long. On a des raisons de croire que c'est le cas d'un microprocesseur, d'une ville, d'un mammifère, qui sont parmi les objets les plus structurellement complexes que nous connaissons.

Lorsqu'on attribue une grande complexité structurelle à un objet, c'est qu'on voit ou croit voir en lui les traces d'une longue histoire causale assimilable à un calcul. Cette histoire y a forgé les relations qu'entretiennent ses différentes parties et qui constituent sa complexité d'organisation. Si l'on accepte l'idée qu'il est beaucoup plus probable que l'objet qu'on qualifie de structurellement complexe provienne d'une dynamique longue, mais définissable assez simplement, plutôt que d'un processus bref qui l'aurait engendré par chance, alors l'idée de Ch. Bennett de prendre en compte le temps de calcul des programmes les plus courts qui engendrent l'objet apparaît naturelle et conforme au bon sens.

La notion de « sophistication » introduite par l'Israélien Moshe Koppel et le Français Henri Atlan, et la notion de « complexité effective » des Américains Seth Lloyd et Murray Gell-Mann se fondent sur l'idée d'une séparation possible entre la composante aléatoire et la composante organisée d'un objet. L'idée des définitions proposées par ces chercheurs sous des formes mathématiques qui en masquent parfois le côté naturel est la suivante. Quand on examine un programme produisant un objet, il est souvent possible d'y reconnaître deux parties : l'une représente ce qui fixe et décrit la structure de l'objet, l'autre est ce qui habille la structure par des éléments de moindre importance, voire aléatoires.

Antoine Danchin, de l'Institut Pasteur, Guillaume Baptist, de l'Université de Grenoble, et John Collier, de l'Université de Durban en Afrique du Sud, défendent tous les trois indépendamment que la profondeur logique de Bennett permet d'éviter certaines considérations trop naïves sur la complexification des êtres vivants et éclaire l'idée d'un progrès dans les lignées d'organismes vivants, progrès qui ne serait que l'accumulation de résultats de calculs.

C'est déjà beaucoup mieux que la complexité de Kolmogorov et constitue un vrai progrès mais je crois que cela rate encore l'essentiel qui me semble la notion de bifurcation (proche de la notion d'Atlan de perte de redondance) et qui pourrait relever plutôt de la théorie des graphes ? Il faudrait aussi ajouter les interactions réciproques et les contraintes globales. En tout cas, je ne considère pas les fractales comme des objets complexes au sens biologique qui eux ne peuvent être compressés (ou pas trop) car chaque bifurcation représente une information acquise sur le monde, un cas particulier, une réaction spécifique. On peut dire que c'est le résultat d'un calcul mais le processus est différent d'un calcul linéaire puisqu'il s'agit d'interaction avec l'environnement (le réel) et d'une reproduction sélectionnée par le résultat.

Voir aussi "la complexité et son idéologie".

Nettoyer l’espace de ses débris

Lien

- Nettoyer l'espace de ses débris

Nettoyer l'espace de ses débris

La vidéo présentée à la 6ème Conférence européenne sur les débris spatiaux qui s'est déroulée du 22 au 25 avril 2013 met en évidence l'état actuel des débris qui encombrent l'espace. Elle présente également des solutions pour en réduire leur nombre. Plusieurs concepts sont exposés visant à éliminer les anciens satellites des orbites économiquement vitales. Ces mesures sont actuellement étudiées par l'industrie et les agences spatiales.

Selon Heiner Klinkrad “La seule façon de résoudre ce problème est d'aller régulièrement dans l'espace au niveau de l'orbite pour y rapatrier entre cinq et dix objets massifs par an. C'est la seule manière d'être sûr de contrôler cet environnement”.


Vers la transmission de champs magnétiques

Lien

- Vers la transmission de champs magnétiques

Les champs magnétiques diminuent très rapidement avec la distance à la différence des champs électromagnétiques qui se transmettent très facilement eux. Grâce à des métamatériaux manipulant les ondes à un niveau nanométrique, on pourrait désormais transmettre le champ magnétique dans des nano-tuyaux. Les tests ont été faits avec un alliage supraconducteur ferromagnétique (de cobalt et de fer) de 7 cm de long.

Un tube composé de 20 anneaux concentriques et dix fois plus long que large, devrait transmettre 90% d'un champ magnétique d'une extrémité à l'autre. Un tube de seulement 2 anneaux concentriques devrait en transmettre déjà 75%.

Vidéo des mouvements atomiques d’une réaction chimique en temps réel

Lien

- Vidéo des mouvements atomiques d'une réaction chimique en temps réel

Ces images d'atomes en mouvement en temps réel obtenus grâce une source d'électrons ultra lumineux permettent de mieux comprendre les réactions chimiques.

Leur enregistrement est l'observation directe d'un état de transition dans lequel les atomes subissent une transformation chimique en nouvelles structures avec de nouvelles propriétés, dans ce cas un transfert de charge conduisant à un comportement métallique de ces molécules organiques.

Voir aussi R&Dmag.

Entropie et perte de l’information des trous noirs

Leonard Susskind, La guerre des trous noirs, folio
trousnoirsJ'arrête la physique ! C'est du moins ce à quoi me pousse la lecture de ce livre qui n'est pas si récent mais vient seulement de sortir en poche et m'a consterné. Non pas à cause de la théorie holographique qui parait certes très délirante mais dont j'avais rendu compte favorablement au tout début de ma revue des sciences et qui n'est pas la disparition d'une dimension comme on la présente ici aussi mais son internalisation, les différences de distances étant remplacées par des différences de taille. Non, ce qui me sidère, c'est que les conceptions de base sur lesquelles s'appuie l'auteur, entropie et information, me semblent fausses dans leur imprécision comme dans les conséquences qu'il croit pouvoir en tirer. Inutile de dire que je ne peux me mesurer avec Leonard Susskind qui fait partie des plus grands physiciens contemporains (et dont j'avais bien apprécié le livre précédent sur le paysage cosmique). C'est sûrement moi qui ai tort, ne comprenant décidément rien à la Physique. Je peux juste faire état de ma perplexité et de mes objections, en attendant qu'on les réfute...

La notion d'information utilisée en physique quantique désigne en fait un ensemble de paramètres des matrices de diffusion (S-matrix) suffisantes pour décrire l'évolution d'une interaction et supposée pouvoir s'inverser pour reconstituer l'état initial (p249), "assurant qu'aucune information n'est jamais perdue" (p251). Le problème, c'est que ce qu'on désigne ici comme information, n'est une information que pour nous, désignant en réalité une énergie (cinétique, électrique, spin, etc.) ou ses degrés de libertés (plus tard on parlera même des ondulations d'une corde), en tout cas une réalité "matérielle" et non pas une information "immatérielle" sur cette réalité ("l'information que le général Grant est enterré dans sa tombe se trouve dans la tombe de Grant !", p174). Dès lors, ce qu'on appelle la conservation de l'information n'est rien d'autre que la conservation de l'énergie qui s'égare à glisser à une conservation de la forme alors que l'énergie est au contraire ce qui se trans-forme, et se conserve dans cette transformation (les deux côtés de l'équation devant s'équilibrer). La confusion entre l'énergie et l'information a pour conséquence d'étendre ce qui se conserve vraiment (l'énergie cinétique ou électrique) aux relations et structures qui sont perdues par les interactions multiples qu'elles subissent et qui les brisent en morceaux.

Continuer la lecture

Vidéo d’un trou noir absorbant de la matière

Lien

- Vidéo d'un trou noir absorbant de la matière

La représentation qui en est donnée est surprenante, à voir.

Vidéo: Un trou noir se réveille pour engloutir un objet céleste

Les astronomes viennent d'observer qu'après avoir sommeillé pendant plusieurs décennies, un trou noir situé à une distance de 47 millions d'années-lumière s'est réveillé pour capturer un objet cosmique de faible masse, une naine brune ou une planète géante, qui s'est approchée trop près de lui. Un événement similaire d'absorption, même s'il ne s'agira que d'un nuage de gaz, se produira prochainement dans le trou noir situé au centre de notre galaxie, la Voie lactée.

En analysant les caractéristiques de ce rayonnement, les astronomes ont pu déterminer que l'émission venait d'un halo de matière situé autour du trou noir qui se trouve au centre de la galaxie. Ce trou noir était alors en train de s'étirer avant d'essayer de capturer un objet ayant 14 à 30 fois la masse de Jupiter.

La Nasa va capturer un petit astéroïde

Lien

- La Nasa va capturer un petit astéroïde

La Nasa va capturer un petit astéroïde

La Nasa envisage une mission robotique pour capturer un petit astéroïde avant de le remorquer pour le mettre sur orbite de la Lune.

La Nasa va capturer un petit astéroïde

"Ce programme combine à la fois la recherche nécessaire pour exploiter les ressources des astéroïdes et les moyens de dévier leur trajectoire en cas de menace pour la Terre ainsi que le développement de technologies permettant de faciliter une future mission (habitée) vers Mars".


Des qubits avec les vibrations de nanotubes

Lien

- Des qubits avec les vibrations de nanotubes

Des ordinateurs quantiques dotés de nanotubes de carbone ?

Plusieurs dispositifs utilisés pour réaliser des ordinateurs quantiques élémentaires susceptibles d’ouvrir la voie à des supercalculateurs quantiques reposent sur l’utilisation de particules chargées. Ce qui les rend de facto particulièrement sensibles à des perturbations électromagnétiques diverses.

C’est pourquoi certaines équipes tentent de construire des ordinateurs quantiques avec des qubits stockés sous forme d’états d’oscillation ou de vibration de systèmes nanomécaniques neutres.

L’idée de base consiste à réaliser des nanorésonateurs mécaniques avec des nanotubes de carbone fixés à leurs deux extrémités. Il est possible d’exciter des modes de vibration quantiques de ces nanotubes avec des impulsions radio. On obtient alors des qubits que l’on peut intriquer avec des photons, et de l’information quantique que l’on peut écrire et lire avec un dispositif optoélectronique.

Manipuler un photon sans le détruire

Lien

Manipuler un photon sans le détruire.

Cela semble très intéressant, non seulement pour l'informatique quantique mais parce que cela crée un nouvel état quantique permettant de manipuler un photon sans le détruire grâce à un effet Kerr induit. L'intrication d'un photon avec un atome permettrait en effet d'agir indirectement sur le photon en manipulant l'atome. Le titre du papier insiste sur la disparition et la recouvrement d'un état quantique grâce à l'effet Kerr à un seul photon.

Le dispositif consiste en un qubit supraconducteur couplé à une cavité résonnante à micro-ondes.

Visualisation 3D de nanoparticules

Lien

- Visualisation 3D de nanoparticules

En combinant plusieurs techniques (scanning transmission electron microscopy, equally sloped tomography et three-dimensional Fourier filtering) on obtiendrait une image 3D de résolution atomique permettant de voir des défauts de structure que les autres méthodes ne permettaient pas de mettre en évidence (comme cette dislocation à l'intérieur d'une nanoparticule de platine de 10 nanomètres représentée ci-contre).

Les trous noirs comme boules de lumière

Lien

- Les trous noirs comme boules de lumière

Ce court papier tente de montrer qu'une boule de photons dont la densité est telle qu'elle se maintient par la force de gravitation aurait à peu près le rayon de Schwarzschild, ce qui fait penser que les trous noirs pourraient être constitués en interne de pur rayonnements. De plus notre univers pourrait être lui-même un tel trou noir, une boule de photons correspondant au fond cosmologique.