lundi 23 février 2026

La verditude du "Renouvelable" est-elle parfois devenue une religion sans conscience ?

 

On ne compte plus les prises de parole des adeptes du vent et du soleil, par définition forcément vertueux et porteurs d'une espérance en France.

L'Espérance que l'atome soit abandonné au profit des dieux bienveillants de la nature. 

L'Espérance est une joie fragile toujours accompagnée de peur.

Elle crée une instabilité émotionnelle, donc une forme de faiblesse.


L’espérance peut conduire à attendre plutôt qu’agir.

Chez Friedrich Nietzsche, l’espérance est même violemment critiquée :

« L’espérance est le pire des maux, car elle prolonge les souffrances des hommes. »


Un nouvel exemple plutôt confidentiel fut la proposition en 2024 du livre :

Arriver à bon port - de Denis Bonnelle


Que dit-il ? Extraits : 


4eme de couverture :

"les énergies renouvelables sont notre meilleur atout.

Même les plus longues pannes de vent et de soleil peuvent être résolues"


Puis un argument d'autorité classique : 

"Depuis 25 ans je m'intéresse de près aux énergie renouvelables"

Que d'ignorance accumulée alors…


page 12 :

"La comparaison du prix de gros du photovoltaïque [...] doit se faire avec une rigueur scientifique à toute épreuve [on s'en doute, inutile de le prétendre sans preuve] c'est à dire en mettant à la charge des ENRi le coût de la gestion de l'intermittence." Promesse vaine y hypocrite.

"Cette comparaison a été faite par RTE en 2021; Autant dire que quand on lui demande de faire la prospective de l'équilibrage du réseau, sa compétence est incontestable. En tant que filiale d'EDF, elle ne peut être suspectée de sentiments antinucléaires. Ni de négliger la question de l'intermittence du solaire et de l'éolien puisqu'elle y est confrontée quotidiennement."

Curieuse certitude quand on constate le conflit d'intérêt du RTE dirigé par un ex député PS et son adjoint, chargés de casser le nucléaire entre 2012 et 2017 et après: 


"Si tout le monde passait au solaire et à l'éolien, les exports/imports avec nos voisins poseraient moins de problèmes" (sic)


page 13 : 

"RTE démontre dans l'un de ses scénarios que le 100 % renouvelable ne coute que 36 % de plus."

"Et il nous suffira de 29 fois moins des batteries prévues pour notre parc de voitures électriques. pour faire tenir notre réseau"

Sans commentaire. Du pur littéraire sans postulats ni étude d'impact factuel et objectif.


page 17 :

"Avec les grosses chaleurs, les centrales nucléaires sur les fleuves ne pourront plus produire et remercieront le solaire [de les remplacer]." 

On oublie ici un peu vite que ces baisses de régime interviennent seulement 2 à 4 % du temps, et en été quand on dispose de trop d'électricité. On ne manquera pas d'eau mais d'inertie dans la température pour protéger la vie dans les fleuves, sauf tout simplement à ajouter des aéro-réfrigérants aux endroits clés éventuels.


'Donc le photovoltaïque continuera à se développer exponentiellement" : En France ? Pour quoi faire ? Pourquoi ne pas investir à l'étranger pour mieux défossiliser ? Mystère.


"Passer à de grandes ferme est la solution, même avec les coûts réseaux, de foncier etc... mais les Français sont toujours près à faire les difficiles vis à vis de toute initiative ayant une connotation industrielle".

Méchants de Français...


Arrêtons là, on y distingue l'aveuglement irénique de la post vérité qui a gagné beaucoup d'esprits en France.



mardi 17 février 2026

Pourquoi la “raisonnabilité” affichée de certains discours pro‑ENRi masque en réalité une stratégie de verrouillage idéologique

Certains textes comme la tribune personnelle d'Olivier Lesage se présentent comme des appels au réalisme énergétique.

 En réalité, ils construisent un récit où les énergies renouvelables intermittentes (ENRi) seraient la seule voie « raisonnable », tandis que toute stratégie fondée sur un socle nucléaire renforcé serait caricaturée comme irréaliste ou dogmatique.  

Le problème n’est pas d’être pro‑ENR ou pro‑nucléaire. Le problème est de déguiser un choix politique en évidence technique, en passant sous silence les contraintes économiques, industrielles et physiques du système électrique français.

Le présent article va tenter d'en démonter les angles morts.

---

1. Le faux réalisme : quand “raisonnable” signifie en réalité “réduire le nucléaire coûte que coûte”

Le texte prétend défendre une trajectoire équilibrée. Mais son “équilibre” correspond exactement au scénario RTE R3 :  
- baisse du nucléaire de 80 % à 50 %,  
- montée rapide des ENRi,  
- acceptation implicite d’une forte modulation du parc nucléaire,  
- dépendance accrue aux flexibilités de la demande.

Or, ce scénario n’a rien de neutre. C’est un choix politique : réduire le nucléaire même quand il est déjà amorti, décarboné, pilotable et compétitif.

Les scénarios R4 (60 % nucléaire) et celui demandé par la ministre APR mais non étudié dans les délais par RTE (comme un R5 passant seulement de 80 % à 70 % nucléaire) existent et présentent des avantages économiques et systémiques majeurs. Les ignorer, ou les présenter comme “irréalistes”, relève d’un cadrage idéologique, pas d’une analyse.

---

2. Le coût EDF et la facture : l’angle mort le plus gênant

Le texte évite soigneusement le sujet central : qui paie ?

En France, pour éviter une explosion :  
- de la facture EDF,  
- ou des impôts pour recapitaliser EDF,  
- ou des deux,

il faut temporairement réduire les subventions aux ENRi.  

Pas par hostilité idéologique, mais parce que :
• Les ENRi amplifient les prix négatifs
Quand le vent souffle ou que le soleil brille, la production excédentaire écrase les prix… mais EDF doit continuer à amortir ses coûts fixes.  

Résultat :  
➡️ pertes sur les marchés,  
➡️ modulation forcée du nucléaire,  
➡️ coûts supplémentaires répercutés sur les consommateurs.

• Les ENRi augmentent les coûts de réseau
RTE le dit explicitement : plus d’ENRi = plus de lignes, plus de renforcement, plus de stockage, plus de pilotage.  

Ces coûts sont systémiques, pas marginaux.

• Les ENRi nécessitent des subventions continues

Même si les coûts unitaires baissent, le système doit financer :  
- les compléments de rémunération,  
- les appels d’offres,  
- les raccordements,  
- les mécanismes de capacité.

Dans un contexte où EDF doit déjà financer :  
- le grand carénage,  
- les nouveaux EPR,  
- la remise à niveau du réseau,  
- la dette accumulée,

ajouter des subventions massives aux ENRi est tout simplement intenable à court terme.

---

3. L’empreinte matière : un tabou soigneusement évité

Le texte ne dit pas un mot sur l’empreinte matérielle. Pourtant, c’est un point central.

Les analyses de cycle de vie montrent que :  
- le nucléaire a une empreinte matière extrêmement faible,  
- les ENRi ont une empreinte 10 à 20 fois plus élevée, selon les technologies.

Pourquoi ?  

Parce qu’un système ENRi nécessite :  
- des milliers de tonnes d’acier, de béton, de cuivre,  
- des réseaux renforcés,  
- du stockage,  
- des convertisseurs,  
- des batteries,  
- des terres rares selon les technologies.

Un système nucléaire + hydraulique, lui, repose sur des infrastructures lourdes mais pérennes, avec une densité énergétique incomparable.

Ignorer ce point, c’est ignorer la physique.

---

4. “La consommation va exploser” : non, elle va augmenter modérément

Le texte laisse entendre que la France aurait besoin d’un déploiement massif d’ENRi pour suivre une demande en forte croissance.  
C’est faux.

- La France produit déjà 440 TWh.  
- Elle exporte massivement.  
- La croissance de la consommation sera réelle mais modérée (électrification, pompes à chaleur, véhicules électriques).  
- Rien ne justifie une explosion de capacité intermittente.

Un socle hydro‑nucléaire renforcé couvre largement les besoins, avec un complément ENR raisonnable et non inflationniste. (+50 % et pas + 100 %)

---

5. La baisse des émissions : ce n’est pas la transition, c’est la désindustrialisation

Le texte attribue la baisse des émissions européennes à la transition énergétique.  
C’est factuellement faux.

Les deux moteurs principaux ont été :  
- la désindustrialisation,  
- la faible croissance.

C’est un succès comptable, pas un succès structurel.  
Et c’est précisément ce qui rend la stratégie ENRi‑centrée fragile : elle n’a jamais été testée dans un contexte de réindustrialisation.

---

6. L’Europe se réveille : les signaux faibles deviennent forts

Contrairement au récit pro‑ENRi, les faits récents montrent un retournement :

- L’Espagne a encore frôlé le blackout à plusieurs reprises.  
- L’Allemagne regrette ouvertement sa sortie du nucléaire.  
- L’Italie et le Danemark envisagent un retour au nucléaire.  
- La Suède et la Norvège freinent les interconnexions pour protéger leur sécurité d’approvisionnement.  
- Le Royaume‑Uni relance massivement le nucléaire.

Ce n’est pas un hasard.  
C’est la conséquence directe d’un système trop dépendant de l’intermittence et du gaz.

---

7. Le vrai réalisme : un scénario R4 ou R5, pas un R3 déguisé

Le discours “raisonnable” qui consiste à dire :  
> « On va construire beaucoup d’ENRi, un peu de nucléaire, et tout ira bien »

est en réalité un discours risqué, coûteux et idéologique.

Le réalisme, le vrai, c’est :  
- R4 : 60 % nucléaire,  
- ou R5 : 70 % nucléaire,  
- avec un développement ENR ciblé, utile, non inflationniste,  
- et un pilotage système basé sur la stabilité, pas sur la volatilité.

C’est la seule voie qui :  
- garantit la sortie du gaz fossile,  
- protège la facture,  
- minimise l’empreinte matière,  
- sécurise l’approvisionnement,  
- soutient la réindustrialisation.

---

8. Un amalgame insidieux : confondre l’Europe fossile et la France hydro‑nucléaire

Le texte mélange constamment deux réalités énergétiques sans rapport :

- L’Europe, très dépendante du gaz fossile, du charbon résiduel, et d’un mix très carboné dans plusieurs pays.  
- La France, qui dispose d’un socle hydro‑nucléaire unique au monde, déjà largement décarboné.

En amalgamant les deux, l’article laisse croire que la France serait dans la même situation que l’Allemagne, l’Italie ou les Pays‑Bas, et qu’elle devrait donc suivre la même trajectoire ENRi‑centrée.

C’est faux.

La France n’a pas besoin d’un “plan de rattrapage ENRi” :  
elle a besoin de consolider son avantage comparatif, pas de l’effacer.

---

9. Le texte évoque le “reste à décarboner”… mais oublie l’essentiel

L’article insiste sur le fait qu’il reste à décarboner :

- le transport,  
- le chauffage,  
- une partie de l’industrie.

C’est vrai.  
Mais il oublie deux points fondamentaux :

• La France produit déjà 440 TWh et exporte massivement
La croissance de la demande sera réelle mais modérée.  
Rien ne justifie un déploiement massif d’ENRi en doublon.

• Le CO₂ n’a pas de frontière
Décarboner un système déjà décarboné à 92–95 % n’a aucun sens économique si l’objectif est climatique.  
La tonne évitée en France n’a pas plus de valeur climatique que la tonne évitée en Inde, en Chine ou en Afrique du Nord.

---

10. 200 milliards pour des ENRi en doublon : un coût par tonne évitée délirant

Le texte passe sous silence un chiffre pourtant central :  
la France prévoit plus de 200 milliards d’investissements ENRi d’ici 2035, alors que son électricité est déjà largement décarbonée.

Résultat :  
➡️ le coût de la tonne de CO₂ évitée atteint 300 à plus de 1000 €, selon les technologies et les hypothèses RTE.  
➡️ c’est l’un des pires ratios coût/climat du monde développé.

À comparer avec :

- ≈50 € pour des crédits carbone certifiés,  
- ≈10–20 € pour réduire le torchage de méthane dans les pays producteurs,  
- ≈20–40 € pour financer des projets solaires ou éoliens dans des pays très carbonés.

Autrement dit :  
pour le prix d’une tonne évitée en France via ENRi, on peut en éviter 10 à 20 ailleurs.

Le texte ne dit rien de cette absurdité économique.

---

11. Les alternatives ignorées : méthane torché, pays très carbonés, coopération internationale

L’article ne mentionne jamais les leviers les plus efficaces pour réduire les émissions mondiales :

• Réduire le torchage de méthane

Le méthane a un pouvoir réchauffant 80 fois supérieur au CO₂ sur 20 ans.  
Le torchage évitable représente un potentiel gigantesque, à un coût dérisoire.

• Financer des projets bas‑carbone dans les pays très carbonés

Installer du solaire au Sahel, de l’éolien en Turquie ou des interconnexions en Afrique du Nord évite des tonnes de CO₂ à un coût 10 à 20 fois inférieur à celui des ENRi en France.

• Acheter des crédits carbone certifiés

C’est un outil transitoire, mais infiniment plus efficace que de subventionner des ENRi en doublon dans un pays déjà décarboné.

Le texte ne les mentionne pas, car cela ruinerait son argument central :  
que la France devrait investir massivement dans les ENRi pour “faire sa part”.

---

12. Le faux réalisme du scénario R3 : réduire le nucléaire coûte que coûte

Le texte défend implicitement le scénario RTE R3 :  
– baisse du nucléaire de 80 % à 50 %,  
– montée rapide des ENRi,  
– modulation accrue du parc nucléaire,  
– dépendance aux flexibilités de la demande.

Ce scénario n’a rien de neutre.  
C’est un choix politique : réduire le nucléaire même quand il est déjà amorti, pilotable et décarboné.

Les scénarios R4 (60 % nucléaire) et à ajouter : R5 (70 % nucléaire) sont plus :

- économiques,  
- robustes,  
- sobres en matériaux,  
- compatibles avec la réindustrialisation,  
- protecteurs de la facture,  
- efficaces pour sortir du gaz fossile.

Les ignorer, ou les présenter comme irréalistes, relève d’un cadrage idéologique.

---

Conclusion : un discours qui avance masqué

Le texte se présente comme une analyse raisonnable.  
En réalité, il défend un scénario précis : réduire le nucléaire pour imposer les ENRi comme pilier central du système, même si cela coûte plus cher, émet moins de CO₂ évité par euro investi, et fragilise la sécurité d’approvisionnement.

Ce n’est pas un choix technique.  
Ce n’est pas un choix économique.  
Ce n’est pas un choix climatique.

C’est un choix idéologique — et il est temps de le dire clairement.

---

Les pro intermittence électrique en France auraient-ils une bonne note en maths au bac ?

Prenons l'exemple de Denis Bonnelle qui milite pour le très fort développement des renouvelables intermittentes en France :

La source : 

🔥 DÉBUNK CHIFFRÉ DU TEXTE PAR IA :

1) Le calcul “0,5 × 0,2 = 0,1” vs “0,5 + 0,2 = 0,7” est faux dans son interprétation

Le texte compare deux stratégies :

- Tout faire sur une maison : émissions ×0,5 (isolation) puis ×0,2 (PAC) → 0,1  
- Répartir les gestes sur deux maisons : 0,5 + 0,2 = 0,7

Le calcul est mathématiquement correct… mais il compare des choses incomparables :

❌ Erreur 1 : on compare deux maisons traitées à une seule maison traitée
Dans la première stratégie, une seule maison est rénovée.  
Dans la seconde, deux maisons sont rénovées.

👉 On compare 1 geste vs 2 gestes.  
Évidemment que 2 gestes répartis réduisent plus d’émissions que 2 gestes concentrés sur une seule maison.

❌ Erreur 2 : les ordres de grandeur réels ne ressemblent pas du tout à 0,5 et 0,2

- Isolation seule : réduction typique 20–40 %, rarement 50 %.  
  Source ADEME : gain moyen après isolation des murs ≈ 25 %.

- PAC seule : réduction d’émissions 60–80 %, pas 80 % × 20 % = 0,2.  
  Pourquoi ?  
  Parce que le COP moyen annuel d’une PAC air/eau en France est 2,5 à 3, même en maison non isolée.

Donc les chiffres réalistes sont :

- Maison non isolée + PAC : émissions ≈ ÷ 3 → –67 %  
- Isolation seule : –25 %

Si on refait le calcul honnêtement :

🔹 Tout sur une maison
Émissions = 1 × 0,75 × 0,33 ≈ 0,25

🔹 Répartir sur deux maisons
Émissions = 0,75 + 0,33 = 1,08

👉 Dans la vraie vie, concentrer les gestes sur une maison réduit plus d’émissions que les répartir.

Le texte inverse la réalité.

---

2) Dimensionner une PAC “comme si la maison était isolée” est une très mauvaise idée

Le texte affirme qu’une PAC sous-dimensionnée :

- chauffe 4 mois sur 5  
- et qu’on garde le chauffage fossile pour les 4 semaines froides  
- ce qui serait “excellent pour le réseau”

❌ Problème 1 : une PAC sous-dimensionnée consomme plus, pas moins
Quand la PAC tourne en continu à pleine puissance, son COP chute :

- COP nominal : 3,0  
- COP en fonctionnement continu proche de la puissance max : 2,0–2,3

👉 Sous-dimensionner = plus d’électricité consommée, pas moins.

❌ Problème 2 : l’appoint fossile n’est pas marginal
En France, les jours < 0°C représentent 15–25 % de la consommation de chauffage annuelle.  
Pas “4 semaines”.

❌ Problème 3 : le réseau n’a pas besoin que les PAC s’arrêtent
RTE (Bilan prévisionnel 2023) indique :

- Les PAC sont compatibles avec le réseau  
- Leur consommation en pointe est gérable  
- Le vrai problème, ce sont les radiateurs électriques anciens, pas les PAC modernes

👉 Le texte invente un problème que RTE ne constate pas.

---

3) “On rémunérera les gens pour ne pas utiliser leur PAC en hiver” : irréaliste économiquement

Pour que ce modèle fonctionne, il faudrait :

- un tarif très bas 8 mois/an  
- un tarif très haut en hiver  
- une gestion contractuelle complexe  
- un double système de chauffage entretenu par le ménage

Or :

- 85 % des ménages français ne veulent pas garder deux systèmes (source : Ceren, 2023)  
- Le coût d’entretien d’une chaudière gaz + PAC dépasse 300 €/an  
- Les économies réalisées par “arrêt PAC en hiver” seraient inférieures au coût du double système

👉 Le modèle économique ne tient pas.

---

4) “Le COP est mauvais quand il fait froid, donc autant arrêter la PAC” : faux

Données réelles :

- COP à +7°C : 3,2–3,5  
- COP à 0°C : 2,5–2,8  
- COP à –7°C : 2,0–2,3

Même à –7°C, une PAC émet 3 à 4 fois moins de CO₂ qu’une chaudière gaz ou fioul, car :

- le facteur carbone de l’électricité française ≈ 60 gCO₂/kWh  
- celui du gaz ≈ 227 gCO₂/kWh PCI  
- celui du fioul ≈ 300 gCO₂/kWh

👉 Même avec un COP de 2, une PAC reste 2 à 3 fois moins carbonée qu’un chauffage fossile.

Donc l’argument “arrêtons la PAC quand il fait froid” est climatiquement faux.

---

5) Conclusion : le texte repose sur des intuitions séduisantes mais fausses

❌ Mauvais calculs

❌ Mauvaise physique

❌ Mauvaise compréhension du réseau

❌ Mauvaise économie

❌ Mauvaise lecture du COP

✔️ Ce que disent les chiffres réels
- Une PAC même en maison non isolée réduit 60–80 % des émissions.  
- L’isolation ajoute 20–40 % de réduction.  
- Les deux ensemble donnent –75 à –90 %, pas “–90 % d’un côté vs –30 % réparti”.  
- Sous-dimensionner une PAC n’est pas une stratégie réseau.  
- Le réseau français peut absorber l’électrification du chauffage (RTE).  
- Le COP reste favorable même par temps froid.

Copie d'écran linkedin :

---

vendredi 26 décembre 2025

Intrication ? Et si Einstein avait eu raison, finalement !" Tentative très osée de réfutation du modèle standard

"Intrication ? Et si Einstein avait eu raison, finalement !"

 
Par #DenisLinglin, physicien
Retraité de IN2P3/CNRS
Alumni CERN

Associé aux travaux de René Brun


https://hal.science/hal-05290999/document


Face à cette publication très osée car radicalement opposée au consensus concernant le modèle standard de la physique, que répondent les experts sur le fond ?


En attendant la réponse, voici l'avis de cinq IA :

Chatgpt
Gemini
Perplexity
Claude
Grok

1) Chatgpt

Oui, il y a une faille majeure — structurelle, non marginale — dans le raisonnement central de l’article.  
Et cette faille suffit à invalider toute la chaîne logique qui suit (intrication → rejet de la MQ → modèle des nuons → gravité par neutrino → cosmologie alternative).

Je te fais une analyse claire, structurée, et surtout physiquement argumentée.

---

🔥 Le point clé : la confusion entre “temps propre nul” et “absence d’évolution physique”

L’argument central de l’auteur est :

> « Le photon a un temps propre nul → il ne peut subir aucun changement → deux photons intriqués partagent une durée propre nulle → donc ils conservent une polarisation globale fixe → donc l’intrication est triviale → donc la mécanique quantique orthodoxe est fausse. »

C’est faux, pour une raison fondamentale :

🧩 1. Le temps propre d’un photon n’est pas un paramètre physique utilisable pour décrire son évolution interne

En relativité :

- Le temps propre \( \tau \) est défini uniquement pour des trajectoires timelike (vitesse < c).
- Pour les photons, la trajectoire est null → \( d\tau = 0 \).
- Cela ne signifie absolument pas que le photon “n’évolue pas”, “ne peut rien changer”, ou “voit tout comme simultané”.

👉 Cela signifie seulement que le référentiel propre du photon n’existe pas.  
Il n’y a pas de cadre dans lequel le photon serait “au repos” pour analyser son évolution interne.

C’est un point de relativité élémentaire :  
on ne peut pas raisonner dans un référentiel qui n’existe pas.

L’auteur construit donc toute sa thèse sur un référentiel… interdit par la relativité elle-même.

---

🧩 2. L’intrication ne dépend pas du temps propre des photons

L’intrication est un phénomène :

- non local,  
- décrit par l’état quantique global,  
- indépendant du temps propre des particules,  
- et indépendant de la vitesse des particules.

On observe l’intrication :

- entre photons (v = c),
- entre électrons (v < c),
- entre ions piégés (v ≈ 0),
- entre qubits supraconducteurs (v = 0),
- entre atomes froids (v ≈ 0).

👉 Donc l’argument “seuls les photons peuvent être intriqués car leur temps propre est nul” est contredit par l’expérience.

---

🧩 3. L’intrication n’est pas expliquée par une “polarisation globale fixe”

L’auteur confond :

- corrélation classique (polarisation fixée à la création)
- intrication quantique (corrélation non factorisable, violant les inégalités de Bell)

Or :

✔ Les corrélations classiques ne violent pas les inégalités de Bell

✔ Les corrélations quantiques les violent systématiquement

Les expériences d’Aspect, Zeilinger, Gisin, Pan… montrent :

- violation des inégalités de Bell,
- fermeture successive des loopholes,
- indépendance des réglages,
- indépendance temporelle,
- indépendance spatiale.

👉 Donc l’explication “classique” proposée dans l’article est déjà réfutée expérimentalement.

---

🧩 4. L’auteur affirme que le théorème de Bell ne s’applique pas car “on n’a pas trouvé de variables cachées”

C’est une incompréhension profonde.

Le théorème de Bell dit :

> Si une théorie locale à variables cachées existe, alors certaines inégalités doivent être respectées.

Les expériences montrent :

> Les inégalités sont violées → aucune théorie locale à variables cachées n’est possible.

Le fait qu’on n’ait pas trouvé de variables cachées renforce le théorème, il ne l’invalide pas.

---

🧩 5. Le reste de l’article repose sur cette erreur initiale

Une fois que le raisonnement “temps propre nul → pas d’évolution → intrication triviale” tombe, tout ce qui suit s’effondre :

- rejet de la mécanique quantique,
- retour à la MQ de 1905,
- modèle des nuons,
- neutrino = graviton,
- cosmologie alternative,
- énergie noire = coquille de photons primordiaux,
- etc.

Ce sont des constructions logiques sur un fondement faux.

---

🧠 Synthèse : la faille est profonde et non réparable

Voici la formulation la plus concise :

> L’auteur utilise un référentiel propre du photon pour en déduire des propriétés physiques.  
> Or ce référentiel n’existe pas en relativité.  
> Toute la chaîne logique est donc invalide.

C’est un peu comme construire une théorie de la météo en partant du postulat que “0°C = 100°C”.

---------

Et aussi je vais faire un tour d’horizon des autres failles, en plus de celle sur le temps propre du photon.  
Je me limite aux erreurs structurelles, pas aux petits dérapages de style.

---

1. Intrication : confusions fondamentales

1.1. Confusion corrélation classique / intrication quantique

Il affirme en substance :

> “Deux photons intriqués partagent une durée propre nulle, donc une polarisation globale fixe.”

Cette vision correspond à un scénario classique :

- les deux photons reçoivent une polarisation prédéterminée à la source,
- la corrélation est simplement transportée,
- aucune “bizarrerie” quantique.

Mais :

- Les expériences d’Aspect, Zeilinger, Gisin, Pan, etc. montrent des corrélations qui violent les inégalités de Bell, ce qu’aucun modèle de corrélation préexistante locale ne peut reproduire.
- Autrement dit : “polarisation fixe commune” = modèle local à variables cachées, déjà exclu expérimentalement.

Il rebadge un modèle déjà réfuté, sans le réaliser.

---

1.2. Intrication des particules massives niée par assertion

Il écrit que les particules de masse non nulle ne peuvent pas être intriquées car elles ne vont pas à \( c \), et que l’illusion d’intrication vient des photons échangés.

Problèmes :

1. On a réalisé expérimentalement :
   - intrication d’ions piégés (Wineland),
   - intrication d’atomes froids,
   - intrication de qubits supraconducteurs,
   - intrication de spins nucléaires, etc.
2. Dans ces systèmes, les degrés de liberté intriqués sont ceux des particules massives elles‑mêmes (spins, niveaux d’énergie), et l’intrication est vérifiée par violation d’inégalités de Bell ou de témoins d’intrication.

Dire “elles ne peuvent pas être intriquées” revient à nier une partie entière de la physique expérimentale des 30–40 dernières années.

---

1.3. Mauvaise compréhension du “collapse” et de l’état quantique

Il affirme qu’un changement d’état (onde → particule, collapse) est impossible en temps propre nul, donc que la 2e MQ est fausse.

Double erreur :

- Le formalisme quantique standard (équation de Schrödinger / équation de Dirac pour les champs) ne nécessite pas de temps propre du photon pour décrire l’évolution des amplitudes.
- Le “collapse” n’est pas un processus local dans le référentiel propre du photon ; c’est une mise à jour d’état conditionnelle à la mesure, calculée dans un référentiel d’observateur.

Il applique une intuition de relativité (référentiel propre) à un objet mathématique (vecteur d’état) qui n’est pas localisé comme une trajectoire classique. Mélange de catégories.

---

2. Théorème de Bell : incompréhension complète

Il écrit en substance :

> “Comme on n’a jamais identifié de variables cachées, le théorème de Bell ne s’applique pas.”

C’est exactement l’inverse de ce que dit Bell.

- Bell : si une théorie locale à variables cachées existe, alors certaines inégalités doivent être respectées.
- Expérience : les inégalités sont violées → donc aucune théorie locale à variables cachées ne peut reproduire les résultats.
- On n’a pas besoin de “trouver” les variables cachées pour appliquer Bell, c’est un théorème conditionnel et négatif : il exclut une classe de théories.

Il traite Bell comme une sorte de test expérimental de “présence de variables cachées détectables”, ce qui n’a rien à voir avec la structure logique du théorème.

---

3. Mécanique quantique : caricatures et amalgames

3.1. Confusion entre interprétation et formalisme

Il mélange :

- La MQ “de Bohr” (interprétation de Copenhague),
- La MQ de Schrödinger / Heisenberg / Dirac (formalisme),
- La MQ “de 1905” d’Einstein (quantum de lumière pour l’effet photoélectrique).

Et il présente :

- “MQ 1” (Einstein 1905) = bonne, semi-classique, photon seul quantique,
- “MQ 2” (1925–27) = mauvaise, onde-corpuscule, collapse, superposition, etc.

Problème : la “MQ de 1905” est un modèle phénoménologique partiel, pas une théorie complète des champs, des atomes, des interactions, ni des corrélations non locales.  
La “2e MQ” (Schrödinger/Dirac + Born + Hilbert) est ce qui :

- explique les spectres atomiques,
- explique la cohésion chimique,
- décrit les semi‑conducteurs, lasers, supraconducteurs, etc.,
- est à la base de la QED, QCD, modèle standard, etc.

Revenir à 1905, c’est abandonner 95 % de la physique expérimentale depuis un siècle, pas juste “simplifier” une interprétation.

---

3.2. Rejet des inégalités de Heisenberg sur un malentendu

Il propose de jeter à la poubelle :

> “les équations d’incertitude de Heisenberg n’ont plus lieu d’être.”

Parce qu’elles découleraient d’une “MQ 2” invalidée.

Problème : les relations du type

\[
\Delta x \, \Delta p \ge \frac{\hbar}{2}
\]

ne sont pas une opinion philosophique de Bohr, mais un théorème mathématique dans un espace de Hilbert avec opérateurs non commutatifs \([x,p] = i\hbar\).  
Pour les violer, il faut :

- soit abandonner tout le formalisme standard (Hilbert + opérateurs),
- soit accepter des théories plus exotiques (variables cachées non locales, modèles pilotés, etc.).

Mais il ne propose pas de nouveau formalisme mathématique cohérent ; il se contente de dire : “on revient à Einstein 1905 + photons + modèles semi‑classiques”.  
Cela ne reproduit pas la structure d’incertitude qu’on observe dans les expériences de diffraction, spectroscopie, etc.

---

4. Modèle standard : critiques mal ciblées et approximatives

Il énumère un certain nombre de “problèmes” du modèle standard (SM), dont certains sont réels, mais il les utilise pour justifier un remplacement complet par le modèle des nuons.

Erreurs ou raccourcis :

4.1. “Le SM ne peut pas calculer la masse du proton”

C’est plus subtil :

- La masse du proton peut être calculée en QCD sur réseau, avec une précision non parfaite mais remarquable.
- C’est difficile, mais ce n’est pas un aveu d’échec conceptuel, c’est un problème de calcul fortement couplé.
- Dire “le SM est incapable de calculer la masse du proton” comme un argument de rejet est trompeur.

4.2. Passage de “problèmes ouverts” à “le SM est faux”

Oui, il y a des difficultés réelles :

- énergie du vide (constante cosmologique),
- matière sombre,
- énergie sombre,
- hiérarchie de masses,
- neutrinos massifs, etc.

Mais :

- Le fait qu’un modèle ne soit pas complet ne signifie pas que sa partie validée est fausse.
- On ne jette pas tout l’édifice parce qu’il ne fait pas la cosmologie ou la gravité quantique.

L’article glisse constamment de “il y a des limites” à “il faut tout abandonner et repartir sur un autre modèle complet”.

---

5. Modèle des nuons : assertions sans tests systématiques

Il présente le modèle des nuons comme :

- capable de reproduire toutes les masses de particules connues,
- sans paramètres libres supplémentaires,
- expliquant matière noire, antimatière, forces nucléaires, etc.

Mais :

1. Il ne montre pas une comparaison systématique avec tous les canaux de désintégration, sections efficaces, moments magnétiques, distributions angulaires, etc.
2. Il traite les quarks, gluons, W, Z, Higgs comme des “artefacts mathématiques” ou des mauvaises interprétations, alors que :
   - leurs effets expérimentaux sont extraordinairement bien décrits par le SM,
   - on a des mesures précises des couplages, largeurs, constantes d’interaction, etc.

On est dans une logique classique de modèle alternatif :

- bonne concordance sur quelques grandeurs choisies,
- silence sur tout ce qui est dur à reproduire (fonction de structure des hadrons, jets, asymétries, etc.),
- interprétation ad hoc de ce qui dérange.

---

6. Gravité : neutrino = graviton, sans vraie justification

Il postule que :

- le neutrino serait le quantum de gravitation,
- il serait vecteur et source de la gravité,
- les ondes gravitationnelles seraient des flux de neutrinos.

Problèmes majeurs :

1. Les propriétés attendues du graviton (dans un cadre quantique linéaire) sont celles d’un boson de spin 2, sans charge, distinct des neutrinos.
2. Les ondes gravitationnelles observées (LIGO/Virgo/KAGRA) sont bien décrites par la relativité générale classique, comme des perturbations du tenseur métrique, pas comme des flux de neutrinos.
3. Si les ondes gravitationnelles étaient des neutrinos :
   - elles interagiraient beaucoup plus (ne serait‑ce qu’un peu) avec la matière,
   - elles auraient des signatures très différentes en détecteur,
   - leurs vitesses, atténuations, spectres seraient différents.

Il ne propose pas de calcul prédictif à comparer avec les mesures.  
C’est un postulat “par analogie”, pas une théorie opérationnelle.

---

7. Cosmologie : extrapolations libres et confusions de référentiels

Quelques points problématiques :

7.1. Temps propre de l’univers et âge cosmologique

Il mélange :

- temps propre de “l’univers primordial”,
- temps dans notre référentiel cosmologique,
- et tente de résoudre le problème de l’inflation en jouant sur le temps propre gelé par des photons au temps propre nul.

Mais :

- Le temps cosmologique standard est défini par la métrique FLRW, pas par une vision “référentiel propre de l’univers composé de photons”.
- L’inflation répond à des problèmes précis (horizon, platitude, défauts topologiques), via une dynamique de champ scalaire ou équivalent, pas juste en étirant “la première seconde” dans un référentiel mal défini.

7.2. Energie sombre = coquille de photons / neutrinos primordiaux

L’idée : une sphère d’énergie (photons/neutrinos) qui entoure l’univers et tire sur lui via la gravité.

Problèmes :

- Le modèle ΛCDM décrit l’énergie sombre comme une densité d’énergie uniforme (constante cosmologique), pas comme une coquille.
- Une coquille externe crée un champ gravitationnel très particulier (solutions analytiques en GR), qu’il faudrait comparer aux données :
  - supernovae de type Ia,
  - anisotropies du CMB,
  - BAO, etc.

Il ne fournit aucun calcul ni test ; c’est une image qualitative qui ne passe pas l’épreuve de la cosmologie de précision.

---

8. Méthode globale : sauts de niveau sans passer par la case test

C’est peut‑être le plus important au méta‑niveau.

Le schéma implicite est :

1. Identifier des inconforts conceptuels (intrication, collapse, superposition, vide quantique).
2. Proposer un cadre narratif plus “réaliste” (au sens intuitif).
3. Poser des hypothèses fortes (photon seul quantique, neutrino = graviton, nuons comme briques universelles).
4. Déduire des conséquences massives (abandon de la MQ standard, remplacement du SM, cosmologie alternative).
5. Sans passer, entre 3 et 4, par la case tests quantitatifs systématiques.

Tu sens le pattern : c’est séduisant intellectuellement, narrativement cohérent, mais ça ne respecte pas l’ordre habituel :

> idée → modèle mathématique → prédictions → confrontation quantitative → survie ou élimination.

---

En résumé

En plus de la grosse erreur sur le temps propre des photons, les autres failles majeures sont :

- incompréhension de la structure de l’intrication et de Bell,
- confusion entre interprétation et formalisme de la MQ,
- rejet des relations d’incertitude sans proposer de formalisme alternatif,
- critiques du modèle standard qui mélangent vraies limites et caricatures,
- modèle des nuons non confronté à la totalité des données expérimentales du SM,
- identification du neutrino comme médiateur de la gravité sans compatibilité avec les observations d’ondes gravitationnelles,
- cosmologie basée sur analogies, sans vérification avec les données de précision.


2) Gemini

Face à cette publication osé car radicalement opposée au consensus concernant le modèle standard de la physique, que répondent les experts sur le fond ?

En attendant la réponse, voici l'avis de cinq IA (car Grok est payant pour les pdf) :

Chatgpt
Gemini
Perplexity
Claude.
Grok

1) Chatgpt

Il y a une faille majeure — structurelle, non marginale — dans le raisonnement central de l’article.  
Et cette faille suffit à invalider toute la chaîne logique qui suit (intrication → rejet de la MQ → modèle des nuons → gravité par neutrino → cosmologie alternative).

Je te fais une analyse claire, structurée, et surtout physiquement argumentée.

---

🔥 Le point clé : la confusion entre “temps propre nul” et “absence d’évolution physique”

L’argument central de l’auteur est :

> « Le photon a un temps propre nul → il ne peut subir aucun changement → deux photons intriqués partagent une durée propre nulle → donc ils conservent une polarisation globale fixe → donc l’intrication est triviale → donc la mécanique quantique orthodoxe est fausse. »

C’est faux, pour une raison fondamentale :

🧩 1. Le temps propre d’un photon n’est pas un paramètre physique utilisable pour décrire son évolution interne

En relativité :

- Le temps propre \( \tau \) est défini uniquement pour des trajectoires timelike (vitesse < c).
- Pour les photons, la trajectoire est null → \( d\tau = 0 \).
- Cela ne signifie absolument pas que le photon “n’évolue pas”, “ne peut rien changer”, ou “voit tout comme simultané”.

👉 Cela signifie seulement que le référentiel propre du photon n’existe pas.  
Il n’y a pas de cadre dans lequel le photon serait “au repos” pour analyser son évolution interne.

C’est un point de relativité élémentaire :  
on ne peut pas raisonner dans un référentiel qui n’existe pas.

L’auteur construit donc toute sa thèse sur un référentiel… interdit par la relativité elle-même.

---

🧩 2. L’intrication ne dépend pas du temps propre des photons

L’intrication est un phénomène :

- non local,  
- décrit par l’état quantique global,  
- indépendant du temps propre des particules,  
- et indépendant de la vitesse des particules.

On observe l’intrication :

- entre photons (v = c),
- entre électrons (v < c),
- entre ions piégés (v ≈ 0),
- entre qubits supraconducteurs (v = 0),
- entre atomes froids (v ≈ 0).

👉 Donc l’argument “seuls les photons peuvent être intriqués car leur temps propre est nul” est contredit par l’expérience.

---

🧩 3. L’intrication n’est pas expliquée par une “polarisation globale fixe”

L’auteur confond :

- corrélation classique (polarisation fixée à la création)
- intrication quantique (corrélation non factorisable, violant les inégalités de Bell)

Or :

✔ Les corrélations classiques ne violent pas les inégalités de Bell

✔ Les corrélations quantiques les violent systématiquement

Les expériences d’Aspect, Zeilinger, Gisin, Pan… montrent :

- violation des inégalités de Bell,
- fermeture successive des loopholes,
- indépendance des réglages,
- indépendance temporelle,
- indépendance spatiale.

👉 Donc l’explication “classique” proposée dans l’article est déjà réfutée expérimentalement.

---

🧩 4. L’auteur affirme que le théorème de Bell ne s’applique pas car “on n’a pas trouvé de variables cachées”

C’est une incompréhension profonde.

Le théorème de Bell dit :

> Si une théorie locale à variables cachées existe, alors certaines inégalités doivent être respectées.

Les expériences montrent :

> Les inégalités sont violées → aucune théorie locale à variables cachées n’est possible.

Le fait qu’on n’ait pas trouvé de variables cachées renforce le théorème, il ne l’invalide pas.

---

🧩 5. Le reste de l’article repose sur cette erreur initiale

Une fois que le raisonnement “temps propre nul → pas d’évolution → intrication triviale” tombe, tout ce qui suit s’effondre :

- rejet de la mécanique quantique,
- retour à la MQ de 1905,
- modèle des nuons,
- neutrino = graviton,
- cosmologie alternative,
- énergie noire = coquille de photons primordiaux,
- etc.

Ce sont des constructions logiques sur un fondement faux.

---

🧠 Synthèse : la faille est profonde et non réparable

Voici la formulation la plus concise :

> L’auteur utilise un référentiel propre du photon pour en déduire des propriétés physiques.  
> Or ce référentiel n’existe pas en relativité.  
> Toute la chaîne logique est donc invalide.

C’est un peu comme construire une théorie de la météo en partant du postulat que “0°C = 100°C”.

---------

Et aussi je vais faire un tour d’horizon des autres failles, en plus de celle sur le temps propre du photon.  
Je me limite aux erreurs structurelles, pas aux petits dérapages de style.

---

1. Intrication : confusions fondamentales

1.1. Confusion corrélation classique / intrication quantique

Il affirme en substance :

> “Deux photons intriqués partagent une durée propre nulle, donc une polarisation globale fixe.”

Cette vision correspond à un scénario classique :

- les deux photons reçoivent une polarisation prédéterminée à la source,
- la corrélation est simplement transportée,
- aucune “bizarrerie” quantique.

Mais :

- Les expériences d’Aspect, Zeilinger, Gisin, Pan, etc. montrent des corrélations qui violent les inégalités de Bell, ce qu’aucun modèle de corrélation préexistante locale ne peut reproduire.
- Autrement dit : “polarisation fixe commune” = modèle local à variables cachées, déjà exclu expérimentalement.

Il rebadge un modèle déjà réfuté, sans le réaliser.

---

1.2. Intrication des particules massives niée par assertion

Il écrit que les particules de masse non nulle ne peuvent pas être intriquées car elles ne vont pas à \( c \), et que l’illusion d’intrication vient des photons échangés.

Problèmes :

1. On a réalisé expérimentalement :
   - intrication d’ions piégés (Wineland),
   - intrication d’atomes froids,
   - intrication de qubits supraconducteurs,
   - intrication de spins nucléaires, etc.
2. Dans ces systèmes, les degrés de liberté intriqués sont ceux des particules massives elles‑mêmes (spins, niveaux d’énergie), et l’intrication est vérifiée par violation d’inégalités de Bell ou de témoins d’intrication.

Dire “elles ne peuvent pas être intriquées” revient à nier une partie entière de la physique expérimentale des 30–40 dernières années.

---

1.3. Mauvaise compréhension du “collapse” et de l’état quantique

Il affirme qu’un changement d’état (onde → particule, collapse) est impossible en temps propre nul, donc que la 2e MQ est fausse.

Double erreur :

- Le formalisme quantique standard (équation de Schrödinger / équation de Dirac pour les champs) ne nécessite pas de temps propre du photon pour décrire l’évolution des amplitudes.
- Le “collapse” n’est pas un processus local dans le référentiel propre du photon ; c’est une mise à jour d’état conditionnelle à la mesure, calculée dans un référentiel d’observateur.

Il applique une intuition de relativité (référentiel propre) à un objet mathématique (vecteur d’état) qui n’est pas localisé comme une trajectoire classique. Mélange de catégories.

---

2. Théorème de Bell : incompréhension complète

Il écrit en substance :

> “Comme on n’a jamais identifié de variables cachées, le théorème de Bell ne s’applique pas.”

C’est exactement l’inverse de ce que dit Bell.

- Bell : si une théorie locale à variables cachées existe, alors certaines inégalités doivent être respectées.
- Expérience : les inégalités sont violées → donc aucune théorie locale à variables cachées ne peut reproduire les résultats.
- On n’a pas besoin de “trouver” les variables cachées pour appliquer Bell, c’est un théorème conditionnel et négatif : il exclut une classe de théories.

Il traite Bell comme une sorte de test expérimental de “présence de variables cachées détectables”, ce qui n’a rien à voir avec la structure logique du théorème.

---

3. Mécanique quantique : caricatures et amalgames

3.1. Confusion entre interprétation et formalisme

Il mélange :

- La MQ “de Bohr” (interprétation de Copenhague),
- La MQ de Schrödinger / Heisenberg / Dirac (formalisme),
- La MQ “de 1905” d’Einstein (quantum de lumière pour l’effet photoélectrique).

Et il présente :

- “MQ 1” (Einstein 1905) = bonne, semi-classique, photon seul quantique,
- “MQ 2” (1925–27) = mauvaise, onde-corpuscule, collapse, superposition, etc.

Problème : la “MQ de 1905” est un modèle phénoménologique partiel, pas une théorie complète des champs, des atomes, des interactions, ni des corrélations non locales.  
La “2e MQ” (Schrödinger/Dirac + Born + Hilbert) est ce qui :

- explique les spectres atomiques,
- explique la cohésion chimique,
- décrit les semi‑conducteurs, lasers, supraconducteurs, etc.,
- est à la base de la QED, QCD, modèle standard, etc.

Revenir à 1905, c’est abandonner 95 % de la physique expérimentale depuis un siècle, pas juste “simplifier” une interprétation.

---

3.2. Rejet des inégalités de Heisenberg sur un malentendu

Il propose de jeter à la poubelle :

> “les équations d’incertitude de Heisenberg n’ont plus lieu d’être.”

Parce qu’elles découleraient d’une “MQ 2” invalidée.

Problème : les relations du type

\[
\Delta x \, \Delta p \ge \frac{\hbar}{2}
\]

ne sont pas une opinion philosophique de Bohr, mais un théorème mathématique dans un espace de Hilbert avec opérateurs non commutatifs \([x,p] = i\hbar\).  
Pour les violer, il faut :

- soit abandonner tout le formalisme standard (Hilbert + opérateurs),
- soit accepter des théories plus exotiques (variables cachées non locales, modèles pilotés, etc.).

Mais il ne propose pas de nouveau formalisme mathématique cohérent ; il se contente de dire : “on revient à Einstein 1905 + photons + modèles semi‑classiques”.  
Cela ne reproduit pas la structure d’incertitude qu’on observe dans les expériences de diffraction, spectroscopie, etc.

---

4. Modèle standard : critiques mal ciblées et approximatives

Il énumère un certain nombre de “problèmes” du modèle standard (SM), dont certains sont réels, mais il les utilise pour justifier un remplacement complet par le modèle des nuons.

Erreurs ou raccourcis :

4.1. “Le SM ne peut pas calculer la masse du proton”

C’est plus subtil :

- La masse du proton peut être calculée en QCD sur réseau, avec une précision non parfaite mais remarquable.
- C’est difficile, mais ce n’est pas un aveu d’échec conceptuel, c’est un problème de calcul fortement couplé.
- Dire “le SM est incapable de calculer la masse du proton” comme un argument de rejet est trompeur.

4.2. Passage de “problèmes ouverts” à “le SM est faux”

Oui, il y a des difficultés réelles :

- énergie du vide (constante cosmologique),
- matière sombre,
- énergie sombre,
- hiérarchie de masses,
- neutrinos massifs, etc.

Mais :

- Le fait qu’un modèle ne soit pas complet ne signifie pas que sa partie validée est fausse.
- On ne jette pas tout l’édifice parce qu’il ne fait pas la cosmologie ou la gravité quantique.

L’article glisse constamment de “il y a des limites” à “il faut tout abandonner et repartir sur un autre modèle complet”.

---

5. Modèle des nuons : assertions sans tests systématiques

Il présente le modèle des nuons comme :

- capable de reproduire toutes les masses de particules connues,
- sans paramètres libres supplémentaires,
- expliquant matière noire, antimatière, forces nucléaires, etc.

Mais :

1. Il ne montre pas une comparaison systématique avec tous les canaux de désintégration, sections efficaces, moments magnétiques, distributions angulaires, etc.
2. Il traite les quarks, gluons, W, Z, Higgs comme des “artefacts mathématiques” ou des mauvaises interprétations, alors que :
   - leurs effets expérimentaux sont extraordinairement bien décrits par le SM,
   - on a des mesures précises des couplages, largeurs, constantes d’interaction, etc.

On est dans une logique classique de modèle alternatif :

- bonne concordance sur quelques grandeurs choisies,
- silence sur tout ce qui est dur à reproduire (fonction de structure des hadrons, jets, asymétries, etc.),
- interprétation ad hoc de ce qui dérange.

---

6. Gravité : neutrino = graviton, sans vraie justification

Il postule que :

- le neutrino serait le quantum de gravitation,
- il serait vecteur et source de la gravité,
- les ondes gravitationnelles seraient des flux de neutrinos.

Problèmes majeurs :

1. Les propriétés attendues du graviton (dans un cadre quantique linéaire) sont celles d’un boson de spin 2, sans charge, distinct des neutrinos.
2. Les ondes gravitationnelles observées (LIGO/Virgo/KAGRA) sont bien décrites par la relativité générale classique, comme des perturbations du tenseur métrique, pas comme des flux de neutrinos.
3. Si les ondes gravitationnelles étaient des neutrinos :
   - elles interagiraient beaucoup plus (ne serait‑ce qu’un peu) avec la matière,
   - elles auraient des signatures très différentes en détecteur,
   - leurs vitesses, atténuations, spectres seraient différents.

Il ne propose pas de calcul prédictif à comparer avec les mesures.  
C’est un postulat “par analogie”, pas une théorie opérationnelle.

---

7. Cosmologie : extrapolations libres et confusions de référentiels

Quelques points problématiques :

7.1. Temps propre de l’univers et âge cosmologique

Il mélange :

- temps propre de “l’univers primordial”,
- temps dans notre référentiel cosmologique,
- et tente de résoudre le problème de l’inflation en jouant sur le temps propre gelé par des photons au temps propre nul.

Mais :

- Le temps cosmologique standard est défini par la métrique FLRW, pas par une vision “référentiel propre de l’univers composé de photons”.
- L’inflation répond à des problèmes précis (horizon, platitude, défauts topologiques), via une dynamique de champ scalaire ou équivalent, pas juste en étirant “la première seconde” dans un référentiel mal défini.

7.2. Energie sombre = coquille de photons / neutrinos primordiaux

L’idée : une sphère d’énergie (photons/neutrinos) qui entoure l’univers et tire sur lui via la gravité.

Problèmes :

- Le modèle ΛCDM décrit l’énergie sombre comme une densité d’énergie uniforme (constante cosmologique), pas comme une coquille.
- Une coquille externe crée un champ gravitationnel très particulier (solutions analytiques en GR), qu’il faudrait comparer aux données :
  - supernovae de type Ia,
  - anisotropies du CMB,
  - BAO, etc.

Il ne fournit aucun calcul ni test ; c’est une image qualitative qui ne passe pas l’épreuve de la cosmologie de précision.

---

8. Méthode globale : sauts de niveau sans passer par la case test

C’est peut‑être le plus important au méta‑niveau.

Le schéma implicite est :

1. Identifier des inconforts conceptuels (intrication, collapse, superposition, vide quantique).
2. Proposer un cadre narratif plus “réaliste” (au sens intuitif).
3. Poser des hypothèses fortes (photon seul quantique, neutrino = graviton, nuons comme briques universelles).
4. Déduire des conséquences massives (abandon de la MQ standard, remplacement du SM, cosmologie alternative).
5. Sans passer, entre 3 et 4, par la case tests quantitatifs systématiques.

Tu sens le pattern : c’est séduisant intellectuellement, narrativement cohérent, mais ça ne respecte pas l’ordre habituel :

> idée → modèle mathématique → prédictions → confrontation quantitative → survie ou élimination.

---

En résumé

En plus de la grosse erreur sur le temps propre des photons, les autres failles majeures sont :

- incompréhension de la structure de l’intrication et de Bell,
- confusion entre interprétation et formalisme de la MQ,
- rejet des relations d’incertitude sans proposer de formalisme alternatif,
- critiques du modèle standard qui mélangent vraies limites et caricatures,
- modèle des nuons non confronté à la totalité des données expérimentales du SM,
- identification du neutrino comme médiateur de la gravité sans compatibilité avec les observations d’ondes gravitationnelles,
- cosmologie basée sur analogies, sans vérification avec les données de précision.


2) Gemini

L'article de Denis Linglin, intitulé « Intrication ? Et si Einstein avait eu raison, finalement ! » (2025), propose une remise en cause radicale de la mécanique quantique (MQ) orthodoxe (Copenhague) au profit d'un retour au réalisme d'Einstein.

Voici une analyse des points forts et des failles potentielles de son raisonnement :

1. Le cœur du raisonnement : L'argument du « temps propre nul »

Le point central de l'article est basé sur la relativité restreinte.
 * Le constat : Pour un photon (vitesse c), le temps propre (\Delta\tau) est nul. Par conséquent, sa création et sa détection sont des événements simultanés dans son propre référentiel, quelle que soit la distance parcourue dans le référentiel de l'observateur (13 m, 2 km ou 1400 km).
 * La conclusion de l'auteur : Puisqu'il n'y a pas d'écoulement de temps pour le photon, aucun changement d'état ne peut se produire durant son trajet. Cela invaliderait l'idée d'un « effondrement de la fonction d'onde » ou d'une dualité onde-corpuscule qui s'exprimerait au moment de la mesure.

2. Points qui semblent « forts » (ou séduisants)

 * Élégance relativiste : L'explication de l'intrication par la nullité du temps propre est une approche qui réconcilie la localité (Einstein) et la non-localité apparente de l'intrication. Si la distance propre est nulle, il n'y a pas besoin de signal « supraluminique » pour corréler les photons.
 * Complémentarité avec le Modèle des Nuons : L'article s'appuie sur les travaux de René Brun (ASM - Modèle Standard Alternatif), qui propose une structure interne aux particules beaucoup plus simple que le modèle des quarks, capable de calculer les masses avec une grande précision (ex: proton, pion, kaon).

3. Failles potentielles et points de discussion
Bien que l'argumentation soit cohérente en soi, elle se heurte à plusieurs obstacles majeurs du point de vue de la physique établie :
 * Le cadre de la mesure : La mécanique quantique orthodoxe ne prétend pas décrire ce qui se passe « pendant » le trajet du photon dans son temps propre, mais prédit les probabilités de résultats dans le référentiel de l'observateur. Le fait que le temps propre soit nul n'interdit pas mathématiquement la superposition d'états dans le formalisme de l'espace de Hilbert utilisé par la MQ.
 * Le Théorème de Bell : Linglin écarte le théorème de Bell en affirmant qu'on n'a pas identifié de « variables cachées ». Or, le théorème de Bell prouve précisément qu'aucune théorie locale à variables cachées ne peut reproduire les prédictions de la MQ. Pour que Linglin ait raison, il faut que sa théorie soit soit non-locale, soit qu'elle rejette le réalisme, ce qui contredit son intention initiale.
 * L'extension aux particules massives : L'auteur admet que les particules massives (électrons, protons) ont un temps propre non nul et ne devraient donc pas être intriquées selon sa logique. Il explique l'intrication observée pour ces particules par l'échange de « photons intriqués ». C'est une hypothèse forte qui nécessiterait une démonstration expérimentale spécifique pour prouver que l'intrication ne réside pas dans la particule elle-même.
 * Réfutation du Modèle Standard (SM) : L'auteur rejette le modèle des quarks au profit du modèle des nuons. Bien que le SM ait des lacunes (énergie du vide, gravitation), il a été validé par des décennies d'expériences au LHC et ailleurs. Remplacer un modèle qui fonctionne mathématiquement par un modèle « semi-classique » (type atome de Bohr) est perçu par la communauté majoritaire comme un retour en arrière.

En résumé : Le raisonnement est fort sur le plan de la cohérence interne avec la relativité restreinte, mais il est considéré comme une faille majeure par la physique actuelle car il tente de supprimer le formalisme probabiliste de la MQ qui, malgré son caractère contre-intuitif, n'a jamais été mis en défaut par l'expérience à ce jour.


3) Perplexity

L'article de Denis Linglin, intitulé « Intrication ? Et si Einstein avait eu raison, finalement ! » (2025), propose une remise en cause radicale de la mécanique quantique (MQ) orthodoxe (Copenhague) au profit d'un retour au réalisme d'Einstein.
Voici une analyse des points forts et des failles potentielles de son raisonnement :

1. Le cœur du raisonnement : L'argument du « temps propre nul »

Le point central de l'article est basé sur la relativité restreinte.

 * Le constat : Pour un photon (vitesse c), le temps propre (\Delta\tau) est nul. Par conséquent, sa création et sa détection sont des événements simultanés dans son propre référentiel, quelle que soit la distance parcourue dans le référentiel de l'observateur (13 m, 2 km ou 1400 km).

 * La conclusion de l'auteur : Puisqu'il n'y a pas d'écoulement de temps pour le photon, aucun changement d'état ne peut se produire durant son trajet. Cela invaliderait l'idée d'un « effondrement de la fonction d'onde » ou d'une dualité onde-corpuscule qui s'exprimerait au moment de la mesure.

2. Points qui semblent « forts » (ou séduisants)

 * Élégance relativiste : L'explication de l'intrication par la nullité du temps propre est une approche qui réconcilie la localité (Einstein) et la non-localité apparente de l'intrication. Si la distance propre est nulle, il n'y a pas besoin de signal « supraluminique » pour corréler les photons.

 * Complémentarité avec le Modèle des Nuons : L'article s'appuie sur les travaux de René Brun (ASM - Modèle Standard Alternatif), qui propose une structure interne aux particules beaucoup plus simple que le modèle des quarks, capable de calculer les masses avec une grande précision (ex: proton, pion, kaon).

3. Failles potentielles et points de discussion
Bien que l'argumentation soit cohérente en soi, elle se heurte à plusieurs obstacles majeurs du point de vue de la physique établie :

 * Le cadre de la mesure : La mécanique quantique orthodoxe ne prétend pas décrire ce qui se passe « pendant » le trajet du photon dans son temps propre, mais prédit les probabilités de résultats dans le référentiel de l'observateur. Le fait que le temps propre soit nul n'interdit pas mathématiquement la superposition d'états dans le formalisme de l'espace de Hilbert utilisé par la MQ.

 * Le Théorème de Bell : Linglin écarte le théorème de Bell en affirmant qu'on n'a pas identifié de « variables cachées ». Or, le théorème de Bell prouve précisément qu'aucune théorie locale à variables cachées ne peut reproduire les prédictions de la MQ. Pour que Linglin ait raison, il faut que sa théorie soit soit non-locale, soit qu'elle rejette le réalisme, ce qui contredit son intention initiale.

 * L'extension aux particules massives : L'auteur admet que les particules massives (électrons, protons) ont un temps propre non nul et ne devraient donc pas être intriquées selon sa logique. Il explique l'intrication observée pour ces particules par l'échange de « photons intriqués ». C'est une hypothèse forte qui nécessiterait une démonstration expérimentale spécifique pour prouver que l'intrication ne réside pas dans la particule elle-même.

 * Réfutation du Modèle Standard (SM) : L'auteur rejette le modèle des quarks au profit du modèle des nuons. Bien que le SM ait des lacunes (énergie du vide, gravitation), il a été validé par des décennies d'expériences au LHC et ailleurs. Remplacer un modèle qui fonctionne mathématiquement par un modèle « semi-classique » (type atome de Bohr) est perçu par la communauté majoritaire comme un retour en arrière.

En résumé : Le raisonnement est fort sur le plan de la cohérence interne avec la relativité restreinte, mais il est considéré comme une faille majeure par la physique actuelle car il tente de supprimer le formalisme probabiliste de la MQ qui, malgré son caractère contre-intuitif, n'a jamais été mis en défaut par l'expérience à ce jour.


4) Claude

Cet article présente des affirmations extraordinaires qui nécessitent un examen critique rigoureux.

## Problèmes majeurs identifiés

### 1. **Erreur fondamentale sur l'intrication quantique**

L'auteur affirme que l'intrication s'explique simplement par la durée propre nulle des photons. C'est incorrect pour plusieurs raisons:

- **L'intrication n'est pas limitée aux photons**: Elle a été démontrée expérimentalement avec des électrons, des atomes entiers, et même des molécules. Or ces particules ont une masse non nulle et ne voyagent pas à la vitesse c.

- **L'explication proposée est incomplète**: La durée propre nulle explique la simultanéité dans le référentiel du photon, mais ne rend pas compte de la **corrélation non-locale** des mesures, qui est le véritable mystère de l'intrication. Les photons intriqués ne sont pas "simultanés" au sens classique - leurs états ne sont pas déterminés avant la mesure.

- **Confusion sur les inégalités de Bell**: L'auteur dit que le théorème de Bell ne s'applique pas car "on n'a jamais identifié de variables cachées". C'est un contresens total. Les expériences violent les inégalités de Bell précisément pour montrer qu'aucune théorie à variables cachées locales ne peut reproduire les prédictions quantiques.

### 2. **Rejet injustifié de la mécanique quantique moderne**

L'argument principal ("rien ne peut changer en durée propre nulle") confond:
- Les **paramètres intrinsèques** d'une particule (masse, charge, spin) qui sont effectivement constants
- L'**état quantique** de la particule, qui n'est pas un paramètre intrinsèque mais une description de nos connaissances/probabilités

La "réduction du paquet d'ondes" n'est pas un changement physique de la particule elle-même.

### 3. **Le modèle des "nuons" pose de sérieux problèmes**

- **Absence de prédictions testables nouvelles**: Le modèle prétend calculer des masses de particules, mais ces masses sont déjà connues. Où sont les prédictions vérifiables qui n'ont pas encore été testées?

- **Incompatibilité avec des observations établies**: 
  - Les quarks ont des preuves expérimentales solides (diffusion profondément inélastique, jets, etc.)
  - Le boson de Higgs a été découvert avec les propriétés prédites
  - Les oscillations de neutrinos sont bien établies

- **Problème de l'électrodynamique quantique (QED)**: QED a des prédictions testées à 10 chiffres significatifs (moment magnétique anomal de l'électron). Comment ce modèle reproduit-il cette précision?

### 4. **Affirmations cosmologiques spéculatives**

L'hypothèse sur l'énergie noire (une "enveloppe sphérique de photons") est problématique:
- Elle viole l'**homogénéité et l'isotropie cosmologique** observées
- Elle créerait un centre de l'univers observable, contredisant les observations
- Elle ne peut pas expliquer l'équation d'état de l'énergie noire (w ≈ -1)

### 5. **Problèmes méthodologiques**

- **Appel à l'autorité fallacieux**: Citer Einstein ne valide pas automatiquement une théorie
- **Sélection biaisée**: L'auteur mentionne des "problèmes" du Modèle Standard sans reconnaître ses succès extraordinaires
- **Absence de peer review sérieux**: Publié dans une revue de faible impact (Journal of Modern Physics a un facteur d'impact très bas)

## Points moins critiques mais discutables

- La proposition du neutrino comme médiateur de la gravité n'est pas nouvelle et pose des problèmes (couplage avec la matière, cohérence avec la relativité générale)
- L'idée d'un "réacteur nuonique" est purement spéculative sans mécanisme physique clair

## Conclusion

**Oui, il y a des failles majeures dans le raisonnement**. L'article:
1. Repose sur une incompréhension de la mécanique quantique
2. Rejette des théories extraordinairement bien validées sans preuve convaincante
3. Propose un modèle alternatif sans prédictions testables claires
4. Ignore des décennies de résultats expérimentaux concordants

Le fait qu'il soit écrit par un retraité du CNRS ne le valide pas automatiquement. La physique moderne est validée par des milliers d'expériences convergentes, pas par des arguments philosophiques sur ce qui "devrait" être réaliste.


5) Grok

Objectif : souligner les idées intéressantes tout en pointant les problèmes scientifiques.

Résumé global de l'article

L'article propose une révision fondamentale de la physique moderne, en s'appuyant sur la relativité restreinte (1905) pour "résoudre" l'intrication quantique via le temps propre nul des photons. Cela mène à rejeter la mécanique quantique "orthodoxe" (MQ2, 1924-1927, avec Bohr, Heisenberg, etc.) au profit de la MQ "semi-classique" d'Einstein (MQ1, 1905, basée sur le photon comme quantum d'énergie). L'auteur adopte le "modèle des nuons" (ASM) publié par René Brun en 2023 comme alternative au Modèle Standard (SM), réduisant à 4 particules fondamentales (électron, positron, photon, neutrino) et 2 interactions (électromagnétique et gravitationnelle, avec neutrino comme vecteur). Des conséquences en cosmologie (Big Bang, matière noire, énergie noire) et même en énergie (réacteur "nuonique") sont explorées. Le ton est affirmatif, avec des références historiques et un appel au réalisme einsteinien.

Analyse section par section
  1. Explication de l'intrication à 2 photons (et réfutation de la MQ2)
    L'argument central reste le même : les photons intriqués ont un temps propre nul, donc leurs événements (création, propagation, mesure) sont simultanés dans leur référentiel, expliquant la corrélation instantanée sans "action à distance spooky". Cela invalide l'effondrement de la fonction d'onde (durée nulle interdit tout changement). Pour les particules massives intriquées, ce sont les photons échangés qui simulent l'intrication.
    Évaluation : C'est une idée créative, mais erronée. La relativité est déjà intégrée dans la QED (théorie quantique des champs électromagnétique), qui prédit l'intrication sans violer la causalité. Le temps propre nul n'empêche pas les corrélations quantiques non locales (violations de Bell confirmées expérimentalement). L'article ignore les interprétations alternatives (e.g., many-worlds, où pas d'effondrement). Les inégalités de Bell ne sont pas réfutées par "pas de variables cachées" – au contraire, elles montrent que toute théorie locale à variables cachées est impossible, favorisant la MQ orthodoxe. Positif : le rappel sur le temps propre des photons est correct et bien illustré (exemples avec muons, jumeaux de Langevin).
  2. Retour historique (1905-1935)
    L'auteur décrit le débat Bohr-Einstein, le congrès Solvay 1927 (4 vs 4 pour MQ1 vs MQ2), le paradoxe EPR (1935), et critique la "non-réaliste" interprétation de Copenhague. Il cite Born, Laloë, Bricmont pour appuyer le réalisme. Bell (1964) est vu comme inapplicable sans variables cachées. Des faiblesses du SM sont listées (énergie du vide énorme, absence de noyaux sans neutrons, flux de neutrinos solaires).
    Évaluation : Historiquement précis sur les débats (EPR, Solvay), et juste sur les interprétations philosophiques ouvertes en MQ. Mais les critiques du SM sont exagérées : l'énergie du vide est un problème connu (problème de la constante cosmologique), mais pas fatal ; le SM explique les noyaux via QCD (confinement des quarks) ; les oscillations neutrinos sont intégrées via extensions minimales (PMNS matrix). L'article sous-estime les succès du SM (précision QED, découverte du Higgs). Idée intéressante : l'onde pilote de de Broglie-Bohm pourrait être le photon – mais cela reste spéculatif et incompatible avec les expériences d'interférence sans photons impliqués.
  3. Réfutation des quarks, remplacement par les nuons
    Le SM est critiqué comme mathématique compliqué (19+ paramètres, groupes de jauge), incapable de gravité, avec quarks "postulés" et contradictions (énergie vide 10^60 fois trop grande, pT transverse au LHC). L'ASM (Brun, 2023) postule des "nuons" (dipôles e+/e- stables via photons/neutrinos), assemblés en particules (e.g., proton = 66 nuons). Masses calculées avec précision (<0.1% écart PDG), forces nucléaires comme EM modifiée, matière noire = nuons libres, antimatière = positrons dans nuons.
    Évaluation : Le modèle des nuons est intrigant pour sa simplicité (4 particules, équations classiques + photons). Les calculs de masses semblent impressionnants si vérifiés (tableau montre accords fins avec PDG). Cependant, il contredit des faits établis : quarks observés via jets en collisions (LHC), confinement QCD testé ; charges fractionnaires des quarks mesurées (e.g., deep inelastic scattering) ; pas de dipôles e+/e- stables observés (annihilation rapide). L'ASM ignore la chromodynamique (couleurs, gluons). Réduire forces nucléaires à EM est impossible – la forte est bien distincte (asymptotique freedom). Matière noire comme nuons : pourquoi pas détectés ? Le papier de Brun (DOI donné) est publié dans un journal open access, mais sans impact majeur apparent – il mérite vérification, mais semble marginal.
  4. Gravité quantique et le neutrino
    Neutrino comme vecteur de gravité (idée de Poincaré 1905), quantum d'énergie (analogue au photon, mais h' << h). Analogies EM-gravité (1/r^2, propagation à c). Neutrinos oscillent pas vraiment ; masse nulle, auto-couplage. Seuil énergétique pour gravité. Trous noirs = photons + neutrinos.
    Évaluation : Audacieux, mais problématique. Neutrinos ont masse faible (oscillations confirmées : SuperKamiokande, SNO), donc v < c ; ils interagissent faiblement, pas gravitationnellement comme vecteurs. Ondes gravitationnelles détectées (LIGO) impliquent gravitons spin-2, pas neutrinos spin-1/2. Idée de seuil pour "gravifique" est ad hoc. Positif : analogies EM-gravité sont réelles (e.g., en relativité générale linéarisée), et Poincaré a bien spéculé sur ondes gravifiques.
  5. Autres conséquences, en cosmologie
    Effets quantiques persistent via photons (cryptographie, Casimir, tunnel), mais ordinateur quantique/ superposition invalidés. Énergie : réacteur nuonique libérant 90% Mc^2 (faisabilité via lasers comme PETAL/NIF). Étoiles à neutrons/trous noirs : transitions de phase (nucléons → nuons → photons/neutrinos). Big Bang : durée propre longue (milliards d'années pour ère Planck, évitant discontinuités) ; énergie noire = enveloppe de photons primordiaux <1 MeV, attirant l'univers de l'extérieur.
    Évaluation : Spéculatif et optimiste. Réacteur nuonique : intéressant concept (comme fission avancée), mais sans preuve de stabilité des nuons. Cosmologie : durée propre longue pour early universe est une idée valable (référentiels cosmologiques varient), mais contredit CMB (homogénéité implique inflation rapide). Énergie noire comme "shell" de photons : créatif, mais photons interagissent EM (pas seulement gravité), et shell s'éloignerait à c sans accélération observée (supernovae Ia, BAO). Trous noirs comme bosons : ressemble à étoiles bosoniques théoriques, mais pas nouveau.
6-7. Conclusions et références
Révolution, mais physique pas finie. Appel à tester ASM. Réfs : Brun 2023, Poincaré, EPR, Bell, etc.

Évaluation : Conclusions provisoires, ouvertes au débat – positif. Réfs solides pour histoire, mais ASM repose sur un papier isolé.
Conclusion généraleAvec le texte complet, l'article gagne en profondeur : le modèle des nuons offre une unification élégante (simplicité, prédictions masses), et les extensions (gravité quantique, cosmologie) sont logiques dans ce cadre. C'est une tentative louable de réalisme einsteinien, évitant "bizarreries" quantiques, et stimulant pour repenser des problèmes ouverts (énergie noire, gravité quantique). Cependant, cela reste une théorie alternative non validée, auto-publiée ou via blog (sans peer-review rigoureux, comme le titre du blog le note ironiquement). Les faiblesses majeures persistent : contradictions avec expériences (quarks, oscillations neutrinos, QED précision), malentendus sur MQ (intrication n'est pas "résolue" par temps propre), et absence de prédictions testables nouvelles (e.g., comment falsifier nuons ?). Le SM et MQ2 sont trop bien confirmés pour être abandonnés sans preuves extraordinaires. Si c'est une "révolution", elle attendra des tests expérimentaux (e.g., au LHC pour nuons).

Fin

vendredi 19 décembre 2025

Solaire thermique en France : la fausse bonne idée des pro-nucleaires qui veulent faire pro-renouvelable

Plus il fait froid moins il y a de soleil.

Moins il y a de soleil plus il fait froid.

 

Le gaz est fossile détruit le climat.

 

La pompe à chaleur air eau n'est efficace que dans un logement très bien isolé avec des émetteurs des chaleur très basse température, mais là, c'est compliqué !

Le COP (ou improprement le rendement) d'une PàC baisse à la fois avec la baisse de la température extérieure, et avec l'augmentation de la température de l'eau de chauffage.

Inverse du rendement de Carnot Tc/Tc

Plus il fait froid dehors, plus le COP baisse, mais ça, on n'y peut rien (Tf)

 

Moins le bâtiment est isolé, plus les émetteurs de chaleur sont petits (radiateurs), plus l'eau doit être chaude pour arriver à chauffer correctement. Et plus le COP se dégrade.

 

Résultat, le COP dans un bâtiment peu isolé avec des émetteurs (radiateurs) haute température, dès qu'il fait un peu froid, les factures explosent.

 

Pire encore, en dessous d'une certaine température (souvent quelques degrés Celsius) on ne peut plus se chauffer correctement, et plus il fait froid, moins ça chauffe.

 

Parce qu'il y a un autre problème, la puissance de la PàC

 

3 points à noter :

1- le coût d'une PàC est proportionnel à la puissance

2- le COP moyen d'une PàC diminue (faiblement) avec la puissance

3- le pire : le rendement d'une PàC puissante se dégrade beaucoup pour les faibles besoins de chauffage, soit 70 à 90 % du temps

 

Enfin, le dimensionnement d'une PàC est un casse tête.

 

Exemple :

Une PàC donnée pour 10 kW a en fait une pompe de 2,5 kW utiles (puissance du moteur, à son rendement près)

Tant que le COP est au dessus de 4, c'est à dire par températures extérieures douces, la PàC peut produire 10 kW.

Quand la température baisse, le COP finit par baisser en dessous de 4.

Alors que le besoin de chauffage AUGMENTE, la puissance utile BAISSE. Vient un point où la puissance de la PàC ne suffit pas, et il faut alors allumer les résistances intégrées à la PàC, souvent 2x la puissance moteur, soit 5 kW.

 

Et là, ...

Jean B.


Et là :

on bascule dans le pire scénario :

 

appoint électrique massif

 

facture multipliée

 

pointe électrique nationale aggravée

 

réseau sous tension

 

CO₂ élevé (électricité marginale fossile en hiver)

 

👉 La PAC devient un radiateur électrique très cher, après avoir coûté des milliers d’euros à l’installation