Nouvelle physique ?
(Nouvelles Energies, L'Univers Conscient, Gravité Quantique)


2/10/2013

http://www.e-catworld.com/2013/09/st-microelectronics-files-lenr-patent/

25/7/2013

Voici un blog en français avec compte-rendu quotidien de la conférence Annuelle ICCF18 sur la fusion froide qui a lieu cette semaine à Columbia aux USA. "
Nous avons pu voir en direct par internet la démonstration du réacteur de Defkalion depuis Milan. C'est Alex Xanthoulis qui a présenté le réacteur...A la fin de la journée, nous avons appris que le réacteur avait fourni 5,2 kW avec une puissance d'entrée de 2,0 kW." Plus de détails ici (mais en anglais). La démo de Defkalion ne fait aucune hypothèse sur la quantité d’eau vaporisée mais seulement du fait que l’output est à 160°C, ils en déduisent un COP de l’ordre de 2 à partir de ((Tout – Tin)*4,18*water flow in grams/second) pour calculer l'énergie en output. “If all the water was vaporized, the output thermal power would have been above 27 kW” donc un COP de 20. Donc, tout en étant très conservatif (en sous-estimant de façon importante leur COP), ils se mettent à l’abris des critiques usuelles sur la vapeur humide!no consideration was taken to vaporization enthalpy.”
Je rappelle que le réacteur de Defkalion fonctionne avec des décharges électriques de bougies de voiture bricolées pour fonctionner à haute fréquence (1).
Une autre entreprise US LENUCO, annonce aussi un réacteur NiH produisant plusieurs kiloWatts, ils citent la découverte majeure par l'Université de l'Illinois d'amas de particules de Ultra Haute densité à l'interieur desquels des réactions nucléaires pourraient s'amorcer d'après leurs calculs, et qui ne sont sans doute rien d'autre que les micro foudres en boule (2).
D'autres entreprises, Brillouin Energy et Jet Energy, prétendent pouvoir maintenir des COP de 2 (bientôt 20) et de 10 respectivement.
Tout cela ((1) et (2)) cadre parfaitement avec ma compréhension théorique du phénomène que j'ai exposée dans la section VII de mon article de vulgarisation (pour lecteur averti) sur le sujet. La prochaine conférence sur la fusion froide aura lieu en Italie en Mars 2015.

23/5/2013


Question sur les axiomes de la Relativité Restreinte 

23/5/2013

Extraordinaire événement pour la fusion froide : une équipe de scientifiques indépendants (deux italiens et deux suédois) a testé à plusieurs reprises l'e-cat de Rossi et conclue en confirmant les performances inexpliquables par (de trois ordres de grandeurs supérieures à) des processus de physique standard. C'est dans un article publié sur arxiv le 16 Mai : méthode particulièrement simple et fiable: la mesure des températures de surface du cylindre de l'e-cat par une caméra thermique permettant de calculer la puissance de radiation émise.


7/4/2013

Le dernier message de Rossi semble être assez clair: l'e-cat domestique est bloqué tandis que l'e-cat MegaWatt est pour le moment acquis par une organisation militaire secrête! Bref, les faiseurs de guerre aujourdhui comme hier sont au pouvoir...


6/12/2012

- Mon collègue enseignant chercheur Jean Paul Biberian publie son ouvrage sur la fusion froide dont il est en France le principal acteur en recherche experimentale.

- Mon article de 2004 sur les énergies négatives en théorie quantique des champs dans lequel je developpais les raisons pour lesquelles le problème ne devrait trouver de solution que dans le cadre d'une théorie alternative de la gravité, a été accepté et publié dans la revue à comité de lecture GJSFR

- J'ai commencé à réécrire mon article principal, qui était devenu un véritable chantier/espace de travail plus qu'un outil de communication, dans l'objectif d'en faire un document vraiment didactique: j'en suis à la moitié: nouvelle version bientôt sur Arxiv.

11/2012
A 24 ans il construit un reacteur à fusion froide dans son appart (!?)
Mais d'apres mon expert local, il n'y a pas de calorimétrie digne de ce nom donc ca n'a pas l'air très fiable...

13/11/2012

Les dernières actualités en Français sur la fusion froide peuvent entre autres sites être consultées sur celui-ci. Il y a du bon et du mauvais et tout se passe à peu pres comme je m'y attendais pour l'e-cat domestique de Rossi (voir mon actu précédente du 3/10) qui est relégué aux oubliettes tandis que Defkalion passe au devant de la scène avec l'annonce de la publication prochaine dans des revues à comité de lecture, de résultats de tests de leur réacteur par des équipes de scientifiques internationales. L'opération que je qualifiais de type Wikileaks a peut être des chances serieuses d'aboutir grâce au fait que Defkalion est une entreprise avec de nombreux ingénieurs et collaborateurs scientifiques qui ne peut pas être étouffée ou soumise à des pressions/menaces aussi simplement qu'un individu isolé (A. Rossi) surtout si l'équipe Defkalion savait à l'avance bien à quoi s'en tenir, édifiée par la mesaventure de l'e-cat de Rossi. Il est plus que probable que Rossi comptait depuis le début sur le fait que Defkalion pourrait prendre le relai dans le cas où lui même serait entravé. Même si les revues à referee font le blocus sur tous ces travaux d'indépendants qui leurs sont soumis, comme l'UE vient de le faire à son tour sur les brevets de Rossi, cela ne servira pas à rien: cela démontrera qu'il y a vraiment une volonté de bloquer cette recherche et de plus en plus de monde y compris dans des hautes spheres pourra en tirer les leçons.
Mais il y a peut être de l'espoir que tous ces travaux soient effectivement publiés et provoquent alors le séisme tant attendu à condition que tous leurs signataires aient le courage de sortir de l'anonymat. Apres tout, à ma grande stupefaction, un article que j'avais publié et fait evoluer entre 2004 et 2005 sur arXiv, vient d'être accepté par une revue à comité de lecture! incroyable, mais ... cher (300$)!

3/10/2012

Nous entrons dans la période fatidique (fin 2012 debut 2013) dans laquelle on (Rossi, Defkalion) nous avait promis la commercialisation à grande échelle de petits réacteurs domestiques bon marché à fusion froide et la révélation d'un certain nombre de secrets de fabrication de ces dispositifs: la révolution était en marche. Pour le moment, à part l'annonce d'une conférence (
The Breakthrough Energy Conference, taking place in Holland in November of 2012 ) avec cette rhétorique New-Age habituelle extrêmement suspecte et qui incite à infiniment de prudence, rien ne semble se profiler. De mon point de vue, il faut s'attendre à des délais interminables pour la simple raison que cette physique est considérée  comme une chasse gardée prioritaire des militaires du DoD qui doivent tout faire pour museler  Rossi, Defkalion et d'autres (pour cela entraver la liberté des chercheurs et industriels par des contrats, faire obstacle à la délivrance de brevets sont des méthodes efficaces) ... c'est pourquoi j'interprete la dernière publication de Defkalion comme une opération de type wikileaks sur la fusion froide (suite à des pressions subies pour ne pas parler), puisque 2 facteurs clefs ont été révélés. A l'avenir je pense que les seules révélations sur la fusion froide ne viendront que de fuites de ce genre, tous ceux qui croyant avoir capturé la poule aux oeufs d'or, feront des annonces sans tout dévoiler (comme Rossi)  seront rapidement réduits au silence et en seront pour leurs frais.

Les 2 clefs révélées sont l'usage de décharges électriques à haute fréquence (plusieurs kHz) grâce à des bougies de voiture et un système d'allumage bricolé dans le réacteur et le rôle de  certains objects énigmatiques produits lors de ces décharges (qui ne sont sans doute rien d'autre que les micro foudres en boule mais que Defkalion préfère imaginer comme des atomes dans un état extrême d'excitation, ou atomes dans un état de Rydberg ) puis piégés dans des cavités du Nickel où ils sont stabilisés (probablement par piégeage magnétique) et entretiennent les effets de "fusion froide".

Il n'est pas improbable que la stratégie de communication du DoD sur la fusion froide soit apparentée à celle sur le 11 septembre 2001: polluer et noyer le sujet par une multitude de sites soutenant des théories de pataphysique almagamées à des considérations plus ou moins ésotériques afin de maintenir sa crédibilité et son attrait scientifique au plus bas possible, y compris peut être par des opérations de communication comme cette conférence bientôt en Hollande. En parallèle, pourquoi pas un petit coup de pub pour les derniers résultats de la Z machine, puisqu'il s'avère que c'est la seule machine à fusion chaude qui semble toujours prometteuse, explique JP Petit ... mais pour des raisons qui ne sont pas élucidées, probablement parceque la Z machine exploite en réalité et sans qu'on le dise, des effets de "fusion froide" qui surviennent lors des décharges électriques surpuissantes qui y sont déclenchées. Bref exploiter la fusion froide en la faisant passer pour la fusion chaude est peut être la stratégie prioritaire du DoD pour maintenir la chape de plomb aussi longtemps que possible sur les "rayonnements étranges" (mbls) et leurs applications militaires.


24/9/2012

A la reflexion, il est plus que probable que l'info qui est l'objet de ma new précédente sur cette page, du 14/9/2012, soit une intox, une intox d'autant plus efficace qu'elle est propagée via des docs officiels de l'AIEA! C'est mon collègue JP Biberian, chercheur actif en fusion froide qui m'a parlé de ces infos qu'un individu qu'il a rencontré voulait lui faire publier
tout en gardant lui même l'anonymat...et Jean-Paul préférait que ce soit moi ou JP Petit qui les publie...Ca m'ennuie car certains pourraient croire que je fais partie d'un reseau qui intoxique internet avec des fausses infos. J'ai donc demandé à Jean-Paul des précisions sur ce contact...
Je pense que l'intox aurait surtout pour objectif de faire croire que les militaires US avaient de bonnes raisons, une "bonne" fin qui justifierait les moyens, d'etouffer la fusion froide. Une telle manipulation pourrait être utile à l'heure ou des services de renseignement d'autres puissances alliées des USA comme la France sont en train de réaliser qu'ils ont été roulés depuis le début sur la fusion froide.
Cette raison qui excuserait tout serait la volonté d'éviter à tout prix la prolifération nucléaire. En réalité je doute fortement que la fusion froide puisse fournir suffisamment de neutrons rapides pour fissioner l'Uranium de petites bombes et même si c'etait le cas c'est complètement dérisoire en comparaison de toutes les ouvertures technologiques permises par la fusion froide, et qui sont pour la plupart sans doutes totalement inouies, comme c'est toujours le cas suite à une véritable révolution scientifique. Les applications militaires que nous n'imaginons même pas de la fusion froide tenue secrête, sont de toute évidence pour le moment à vocation exclusivement criminelle et axées sur le concept d'armes naturelles : armes permettant de detruire ou affaiblir l'ennemi en faisant croire à un phénomène catastrophique naturel en usant de technologies dont aucun expert au monde ne saura reconnaitre les effets et pour cause (citons les armes à micro foudres en boule, armes à fusion froide utilisées le 11/septembre/2001 pour detruire les tours jumelles en imitant un effondrement naturel mais pourquoi pas des armes naturelles bien plus dévastatrices: le declenchement de tremblements de terre et de tsunamis, d'ouragans, la déviation d'asteroides sur des cibles, le declenchement de pandémies, etc...). C'est mieux de pouvoir detruire l'ennemi ou concurrent économique sans qu'il y ait de responsable apparent, et beaucoup plus safe et profitable que de declencher un conflit pouvant dégénérer en guerre mondiale nucleaire. Et si le phénomène "naturel" était déclenché le 21/12/2012 ca pourrait être encore plus marrant pour les sacs à merde qui tirent les ficelles.

14/9/2012

On m'a signalé un échange dans un forum de FS où un individu sous le pseudo d'"Arapède" attire notre attention sur
le rapport du Conseil des Gouverneurs de l'AIEA, (Réf : GOV/2011/29 du 24/05/2011) au sujet des applications militaires du nucléaire Iranien. Dans le domaine des préoccupations du Conseil sont mentionnées (p.8) :"les expériences mettant en jeu la compression explosive de deutérure d'uranium pour produire de brèves décharges de neutrons" .

Or une compression explosive ne peut conduire aux conditions de température et pression pouvant déclencher des réactions nucléaires comme la fusion DD qui serait la source des neutrons sauf si la physique impliquée est la fusion froide. Il y aurait donc un aveu implicite dans ce rapport officiel que la fusion froide a été développée et qu'elle est en particulier utilisée pour générer des bouffées de neutrons de très faible énergie (neutrons thermiques) eux mêmes capables de déclencher un nombre proportionnel de fissions de l'uranium 235 car leur grande section efficace à ces énergies compense la faible fraction d'U235 (à moins qu'il ne s'agisse de neutrons de hautes énergies fissionant  l'U238 mais selon moi les neutrons produits par fusion DD au coeur des micro boules de lumière, sont pour la plupart thermalisés avant de pouvoir s'échapper de ces objets extrêmement denses, seuls ceux produits pres de la surface s'echappent à haute énergie). Bref, cela permet d'avoir des armes non enrichies en Uranium 235 (donc Uranium naturel ou appauvri) mais dans lesquelles des noyaux d'U238 ou d'U235 peuvent être tous fissionnés simultanément par la bouffée de neutrons générés par fusion froide (mais pas de criticité donc pas de réaction en chaine possible comme dans les bombes A usuelles), bref la mini arme nucléaire qui est le Graal des militaires français, notamment. Cela justifierait que  la fusion froide ait été discréditée et maintenue secrête pendant des décennies : elle faciliterait en effet la prolifération de petites armes nucléaires quasiment à la portée de tous, les techniques d'enrichissement complexes et longues devenant complètement inutiles.

Mais comme je l'ai souvent expliqué, la fusion froide est surtout liée à l'existence d'objets de nouvelle physique, les mini foudres en boule, et que si des flux intenses de ces objets peuvent être produits et guidés, on dispose comme l'a précisé Shoulder l'un de leur codécouvreur, d'un autre type d'arme beaucoup plus avancé que l'on peut eventuellement qualifier d'arme à énergie dirigée permettant de désagréger en silence et sans générer de champignons à ultra hautes températures et radioactifs, les structures visées, arme qui a probablement été utilisée le 11/9/2001.

Que les applications militaires de la fusion froide aient été développées bien avant les applications pacifiques comme par exemple fournir une source quasi illimitée d'énergie gratuite et propre mais aussi des matières premières par transmutation, ne surprendra personne. A mon sens la seule façon d'éviter une guerre mondiale extrêmement meurtrière qui se profile est d'inverser la tendance i.e. de développer les applications pacifiques suffisamment rapidement pour qu'une nouvelle source illimitée de richesse et de prospérité atténue et élimine rapidement les frustrations issues de la guerre économique et enraye l'escalade de l'aggressivité tout en ouvrant la perspective d'une rapide autonomie énergétique et pourquoi pas matérielle des individus ou foyers (énergie produite localement à l'echelle de la propriété individuelle et permettant de faire fonctionner toutes les machines agricoles et autres assurant les besoins alimentaires essentiels en parfaite autarcie).


14/9/2012

Message de réponse de Defkalion:
"We are sorry for the inconvenience but unfortunately, because we are in the position of manually deleting and banning hundreds of advertizing and spam posts and users every day, we may have deleted yours."
Mais je ne peux toujours pas me reinscrire au forum: mon email est refusé.
...

MaJ: Ca y est , quelques jours plus tard mon accès a été rétabli mais tous mes posts sont définitivement perdus.

12/9/2012


J'avais initié un échange très cordial et même sympathique sur le forum de Defkalion où j'ai posé quelques questions qui ont été appréciées par le porte parole de Defkalion sur le forum et ou j'expliquais pourquoi leur dernière publication venait à l'appui d'un certain nombre d'idées que je supporte depuis longtemps. Sans préavis ni explication, tous mes posts sur le forum de Defkalion ont été effacés (il n'y a plus que les posts de réponse de Defkalion ici) et mon compte sur le forum a été supprimé également deux fois de suite (car j'ai tenté de me réenregistrer). J'ai aussi envoyé un email à l'administrateur pour comprendre ce qui se passe... j'attends une réponse!

4/9/2012

Defkalion publie à ICCF-17 et un certain nombre de révélations confirment ma compréhension des phénomènes de fusion froide en liaison avec les discontinuités de la théorie DG et les micro foudres en boule produites par des décharges électriques: Defkalion utilise bien des bougies pour déclencher periodiquement des décharges électriques
 
J'ai initié un échange sur le forum de Defkalion

J'ai posté également dans le groupe H-Ni fusion

Mon nouveau chapitre consacré aux micro foudres en boule (dernière section : analyse thermodynamique), ca marche vraiment bien!

4/9/2012

Les vitesses supra luminiques mesurées par Opera étaient exactement de l'ordre de grandeur attendu pour des particules se propageant dans le versant obscur dans le cadre des théories avec gravités conjuguées (Dark Gravity, les univers Jumeaux de JP Petit, la théorie d'antigravitation de S Hossenfelder).
nouvelle version 31/8/2012

Mais tout ceci ne restera sans doutes qu'une stupéfiante coincidence :
les quatre détecteurs enfouis sous le Gran Sasso, dont celui de la fameuse expérience Opera, ont rendu leur verdict. Les neutrinos muoniques ne violent pas la théorie de la relativité en allant plus vite que la lumière. Les résultats précédents d’Opera qui semblaient donner tort à Einstein étaient dus au branchement défectueux d’un câble de synchronisation optique des horloges de précision employées. Il n'y aurait donc aucune indication à ce jour que les neutrinos se propagent couramment en oscillant entre la métrique du versant obscur et la notre.

14/8/2012

Une publication interessante à ICCF-17
Je cite : "results indicated that there were at least two channels - an aneutronic channel that produced heat (the so-called true Fleischmann-Pons effect) and another channel that favored formation of energetic charged particles, neutrons, and tritium."
Ceci est effectivement ce que predit mon modèle basé sur les micros foudres en boule (mlbs) quelque peu détaillé ici: ces mlbs peuvent produire de la chaleur sans réactions nucléaires mais peuvent aussi favoriser des réactions nucléaires grâce aux pressions colossales qui peuvent y être atteintes.

3/8/2012

Une étape importante avant de revenir à la calorimétrie: maitriser le plasma au micro-ondes (ce n'etait pas le cas jusqu'à present). J'y parviens en suivant les conseils de Gyorgy Egely et en repliquant sa manip de base au micro-ondes.
J'ai fabriqué le support en quartz (dont les feuilles peuvent être commandées ici) pour mon tube en alumine et effectivement la poussière obtenue après quelques minutes de plasma est très magnétique. Ceci dit les mines de crayon que j'utilise  sont déjà magnetiques avant manip mais beaucoup moins me semble t'il. Pour eviter ce biais je refais la manip avec une pointe de graphite tres pur. J'obtiens egalement un plasma mais au final pas de magnetisme notable des résidus... tout cela flaire l'arnaque à plein nez ...

3/6/2012

On ne pourra en toute rigueur conclure à un apport d'energie anormal (dans la manip du micro-ondes) que si la puissance par laquelle le fluide caloporteur  (l'eau) est chauffée excède 1250 Watts mesurés à la prise secteur par le WattmètreL'objectif de l'installation etant seulement en définitive de pouvoir éventuellement verifier indépendamment des effets de l'ordre de ceux qu'avancent Rossi et Defkalion, donc quelques kWatts, elle est tout à fait adaptée.

Attention: malgré toutes les précautions pour assurer l'hermeticité de l'installation il est difficile en pratique d'empecher jusqu'à quelques centaines de Watts de fuite du micro-ondes, aussi il suffit de se tenir à distance du four lorsqu'on le met en marche en le branchant au secteur (prévoir une ralonge de quelques mètres) pour que le niveau de puisance par cm^2 soit totalement inoffensif pour l'experimentateur comme on peut s'en assurer avec ce genre de petit détecteur bon marché.


On peut aussi mesurer la différence entre la puissance apportée à l'eau quand la poussière est présente dans le tube et quand elle n'y est pas, mais un tel excès (que j'ai observé) s'il n'est que de quelques dizaines de Watts peut toujours être interprété comme un meilleur couplage EM du micro ondes à la charge eau du circuit + poussière métallique qu'à la charge eau seulement.

22/5/2012

Une révélation majeure à l'inspection de photos fournies par Defkalion: la présence d'une bougie (slides 13, 14 et 18) dans leur réacteur donc une confirmation inespérée du rôle essentiel des décharges électriques pour initier et peut être même entretenir les réactions. Cela ne peut être en aucun cas accidentel ou une gaffe, ...certainement soumis à des pressions qui les ont obligés à annuler leur dernière démonstration Defkalion a du réaliser que la seule chose qu'il leur restait à faire était de faire sortir les infos.

De mon coté j'ai maintenant une installation qui fonctionne et qui me permettrait de mettre en évidence d'importants excès de chaleur produite, mais pour le moment je ne teste que de la poudre de fer micrometrique (grains de 25 microns) à l'air ou Argon (pour éviter l'oxydation) et à pression atmosphérique. Photo, video1 (circuit d'eau 0.5l/minute), video2 (insertion tube central), video3 (positionnement magnétique de la poudre métallique au centre du tube et application champ magnétique permanent).
La hausse de température de l'eau enregistrée à la sortie me permet de calculer entre 750 et 800 Watts de puissance fournie (plus à la poudre métallique qu'à l'eau directement comme des tests antérieurs m'avaient permis de le vérifier) par mon four de 800 Watts. 800 Watts est une indication du puissance utile par lequel le micro-ondes chauffe effectivement les aliments placés dans la cavité, mais la puissance consommée au secteur est nettement supérieure, près de 1250 Watts, la différence étant soit due à des fuites soit au chauffage de divers éléments métalliques du four, y compris au niveau du magnétron.
On ne pourra en toute rigueur conclure à un apport d'energie anormal que si la puissance par laquelle le fluide caloporteur  (l'eau) est chauffée excède 1300 Watts mesurés à la prise secteur par le Wattmètre.  L'objectif de l'installation etant seulement en définitive de pouvoir éventuellement verifier indépendamment des effets de l'ordre de ceux qu'avancent Rossi et Defkalion, donc quelques kWatts, elle est tout à fait adaptée.


Etapes suivantes :

- ajouter dans le tube ce qu'il faut pout avoir des décharges électriques plus puissantes (si possible, quelque chose de plus durable qu' un grain de raisin) au voisinage de la poudre
- coller un embout métallique pour pouvoir ensuite injecter de l'hydrogène sous pression dans la gaine (tube dont une extrêmité est fermée) centrale.

Attention: malgré toutes les précautions pour assurer l'hermeticité de l'installation il est difficile en pratique d'empecher jusqu'à quelques centaines de Watts de fuite du micro-ondes, aussi il suffit de se tenir à distance du micro-ondes lorsqu'on le met en marche en le branchant au secteur (prévoir une ralonge de quelques mètres) pour que le niveau de puisance par cm^2 soit totalement inoffensif comme on peut s'en assurer avec ce genre de petit détecteur bon marché.


26/4/2012


Le catalyseur des effets "fusion froide", c'est ma conviction depuis longtemps, ce sont des décharges électriques.

(Dailleurs , des publications récentes mettent en évidence une production par les éclairs de foudre de rayons gammas, d'antiparticules mais aussi de neutrons de basses énergies avec des flux 1000 fois plus importants que ne le laissaient attendre les modèles. Est il possible que les mlbs (micro foudres en boule, qui sont des rayonnements également très pénétrants ) aient été confondues avec des neutrons de basses énergies?)

Mon micro-ondes de cuisine avec ses 800 Watts, et 2.4 GHz est ce qu'il y a de meilleur marché de plus puissant et de plus abordable pour le particulier.

- Il produit des impulsions de chaleur et des arcs electriques  :  toute poudre métallique y est chauffée au rouge vif en quelques secondes seulement !
- D'innombrables micro-décharges (étincelles et craquements)!
- On peut régler avec le bouton  usuel la puissance totale instantanée de 800W pour qu'elle soit délivrée une fraction du temps seulement.
- On peut aussi régler  la puissance instantanée délivrée par gramme de poudre simplement en jouant sur la masse totale de poudre mais aussi le volume d'eau que l'on place par ailleurs dans le four pour le charger
Voici les premières photos de deux tubes d'Alumine traversant mon microondes (l'alumine resiste à des hautes température et conduit bien la chaleur et surtout est transparente aux micro-ondes et ne charge pas le microondes: seule dans le micro-ondes elle ne chauffe pas)

mw1.JPG (tubes concentriques d'Alumine)
mw3.JPG
mw4.JPG
Bien sur veiller à l'hermeticité metallique du blindage!

- Dans le tube central seront le gaz sous pression et la poudre metallique
- Entre les tubes interne et externe l'eau circule et refroidit le tube central : l'eau bien sur capte une partie de la puissance délivrée mais il ne peut y avoir au plus que 80cl dans l'interstice entre les 2 tubes
donc l'essentiel de la puissance est délivrée à la poudre
- La calorimetrie s'effectue en comparant les temperatures en entrée et sortie de l'eau
Simple et pas très précise calorimetrie mais evidemment suffisamment pour voir un cop tel que ceux annoncés par Rossi et Defkalion  ... si les impulsions de chaleur et electriques sont en réalité le "catalyseur"...
- On peu facilement ajouter un champ magnétique en placant un aimant à l'interieur du four contre le tube externe qui adherera par magnetisme avec la poudre : les aimants usuels sont des oxydes donc chauffent peu au micro onde et ne perdent donc pas leur aimantation.

Les seuls problèmes qu'il me reste à résoudre sont mécaniques: ayant choisi des dimensions de mes tubes non standards, impossible de trouver dans les magasins de bricolage et de plomberie les tubes de métal aux dimensions adequates pour collage aux extrémités des tubes d'alumine, ... si vous vous lancez dans l'aventure ne faites pas la même erreur! je vais ptet devoir commander des pièces sur mesure ... (plus cher)

20/3/2012


La mesure d'Opera de neutrinos avec des vitesses superieures à celles de la lumière vient d'être contredite pas une autre experience, Icarus qui a étudié les mêmes neutrinos (du même faisceau), à la même période (cet automne), entre les mêmes points de depart et d'arrivée (CERN et Gran Sasso) , avec les mêmes horloges et système GPS de référence (autant que j'ai pu comprendre), et qui trouve pile poil la vitesse de la lumière. Tout cela flaire l'arnaque et le discrédit programmé à plein nez! Théorie de la conspiration ? pourquoi pas ... Si des neutrinos vont plus vite que la lumière, il s'agit d'une decouverte fondamentale de premier plan, de celles qui peuvent provoquer un changement de paradigme avec des retombées technologiques inouies à plus ou moins long terme et donc une superiorité militaire ecrasante à celui qui s'assurerait l'exclusivité de cette decouverte. De ce point de vue il est en fait quasi inconcevable que les militaro-nationalistes de l'empire ne tentent pas d'accaparer ce genre de resultat en le decredibilisant mediatiquement comme ils l'ont déjà fait pour la fusion froide. Donc ce qui est en train de se produire était en fait tout à fait prévisible. Une erreur de 60ns due à une connexion optique defaillante dans Opera? Les  physiciens d'Opera n'avaient ils pas pris tout leur temps pour mesurer et verifier soigneusement tous les éléments de la chaîne y compris cette connexion contrairement à ceux d'Icarus qui pondent leur papier après quelques mois seulement ? Extrêmement louche !


15/3/2012


Le 26/2 j'écrivais (plus bas dans cette page):

"Je m'attends à ce qu'en toute logique le système ne permette encore à la recherche publique de poursuivre ses activités que dans la mesure ou elle ne découvre rien d'important, tout écart étant immédiatement repéré par des professionnels dont la mission va être d'enterrer les résultats afin qu'ils soient exclusivement exploités par les scientifiques qui travaillent pour l'armée. Une mission pas très compliquée en fait, les résultats nouveaux étant souvent accueillis avec scepticisme, il ne suffit pas de prouver qu'ils sont invalides mais juste d'avancer des scénarios et des effets qui pourraient les invalider...même s'ils ne tiennent pas la route examinés plus soigneusement."
Pas très difficile de deviner quelle devrait être la stratégie des militaires desireux non seulement de profiter de toutes les découvertes avant tout le monde mais aussi d'empêcher les concurrents éventuels d'en avoir connaissance:

1) D'abord noyauter toutes les collaborations scientifiques si possible à un niveau élevé de responsabilités pour avoir accès aux informations à la source et en avant-première.
2) En provoquant des scandales, inciter les scientifiques du public à une attitude extrêmement frileuse vis à vis des découvertes et anomalies potentielles: qu'ils mettent tout en oeuvre pour que les anomalies "ne sortent pas" des collaborations et lorsqu'elles sortent malgré tout, lancer des opérations de discredit sur le net, dans les forums et blogs mais aussi dans les conférences ! Par exemple dans la seule présentation dédiée aux résultats d'Opera sur les neutrinos plus rapides que la lumière à la récente conférence de Moriond (the price for neutrino superluminality) , la première et la dernière diapo sont assez explicites: il s'agit clairement de faire comprendre à un experimentateur que quelqu'un de serieux ne peut apporter le moindre credit à l'idée que les neutrinos puissent aller plus vite que la lumière en quelques circonstances que ce soit et de mettre la pression sur les experimentateurs d'Opera qui effrayés, adopteront de façon irrationnelle le premier effet systématique susceptible de faire rentrer l'anomalie dans le rang.

Il n'y a qu'une seule réaction efficace : la transparence maximale, faire sortir tous les résultats aussi vite que possible avec juste les précautions d'usage comme l'étiquette preliminaire sur les slides. Aucune raison valable de pratiquer le blackout. Tout le monde peut comprendre que dans des analyses complexes les physiciens aient le droit à l'erreur.


Petite remarque supplémentaire au passage sur un résultat récent qui m'a intrigué: suite à la publication cet automne des résultats d'ATLAS et CMS semblant indiquer les premiers indices de Higgs à 125 GeV, les physiciens de Fermilab ont entièrement refait leurs analyses et avec seulement 25% de statistique en plus, publient eux aussi un excès impressionant là ou il n'y avait encore rien l'été dernier (
Seeking the BroutEnglertHiggs Boson New Results from Tevatron Experiments (slide 8)): un véritable petit miracle qui aurait été rendu possible entre autres par un meilleur B-tagging! Mais cela fait pourtant des années que les physiciens de Fermilab travaillent nombreux sur le Higgs, pourquoi les analyses de l'été dernier étaient elles encore si primitives qu'elles ont complètement manqué cet excès ... bref souhaitons leur que le Higgs soit effectivement découvert au LHC à pres de 125 GeV à la fin de l'année ...

14/3/2012


Message que je viens de poster sur le forum H/Ni :


I asked two questions on the web site ecat-com but they appear to have been deleted, i cant find them anymore.
The questions to Rossi were:
1) With all those "snakes and puppeteers" as you often say, isn't it a bit naive to ignore that the big trusts and corporations you are collaborating with, could easily be controlled by the same puppeteers with mission to delay as much as possible the public diffusion of your products and ideas ?
2) If rf heating is not efficient as you say in your previous answer to another message why is my iron powder getting red hot in several seconds only in my kitchen microwave ?

Vous pouvez suivre toutes mes interventions sur cette page du forum par exemple mes msgs 1491 et 1501

26/2/2012

L'essentiel de ce site est consacré à promouvoir une theorie alternative de la gravité : DG dont la visibilité reste quasi nulle en partie à cause des blocages des revues à referee. Voir à ce sujet les réponses des referees de PRL avec mes commentaires dans mes précédentes news sur cette page. J'ai donc misé depuis longtemps sur les nombreuses prédictions de mon cadre théorique et ce faisant sur un pari : que lorsque les anomalies seraient découvertes elles ne seraient pas immédiatement etouffées pour être accaparées par les militaires ou que lorsque elles le seraient, il y aurait des fuites et des gaffes. Un pari complètement deraisonnable en fait sachant que l'essentiel des tests precis de la gravité sont effectués par des sondes US (une nation pratiquement perpetuellement en guerre depuis qu'elle existe avec un budget du Dept of Defense qui a explosé et qui n'est pas seulement le budget militaire le plus gros au monde et de tous les temps mais aussi plus important que l'ensemble des autres dépenses militaires de la planète) et que le contrôle sur la diffusion et l'impact médiatique de ce type d'anomalie (pouvant signaler une possible revision du paradigme actuel et donc à plus ou moins long terme des avancées technologiques spectaculaires pouvant conduire à une suprématie militaire incontestable) doit être considéré comme une priorité majeure par les militaro-nationalistes de l'empire mais aussi de toutes les autres nations. Je m'attends à ce qu'en toute logique le système ne permette encore à la recherche publique de poursuivre ses activités que dans la mesure ou elle ne découvre rien d'important, tout écart étant immédiatement repéré par des professionnels dont la mission va être d'enterrer les résultats afin qu'ils soient exclusivement exploités par les scientifiques qui travaillent pour l'armée. Une mission pas très compliquée en fait, les résultats nouveaux étant souvent accueillis avec scepticisme, il ne suffit pas de prouver qu'ils sont invalides mais juste d'avancer des scénarios et des effets qui pourraient les invalider...même s'ils ne tiennent pas la route examinés plus soigneusement. Je pense aux publications récentes visant à démontrer que l'effet Pioneer n'était qu'un artefact de rayonnement asymétrique de la sonde en s'appuyant sur des simulations obscures (difficilement vérifiables) et donnant systématiquement des résultats qui contredisent des arguments et calculs qui sont eux pourtant extrêmement simples et faciles à vérifier, comme ceux exposés par Anderson depuis longtemps dans ses publication successives sur l'effet Pioneer (voir plus loin). Dans ce contexte, les nouvelles concernant la decouverte d'effets systématiques pouvant affecter les mesures de la vitesse supraluminique des neutrinos
par Opera et le traitement médiatique qui en est fait ne m'etonnent pas : c'est plutot le contraire qui m'aurait énormément surpris. J'avais déjà évoqué un ensemble de magouilles scientifiques plus que probables visant à chaque fois à faire rentrer les observations dans le rang, comme par exemple le traitement du quadrupole dans Wmap ou encore les analyses de Gravity probe B mais aujourdhui aucune manip n'est à l'abris y compris les géantes du LHC qui peuvent être noyautées par des individus qui ont mission de faire découvrir aux scientifiques du public ce qu'ils attendent et d'aiguiller les authentiques résultats vers les scientifiques militaires.

Dans le cas de l'effet Pioneer, il demeure une dérive fréquentielle inexpliquée d'un signal par rapport à une référence et qui peut s'expliquer parfaitement par le fait que le temps ne s'ecoule pas de la même façon au niveau de deux horloges à un niveau ou un autre de l'échange et du traitement des signaux entre la sonde et la terre (une prediction de DG en parfait accord quantitatif avec la mesure de l'anomalie Pioneer) . Si l'electronique à bord de la sonde réalise correctement la multiplication de fréquence (via PLL) entre le signal montant et le signal descendant on ne devrait en principe pas être sensible à la nouvelle physique pouvant eventuellement faire dériver les oscillateurs à bord (à condition de prndre au serieux la description qui en est faite dans les publis de la NASA, terrain pas forcément au dessus de tout soupçon). IL faudrait alors incriminer la dérive relative de deux horloges terrestres ce qui est aussi difficile à envisager étant donnés les tests auxquels ont été soumises toutes les horloges. D'un autre coté si ce type d'anomalie a été repéré et son origine identifiée assez tôt, il faut s'attendre à des magouilles ou descriptions volontairement incomplètes ou falsifiées de la chaîne de traitement. La publication de l'effet Pioneer serait dont une gaffe. D'autre part également si les horloges terrestres derivent communement les unes par rapport aux autres cela doit affecter un grand nombre d'observables et d'instruments comme par exemple le GPS et dans ce cas le fait que ces anomalies n'aient pas été ébruitées signifierait que la désinformation et la dissimulation continuent de s'exercer à grande echelle avec une incroyable efficacité, une possibilité qu'il faut avoir la clairvoyance d'envisager serieusement.

En ce qui concerne les maladroites explications de l'effet Pioneer par un rayonnement asymétrique j'ai relevé les points suivants dans un récent article de Bertolami :

- En ce qui concerne le rayonnement émis par les RTG et intercepté par l'antenne, Anderson avait calculé au maximum 4 Watts. Il s'agit d'un simple calcul d'angle solide sous lequel est vue l'antenne depuis les RTG. LA contribution suivant z et la fraction d'énergie réfléchie ne peut qu'aboutir à un résultat déjà significativement inferieur à 4 Watts. Pourtant en appliquant les formules du papier de Bertolami je trouve en fonction du scénario jusqu'à plus de 10 Watts. Si Bertolami and co trouvent plus c'est qu'Anderson s'est planté de façon répétée dans ce calcul élémentaire dans toutes ses publis! De plus cet effet (4 Watts) a été soustrait par Anderson : l'effet Pioneer serait plus grand sinon. Bertolami and co ne devrait donc pas tenir compte de cette contribution potentielle à l'effet Pioneer sans y retrancher 4 Watts, ce qu'ils ne font manifestement pas.
- En ce qui concerne tous les effets de shadow : l'énergie interceptée par l'antenne et non réfléchie devra de toute façon être réémise tot ou tard et il y a toutes les chances qu'elle soit réémise plutot vers le soleil puisque c'est le coté de l'antenne qui a de loin la plus grande émissivité. Par conséquent il est assez logique qu'une bonne partie de l'énergie émise par la partie arrière du compartiment et absorbée par l'antenne sera à nouveau réémise vers l'arrière ce qui doit réduire considérablement l'asymétrie avant arrière.
- L'émissivité de la partie avant au niveau des "louvers" avec une face externe en aluminium est très faible par conséquent les hypothèses sur la quantité de rayonnement émise par l'avant de 40 à jusqu'à 54 Watts sont complètement délirantes. J'ai vérifié l'argument d'Anderson qui disait que pour 1 mètre carré emettant 57 Watts vers l'avant avec une emissivité de 0.04 il faudrait une température de cette surface de 124°C !! ... alors que toutes les cartes de températures que j'ai pu voir publiées par ailleurs donnent des températures négatives sur les surfaces externes et même à l'interieur du compartiment ...

j'ai relu le papier récent de Turyshev également:

- la décroissance de l'effet Pioneer est réelle mais très faible: complètement absurde de fiter cela par une exponentielle seulement (sans barres d'erreurs et dans un plot séparé en plus) sachant que si l'effet n'etait dû qu'a un rayonnement thermique anisotrope l'effet aurait du decroitre de pres de 30% de 1987 à 1998 alors qu'il est resté quasi constant sur cette période comme le soulignait déjà Anderson en 2002. Par contre si on ajustait par une exponentielle decroissante plus une constante qui serait l'effet Pioneer corrigé des effets de radiation anisotrope à vue de nez je dirais que l'effet Pioneer devrait être diminué de ~10 à 15% maximum ce qui pourrait bien le rendre encore plus compatible avec la prédiction de DG : f '/f = 2 H_0

- Contrairement à ce qu'affirme l'article il semble bien que l'effet Pioneer ait émergé en 1978-1979 dans les données de Pioneer 11, au large de Saturne à condition de ne considérer que le valeur et erreur suivant la direction liant le soleil à Pioneer (4.48 +- 0.5 10-10 m/s2 d'après la table 3 ici entre 5 et 15 UA donc significativement différente de l'accélération Pioneer mesurée au delà de 20 UA) et pas les directions perpendiculaires affectées d'erreurs bien plus importantes.


Bref, en lisant ce papelard et d'autres on a franchement l'impression d'un canular à moins que ceux qui l'ont écrit se soient dit quelque chose dans le genre "de toutes façons ils y croient tellement pas à l'effet Pioneer qu'on peut leur raconter n'importe quelle connerie, ils goberont tout sans sourciller".
Dans quel but ? Je ne pense pas qu'il s'agisse seulement d'enterrer l'effet Pioneer pour des raisons de politique scientifique de la NASA comme le pensent ceux qui connaissent bien la problématique de l'effet Pioneer. Je crois plutot qu'ils ont confirmé l'effet Pioneer et qu'ils ont décidé de classifier. Une fois de plus, nouvelle physique peut signifier avantage dans la course à la suprématie technologique militaire...et la physique des LENR n'en parlons pas! quoi d'etonnant à ce que les developpements récents soient entourés d'un tel voile de confusion favorable au scepticisme. Si les manips sont simples, les résultats ne devraient ils pas être reconnus sans ambiguités par les scientifiques invités à tester les réacteurs (de Rossi ou de Defaklyon) même s'ils n'ont pas accès à l'interieur de la boite noire (qui demeure sous le sceau du secret industriel) ?



17/2/2012

Nouvelle salve de PRL avec ma réponse ici.



30/12/2011

J'ai soumis pour publication mon article sur les neutrinos supraluminiques dans phys Rev Lett non parceque j'avais la moindre illusion sur la possibilité qu'il soit accepté pour publication mais seulement pour faire comprendre à ceux qui me demandent pourquoi je ne perd pas mon temps à essayer de publier ailleurs que sur mon site. Verdict de PRL avec ma réponse ici.
L'article est un article de phénoménologie qui est une confrontation tres simple des prédictions de théories à gravités conjuguées aux observations de l'experience Opera. Les referees n'avaient donc pas à critiquer les idées des articles théoriques de mes références publiés dans des revues à referee (IJMPA, Phys Rev D) mais juste à verifier que le calcul de la prédiction était correct, mais au lieu de cela les referees expliquent  qu'ils ne croient pas dans les résultats tres  contestés d'Opera, que l'article est mal présenté et l'un d'eux se lancent même dans une série d'objections aux théories avec gravités conjuguées qui n'ont pas lieu d'être ici et qui sont d'un niveau extrêmement bas et montrent qu'il n'a même pas pris la peine de faire un effort de comprehension minimal de ces cadres théoriques ...

30/12/2011

Réactualisation de ma page sur les conséquences de l'efet Pioneer. Certaines mlbs, mais peut être toutes sont de véritables étoiles miniatures avec des températures et pressions nettement supérieures à celles regnant au centre du soleil.



27/12/2011

De la poussière de magnétite (oxyde de Fer tres bon conducteur contrairement à la rouille) au four à micro-ondes est chauffée au rouge vif en quelques secondes ce qui prouve qu'elle est le siège d'intenses micro-courants voire micro décharges. Il serait interessant de voir si cette poussière eventuellement ainsi activée (chargée en micro foudres en boules en présence d'un fort champ magnétique permanent) pourrait produire de l'énergie dans un reacteur type e-cat (l'analyse du spectre donné par Rossi a révélé  le Fer comme élément dominant dans la poussière de l'e-cat) : i.e avec de l'hydrogène à haute température et pression. Pour le moment je ne m'explique par qu'un aussi petit volume de poussière puisse capter autant d'énergie électromagnétique (plusieurs kiloJoules) du micro-ondes de 800 Watts en si peu de temps...alors qu'un morceau de métal en une pièce (sans pointe susceptible de produire un arc electrique avec les parois) ne chauffe pas plus que les habituels aliments dans ce même four micro-ondes ...

22/12/2011

Comme promis voici mon point sur le réacteur de Rossi (traduction de mon post
sur le forum H/Ni ). D'après le site new_energy_times, deux spectres ont été produits par Rossi correspondant à deux echantillons  A et B de son E-cat. A et B sont documentés dans cet article de Rossi d'après lequel:

- A a été obtenu après un test court ayant produit 288 kWh
- B
a été obtenu après un test long ayant produit 4774 kWh

Les deux montrent que la poudre dans le réacteur est essentiellement constituée de Fer!

B montre une haute concentration de Cuivre (pics à 63 et 65 unités de masse atomique) qui n'était pas en A.
 
Cela prouve donc l'existence d'une réaction ou chaine de réactions partant de  Fe (54, 56, 57) (plutot que Ni) et aboutissant à Cu principalement,
 Ni (60, 61, 62, 64) n'étant qu'un élément intermédiare dans cette chaine. En effet :
 
1) Le rapport des abondances Ni/Fe est supérieur en B qu'en A suggerant que Fe a été consommé et Ni produit à partir de Fe bien que le pourcentage d'
Ni soit resté quasi constant de A à B (Ni étant lui même transmuté progressivement en Cu).

2) Le taux de Cu dans le test long (B) est bien supérieur au taux cumulé de Ni + Cu dans le test court (A) , il n'y avait donc initialement pas suffisamment de Ni en A pour produire tout le Cu observé en B, sauf si des réactions ont régénéré le Ni au fur et à mesure.

3) Les abondances isotopiques d'Ni sont vraiment anormales en A, avec un rapport Ni60/Ni61 très différent du naturel, mais semblent converger dans le temps
(de A à B) vers les abondances naturelles.

4) Fe et Cu ont des abondances isotopiques apparemment naturelles, compte tenu des précisions des graphes.

Les "réactions" semblent affecter les abondances de nombreux autres elements qui sont soit produits soit consommés en de  larges proportions de A à B.

Donc on ne peut pas à partir de ces spectres affirmer que le reacteur produit de l'energie juste par transmutation de Ni en Cu.
Il y a plutot de nombreuses transmutations qui ont lieu en parallèle et en particulier de Fe à Cu via Ni.

Peut on trouver quelque part une publication scientifique mettant en évidence à peu près exactement les mêmes incroyables processus à l'oeuvre en parallèle  aussi significativement ? la réponse est affirmative!

Dans les expériences du RECOM de puissantes décharges électriques dans un pur feuillard de Ti ont produit de nombreux éléments transmuttés au niveau du pourcent retrouvés dans la poussière résiduelle après l'explosion électrique de la feuille (cf figure 3) où les éléments dominants apparus sont Na, Al, Si, Ca, Cr, Fe, Cu, Zn la plupart les mêmes et dans des proportions relatives comparables à celles des spectres de la poudre de l'E-cat excepté le Fer ce qui peut s'expliquer simplement si la poudre de l'E-cat a été générée par décharges dans des feuillards de Fer plutôt que de Titane, ou si les mlbs (micro foudres en boule) produites dans ces décharges ont été piégées dans de la poudre de magnétite (le RECOM a montré que les mlbs sont magnétiques) située au plus près du point de décharge. En effet, les Russes ont expliqué avoir obtenu des résultats similaires (transmutations en série) avec des décharges partant de Fer mais aussi d'autres éléments testés.

Mon interpretation est qu'une variété de réactions (transmutations) normalement interdites à de telles énergies peuvent avoir lieu à l'interieur des mlbs parceque les interactions fondamentales voient leurs constantes de couplage modifiées à l'interieur des mlbs mais il se pourrait aussi que certaines mlbs produiset des températures semblables à celles que l'on trouve dans ITER (centaines de millions de degrés). L'équipe Russe a notamment montré que les demi-vies de noyaux tels que l' Uranium 235 ont été modifiées dans le récipient ou s'effectuaient les décharges.

Ils ont aussi trouvé que la décharge électrique a pulvérisé la feuille et que parmis les microparticules produites, de nombreuses étaient creuses avec de l'hydrogène
(dont la haute pression avait dû générer la cavité) à l'interieur mais pas d'oxygène (alors que les décharges s'effectuent dans un récipient d'eau H2O) et que certaines de ces particules étaient contaminées par de nouveaux éléments très lourds (Pb, Au).

Je pense donc que la poudre du reacteur de Rossi a été obtenue par de puissantes décharges électriques dans du Fer à moins que les mlbs produites dans de telles décharges aient éte magnétiquement piégées dans une poudre de Fer ou magnétite Fe3O4 au voisinage du fil de décharge ceci permettant à des transmutations de se poursuivre dans la poudre une fois celle-ci immergée dans de l' H2 à haute pression (comme suggéré par les observations sur les sphères creuses) et à des températures avoisinant  le point de curie du Fer (donc legerement en dessous de 1000K) pour que les mlbs soient plus libres de se déplacer et de trouver du nouveau carburant H2 dans les interstices du métal sans les laisser s'échapper dans la nature pour autant, ceci dans le cas où les mlbs furent piégées dans du Fe (je privilégie cependant Fe3O4 plus magnétique) .

Je parie que c'est ainsi que des KWatts peuvent être produits à partir de 100 grammes de poussière au lieu de seulement quelques Watts si la poudre n'avait pas été préalablement enrichie en mlbs.


21/12/2011

Réactualisation importante de ma page sur l'effet Pioneer et la fusion froide.

Ces derniers temps mon choix était d'en faire le moins possible étant de plus en plus convaincu que tous les labos militaires sont déja plus ou moins sur le coup et que tout ce que je pourrais faire ne pourrait qu'être exploité par les vilains. Finalement, si les labs militaires ne savent travailler que dans le secret c'est seulement parcequ'ils esperent prendre une longueur d'avance sur la concurrence et rêvent de suprématie technologique et militaire écrasante, objectif que je peux contribuer à contrecarrer  systématiquement en publiant toutes les avancées que j'effectue dans l'espoir d'aider à remettre tout le monde à égalité et que les chercheurs du public finiront par sortir de leur aveuglement ...

12/12/2011

Je viens de poster sur le forum H/Ni un petit résumé de mes conclusions en ce qui concerne "le catalyseur" du réacteur e-cat de Rossi après analyse des spectres. Je le traduirai en anglais rapidement.

30/11/2011


Le LHC est en train de produire des tas de "poussières étranges" d'origine non identifiée qui deviennent preoccupantes pour son bon fonctionnement surtout quand il va falloir monter en énergie.

Ils les appellent UFOs ... comme dans ITER !

Voir à ce sujet ma prédiction du 2/9/2008 
  (trop fort!)

24/11/2011

Il n'y a pas de neutrinos de Ultra Hautes Energies détectés en coincidence avec les flashes de Gamma Ray Bursts. Une anomalie qui conforte l'idée que les neutrinos émis nous sont parvenus beaucoup plus tot car sont "tachyoniques" comme ceux d'Opera soutiennent les physiciens de cette expérience.
Dans le cadre de DG j'avais argumenté pour expliquer par contre qu'une bouffée de neutrinos soient bien parvenus aux detecteurs terrestres en coincidence avec le flash de la SN 1987 et pas en avance. Je soutenais que les neutrinos se propageant dans le vide entre la SN et nous n'avaient pas ou tres peu rencontrés de discontinuité leur permettant d'osciller entre les deux versants et donc se seraient propagés comme la lumière, essentiellement sur un seul versant de l'univers. L'argument semble contredit par la non observation des neutrinos des GRBs en coincidence avec la lumière reçue de ces flashes. Mais c'est  oublier que les distances en jeu sont ici cosmologiques et supérieures à ~ 5 Gigaparsecs alors que SN 1987 a explosé dans le grand nuage de Magellan à 55 kiloparsecs à peine donc plus de 100000 fois plus proche. Sur les distances cosmologiques le nombre de discontinuités rencontrées, même dans le vide comme celle expliquant l'effet Pioneer, a pu être très conséquent expliquant que la majorité des neutrinos ont oscillé et donc pris de l'avance sur la lumière.

Mais il se pourrait aussi qu'il existe un seuil en énergie au delà duquel  le passage sur la métrique de l'autre versant serait permis, ce qui expliquerait pourquoi les neutrinos de basse énergie de la SN n'auraient pas oscillé tandis que ceux de bien plus haute énergie de Opera ou des GRBs auraient pu le faire. J'avais postulé de longue date la possibilité d'existence d'un tel seuil dans l'espoir de produire un cut off UV permettant d'éviter les infinis en théorie des champs (voir www.darksideofgravity.com/reviewtot.pdf) .

24/11/2011

Voir mes deux interventions sur le forum de futura science consacré aux neutrinos supraluminiques (pages 1 et 5).
Une troisième intervention a été supprimée par la modération sous le motif de hors sujet: je m'y interrogeais en effet sur tous ces stupéfiants nouveaux résultats venant d'Italie en peu de temps (les neutrinos tachyoniques et les performances du réacteur à fusion froide de Rossi) et suspectais que le dénominateur commun soit des avancées théoriques majeures non publiées sur la nouvelle physique (DG) et des collaborations possibles avec les chercheurs Américains qui pratiquent également le black out. Pour moi le fait de ne pas publier des découvertes majeures relève du crime contre l'humanité et revient en particulier à se faire complice des criminels du 11/9/2001. 


18/11/2011

Pour la deuxième fois les neutrinos vont plus vite que la lumière et la principale source d'erreur systématique a été écartée: la vitesse des neutrinos a été mesurée en les prenant un par un.  Ainsi, l
a mesure effectuée à partir de vingt neutrinos enregistrés est d’une précision comparable à la mesure initiale basée sur les 15 000 autres neutrinos. En outre, l’analyse est plus simple et moins dépendante de la structure temporelle des impulsions de protons et de sa relation avec le mécanisme de production de neutrinos...ceci grace à un nouveau faisceau parti du CERN constitué d’impulsions beaucoup plus étroites temporellement: de trois nanosecondes seulement espacées de 524 nanosecondes.

12/11/2011

Ca y est le site officiel de Rossi a été lancé hier. On peut acheter déjà le réacteur à 1MWatts (compter 2000 euros le kWatts). Il faudra attendre 2013 pour des réacteurs domestiques de 5kWatts.

10/11/2011

Videos sur la fusion froide également accessibles sur le site de JP Biberian

Interview de JP Biberian
  autre lien

L'aventure de la fusion froide  autre lien

Video sous titrée en français du prix Nobel Josephson sur l'e-cat de Rossi (avant la demonstration de l'ecat MWatt) autre lien

29/10/2011

Ca y est!!  hier à Bologne au cours d'une demonstration publique un réacteur constitué de plus d'une centaine de petits réacteurs e-cat de 10kWatts en parallèle, fonctionnant à la fusion froide (nickel + hydrogene donne cuivre !!??), a produit en mode autonome pendant 5h30, 40 fois plus d'énergie qu'il n'en a consommé initialement (pour le demarrage si j'ai bien compris) donc un demi MegaWatts de puissance . C'est un succès et le réacteur doit être acquis par un acheteur dont l'identité n'a pas été dévoilée bien qu'il s'agisse apparamment d'un colonel (mort de rire).
 
http://www.nyteknik.se/nyheter/energi_miljo/energi/article3303682.ece
 
propageons la bonne nouvelle!

10/10/2011 revue et corrigée le 27/10/2011


Dans ma new du 23/9/2011, je rappelais que l'existence d'objets comme des neutrinos manifestant des vitesses tachyoniques du point de vue de notre métrique, soulève les problèmes bien connus de possibles effets rétrochrones (envoi d'information dans le passé).
A ce sujet je voudrais redire que ce n'est pas l'inversion du temps de la théorie DG qui serait responsable de cette remontée dans le temps. Inverser le temps en DG, ce n'est pas remonter dans le temps comme je l'ai vulgarisé avec ce graphe, mais juste sauter dans un versant de l'univers au temps opposé depuis une origine lointaine. Donc aux effets de Relativité Restreinte près que je veux discuter maintenant il n'y a pas de risque de remonter dans le temps à ce niveau.

L'exemple d'échanges de signaux instantanés (un cas donc extrême de signaux tachyoniques de vitesse infinie) que j'ai envisagé à la page 24 de mon cours d'intro à la MQ (problème soulevé par la possibilité que le collapse du paquet d'ondes en MQ decoule d'une physique non locale à découvrir et explorer), montre facilement comment une boucle temporelle peut être créée. J'ai refait le calcul dans le cas d'un échange de signaux tachyoniques à vitesse tachyonique cT finie dans l'article :

Ma nouvelle soummission sur arxiv d'un article confrontant l'observation de neutrinos superluminiques d'Opera avec les prédictions de la théorie de la Gravité Obscure.

des effets rétrochrones sont attendus dans tous les cas mais difficilement exploitables en pratique ...

Je discute aussi dans le papier la compatibilité des observations d'Opera avec celles de neutrinos issus de SN1987: je calcule que si des neutrinos supraluminiques ont été émis par SN1987, en se plaçant dans le cadre de DG, ils seraient arrivés plus de 8 ans plus tot sur terre, or il n'existait aucun detecteur pouvant detecter un burst de neutrinos en 1979. Ceci répond à une critique adressée récemment
(astro-ph.HE/1109.5368) à l'encontre de toutes les tentatives theoriques de prendre au sérieux le signal tachyonique enregistré par Opera.

6/10/2011

Ne manquez pas le dossier sur ITER sur le site de JP Petit.
Parmis tous les phénomènes qui rendent le plasma irrémédiablement instable, ce que JP appelle des mini "spheromaks", grumeaux dans le plasma, plasmoides, également présents dans les Z machines...qui ne sont rien d'autre que les fameux rayonnements étranges encore appelés microfoudres en boule, objets qui ne peuvent être compris selon moi que dans le cadre d'une nouvelle physique et qui ont été exploités le 11 septembre 2001 pour liquéfier les structures d'acier et désagréger des dizaines de milliers de tonnes de béton. Pendant que les labos  militaires poursuivent l'exploration de cette nouvelle physique, les chercheurs du public en bons veaux carriéristes sont encouragés à s'investir dans des projets délirants, comme ITER ... une escroquerie monumentale de dizaines de milliards d'euros d'après ce que nous explique JP Petit, un fait qui semble bien connu y compris de nombre des ingénieurs et chercheurs impliqués dans le projet.

Autre parallèle révélateur : le dossier scientifiquement très en pointe de JP a une visibilité quasi nulle même dans le reseau sortir du nucléaire et JP envisage de publier dans agoravox. C'est ce que je me suis aussi résolu à faire en définitive, même le journal Nexus ayant refusé de publier mon résumé complet de plusieurs années d'investigations sur le 11 septembre 2001.  Quand je disais que tout ce qui acquiert d'une façon ou d'une autre  une certaine importance dans le domaine de la diffusion de l'information se trouve rapidement sous contrôle, on en a là un exemple éloquent avec le cas de la revue Nexus dont un des journalistes, Alexis Kropotkine, n'a même pas voulu reconnaître qu'il s'était planté lamentablement dans son analyse verification du cas de la video smoking gun de Ban Laden publiée par le DoD peu après le 11/9/2001. Il a tout simplement, comme beaucoup d'autres, négligé de verifier les proportions horizontales du visage de Ben Laden le gras et ne se pose même pas de questions sur le fait que si Ben Laden semble méconnaissable sur la video cela devrait être aussi le cas de tous les autres protagonistes de la scène, subissant en toute logique les mêmes distorsions de leurs visages ... ceci même après que je lui ai signalé ma diapo no 13 ici.

26/9/2011 réactualisée le 6/10/2011

Je commence à y voir plus clair: ce sont les discontinuités de la théorie qui permettent aux particules (paquets d'onde) de passer d'un versant de la métrique à l'autre voire aux paquets d'ondes de se partager en deux parties qui peuvent se propager simultanément sur le deux versants.

Ceci est d'autant plus favorisé que les neutrinos rencontrent sur leurs parcours les fameuses discontinuités qui sont en fait présentes à toutes les échelles y compris atomiques (elles doivent dailleurs permettre une reformulation de la Mécanique Quantique) à partir du moment ou les neutrinos se propagent dans la matière. On s'attend à ce que les neutrinos voyageant dans le vide ne puissent plus par contre tout au long de leur trajet retransiter d'un versant à l'autre de la métrique. Ainsi même si la fonction d'onde d'un (anti)neutrino émis par une SN lointaine a du traverser de la matière en s'échappant de l'étoile, avec pour conséquences que sa fonction d'onde est devenue une superposition entre une partie se propageant sur la métrique du versant obscur et une partie sur notre versant, ces deux parties se sont propagées à des vitesses différentes entre la SN et nous et seuls ceux qui sont restés sur notre versant sur l'essentiel du voyage pourront être corrélés avec le signal lumineux de la SN, les autres même s'ils réapparaissent au dernier moment sur notre versant (ils peuvent rencontrer des discontinuités en traversant la matière au dessus des détecteurs sous-terrains) afin d'y être détectés, auront des décalages de temps d'arrivée se comptant en années.

Par contre dans le cas de l'experience Opera, le paquet d'onde de chaque neutrino s'est dispersé (diffusion multiple sur des discontinuités lors de son voyage dans la matière) en de très multiples parties qui ont oscillé un grand nombre de fois entre les deux versants ce qui fait que leur vitesse moyenne doit se situer entre c et c(1+4U) la vitesse tachyonique de notre point de vue sur le versant obscur.

Tout s'explique assez naturellement ainsi...

D'autres particules ne traversent pas la matière aussi facilement que les neutrinos et ces autres particules rencontrant donc très peu de discontinuités ont une probabilité de transiter entre les deux versants beaucoup plus faible. Ceci dit j'ai quand même postulé que les fluctuations de températures du CMB soient explicables par les décalages spectraux de photons issus du versant obscur qui en se propageant ont rencontré des discontinuités. Les potentiels dominants sont bien de l'ordre de quelques 10-5 comme le confirme cette étude récente portant sur le redshift gravitationnel de la lumière des galaxies s'echappant des puits de potentiel des amas pour nous parvenir.


26/9/2011

Je viens de mettre un autre petit post sur le forum de futura science.
Le conflit entre le résultat d'Opéra et celui que l'on a pu tirer du timing d'arrivée des anti neutrinos de SN1987 pose question.

Les différences qui pourraient expliquer le conflit sont

1) Les gammes d'énergie des neutrinos (17 Gev pour Opera, ~20 MeV pour SN 1987)
2) Des anti neutrinos electroniques pour SN1987, essentiellement des neutrinos muoniques pour Opera (avec 2% d'anti neutrinos muoniques)
3) Propagation à travers la roche sur terre pour Opera, propagation dans le vide intersidéral pour SN 1987

Je préfererais nettement dans mon cadre que la différence de comportement s'explique par autre chose que par de la violation maximale de C (2).

24/9/2011

Je viens de mettre un petit post sur le forum de futura science.


23/9/2011

Confirmation d'un excès de positrons cosmiques, peu compatible avec une explication par la matière noire.

Découverte extraordinaire de neutrinos mesurés à une vitesse dépassant celle de la lumière!
Supposons que les neutrinos se propagent essentiellement sur le versant obscur de l'univers et n'emergent que de temps en temps sur le notre comme des dauphins sautant hors de l'eau, ce qui entre parenthèses serait une piste interessante pour expliquer qu'ils interagissent si faiblement. Sur le versant obscur les élements de la métrique sont inversés ce qui fait que la vitesse de la lumière du versant obscur de notre point de vue n'est pas la même que sur notre versant : elle est plus grande d'un facteur 1+ 4 U, U étant le potentiel gravitationnel régnant au lieu de la manip, donc à la surface de la terre.  Contribuent à U non seulement le potentiel créé par le soleil, très faible, celui  créé par la terre encore plus faible et comme terme dominant un potentiel qui a très grande échelle est responsable du mouvement de notre galaxie à v égal à pres de 600 km/s par rapport au CMB. On a donc U de l'ordre de  (v/c)2 soit 4 10 - 6 
et on s'attend donc à ce que la vitesse de neutrino (que l'on peut considérer de masse négligeable ici) pour nous soit celle de la lumière multipliée par 1+4 U = 1+1.6 10-5 . DG prédirait donc une vitesse superieure à c de ~ 5 km/s (ce n'est qu'un ordre de grandeur) à comparer à un exces de 7.4 km/s d'après la publi ! Nul besoin de revoir la Relativité Restreinte mais par contre cela ouvre la porte à des effets rétrochrones à propos desquels j'ai pu montrer qu'il existe plusieurs solutions pour éviter les paradoxes bien connus.


24/6/2011

Pour en finir avec les mensonges sur les énergies renouvelables : un petit document très éclairant. Alors pourquoi l'europe n'investit elle pas massivement dans ces technologies. Tout simplement parceque le secteur de l'énergie comme tous les autres est gouverné par la loi du marché qui est celle du profit à court terme (c'est pourquoi les coûts énormes liés au traitement des déchets nucléires et démantèlement, étant sur le long terme, ne sont même pas pris en compte et c'est pourquoi les investissements pour la sécurité seront toujours calculés au plus juste et par conséquent on doit envisager le pire pour nos centrales en cas de catastrophes naturelles ou actes terroristes comme Fukushima l'a montré). Dans la compétition que se livrent  les producteurs , sur le court terme,  c'est  l'énergie  la moins chère qui gagne ... et compte tenu du fait que le pays a déjà misé  massivement dans le nucléaire, c'est aujourdhui le nucléaire qui est le plus compétitif à court terme et pour plusieurs années encore.

Certes, même si on imagine mal le pays investir dans l'équipement d'une surface de centrale solaire de 63 km de coté en Provence pour fournir le pays en énergie, on pourrait par contre investir dans une surface équivalente de barges flottantes en méditerranée ce qui éviterait la dégradation du paysage et même investir dans des surfaces bien supérieures en mer et y stocker l'énergie puis l'acheminer vers les pays du Nord de l'Europe qui n'ont pas un ensoleillement suffisant ... mais quelle viabilité a ce genre de projet dans un contexte où la logique de la compétitivité économique à court terme prime sur toute autre car c'est celle de tout un système et c'est celle que soutiennent les lobbies qui font peser sur tous les pays déjà surendettés la menace de la faillite, de la ruine économique à court terme (Grèce d'abord puis ... les autres).

Le problème n'est donc pas de nature technologique ou scientifique en ce qui concerne les énergies renouvelables, il tient au fait que la solution necessite de révolutionner tout un système, de renverser des pouvoirs, ce qui dans le contexte de la mondialisation pourrait s'avérer encore plus générateur de chaos et plus meurtrier que par le passé.

Il y a une autre voie qui permettrait aussi de produire le renversement tant attendu mais de façon beaucoup plus efficace et moins perilleuse! : le miracle d'une révolution paradigmatique qui mettrait l'énergie abondante et quasi -gratuite à portée de tous, quasi instantanément et sans investissement significatif. Le miracle de la mal nommée "fusion froide" sur lequel j'ai misé depuis longtemps car je suis convaincu que cette source d'énergie classifiée est déja parfaitement maitrisée depuis longtemps par le DoD (et a été utilisée le 11/9). Je crois que les choix criminels du lobby militaro-industriel US et de toutes les  nations de l'empire en guerre contre la soit disant menace terroriste sont les grands responsables de la situation d'"impasse énergétique" actuelle.
Il n'y a pas d'autre voie de salut que celle de la nouvelle physique ce qui irait de pair avec la révélation au monde des crimes du 11/9/2001.

A voir également ainsi que les nombreuses pages du site de Jean-Pierre Petit consacrées à ce dossier des énergies renouvelables vs le nucléaire.

5/6/2011

Des sceptiques suédois confirment un processus nucléaire dans un petit réacteur de 4.7 kW.
Quelques phrases très révélatrices tirées de l'article:
"Remember the “cold fusion” fiasco of 1989? Well, I have come to realize that it wasn’t what it seemed at all. Denial, groupthink, dirty tricks and easily manipulated media combined to create an historical injustice. Two decades have been wasted virtually ignoring this game-changing discovery. Today’s environmental disasters, expensive energy and oil wars could possibly have been avoided."
Vous vous souvenez du fiasco de la fusion froide en 1989 ? Bien, j'en suis venu à réaliser que ce n'était pas ce qu'il semblait du tout. Le déni, la "pensée de groupe" et des medias facilement manipulés se sont combinés pour aboutir à une injustice historique. Deux decennies ont été perdues à pratiquement ignorer cette découverte qui changeait les règles du jeu. Les désastres ecologiques, l'énergie chère et les guerres du pétrole auraient pu être évités.

...leaders of the MIT fusion lab that accused Fleischmann and Pons of fraud...

des leaders du laboratoire de fusion (chaude) du MIT ont accusé Fleischmann et Pons de fraude...

MIT further disgraced itself by altering data in its failure to replicate study. This was discovered two years later by MIT employee Eugene Mallove, who found copies of the July 10 and July 13 drafts of the paper. The July 10th version had a graph that clearly showed excess heat. In the July 13 version the graph was redrawn to show no excess heat.

Au cours de ses études pour "tenter de répliquer les résultats", il est avéré que c'est le MIT au contraire qui s'est discrédité en traffiquant des graphes pour y faire disparaitre les apparantes productions de chaleur excedentaire.

We have spent $20 billion and 55 years trying to reach break-even with hot fusion. Time to give cold fusion a chance.

Nous avons dépensé 20 milliards de dollars et 55 ans à essayer de controler la fusion chaude. Il est temps de donner sa chance à la fusion froide.

The most recent meeting was held in San Francisco in 2011 under the auspices of the American Chemical Society. The number of presenters at this meeting have quadrupled since 2007. The results this year were so enthusiastic that the American Institute of Physics refused to publish the 370 page proceedings. The cancellation of the publication contract was a last minute decision, clearly ordered by someone at a high level.

La conférence mondiale la plus récente des chercheurs en LENR (reactions nucleaires à basse énergie) s'est tenue à San Francisco en 2011 sous les auspices de l'American Chemical Society. Le nombre des présentations à ce meeting a quadruplé depuis 2007. Les résultats cette année ont été si enthousiasmants que l'AIP a refusé d'en publier les 370 pages de 
proceedings. L'annulation du contrat de publication fut une décision de dernière minute, clairement ordonnée par quelqu'un à un haut niveau.

Now that Rossi and Focardi have shown what can be done, expect to see a flurry of new announcements. New technologies tend to take forever to totally debug, so it won’t be surprising if the October delivery is delayed. There are several other companies such as Lattice Energy LLC, Blacklight Power, Brillouin Energy, and Energetics, who have announced product plans to the press and then gone silent.

Maintenant que Rossi et Focardi ont montré ce qui pouvait être atteint il faut s'attendre à une floppée de nouvelles annonces. Les nouvelles technologies mettent un temps interminable à se perfectionner en corrigeant toutes sortes d'erreurs et impasses, donc il ne serait pas surprenant que la livraison prévue pour Octobre du reacteur MegaWatt de Rossi à la grèce soit retardée. Il y a d'autres entreprises comme LLC, BlackLight Power, energetics qui ont annoncé des produits à la presse puis se sont murées dans le silence.

Et l'article rappelle que le blackout médiatique est toujours d'actualité. Alors est ce si difficile que cela d'envisager que ce discrédit n'est pas seulement lié à une réaction de déni et de rejet de l'orthodoxie régnante en physique mais est plutot orchestré par le DoD US depuis le début. Je m'étonne que cet article ne mentionne  même pas cette possibilité qui me semble maintenant une telle évidence !

Je soutiens plus que jamais que les technologies basées sur la fusion froide secretement développées par les militaires US ont été exploitées le 11 septembre pour detruire les tours du WTC en silence et sont également à la base de programmes stratégiques de maitrise d'armes naturelles!

D'après certains experts, Rossi donne trop peu de détails sur son réacteur pour que lui soit attribué un brevet. L'affaire est donc assez louche et on ne peut exclure une entourloupe dans le but de faire retomber la fusion froide dans le discrédit...au moment ou les chercheurs sont peut être en train de voir le bout du tunnel.



23/4/2011

Un lecteur m'a signalé cette page en Français sur l'E-cat d'Andrea Rossi.

25/3/2011

Questions et réponses à propos du réacteur à fusion froide (E-cat) d'Andrea Rossi, qui sera en vente d'ici fin 2011. Tres impressionnant!: propagez la bonne nouvelle, en espérant que nous ne serons pas tous roulés dans la farine au bout du compte, l'engin n'ayant toujours pas reçu de brevet. La raison la plus vraisemblable me semble être ce que j'ai expliquais dans ma dernière new: " Inutile de dire que si l'armée Américaine a des décennies d'avance dans ce type de physique qui est probablement  à la base de programmes ultra secrets d'armes naturelles du DoD et a sans doute été déja utilisée le 11 septembre, inutile de dire dans ce contexte que les scientifiques du DoD font déjà et continueront de faire tout ce qui est en leur pouvoir pour eviter qu'un tel brevet soit obtenu ... pas etonnant que cette affaire s'éternise! "
Un autre lien sur l'E-cat mais ce serait pas mal de trouver des articles du même genre en Français, ca m'éviterait d'avoir à mettre en branle mes piètres capacités de traducteur...


16/3/2011

Pour répondre à une objection que je me suis faite en ce qui concerne la stabilité des boules de foudre dont le contenu matériel oscillerait entre les deux versants de l'univers:
Il est vrai que la gravité s'inverse lorsque l'on passe d'un versant à l'autre . Par conséquent, la matière prisonnière d'un puits de potentiel de type gravitationnel discontinu sur notre versant se retrouve au contraire au sommet d'une barrière de potentiel sur l'autre versant  et rien ne peut plus l'empêcher de se disperser en un temps très court. Ce ne serait pas le cas si au voisinage du seuil d 'apparition de discontinuité, le potentiel electrostatique fluctue et peut donc croiser de multiples fois le seuil de potentiel produisant les discontinuités dans cette zone. On a alors de multiples discontinuités très rapprochées et la matière à l'intérieur de la boule de foudre est donc confinée par de multiples barrières (figure suivante en bas). Les particules réussissant à franchir une barrière de potentiel ont une grande probabilité de rester piéger dans le puits suivant si elles interagissent avec d'autres particules déja prisonnières de ces puits. La configuration est donc encore plus stable que celle à un unique puits. Ce qui est beaucoup plus interessant  c'est la configuration de potentiel alors obtenue sur le versant conjugué (figure suivante en haut): on y trouve encore une succession de puits et barrières et une fois de plus la matière pourra être confinée efficacement dans un des multiples puits (en rouge) comme elle l'était dans les puits (en rouge également sur notre versant). Notons que les concepts de force ou accélération ne sont plus valides lorsque les potentiels varient appréciablement sur des distances inférieurs à toutes les longueurs d'ondes associées aux particules. La mécanique quantique s'applique et l'énergie cinétique de chaque particule est Ec = E (Constante) - V dans chaque zone ou l'on trouve un potentiel V. Tout se passe donc bien comme si les particules subissent une accélération instantanée au franchissement des discontinuités faisant passer leur énergie cinétique instantanément d'une valeur à une autre: rappellons que le formalisme de la mécanique quantique appliqué aux particules s'accomode parfaitement de la présence de véritables discontinuités, dailleurs les potentiels carrés constituent un cas d'école dans tous les cours introductifs à la mécanique quantique.




8/1/2011

Depuis quelques années, les physiciens du solide ont découvert que l’on pouvait aimanter du carbone dans certaines conditions. À leur grande surprise, ils s'aperçoivent maintenant qu'un simple champ magnétique suffit. L'aimantation est forte mais en surface seulement, se pourrait il que M Porringa, croyant mettre en évidence la production de fer ait en réalité magnétisé de la poussière de graphite avec ses décharges électriques ? Difficile à envisager étant donné que l'analyse au spectro aurait confirmé selon lui l'importante contamination en éléments étrangers au graphite initial, notamment du Fer.

Se pourrait il qu'il s'agisse d'un phénomène emergent dont la magnitude évolue dans le temps et notamment de façon saisonnière mettant en évidence le rôle de la physique des discontinuités. Voir dans cette page mes news concernant les expériences de Porringa que je ne suis pas parvenu à reproduire (production de fer), le labo auquel j'ai envoyé ma poussière de Carbone m'ayant expliqué que la quantité envoyée était insuffisante pour une analyse précise.


7/10/2010

Le prix Nobel pour les découvreurs des propriétés extraordinaires (naguère on pensait même impossibles) du graphène. Le réseau cristallin constitué de feuillets à structure périodique hexagonale est justement celui que j'ai privilégié pour la structure gravitationnelle du vide (réseau de masses positives et négatives alternées dans ce dernier cas). Se pourrait il que l'interaction des feuillets de graphène avec cet autre réseau plus fondamental incluant peut être des influences morphogénétiques soit pour quelque chose dans ces propriétés ... ?

30/9/2010

Formation imprévue d'un plasma de quarks-guons dans des collisions à 7 TeV au LHC ? ... ou manifestation d'une nouvelle physique attendue à de fortes densités de courant...


16/9/2010

M. Porringa a répondu à mes messages et avance sérieusement que si je n'arrive pas à confirmer déjà qualitativement la production d'une grande quantité de Fer dans les décharges (que je devrais pouvoir récolter simplement en agitant un aimant dans l'eau...) c'est certainement à cause d'un effet saisonnier très marqué qui selon lui a été constaté par les différents expérimentateurs qui ont reproduit la manip (!!!?): la production de Fer serait selon lui facile à mettre en évidence en automne et au printemps et les résultats au contraire très mauvais en hiver et en été... je vais réitérer la manip régulièrement mais pour le moment toujours pas de production abondante de Fer!

7/9/2010 puis 11/9/2010

J'essaye, ces derniers temps, de reproduire des résultats de transmutations qui d'après M Porringa peuvent être mis en évidence très simplement et ont été confirmés par plusieurs équipes indépendantes. Ici, en images, l'état d'avancement de mes investigations au 7/9/2010....

11/9/2010: j'ai recu de nouvelles tiges de carbone. Je comptais tester le diamagnétisme du graphite de ces tiges pour vérifier si le diamagnétisme que j'avais observé après les décharges n'était pas en fait originel. Mais surprise: les nouvelles tiges que je reçois sont grises au lieu de noire : des paramètres que je ne contrôle pas ont changé et personne ne peut m'expliquer à Goodfellow l'origine de ces différences: on me dit que mon ancienne tige était graded POCO DFP2 et les nouvelles UF-4S...(du chinois!). Je constate en tout cas que les nouvelles tiges sont très diamagnétiques avant toute manip. Il est donc très difficile de selectionner dans la poussière de graphite des particules modérément riches en fer sur la base d'un comportement très légèrement magnétique car il s'agirait de distinguer des poussières légèrement ferromagnétiques (attractive) de poussières légèrement diamagnétiques (répulsives), toutes étant également d'apparence grise métallique au microscope.

Il n'y a en tout cas pas dans ma poussière finale les quantités astronomiques de particules de Fer (1000 ppm en masse) annoncées par Porringa et collaborateurs.  Pour aller plus loin il faudrait faire une analyse ICP-AES de la poussière ce qui enlève tout intérêt à cette manip car alors il faudrait se fier à des résultats obtenus par des tiers (labos d'analyse, ... ma confiance est limitée)  et traquer des faibles différences avec le graphite initial donc contrôler précisément toutes les sources de contamination...délicat! Donc je vais peut être, être obligé de botter en touche ici! Il y a quelque chose qui ne tourne pas rond dans cette manip ou en tout cas certains paramètres cruciaux ne sont pas contrôlés car mal ou pas du tout documentés par les auteurs qui ne répondent pas aux emails (température, présence ou non d'un champ magnétique externe, variable ou non, extinction du phénomène des transmutations après première utilisation des électrodes ...).
Il n'est pas exclu que les résultats que j'essaye de reproduire soient faux et n'aient été publiés que dans le cadre d'un plan visant à discréditer (par amalgame) tout un domaine de recherche: celui des Low_Energy_Nuclear_Reactions..
Pourtant, il n'était pas aberrant de s'attendre à des effets intéressants de la physique des rayonnements étranges dans ce cas car si les effets ne se produisent que pour des densité de courant approchant un seuil de l'ordre de 1 million d'Ampères par centimètre carré comme dans les expériences de décharge dans des feuilles de Titane du RECOM, ici il faudrait que les décharges de l'ordre de 10 A au niveau des contacts lâches entre bouts d'électode s'effectuent sur une section de diamètre de l'ordre de 30 microns pour atteindre de telles densités, soit, compte tenu de la résistivité pour un tel pincement conducteur de graphite de longueur de l'ordre de 0.1 mm, une résistance R de l'ordre de quelques Ohms donc quelques dizaines d'Ohms pour les bouts d'électrode en série, compatible avec 10 Ampères pour 220 Volts. La puissance dissipée au niveau d'un tel pincement serait alors de quelques centaines de Watts (Ri2) ce qui dans une section de diamètre 30 microns et longueur 0.1 mm est considérable mais peut être modérément destructeur sur un temps très inférieur à 0.01 sec de chaque décharge en alternatif 50Hz, le graphite, étant un
matériau particulièrement résistant à la chaleur (jusqu'à 3700°C). Pour comparaison, le filament de tungstène d'une ampoule a une section équivalente et dissipe 100 watts mais sur une longueur de plusieurs dizaines de cm!

L'idéal serait alors que le graphite puisse subir un nombre aussi grand que possible de telles décharges et s'enrichir d'autant en éléments étrangers (sous l'effet des rayonnements étranges produits) avant d'être expulsé dans l'eau de la cellule...


3/5/2010

Dans la dernière version mise en ligne de mon review, je fais le point sur mon best effort en ce qui concerne la structure du vide et la quantification dans le cadre de la théorie DG. Ce n'est pas encore vraiment cohérent mais comme d'hab je l'ai mise en ligne au cas où ca interesserait du monde (?) ...

29/3/2010

Aujourdhui ou demain, les premières collisions à une énergie inégalée de 7 TeV sont attendues au LHC. J'avais déja evoqué dans cette page les craintes liées à la possible génération de mini trous noirs que certaines théories prédisent. Je pense qu'on ferait mieux de s'inquiéter de façon générale de tout ce qu'on ne prédit pas ou très mal : les masses des particules du modèle standard et tous les problèmes théoriques bien connus qui suggèrent fortement qu'il y a des aspects profonds du réel qui nous échappent complètement. J'espère qu'il n'y aura pas de trop mauvaise surprise...comme par exemple la découverte de quelque chose qui mettra en évidence que si l'on avait mieux réfléchi avant, on aurait peut être pas eu besoin de construire le LHC pour avancer sur les questions et problèmes fondamentaux bien connus de la physique.

20/2/2010 

Un remarquable nouveau film nous raconte l'aventure de la fusion froide!

S'il y a fusion nucléaire, on doit détecter des neutrons rapides affirment les théoriciens des hautes énergies. Les physiciens qui ont tenté de reproduire les expériences de Pons et Fleischmann n'ayant pas observé les neutrons attendus, la fusion froide a été complètement discréditée et enterrée en un mois à peine. Dés lors ces recherches ne trouvèrent plus aucun soutien auprès des instances scientifiques officielles. Dans le cadre de la théorie de la gravité obscure, les processus nucléaires se produisent à l'interieur d'un volume délimité par une discontinuité (saut de potentiel gravitationnel) qui ralenti considérablement toute particule réussissant à s'en échapper ce qui expliquerait la non détection de neutrons avec la haute énergie attendue (2.5MeV). Mais des chercheurs témoignent avoir observé des neutrons sans mesurer leur énergie, exactement ce à quoi je m'attends! Le problème de la liberté de la recherche est aussi soulevé dans ce documentaire.

7/2/2010 

A quelle échelle les effets typiquements quantiques d'interférences cessent ils d'être observables en pratique. Selon la théorie de la décohérence lorsque les dimensions des objets augmentent, leur interaction avec l'environnement aussi de sorte que très rapidement les effets de superposition quantiques deviennent inobservables (cf mon cours d'intro à la MQ en ligne sur ce site). Il se pourrait donc que soient révolutionnaires les observations récentes selons lesquelles
certaines algues utiliseraient les amplitudes de probabilité de la mécanique quantique pour optimiser la photosynthèse, ce qui signifie que ces cellules ont franchi l’obstacle de la décohérence quantique qui devrait rendre ce processus impossible à température ambiante. De quoi relancer les spéculations sur la biologie quantique, le fonctionnement du cerveau mais aussi de rendre plus crédibles les ordinateurs quantiques.

Des physiciens comme Penrose ont postulé que des condensats de Bose-Einstein pouvaient exister dans certaines micro-structures du cerveau à température ambiante, autorisant les superpositions quantiques à opérer à de grandes échelles mais des calculs récents ont montré que de tels condensats ne pouvaient exister qu'à une température d'au moins 100 millions de K. Ce serait donc la fin de l'histoire si la théorie de la gravité obscure n'offrait pas une ouverture inattendue: les microboules de lumière délimitées par une discontinuité de potentiel énorme, encore appellés  rayonnement étranges, pourraient bien développer des températures fantastiques en leur sein (et servir donc aussi, soit dit en passant, de détonateur à des réactions nucléaires de type Bore-Hydrogène) !

24/12/2009

Nouvelle version du review de Dark Gravity.

26/8/2009


Le travail publié de S Hossenfelder
(dans la même veine que les travaux antérieurs de JP Petit qui ne sont pas cités !) a donné lieu à deux articles critiques : arXiv:0908.3384 et J. Noldus et P Van Each Phys Lett B 639 (2006) 667.

22/8/2009

Les pavages à explorer également dans l'espoir d'obtenir le bon spectre de masses des particules élémentaires (suivant ce principe ) seraient ceux de Penrose  (qui font intervenir le nombre d'or).


19/6/2009

La théorie de la gravité obscure admet plusieurs solutions possibles pour le fond de type cosmologique, notamment une solution à expansion constamment accélérée pouvant alterner avec une solution en contraction. Tout l'univers n'est pas soumis simultanément à la même solution: au contraire différentes régions spatiales peuvent être soumises à des régimes différents mais il importe que sur la durée les atomes de l'univers ne se désynchronisent pas trop les uns des autres auquel cas des anomalies de redshift très importantes seraient couramment observées. Par conséquent les atomes de l'univers doivent être à peu près soumis au même régime moyen sur de longues échelles de temps. Si le régime moyen résulte seulement de la solution constamment accélérée en a(t) = t2 il semble que nous soyons en désaccord avec les données du diagramme de Hubble des Supernovae qui semble plutôt indiquer un expansion proche de t1.5  . D'un autre coté une alternance à part de temps égales de nos deux solutions conduirait à un régime moyen non accéléré. On doit donc envisager que l'essentiel du temps et de l'espace est accaparé par  la solution en
t2  interrompue périodiquement (cycle 26000 ans voire jusqu'à 10 fois plus) sur une durée plus faible par la solution décélérée. Il est certain qu'en ajustant la part relative des deux solutions on est sûr de pouvoir retrouver le régime moyen en t1.5  sur une echelle de milliards d'années.  Pour obtenir ces périodes transitoires et limitées où la solution en contraction prend le pas, il est naturel d'envisager que les discontinuités se propagent par paires délimitant une tranche d'espace, une couche sphérique par exemple au voisinage d'un astre à symétrie sphérique. Tous les atomes qu'ils soient au voisinage ou au large de l'astre seront alors soumis au même régime en moyenne. En effet, ils mettront tous la même durée pour traverser cette tranche d'espace entre les deux discontinuités car  même si la vitesse de propagation des discontinuités est beaucoup plus faible au voisinage de l'étoile ceci est exactement compensé par la distance alors beaucoup plus réduite qui les sépare, distance déterminée par une différence de potentiel fixée. New horizon semble d'ailleurs avoir effectivement observé une paire de discontinuités!

27/4/2009 mis à jour le 15/6 /2009 en rouge

Complément à la new du 2/4/2009: Dans ce précédent post je recherchais quelles conditions bien particulières dans les objets de type foudre en boule alimentés en combustible nucléaire (Deuterium, ...) pouvaient favoriser des phénomènes de fusion même à des températures basses de plusieurs milliers de degrés (quelques eVs par nucléons) donc à priori complètement insuffisantes pour que les noyaux surmontent les barrières de répulsion électrostatique. Je rappelle que même à ces basses températures la séparation des charges par la discontinuité permet au milieu intérieur de n'être constitué que d'un seul type de charge: les noyaux seulement ou les électrons seulement. Dans le cas d'un cluster de noyau emprisonné dans la cavité, ceux ci doivent se concentrer contre la paroi de la discontinuité, attirés électrostatiquement comme ils le sont par les électrons de la face opposée. La charge globale perçue à grande distance est négligeable mais peut être aussi même à très petite distance si la distance entre les charges positives et négatives de part et d'autre de la discontinuité est très petite : dans ce cas, les noyaux n'étant pas soumis à la répulsion électrostatique de leurs voisins au voisinage de la paroi mais plutôt aux champs électrques dipolaires beaucoup plus faibles engendrés par les paires noyau-électron voisines, je m'attend à ce qu'ils puissent fusionner! C'est une ouverture importante qui si on la prend au sérieux signifie qu'un paramètre clef pour augmenter les effets de type dégagement d'énergie de fusion froide, serait la densité en combustible nucléaire du milieu dans lequel évolue la mini foudre en boule afin d'augmenter la probabilité de fusion entre les noyaux.

Plongées dans un champ magnétique, les boules de lumière délimitées par des discontinuités sont stabilisées et tous les effets associés sont plus intenses et durables. Une piste pour l'expliquer serait le fait que toutes les particules chargées de part et d'autre de la discontinuité alignent leur spin sur le champ magnétique ambiant. On postule alors que les interactions spin spin prédominantes à très courtes distances (en 1/r^3)  peuvent alors jouer un rôle majeur pour stabiliser la discontinuité et permettre aux objets de rester magnétiques même lorque le champ magnétique ambiant est etteint (ferromagnétisme), ce qui doit permettre aussi de les capturer dans du Fer.



16/4/2009


La théorie DG exposée dans mon review accessible sur arXiv et dans ce site est une théorie classique. La quantification du secteur propagé de DG (les ondes longitudinales qui expliquent la chute en spirale du pulsar dans un système binaire) a été abordée dans un petit article qui constitue donc une extension dans laquelle pour expliquer du même coup la loi empirique de quantification des orbites dans le système solaire mise en évidence par J.M. Souriau, j'avais postulé que ces ondes de gravité ne sont pas quantifiées avec la même constante de Planck que l'électromagnétisme mais avec une constante de Planck très supérieure : la conséquence est que ce secteur propagé de DG est complètement dans le domaine quantique à notre échelle et dans le système solaire.
De même que l'échange de quantas de lumière (photons) produit la force electromagnétique, l'échange des quantas gigantesques de ces gravitons doit produire une nouvelle gravité dont les effets pouvaient à priori s'ajouter à ceux de la gravité non propagée (instantannée) déjà décrite par la théorie. Mais DG doit faire intervenir cutoff, c'est à dire au delà d'une certaine énergie, la possibilité pour les particules de passer d'un versant à l'autre et une compensation doit se produire entre les contributions des échanges de graviton qui s'effectuent sur notre versant et le versant conjugué. Il en résulte que l'échange des quantas ne se produit effectivement qu'en dessous d'une borne supérieure d'énergie qui définit une borne inférieure sur l'échelle des distance: l'attraction qui en résulte ne doit alors se manifester qu'à très longue distance (suffisante pour ne pas entrer en conflit avec les résultats de tests connus: des années lumières) et être de même magnitude que la gravité habituelle à laquelle elle s'ajouterait. En deça la gravité mesurée est complètement dominée par la gravité non propagée en accord avec tous les tests de précision dans le système solaire.  Avec la constante de Planck postulée (qui peut être très surévaluée) et connaissant la période des ondes émises par un pulsar (de l'ordre de 10heures)  on calcule l'énergie des quantas associés: de l'ordre de 10^26 Joules. Puisque nous sommes complètement dans le domaine quantique, si le système solaire est traversé par de telles ondes il ne se passera presque jamais rien de mesurable sauf exceptionnellement s'il y a "réduction du paquet d'onde" et absorption par une planète d'un quantum d'énergie: possibilité donc d'un événement énergétique localisé dans le temps et à priori très improbable mais aucune possibilité de détection dans ce cas des ondes longitudinales par les grands interféromètres tels que Ligo, Virgo ou Lisa qui traquent les ondes gravitationnelles prédites par la RG.

4/4/2009

Ma précédente new du 2/4/2009 mentionnait une etonnante découverte de multiples traces dans une expérience typique de type fusion froide.  Les chercheurs pensent avoir découvert des neutrons. Or depuis 1989 et la première annonce d'un excès de chaleur par Pons et Fleishmann dans ce type de manip, un signal neutronique a été activement recherché par de nombreuses équipes indépendantes avec des résultats soit nuls soit concluant à de très faibles flux alors que le dégagement d'énergie observé s'il avait été d'origine nucléaire aurait dû être accompagné d'un flux très intense et très dangereux de tels neutrons. Voilà une raison de plus pour soit mettre en doute la signature neutronique des traces observées dans le CR 39 soit relever le caractère très capricieux de ces phénomènes.

Les expériences avec les moteurs où l'on injecte de la vapeur d'eau ionisée ont en commun avec celles d'electrolyse, qu'un gaz (vapeur d'eau, d'eau lourde ou deuterium) circule dans un insterstice entre deux parois métalliques (interstice du SPAD, ou micro fissures du Palladium poreux) ou il peut être soumis à des micro décharges.  Je postule donc que ces décharges y provoquent des rayonnements étranges sembables à ceux des expériences de décharge sous haute tension ou à une autre échelle aux foudres en boule des éclairs atmosphériques.

Le dénominateur commun de ces quatres types d'expérience seraient donc les décharges, la création de foudres en boules de tailles variables et tous les phénomènes qui résultent de la présence de ces objets: dégagements d'énergie inattendus, transmutations nucléaires, traces étranges mais ausi une caractéristique également très souvent mentionnée par tous ceux qui ont passé des années à les traquer : leur caractère extrêmement capricieux!
Il n'est pas rare en effet que les chercheurs après des jours de calme plat observent des effets très importants et subits dans des expériences d'electrolyse sans aucune raison apparente.  Les tests effectués par mes amis d'hypnow sur groupe électrogène à Pertuis ont donné des performances décevantes alors qu'exactement le même groupe testé à  l'université d'Alexandrie a donné par la suite des résultats remarquables.  

Ceci n'est pas étonnant! tous ces phénomènes décrits dans le cadre de la théorie de la gravité obscure dépendent de la présence d'une discontinuité de la gravitation dans le système solaire et sont liés à des cycles globaux (cosmologiques). Le front de cette discontinuité effectue un parcours périodique traversant le système solaire suivant un cycle de 26000 ans et celui-ci est justement près de nous traverser avec des conséquences éventuellement cataclysmiques. La position exacte de la discontinuité et l'amplitude des phénomènes auxquels on peut s'attendre dépendent aussi à priori de cycles liés à la position des planètes dans le système solaire, la latitude à laquelle nous nous trouvons mais aussi au passage d'ondes gravitationnelles de très grande amplitude et longueur d'onde probablement émises par le phénomène le plus énergétique dans notre voisinage: le "trou noir" situé au centre de notre galaxie. Ces ondes peuvent perturber de façon considérable la position et l'amplitude de la discontinuité dans le système solaire qui sont donc liées à un double cycle: celui de la période d'émission  de ces ondes parcourant la galaxie (certainement beaucoup plus longue que 30000 ans) et celui propre à la discontinuité en l'absence de perturbations.

Il se peut donc que l'on observe aujourdhui et dans un futur proche des traces et des effets bien supérieurs dans ces manips et dans les phénomènes naturels à ceux que l'on avait étudiés par le passé et que cette apparente faible reproductibilité ait contribué gravement à entraver depuis le début la reconnaissance officielle de cette nouvelle physique.

Un certain nombre d'effets très inquiétants que l'on a tendance à attribuer essentiellement à l'influence humaine peuvent en réalité se réveller des conséquences directes de ces phénomènes naturels qui devraient empirer avec l'approche de notre planète d'une discontinuité de la gravitation dans le système solaire: le réchauffement climatique mais aussi l'explosion des cancers notamment de l'enfant en relation avec les concentrations en métaux lourds tels que le mercure dans les cellules. Des phénomènes de transmutation biologique (liés à la physique des discontinuités) ne sont pas à exclure à l'origine des hauts taux de mercure observés notamment dans les champignons,  provoquant ensuite une concentration croissante au fur et à mesure que l'on s'élève dans la chaîne alimentaire. 

Je ressens une extrême urgence mais je n'ai que très peu de visibilité...Il importe donc que des scientifiques de renom ou politiques prenant au sérieux tout ce que je raconte ici, s'engagent pour faire reconnaitre ce travail. Ne pas le faire en connaissance de cause serait une lourde  responsabilité dans les désastres à venir!

2/4/2009


La fusion froide contre attaque.
Un polymère plastique du nom de CR39, généralement utilisé comme détecteur de particules chargées (protons, alphas, neutrons) a été placé au contact de la cathode d'une expérience typique d'electrolyse avec du Palladium qui se charge en Deuterium, le type d'expérience dans lesquelles les dégagements de chaleur anormaux de la "fusion froide" sont souvent observés. Le détecteur a permis à plusieurs expérimentateurs d'observer une multitude de traces énigmatiques après traitement chimique. Les traces ne sont plus observées lorsque le Palladium est remplacé par du cuivre ou lorsque l'eau lourde est remplacée par de l'eau normale. Un champ magnétique externe semble dans certaines circonstances indispensable pour observer les traces. Certaines traces sont observées sur la face postérieure du détecteur ce qui indique des particules parfois très pénétrantes mais selon un des chercheurs les traces (trous coniques) sont de trop grand diamètres pour correspondre à la signature de neutrons ou protons de l'ordre du Mev. Le débat fait rage depuis l'annonce des résultats en 2007: a t'on affaire à des neutrons ce qui serait déjà une formidable découverte?
Ou plus intriguant encore, produit on ces fameuses et énigmatiques traces de rayonnements étranges de type micro-foudres en boule qui ont été décrites plusieurs fois dans ces news? Certains alignements apparants sur les photos sont ils fortuits? Affaire à suivre!

La fusion proprement dite i.e. la présence de noyaux légers de Deuterium pouvant fusionner n'est à priori pas indispensable pour que se produise une libération d'énergie dans des micro foudres en boule prédites par DG. En effet, celles-ci peuvent être le lieu ou se manifestent des annihilations entre particules et anti particules du versant conjugué avec une signature pouvant être une raie à 0.511 Mev dans le cas d'annihilation electron-positron ou les produits de désintégration d'annihilations protons-antiprotons (~1900 Mev libérés). Le caractère plus ou moins explosif des micro foudres en boule dépend donc de l'abondance en particules d'antimatière de leur environnement immédiat sur le versant conjugué, donc à priori très aléatoire.

Si la température à l'interieur des micro foudre en boules est de plusieurs millions de degrés correspondant à une discontinuité de plusieurs keV, les conditions sont également favorables à la fusion thermonucléaire pour des noyaux de D. Une discontinuité de plusieurs eV est elle plus vraisemblable compte tenu du niveau de potentiel gravitationnel au voisinage de la terre? Peut être .. et d'autre part si les températures étaient de plusieurs millions de degrés au coeur des objets de type foudre en boule, ceux-ci devraient emettre  essentiellement aux énergies de l'ordre du keV alors que la littérature mentionne plutot une température interne de plusieurs milliers de degrés.

Pour des micro foudre en boules chargées de Deutérium à plusieurs milliers de degrés, à priori nous retrouvons les problèmes de la fusion froide : impossible aux noyaux de franchir les barrières de répulsion électrostatiques s'ils n'ont des énergies que de quelques eV.  Notons cependant que bien
que froid, le milieu intérieur à la micro foudre en boule n'est pas sous forme atomique : il ne peut être constitué que d'électrons (cluster d'electrons) ou que de noyaux grâce à la séparation des charges opérée par la discontinuité (Les particules de charges opposées sont agglutinées sur la face externe de la discontinuité de telle sorte qu'à distance l'objet est globalement relativement neutre mais peut être très magnétisable par alignement des spins de toutes les particules qui le constituent). Il ne s'agit donc pas non plus d'un plasma, milieu neutre.  A aussi basse température un plasma serait également très peu ionisé, i.e essentiellement constitué d'atomes. Une conséquence interessante est qu'une particule chargée de haute énergie (keV , Mev ou Gev) se propageant dans ce milieu ne perd pas très rapidement son énergie par interaction atomique i.e par ionisation d'innombrables atomes comme dans un milieu constitué d'atomes mais peut garder son énergie jusqu'à ce que, si les sections efficaces et la densité du milieu le permettent elle interagisse avec un noyau. La probabilité d'interaction dépendrait dans ce cas de la densité de particules à l'intérieur de la foudre en boule, un paramètre également difficile à évaluer mais pouvant à priori être important surtout lorsque celle-ci traverse un matériau de haute densité i.e liquide ou solide.

Ainsi donc même si les mini foudre en boule sont froides, un rayonnement de haute énergie les traversant a de bonnes chances d'interagir et de porter quelques un de ses noyaux à plusieurs keV leur permettant de fusionner et de libérer à leur tour d'autres noyaux de haute énergie. Une réaction en chaîne est même envisageable qui produirait une fin explosive de la mini foudre en boule plutôt que l'évaporation progressive par perte de charges. Les deux types de fin de vie de l'objet ont été constatés. Le rayonnement de haute énergie initiateur pourrait aussi bien provenir d' annihilations telles que celles évoquées plus haut, de rayons cosmiques (faible flux donc faible probabilité pour une minifoudre en boule),  ou de rayonnements émis par les noyaux radioactifs à l'intérieur ou au voisinage de la mini foudre en boule.

Il résulte de tout ceci que l'évolution d'un tel objet lorsqu'il contient un combustible nucléaire peut être très variable et à priori difficile à contrôler.

6/3/2009


Les fonctions de luminosité des noyaux de galaxie semblent mieux se comprendre si on postule l'existence de particules caméléons dont les propriétés varient en fonction des caractéristiques du milieu qu'elles traversent.
Le photon massif que nous avions postulé dans notre précédente News ci-après et qui n'acquérait de la masse qu'au voisinage d'une discontinuité peut finalement être considéré comme une sorte de particule Caméléon puisque une de ses propriétés, sa masse, peut dépendre du milieu où il se trouve. DG rend également possible la génération étonnante
d'un champ vectoriel de type électromagnétique à partir d'un champ tensoriel d'ordre 2 diagonal et de composantes Phi=B=-A dans le système de coordonnées privilégié, champ porteur d'ondes longitudinales de la théorie. Ceci permet d'envisager la production par une source lointaine d'ondes longitudinales  pouvant se propager sur de longues distances avant de se transformer ou peut être plutôt d'interagir avec nos détecteurs sous la forme d'un champ de type électromagnétique. A très haute énergie le rayonnement que nous percevons des lointains Noyaux Actifs de Galaxie pourrait bien être complètement dominé par ce type de contribution tandis que le rayonnement électromagnétique usuel ne pourrait pas se propager sur de telles distances à de telles énergies à cause de son interaction avec le rayonnement de fond diffus.

21/2/2009


Le télescope Fermi découvre l'explosion (un sursaut gamma) la plus violente jamais observée dans l'Univers! la puissance de plus de 8000 Supernovae! Les scientifiques ont également observé un retard d'environ 5 secondes dans les temps d'arrivée des rayons gamma de différentes énergies. Dans le cadre de la théorie de la gravité obscure, j'envisagerais l'apparition d'une discontinuité d'un niveau de potentiel colossal, probablement au coeur d'un astre en effondrement et un rebond extraordinaire sur celle-ci pour tenter d'expliquer le phénomène.
La discontinuité est en quelque sorte une frontière entre les deux versants de notre univers. C'est au franchissement de celle-ci que le temps s'inverse et il est assez naturel d'envisager un univers d'un type différent entre les deux versants, univers dépourvus de temp puisque le temps y devient une variable spatiale supplémentaire. Cette transformation que subie la variable temporelle doit être conçue comme une rotation dans le plan complexe transformant la variable imaginaire pure i.t en une variable réelle t.  En principe cette rotation ne s'effectue qu'au lieu exact de la discontinuité mais il est permis d'imaginer une extension du formalisme de la théorie tel que la rotation commencerait à s'effectuer dès lors que l'on s'approcherait suffisamment près d'une discontinuité. Dans ce proche voisinage, les lois de la physique devraient être réécrites en y ajoutant les effets d'une dimension supplémentaire. Les physiciens théoriciens sont rompus à ce genre d'exercice qu'ils pratiquent à hautes doses notamment dans le cadre des théories des corde. Les effets deviendraient de plus en plus importants au fur et à mesure que l'on se rapprocherait du lieu exact de la discontinuité. Une conséquence de l'apparition d'une petite composante de dimension supplémentaire spatiale est que les particules de lumière devraient y acquérir une masse non nulle se traduisant à son tour par le fait que les photons auraient une vitesse dépendante de leur énergie. Ce serait une possible voie (d'autres théories prédisent ce type d'effet associé à des dimensions supplémentaires) pour expliquer un retard entre les différents rayons gammas si des scénarios plus conventionnels ne parvenaient à en rendre compte de façon convaincante... affaire à suivre.

25/1/2009 actualisé au 30/1/2009


Des progrès expérimentaux interessants sont régulièrement annoncés qui concernent la mise en évidence sous de multiples aspects des effets quantiques parmis les plus déconcertants: ceux liés à la non localité de la Théorie de la Physique Quantique.  Cette non localité manifeste dans le formalisme quantique était tellement difficile à admettre qu'Einstein imagina des expériences de pensée qui selon la théorie devraient conduire à de tels effets (effets EPR) et proposa entre autres comme argument l'absurdité apparente de ces effets pour rejeter la Mécanique Quantique. Aujourd'hui pourtant les effets en question sont bien observés au laboratoire. Deux atomes qui ont été préalablement intriqués (ont interagi) demeurent "non séparables": ils sont mathématiquement décrits par une unique fonction d'onde et toute perturbation ou mesure sur un des atomes doit influencer instantanément l'autre atome quelle que soit la distance qui les sépare. Malheureusement cette influence instantanée à distance ne semble pas exploitable pour transmettre de l'information à vitesse infinie et sans support de transmission car, si j'ai bien compris, pour se convaincre que l'influence a bel et bien eu lieu il faut disposer de l'information sur les deux atomes (à confirmer!). Un recepteur possédant un des atomes ne peut donc pas constater de perturbations porteuses d'information (dues aux perturbations subies par l'atome distant) en ne considérant que ce dernier.

Il n'en demeure pas moins que de telles infuences à vitesse infinie existent dans la nature ce qui pose question puisque selon la relativité restreinte aucun signal physique ne peut être véhiculé à une vitesse supérieure à celle de la lumière c.  Aucun problème, disent la majorité des physiciens puisque justement la non localité quantique ne peut être utilisée pour transmettre concrètement d'informations.
Si c'était le cas nous aurions en effet à affronter de redoutables paradoxes apparents: car une transmission à une vitesse supérieure à c, à fortiori instantanée, peut toujours être perçue par un observateur ayant une vitesse adéquate comme un signal remontant le temps.  Par exemple, si je suis capable de transmettre instantanément pour moi une information à un ET situé à 100 années lumières et dont la planète s'éloigne de la terre à 30km/s et si ce dernier me renvoie immédiatement l'information également instantanément pour lui,
il faut savoir que le signal retour n'est plus instantané pour moi mais remonte le temps. Je devrais le recevoir ~ 3.65 jours avant mon envoi initial. Autrement dit, via l'ET, je me serai transmis à moi même une information dans le passé.

C'est ce type de situation qui est jugé généralement inacceptable et utilisé pour exclure les théories avec des vitesses tachyoniques (supérieures à celles de la lumière)  car, dit on,  le fait de pouvoir envoyer de l'information dans le passé peut conduire à des paradoxes irrémédiables. Envoyer une info dans le passé pourrait modifier le cours passé des événements en contradiction avec ce que l'on sait s'être réellement passé...

En réalité, si l'on y réfléchit attentivement, il n'y a de vrai problème que si l'on suppose l'intervention d'une conscience et en particulier du libre arbitre. Dans un univers complètement inanimé, rien n'empêche que n'importe quel événement soit non seulement influencé voire déterminé par toute l'histoire passée des événements mais aussi un certain nombre d'événements futurs du moment que l'histoire globale est cohérente: les événements futurs pouvant eux même être sous influence de l'événement passé qu'ils influencent également.

Une question qui parait insoluble ne surgit que lorsqu'on envisage un être conscient susceptible de décider de faire prendre à l'histoire future un autre tour que ce dont il a été informé par ses expériences prémonitoires. Par définition ce futur, en effet, est déjà "écrit" et ne peut être modifié puisqu'il existe véritablement, étant à l'origine des informations que je reçois du futur. 

Le problème n'est donc pas une simple question de physique mais recouvre des aspects liés à la nature de la conscience et du libre arbitre, qui sont déjà en grande partie hors de portée du physicien avec les outils qui sont habituellement les siens. En particulier un des aspects les plus essentiels du temps dont la relativité restreinte ne rend pas compte, est le fait qu'il s'écoule et en sens unique contrairement à l'espace qui peut être parcouru en tous sens...

C'est pourquoi ce type de paradoxe n'est pas pour moi un élément à prendre trop au sérieux dans la construction des théories. Il semble plutôt que le soit disant "paradoxe" ne tienne qu'à notre incompréhension ou conception étriquée de la nature de la conscience et de la nature profonde du temps qui n'est probablement pas étrangère à celle de la conscience. Je suis d'autant plus conforté dans cette position qu'il existe un grand nombre de témoignages
décrivant des états de conscience dans lesquels des perceptions prémonitoires ont lieu (comme dans les rêves)  ou perceptions "en dehors du temps" comme dans les NDE ou certains témoignages décrivent un temps qui peut être parcouru comme l'espace,  de façon panoramique...

Les interactions gravitationnelles instantanées de la théorie de la gravité obscure dans le cas de la coexistence de multiples référentiels privilégiés ne permettraient sans doute pas d'éviter les signaux remontant le temps.

Une interessante possibilité serait que justement comme dans les ouvrages de science fiction, des influences remontant le temps soit à même de produire des bifurcations et des évolutions parallèles sous l'impulsion d'une conscience douée de libre arbitre, une façon comme une autre d'éliminer le paradoxe potentiel. Or des situations où des évolutions parallèles superposées existent réellement ne sont pas  du domaine de la fiction. La mécanique quantique manifeste de telles superpositions d'états
certes confinées au microcosme mais bel et bien susceptibles d'évoluer parallèlement qui sont justement à l'origine des effets EPR. Le processus par lequel ces superpositions sont "réduites" et un unique choix est effectué par la nature semble largement aléatoire mais surtout est une énigme complète. La réduction du paquet d'onde pourrait bien être le processus par lequel la superposition cesse dans un univers simplement parceque les différentes potentialités se sont actualisées dans un certain nombre d'univers qui sont générés et poursuivront des évolutions parallèles.  Le rôle du libre arbitre et de la conscience dans ces processus doit être sérieusement étudié d'autant plus que, comme nous l'avons souligné, les prétendus "paradoxes" soulevés par la possibilité de transmission d'information retrochrone, sont très étroitement liés à l'existence et l'intervention du libre arbitre.

Toutes ces idées concernant la MQ et la relativité ont bien sûr été remuées en tout sens depuis que ces deux théories existent. Le problème est que pour la majorité des physiciens le seul fait de poser les problématiques de cette façon et d'envisager notamment le rôle de la conscience est source d'une sorte de terreur métaphysique qui leur fait perdre toute rationalité et les bloque complètement. Pourquoi Alain Aspect qui le premier a mis en évidence expérimentalement les effets EPR n'a t'il pas reçu le prix nobel ? Cachez cette non localité que je ne saurais voir! Le comportement de rejet irrationnel est du même type que sur le sujet des phénomènes paranormaux et des OVNIS. Il se pourrait bien en définitive que notre science ne soit bloquée que par des raideurs ayant pour origine des choix métaphysiques. Pour un spécialiste de la gravitation, comprendre la théorie de la gravité obscure présentée dans ce site est  un jeu d'enfant...mais les choix métaphysiques liés à un telle bifurcation sont tout simplement insupportables...


2/12/2008 correction (en rouge) de la news du 30/11/2008 

La vraie science consiste à expliquer beaucoup avec très peu. Je vous invite à consulter cette
brève introduction historique tirée de ma conf à l'ENSAM (19/12/2007) qui précise ce que j'entend par la. J'y explique que la vraie science repose sur deux intuitions: d'une part que l'on peut décrire mathématiquement les phénomènes (première intuition) mais aussi que cette description peut elle même être déduite de façon univoque d'un tout petit nombre voire un unique principe simple (deuxième intuition).
Lorsque certains principes qui ont fait leurs preuves dans le passé ne sont plus suffisamment contraignants, le champ des possibilités logiques explose. La déduction n'est alors plus univoque ce qui revient à dire le plus souvent qu'il n'y a plus de déduction possible (perte de prédictivité).  La tentation est alors grande de continuer à construire sur ces bases en exploitant toutes les combinaisons qui s'offrent, souvent, au début, une pour chaque anomalie observationnelle qui se présente, ensuite de quoi il suffit d'exploiter la souplesse de la construction multi-paramétrée ainsi élaborée de toutes pièces pour rendre compte d'un grand nombre d'observables.  Rien qu'en cosmologie, c'est le programme exhaltant dans lequel tout le monde s'engouffre sans se soucier du fait que la deuxième intuition ayant par la même été sacrifiée, ce n'est même plus de science dont il s'agit. Le programme se décline sous de multiples variations: matière noire, énergie noire, quintessence, théories en f(R), ...toutes exploitent un espace de liberté beaucoup trop vaste et pas assez contraint par les principes fondateurs de la Relativité Générale et introduisent des paramètres arbitraires.
Dans le cadre de la théorie de la gravité obscure les choses se présentent de façon radicalement différente. Bien que la nouvelle construction intègre un nombre important de nouveaux ingrédients, ils sont tous imposés par un unique principe dont tout découle: l'inversion du temps est une symétrie globale qui doit être respectée par les équations de la gravité. C'est la contrainte supplémentaire qui donne du sens à toute la construction et n'en fait pas un bricolage arbitraire.
Ceux qui n'ont pas les idées très claires sur ce que doit être la science peuvent trouver suspecte une théorie qui expliquerait tout (ou presque) alors qu'il ne s'agit rien de moins que du critère par excellence permettant de distinguer entre vraie et fausse science. La théorie Newtonienne en son temps paru tout expliquer de la gravité, la Relativité Générale de même. 
La vraie science qui consiste à expliquer tout ou presque avec rien ou presque est toujours prodigieuse et c'est à cela qu'on doit la reconnaitre.

J'ai expliqué longuement dans cette page mais aussi en 
conférence pourquoi les rayonnements étranges découverts dans des expériences de décharges constituent une signature rêvée de la physique des discontinuités de DG. Des discontinuités gravitationnelles doivent se produire dès que le potentiel franchit un seuil et la barrière ainsi créée permet de confiner des particules (et leur énergie) à l'intérieur de la sphère ainsi délimitée. L'objet créé n'est pas une particule élémentaire car l'épaisseur de sa trace (beaucoup plus large que celle d'une particule élémentaire) diminue au fur et à mesure qu'il se propage : il s'évapore!

Cet article de vulgarisation (voir aussi ici) fait aussi état du fait que le rayonnement étrange crée un magnétisme induit qui résiste au transport.
G Lochak interpréte donc le rayonnement comme celui de monopoles légers de l'ordre du GeV. Est ce la raison pour laquelle certains physiciens depuis peu semblent s'exciter à l'idée de découvrir que des nouvelles particules scalaires de l'ordre du GeV seraient responsables des anomalies récemment annoncées par Pamela et une partie de la collaboration de CDF  (voir News précédentes)? Affaire à suivre...

Dans le cadre de DG je viens de réaliser qu'il n'y a rien à introduire de plus pour obtenir des structures magnétiques stables.  Tout d'abord il faut savoir que l'électromagnétisme et la gravité fonctionnent ensemble dans le cadre de DG de façon infiniment plus harmonieuse que la RG et l'électromagnétisme grâce au fait que l'espace-temps plat et non dynamique n'est que la scène passive dans laquelle se déroulent les processus gravitationnels comme électromagnétiques. Par conséquent comme pour la gravité, l'électromagnétisme (le potentiel électrostatique) est sujet à des discontinuités. Ce sont probablement celles-ci qui se manifestent dans les foudres en boule, EVs, ectons... bref, les rayonnements étranges. Ces discontinuités ne sont pas percues de la même façon par les charges électriques négatives et positives. Les électrons d'un amas sont prisonniers d'une discontinuité car celle-ci les repousse vers l'intérieur de la cavité sphérique qu'elle délimite et peut ainsi les confiner malgré la répulsion qui s'exerce entre eux. La même discontinuité bloque par contre toutes les particules positives qui attirées par les électrons voudraient pénétrer dans la cavité.
Le vide est en permanence le siège de la création et annihilation de paires particules -anti-particules et dans un champ electrostatique le vide peut donc se polariser avec des effets mesurables bien connus. Dans le cas qui nous occupe ce sont les paires créées à l'endroit de la discontinuité avec un électron vers l'intérieur et positron vers l'exterieur qui vont aboutir à cette polarisation: la face interne sera chargée négativement, la face externe positivement. Les spins de ces particules vont avoir tendance à s'aligner et produire un magnétisme orienté suivent une direction à priori quelconque mais qui peut être déterminée par un champ magnétique externe. Une fois magnétisées les mini-foudres en boule pourront à leur tour probablement produire un magnétisme induit dans certains matériaux (effet Mossbauer).
Mieux encore : les charges des particules virtuelles concentrées sur les faces internes et externes produisent un fort gradient electrostatique (comme dans le cas d'une paroi cellulaire) qui peut stabiliser la discontinuité même si la sphère a perdu toutes ces charges réelles ce qui expliquerait la grande stabilité (plusieurs jours) de ces objets magnétisés piégés dans le Fer 57 par exemple.  Les objets ont alors une forme de la surface fermée de la discontinuité qui n'est pas nécessairement sphèrique. 

Le rôle de ces discontinuités en biologie nous semble aussi évident et ne demande qu'à être exploré: une discontinuité serait elle le germe ayant permis à la première membrane cellulaire d'exister, les molécules polarisées venant se placer le long de la discontinuité comme des perles sur un fil... ?


26/11/2008

Un excès imprévu d'électrons de haute énergie (entre 300 et 800 GeV) dans les rayons cosmiques détectés par Atic au dessus de l'Antartique
De telles particules ne peuvent avoir qu'une origine relativement proche: moins de 3300 années-lumière
Un apparent excès de positrons entre 10 et 100 GeVs détectés par Pamela dans les rayons cosmiques
Excès de muons dans les collisions proton-antiproton au Tevatron

Le mois de Novembre est il le théatre d'un déferlement de nouvelle physique ? Alors, matière noire ou ... physique des discontinuités de la théorie de la gravité obscure ? Les discontinuités de DG constituent un aiguillage vers un autre versant de l'univers ou l'antimatière domine et beaucoup plus chaud que le notre. Le saut de potentiel de discontinuités s'il est suffisant serait aussi susceptible d'accélérer des particules à de hautes énergies. Affaire à suivre.

26/11/2008

Les conditions de l'acier fondu (1500°C) et jusqu'au verre vaporisé (2500°C) ont perduré sur plus d'un mois et demi dans les ruines du WTC et les derniers feux n'ont été etteints qu'au bout de trois mois malgré les quantités extraordinaires d'eau déversées et sans doute auraient elles duré plus longtemps si le site n'avait pas été déblayé. Ces observations incroyables semblent exclure les réactions chimiques et comme par ailleurs le site de Ground Zéro ne s'est pas avéré significativement plus radioactif que la normale, l'hypothèse de l'utilisation de l'énergie nucléaire (bombe ou réacteur) pour la destruction du WTC est difficilement soutenable. Les ruines de GZ ont elles donc été le siège d'une réaction de type "fusion froide" obtenue par hasard et qui serait de loin la plus significative de toutes. Il y aurait il un bon coté de la destruction du WTC: l'espoir d'une source d'énergie propre et quasi-illimitée ?
Des abondances inexpliquées en certains éléments chimiques (Strontium ?) encourageraient les investigations dans ce sens.
Selon Cahill, professeur emerite de physique, "D'extrêmement petites particules qui pénètrent à travers les portes les fenêtres, partout...vous ne pouvez pas les sentir ni les voir" contamineront longtemps le site, "comme de la radioactivité" (?!)
Des analyses plus approfondies devraient permettre de trancher de même que de nouvelles expériences réunissant les conditions obtenues au WTC: thermate fondu + pic de pressions (thermobariques) +eau ==> ??

2/09/2008

Aux Etats Unis comme en Europe le catastrophisme va bon train alors que les premiers paquets de protons du LHC (grand collisionneur de Hadrons) ont été injectés dans l'accélérateur et que les premières collisions sont attendues avec impatience par la communauté des physiciens des particules.  Un trou noir sera t'il produit qui engloutira aussitôt la terre ? Si l'on se place dans le cadre théorique standard un tel risque semble exclu par le fait que des collisions naturelles à l'énergie du LHC (et bien au delà) sont produites couramment par les rayons cosmiques dans notre atmosphère et que nous sommes toujours là pour en parler. Même si la plupart de ces trous noirs devraient alors traverser la terre à une vitesse voisine de celle de la lumière, ils seraient difficilement passés inaperçus s'ils ne s'évaporent pas comme prévu. En effet, une faible fraction d'entre eux devrait être produite à faible impulsion, cas correspondant aux collisions ou les autres particules de la gerbe se partageraient l'essentiel de l'impulsion initiale du rayonnement cosmique.

Mais ce n'est peut être pas tant l'énergie atteinte par le LHC que sa luminosité qui pourrait se réveller inquiétante dans un cadre non standard comme celui de la théorie alternative de la gravité présentée dans ce site.
L'intensité nominale du faisceau est de 0.56 Ampères en moyenne mais en réalité elle présente plutôt une succession de pics de l'ordre de 80 Ampères correspondant aux paquets de protons successifs. Une telle intensité n'a rien d'extraordinaire mais ce qui est vraiment exceptionnel est la densité de courant correspondante car la section du faisceau est de l'ordre de 30 microns de diamètre.
Même l'intensité électrique des éclairs de foudre les plus puissants (1% des éclairs) de l'ordre de 200000 Ampères ayant un canal de section de diémètre de l'ordre de 2 cm correspond à une densité de courant ~8 fois plus petite que celle des pics du LHC. Autrement dit, si le faisceau du LHC était projeté sur une cible fixe, cela reviendrait à produire 40 millions par seconde d'impacts de décharge de densité de courant supérieure aux plus puissants impacts de foudre. Or on sait que la foudre produit (rarement certes) un phénomène inexpliqué dans les cadres standards appelé foudre en boule qui présente pratiquement toutes les caractéristiques prédites par la théorie de la gravité obscure. L'émergence de ces objets semble liée au franchissement d'un seuil de densité de charge, avec probablement un rôle important des effets de pointe. D'autres domaines d'observation (décharges dans des enceintes, expériences de fusion froide) mettent en évidence le même type de phénomène mais avec des dimensions beaucoup plus petites qu'on les appelle micro foudres-en-boule ou ectons ou EVs ou encore, trous noirs de la théorie de la gravité obscure.
Par conséquent le risque me semble très sérieux que le LHC beaucoup plus à cause de son extrême luminosité que par l'énergie qu'il atteindra devienne une source (surtout si le faisceau mal contrôlé vient percuter la paroi du tube à vide)  très intense de tels objets qui seront alors projetés dans l'environnement à des vitesses proches de celle de la lumière. On sait que ces objets ont la désagréable manie de produire trous et tranchées dans la matière qu'ils traversent et qu'ils sont extrêmement pénétrants donc beaucoup plus difficiles à arreter que des particules élémentaires. On connait aussi les effets cancérigènes sur les souris qui ont été exposées à ces "rayonnement étranges" ou à de la matière ayant elle même été soumise à ces radiations. On sait également que ces objets se désintègrent de façon explosive ou s'évaporent d'autant plus vite qu'ils sont de petites tailles: les ectons de quelques microns vivent quelques micro secondes, les foudre en boule (jusqu'à un mètre de diamètre) plusieurs secondes ce qui s'explique facilement dans le cadre de DG. Il faut donc s'inquiéter de la possible création de ces objets avec des dimensions et durées de vie très supérieures à celles de la foudre en boule habituelle.  Egalement, si un objet de petite taille et stationnaire est créé au croisement de faisceaux (faible probabilité cependant à cause du petit nombre d'événements produits à chaque collision) il est possible qu'il soit alors très efficacement alimenté par les croisements de faisceau ultérieurs qui produisent en permanence une importante densité de charge au point d'interaction (envisageable au LHC car on a affaire à deux faisceaux de protons contrairement au Tevatron où la charge des protons compense celle des anti-protons en moyenne) et croisse à priori sans limite tant que la machine fonctionne (la taille d'une foudre en boule ne dépend que de son potentiel électrostatique donc de sa charge).
 Il va sans dire que de tels scénarios sont très spéculatifs mais les dangers qu'ils soulèvent et le fait que les densités de courant produites par le LHC seront supérieures à celles typiques qui semblent correspondre à des seuils d'apparition de phénomènes inexpliqués (foudre en boule, ...) et souvent dangereux mériteraient un examen très sérieux. Quoi qu'il en soit, on sera vite fixés...


25/08/2008

Ne pourrait-il pas exister, au fond, une sorte de référentiel absolu, un peu comme dans la physique de Newton pré-relativiste, où une sorte de dynamique sub-quantique prendrait place avec certaines interactions pouvant effectivement se déplacer plus vite que la lumière ? C'est l'hypothèse envisagée et testée par une équipe de l'université de Genève pour expliquer les effets quantiques dits EPR: une mystérieuse influence à distance prédite par la mécanique quantique et mise en évidence expérimentalement au début des années 80 par le physicien Alain Aspect. La publication dans Nature des résultats des expériences annonce que la vitesse de l'interaction qui serait responsable de cette influence devrait être supérieure à 10000 fois celle de la lumière.
L'hypothèse que ces physiciens semblent prendre au sérieux est précisément du type de celle de la gravité obscure: l'existence d'un référentiel absolu dans lequel la gravité se propage instantanément (mais seulement dans ce cadre de référence car la relativité restreinte ne conserve pas la simultanéité par changement de référentiel).
On sait que l'expérience d'Aspect élimine toute théorie qui serait à la fois réaliste (un point de vue selon lequel le physicien a accès à une  réalité extérieure en soit et pas seulement à des résultats d'expériences et observations que nous pouvons effectuer) et locale (aucune influence n'est possible qui se propagerait à une vitesse supérieure à celle de la lumière). L
es influences non locales ayant bel et bien été mises en évidences, il est surprenant de constater que le point de vue standard et de la plupart des théories a alors été d'abandonner le réalisme ce qui ne s'imposait en aucune façon. Autrement dit on veut bien se résoudre à admettre les influences non locales (on n'a pas le choix) étant entendu qu'elles ne concernent pas le réel en soit auquel le physicien n'a pas accès mais seulement des résultats d'observation: ceci revient à adopter une étrange attitude skyzophrénique pour ne pas avoir à réellement prendre au sérieux la non localité quantique.

La théorie de la gravité obscure se présente plutôt de façon idéale pour proposer un cadre réaliste résolument non local  pour rendre compte des effets de type EPR grâce à sa gravité instantanée dans le référentiel absolu. Une autre question est de savoir si l'observateur  peut influencer le monde par le seul fait de ses observations. La théorie de la gravité obscure comme la version orthodoxe de la mécanique quantique répond affirmativement à cette question: les observations modifient effectivement le cours des choses mais cela n'impose pas l'abandon du réalisme.  En effet, la théorie suppose un référentiel absolu et une trame du vide, un vaste réseau de masses en interaction instantanée qui tapisse tout l'univers et immobile dans ce référentiel. Ce substrat est responsable du processus de réduction des paquets d'ondes, les points du réseau pouvant, de façon concertée, émettre ou absorber des ondes sphériques de telle façon que n'importe quel paquet d'onde peut effectivement être réduit par un tel processus non local.
Les réseaux de neurones de nos cerveaux sont connectés à ce réseau universel et l'informent de telle sorte que ce dernier prend ses décisions (réduit les paquets d'ondes par un processus non local) en dépendance étroite avec les observations qui sont réellement effectuées. Les différents problèmes d'interprétation de la Mécanique quantique ont été passés en revue et trouvent des solutions remarquables dans notre cadre.
Précisons que la théorie de la décohérence qui a pour ambition d'expliquer la réduction du paquet d'onde par l'interaction de la fonction d'onde microscopique avec son environnement n'explique pas comment la nature choisit entre les différents résultats de mesure possibles. Elle ne rend pas compte non plus de la non localité de ce processus.
Des expériences commencent à tester les théories réalistes non-locales et ont pu exclure une classe particulière de ces théories
mais la théorie de la gravité obscure n'est pas concernée.


22/07/2008
Un article de S. Hossenfelder vient d'être accepté pour publication dans la prestigieuse revue PhysicalReviewD. De mon point de vue c'est une étape importante pour l'accession à la visibilité des théories incluant un secteur antigravitationnel stable comme celle de JP. Petit ou la théorie de la gravité obscure. La communauté peut réaliser qu'une voie orthogonale aux modèles standards est praticable ce qui pourrait susciter, souhaitons le, un engouement et  de nombreux travaux dans la brêche ainsi ouverte.
L'article démontre qu'il est possible d'aboutir aux équations qui constituent (à peu de chose près) le point de départ de JP Petit à partir d'une unique Action, ce qui donne une assise théorique plus forte à ces dernières. Une telle Action, en suivant un principe d'économie, aurait dû aboutir à l'équation de la gravité obscure. Mais afin de rester aussi fidèle que possible à l'esprit de la relativité générale des champs supplémentaires et auxilières sont introduits exprès afin d'éviter un background (espace temps figé et non dynamique) et d'éviter de modifier la partie géomètrique des équations d'Einstein ce qui entraînerait inévitablement les bouleversements de la théorie de la gravité obscure.
Le choix conceptuel est majeur et on aboutit aussi à un jeu de deux équations (à la JPP) plutôt que l'unique de la gravité obscure avec par conséquent des conséquences phénoménologiques différentes. Il reste que la caractéristique commune aux deux approches, c'est à dire la possibilité d'une antigravitation phenomenologiquement stable, a aussi tout un lot de conséquences observationnelles communes également aux deux cadres théoriques. Je rappelle que pour ma part j'ai complètement renoncé à soumettre mon travail au système féodal à de nombreux points de vue, des revues à referee: referee anonyme mais soumission non anonyme, referee non payé, tout puissant, secret du débat (lorsqu'il a lieu): autant de règles de fonctionnement qui ne peuvent favoriser que le pire c'est à dire le rejet systématique des travaux les plus innovants.



19/6/2008 News du 16/6/2008 plus modif

J'ai considéré par erreur que le pic principal dans le CMB, 1° sur le ciel, correspond à une dimension caractéristique à l'échelle de 150 Mpcs sous la forme du pic observé dans le spectre des baryons. En réalité cela ne marche pas pour un univers accéléré entre z=1100 (découplage) et z=0.35 (redshift typique des amas de galaxies ou le pic baryonique est observé). La contrainte ne peut être satisfaite dans notre cadre que si de nos deux solutions :
a(t)~t4/3 (accélérée) et  a(t)~t4/5 (décélérée), ce serait la solution décélérée qui s'est imposée sur l'essentiel de l'histoire de l'univers froid i.e de z=1100 à z~1. Mais il faudrait alors supposer des transitions entre solution décélérée et  solution accélérée pour satisfaire les autres contraintes ce qui n'est pas satisfaisant. Dans notre cadre si l'on s'en tient à l'univers accéléré l'échelle percue sous 1 degré sur le CMB correspondrait plutôt à ~800 Mparsecs aujourd'hui soit 2.6 milliard d'années lumière. Mais si se motif périodique se partage pour moitié en un domaine où domine notre matière et un domaine ou domine au contraire la matière de l'univers conjugué, alors on s'attend à trouver des vides de l'ordre de 1.3 milliards d'années lumière de diamètre. Cela implique des inhomogénéités de l'univers à des échelles beaucoup plus importantes que ce que l'on pensait et poserait problème au modèle standard. La mise en évidence récente d'un grand vide de près d'1 milliard d'années lumières est peut être la confirmation de ce motif périodique à grande échelle non plus seulement dans le CMB mais aujourd'hui. Quant au pic baryonique il ne correspondrait qu'aux dimensions typiques des conglomérats de matière de l'univers conjugué et n'aurait rien à voir avec le principal pic du CMB. Il serait plus probablement lié à l'existence d'un système primordial d'ondes gravitationnelles stationnaires.

Nous avons expliqué récemment les bonnes raisons que nous avons de penser que la structure discrète du réseau de points qui constituent la trame du vide peut être à l'origine de pics à des longueurs d'onde sous multiples de l'échelle fixée par le pas du réseau et l'expansion dont a bénéficié l'univers depuis son origine jusqu'à l'époque du découplage.
Grâce au taux d'expansion très lent qui favorise les concentrations de matière sous l'effet de la gravitation même dans une phase dominée par le rayonnement, cette structure périodique du vide a très tôt produit une légère séparation de la matière de notre univers et de celle de l'autre versant.  Cette structure se trouve sous la forme de pics dans le spectre du CMB qui ne sont donc pas des pics acoustiques! Discontinuités et taux d'expansion différents des deux versants (l'un est accéléré, l'autre décéléré) ont joué un rôle majeur pour que la séparation entre matières des deux versants produise les asymétries observée : y compris à l'échelle de 150Mpcs des bulles vides (versant obscur)/ filaments (notre versant). Les résultats récents supposant la répétition d'un motif semblent confirmer que l'on puisse obtenir des pics ressemblant à ceux observés même dans une configuration stationnaire (donc sans effets Doppler contribuant aux fluctuations du spectre!).
Les simulations détaillées sont toujours attendues qui permettront de confirmer dans le détail ce scénario complet et prometteur pour tous les observables classiques de la cosmologie...mais mon isolement étant total, ce n'est sans doute pas pour demain...
 
Par ailleurs, la physique des discontinuités est susceptible d'affecter de façon cruciale la composition chimique de l'univers, non seulement dans sa phase primordiale mais aussi ultérieurement. Les effets associés aux discontinuités devraient être pleinement compris avant de s'aventurer dans une reconstitution cosmologique aussi séduisante soit elle.



13/6/2008

Le réseau de masses alternées qui constitue la trâme du vide dans le cas de DG est un aspect de la théorie qui peut être très simplement validé. D'une part, du fait que le réseau possède une structure périodique on s'attendrait dans le cas de la répétition parfaite d'un motif à obtenir un spectre de raies à des fréquences multiples de la fondamentale. Mais en réalité, il y a bien sûr une variabilité (dispersion) des fluctuations d'une cellule à l'autre qui produit plutôt une succession de pics assez larges. C'est l'interprétation qui s'impose dans notre cadre du spectre du CMB. Le deuxième aspect est qu'un réseau (réseau cristallin analogue à celui d'un solide) présente toujours des directions préférentielles. Il n'est par conséquent pas étonnant que des analyses aient révéllé depuis longtemps des directions et alignements assez significatifs dans le quadrupole et l'octopole du CMB et qu'une analyse telle que celle publiée récemment par A Riazuelo confirme l'existence de ces directions privilégiées en les attribuant à l'effet d'une topologie non triviale (tore dont les grandeurs caractéristiques ne seraient pas égales). Précisons par ailleurs, juste pour fixer les idées, qu'un réseau dont le pas serait de l'ordre du mm et qui aurait laissé son empreinte (puits et collines de potentiel stabilisés par des discontinuités) dans le fluide cosmique primordial à une température de 1028K se manifesterait aujourd'hui par une structure périodique de période ~100Mparsecs.

  
30/05/2008

L'unification naturelle de l'électromagnétisme et de la gravitation dans le cadre de DG aboutit au fait que, tout comme le champ gravitationnel possède un fond cosmologique homogène et isotrope auquel se superposent (multiplicativement!) des perturbations, de même le potentiel électromagnétique admet un fond homogène de tel sorte que le potentiel électrostatique d'une charge au repos peut s'écrire a(t)V(r) où V(r) représente le potentiel électrostatique usuel et a(t) le facteur d'échelle. On montre (
dernière version du review en ligne sur ce site) qu'il en résulte une variation identique des temps caractéristiques des processus électromagnétiques et gravitationnels sur une échelle cosmologique. Comme a(t) doit être traité comme un fond il est bien sûr exclu qu'il figure dans un développement perturbatif de la TQC. Il se factorise au contraire donc contribue identiquement à tous les ordres, c'est pourquoi ses effets ne peuvent évidemment pas être mis en évidences en comparant des fréquences de processus atomiques dans le passé et aujourd'hui. Aucune incidence donc sur les tests de variation de la constante de structure fine ou de la constante G de la gravité. Les effets de a(t) se manifestent donc exclusivement dans le comportement des photons libres (horloges de lumière) relativement aux atomes ou systèmes gravitationnels liés: i.e. les effets de redshift! on obtient alors le régime en accélération douce a(t) ~t4/3 donc a=1.33  qui s'accorde bien ( à 1.7 écarts standard) à la mesure la plus récente tirée du diagramme de Hubble des SNs (SCP_2008: a=1.52+-0.11).

8/6/2008

Le ppt de ma conférence d'hier est accessible en ligne sur ce site. Les discontinuités y sont à l'honneur. L'unification de la gravité et de l'électromagnétisme entreprise récemment et rendue indispensable par la prise en compte des contraintes provenant des tests de la variation des constantes fondamentales, notamment G et la constante de structure fine, ont entrainé un bouleversement des prédictions de DG qui s'est propagé à tous les secteurs de la théorie. C'est pourquoi le nouvel état des lieux a pu sembler contradictoire avec un certain nombre d'affirmations de ma précédente conférence à Aix en Décembre dernier. Je précise que:

- La théorie a certains points communs avec le cadre Newtonien (gravité instantanée et ne dépendant pas du mouvement des masses: ceci n'a pas évolué) dans le système de référence privilégié mais dans ce système uniquement car la théorie est relativiste. J'ai détaillé tout cela ici pour dissiper des confusions que ma présentation d'Aix pouvait avoir générées.
- Des simplifications mathétiques importantes se produisent: c'est bon signe! (l'ellipse de Kepler prenait une demi-page de description mathématique là ou les systèmes épicycliques nécessitaient des ouvrages entiers). J'ai complètement passé sous silence les aspects mathématiques dans une présentation grand public mais les connaisseurs pourront se référer à mon review pour les détails. A quelques rares exceptions près, mes prédictions sont toutes quantitatives et calculées. J'invite tout un chacun à les vérifier.




23/04/2008

Des tests comme celui-ci récent de la Relativité Générale peuvent confirmer la perte d'énergie par rayonnement gravitationnel prédite par la RG, mais comme la théorie de la gravité obscure prédit exactement la même perte énergétique, cet aspect n'est bien sûr pas discriminant pour nous...
Par contre il semble que cette observation permette d'accéder aux effets de précession de second ordre donc, sauf erreur de ma part, aux paramètres Post-Post-Newtoniens qui dans le cadre de la théorie de la gravité obscure diffèrent sensiblement de ceux de la RG. En supposant correcte l'analyse  de l'article (dont aucun calcul n'est explicité!) je calcule que la théorie de la gravité obscure prédirait le principal flash de lumière ~ 2 jours plus tôt que la RG : la RG prédisait le flash au 13 septembre 2007 et DG donc au 11 septembre
(!?) 2007. Selon l'article de Valtonen le flash attendu s'est produit le 12 septembre plus ou moins 2 jours. Par conséquent , il semblerait que les tests de ce type soient sur le point de permettre de discriminer entre les deux théories à moins que ce ne soit déjà le cas et que les erreurs aient été surestimées et la procédure de calcul du start du flash mal définie (l'ajustement par une droite(!?) sur la partie montante du burst en particulier me semble plus que douteuse) de telle sorte que l'observation reste aussi compatible que possible avec la prédiction de la RG...tout ceci en supposant que cette analyse n'est pas complètement foireuse ce qui ne me semble pas aller de soit. Dans le cadre de DG , plutôt que la collision avec un disque d'accrétion, la traversée de la discontinuité qui entoure le trou noir géant serait la source des flashs durant toute la durée de cette traversée.

23/04/2008 réactualisé

Tandis que l'on recherche encore fébrilement une preuve de l'existence des trous noirs de la RG, il n'est pas inutile de préciser que les trous noirs de la gravité obscure ont été mis en évidence depuis belle lurette
y compris dans le laboratoire où ils ne sont pas noirs du tout mais au contraire très brillants: on les appelle alors plus communément foudre en boule ou EV ou ectons ou encore micro boules de feu et toutes leurs caractéristiques sans exceptions répondent à celles que prédit la gravité obscure. Un article récent fait le point sur un certain nombre de ces observations fascinantes confirmées indépendamment par de nombreuses techniques expérimentales souvent dans le cadre des observations de phénomènes nucléaires à basse énergie (fusion froide). Liste non exhaustive des propriétés qui collent:
1) Une discontinuité peut confiner des particules de matière  (électrons, protons, atomes , noyaux) donc une importante quantité d'énergie dans un volume restreint: stabilité des EVs.
2) Ce confinement permet de surmonter des barrières électrostatiques et de produire les phénomènes nucléaires
3) La discontinuité est une source d'énergie: toute particule piégée gagne de l'énergie, toute particule qui s'échappe perd de l'énergie: la température peut donc être considérablement plus chaude à l'intérieur de la boule qu'à son voisinage le plus immédiat.
4) Les neutrons produits par des réactions nucléaires qui parviennent à s'échapper sont considérablement ralentis au franchissement de la discontinuité d'où la difficulté à les détecter dans les expériences de fusion froide
5) Ce sont des accumulations locales de charges qui donnent selon la théorie naissance à ce phénomène. D'où leur présence dans tous les phénomènes de décharges (atmosphériques , dans des enceintes, Z machine, dans le palladium, dans le SPAD, au voisinage d'électrodes ...etc... )
6) Le caractère chargé électromagnétiquement des foudres en boule et EV est bien connu ce qui ne les empêche pas de se propager dans la matière grâce à la discontinuité qui limite les phénomènes de perte d'énergie et permet au paquet de particules de traverser la matière parfois en y laissant son empreinte (trous). Le phénomène toujours macroscopique (rien à voir avec une particule élémentaire) peut s'évaporer (comme on l'observe) au fur et à mesure que l'amas perd ses particules chargées.
7) Les traces en pointillés s'expliquent par le fait que la discontinuité représentant un aiguillage vers le versant conjugué de l'univers, l'objet peut alternativement apparaître et disparaître de notre versant...aucun autre cadre théorique connu n'a la moindre chance de rendre compte de cet aspect qui est de loin le plus déconcertant.

Il serait assez amusant de voir apparaître ces phénomènes dans les expériences d'une autre communauté de physicien qui est peu au courant de ces observations: les physiciens des particules. Il semble même qu'ils aient été observés dans des expériences d'ions lourds, où , vous allez rire, ils ont été pris pour des trous-noirs de la RG...Si le futur LHC les produit en pagaille, gageons que tous les expérimentateurs annonceront triomphants la découverte de micro trous- noirs en évaporation rapide prévus par quelques bricolages à dimensions supplémentaires.

Pour finir, il n'est pas inutile de rappeler que tous ces bricolages constituent réellement une très grave déviance des règles du jeu de la
science. Le seul fait de l'existence de deux échelles d'énergies voisines bien que sans aucune relation entre elles a priori tient du miracle et ne devrait même pas être sérieusement envisagé. C'est pourtant ce que présupposent toutes les constructions qui prennent la constante cosmologique au sérieux, notamment le modèle Lambda CDM. 

 20/04/2008

La théorie de la gravité obscure présuppose un cadre de référence privilégié ce qui permet entre autre de définir une coordonnée de temps sans ambigüité et en particulier permet non seulement d'envisager mais même de façon quasi inévitable entraîne l'existence d'un réseau spatial de points-masse en interaction gravitationnelle. Ce réseau est immobile dans le cadre de référence lui même probablement lié au cadre de référence bien connu que définit le rayonnement à 3K remarquablement homogène et isotrope en première approximation que nous recevons de toutes les directions. La terre de par son mouvement autour du soleil décrit des cycles par rapport à ce système de référence matérialisé par le réseau et nous nous attendons à ce que l'interaction physique de tout corps se propageant dans ce réseau susceptible d'être mis en vibration et  de rayonner produise donc un signal manifestant une périodicité annuelle, exactement ce que prétendent avoir observé depuis 10 ans les physiciens italiens de la collaboration DAMA , observation récemment confirmée. Englués qu'ils sont dans le particulièrement vilain bricolage à base d'épicycles,  matière noire et énergie noire, qu'est le modèle standard cosmologique il n'est pas étonnant que les physiciens cherchent désespérément à se convaincre  qu'ils voient dans ce signal une preuve d'existence de particules nouvelles intensément recherchées, les particules de matière noire. Malheureusement si tel était le cas on s'attendrait à ce que ces particules soient aussi observées dans d'autres expériences, CDMS et Coupp, qui en fait les excluent.

25/03/2008


L'été dernier j'avais eu vent d'une rumeur concernant des anomalies de la relativité découvertes avec le système GPS mais tenues secrètes. Si ces effets de désynchronisation d'horloge sont officiellement annoncés, j'envisagerai sérieusement  l'influence des discontinuités en DG.

29/2/2008


La piste précédemment évoquée d'un pont entre l'électromagnétisme et la gravité se confirme. Il n'y a en fait rien à faire: on dispose d'une équation d'onde et la conservation du courant source impose la jauge de Lorentz. Par conséquent c'est bien une théorie complète de l'électromagnétisme que le secteur propagé de la théorie de la gravité obscure nous offre gratuitement! Plus précisément, le secteur propagé de la théorie génère des ondes du champ tensoriel d'ordre deux qui d'habitude est associé à la gravité mais les particules tests ne sont pas soumises à ce champ mais au champ de type électromagnétique dérivé du quadripotentiel identifié au vielbein. Il existe apparemment deux constantes de couplage possibles pour la production de telles ondes: l'une est celle de la gravité (on explique ainsi la décroissance du pulsar mais aucun interféromètre ne pourra détecter les ondes produites puisqu'elles sont de type électromagnétique et probablement n'affectent que les particules test chargées) , l'autre celle de l'électromagnétisme (on obtient donc effectivement gratuitement tout l'électromagnétisme). DG semble petit à petit converger vers une ESTOE:"Extremely Simple Theory Of Everything". Souhaitons qu'elle ne connaisse pas le même sort que la plupart de ses concurrentes. :-)

13/2/2008

On me demande souvent en particulier ces derniers temps si je travaille seul sur cette voie théorique. Personne n'ayant manifesté à ma connaissance un intérêt particulier pour cette voie précise de recherche (même s'il en existe d'autres plus ou moins apparentées), je suis effectivement totalement isolé sur le sujet mais j'encourage toutes les bonnes volontés à contribuer évidemment dans la transparence et le partage comme il se doit. J'ai notamment ouvert récemment une piste vers l'unification entre électromagnétisme et gravitation qui me paraît très prometteuse. J'avais aussi proposé en dernière page de mon review une idée que pour le moment je n'ai pas mise suffisamment à l'épreuve et qui gagnerait à être explorée: en proposant un mécanisme par lequel une particule de masse nulle puisse acquérir une masse effective en se propageant dans un réseau essayer de faire sortir un spectre de masses de particules élémentaires des propriétés d'un réseau tel que ceux que l'on peut trouver en cristallographie: il en existe pas mal donc un certain nombre de combinaisons à étudier ce qui ne devrait pas représenter une tâche insurmontable. Personne ne sait aujourd'hui prédire le spectre de masse des particules élémentaires. En cas de succès ce serait le Jackpot. Avis aux amateurs!
L'existence du réseau et ses symétries pourraient aussi être étudiées via les propriétés du CMB comme le font JP Luminet et ses collaborateurs. A préciser cependant que la figure choisie par JPL&Co est le dodécaèdre qui ne peut paver qu'un espace de courbure légèrement positive et pas un espace plat comme celui de la théorie DG. C'est pourquoi, j'avais plutôt retenu un polyèdre à faces hexagonales et carrées le seul qui puisse simultanément paver un espace plat, permette une alternance de masses positives et négatives en ses nœuds et présente un angle caractéristique de 60 degrés proche de celui au delà duquel le CMB manifeste ses anisotropies. 

9/2/2008

La nouvelle version du review de la théorie de la gravité obscure en ligne sur ce site et sur arXiv explicite par le calcul les arguments donnés dans la news précédente du 2/2/2008. Par ailleurs, j'y annonce deux nouvelles avancées majeures:
1- une très belle voie d'unification de la gravité et de l'électromagnétisme est ouverte.
2- la théorie peut expliquer non seulement l'accélération de l'univers mais aussi pourquoi l'univers est passé récemment d'une expansion linéaire à constamment accélérée comme on l'observe.

2/2/2008

L'anomalie de Pioneer est une dérive fréquentielle vers le bleu anormale du signal radio reçu des deux sondes Pioneer 10 et 11 de 12.5 à 20 Unités Astronomiques (du voisinage de Saturne aux confins du système solaire). Elle constitue une anomalie absolue pour la théorie de la gravité couramment admise, la Relativité Générale. En revanche, l'anomalie de Pioneer signe parfaitement l'effet d'une discontinuité de la gravitation telle que prédite par la théorie de la gravité obscure DG. Une telle discontinuité délimite deux régions de l'espace R1 et R2: les horloges de R2 sont accélérées par rapport à celles de R1. La dérive temporelle du décalage fréquentiel relatif entre les horloges (df/dt)/f  est prédite par DG à la valeur 2H0 (le paramètre de Hubble H0 décrit dans la cosmologie standard le taux d'expansion de l'univers). Cette constante dérive temporelle du décalage fréquentiel correspond,  à ~ 15 % d'erreur près sur le paramètre de Hubble, à celle qui est détectée entre la fréquence des ondes radio de Pioneer dès que la sonde se trouve au delà de la discontinuité et celle de nos horloges de référence sur terre. Il doit donc se trouver une discontinuité de la gravité cosmologique entre nous et les sondes qui doit se traduire par une très abrupte apparition de la dérive fréquentielle qui prend la valeur observée dès que la discontinuité est franchie. Dans les barres d'erreur, un tel effet  ne pourrait pas avoir mieux été mis en évidence qu'il le fut par Pioneer 11 en 1983 à ~12.5 UA (voir p19).
S'il est remarquable que l'anomalie de Pioneer constitue une véritable signature d'un effet attendu dans notre cadre il est encore plus impressionnant de constater qu'aucune autre théorie à ce jour n'explique l'effet malgré des dizaines de propositions publiées. Ces dernières années ont été fatales à presque la totalité des modèles proposés à ce jour qui interprétaient l'effet comme une accélération anormale dirigée vers le soleil. S'il s'agissait vraiment
 d'une accélération, elle affecterait également les trajectoires des planètes externes du système solaire dans la région où l'effet Pioneer fut détecté. Or celles-ci sont connues à des précisions bien meilleures que la magnitude des déviations attendues notamment sur l'avance des périhélies. La seule piste encore possible pour les tenants de l'accélération anormale est celle qui consiste à considérer que celle-ci n'affecterait que les corps de petite taille ou ceux se propageant dans une direction radiale par rapport au soleil contrairement aux planètes dont les trajectoires sont quasi circulaires. Mais même les modèles qui s'aventurent dans une voie aussi insatisfaisante ne réussissent pas à prédire l'effet Pioneer: il s'agit de bricolages dans lesquels la valeur de l'effet dépend d'un paramètre ajusté ad hoc. La théorie de la gravité obscure est donc unique en son genre. Je vérifie dans la dernière version de mon review que si le temps accélère dans la zone des planètes externes par rapport au notre comme le prédit DG, l'influence sur l'avance du périhélie qui est de l'ordre de un sur 10 milliards par an est encore en deçà de nos capacités de détection. La dérive fréquentielle de la lumière que nous recevons des planètes externes est également trop faible compte tenu de nos capacités de résolution spectrale mais un certain nombre de projets expérimentaux en cours ayant pour objectif la mesure de la dérive en temps du redshift cosmologique (mais sur des objets à des distances cosmologiques) ont pour ambition d'atteindre les précisions suffisantes pour percevoir sur une durée de près de dix ans un taux de dérive des fréquences optiques du même ordre que celui des ondes radios de Pioneer.
Précisons enfin que l'effet Pioneer qui n'a été observé qu'au delà de Jupiter ne rentre pas en conflit avec les tests les plus précis qui contraignent des variations de la constante G  à un niveau cent fois plus petit que H0. En effet, ces tests ont été effectués en surveillant les trajectoires de la Lune et des sondes Martiennes Vikings, donc entièrement dans une zone située du même coté de la discontinuité que les observateurs terrestres. Dans cette zone, même si l'expansion ou contraction cosmique est active et produit la chute en spirale de tous les objets célestes vers le soleil, cet effet n'est pas perceptible car affecte de la même façon toute nos références atomiques (en RG l'effet serait perceptible au delà d'un rayon critique du système lié car le facteur d'échelle affecte différemment les règles et horloges de références et les distances et temps caractéristiques des états liés gravitationnellement). La dilatation ou contraction  de la partie interne du système solaire ne peut donc être mise en évidence que par comparaison avec le comportement des photons libres, effet de type décalage cosmologique beaucoup trop faibles dans le système solaire, ou par comparaison avec le comportement de l'environnement externe qui n'est pas soumis au même facteur d'échelle, i.e. effet de type Pioneer ou effet de type variation apparente de G avec avance du périhélie qui comme nous l'avons souligné est encore trop mal testé aujourd'hui dans la partie externe du système solaire.

Il est évident qu'aujourd'hui une confirmation rapide de l'effet Pioneer est beaucoup plus à la portée des sondes qui parcourent le système solaire à condition d'avoir une orientation convenablement stabilisée comme l'étaient celles des sondes Pioneer. Mais peut on raisonnablement espérer que les scientifiques de la NASA alors même que leur pays est menace sérieusement de sombrer dans la dictature seront autorisés à divulguer une telle découverte. J'en doute de plus en plus car la News de New Horizon annonçant la présence d'une discontinuité de la vitesse des particules du vent solaire à 0.4 UA de Jupiter
a disparu du site (!!!) de la NASA et plus personne n'a répondu à mes messages juste après mon premier contact des responsables par email pour leur signaler l'importance potentielle de cette découverte!!...heureusement j'avais sauvegardé le plot principal montrant cet effet.

21/1/2008 mise à jour de la news du 2/1/2007


Les énergies négatives répulsives pourraient représenter une solution simple et idéale pour produire l'expansion accélérée de l'univers ou même expliquer que celui-ci soit si remarquablement plat. Malheureusement, comme je l'ai expliqué ici, la RG est instable en présence de sources négatives. Toutes les théories proposées se doivent donc de respecter un certain nombre de conditions de positivité de l'énergie sous peine d'être rejetées, étant  considérées irrémédiablement instables. Il s'agit d'un véritable défi à relever et la plupart des tentatives se révellent non stables à l'analyse: c'est le cas d' un grand nombre de théories de gravitation modifiées suivant la voie MOND mais aussi, génériquement, des modèles issue de la théorie des cordes comme la cosmologie ekpyrotique (article d'aujourd'hui sur FS). En parallèle, des données combinées des différents observables cosmologiques
analysées suivant les canons standards tendent de plus en plus dangereusement à favoriser un univers dont l'une au moins des composantes serait un fluide violant les conditions de positivité (paramètre de l'équation d'état w < -1). S'il s'avère que w < -1, ce seront les cadres conceptuels admis de la théorie des champs qu'il faudra remettre en question et il est permis d'espérer alors que les théoriciens seront contraints de surmonter leurs à-priori négatifs pour envisager plus sérieusement la proposition de la théorie de la gravité obscure ou celle de JP Petit, toutes les deux phenomenologiquement stables bien qu'intégrant de la gravité répulsive...mais il est clair que malheureusement  nous n'en sommes pas encore là !

Je rappelle que la théorie de la gravité obscure conduit à un univers spatialement plat (tel qu'observé), pouvant être accéléré (l'univers subirait actuellement une phase d'accélération), et sans horizon (pouvant expliquer l'homogénéité à grande échelle du fond cosmologique sans avoir recours au scénario ad hoc de l'inflation). 

17/1/2008

Dans la glace, les molécules d'eau s'organisent suivant un réseau très semblable à celui que la théorie de la gravité obscure postule pour expliquer le spectre des masses des particules et qui constituerait la trame du vide. Peut on concevoir des modes de résonance entre ces deux réseaux malgré leurs échelles nettement différentes (quelques Angstrœm de pas de réseau pour la glace contre 0.1 mm pour le vide) ?

12/1/2008

Dans le cadre de la Relativité Générale, les solutions d'univers que l'on obtient ont une évolution dans le temps qui dépend du contenu de l'univers.
La plupart des solutions réalistes (qui ont des chances de pouvoir décrire l' univers tel que nous l'observons) présentent une pathologie à l'origine du temps appelée singularité. En clair, n'importe quel volume pris dans l'univers tend vers zéro lorsque l'on fait tendre la variable temporelle t vers l'instant initial du Big-Bang t=0. On aurait donc une densité infinie de matière dans la limite ou t tend vers 0 et une catastrophe car les lois de la physique (gravité et mécanique quantique) n'étant plus conciliables, cessent d'être applicables dans cette limite.
Les experts savent cependant que cette singularité n'est liée qu'au choix pour marquer le temps d'une coordonnée particulière t qui dans le cas d'une horloge en chute libre dans l'univers s'identifie à la fois au temps marqué par cette horloge mais aussi à un invariant relativiste "tau" (grandeur qui prend la même valeur dans tous les systèmes de coordonnées possibles). Un autre choix artificiel de variable temporelle pourrait faire disparaître la singularité, mais cette variable ne serait plus celle marquée par nos horloges en chute libre dans l'univers. Or ce qui importe c'est bien la présence ou non de la singularité lorsqu'on étudie l'histoire de l'univers au voisinage du temps zéro avec la coordonnée temporelle qui est celle que marquent nos horloges en chute libre et comme nous l'avons dit dans ce cas dans la plupart des modèles d'univers, la singularité est bien là et la physique s'effondre lorsque t tend vers zéro.
Dans le cadre de la théorie de la gravité obscure, il existe aussi une coordonnée temporelle privilégiée cosmique t qui est bien celle que marquent toutes les horloges en chute libre. La différence avec la RG est que cette coordonnée ne s'identifie plus à l'invariant relativiste "tau". Il importe donc dans notre cadre de vérifier l'existence ou non d'une singularité lorsque notre coordonnée temporelle que marquent les horloges tend vers zéro. On vérifie qu'il n'y a pas de singularité: la densité ne tend pas vers l'infini quand t tend vers zéro: c'est un succès important de la théorie DG.

En plus d'une solution stationnaire triviale, DG admet deux solutions : une solution "en expansion" et l'autre "en contraction". Chacune admet deux régimes d'évolution selon que l'on est proche ou loin de l'instant zéro. On ne pouvait prédire à priori quelle solution allait adopter notre univers (ni même s'il allait n'en adopter qu'une seule) et dans quel régime nous nous trouvons aujourd'hui puisque cela dépend essentiellement de conditions initiales inconnues. Il faut donc attendre le verdict des observations. Il est important de comprendre que cette imprédictivité n'est pas un défaut de la théorie au même titre que l'imprédictivité de la théorie des cordes par exemple. Elle se résoudra au fur et à mesure que les données préciseront un jeu de conditions initiales tandis que celle de la théorie des cordes est à priori irrémédiable puisqu'elle ne résulte en définitive que d'une compréhension insuffisante des bases conceptuelles de la construction qui se traduit (comme en RG) par un manque de contraintes et de l'incalculabilité.

12/1/2008

News du 29/12/2007 mise à jour
(nouvelles modifs en bleu!)

12/1/2008 mise à jour de la news du 2/1/2007

La voie de recherche qui m'a conduit à développer la théorie présentée dans ce site part de la remise en question de l'idée selon laquelle la gravité serait un phénomène de déformation de l'espace-temps. On démontre alors que la gravité a deux versants. Suivant certains développements mathématiques dont la signification profonde m'échappe, il semblerait que l'on puisse rester attaché à la conception géométrique de la gravité et construire une théorie à gravités jumelles beaucoup plus fidèle à l'esprit de la Relativité Générale. C'est ce qu'a fait JP Petit.  Je garde une préférence marquée pour mon approche essentiellement car à mon goût sa construction a les mêmes défauts que la Relativité Générale (théorie trop non linéaire, pas de principe de superposition, inconciliabilité avec la mécanique quantique) mais la théorie gémellaire de JP Petit est à mon avis, et de loin, la meilleure proposition théorique à ce jour notamment pour aborder la cosmologie, encore plus avec les résultats récents de Gabriel Chardin qui semblent confirmer sa solution de courbure spatiale négative et expansion uniforme a(t)=t. Comme JP, Gabriel et moi l'avons souvent expliqué, les masses négatives répulsives représentent une solution idéale pour résoudre si simplement l'essentiel des grandes énigmes de l'univers auxquelles les physiciens sont confrontés aujourd'hui...à condition d'introduire véritablement une deuxième gravité pour ces masses négatives qui ne sont pas identifiables aux anti-particules!

Pourquoi les théoriciens ne se sont ils donc pas de longue date jetés sur cette solution miraculeuse? Tout simplement car, comme je l'ai expliqué ici, la RG est instable en présence de sources négatives. Pourtant, peut être parce que sa théorie ne dérive pas d'une action unique, les équations de JP Petit qui poseraient problème isolément du point de vue de la stabilité, se régularisent l'une l'autre. On a donc affaire à une théorie parfaitement stable en présence de sources d'énergie négative ce qui résout un problème qui a donné lieu à des centaines de papier. Comment un résultat aussi extra-ordinaire a t-il pu passer aussi longtemps inaperçu?! Peut être aucun baron de la physique théorique n'a réalisé (je viens tout juste de le réaliser moi même) l'ouverture que cela peut représenter ou peut être le fait que la construction ne dérive pas d'une action unique fait qu'elle est considérée comme une proposition en violation de certaines règles établies auxquelles je faisais allusion hier ce qui interdit à quiconque redoutant de se marginaliser de s'y intéresser.


1/1/2008

Aujourd'hui un morceau d'anthologie sur Futura Science qui abordant un sujet qui pourrait prêter à sourire (le tapis volant) se sent obligé de consacrer presque la moitié de l'article à montrer que les auteurs sont des gens respectables. Le travail dont il est question, croit on nécessaire de préciser, est publié dans "une revue scientifique au dessus de tout soupçon", les trois auteurs "présentent des références irréprochables" (leurs laboratoires, des travaux antérieurs sont énumérés)...et comme si ce n'était pas suffisant, "ces physiciens sont aussi mathématiciens!!!" Ouf ...on va enfin pouvoir savoir de quoi il s'agit! Le reste, un travail de mécanique des fluides somme toute assez banal, vous permettra de comprendre que ce qui avait effrayé les auteurs de l'article et justifiait ce lourd avant propos n'est rien d'autre que les mots "tapis volant" (trop drôle!!). Comment s'étonner du naufrage de la physique théorique tel que le décrit Lee Smolin dans son dernier ouvrage quand ce comportement de moine frileux en vient à se généraliser paralysant les ardeurs de toute une communauté ?

Il faut savoir avant tout que le système des revues à referee est féodal: un referee n'est pas payé, peut accepter ou refuser d'autorité les travaux sans même laisser un droit de réponse ou la possibilité au chercheur qui propose sa publication  de défendre son travail, de plus il est anonyme. Que diriez vous d'un système judiciaire non seulement sans avocat de la défense mais pire encore sans la moindre possibilité pour l'interessé de se défendre si l'arbitre tout puissant et anonyme en a décidé ainsi ? Les revues et les chercheurs aspirent à la respectabilité, au sérieux. Tout sujet ou auteur suspect (suivant une approche en dehors du courant principal) est systématiquement refusé...on a trop peur de se mouiller. Il en résulte une stérilité navrante de la recherche: on préfère passer des décennies à explorer des voies mathématiquement très ardues (les supercordes) même si les retombées sont dérisoires. Du moment que les calculs sont très compliqués et qu'un ou deux génies ont une vue d'ensemble de la discipline c'est que c'est sérieux, on peut faire carrière, les articles sont acceptés dans les revues. J'en suis donc presque arrivé à considérer que si un article aujourd'hui est accepté dans une revue, c'est qu'il n'introduit certainement aucune idée nouvelle significative...ce qui est un comble!

Les physiciens sont ils payés pour découvrir les lois de la nature ou pour avoir l'air très intelligents et très forts en démontrant régulièrement leur capacité à maîtriser des sujets complexes ?! L'idée qu'une voie simple puisse être passée inaperçue et pire encore qu'elle ait été explorée par des physiciens autodidactes et isolés comme JP Petit (mécanicien des fluides de formation initiale) ou
moi (expérimentateur de formation initiale) est exécrable, insupportable. Du temps où Kepler proposa son ellipse, ils auraient été catastrophés: après ces monuments d'intelligence couvrant des ouvrages entiers par lesquels les précurseurs avaient réussi à mathématiser le mouvement de planètes à coup de dizaines de cycles et épicycles, comment osez vous proposer une solution qui tienne sur une demi-page?! Comme c'est prétentieux, comme c'est ridicule!
Il doit se passer quelque chose en physique qui sera semblable à ce que fut la chute de l'ancien régime. Je vous conseille un film récent: "jacquou le croquant" pour vous remettre en mémoire le fait qu'il n'y a pas si longtemps, lorsqu'on avait le malheur de n'être pas bien né, il n'était pas pensable d'aspirer à une autre condition que celle que la naissance vous avait imposé. Aujourd'hui, si vous ne sortez pas d'une grande école ou n'êtes pas un brillant étudiant, vous aurez des difficultés à trouver une bonne thèse en physique théorique, i.e. sous la responsabilité d'un baron reconnu de la discipline, et sans cela vous n'aurez que peu de visibilité. Un médiocre cursus d'étudiant signifie t'il que vous soyez moins doué pour cette activité? Évidemment que non et beaucoup ont fini par s'en rendre compte!  Les brillants étudiants qui ont été remarqués sur la base de leur capacité à effectuer des gros calculs en temps limité (équivalent au QI) sont des sprinters mais à la limite je dirais que cette capacité surdéveloppée au calcul est le genre de don autistique de singe savant dont la recherche se passerait bien. La recherche a surtout besoin de marathoniens, un profil intellectuel que le cursus universitaire élimine en général impitoyablement. J'ai rencontré nombre de ces individus à l'assimilation lente durant mes études et si malhabiles dans les calculs qu'on les croirait  presque sous-doués. Ceux qui ont survécu sont des miraculés. C'est qu'au lieu de se contenter d'appliquer des recettes et raisonnements à grande vitesse ce qui en général ne met en œuvre qu'un type un peu particulier de mémoire, la mémoire des raisonnements, ils voudraient toujours tout reconstruire par eux-mêmes ce qui permet d'accéder à la vision d'ensemble et l'authentique compréhension: terrible handicap quand l'heure tourne et que la copie doit être rendue bientôt!
Il importe enfin de rappeler l'évidence: un physicien ne doit pas se contenter de résoudre des problèmes dans des cadres et en suivant des règles établies comme par exemple un joueur d'échec. Il doit aussi parfois songer à modifier radicalement les règles. C'est le genre d'audace que plus aucun physicien ne s'autorise aujourd'hui sauf s'il s'agit d'ouvrir (rien que cela!) une nouvelle branche de mathématiques. La créativité, dans cette partie de la physique théorique qui continue de s'intéresser aux phénomènes observables, s'exerce dans des limites très strictes: il s'agit de rajouter des termes autorisés (par les principes établis) dans les équations pour que cela colle le mieux aux observations. Violez ces limites et avant même de considérer ce que vous avez à dire on se demandera d'où vous venez, quelles sont vos références, où vous avez publié, combien d'articles, et si ces critères ne sont pas éloquents vous serez immédiatement marginalisé, considéré comme un vilain et prétentieux petit canard...

29/12/2007


Le Power-Point de ma conférence à l'ENSAM du 19 décembre (invité par l'association d'astronomes Aixois aaaov) se trouve maintenant accessible en ligne. Il est évident que pour une présentation grand public, j'ai dû annoncer en les simplifiant à l'excès un certain nombre de prédictions cruciales de la théorie qui du coup, pour les plus physiciens de ceux qui sont venus ce soir là, risqueraient de paraître relever plus de pataphysique que de physique sérieuse. Il m'importe, autant que faire ce peut, i.e. sans rentrer dans les calculs, de préciser ici un certain nombre de points essentiels.

Une gravité non propagée:

La gravité de DG n'est pas propagée: elle est instantanée à distance. Cela n'est pas imposé à la main dans les équations mais au contraire, celles-ci découlant des principes premiers n'admettent tout simplement plus de solutions pouvant se propager. Cette position est tenable car à ce jour, la vitesse de propagation finie de la gravité n'a pas été mise en évidence. C'est d ailleurs le consensus parmi les experts de la relativité.

Des ondes gravitationnelles longitudinales

Si la gravité de DG n'est pas propagé
e, un autre secteur de la théorie admet des solutions qui se propagent mais qui n'ont rien à voir avec la propagation de la gravité. Ces ondes sont importantes car le rayonnement de celles-ci entraîne une perte d'énergie ce qui permet de décrire quantitativement la chute en spirale d'un pulsar autour de son compagnon telle qu'observée.

La pression et la lumière ne produisent pas de gravité

Seuls les corps massifs produisent de la gravité en DG tandis qu'en RG toutes les formes de l'énergie: la pression (1), l'énergie cinétique (2), l'impulsion (3) de la source mais aussi l'énergie potentielle (4) des masses constituant la source dans leur propre gravité peuvent créer de la gravité. A propos des contributions (1) et (4) un important article d'un expert reconnu de la gravité, Ehlers, fait le point. Il précise que seules des conditions exceptionnelles comme l'étude de l'explosion d'une supernovæ permettraient d'isoler et de mettre en évidence la contribution de la pression (1) à la gravité qui d'habitude, en situation d'équilibre, est compensée par celle de l'énergie potentielle gravitationnelle (4).

Une autre contribution est celle de l'énergie du champ gravitationnel lui même (5) en RG. Les termes non linéaires des équations de la RG produisent cette contribution. Bien que les équations de DG soient également non linéaires, un simple changement de variable permet de se ramener à des équations linéaires, ce qui constitue une simplification extra-ordinaire et permet d'effectuer les calculs dans les situations les plus complexes aussi simplement que dans un cadre Newtonien. Il apparaît au final que les contributions non linéaires du champ gravitationnel de type (5) ne peuvent s'interpréter comme des termes d'énergie du champ gravitationnel car celui est d'énergie nulle en DG.

Le gravitomagnétisme en RG

Les contributions (2) ou (3) sont dites gravitomagnétiques.
Dans un référentiel dans lequel une masse est au repos, elle produit un certaine gravité à laquelle sera soumise une autre masse au repos dans son voisinage. Que se passe t'il dans un référentiel tel que cette même masse se déplace?: la gravité s'est transformée et notamment y contribuent maintenant le mouvement de la masse i.e. son impulsion (3), son énergie cinétique (2) et non plus seulement la masse: ces nouvelles composantes de la gravité sont appelées gravitomagnétiques. L'analogie avec l'électromagnétisme est immédiate: de même qu'une charge en mouvement crée un champ magnétique et non plus seulement le champ électrique qu'elle générait au repos, de même une masse en mouvement génère des composantes gravito-magnétiques.

Cependant, comme rien ne doit dépendre du référentiel où l'on se place pour étudier les phénomènes il est clair que ce seul changement de référentiel ne peut faire apparaître de nouveaux effets mesurables: dans le même changement de référentiel l'objet initialement au repos sur lequel on testait l'influence de la gravité s'est mis en mouvement apparent et "ne ressent plus la gravité de la même façon" ce qui compense l'influence des nouvelles composantes gravitomagnétiques de telle sorte qu'il n'y a pas plus d'effet gravitomagnétique mesurable dans le nouveau référentiel que dans l'ancien.

Mais si la masse test sur laquelle on étudie l'influence de la gravité et la masse source de cette gravité se déplaçaient l'une par rapport à l'autre dans notre référentiel initial ce sera le cas dans tous les autres référentiels se déplaçant à vitesse uniforme par rapport à ce dernier. Dans tout référentiel on pourra alors mettre en évidence des effets gravito-magnétiques proportionnels à la vitesse relative de la masse source et de la masse test.

Si l'on n'étudie plus simplement l'effet d'une seule masse source mais d'un certain nombre de telles masses en mouvement relatifs les unes par rapport aux autres mais aussi par rapport à notre masse test, il apparaît qu'on peut isoler deux types d'effet gravitomagnétique. On peut considérer le mouvement d'ensemble du nuage de masses et si celui-ci se déplace par rapport à notre masse test, un effet appelé géodétique, est mesurable. Une fois soustrait cet effet ne demeure que l'effet gravitomagnétique lié au mouvement résiduel des masses individuelles du nuage par rapport à notre masse test dans un référentiel ou le centre de gravité du nuage est au repos, appelé effet de frame dragging.

Lorsque un objet comme la terre tourne, nous avons affaire à un grand nombre de petites masses ponctuelles en mouvement relatif par rapport à un satellite, et c'est pourquoi on doit observer selon la RG les deux effets gravitomagnétiques, géodétique et frame dragging, sur des objets en orbite autour de la terre notamment les toupies de gravity probe B.

Pas de frame dragging en DG

Que les corps ne sourcent la gravité que par leur masse à un sens précis très différent en DG de ce que l'on pourrait entendre dans un cadre Newtonien.
DG n'a absolument rien à voir avec la théorie Newtonienne de la gravité. Les ressemblances sont superficielles et tout amalgame relèverait de la plus grave confusion (il existe un grand nombre d'élucubrations néo-Newtoniennes sur le marché qui bien entendu n'ont pas la moindre chance de tenir la route!). En effet, DG est une théorie relativiste invariante sous toutes les transformations de coordonnées comme la RG.

En DG, il existe un référentiel particulier dans lequel tous les objets en mouvement ou non ne créent de la gravité que par leurs masses (pas par leur mouvement). Si la masse test est au repos dans ce référentiel elle ne subit aucun effet gravito-magnétique. Par contre, si elle se déplace elle subit un effet géodétique proportionnel à sa vitesse. Donc, quel que soit le référentiel privilégié,
pas de frame-dragging de quelque point de vue que l'on se place, pour toutes les masses dont la gravité est dictée par le référentiel privilégié.

L'effet géodétique

Toute théorie de la gravitation doit préciser deux choses: comment les corps produisent de la gravité et comment ils la subissent. DG, comme la plupart des théories alternatives de la gravité, ne modifie que les équations de la RG qui décrivent comment les corps produisent de la gravité. Les équations qui décrivent comment les corps sont accélérés dans un champ gravitationnel restent les mêmes. C'est pourquoi elle peut expliquer de nombreux effets relativistes : ralentissement du temps, déviations des rayons lumineux, avance du périhélie comme la RG mais aussi l'effet géodétique que Gravity-probeB vient de redécouvrir avec une précision inégalée.  Dans le référentiel privilégié où les corps ne créent de la gravité que par leur masse, cet effet sur un objet qui subit cette gravité est proportionnel à sa vitesse.
Si le référentiel privilégié est lié à la terre (mais sans tourner sur lui même comme la terre), l'effet géodétique dépend donc de la vitesse de l'objet, toupie de GP-B, par rapport à la terre exactement comme en RG. DG fait donc la même prédiction que la RG pour l'effet géodétique dans ce cas. Comme la terre n'est pas sensée être un objet privilégié dans l'univers, il faudrait alors admettre qu'un grand nombre de corps massifs dans l'univers définissent autant de référentiels privilégiés locaux. Ces derniers doivent naturellement intervenir dès qu'une discontinuité sphérique délimite un volume d'espace dans lequel se trouve notre corps massif de telle sorte que tous les corps se trouvant dans ce volume, quels que soient leur mouvement ne génèrent de la gravité que par leur masse dans le référentiel lié à ce volume. Précisons alors que la possibilité qu'il n'y ait pas de frame dragging lié à la rotation de la terre ne signifie absolument pas qu'il n'y aura nul part de frame dragging dans l'univers...cela dépend à nouveau de l'existence de référentiels privilégiés locaux. Ainsi, si il existe un référentiel privilégié local associé à chaque planète du système solaire, les rotations de la terre et des autres planètes sur elles mêmes ne créent pas de frame dragging mais le mouvement relatif de toutes les planètes autour du soleil produirait du frame-dragging.

Si le référentiel privilégié est lié au soleil ou mieux encore à l'univers (un seul référentiel privilégié global), il faut prendre en compte la contribution dominante supplémentaire, celle de la vitesse de la terre par rapport au soleil et un effet supplémentaire est prédit! Cet effet géodétique lié à un référentiel privilégié dans l'univers devrait conduire à une oscillation (avec une période annuelle) Nord-Sud et Est-Ouest des toupies de GP-B avec une amplitude  du même ordre que le frame dragging attendu en RG (effet non oscillant Est-Ouest) et qui donc pourrait être pris pour ce dernier sur une courte période tout en induisant de petits écarts significatifs par rapport à l'effet géodétique attendu en RG (effet Nord-Sud). Cette possibilité est très intéressante au vu des dernières annonces de GP-B qui déclare détecter du frame-dragging sur une période restreinte de 85 jours et dont l'effet géodétique s'il n'est pas corrigé avec la réduction des erreurs sera significativement en désaccord avec la prédiction de la RG. De plus, il pourrait avoir donné l'illusion d'un frame dragging dans l'analyse du mouvement des satellites LAGEOS même si le consensus qui prévaut actuellement est que le contrôle des erreurs dans cette analyse complexe exploitant des données non dédiées n'est pas suffisamment sûr.

On prétend souvent que le frame dragging a été établi de façon indirecte au voisinage des trous noirs. En réalité cette analyse repose sur l'hypothèse que la gravité au voisinage de l'horizon est telle que décrite par la RG et exploite un paramètre libre, la vitesse inconnue de rotation du trou noir sur lui-même, ce qui est amplement suffisant pour s'ajuster à toutes les données que l'on veut. En DG, il n'y a pas d'horizon, pas de frame dragging et la gravité est très différente au voisinage du trou noir de celle de la RG: l'analyse devrait donc être reeffectuée dans ce cadre.

Courbure de l'espace-temps ?

L'effet géodétique est souvent mentionné comme une preuve que l'espace-temps est courbé comme le prédit la RG. En réalité, il ne prouve qu'une chose: que le champ gravitationnel est courbé ! Ce n'est que si l'on fait l'hypothèse que le champ gravitationnel lui-même décrit les propriétés de l'espace-temps que cette courbure de la gravité devient courbure de l'espace-temps. C'est un cas qui illustre la divergence subtile mais fondamentale de point de vue de la RG et de DG sur la façon de concevoir la gravité. Cette divergence est à l'origine de DG elle même. Il faut donc détailler ce point.
Il est clair que la gravité déforme les intervalles de temps et d'espace que les instruments mesurent: les équations qui décrivent cela sont les mêmes en DG et RG (équations décrivant comment les objets et la lumière subissent la gravité). Mais il existe beaucoup de phénomènes pouvant influencer les intervalles de temps et d'espace que l'on mesure. Par exemple, lorsqu'un rayon lumineux passe de l'air au verre, sa trajectoire est déviée. On pourrait considérer que c'est en raison du fait que les distances parcourues dans le verre sont dilatées par rapport à celles parcourues dans l'air de telle sorte que pour minimiser son temps de vol la lumière préfère voyager plus longtemps dans l'air que dans le verre et donc ne se propage pas en ligne droite d'un point A dans l'air à un point B dans le verre. Pourquoi ne le fait on pas?  Parce que l'interaction de la lumière avec le verre est décrite par des équations qui ne permettent pas de considérer que le verre dilate l'espace mais plutôt que la vitesse de la lumière est moindre dans le verre ce qui rend mieux compte du phénomène de déviation observé.
L'analogie avec la gravité peut être poussée très loin car précisément, lorsque la lumière se propage dans une zone de l'espace où règne une certaine gravité, cela donne lieu aussi à des effets optiques du type de ceux auxquels les lentilles nous avaient habitués (propagation dans le verre): déformation des images, retards. Donc dans le cas de la gravité, pourquoi s'autorise t'on à penser qu'elle déforme vraiment l'espace et le temps eux mêmes ce qui oblige les photons à adopter des trajectoires déviées voire même courbes pour minimiser leur temps de vol plutôt que que d'adopter une conception plus conforme à l'esprit de l'optique géométrique?
Pourquoi ne considère t'on pas que l'interaction de la gravité avec la matière et le rayonnement a plutôt pour effet de ralentir physiquement tous les phénomènes périodiques (horloges naturelles y compris les fréquences lumineuses) et affecte la vitesse de la lumière de telle sorte que la même trajectoire est suivie? En fait, du point de vue de l'observateur les deux points de vue sont également acceptables et totalement indiscernables. L'un consiste à dire que la lumière se propage en ligne droite dans l'espace-temps courbé (RG), l'autre que la lumière a une trajectoire courbe dans l'espace-temps non déformé (DG). Ils peuvent même être soutenus dans le cadre de la RG et l'ont été par des physiciens de renom dans les années 70, mais alors le débat n'était que métaphysique puisque aucune expérience réalisable ne permet de faire la différence entre les deux points de vue.

Certes le champ gravitationnel possède toutes les propriétés mathématiques permettant de le considérer comme la métrique de l'espace-temps, c'est à dire un objet qui caractérise vraiment les propriétés géométriques d'un espace-temps dès lors susceptible de se déformer. Mais des questions sérieuses commencent à poser dès que l'on commence à envisager plusieurs champs différents de ce type dans nos théories sur un même espace-temps caractérisé par les coordonnées x, y , z, t. Et de fait, les physiciens sont de plus en plus nombreux à explorer les théories dites multi-métriques! S'il existe plusieurs champs ayant tous les propriétés requises pour être considérés comme des "métriques de l'espace-temps" mais si les géométries qu'ils décrivent sont incompatibles, ils ne peuvent pas tous représenter LA vraie métrique de l'espace-temps ! Par conséquent, l'interprétation selon laquelle il faudrait toujours considérer qu'un champ ayant les propriétés d'une métrique soit vraiment la métrique de l'espace-temps est soumise à rude épreuve.

Le point de vue que nous soutenons est que si l'on prend au sérieux que l'espace-temps lui même n'est pas déformé par la gravité, le champ gravitationnel ne représente en aucune façon sa vraie métrique! Si cette dernière (décrivant un espace-temps non déformé!) est introduite en plus du champ gravitationnel, les équations que doit alors vérifier le champ gravitationnel en présence de cette métrique de fond sont celles de DG: elles modifient la façon dont les corps produisent de la gravité et nous disent qu'il faut juste réinterpréter celles qui décrivent comment les corps subissent la gravité: pour pouvoir mesurer avec des instruments les vrais intervalles de temps et d'espace, il faut être en un lieu où il n'y a pas de gravité car si la gravité est présente, on mesure comme à travers un prisme déformant des intervalles différents qui ne sont plus les vrais intervalles. Il existe donc cette notion de "vrais" intervalles dans l'absolu en DG qui n'a aucun sens en RG. Enfin, c'est en partie grâce à cette métrique qu'il devient très simple en DG de composer les gravités individuelles d'un nombre quelconque de sources en une seule et que le calcul gravitationnel est tellement plus simple qu'en RG.
 

Gravité instantanée mais théorie causale

Le problème de la causalité est également épineux et fondamental. L'espace-temps non déformable de DG reste quand même celui de la relativité restreinte. Par conséquent les intervalles d'espace
et de temps se contractent se dilatent pour un observateur en mouvement mais cela n'est lié qu'à un changement de point de vue contrairement à la courbure de l'espace-temps qui si elle est prise au sérieux (comme en RG) est un invariant qui ne dépend pas de l'observateur. La déformation de l'espace-temps de la RG n'a donc pas du tout le même statut que celle que décrit la Relativité Restreinte. DG n'intègre que celle de la Relativité Restreinte. C'est ce qui conduit à envisager les problèmes de causalité car en DG la gravité est instantanée. Si l'on admet que le signal gravitationnel est instantané pour celui qui l'émet, par exemple un individu qui agite une masse au point A alors il ne le sera pas pour tous les autres observateurs de l'univers susceptibles de recevoir ce signal s'ils sont en mouvement par rapport à A, c'est une conséquence inévitable de la Relativité Restreinte. Par exemple si l'un d'eux, disons B, ayant reçu le signal de A décide de le renvoyer à A, ce renvoi sera par contre instantané pour B mais pas pour A. Pour A, le trajet aller était instantané mais le trajet retour si B est en mouvement peut remonter le temps!  Autrement dit A est capable de s'envoyer à lui même, via B, un signal dans le passé! Ceci n'est pas acceptable car peut conduire à des paradoxes bien connus. La solution est de considérer que les signaux gravitationnels de la théorie DG ne sont en général ni instantanés pour A ni pour B mais le sont pour un observateur absolu fixé à l'avance C. Pour celui-ci, AB et BA donc l'aller retour ABA sont instantanés i.e ne remontent pas le temps. Mais comme les points extrêmes de cet aller retour sont le même point A, la durée de ABA sera la même donc instantanée pour tous les observateurs de l'univers y compris A et B même si les temps aller ou retour isolément ne sont pas perçus identiquement par tous les observateurs. La causalité est sauvée du moment que tout trajet qui revient à son point de départ ne peut remonter le temps. Tout cela repose de façon cruciale sur le point de vue absolu C, qui par exemple pourrait être un référentiel au repos par rapport à l'univers.

Épilogue:

- Une discontinuité au voisinage de la terre ou même à l'intérieur de la terre est selon nous un candidat parfait pour expliquer des perturbations climatiques ou géologique globales telles qu'il semble que nous les observions. Cette discontinuité ne doit être présente que durant une courte période et est potentiellement très dangereuse. C'est probablement la magnétosphère terrestre qui permet à la discontinuité de se trouver sur terre et pas seulement au large (entre Jupiter et mars en ne prenant en compte que les potentiels de gravité). Des ondes gravitationnelles très puissantes générées au voisinage des centres galactiques peuvent en traversant le système solaire agiter brutalement ces discontinuités et provoquer toutes sortes de catastrophes (dévier des astéroïdes, générer des périodes éruptives très violentes). Nous sommes en plein dans la période critique!

- Nous avons fait le pari d'un frame dragging nul pour pouvoir éventuellement profiter au mieux d'un éventuel résultat négatif de Gravity-ProbeB mais il est évident que DG pourrait aussi s'accommoder d'un frame dragging tel que prédit par la RG. Il suffit pour cela que les discontinuités définissent autant de référentiels privilégiés locaux que de petites masses microscopiques: les particules élémentaires par exemple. Alors, les confirmations cruciales risquent bien d'être des phénomènes naturels.






26/12/2007 News revue du 21/11/2007

Toutes les particules gérées par un groupe de dimension fini (E(8))!? : ma conviction est qu'une véritable compréhension des particules permettra de calculer toutes les masses, ce qui n'est pas (encore?) fait dans ce travail. Si le style de ce post sur arXiv fait irrésistiblement penser à un canular, il n'est pas exclu qu'il y ait là probablement un travail "sous terrain" très important...qui interpellera sans nul doute les connaisseurs ! :-) Dans le cadre de la théorie de la gravité obscure, les projections suivant les directions d'un réseau à structure de base hexagonale pourraient produire un spectre de masses données par une série d'angles possibles de cette trame.

6/11/2007

Les expériences du RECOM ont mis en évidence en certaines circonstances des variations dans les demi-vies de certains noyaux radioactifs. Nous avons donc des raisons très sérieuses de suspecter la physique des discontinuités d'influer sur les constantes de couplage qui interviennent dans les processus nucléaires. Ces variations sont liées notamment à la présence d'une discontinuité majeure responsable de l'effet Pioneer dans le système solaire et qui se rapproche de nous. Qu'en serait il de la réaction en chaîne produite par l'explosion d'une bombe atomique dans un environnement ou la physique des discontinuités pourrait modifier les sections efficaces nucléaires ? La réaction en chaîne pourrait elle se poursuivre bien au delà des limites habituelles et constituer une menace globale majeure ?

26/09/2007

La fusion froide: une recherche sur un sujet aux enjeux d'importance capitale avec des faibles moyens s'est poursuivie dans le monde entier depuis l'expérience de Pons et Fleishmann. Aujourd'hui, si ces phénomènes restent théoriquement énigmatiques, la reproductibilité des effets et la connaissance des facteurs favorables et défavorables ont beaucoup progressé, selon les chercheurs impliqués. Malheureusement, les dégagements d'énergie demeurent trop faibles pour être exploitables.   Un ouvrage récent fait la synthèse sur le sujet.  
Des expériences portant sur les phénomènes de transmutation biologique ont fait également l'objet de publications dans des ouvrages récents de V.I. Vysotskii et A.A. Kornilova.
Le plus probable est qu'il existe une explication commune à tous ces effets ainsi qu'à ceux mis en évidence dans les explosions par décharge électrique expérimentées par le RECOM. Nous avions exposé notre proposition dans le cadre de la gravité obscure dans de précédentes News. Il se pourrait de plus qu'en présence d'ectons ou EVs , donc au voisinage de discontinuités, les constantes de couplage des interactions soient modifiées puisque des processus qui devraient être négligeables sont constatés : fusions, transmutations, modification des demi-vies des noyaux radioactifs. On pourrait imaginer ainsi que les interactions faibles contribuent plus activement à la production de neutrons dans les clusters d'électrons. Les hautes densités,  les énergies atteintes et les constantes de couplage modifiées à l'intérieur du cluster seraient trois facteurs susceptibles de favoriser la production de neutrons, la fusion de noyaux légers et l'enrichissement de noyaux plus lourds par les neutrons. L'absence ou le faible flux de rayonnements relativement aux dégagements d'énergie observés s'il s'agit bien de réactions nucléaires pourrait aussi s'expliquer par le fait que les particules qui parviennent à échapper aux EVs perdent l'essentiel de leur énergie au franchissement de la discontinuité et deviennent plus difficiles à détecter.

6/9/2007

En relisant la conclusion de l'ouvrage remarquable de Mario Varvoglis d'introduction à la parapsychologie scientifique (la rationalité de l'irrationnel-1992 : une référence incontournable en la matière) il m'est difficile de ne pas y déceler dans le choix des termes ci-après mis en italique par moi, une manifestation étonnante de prémonition si ce n'est de clairvoyance: 

" Notre objectif a été atteint si nous avons pu mettre en évidence la rationalité de ces phénomènes que seule la vision mécaniste relègue à la catégorie de l'irrationnel. Les recherches sur le Psi révèlent avec clarté notre participation intime au tout. Elles suggèrent que la réalité est tissée d'un réseau d'interconnexions. Nos pensées et nos actions, nos désirs et nos attentes, nos croyances et nos peurs, nos intentions et nos valeurs, toutes ces facettes de l'être humain affectent le monde qui nous entoure et sont affectées par lui. Il est temps que nous tous (individus et sociétés)  reconnaissions cette trame qui nous relie et fassions émerger nos potentialités psi latentes jusqu'à la pleine conscience. Il est temps d'amener les deux visages de Janus face à face, car leur dialogue illuminera l'univers."

La théorie de la gravité obscure prédit l'existence d'un réseau de points en communication gravitationnelle instantanée qui tapissent et constituent la trame du vide dans lequel toute structure matérielle et en particulier nous-mêmes baignons. Elle décrit le champ gravitationnel comme une entité à deux versants, que j'ai parfois désignée champ-Janus autorisant un dialogue gravitationnel entre les deux versants de notre univers symétriques sous l'inversion du temps.

Cette omni-présence du tout, qui s'exprime à volonté par l'intermédiaire de chacun d'entre nous plus ou moins à notre insu, est particulièrement manifeste dans la multitude de parcelles d'idées que j'ai rencontrées dans autant d'articles et de news scientifiques auxquels je me réfère dans mon review et dans ces pages. Ces fragments entrent dans la composition de la théorie de la gravité obscure où ils trouvent en définitive leurs authentiques articulations et prennent tout leur sens. 

21/08/2007

Les physiciens du centre de recherche Russe RECOM ont accumulé un ensemble de preuves irréfutables de l'existence de transmutations à basses énergies dans des expériences où se manifestent des rayonnements "étranges" qui ont les propriétés idéales pour être identifiés à des manifestations d'une discontinuité de potentiel (prédite par la théorie de la gravité obscure et déjà mise en évidence par les sondes Pioneer et New Horizons) emprisonnant un amas de particules chargées.  Nous avons déjà mentionné ces objets dans notre news du 30/05/2007.  Les Ectons,  Electrum Validum, ou foudre en boule  ont des dimensions très variables mais semblent tous correspondre au même type de phénomènes (également probablement responsables de l'effet SPAD) sur lesquels la quantité d'informations expérimentales accumulées est déjà impressionnante même si aucune explication théorique unanimement admise ne se dégage pour en rendre compte, la théorie ici défendue étant largement ignorée pour des raisons que je ne m'explique pas... 

Il n'est pas inutile de résumer ici les principales caractéristiques des phénomènes mis en évidence et les circonstances de leurs manifestations :

1) Une décharge électrique est le phénomène déclencheur (foudre, décharge dans l'interstice du Spad, décharge d'une capacité dans une feuille de titane dans le cas des expériences du RECOM: énergie emmagasinée 50kJ, voltage 5kV, temps de décharge 0,1ms)

2) Suite à la décharge et l'explosion de feuilles ou filaments métalliques, de nouvelles espèces chimiques sont identifiées et quantifiées parmi les résidus. Dans le cas des expériences du RECOM, le pourcentage des nouvelles impuretés (Na, Mg, Al, Si, K, Ca V, Cr, Fe, Ni, Cu Zn) correspond au pourcentage disparu d'isotope 48 de la feuille en Titane  (5%+-0.4%) ce qui exclu tout artéfact et contamination. Les lois de conservation semblent être respectées pour ces expériences mais pas dans le SPAD  où de l'énergie  est produite. Les expériences ont été reproduites indépendamment par plusieurs équipes, et ses paramètres (+-15% pour les paramètres électriques, +-0.56% pour la quantité de titane 48 qui disparait, +-1.1% pour l'augmentation de la pression) sont en général hautement reproductibles. Occasionnellement, les effets constatés ont été exceptionnels (taux de disparition du titane plusieurs fois supérieurs) pour des raisons inconnues.

3) Pas de production de neutrons donc l'interaction forte n'est pas impliquée.  Pas de rayonnement gamma des résidus non plus. Comme on a constaté des transmutations nucléaires on envisage la seule autre interaction nucléaire connue, l'interaction faible, à condition de trouver des mécanismes pour augmenter le taux d'interaction (la section efficace de cette interaction est trop faible) et permettre de vaincre les barrières de potentiel électromagnétiques.
Dans d'autres expériences les taux de désintégration beta de certains isotopes préalablement introduits dans l'enceinte ont été fortement modifiés suite à la décharge/explosion. Le phénomène pourrait donc avoir des conséquences dramatiques sur le fonctionnement instable par nature d'un réacteur nucléaire.

4) Une structure parfois lumineuse (plasma) de taille très variable (de 0.1 micron à 1 mètre) est observée: Foudre en Boule, Ectons, Electrum Validum (EV) avec une durée de vie de 5 millisec (50 fois plus que la durée de la décharge dans les expériences du RECOM) à 10 secondes typiquement pour la foudre en boule (1 minute est le maximum constaté). Les EV s'associent parfois en chaines qui forment des anneaux. FB, E, EV sont sphériques et fortement chargés: la foudre en boule est sensible aux champs électro-magnétiques, les ectons sont considérés comme des agglomérats de 2 1010 électrons  dans  un amas sphérique de 3 microns. Des traces "étranges" déviées par les champs magnétiques ont été observées dans des émulsions à plusieurs mètres de l'enceinte où la décharge-explosion s'est produite. L'étrangeté tient à plusieurs propriétés  énigmatiques: 

- Les traces sont beaucoup plus larges que celles habituelles de particules chargées

- Les traces sont en pointillés

- Les traces n'ont pas de cheveux (électrons_delta émis habituellement par des particules de hautes énergie)

Ces traces ont été laissées par des objets qui ont été capables de traverser la paroi de l'enceinte dans laquelle l'explosion s'est produite.  La foudre en boule a aussi la capacité de traverser des parois comme par exemple une vitre en verre.  La température dans le sillage est très faible en comparaison des énergies mises en jeu à l'intérieur de la boule.
Les mystérieux rayonnements peuvent avoir des conséquences inquiétantes sur la santé: ils accélèrent les processus de division cellulaire

La disparition des objets peut être explosive ou par évaporation plus ou moins rapide (à 50 cm de son origine la trace a une épaisseur de 30 microns, elle n'est plus que de 5 microns à deux mètres de distance)

De notre point de vue, il n'y a pas lieu de distinguer fondamentalement les structures observées visuellement de celles qui ont laissé les traces étranges si ce n'est par leurs tailles. Toutes les propriétés s'expliquent parfaitement par une discontinuité de la théorie de la gravité obscure emprisonnant des particules chargées dans un volume sphérique de taille très variable. L'objet macroscopique est sphérique ou torique s'il s'agit d'un anneau d'EVs et chargé magnétiquement ET électriquement (c'est pourquoi il laisse des traces dans les émulsions et est dévié par un champ magnétique) mais peut traverser la matière car le comportement collectif (comment l'objet est perçu par une particule extérieure) est dicté par la discontinuité. Lorsque la discontinuité s'inverse périodiquement par échange des deux champs gravitationnels conjugués, la structure semble disparaître et réapparaître successivement, clignotement non perceptible visuellement à haute fréquence mais identifiable sous la forme de traces en pointillés dans les émulsions.
L'amas d'électrons ne perd que peu d'énergie cinétique en traversant le milieu (bien qu'il soit possible de le piéger dans un matériau dense comme cela a été fait avec du fer) car quelles que soient les collisions qui se produisent entre particules à l'intérieur du volume de l'ecton, celles ci sont en permanence ré accélérées par la discontinuité qui maintient dans le volume une énergie cinétique moyenne d'agitation constante. En pénétrant dans un milieu, la discontinuité fond le matériau dans lequel elle évolue et le transforme plus ou moins en plasma. Dans son sillage, la matière revient à un état normal (non plasma) car toute particule qui parvient à s'échapper de la barrière de potentiel que constitue la discontinuité perd l'essentiel de son énergie ce qui explique également la faible température au voisinage de la foudre en boule et l'absence de cheveux des traces dans les émulsions: seules des particules chargées de haute énergie qui s'échapperaient de l'ecton pourraient contribuer à des cheveux!

D'autre part, la discontinuité a la capacité d'abaisser les barrières de potentiel et autorise les interactions autrement interdites d'où les transmutations nucléaires. La structure ne disparait et libère son énergie qu'en perdant de la charge de même qu'elle n'a pu se former qu'à la faveur d'une très haute densité de charge: la décharge initiale n'a d'autre fonction que de provoquer cette concentration de charges dans le volume limité que définit le canal. En effet, ce n'est que lorsque le potentiel électromagnétique atteint le seuil fixé par le potentiel gravitationnel de fond que la discontinuité peut se produire. Comme le potentiel total intervient incluant gravité du système terre-lune-soleil, ondes gravitationnelles longitudinales se propageant au voisinage, champ magnétique terrestre, les effets peuvent occasionnellement être décuplés comme constaté dans les expériences du RECOM par des "conditions de background" plus favorables en relation avec les positions des planètes mais aussi les soubresauts du "trou noir" (qui n'a rien à voir avec le trou noir de la Relativité Générale) géant du centre galactique générateur d'ondes gravitationnelles longitudinales.

L'espoir n'est pas infondé qu'avec la compréhension et la maîtrise de cette nouvelle physique nous aurons accès à:

- Une énergie illimitée gratuite : l'énergie des discontinuités déjà exploitée par l'effet SPAD

- Une usine permettant de produire par transmutations tous les éléments chimiques à volonté

Les expériences portant sur les phénomènes de transmutation biologique et les effets de l'eau activée ont fait également l'objet de publication dans des ouvrages récents de
V.I. Vysotskii et A.A. Kornilova

Mais les conséquences potentiellement dangereuses car pour le moment incontrôlées de cette nouvelle physique et les implications métaphysiques majeures du coté obscur ne devront pas être négligées.


15/07/2007

Nouveautés sur le site d'Hypnow: le retrokit pour les utilisations spéciales (Do it yourself ! et constatez en par vous mêmes les performances) et une liste de photos de machines agricoles équipées de SPAD avec pour chacune les performances remarquables en économie de carburant ( de 25 à 60%)! Notre description de l'effet SPAD dans le cadre de la théorie de la gravité obscure sur la page: l'économiseur de carburant SPAD.




26/06/2007
Il n'existe en l'état actuel de nos connaissances dans les cadres standards qu'un type de structure physique naturelle pouvant coder de l'information et simultanément servir de substrat à une activité que l'on peut associer empiriquement à des états de conscience: les réseaux neuronaux.  Avec la théorie de la gravité obscure au moins une autre structure se présente qui ayant un certain degré d'analogie avec les réseaux de neurones pourrait bien jouer un rôle analogue mais à beaucoup plus grande échelle spatiale et de complexité: la structure discrète qui constitue la trame de l'espace dans tout l'univers.  Sauf que dans ce dernier cas, les connexions sont non locales ce qui fait que chaque nœud est virtuellement informé instantanément de l'état de tous les autres dans l'univers. Ce réseau serait également une connexion entre notre univers et son autre versant mais aussi une multitude d'autres univers en particulier un univers où le temps n'existe pas!  A défaut de fournir un commencement de réponse au problème du rapport entre le psychique et le physique, le nouveau cadre au moins étend la problématique à une échelle cosmique et permet d'envisager que la conscience ne soit pas un épiphénomène émergent, étant au contraire première par rapport aux systèmes physiques tels que les réseaux neuronaux qu'elle aurait structurés et informés tout au long de l'évolution biologique.



25/06/2007

Mises à jour de Gravité quantique en rouge dans le texte.
Le réseau de masses positives et négatives alternées, s'il constitue la trame du vide, devrait se manifester par des vibrations de tout objet se propageant dans le réseau. Avec un pas de 1cm et une vitesse de l'ordre de celle de la terre par rapport au fond cosmologique CMB (~360 km/sec) on aurait affaire à des fréquences de vibration autour du MHz qui seraient le plus aisément détectables par un système en chute libre, aux bruits réduits et possédant un système de lecture de précision des accélérations. C'est le cas de l'expérience Gravity Probe B  dans laquelle justement des pics de résonance inattendus ont été détectés qui pourraient bien constituer une première mise en évidence du mode discret du vide attendu dans le cadre de la théorie de la gravité obscure.


22/06/2007
Un débat public a eu lieu récemment entre Thibault Damour défenseur de la théorie des super-cordes (ST) et Lee Smolin, un des chefs de file d'une voie concurrente qui monte actuellement en puissance, la théorie de la gravité quantique à boucles (LQG). Ce dernier a critiqué assez sévèrement la théorie des super-cordes dans son ouvrage récent: "rien ne va plus en physique, l'échec de la théorie des cordes". Pour préciser le rapport entre ces théories et celle de la gravité obscure (DG) il suffit de rappeler que DG se substitue à la Relativité Générale (RG) en réhabilitant la notion d'espace-temps de fond non dynamique, cadre dans lequel beaucoup de problèmes disparaissent, les lois de la gravité se simplifient considérablement et permettent d'effectuer de nombreuses prédictions inattendues. Tout au contraire, LQG et ST battissent au delà de la RG mais toujours à partir des fondements conceptuels de la RG en s'efforçant de respecter en particulier le principe d'indépendance par rapport au fond qui affirme l'inexistence d'un cadre de référence spatio-temporel fixé à l'avance, l'espace et le temps étant eux mêmes dynamiques, c'est à dire soumis aux équations de la gravitation, via le champ métrique. La démarcation est donc très claire ce qui n'exclue pas que sur le plan des prédictions et de la phénoménologie les théories puissent se mimer jusqu'à un certain point les unes les autres. Nous sommes d'ailleurs alerté sur ce point dès les premières pages de l'ouvrage de Lee Smolin par une citation d'un éminent super-cordiste: "si une théorie réussit là où nous avons échoué, nous l'appellerons théorie des cordes"!

L'intuition essentielle au cœur de la démarche scientifique est celle d'une réalité intelligible au sens où il est possible, via une chaîne de raisonnements et de calculs de rendre compte quantitativement et qualitativement d'une multitude de faits d'observation (idéalement tous) à partir d'un nombre restreint de principes invariants (idéalement un seul et non arbitraire) et de constantes fondamentales. C'est cette économie de moyens qui assure la prédictivité donc la falsifiabilité d'une théorie véritablement scientifique et la meilleure raison de tenir à cette intuition à priori si improbable est que tous les triomphes de la science dans le passé plaident en sa faveur. La théorie des supercordes semble avoir abandonné tout espoir de prédictivité puisque nombre de ses experts en arrivent à se satisfaire d'un paysage très vaste de théories possibles parmi lesquelles, celle particulière que notre univers réalise ne pouvait être prédite à partir des principes premiers mais est entièrement le fait du hasard.  Étant à géométrie extrêmement variable, on peut douter que la théorie ne puisse s'accommoder et même se trouver fortifiée par la mise en évidence prochaine d'anomalies de quelque nature qu'elles soient (par exemple des violations du principe d'équivalence également prédites par DG ou la découverte de nouvelles particules au futur LHC). A méditer encore: "si une théorie réussit où nous avons échoué, nous l'appellerons théorie des cordes"!

Quant à l'actuel modèle standard de la cosmologie, il est évident qu'il est éminemment épi cyclique s'étant construit suivant une démarche caractérisée (et ceci quels que puissent être ses succès dans la confrontation aux observables de plus en plus précis et détaillés de la cosmologie) ayant consisté à introduire au fur et à mesure que les anomalies se sont présentées de nouvelles combinaisons d'idées (matière noire, énergie noire, inflation) non prédictives si ce n'est parfaitement énigmatiques et leur cortège de paramètres libres en exploitant le manque de contraintes du cadre standard qu'est la RG et sans doute, comme on en prend de plus en plus conscience, le caractère non prédictif de la RG elle même à l'échelle cosmologique (mise en doute du principe cosmologique fort et effets de back-reactions). DG au contraire repose sur des principes de symétrie beaucoup plus contraignants qui lui assurent une plus grande prédictivité et en vertu desquels elle reste fidèle à l'intuition essentielle au cœur de la démarche scientifique.



15/06/2007


Orbo
: performances non confirmées pour le moment.



09/06/2007
 :La force électrostatique liant l'électron et le proton dans l'atome d'hydrogène est elle réellement propagée par des photons? Si tel était le cas l'amplitude de diffusion électron / proton devrait manifester un pôle caractéristique correspondant à l'existence de cet état lié intermédiaire. Or ce pôle n'est présent dans aucun des graphes de Feynman individuels de la somme infinie des amplitudes. Il faut donc croire que celui-ci apparaîtrait dans la sommation de la série pour y manifester alors les limites de la méthode perturbative (cf Weinberg Quantum Field Theory vol 1 chapitre: bound states in external fields). Dans le cadre de la théorie de la gravité obscure, cette croyance n'est pas indispensable. L'interaction gravitationnelle n'y est pas propagée et par ailleurs des ondes gravitationnelles quantifiées existent mais ne propagent pas d'interaction...il pourrait bien en être de même pour l'électromagnétisme tel qu'il s'unifie à la gravité dans notre cadre.


30/05/2007 : Des expériences Russes (G.A Mesyats) et Américaines (K. Shoulder) ont fait depuis longtemps état de l'existence d'amas d'électrons appelés Ectons qui comme la foudre en boule et les mini-boules d'énergie du SPAD ont les propriétés attendues d'un amas de particules chargées piégées par une discontinuité de la gravité qui en expliquerait idéalement la cohésion. Leur rôle et leur efficacité dans les processus de transmutation à basses énergies semblent être de mieux en mieux établis. Leur capacité à provoquer un écrantage ou un abaissement des barrières électrostatiques semble également reconnue : une signature typique de l'effet de discontinuités. Des traces étranges, en pointillés, ont également été observées (L.I Urutskoev) dans des émulsions photographiques, phénomène par la suite reproduit dans plusieurs expériences. Références essentielles ici. Les discontinuités de DG sont des lieux d'instabilité où les gravités de fond des deux versants de l'univers échangent leur rôle. L'instabilité est telle que de petites perturbations peuvent provoquer plusieurs sauts discrets successifs avec échange des fonds à l'intérieur d'un petit volume délimité par une discontinuité mais aussi possible transfert du contenu matériel de la mini-bulle d'un versant de l'univers à l'autre, d'où les trajectoires en pointillés. 



28/05/2007 : Tous les systèmes physiques tirant leur énergie de discontinuités gravitationnelles (SPAD, Orbo, Z machine) devraient voir leurs performances modulées dans le temps par des cycles gravitationnels (annuels, lunaires) et des perturbations magnétiques locales.


19/05/2007

Je disais hier: toutes sortes d'expériences manifestant des dégagements énergétiques anormaux  devraient commencer à produire des résultats de plus en plus hautement significatifs. Il n'est pas inutile de donner trois exemples très récents et particulièrement impressionnants:

La Z machine

...la puissance rayonnée a dépassé (d'un facteur 3 à 4) l'estimation de l'énergie cinétique développée lors de la compression du plasma. L'origine de ce surcroît d'énergie reste encore incertaine, car seules de rares tentatives d'explication ont été publiées.

Le SPAD

30 à 60% d'économie de carburant dans un moteur Diesel

Orbo

Moteur magnéto-mécanique à énergie libre et propre (rendement 400%!) industrialisé par l'entreprise STEORN à Dublin sous réserve de confirmation des performances par le comité d'experts scientifiques.


17/05/2007 :

La théorie de la gravité obscure est elle une théorie à vitesse de la lumière variable? Certainement mais pas au sens où on l'entend habituellement. Dans le cadre de la relativité générale, la gravité déforme l'espace et le temps produisant des effets qui miment dans une certaine mesure une variation de la vitesse de la lumière. Mais celle-ci est en toute rigueur une constante absolue dans ce formalisme bien que des extensions aient été proposées pour la faire varier ainsi que d'autres constantes fondamentales. Dans le cadre de DG, la situation est très différente car l'espace n'est pas déformé et l'un des éléments du champ gravitationnel lui même doit être identifié à la vitesse de la lumière locale qui varie ainsi dans le temps et l'espace comme le champ gravitationnel le lui impose. Cette vitesse de la lumière locale doit être distinguée de la vitesse de la lumière globale qui est une caractéristique constante absolue de notre paire d'univers.   



1/05/2007 : L'économiseur de carburant SPAD.

L'économiseur de carburant SPAD (suivant un principe proche de celui du moteur Pantone) est un pot d'échappement commercialisé depuis un an par l'entreprise Hypnow et qui se vend bien. Il permet de réduire de 30 à 60 % la consommation de carburant!! De telles performances ne peuvent simplement s'expliquer par la simple réutilisation de l'énergie perdue dans les gaz d'échappement  (cf wikipedia: moteur à eau, moteur pantone). Par conséquent, on doit admettre qu'une énergie potentielle supplémentaire non conventionnelle est exploitée soit directement soit indirectement en permettant la réduction des imbrûlés dans la chambre de combustion. Nous proposons un mécanisme par lequel les énergies potentielles des discontinuités de DG peuvent être extraites (sous forme d'énergies potentielles électrostatiques et de chaleur) dans le réacteur SPAD avant d'être consommées dans la chambre de combustion.  Le modèle pourra être testé facilement et à grande échelle par tous les utilisateurs et concepteurs de SPADs et devrait permettre d'en améliorer les performances.



03/04/2007: L'introduction grand public à la théorie de la gravité obscure incluant la liste de ses conséquences et prédictions les plus remarquables est publiée dans le mensuel Science Frontières

http://www.sciencefrontieres.com/




website analytics software