• LISTE DES ARTICLES

    07-11-2013 - L'objet de mon propos

    SCIENCE
    Nouveau => 11-02-2014 : Le vide quantique : un nouveau continent à explorer
    Nouveau => 16-01-2014 : Histoire de l'univers - Partie 4 : Le Modèle standard de la physique
    13-06-2013 : Histoire de l'univers - Partie 3 : QED... Vous avez dit QED ?
    18-02-2013 : Histoire de l'univers - Partie 2 : Introduction à la physique fondamentale (pour les nuls !)
    05-12-2012 : Histoire de l'univers - Partie 1 : Naissance et Topologie
    14-05-2012 : Mille milliards de soleils
    13-04-2012 : NDE/EMI : Introduction à la Suneidologie
    02-02-2012 : Science, chapitre 0
    28-11-2011 : NDE/EMI - Partie 4 : La synthèse
    02-11-2011 : NDE/EMI - Partie 3 : La phase transcendante, une première modélisation
    07-09-2011 : NDE/EMI - Partie 2 : Une percée scientifique majeure
    26-06-2011 : NDE/EMI – Partie 1 : Etat des lieux
    05-05-2011 : Galilée et le coup de force pythagoricien
    21-01-2011 : Le mur de la quantique
    09-05-2008 : Le théorème de Gödel
    15-03-2008 : L'épistémologie pour les nuls
    20-01-2008 : La théorie du puzzle

    ENVIRONNEMENT ET SANTÉ
    05-01-2012 : Cancer : la catastrophe silencieuse
    27-10-2011 : ITER - Fukushima, même combat ?
    03-08-2011 : David Servan-Schreiber, 1961 - 2011
    06-07-2011 : Découverte d'un traitement anticancer simple...
    17-03-2011 : Fukushima
    28-06-2010 : Cancer, la catastrophe - Partie 5 : Se protéger
    28-06-2010 : Cancer, la catastrophe - Partie 4 : Que fait l'état ?
    27-12-2009 : Cancer, la catastrophe - Partie 3 : Les causes
    23-10-2009 : Cancer, la catastrophe - Partie 2 : Pesticides sur l’occident
    10-09-2009 : Cancer, la catastrophe - Partie 1 : Etat des lieux
    15-11-2008 : Amiante, Tchernobyl, sang contaminé et...amalgames dentaires !
    24-05-2008 : Loi OGM : empoisonnement général légalisé
    17-04-2008 : Le scandale étouffé de l'uranium appauvri
    14-10-2007 : Grenelle de l'environnement et moteur Pantone

    FINANCE ET ÉCONOMIE
    Nouveau => 24-02-2014 : Débat Le Pen - Moscovici sur France 2, la haine a changé de camp !
    11-09-2013 : Qui sont les véritables bénéficiaires des plans de sauvetages bancaires imposés par l'UE ?
    14-05-2013 : La dette de l'état dans tous ses états
    21-12-2012 : La guerre contre la finance, il faut scinder les banques !
    21-08-2012 : Où sont passés les 1000 Milliards injectés par la BCE ?
    25-07-2012 : Le mystère de la création monétaire
    22-10-2010 : L'esprit de Munich
    02-05-2010 : Traité de Lisbonne, article 123 : le coup d’état de la finance
    20-03-2010 : Le pouvoir exorbitant des agences de notation
    11-02-2010 : La spéculation attaque notre (R)UE
    08-06-2009 : Paul Jorion
    20-05-2009 : Bilderberg 2009
    14-04-2009 : G20 - G Vain ?
    01-01-2009 : Crisis ? What crisis ?
    30-09-2008 : Bretton Woods, une association de criminels
    16-09-2008 : Maastricht - Article 104
    24-07-2008 : Chronique d'une catastrophe annoncée
    31-01-2008 : Le NAIRU ou pourquoi le chômage ne baissera jamais

    MYSTÈRES
    27-02-2011 : Orbes, que la lumière soit !
    21-07-2010 : Fatima 1917, un siècle après...
    04-12-2008 : Lumières dans la nuit
    10-02-2008 : Une étrange structure sous les glaces du Groenland (MAJ 01-2011)

    HISTOIRE ET GEOPOLITIQUE
    02-03-2012 : 1794 : Le génocide Vendéen
    11-08-2011 : Afghanistan : pourquoi nous nous battons
    04-08-2009 : 11 septembre, Bigart persiste et signe
    01-01-2009 : Le pogrom du ghetto de Gaza
    02-03-2008 : 11 septembre 2001 - Partie 3 : la vérité est ici
    27-02-2008 : 11 septembre 2001 - Partie 2 : Twin Towers
    18-02-2008 : 11 septembre 2001 - Partie 1 : Pentagone
    29-01-2008 : La théorie du pic pétrolier est fausse
    01-01-2008 : Le 4ième pouvoir a été racheté !
    11-09-2007 : Le lobby militaire US a pris le pouvoir !

  • Débat Le Pen - Moscovici sur France 2, la haine a changé de camp !

    Un débat télévisé ayant pour sujet la monnaie unique a opposé Marine Le Pen à Pierre Moscovici le 3 février dernier sur France 2.
    Ce débat musclé opposa 2 politiques économiques réellement très différentes, contrairement aux traditionnels débats UMP-PS où les divergences restent à la marge.

    Vidéo ci-dessous :

    S'il restait encore un doute, Moscovici a une fois de plus démontré son incompétence totale en matière d'économie ainsi que sa soumission également totale à l'oligarchie financière.
    Marine Le Pen par contre connaissait parfaitement son sujet et a fourni systématiquement les bonnes réponses à son contradicteur. Cette dernière est par ailleurs restée courtoise comme à son habitude, ce qui fut loin d'être le cas en face.
    Pour illustrer mon propos, j'ai relevé les meilleures perles de notre brillant ministre avec un commentaire explicitant la réalité des choses.


    (00:09:20) "Nous avons réformé le système bancaire"

    La promesse électorale de Hollande était de séparer les activités bancaires utiles des activités risquées. En fait de réforme, cette dernière [1] fut une mascarade avec moins de 1% des activités même pas séparées mais simplement filialisées.
    L'intéressant reportage "Jeux de pouvoir" diffusé l'an dernier sur Arte [2] a montré le déroulement des négociations entre le ministre, les députés et les banquiers sur le contenu de la proposition de loi de régulation bancaire française.
    On constate au cours de ce reportage que Moscovici a tout fait pour torpiller toute avancée significative qui aurait pu aller dans le bon sens à l'exception d'un seul amendement (*) qu'il n'a pas réussi à stopper, ce dernier obligeant les banques à déclarer leur CA et effectif dans tous les pays et donc dans les paradis fiscaux. C'est un premier pas vers la résolution du problème de l'évasion fiscale des multinationales.

    (*) Proposé et défendu par le député vert Eric Alauzet. Ce dernier a d'ailleurs écrit à ses collègues américains pour les exhorter à réussir là où nous avons échoué par lâcheté à séparer les activités bancaires.

    (00:14:40) "L'Euro a apporté aux Français la possibilité de retirer de l'argent sans frais de change."
    Si c'est le principal avantage que le ministre est capable de mettre en avant, alors que dire de celui des taux d'intérêts qui restent bas grâce à l'Allemagne ? Il évoque le sujet pour expliquer que c'est positif pour les entreprises qui par ailleurs n'investissent pas. En réalité les taux bas sont surtout favorables à la limitation du montant du service de la dette de l'état, car ce dernier est obligé d'emprunter en permanence sur les marchés.

    Listons à contrario les points négatifs induits par la création de l'Euro qui a surtout profité à l'Allemagne au détriment des autres pays de la zone :
    1. La part de marché de la France dans les exportations hors zone Euro a baissé de 20% (+5% pour l’Allemagne)
    2. Le déficit commercial de la France est passé d'un excédent de 43 Milliards d'€ à un déficit de 43 Milliards d'€
    3. L'emploi industriel a baissé 3 fois plus en France et en Italie qu'en Allemagne
    4. Le taux de chômage est resté voisin des 11% en France alors que celui de l'Allemagne est passé de 9 à 5%
    5. L'Euro trop fort pénalise nos exportations dans le reste du monde. Le veto allemand à une dévaluation monétaire de la BCE qui améliorerait immédiatement notre compétitivité ne nous laisse pas d'alternatives.
    Il n'y a pas d'autre choix que d'ajuster nos prix par une baisse des salaires ou des charges des entreprises. Puis si les revenus diminuent, alors il faut diminuer les dépenses pour ne pas accroitre les déficits. Et en général, ce sont les dépenses sociales qui sont touchées en premier.

    (00:23:00 et 01:05:57) "Si on sort de l'Euro, la dette restera libellée en Euro".
    Là c'est du lourd !
    Soit il ment sur ce point technique pour faire peur aux Français, soit il est ignorant. Dans les 2 cas, c'est inacceptable pour un ministre des finances.
    En effet, comme l'explique Jacques Sapir, la législation internationale dit que la dette est libellée en monnaie nationale locale, donc si on repasse au Franc, alors la dette sera transformé en Francs (y compris si on le dévalue ultérieurement).
    Seule 15% de la dette est libellée en droit international, ce qui correspond à environ 285 Milliards sur un total de 1900 Milliards d'€.
    Dans le cas d'une dévaluation de 20%, alors l'augmentation totale de la dette sera de 60 Milliards environ, soit 3% du PIB.
    On note d'ailleurs à ce moment que le journaliste Yves Calvi tente de "sauver" Moscovici en laissant entendre qu'il s'agit d'un point trop technique pour être tranché ici "On n'arrivera pas à vous mettre d'accord ..."

    (00:45:11) "Le système bancaire Français est très solide.
    A ce niveau on peut évoquer la faillite de Dexia (Coût total cumulé : 5.5 Milliards pour le contribuable français).
    Rappelons pour mémoire l'affaire Kerviel qui a coûté 5 Milliards à la Société Générale.
    Egalement au sujet de cette banque, citons un fait moins connu. En 2008, le contribuable américain, en sauvant l'assureur AIG, a renfloué indirectement la SG à hauteur de 12 Milliards de $ à travers les engagements de cette dernière vis à vis d'AIG.
    Par ailleurs, si le système bancaire français était réellement si robuste, alors les 3 plus grandes banques "universelles" nationales (BNP, SG, CA) seraient classées dans le top 50 des banques les plus sures du monde.
    Or, il n'y en a plus une seule !

    (00:46:00) "Nous avons créé une directive pour la garantie des dépôts"
    Le fonds de garantie des dépôts n’a à ce jour que 2 Md€ en caisse pour 1 500 Md€ de dépôts garantis (Voir l'analyse d'Olivier Berruyer ici).
    Alors en cas de faillite de l'une des 3 grandes banques systémiques françaises (pardon "universelles"), l'état n'aura tout simplement pas les moyens de garantir les dépôts de ses clients, le "bank run" sera alors en vue...


    (00:49:04) "Nous avons fait preuve de solidarité avec la Grèce"

    Parler de solidarité avec la Grèce touche carrément à l'ignominie.
    En effet, les résultats de la politique d'austérité imposée en Grèce par la terrifiante Troïka (BCE, FMI, UE) sont les suivants :
    - 6 années consécutive de récession
    - baisse de La production nationale de 25 %
    - taux de chômage de 27 % (60% chez les moins de 25 ans)
    - multiplication des suicides
    - détérioration de la santé générale de la population avec une baisse de 2 ans de l'espérance de vie

    (01:04:18) "Jacques Sapir est d’extrême droite"
    Ça continue avec un amalgame stupéfiant digne d'un Goebbels de sinistre mémoire.
    Un économiste n'est pas de droite ou de gauche, il adhère à l'une ou l'autre des écoles de pensée du domaine économique.
    Moscovici tente ainsi de faire l'amalgame entre les travaux de Sapir sur la sortie de l'Euro et le fait que Marine Le Pen a repris cette idée dans son programme.
    Jacques Sapir s'est donc fendu d'une réponse ici à cette attaque "nauséabonde" pour antiphraser nos bien-pensants représentants de la police de la pensée.

    Conclusion
    Après le bilan catastrophique du régime précédent, nous avions fait l'hypothèse que l'élection de Hollande ne pouvait pas conduire à une situation pire.
    Même si cette hypothèse s'est en partie vérifiée, on constate cependant des similitudes troublantes : politique inverse des promesses électorales, poursuite de la politique ultralibérale, incompétence à tous les étages, manque ostensible de créativité, pensée unique, etc.
    De plus, les repères s'effondrent, c'est en effet le front national qui défend de véritables idées alternatives crédibles en s'appuyant sur les travaux d'économistes reconnus. Marine Le Pen s'inspire des prix Nobel Maurice Allais et Joseph Stiglitz ainsi que d'économistes compétents tels que Jacques Sapir, Emanuel Todd, etc.

    C'est la gauche qui utilise aujourd'hui les anciennes armes du FN, à savoir l'amalgame, la désinformation, le mensonge et la vindicte.
    Quand au FN et plus précisément à sa représentante, il assène des vérités, du moins sur le terrain économique.

    C'est le monde à l'envers !

    Article publié sur Agoravox (Top 10 : Peak #4)

    Liens
    [1] La guerre contre la finance, il faut scinder les banques ! (Sur ce site)
    [2] "Jeux de pouvoir" Arte – 24 septembre 2013 (extrait ici).

  • Le vide quantique : un nouveau continent à explorer

    Cadre noir
    Un magnifique cliché du vide
    (pris sans flash pour ne pas perturber le sujet !)

    Les termes de vide ou d'espace évoquent en chacun de nous un concept que l'on perçoit directement dans la vie de tous les jours. Le sujet n'est pas trivial car il s'agit de ce que l'on nomme une notion "cardinale", c'est à dire qu'elle est fondamentale mais difficilement définissable d'une manière autre qu'intuitive.
    La question de la nature du vide fut donc d'abord philosophique avant de devenir scientifique.
    Le vide est il une substance qui préexiste à la matière et au mouvement ou en découle t'il relationnellement ?

    Comme souvent, la première vision préscientifique du vide fut élaborée en Grèce antique par Démocrite (4e siècle avant JC). Selon ce dernier, l'univers serait constitué de vide dans lequel on trouve des particules élémentaires, les atomes qui agrégés en très grands nombres constituent tout ce qui existe.
    Suivant cette vision, l'univers est constitué de deux entités distinctes :
    - un contenant : espace ou vide
    - un contenu : matière

    Si l'existence des atomes fut démontrée plus de 2000 ans plus tard, la question de la nature du vide n'est toujours pas tranchée.

    Matière et énergie représentent deux entités équivalentes comme l'a montré la célèbre relation d'Einstein (E = MC2).
    D'après la relativité générale (RG), la matière-énergie contenue dans l'univers n'est pas sans effets induits car elle courbe l'espace-temps dans ce dernier.
    La RG considère donc l'espace-temps comme étant courbé et dynamique et découlant peut être de la matière-énergie.

    La physique quantique, en revanche, considère explicitement l'espace et le temps comme entités préexistantes. De plus, dans cette théorie, l'espace-temps est plat et statique.

    Questions sur le vide, contenu et dimensions
    Intuitivement, l'image du vide présente à l'esprit est de type géométrique, trois dimensions d'espace dans lesquelles de la matière peut se déplacer en fonction d'une quatrième dimension que l'on nomme le temps (*).
    Suivant ce modèle, on pourrait supposer que si l'on retire les particules connues qui constituent les galaxies, planètes, poussières etc., il ne restera alors plus que de l'espace vide de tout. C'est comme cela que l'on imagine par exemple l'espace interplanétaire.
    Cette vision fut celle de Newton où l'espace préexiste à la matière.

    En réalité, il n'en est rien car le vide tel qu'on l'imagine n'est pas vide du tout.
    Il contient en fait une forme d'énergie se présentant sous la forme de champs quantiques fluctuants. Ces derniers ne peuvent avoir une valeur moyenne nulle suite au mystérieux principe d'indétermination d'Heisenberg.

    (*) Au même titre que le vide, le temps reste aujourd'hui encore un grand mystère ontologique

    L'expérience : effet Casimir
    Cette énergie (ou une partie de cette dernière) peut être mise en évidence à travers le célèbre "effet Casimir". Cet effet est la manifestation d'une énergie du vide prédite en 1948 par le physicien du même nom et démontré par l'expérience en 1997.
    Deux plaques conductrices placées très près l'une de l'autre subissent spontanément une force attractive qui peut être mesurée.

    Les résultats des mesures indiquent une densité d'énergie égale à environ 10E-20 J/M3 (Joules par mètre cube) [1].

    La théorie : calcul de l'énergie du vide
    Pour calculer l'énergie du vide en appliquant la théorie quantique, il suffit de diviser le quanta d'énergie minimale par le quanta de volume minimal aux limites de Planck.

    La densité d'énergie du vide ainsi obtenue est d'environ 10E112 J/M3.
    Ce résultat signifierait qu'un mètre cube de vide contiendrait l'équivalent énergétique de 10E54 galaxies (1 avec 54 zéros) !

    On constate donc que le vide pose un grave problème car la différence entre le calcul et les mesures est presque infinie...
    C'est ce que l'on appelle la "catastrophe du vide".

    La "catastrophe du vide"
    La question est donc de déterminer la valeur réelle de la densité d'énergie du vide.
    Si l'on compare la valeur mesurée à travers l'effet Casimir à la valeur calculée par la théorie, on obtient une différence de 120 ordres de grandeurs : soit 1 avec 120 zéros derrière [1].
    D'autres composantes de cette énergie du vide restent sans doute à identifier, le champ de Higgs est vraisemblablement l'une d’entre elles.

    Le vide pose bien d'autres questions, par exemple si son énergie s'avère réellement très élevée, il semblerait qu'elle ne courbe pas l'espace-temps relativiste car notre univers se serait déjà effondré depuis longtemps.

    Le moins que l'on puisse dire est que la théorie ne colle pas avec l'expérience...

    Autre propriété du vide
    En théorie quantique, la loi de conservation de l'énergie peut être brièvement violée. Le vide peut en effet "prêter" de l'énergie à l'occasion d'une collision de particules à condition que cette énergie soit presque immédiatement rendue.
    Sans renter dans des considérations complexes, ce "viol" est autorisé par le principe d'indétermination d'Heisenberg.
    Les physiciens considèrent que le vide est rempli de "particules virtuelles" qui se matérialisent brièvement lorsqu'on apporte de l'énergie, par exemple lors de collisions de particules à hautes vitesses.

    Mais où sont ces particules virtuelles ?
    On se demande donc d'où vient cette énergie prêtée par le vide.
    Ne pourrait-elle pas par exemple provenir d'une dimension d'espace supplémentaire où seraient présentes ces fameuses particules, cela aurait l'avantage d'éviter de parler de cette notion vague de particules virtuelles.
    Dans cette éventualité, se pose alors la question de l'appartenance de ces particules virtuelles à notre univers. On sait en effet les "pêcher" dans le vide mais elles y retournent très rapidement.

    Le vide appartient il à notre univers ?
    On peut définir notre univers par l'ensemble des particules connues de matière et d'énergie, soit les fermions et les bosons [2] . A ces dernières il conviendrait sans doute d'ajouter les fameuses matière et énergie noire si elles existent. Ces dernières n'ont jusqu'à présent pas été mises en évidence par les expériences effectuées dans le collisionneur géant du CERN (LHC).

    Le vide quantique, étant rempli de quelque chose, pourrait selon cette définition ne pas appartenir à notre univers. Il pourrait par exemple constituer la matière première à partir de laquelle notre univers a été créé il y a 13.5 milliards d'années.
    Si ce vide est dimensionnellement plus grand que ce que l'on perçoit, avec au moins une dimension d'espace supplémentaire, alors rien ne s'opposerait à l’existence d’autres univers voisins du notre.
    Dit autrement, notre univers à 3 dimensions d'espace pourrait être immergé dans un univers plus vaste possédant au moins 4 dimensions d'espace. Les éventuels univers voisins pourraient également être des univers à 3 dimensions d'espace au maximum, à moins qu'ils ne soient totalement différents de ce que l'on connait.

    La quatrième dimension et les NDE
    Abordons à ce stade un domaine complètement différent de la physique, mais qui présente cependant une relation inattendue avec cette dernière.
    Les expériences de NDE/EMI ou Expériences de Mort Imminente ont quasiment démontré l'existence d'une quatrième dimension d'espace.
    En effet, les victimes de NDE ont une perception des objets extérieurs étendue à 4 dimensions d'espace [3].
    Cette découverte est de première importance au niveau ontologique.

    Un espace-temps à 5 dimensions...qui contiendrait notre univers
    Le concept de dimensions spatiales supplémentaires a été visité dès 1919 par Theodor Kaluza qui a tenté d'unifier la gravitation à l'électromagnétisme dans un espace-temps à 5 dimensions (4 d'espace + 1 de temps). Dans cette théorie, la dimension d'espace supplémentaire serait très petite et enroulée sur elle même.

    La théorie des supercordes
    Cette idée originale fut à la base de la controversée théorie des supercordes.
    Cette dernière s'appuie sur un espace-temps ne comprenant pas moins de 6 dimensions supplémentaires, soit un total de 10 dimensions (9 d'espace et une de temps).
    Cette théorie pose problème car elle ne serait jamais vérifiable expérimentalement. En effet les énergies nécessaires correspondantes sont hors de notre portée.

    Le modèle Randall-Sundrum
    D'autres approches plus récentes se basent également sur une 4ième dimension d'espace mais cette fois de taille infinie : modèle Randall-Sundrum. Dans ce modèle, notre univers ne serait qu'une "brane" (*) parmi d'autres immergée dans un espace à 4 dimensions.
    Cette théorie fut proposée pour résoudre le fameux "problème de la hiérarchie".
    Ce problème est lié à la gravitation qui est l'une des 4 forces fondamentales répertoriées dans l'univers [2]. Personne ne comprend pourquoi l'intensité de cette force est 10E42 fois plus faible que la plus puissante des 3 autres forces (1 avec 42 zéros), l'interaction électromagnétique.
    Les 3 autres forces sont quand à elles situées dans un rapport d'intensité n'excédant pas 10E5 (1 avec 5 zéros).

    D'après le modèle Randall-Sundrum, la gravitation serait diluée dans 4 dimensions d'espace (au lieu de 3) dont une que l'on ne perçoit pas.
    Cette théorie est compatible avec celle de la relativité générale.
    Notre univers serait confiné dans un espace à 3 dimensions et la matière ne pourrait se déplacer que dans ce dernier.
    Pour comprendre ce concept, on peut faire l'analogie en 2 dimensions avec un rideau de douche sur lequel les gouttes d'eau glissent sans pouvoir sauter à l'extérieur.

    (*) Une brane est l'abréviation de membrane, caractérisant un univers "flottant" dans un univers plus grand.

    Cosmologie_branaire
    Notre univers serait immergé dans un espace plus vaste contenant d'autres univers

    Naissance de l'univers
    Si le vide quantique contient effectivement une quantité d'énergie monumentale, rien ne s'oppose à ce qu'une partie de cette dernière se soit transformée en matière grâce à la relation d'équivalence d'Einstein (E=MC2).
    L'origine de l'univers aurait alors une cause immanente, car le vide serait préexistant à l'apparition de l'univers [4].
    Cette option aurait l'avantage d'éviter l'aporie liée à la notion de singularité initiale, même si la question de l'origine du vide ne fait que repousser le problème.

    Une autre question concerne la cause ou le mécanisme qui aurait donné naissance à notre univers.
    En science, chaque réponse que l'on découvre mène souvent à de nouvelles questions !

    Exploiter l'énergie du vide
    Enfin, plus prosaïquement, certains rêvent déjà de pouvoir exploiter l'énergie du vide qui serait une source "propre" et illimitée [5], mais tout cela reste très spéculatif.

    Ce qu'il faut retenir
    L'univers contient 3 sources d'énergie [1] :
    - matière
    - rayonnement
    - vide quantique

    Les recherches se poursuivent sur le vide quantique, car comme on le voit, la question est loin d'être résolue.
    Il s'agit très probablement du nouveau continent à explorer au XXIe siècle.
    De nombreuses voies théoriques sont d'ores et déjà explorées, cependant, aucune ne dégage pour l'instant un consensus significatif.
    Pour progresser, le seul juge de paix sera l'expérience.
    C'est pour cette raison que la communauté scientifique attend avec impatience début 2015 qui verra le redémarrage du LHC, le collisionneur géant du CERN.

    Des découvertes révolutionnaires nous attendent très probablement là dessous !

    Article publié sur Agoravox (Une discussion très intéressante à suivre dans les commentaires)

    Liens
    [1] "Aux Frontières De L'univers - Du Big Bang Au Quark" Marceau Felden - 2005
    [2] Histoire de l'univers - Partie 4 : Le Modèle standard de la physique (Sur ce site)
    [3] NDE/EMI - Partie 4 : La synthèse (Sur ce site)
    [4] "Discours sur l'origine de l'univers" - Etienne Klein - 2010
    [5]"L'Energie du Point Zéro" - Marc HERMANS

    Tags :
    Vide quantique, Branes, Lisa Randall, Énergie du vide, 4ieme dimension, Physique quantique

  • Histoire de l'univers - Partie 4 : Le Modèle standard de la physique

    aubergine
    Une particule élémentaire non observable directement
    (elle ressemble peut être à cela !)

    Le premier article [1] de cette série a présenté une ébauche du début de l'histoire de l'univers telle que la cosmologie moderne la conçoit.
    Pour comprendre cette histoire, il est apparu nécessaire d'aborder le domaine de la physique des particules.
    En effet, à ses instants initiaux, l'univers était constitué de particules dites "de base" à très haute énergie.
    Ce domaine de la physique est décrit par un ensemble de théories regroupées sous le nom de "Modèle Standard"

    Le second article [2] a donc introduit les principaux concepts permettant de comprendre le Modèle standard qui va être présenté ici.
    Une troisième partie a abordé l'une des théories du modèle standard qui est la plus aboutie : la QED [3].

    Le Modèle Standard est un modèle ouvert car il peut évoluer en fonction d'éventuelles observations nouvelles. Sa présentation sera divisée en 4 parties :
    - Les 2 familles de particules fondamentales
    - Les 4 interactions fondamentales entre ces particules
    - Les particules de base qui constituent l'Univers
    - Les lois physiques qui régissent ces interactions et les théories associées

    1. LES 2 FAMILLES DE PARTICULES FONDAMENTALES
    La matière ordinaire est constituée d'un assemblage d'atomes juxtaposés. Ces derniers se présentent sous la forme d'un noyau constitué de nucléons (neutrons et protons) autour duquel gravitent des électrons.
    Les nucléons sont eux même constitués de particules plus petites : les quarks, ces derniers sont considérés aujourd'hui comme des particules fondamentales (*).

    (*) Non constituées de particules plus petites.

    Matière constituants
    Fig. 1 : Les plus petits constituants connus de la matière

    Les particules de base qui constituent la matière sont appelées "fermions". Ces dernières interagissent entres elles par échange d'autres particules appelées "bosons".
    Ces 2 familles de particules obéissent chacune à des lois physiques différentes.

    Le modèle standard décrit donc les constituants de base de l'univers à l'aide de 2 types de particules seulement :
    - les fermions pour la matière ordinaire
    - les bosons parmi lesquels on trouve les vecteurs d'interactions entre les fermions

    Ce qui distingue ces 2 familles de particules est un paramètre quantique assez mystérieux appelé spin dont la valeur est quantifiée comme pour tout ce qui touche à la physique des particules. Le "quanta" du spin est égal à 1/2, donc le spin ne peut prendre que des valeurs multiples de cette dernière (0, 1/2, 1, 3/2, 2, ...).

    Le spin des fermions est un demi-entier : 1/2, 3/2,...
    Le spin des bosons est un entier : 1, 2,...

    Le comportement de ces 2 types de particules est très différent comme on le verra plus loin.

    2. LES PROPRIÉTÉS "QUANTIQUES" DES PARTICULES ÉLÉMENTAIRES
    Pour y voir clair, examinons quelques propriétés dites quantiques des particules élémentaires.

    Quantité de mouvement et moment cinétique
    En physique classique, lorsqu'un objet se déplace en ligne droite on définit la notion de quantité de mouvement, si l'objet est en rotation sur lui même ou en orbite autour d'un axe, on parle de moment cinétique .

    La figure 2 illustre ces concepts à travers l'exemple d'une boule de billard et celui de la toupie.

    Mouvement
    Fig. 2 : quantité de mouvement et moment cinétique

    Le spin des particules et la polarisation
    En physique des particules, même si la réalité est plus complexe, le spin d'une particule peut par analogie être décrit approximativement comme un moment cinétique de la particule liée à un mouvement de rotation sur elle même. En continuant à raisonner par analogie, la valeur du spin (par incréments possibles de 1/2) peut être considérée comme proportionnelle à la vitesse de rotation de la particule sur elle même.

    La polarisation est une caractéristique du spin, l'image que l'on peut donner correspondrait à la direction de l'axe de rotation de la particule.
    Par exemple, pour une polarisation donnée la particule tourne autour de son axe dans un certain sens, si la polarisation est inversée, l'axe est retourné de 180 degrés et la particule tourne dans l'autre sens.

    Un assemblage de particules élémentaires possède également un spin qui est composé à partir de celui de ces dernières.
    Par exemple, un atome constitué de quarks, de bosons et d'électrons possède un spin.
    Les règles qui régissent ce spin résultant font encore l'objet de recherches à l'heure actuelle.

    Une application concrète des découvertes liées au spin est la fabrication de disques durs à haute capacité.

    DD_atome

    Etat quantique
    L'état quantique d'une particule est l'ensemble des paramètres qui servent à décrire complètement son état.
    Le spin est l'un de ces paramètres.

    Principe d'exclusion de Pauli
    En 1925, le principe d'exclusion de Pauli fut établit par le physicien du même nom. Ce principe indique que 2 électrons dans le même état quantique ne peuvent se trouver simultanément au même endroit.
    Ce principe fut ensuite généralisé à tous les fermions, autrement dit à toutes les particules de spin demi entier.
    Les bosons n'obéissant pas à ce principe peuvent occuper simultanément le même point d'espace, ils peuvent en quelque sorte se "passer au travers".

    Principe d'indétermination d'Heisenberg
    Le principe d'indétermination (et pas d'incertitude) d'Heisenberg dit : "on ne peut connaitre avec une précision arbitraire la vitesse et la position d'une particule".
    C'est une limite intrinsèque au monde quantique, car les objets quantiques ne sont pas de même nature que les objets physiques.
    Certains pensent (en particulier en France) que les objets quantiques possèdent une position et une vitesse déterminée mais que la physique quantique nous empêche de les connaitre.
    En réalité, la physique quantique dit qu'une particule n'est jamais un corpuscule. Vitesse et position n'ont aucun sens pour un champ quantique.
    Si on mesure la position d'une particule, cette position ne préexistait pas à la mesure.
    C'est la mesure qui a forcé la particule à prendre position [4].

    La famille des fermions
    Les fermions sont des particules à spin demi entier qui obéissent au principe d'exclusion de Pauli.
    En clair, si l'on remplit une boite avec des fermions, arrivé à un certain point il sera impossible d'ajouter de nouveaux fermions dans la boite car elle sera pleine...

    Ce comportement explique par exemple pourquoi les électrons en orbite autour des noyaux d'atomes sont situés sur des couches bien séparées car ils ne peuvent partager le même espace, ils s'évitent comme la peste ! [5]

    La famille des fermions constitue en gros les constituants de la matière ordinaire, cependant pour lier entres eux les fermions, on a besoin de particules "collantes" qui ne sont autres que les bosons.

    La famille des bosons
    Les bosons sont des particules à Spin entier (1, 2,...), ces derniers n'obéissent pas au principe d'exclusion de Pauli.
    Rien ne les empêche donc de se concentrer en un même point de l'espace-temps.
    Pour reprendre l'exemple précédent, si l'on remplit une boite avec des bosons, alors en théorie tous les bosons de l'univers pourraient tenir dans cette dernière !

    Le laser utilise par exemple cette propriété en concentrant une pluie de photons au même point.
    Cette concentration correspond à une émission d'énergie ciblée et permet des utilisations pratiques telles que la chirurgie laser ou la transmission de données à travers une fibre optique.

    Un exemple de comportement bosonique à notre échelle est la superfluidité de l'hélium 4 (*) :

    (*) Pour en savoir plus sur l'hélium 4, un article ici.

    Les bosons sont donc des particules fondamentales ou composées qui obéissent à certaines lois physiques.
    Dans cette famille, on distingue les bosons dits "de jauge" qui sont spécifiques aux échanges entre fermions. Les fermions échangent ces bosons qui sont les vecteurs de leurs interactions.

    3. LES INTERACTIONS FONDAMENTALES
    Dans l'univers, les particules sont soumises à seulement 4 interactions, trois d’entre elles peuvent être apparentées à des forces attractives ou répulsives.
    Ces interactions se différencient par leur nature, leur intensité, leur signe et leur portée.

    Les 4 interactions fondamentales sont les suivantes :
    . Interaction électromagnétique
    . Interaction gravitationnelle
    . Interaction nucléaire forte
    . Interaction nucléaire faible

    La gravitation a jusqu'ici résisté à toutes les tentatives de description théorique par le modèle standard, elle est donc pour l'instant exclue de ce dernier.

    Ce qui différencie les fermions (particules de la matière ordinaire) est la possibilité d'interaction (ou pas) avec un ou plusieurs des bosons de jauge.

    Interaction électromagnétique
    Le boson de l'interaction électromagnétique est le photon qui est une particule d'énergie pure sans masse constituant par exemple la lumière ordinaire.

    Il ne possède ni masse ni charge électrique.

    Comme l'a démontré la célèbre expérience de Michelson, la lumière se déplace à vitesse constante C (300 000 km/s), quelque soit le référentiel considéré. D'après la relativité cette vitesse est une limite ne pouvant être dépassée par aucun objet possédant une masse.

    Les photons, dépourvus de masse, ne peuvent exister qu'en mouvement à vitesse constante C.
    Puisqu'ils se déplacent tous à la même vitesse, les photons se différencient par la quantité d'énergie qu'ils véhiculent qui est fonction de leur longueur d'onde. Plus cette dernière est faible, plus l'énergie du photon est élevée comme l'illustre la formule de Planck [2] :

    Formule Plank

    E=Énergie, h=constante de Planck, v=fréquence (inverse de la longueur d'onde)

    Le photon interagit très facilement avec les autres particules (Nucléons, électrons, etc...).

    Exemple : lorsqu'un photon interagit avec un œil humain, le cerveau perçoit une couleur. Cette couleur est liée à la longueur d'onde du photon (du rouge vers le bleu lorsque la longueur d'onde diminue).

    Une particularité troublante du photon est que pour lui, le temps ne s'écoule pas, c'est une conséquence de la théorie de la relativité d'Einstein.
    Si vous arriviez à chevaucher un photon émis par le soleil, votre durée de trajet ressentie pour atteindre n'importe quel point de l'univers serait nulle !

    Interaction gravitationnelle
    Cette interaction est citée pour mémoire car elle ne fait pas encore partie du modèle standard, aucun physicien n'a jusqu'à présent réussi à établir une théorie quantique qui fonctionne à ce sujet. Les recherches sont donc toujours en cours.
    L'existence d'un boson appelé "graviton" est subodorée mais non confirmée par l'expérience.

    Pour l'instant la gravitation est décrite par la relativité générale d'Einstein qui géométrise un espace/temps continu en fonction de la matière/énergie qu'il contient.
    Cette théorie est à 100% incompatible avec la théorie quantique.

    La relativité générale n'utilise que 2 constantes :
    - vitesse de la lumière C
    - constante de gravitation g
    Les constantes de la physique quantique n'interviennent pas.

    Interaction nucléaire forte
    L'interaction nucléaire forte est portée par 8 bosons différents appelés "gluons".
    Cette interaction ne concerne que les quarks du noyau qui sont donc reliés entres eux par ces gluons, les électrons et neutrinos y sont insensibles (*).
    La particularité de cette interaction est que son intensité augmente avec la distance un peu comme avec des ressorts, il est donc presque impossible d'arracher un quark au noyau.

    La fig. 3 montre l'exemple du proton constitué de 2 quarks up et 1 quark down reliés par des gluons.

    (*) A noter que les quarks interagissent également avec les photons, cela s'explique par le fait qu'ils possèdent une charge électrique. C'est l'interaction entre les électrons et les quarks par échange continu de photons qui stabilisent les électrons sur leurs orbitales autour du noyau.

    proton
    Fig. 3 : le proton constitué de ses 3 quarks liés par des gluons

    Comme son nom l'indique, l'interaction forte est la plus puissante des 4 interactions fondamentales.
    A titre d'exemple, dans un accélérateur, un proton immobile peut arrêter un autre proton lancé vers lui au tiers de la vitesse de la lumière grâce à l'interaction forte [9].

    proton_super
    Un proton fonce à 100 000 km/s dans le tunnel du LHC
    ...un autre proton va le stopper net !

    Interaction nucléaire faible
    L'interaction nucléaire faible est portée par 3 bosons différents, 2 d'entres eux sont chargés électriquement et le troisième est neutre.
    Ils sont appelés "W+", "W-" (Weak = faible) et "Z0" (pour 0 charge électrique).
    Cette interaction est assez différente des autres car elle se manifeste sous la forme de désintégration de particules qui se transforment en d'autres particules.
    L'interaction faible intervient en particulier dans la désintégration β (Beta).

    L'exemple le plus courant concerne le neutron qui peut se transformer en proton.
    Pour des raisons de conservation d'énergie, il produit alors en plus un électron et un (anti)neutrino :

    Inter_Faible Desintegration sans boson

    La théorie de l'interaction faible indique qu'en fait la réaction de désintégration passe par un état intermédiaire éphémère produisant un boson W ou Z.

    Dans l'exemple du neutron, ce dernier se transforme d'abord en un boson W- qui se retransforme presque immédiatement en un électron et un antineutrino :
    Inter_Faible Desintegration

    Le champ de Higgs
    Les physiciens Brout, Englert et Higgs ont développé une théorie pour expliquer la masse des particules fondamentales qui en possèdent une.
    Cette masse ne serait pas intrinsèque mais induite par un champ quantique qui remplirait tout l'univers.
    Le quanta de ce champ serait donc le fameux boson dit "de Higgs".

    La masse d'une particule élémentaire serait acquise par interaction avec ce champ qui freinerait plus ou moins leur déplacement.
    L'existence du Higgs est aujourd'hui presque démontrée par les expériences ayant eu lieu en 2012 dans le tunnel du LHC à Genève [10].

    Il faut remarquer que ce modèle de Higgs n'explique pas la chute des corps due à la gravitation, cette dernière serait liée à l'existence d'un autre boson hypothétique : le graviton.
    Le modèle de Higgs n'explique que le comportement inertiel lié à la masse (loi de Newton).

    boson-higgs

    La particularité du boson de Higgs est son spin qui serait nul d'après la théorie. Le LHC aura du pain sur la planche pour vérifier tout cela lors de son redémarrage en 2015 !

    Arrivé à ce stade, il est temps de faire le point sur la classification des particules subatomiques.

    4. LES PARTICULES FONDAMENTALES
    L'univers visible est donc constitué de 2 types de particules : les bosons et les fermions.
    A chaque particule de ces 2 familles est associée ce que l'on appelle une antiparticule de charge électrique opposée.

    Les bosons de jauge évoqués précédemment sont d'un type particulier, ils servent à transmettre les interactions entre les fermions.
    Ils sont dits "vecteurs d'interactions".

    Classification des bosons de jauge
    En synthèse, les bosons de jauge identifiés aujourd'hui sont au nombre de 13 (fig 4) :
    - 3 bosons pour l'interaction faible (W+, W-, Z0)
    - 1 boson pour l'interaction électromagnétique (photon)
    - 8 bosons pour l'interaction forte (gluons)
    - Le boson de Higgs

    Tableau des particules - Bosons
    Fig. 4 : Les bosons de jauge pour 3 des 4 interactions du modèle standard

    Classification des fermions
    Puisque les fermions n'interagissent pas tous avec la force forte (gluons), ces derniers ont été subdivisés en 2 sous-famille :
    - les quarks qui interagissent avec la force forte
    - les leptons qui n'interagissent pas avec cette dernière

    Les électrons et les neutrinos vus dans un article précédent [2] sont donc classés dans la sous-famille des leptons.
    Et bien entendu, comme leur nom l'indique, les quarks up et down (*) font partie de la famille des quarks.

    Une première famille de fermions est donc identifiée comme suit (fig. 5) :

    Tableau des particules - Fermions 1
    Fig. 5 : Fermions = leptons et quarks

    (*) Ce paramètre (up, down,...) est appelé "saveur" des quarks.

    La sous-famille des Quarks...et les Hadrons
    Les quarks sont aujourd'hui les plus petits constituants connus de la matière, même si aucun d'entre eux n'a pu être isolé expérimentalement jusqu'ici.
    Les quarks sont sensibles aux 4 types d'interactions et ils sont reliés entres eux par l'interaction forte à travers des bosons appelés gluons.

    Les quarks se différencient suivant 2 paramètres quantiques :
    . la saveur : up, down...
    . la charge dite "de couleur" : rouge, bleu, vert (*).

    (*) Cette terminologie n'a rien à voir avec une couleur au sens intuitif, il s'agit d'une règle liée à la théorie de la QCD.

    Les assemblages de quarks "collés" par des gluons constituent la famille des Hadrons (Hadron = Hard !).
    Protons et neutrons ne sont donc que des cas particuliers (constitués de 3 quarks) de cette famille.

    Les quarks possèdent également chacun leur antiparticule de charge électrique opposée.

    Le proton
    Le proton est constitué de deux quarks Up et d'un quark Down (Fig. 3)

    Le neutron
    Le neutron est constitué de deux quarks Down et d'un quark Up.

    La sous-famille des Leptons
    Les leptons sont des éléments légers (Lepton = light !) caractérisés par le fait qu'ils ne sont sensibles qu'aux forces suivantes :
    - nucléaire faible
    - électromagnétique
    - gravitationnelle
    Ils sont insensibles à l'interaction forte.

    Les leptons les plus connus sont l'électron et le neutrino.

    L'électron
    L'électron est une particule matérielle découverte en 1897 par Joseph John Thomson, sa masse est 1850 fois plus faible que celle du proton.
    Il possède une charge électrique négative et une antiparticule : le positron.
    Le positron a été anticipé par Paul Dirac et découvert expérimentalement en 1932.

    Le neutrino
    L’existence du neutrino fut anticipée par Wolfgang Pauli en 1930 dans le cadre de l'étude de la radioactivité bêta.
    C'est une particule assez étrange, on a cru pendant très longtemps qu'il ne possédait pas de masse avant de déterminer en 1998 au Japon qu'il en possédait une très faible.
    Les neutrinos possèdent une antiparticule : l'antineutrino, il se pourrait cependant que ces 2 particules n'en fassent qu'une comme le supposait le physicien italien Ettore Majorana [6].

    Le neutrino interagit très peu avec les autres particules car il est uniquement sensible à l'interaction faible.
    Un neutrino peut traverser la terre entière sans être intercepté par l'un des atomes de cette dernière !

    Le neutrino est donc très difficile à détecter.

    Particules, antiparticules et antimatière
    Chaque particule possède une antiparticule de charge électrique opposée, lorsqu'elles se rencontrent, elles se transforment en énergie : 2 photons.
    Ex : Proton + Antiproton = > Photon + Photon

    Le neutron ayant globalement une charge électrique nulle est cependant constitué de 3 quarks chargés individuellement (1/3 + 1/3 + (-2/3) = 0).
    L'antineutron est donc constitué d'antiquarks de charges opposées à ceux du neutron mais sa charge globale est également nulle.
    Le photon est un cas particulier car il est sa propre antiparticule.

    Les antiparticules forment ce que l'on nomme l'antimatière.

    Ca se complique (un peu !)
    Tout aurait pu en rester là avec une brochette de particules stables constituée d'une douzaine de bosons et de 4 fermions qui suffisent à construire toute la matière connue de l'univers :
    - électrons
    - neutrinos
    - quarks up et down
    - bosons de jauge

    Le problème est que les nombreuses expériences effectuées depuis 50 ans dans les collisionneurs et autres accélérateurs ont mis en évidence de nombreuses particules de type hadrons mais dont la durée de vie est très brève, inférieure à 1 millionième de seconde.

    Pour construire toutes ces particules, il a fallu ajouter 2 générations supplémentaires de hadrons fondamentaux (fig. 6). Ces dernières sont totalement similaires à la première à part leur masse qui est plus élevée, leur existence a été démontrée par l'expérience.
    Ces 2 générations sont donc constituées de 4 quarks correspondant à 4 nouvelles saveurs aux noms exotiques (*) et 4 leptons (2 neutrinos lourds et 2 électrons lourds).

    Tableau des particules - Gen 2 & 3
    Fig. 6 : les générations 2 et 3 de hadrons fondamentaux

    (*) Strange, Charmed, Bottom, Top

    Cependant, personne ne comprend l'intérêt pour la nature d'avoir compliqué ainsi les choses avec des particules si éphémères, quelle est leur utilité ?

    Synthèse du bestiaire des particules du modèle standard

    Le tableau ci-dessous résume l'ensemble des particules constituant le modèle standard (fig. 7) :

    Tableau des particules

    Fig. 7 : les 25 particules du modèle standard

    Environ 25 particules de base suffisent donc pour construire tout ce qui est contenu (et connu) dans l'univers.
    Les travaux futurs sur les règles d'interaction avec le boson de Higgs réduiront peut être ce nombre à une quinzaine en montrant que les 3 générations de fermions n'en font qu'une.

    5. LES THÉORIES DU MODÈLE STANDARD
    Après avoir décrit les interactions fondamentales qui s'exercent sur les particules fondamentales, il reste à décrire les théories du modèle standard qui permettent :
    - de fixer les lois physiques qui régissent les interactions
    - de mathématiser ces dernières pour effectuer des calculs prédictifs

    Ces théories dites de jauge, sont au nombre de 3 :
    . QED pour l'interaction électromagnétique
    . QCD pour l'interaction forte (noyau atomique)
    . Théorie électrofaible pour l'interaction faible (noyau atomique)

    A noter que la QED explique 99% des phénomènes physiques, elle ne traite cependant pas de ce qui concerne les noyaux atomiques pour lesquels il a été nécessaire de monter 2 théories supplémentaires [5].

    QED : ÉlectroDynamique Quantique
    L'électrodynamique quantique ou QED permet de calculer tous les phénomènes lumineux et électriques à partir de 3 séquences de base [5] :
    . S1 : Un photon va d'un point A à un point B.
    . S2 : Un électron va d'un point A à un point B
    . S3 : Un électron absorbe ou émet un photon, cela s'appelle un couplage

    La figure 8 montre les diagrammes de Feynmann de ces 3 séquences.

    3-diag_Feynman 2
    Fig. 8 : Les 3 diagrammes fondamentaux de Feynman

    La QED fut développée après la seconde guerre mondiale sur une durée de 20 ans environ par Feynmann, Schwinger et Tomonaga à partir des travaux de Paul Dirac.
    Le comportement des électrons et des photons en termes de déplacement et d'interactions est de type probabiliste.
    La QED permet dans des cas simples et avec des calculs compliqués de déterminer complètement ce comportement.
    L'idée est de prendre en compte tous les cas d'interactions et de déplacements possibles avec leur probabilité associée.

    Cette théorie est celle qui a été la plus étudiée, elle est donc la plus aboutie, la correspondance entre les calculs et les mesures atteint une précision exceptionnelle de 10E-11, soit 0.00000000001 !

    Un article spécifique lui a été consacré ici [3].

    Signalons au passage une information troublante,
    le scientifique italien Ettore Majorana mystérieusement disparu en 1938 était considéré par certains comme le plus grand physicien du XXe siècle, même devant Einstein [6].
    En 2006 on a retrouvé certains de ses brouillons de l'époque (*), ces derniers contenaient l'intégralité du formalisme de la QED développée bien des années plus tard...

    (*) Ces documents jamais publiés font partie d'un ensemble remis par Majorana à l'un de ses étudiants peu de temps avant sa disparition. L'intégralité de ces manuscrits n'a pas encore été retrouvée.

    Les autres théories du modèle standard concernent l'étude du noyau atomique constitué de nucléons (protons et neutrons).

    QCD : ChromoDynamique Quantique
    La branche de la physique étudiant les constituants du noyau atomique se nomme la Chromodynamique Quantique (QCD). Elle fut développée dans les années 1970 par plusieurs physiciens dont Murray Gell-Mann.
    Cette discipline fut largement inspirée par l'esprit de la QED en ajoutant un nouvel attribut [5].

    Saveur des quarks
    Nous avons vu précédemment que 6 quarks différents avaient été identifiés par leur saveur (Up, Down, Strange, Charmed, Bottom, Top).

    Couleur des quarks
    Un quark possède en plus une charge d'un type particulier nommé "couleur". Cette couleur n'a cependant aucun rapport avec celles qui nous sont familières, il s'agit seulement d'une analogie associée à un nom donné à un paramètre quantique sans équivalent à notre échelle.
    Cette charge peut avoir 6 valeur différentes : RVB (Rouge, Vert, Bleu) ou opposée (Antirouge, antivert, antibleu).
    La charge de couleur est la source des lois qui régissent l'interaction nucléaire forte.

    Echange de couleurs par les gluons
    Les quarks sont reliés entres eux par un type de bosons particulier appelé "gluons". Il existe 8 gluons différents qui peuvent d'après la théorie transporter une charge de couleur d'un quark vers un autre, un quark peut donc changer de couleur.
    Les groupements de quarks se forment à condition de former une particule "incolore".
    Par exemple, les groupes de 3 quarks (ex : nucléons) comprennent un quark de chaque couleur : R-V-B.

    La couleur des quarks peut donc changer, par contre la saveur de ces derniers est invariante sauf dans un cas particulier, la radioactivité bêta qui fait intervenir la théorie de l'interaction faible.

    La QCD n'est pas encore finalisée à cause de certaines incohérences mathématiques complexes non résolues.
    Par ailleurs, la différence entre les valeurs calculées et l'expérience reste élevée avec un écart d'environ 10%, cette précision est largement inférieure à celle de la QED.

    Théorie de l'interaction faible
    L'interaction faible permet de modéliser les phénomènes de radioactivité β constatés au niveau du noyau atomique.
    Ce type de radioactivité se manifeste à notre échelle par la transmutation spontanée d'un élément en un autre élément (ex : le tritium se transforme progressivement en hélium 3).

    Vue du noyau de l'atome
    Au niveau atomique, l'explication est simple, un neutron se transforme en proton en émettant 2 autres particules, il s'agit d'une désintégration dite "à 3 corps" :

    Inter_Faible Desintegration sans boson

    La théorie électrofaible montre qu'en fait, lors d'une phase intermédiaire de la désintégration, un boson W- apparait dans un premier temps mais avec une durée de vie très brève.
    C'est ce boson qui se transforme ensuite en un électron et un antineutrino.

    Inter_Faible Desintegration

    Vue du neutron
    Au niveau du noyau atomique, le mécanisme de transformation d'un neutron en proton concerne en fait un seul quark qui change de nature.
    Un neutron constitué par 1 quark up et 2 quarks down se transforme en un proton constitué par 2 quark up et 1 quark down.
    Il s'agit donc simplement d'un quark down qui se transforme en un quark up dans le noyau (fig 9).

    Radioactivité beta
    Fig. 9 : le mécanisme détaillé de la désintégration β

    Lois de conservation
    Durant l'évolution de l'univers, différentes hypothèses sur la conservation de certaines grandeurs physiques ont été faites.
    Les grandeurs suivantes sont considérées comme invariantes :
    . énergie totale
    . total des charges électriques
    . nombre baryonique (protons, neutrons et autres particules éphémères)
    . nombre leptonique (électrons, neutrinos,...)

    Ces lois permettent de déduire les interactions possibles et celles qui ne le sont pas.
    Lorsque l'univers grossit, la densité des particules présentes diminue (nombre de particules par unité de volume) car elles se répartissent dans un espace de plus en plus important mais leur nombre total reste constant.

    Le mystérieux vide quantique
    On ne peut pas parler du modèle standard de la physique sans évoquer le vide quantique qui est un sujet à part entière.
    Comme souvent, la première vision pré-scientifique du vide fut élaborée en Grèce antique par Démocrite (4e siècle avant JC).
    Selon ce dernier, l'univers serait constitué de vide (conteneur) dans lequel on trouve des particules élémentaires, les atomes (contenu) qui agrégés en très grands nombres constituent tout ce qui existe, belle intuition démontrée plus de 2000 ans plus tard !

    Suivant cette vision, on pourrait supposer que si l'on retire les particules connues qui constituent les planètes, galaxies etc., alors il ne reste plus que de l'espace vide de tout.
    C'est comme cela que l'on imagine par exemple l'espace interplanétaire.

    En réalité, il n'en est rien car le vide tel qu'on l'imagine n'est pas vide du tout.
    Il contient en fait une forme d'énergie se présentant sous la forme de champs quantiques fluctuants. Ces derniers ne peuvent avoir une valeur moyenne nulle suite au principe d'indétermination d'Heisenberg.

    L'expérience : effet Casimir
    Cette énergie peut être mise en évidence à travers le célèbre "effet Casimir", cet effet est la manifestation d'une énergie du vide prédite en 1948 par le physicien du même nom et démontré par l'expérience en 1997.
    Deux plaques conductrices placées très près l'une de l'autre subissent spontanément une force attractive qui peut être mesurée.

    Les résultats des mesures indiquent une densité d'énergie égale à environ 10E-20 J/M3 (Joules par mètre cube).

    La théorie : calcul de l'énergie du vide
    Pour calculer l'énergie du vide en appliquant la théorie quantique, il suffit de diviser le quanta d'énergie minimale par le quanta de volume minimal aux limites de Planck.

    La densité d'énergie du vide ainsi obtenue est d'environ 10E112 J/M3.
    Ce résultat signifierait qu'un mètre cube de vide contiendrait l'équivalent énergétique de 10E54 galaxies (1 avec 54 zéros) !

    On constate donc que le vide pose un grave problème car la différence entre les calculs et les mesures est immense.
    C'est ce que l'on appelle la "catastrophe du vide".

    La "catastrophe du vide"
    La question est donc de déterminer la valeur réelle de la densité d'énergie du vide.
    Si l'on compare la valeur mesurée à travers l'effet Casimir à la valeur calculée par la théorie, on obtient une différence de 120 ordres de grandeurs : soit 1 avec 120 zéros derrière.
    D'autres composantes de cette énergie du vide restent sans doute à identifier, le champ de Higgs est vraisemblablement l'une d’entre elles.

    Le moins que l'on puisse dire est que la théorie ne colle pas avec l'expérience...

    Autre propriété du vide
    Par ailleurs, en théorie quantique, la loi de conservation de l'énergie peut être brièvement violée. Le vide peut en effet "prêter" de l'énergie à l'occasion d'une collision de particules à condition que cette énergie soit presque immédiatement rendue.
    Sans renter dans des considérations complexes, ce "viol" est autorisé par le principe d'indétermination d'Heisenberg.
    Les physiciens considèrent que le vide est rempli de particules virtuelles qui se matérialisent brièvement lorsqu'on apporte de l'énergie, par exemple lors de collisions de particules à hautes vitesses.

    Le vide pose bien d'autres questions, par exemple si son énergie s'avère réellement très élevée, il semblerait qu'elle ne courbe pas l'espace-temps relativiste.
    Le vide quantique pourrait donc ne pas appartenir à notre univers selon la définition que l'on donne à ce dernier...

    Par ailleurs, Certains rêvent déjà de pouvoir exploiter l'énergie du vide qui serait une source "propre" et illimitée [8], mais cela reste très spéculatif.

    Ce qu'il faut retenir
    L'univers contient 3 sources d'énergie [7] :
    - matière
    - rayonnement
    - vide quantique

    Les recherches se poursuivent au sujet du vide quantique, car comme on le voit, la question est loin d'être résolue.
    Il s'agit très probablement du nouveau continent à explorer au XXIe siècle.

    Le Lagrangien du modèle standard
    Pour terminer en beauté (au sens mathématique !), voici la formule générale qui définit les 3 interactions liées aux théories évoquées.
    Cette équation qui semble très ésotérique au profane se nomme un Lagrangien :

    Lagrangien
    Le Lagrangien du modèle standard

    Cette équation est capable de déterminer entièrement un système composé de particules fondamentales et chaque terme correspond à une partie de la modélisation :
    Ligne 1 : comportement des bosons (Sauf Higgs)
    Ligne 2 : fermions et interactions avec bosons
    Ligne 3 : couplage des fermions et bosons au champ de Higgs
    Ligne 4 : potentiel de Higgs

    Cette formule compacte qui décrit toute la matière rencontre un certain succès marketing, en premier lieu chez des physiciens tels que John Ellis !

    John Ellis
    Le physicien John Ellis du CERN

    Liens
    [1] Histoire de l'univers - Partie 1 : Naissance et Topologie (Sur ce blog)
    [2] Histoire de l'univers - Partie 2 : Introduction à la physique fondamentale (pour les nuls !) (Sur ce blog)
    [3] Histoire de l'univers - Partie 3 : QED... Vous avez dit QED ? (Sur ce blog)
    [4] "Cours introductif de Philosophie des Sciences 7/9" Etienne Klein
    [5] "Lumière et matière" - Richard Feynman - 1987
    [6] "En cherchant Majorana" - Etienne Klein - 2013
    [7] " Aux Frontières De L'univers - Du Big Bang Au Quark" Marceau Felden - 2005
    |8] "L'Energie du Point Zéro" - Marc HERMANS
    [9] "Discours sur l'origine de l'univers" - Etienne Klein - 2010
    [10] "A la recherche du boson de Higgs" - Christophe Grojean - 2013
    [11] La science pour tous - site de Benjamin Bradu (*)

    (*) Que je remercie au passage car je lui ai emprunté les petits dessins trouvés sur son site !

  • Séparation des banques et... de l'état !

    Vu sur le blog d'Olivier Berruyer "http://www.les-crises.fr/"

    [Pétition] Non à « l’État BNP » : pour une séparation de la Banque et de l’État !

    Je cite Berruyer :
    Le Directeur du Trésor est le haut-fonctionnaire en charge, entre autres, de la régulation du secteur financier. Véritable « vice-ministre en charge du secteur bancaire », il a une importance stratégique considérable.
    ...
    Le Canard enchainé du 20/11/2013 a indiqué que le gouvernement envisageait de remplacer l’actuel Directeur du Trésor, nommé par Nicolas Sarkozy, et de nommer à sa place François Villeroy de Galhau – qui est l’actuel directeur général délégué de BNP-Paribas !

    On fait rentrer le caïd qui contrôle la vente d'héroïne en ville à la tête de l'organisme en charge de la lutte contre la drogue !!!

    Lien direct vers la pétition ici.

    Je vous encourage vivement à signer cette pétition.....

  • L'objet de mon propos

    Un ancien ministre a récemment confié en privé : “Nous sommes une monarchie républicaine manipulée par une oligarchie discrète.”
    Cette oligarchie manipulant l'état contrôle également les médias qui revendent du temps de cerveau destiné à la propagande publicitaire.
    Cette dernière, associée au crédit et au concept d'obsolescence programmée constitue le triptyque sur lequel repose la société que l'on nous impose.
    Dans la foulée, les médias nous servent ad nauseam -dans tous les domaines- une pseudo-dialectique prédigérée, cette dernière arrive ainsi à imposer en douceur un mode de pensée unique.

    Ce site qui a démarré vers 2008, n'a pas d'autre but que de se réapproprier une compréhension sur un certain nombre de sujets où une élite auto-proclamée pense et agit à notre place.
    Il ne s'agit pas d'un site généraliste, il est cependant relativement éclectique car non spécialisé dans un domaine particulier.
    Il aborde en effet plusieurs thèmes dont deux sont prépondérants, ces derniers constituant l'ossature du site.

    Les 2 thèmes principaux sont les suivants :
    - Finance et Économie
    - Science

    Les autres sujets abordés sont :
    - Environnement et Santé
    - Histoire et Géopolitique
    - Rubrique "Mystères"

    Et enfin, une chronique musicale sporadique permet d'être un peu moins chiant sérieux, avec quelques posts sur le Hard Rock et le Heavy Metal (mélodiques), pour ceux qui ne sont pas allergiques à ce style !

    Finance et Économie
    Le domaine de la finance fait l'objet d'un fort dynamisme en particulier sur Internet, la cause en est bien évidemment la crise qui a démarré en 2007 et dont la résolution est plus qu'hypothétique.
    Le premier constat est que l'approche proposée par les médias, les experts et les pouvoirs politiques, n'a pas évolué d'un pouce depuis une trentaine d'années.
    S'il ne s'agissait que d'un discours, la situation serait sans doute moins dramatique. Le problème est que cette approche est appliquée dans le cadre d'une politique menée dans l'ensemble du monde occidental depuis les années 80 (idéologie Reagan/Thatcher).

    Chacun a donc plus ou moins compris que la crise n'est que le résultat de cette pensée unique, elle est donc un échec patent démontré par les faits.

    Des économistes alternatifs tels que Jorion, Berruyer, Sapir ou Lordon commencent cependant à se faire entendre et à percer l'omerta sur un certain nombre de sujets sensibles inconnus du public.
    Ces sujets concernent d'abord la mise en lumière de pratiques inavouables du monde financier. Leurs analyses originales et très étayées identifient précisément les erreurs faites par les pouvoirs en place, quelque soit par ailleurs leur couleur politique.

    Cependant, les travaux de ces derniers peuvent paraitre relativement ardus pour le grand public, ce dernier connaissant mal ce sujet offrant un grand nombre d'aspects.
    C'est pourquoi, il m'a semblé opportun de synthétiser et de mettre en relief certaines idées fortes non traitées ailleurs.
    En synthèse, vous trouverez ici les articles que j'aurais aimé lire et que je n'ai trouvés nulle part !

    Autre sujet de fond sans aucun rapport avec le précédent : LA SCIENCE avec un intérêt particulier pour la cosmologie et les domaines associés de la physique.

    La Science
    La rubrique science ne traite pas de tous les domaines de cette dernière, elle est en fait plutôt orientée sur l'épistémologie et la cosmologie avec pour objectif d'aller au delà de cette dernière.

    Pour rappel, la cosmologie est une branche de la physique assez récente (moins d'un siècle) qui a pour but de déterminer l'histoire de l'Univers.
    La notion d'histoire de l'univers est donc un concept nouveau.
    En effet, on a pensé pendant très longtemps que l'univers était statique, même Einstein a "trafiqué" ses propres équations de la Relativité Générale pour coller à cette croyance.
    Il s'est d'ailleurs rétracté en 1929 lorsque l'astronome Hubble a découvert l'expansion de l'univers. Einstein déclara alors avoir fait la "plus grande bêtise de sa vie" !

    Pourquoi traiter ce sujet ?

    La réponse fut très bien formulée par Aimé Michel dans l'une de ses citations :
    « Le premier mystère est : pourquoi y a-t-il quelque chose plutôt que rien ? Et le deuxième, aussi grand que le premier : pourquoi est-ce que je suis là en train de penser ? Ils sont bien à plaindre ceux dont ces questions ne visitent pas l’esprit au moins une fois par jour, car il ne leur sert à rien d’être des hommes. L’état de laitue leur conviendrait aussi bien. »

    Certains, pour ne pas dire la majorité de la population, pensent que l'on n'aura jamais de réponses à ces questions et qu'il est donc inutile de s'y intéresser.

    Pour ce qui me concerne, je ne me sens pas l'âme d'une laitue !

    J'ai donc décidé de me lancer dans la recherche d'une possible réponse en évitant toute croyance arbitraire et en adoptant une démarche 100% scientifique.

    Comment s'y prendre ?

    Edgar Morin a mis en évidence dans son œuvre (voir : "introduction à la pensée complexe") qu'à notre époque, les différentes disciplines scientifiques sont cloisonnées. Cette situation pose un grave problème car aucune synergie ne peut se développer entre ces dernières.

    A ce sujet, je pense avoir identifié un lien fondamental entre la Cosmologie et les études sur les...NDE/EMI, ou Expériences de Mort Imminentes (Near Death Experiences).

    Un des chercheurs de cette discipline, le Dr Jean Pierre Jourdan a eu une véritable idée de génie. Il a découvert que les témoins de NDE semblent percevoir une 4ième dimension d'espace.
    Il existe donc très certainement dans l'Univers, non pas 3 mais 4 dimensions d'espace, associées à celle du temps, nous évoluerions donc dans un Univers ou Espace-Temps qui possède 5 dimensions au minimum.

    Cette information est donc d'une importance ontologique capitale, elle doit être prise en compte dans nos modèles d'Univers, en particulier dans celui de la cosmologie et des branches associées de la physique.

    Mon objectif est d'arriver à proposer un modèle conceptuel d'Univers.
    Ce dernier devra intégrer notre état d'êtres vivants constitués de matière/énergie, mais également notre état d'êtres non vivants...lorsque l'on quitte ce monde.

    Rubrique "Mystères"
    On trouve également ici une rubrique "Mystères" concernant des sujets dont les données disponibles sont relativement fragmentaires. Ces sujets ne justifient peut être pas encore de mettre en œuvre de véritables recherches scientifiques.
    Ils sont cependant suffisamment étayés pour attirer l'attention et ils pourraient dans un futur proche passer dans la rubrique "Science".

    Environnement et Santé
    Les effets néfastes induits pas nos modes de vie (pollution chimique, radioactive, CO2, agriculture intensive, etc.), induisent une véritable pandémie mondiale de cancers.

    Il s'agit tout d'abord de prendre conscience de ce problème fondamental, puis de déterminer les mesures que l'on peut adopter à titre individuel pour tenter de se protéger.
    Inutile de compter sur les organismes d'états qui sont sous l'influence des lobbies.

    Histoire et Géopolitique
    Cette rubrique fut créée à la suite des attentats du 11 septembre 2001...

    Elle s'est ensuite étoffée avec d'autres sujets dont les livres d'histoire ne rapportent pas la réalité des événements qui se sont déroulés.

    Le 11 septembre est un sujet d'une gravité extrême, vous aurez compris que je ne crois pas aux conclusions du rapport officiel publié en 2004.
    Certains voient des complots partout, alors que d'autres n'en voient nulle part. La réalité est moins manichéenne.
    Dans ce cas particulier, après avoir pris connaissance du dossier disponible sur le Web, il est clair que la version que nous a servi le rapport d'enquête officiel sur le 9/11 est complètement manipulée par omissions massives.

    Il est très probable qu'une faction non formellement identifiée du pouvoir exécutif américain de l'époque est impliquée. Elle aurait pris part à la préparation ET à la logistique de ces attentats.

    Si des américains ont été assassinés en masse par d'autres américains pour des objectifs géopolitiques, il est hors de question de laisser ce sujet sombrer dans les oubliettes de l'histoire.

    Bonne lecture, cela commence ici...

  • Qui sont les véritables bénéficiaires des plans de sauvetages bancaires imposés par l'UE ?

    "Les gros poissons de Wall Street (NDA : Ainsi que ceux d'Europe !) n'acceptent pas de prendre leurs pertes, ce sont des capitalistes pleurnichards. Ils veulent le capitalisme pour tout le monde sauf pour eux même"
    Gerard Celente - Analyste financier Trend Research Institute [1]

    Photo-096s

    De tous temps, les mécanismes à l’œuvre dans le monde de la finance ont fait l'objet d'une grande opacité vis à vis du public.
    Après la crise ayant débuté en 2007, de colossales sommes d'argent ont été injectées par les états pour venir en aide à un secteur financier en déliquescence.
    Dans la zone Euro, tous les états étant surendettés [2], l'argent des sauvetages fut obtenu à travers de nouveaux emprunts effectués sur les marchés financiers au nom des contribuables.
    Pour justifier ces nouvelles dettes, on nous a affirmé qu'il n'y avait pas d'autres choix car si on laissait les banques systémiques faire faillite, tout le système financier s'écroulerait entrainant l'économie dans sa chute.

    Un journaliste Allemand Harald Schumann a mené l'enquête [3] jusqu'au bout pour voir ce qu'il en était en réalité à travers les cas Irlandais et Espagnol. Ce qui en ressort montre comme on s'en doute que la version des dirigeants politiques, de la commission européenne et des médias était légèrement biaisée.

    LA CHUTE DE L'IRLANDE

    Phase 1 : la période d'euphorie
    Entre 1997 et 2007, l'Irlande a connu une dizaine d'années de forte croissance due principalement à trois facteurs :
    1. Un taux d'imposition des société de 12.5%.
    Ce taux est le plus faible de tous les pays de la zone Euro situé en moyenne à 30% environ. Cette fiscalité a évidemment attiré un grand nombre d'entreprises qui ont installé leur siège en Irlande.
    2. Un système de crédits hypothécaire pour l'accès à la propriété individuelle bâtit sur le modèle américain type "subprime".
    Pour rappel, ce dernier est construit sur l'octroi de prêts bancaires basés sur la valeur du bien et non sur la capacité de remboursement de l’emprunteur [4].
    Le postulat de base de ce système repose sur le fait que la valeur d'un bien immobilier ne peut que monter et donc qu'un défaut de l'emprunteur est impossible. En effet dans le cas d'une cessation de paiement des traites de ce dernier, il suffit au prêteur de revendre le bien pour récupérer le montant du prêt.
    3. Des taux d'intérêts réels pratiquement négatifs [5].
    Sur la période 1999-2007, les taux directeurs de la BCE pour la zone Euro étaient de 3% pour une inflation de 3.5% en Irlande. Ce différentiel induisait concrètement un cout de l'argent négatif incitant fortement les acteurs Irlandais à s'endetter massivement sur les marchés de l'Eurozone.

    Phase 2 : la bulle immobilière
    La croissance effrénée de l'Irlande fut donc construite sur une double bulle immobilière [6] :
    - des investissements commerciaux (bureaux, hôtels, etc...)
    - des investissements domestiques (logements individuels)
    Les montants atteints par ces investissements furent tels qu'en 2007, 15% environ de la population active travaillait dans le secteur du bâtiment qui représentait alors 16.5% du PIB [4].
    L'Irlande connut alors une période de quasi plein emploi associée à de confortables rentrées fiscales permettant à l'état d'avoir un budget pratiquement équilibré.

    Ces bulles ont ainsi servi de support à une croissance très forte du PIB de l'Irlande avec des taux voisins de 5 % au début des années 2000 alors que ceux des autres pays d'Europe stagnaient entre 1 et 3%.
    L'Irlande fut d'ailleurs baptisée le "Tigre Celtique" à la suite de ces performances spectaculaires.

    Les besoins en financement étaient donc en correspondance avec un système bancaire surdimensionné, le bilan global des 5 principales banques s'est élevé en pointe à 11 fois le PIB du pays [4] !

    Phase 3 : l'éclatement de la bulle immobilière
    En 2007, l'Irlande est frappée de plein fouet par la crise économique mondiale qui met un coup d'arrêt brutal à la hausse de l'immobilier.

    Le-secteur-immobilier-a-ete-durement-touche-par
    L'éclatement de la bulle immobilière Irlandaise (source)

    En un an, le prix des logements chute de 17% [4], et le chômage explose littéralement en passant du presque plein emploi à un taux de chômeurs de 15% environ induisant la cessation de paiement de nombreux emprunteurs.
    Ce mouvement se propagea bien entendu immédiatement aux banques. Elles ne purent combler le défaut des emprunteurs défaillants par la revente de leurs biens, car leur valeur était descendue en dessous du prix d'achat.

    Les 2 conséquences immédiates de l'éclatement de cette bulle furent les suivantes :
    - lourdes pertes des banques dues à la dépréciation brutale des actifs immobiliers.
    - rentrées fiscales en chute libre car très liées à l'immobilier, d'où apparition de déficits de l'état.

    Phase 4 : la chute de l'Irlande
    En 2008 et 2009, la situation se dégrade rapidement et devant la faillite très proche des banques irlandaises, le gouvernement décide [4] de nationaliser la plus importante d'entres elles l'Anglo Irish Bank puis de prendre des participations dans les 4 suivantes.
    Des mesures drastiques mais conventionnelles se sont alors empilées rapidement, l'état irlandais a tout tenté pour ramener la célèbre confiance des marchés afin d'éviter la faillite de l'économie [4].
    Les milliards injectés par l'état se révélèrent cependant insuffisants, les banques irlandaises n'arrivant plus à se refinancer auprès des autres banques, très méfiantes [7], durent faire appel à la BCE en tant que prêteur de dernier ressort.
    En 2010, avec un PIB de seulement 2% de celui de la zone Euro, l'Irlande à elle seule a reçu 24% [4] du montant total des prêts accordés par la BCE. Cet écart illustre parfaitement l'ampleur du problème posé à ce pays.

    Cependant, fait moins connu, la BCE a exigé que l'état irlandais se porte garant des prêts effectués aux banques (en particulier à l'Anglo Irish Bank) et ce dernier -pris a la gorge- a fait l'erreur d'accepter [3].

    Fin 2010, la situation de l'Irlande était la suivante :
    - un taux de chômage très élevé (15% de la population active)
    - un déficit public pharaonique proche de 34% du PIB
    - des perspectives désastreuses sur les années à venir avec une entrée du pays en dépression

    Le-deficit-irlandais-estime-pour-2010
    L'explosion du déficit irlandais en 2009-2010

    Cette situation catastrophique provoqua comme on pouvait s'y attendre une envolée des taux d'intérêts consentis par les marchés à l'Irlande. Ces taux d'environs 9% [7] sont à comparer à ceux de l'Allemagne voisins de 2.7%, pays qui reste le moins mauvais élève en terme de santé financière.

    L'Irlande fut bien entendu incapable de se refinancer sur le marché à de telles conditions pour couvrir son déficit. Elle dut donc faire appel à l'Union Européenne pour la mise en place d'un plan de sauvetage.

    LE PLAN DE SAUVETAGE DE LA TROÏKA

    Pour rappel, la Troïka est constituée des organismes suivants :
    - Union Européenne (UE)
    - Banque Centrale Européenne (BCE)
    - Fond Monétaire International (FMI)

    Objectifs du plan de sauvetage
    L'objectif du plan de sauvetage de l'Irlande était double :
    1. Recapitaliser les banques (au nom de l'état irlandais) pour éponger les pertes présentes et prévisibles sur les années à venir
    2. Couvrir le déficit courant de l'état en partie induit par ces recapitalisations, ainsi que le déficit prévisible jusqu'au retour de la sacro-sainte croissance à échéance de quelques années.

    Un plan de 85 Milliards soumis à certaines conditions
    Le plan fut constitué par des prêts issus du FESF, MES et du FMI [8]. Le montant total de ces prêts était de 85 Milliards d'Euros [7], soit 55% du PIB du pays.

    Bien entendu, l'octroi de ces prêts fut conditionné à un plan drastique de réduction des dépenses de 20 Milliards d'Euros sur 7 ans, soit 20% du PIB. Cette mesure a eu pour conséquence de faire chuter le pouvoir d'achat des Irlandais de 25% en 5 ans [5].
    De plus, l'Irlande a largement participé à ce plan en piochant dans les réserves de son fond de pension pour les retraites à hauteur de 17 Milliards [7].

    Les taux d'intérêts voisins de 6% proposés dans ce plan étaient inférieurs d'environ 3% aux taux proposés par le marché à l'Irlande.
    Un économiste du FMI a cru bon de déclarer "c'est un bon deal" ! [7]

    Le véritable fonctionnement de l'Europe
    On a vu que l'un des objectifs du plan était de recapitaliser les banques irlandaises qui étaient quasi nationalisées. D'autre part, lorsque la BCE a effectué des avances de trésoreries à ces dernières, elle a imposé à l'état irlandais de se porter garant.
    Sur les 85 Milliards du plan de sauvetage, 30 Milliards furent ainsi réservés pour couvrir les pertes de la seule Anglo Irish Bank.
    Dans le cadre de ce plan, la BCE demande donc à l'état irlandais de lui rembourser cette somme, cela signifie en clair rembourser les créanciers des banques qui ne sont autres que les investisseurs ayant pris en principe leurs risques au départ.
    Le gouvernement irlandais a bien compris la manœuvre et s'est "fait prier" pour accepter ce plan.

    De quel droit la BCE peut elle exiger une telle opération ? Et qui sont les donneurs d'ordre de la BCE ?

    C'est donc sur un tel exemple que l'on observe le véritable mode de fonctionnement de l'Europe.

    LA BCE A T'ELLE OUTREPASSE LES LIMITES DE SON MANDAT ?

    Pour obliger l'Irlande à accepter son plan de sauvetage, la Troïka a utilisé son bras armé : la BCE.
    L'Union Européenne, c'est à dire les élus du peuple et la BCE dont la politique est très influencée par l'Allemagne sont donc les responsables de ces procédures qui ne profitent qu'aux investisseurs.

    Donnelly
    Stephen Donnelly - Député Irlandais

    Interview Stephen Donnelly (SD) -> Député Irlandais non inscrit [3]
    - vous avez écrit que l'Irlande a été tenue sous la menace d'un revolver de payer les créanciers. Qui tenait le revolver ?
    (SD) - c'est la BCE qui tenait le revolver, elle a dit "ou vous payez les porteurs de titres ou nous cessons notre programme de financement d'urgence, ce qui entrainera d'abord l'effondrement de votre système bancaire puis celui de votre économie entière. Pour moi c'est la diplomatie de la canonnière".
    - ou simplement du chantage
    (SD) - c'est une menace très grave de la part d'une banque centrale, elle oblige une nation à renoncer à sa souveraineté juste pour renflouer je ne sais quels investisseurs.
    La BCE agit illégalement.

    Brian HAYES small
    Brian Hayes : ministre adjoint des finances Irlandais

    interview Brian Hayes : ministre adjoint des finances Irlandais [3]
    - Bien entendu, c'est une décision qui a été imposée au peuple irlandais, la BCE a décrété qu'il fallait rembourser les créanciers de premier rang...

    La version officielle pour justifier les plans de sauvetage
    En substance, les médias nous ont expliqué que ce plan avait été mis en œuvre dans le cadre de la solidarité européenne, et que les autres pays d'Europe avaient sauvé l'Irlande.
    Il n'y avait pas d'autres alternatives car si on laissait tomber les banques Irlandaises, tout le système financier risquait de s'écrouler par effet domino. Dans ce scénario catastrophe, les économies allaient s'effondrer également puisque la finance sert à irriguer ces dernières.
    C'est le fameux syndrome TINA : "There is no alternative".

    On commence à entrevoir la question fondamentale jusqu'à présent soigneusement éludée : a qui profite le crime ?

    Mais d'abord, commençons par déterminer qui paie pour tous ces milliards injectés dans le système.

    QUI PAIE POUR LE SAUVETAGE DES BANQUES ET DES ETATS ?

    Il n'échappe à personne que tous ces milliards injectés pour combler les pertes ne sont que des prêts en cascade, ces derniers sont tous effectués au nom des peuples Européens.

    Ce sont bien les peuples et eux seuls qui paieront l'addition
    Dans notre exemple, le dernier emprunteur est bien entendu la population Irlandaise qui va supporter 100% de ce fardeau financier si tant est que les remboursements soient bien effectués jusqu'au bout.

    En cas de défaut partiel ou total de l'Irlande, alors ce seront ceux qui ont prêté à l'Irlande qui paieront, c'est à dire les peuples Allemands, Français, etc...

    Venons en maintenant à cette question jamais évoquée par les médias et encore moins par les décideurs politiques Européens :
    Qui sont au final les véritables bénéficiaires des sommes extravagantes engagées pour couvrir les pertes des banques ?

    Harald Schumann
    Le journaliste Harald Schumann

    C'est ici que se situe l'excellent travail du journaliste Allemand Harald Schumann (HS) qui apporte un début de réponse à cette question [3].
    Dans son enquête, il évoque les cas de l'Irlande et de l'Espagne. L'Espagne a également vécu une crise de l'immobilier dont l'origine et les effets sont très proches de celle de l'Irlande.

    QUI SONT LES VERITABLES BENEFICIAIRES DES PLANS DE SAUVETAGE ?

    Cette question semble, comme on va le voir, totalement taboue car parmi ceux qui connaissent la réponse, personne ne veut la fournir.
    Soit on se retranche derrière le secret commercial, soit on tente de manipuler celui qui la pose en supposant qu'il connaisse mal le sujet.

    Voyons d'abord ce que disent les responsables politiques au pouvoir...

    Wolfgang Schäuble
    Wolfgang Schäuble , ministre des finances allemand

    Interview Wolfgang Schäuble (WS), ministre des finances (Allemagne) [3]
    (HS)- Pourquoi ne publie t'on pas la liste des créanciers afin de mener un débat éclairé ?
    - (WS) Les irlandais ont opté pour une politique de faible imposition et de contrôles restreints [...] quand le système bancaire d'un état s'effondre, soit l'état est insolvable soit il doit sauver tant bien que mal ses banques [...] l'Irlande est responsable de ses problèmes, ce n'est pas le Luxembourg ni la France ou l'Allemagne mais l'Irlande et elle en a profité un certain temps...

    Le ministre des finances de Mme Merkel considère que la responsabilité des pertes financières incombe à ceux qui sont en première ligne.
    Il "oublie" de prendre en compte le fait qu'à l'origine, les fonds furent prêtés par des investisseurs qui sont censés gérer leurs risques.

    Luis De Guindos
    Luis De Guindos, ministre de l'économie espagnol

    Interview Luis De Guindos LDG), ministre de l'économie (Espagne)
    (LDG) - Le bénéficiaire c'est l'économie !
    (HS) - Non, les bénéficiaires sont les créanciers ayant fait de mauvais placements ! [...] Qui détient la dette des banques dont je prends en charge les risques ?
    (LDG) - Disons que ce n'est pas une information essentielle !
    (HS) - Les contribuables ont le droit de savoir !
    (LDG) - Nous, nous le savons !

    Donc les élus qui sont censés nous représenter connaissent parfaitement l'identité des créanciers. Ils refusent cependant de la divulguer.
    Pour quelle raison ?

    Allons poser la question à a BCE...

    joerg-asmussen
    Jorg Asmussen, membre du directoire de la BCE

    Interview Jorg Asmussen, membre du directoire de la BCE [3]
    - Ok pour plus de transparence, mais l'autorité de contrôle de l'état n'a aucun moyen de rendre le système transparent car cela tombe sous le coup du secret industriel ou commercial. Et vous avez raison de penser que lorsqu'on reçoit de l'aide de l'état, il faut que cela change.

    La BCE n'est pas contrariante, mais on apprend au passage que la question est couverte par le secret industriel ou commercial, elle n'a donc pas le droit de donner la réponse.
    La finance avance cachée !

    Et enfin, que disent les banquiers ?

    Interview des responsables de Bankia (Espagne) [3]
    La banque Espagnole Bankia est un établissement dans une situation très similaire à l'Irlandaise Anglo Irish Bank. En effet, elle a subit de plein fouet la crise immobilière espagnole et l'état lui a déjà injecté 25 à 30 Milliards pour la renflouer.
    Harald Schumann avait pris des rendez vous très longtemps à l'avance avec des responsables de Bankia. Lorsqu'il se rendit à ces rendez vous, ces derniers furent systématiquement annulés au dernier moment ! [3]

    Les banques refusent donc de rencontrer la presse, c'est l'Omerta totale...

    Un seul banquier a parlé (un peu), il s'agit de l'ex président d'une banque espagnole.

    interview Juan Rodriguez, ex président de la banque Espagnole "Caja Granada" [3]
    - En tant que président de la Caja Granada, je me suis rendu en Allemagne en 2001-2002 pour trouver des financements, les banques allemandes roulaient sur l'or et elles prêtaient de l'argent sans trop demander à quoi il allait servir !

    On avance !
    On apprend que des banquiers allemands ont prêté de l'argent pour des projets immobiliers, sans trop regarder le niveau de risque associé.
    Donc l'argent vient au départ d'investisseurs clients de banques européennes, ces derniers ont placé leurs avoirs dans l'immobilier espagnol (et irlandais).

    Des indices très significatifs à la BRI [3]
    La consultation des données de la BRI (Banque des Règlements Internationaux) permet d'obtenir d'autres indices sur la destination des fonds.
    En automne 2010, on constate que les banques Irlandaises devaient encore 28 Milliards aux banques allemandes.
    Mais qui sont ces créanciers ?
    Et qui peut fournir cette information ?

    Anonymous

    Des personnes à l'intérieur des banques connaissent bien entendu ces informations, mais elles n'ont pas le droit de les divulguer. Cependant, certaines d'entres elles, indignées par ce qu'elles savent, prennent le risque de parler sous couvert d'anonymat.

    Quelque part dans les banques, des informateurs ont parlé
    Harald Schumann a contacté Paul Staines, un bloggeur qui officie sous le pseudonyme de Guido Fawkes, son blog ici [9].
    Ce dernier a collecté une bonne partie des informations que l'on cherche à travers des informateurs anonymes.

    Paul-Staines
    Paul Staines, blogueur

    Interview Paul Staines (PS), blogueur sous le pseudo "Guido Fawkes"
    - vous avez publié la liste des créanciers de l'Anglo Irish Bank
    (PS) - je crois que c'est un délit de détenir et divulguer cette liste,
    mais je peux en appeler à l'intérêt général.
    J'ai vu que la majorité des obligations Irlandaises étaient détenues par des banques Allemandes, Françaises et Britanniques.
    Il y avait à la fois des investisseurs avertis et ce que l'on appelle de l'argent stupide, c.a.d. de petits investisseurs.
    En Irlande la colère monte, on se demande pourquoi on renfloue des courtiers rémunérés pour leurs risques, alors que cela nous oblige à fermer des hôpitaux.
    L'état Irlandais est souverain, il pourrait dire où va l'argent et aurait du le faire...

    Les véritables bénéficiaires sont....
    Dans la liste de 80 adresses envoyée à Paul Staines, environ 50 d'entres elles sont situées Allemagne et en France.

    Quelques noms trouvés sur cette liste :
    - Deutsche Bank
    - BNP Paribas
    - Société Générale
    - La Banque Postale
    - Allianz
    - Rothschild

    Les fonds investis au départ proviennent d'investisseurs qui sont bien entendu des personnes physiques.
    Il s'agit de gens fortunés d'Europe qui veulent placer leurs avoirs, de spéculateurs, mais également de petits épargnants à qui leur banquier a vendu des produits de type fonds de placements "sans risques".

    L'argent n'a fait en réalité qu'un aller-retour.
    Par exemple, la partie empruntée par l'état Français pour prêter aux irlandais, est revenue en France à travers les banques pour renflouer les banques françaises et leurs investisseurs.

    Et après nos banques osent nous dire qu'elles n'ont pas eu besoin des plans de soutien pour sortir de(s) la crise(s) !

    Dans ce processus, les banques et sociétés de placements ne sont que des intermédiaires qui prennent leur commission au passage. Ces dernières servent également à couvrir le risque.

    La liste des banques chez qui tous ces investisseurs possèdent des comptes n'est pas divulguée officiellement sous couvert de secret commercial, donc l'identité des investisseurs est encore plus secrète !
    Mais les responsables politiques les connaissent.

    Une autre question fondamentale est la suivante : a t'on fait une simulation pour déterminer ce qui se passerait si tout ou partie de ces investisseurs prenaient leurs pertes ?

    Interview Wolfgang Schäuble (WS), ministre des finances (Allemagne) [3]
    - Si la banque A n'est plus solvable, on se demande alors si la banque B l'est encore car elle détient peut être des actifs dans la banque A. L'une contamine l'autre, c'est pourquoi il faut empêcher que la chute d'un établissement entraine celui du secteur entier.

    Le discours est toujours le même, on reste dans le qualitatif.
    Aucune véritable simulation n'a été effectuée et on joue sur la peur de la catastrophe.

    Il existe peut être une raison inavouable à tout cela...

    Le "mouvement M15" des indignés espagnols dans l'esprit du "Indignez vous" de Stephane Hessel organise des rassemblements de protestation de très grande ampleur en Espagne.

    Juan Moreno
    Juan MORENO avocat du mouvement Espagnol M15

    Interview de Juan MORENO (JM) avocat du mouvement Espagnol M15
    - Bankia a créé une culture d'entreprise pour masquer à la direction générale ce qui n'allait pas dans les filiales. Nous disons que l'autorité de contrôle a collaboré !
    Ils sont tous en tort, les responsables de Bankia et les contrôleurs publics.
    Si on les avait laissé faire faillite, tout le monde aurait su que les politiques avaient fait de l'argent.
    Une grosse partie de ce qui ne peut être remboursé est allé aux partis politiques, aux municipalités, aux communautés autonomes du sud, aux entreprises de mèche avec le gouvernement.
    Ces révélations auraient signé l'arrêt de mort de la classe politique.

    SYNTHESE
    L'exemple des sauvetages des banques irlandaises et espagnoles illustre parfaitement le fonctionnement des institutions européennes que sont l'UE et la BCE.
    Le principe directeur est simple : "privatisation des gains, socialisation des pertes".

    Au départ des promoteurs irlandais et espagnols ont décidé d'investir lourdement dans l'immobilier en profitant des avantages financiers de la zone Euro.

    Pour financer ces travaux, les banques espagnoles et irlandaises sont allées chercher des capitaux à l'étranger (Allemagne, France, etc).
    Sous l'appât du gain, des investisseurs ont donc prêté massivement à ce secteur.
    Sans prévenir, la bulle de l'immobilier a éclaté et la valeur des biens correspondants s'est écroulée.

    A ce stade, ce sont les investisseurs qui auraient du assumer leurs pertes, ou à minima une partie d'entres elles.

    Cela ne s'est cependant pas passé comme cela. Les gros investisseurs sont les mêmes qui arrosent les partis politiques et leurs membres pour financer les couteuses campagnes électorales.
    Lorsque ces derniers ont réussit à obtenir le pouvoir, ils rendent tout naturellement service à leurs bienfaiteurs en faisant éponger leurs pertes par les citoyens.
    Le fait que les hommes politiques au pouvoir ont été élus pour représenter et défendre les intérêts de leurs électeurs est donc bien un concept purement de façade.

    L'exemple précis de ces bulles immobilières montre bien que le système est basé sur un vaste conflit d'intérêt.
    Ce dernier est basé sur la généralisation de relations incestueuses entre l'oligarchie financière de l'ombre et les partis politiques au pouvoir dans toute l'Europe.

    Article publié sur Agoravox (Top 10 : Peak #7)

    Liens
    [1] Overdose, la prochaine crise financière (Reportage ici)
    [2] La dette de l'état dans tous ses états (sur ce site)
    [3] Documentaire "Quand L'Europe Sauve ses Banques qui paye ?" Lien ici
    (Emission Arte, enquête du journaliste Harrald Schumann)
    [4] Banques irlandaises : retour sur le mirage celte [Version pdf] (P. Sabuco - Economiste BNP Paribas)
    [5] Où la ballade irlandaise nous mène-t-elle ? (Alternatives Economiques)
    [6] L’Irlande et le modèle de la crise de l’Eurozone (Economie & Société)
    [7] Irlande : un plan de sauvetage pour contrer la défiance des marchés (Le Monde.fr)
    [8] Comment fonctionnera le plan de sauvetage Irlandais ? (Le Figaro.fr)
    [9] Le blog de Paul Staines - Guido Fawkes
    [10] "Indignez-vous !" Stéphane Hessel

  • Michael Schenker - M.S.G.

    IMG_6898
    Michael Schenker le 11 mai 2013 à Audincourt

    Le blond guitariste Michael Schenker, frère de Rudolf, lui même à la guitare rythmique dans le groupe Scorpions a donné 4 concerts en France au mois de Mai dans le cadre de sa tournée Européenne 2013.

    Temple Of Rock

    A cette occasion, il était entouré de deux anciens Scorpions (Herman Rarebell à la batterie, Francis Buchholz à la basse), un ancien Rainbow (Doogie White au chant) et un membre attitré de son groupe M.S.G. (Wayne Findlay à la rythmique et au clavier).

    IMG_6942
    De gauche à droite : Findlay, Buchholz, White, Schenker, Rarebell

    Malgré un excellent album sorti en 2011 intitulé "Temple Of Rock", le choix de la setlist de cette tournée éponyme s'est orienté vers des anciens titres de la période UFO et Scorpions.
    Michael s'en explique d'ailleurs dans cette interview donnée avant le show de Vauréal.

    Et donc, quel plaisir pour les fans de la première heure (et pour les plus jeunes) de voir jouer sur scène des morceaux d'anthologie composés à l'époque par un Michael Schenker à l'apogée de son talent.
    Des classiques tels que "Doctor Doctor", "Lights Out", "Shoot Shoot", "Lovedrive" ainsi que les fabuleux "Rock Bottom" et "Holiday" nous furent donc assénés durant près de 2 heures d'un concert mémorable.

    Michael Schenker, au delà de son statut de "guitar hero" est d'abord un guitariste du feeling, son plus grand talent est de transmettre de l'émotion dans son jeu. En effet, son impressionnante technicité n'est qu'un moyen et non une fin en soi comme elle peut l'être par exemple chez un Yngwie Malmsteen.

    Et enfin, cerise sur le gâteau, depuis que Michael est en contrat avec Dean Guitars nous pouvons admirer en concert les plus belles Flying V jamais conçues !

    Flying V Schenker

    Site de Michael Schenker ici.

  • Histoire de l'univers - Partie 3 : QED... Vous avez dit QED ?

    richard-feynman
    Le prix Nobel Richard Feynman, l'un des pères de la QED

    L’article précédent a présenté les bases pour comprendre la physique des particules. En particulier, la représentation des interactions basée sur les diagrammes de Feynman a été introduite [1].

    L'ElectroDynamique Quantique ou QED (acronyme anglo-saxon) est la branche de la physique des particules la plus aboutie avec plus de 50 années de mise au point.
    Elle concerne les interactions électrons/photons et uniquement ces dernières.
    Ces interactions permettent d'expliquer tous les phénomènes lumineux, magnétiques et électriques rencontrés dans la nature.

    Les électrons font partie de la famille des fermions (spin 1/2 entier) et les photons de celle des bosons (spin entier).

    3 séquences de base qui expliquent tout
    Toute la QED est basée sur seulement 3 séquences de base très simples [2] :
    . S1 : Un photon va d'un point A à un point B.
    . S2 : Un électron va d'un point A à un point B
    . S3 : Un électron absorbe ou émet un photon : cela se nomme un couplage

    3-diag_Feynman 2
    Fig. 1 : Les 3 séquences de base de la QED sous forme de diagrammes de Feynman

    La physique quantique est ainsi faite [3] que le comportement d'une particule ne peut être prédit d'une manière déterministe. La modélisation des électrons et des photons en termes de déplacements et d'interactions est donc de type probabiliste.

    Les calculs sont possibles dans des cas simples
    Il est clair que pour les phénomènes situés à notre échelle, au vu du nombre considérables d'électrons et de photons en jeu, tout calcul est impossible car la complexité de ce dernier serait démentielle.
    La QED permet cependant dans des cas simples (*) de déterminer complètement les comportements correspondants par le calcul puis de vérifier ces derniers avec des expériences.

    (*) Même dans les cas simples, les calculs sont très complexes.

    Le principe de base de la QED
    La théorie de l’électrodynamique quantique nous dit que pour un phénomène donné mettant en jeu des électrons et des photons, tous les cas envisageables peuvent se produire et qu'à chaque cas correspond une amplitude de probabilité.
    Par exemple le chemin pour qu'un électron aille d'un point A à un point B peut être en ligne droite de A à B, mais les cas où ce dernier zigzague doivent également être pris en compte.
    Le principe du calcul consiste à envisager tous les cas de figure possibles puis à calculer les amplitudes de probabilité de chacun d'entre eux.
    La somme de toutes ces amplitudes de probabilité est bien entendu égale à 100%.

    Les grandeurs et paramètres fondamentaux
    Pour comprendre l'esprit de la QED sans entrer dans le détail des calculs, il faut citer 4 paramètres importants.
    Deux d'entres eux sont des paramètres physiques mesurables (m,e) et les deux autres sont des paramètres théoriques utilisés dans les calculs (n,j).

    Paramètres mesurables
    Les paramètres (m,e) mesurés dans les laboratoires ne sont pas calculables. Ils résultent du comportement de la nature qui inclut la totalité des cas possibles comme indiqué dans les principes de base de la QED :
    m : masse de l’électron
    e : charge de l’électron

    Un autre paramètre sans dimension équivalent à la charge e appelé "constante de structure fine" (symbole = α) représente sensiblement la même chose au niveau physique.
    Une formule simple relie ces 2 paramètres (α = e2/hc), cette constante serait plus fondamentale que la charge à condition que la vitesse de la lumière soit bien constante dans tout l'univers.

    α : constante de structure fine (valeur 1/α ~ 137)

    On utilise d'ailleurs plutôt dans les calculs la constante de structure fine.

    Paramètres nécessaires aux calculs (non observables)
    Les paramètres utilisés dans les calculs ne concernent qu'un seul cas à la fois, c'est à dire 1 seul diagramme de Feynman. Leur signification physique est par ailleurs assez difficile à expliciter :
    j : amplitude ou constante de couplage électron/photon (valeur ~ -0.1)
    n : "pseudo masse" unitaire de l'électron

    Ces derniers ne sont pas mesurables car liés à la théorie.

    Lien avec les 3 séquences de base de la QED
    - Séquence S1 (photon seul) : amplitude de probabilité liée uniquement aux positions du photon à chaque instant
    - Séquence S2 (électron seul) : masse m de l’électron et paramètre n
    - séquence S3 (photon + électron) : charge électrique e de l’électron ou constante de structure fine α et amplitude de couplage j

    Illustration par un exemple
    La présentation des concepts de la QED sera basée sur un cas simple concernant le moment magnétique de l’électron.
    Concrètement, ce cas de figure est rencontré lorsqu'un électron est soumis à un champ magnétique externe comme celui produit par un aimant.
    Ce champ magnétique étant constitué d'une "mer de photons", l'électron est donc immergés dans cette denière.

    Aimant-Electron

    Le champ magnétique produit par l’aimant est constitué d’une pluie de photons qui vont (ou ne vont pas) interagir avec notre électron.

    Moment magnétique de l’électron
    Le moment magnétique représente la réponse d’un électron à un champ magnétique externe, cet électron se comporte comme un minuscule aimant.
    Le moment magnétique est caractérisé par la masse m de l'électron, sa charge e ainsi que par un nombre sans dimension appelé facteur de Landé nommé g.

    => g = facteur de Landé

    La masse et la charge de l’électron étant connues, le moment magnétique est donc proportionnel au facteur de Landé. Il suffit alors de déterminer ce paramètre pour connaître la valeur du moment magnétique d’une particule.

    => Moment magnétique = f(g)

    Le paramètre g est en plus mesurable expérimentalement, il est donc possible de vérifier la validité de la QED en comparant le calcul et l'expérience.

    Premier calcul effectué par Dirac
    En 1928, Paul Dirac effectue le premier calcul du moment magnétique de l’électron en établissant la célèbre équation qui porte son nom.

    Paul Dirac
    Paul Dirac

    Ce calcul fut basé sur l’étude d’un couplage direct entre l’électron et le photon. Même si à l’époque les diagrammes de Feynman n’existaient pas encore, ce couplage peut néanmoins être illustré par le diagramme suivant :

    Diag Feynman - MMe- ordre 0
    Fig. 2 : Couplage direct : 1 interaction électron/photon (ordre 0)

    Dans son équation, Dirac introduit la notion de « constante de couplage » entre l’électron et le photon. Ce paramètre est lié à la constante de structure fine α précédemment citée.
    Il caractérise la probabilité d'absorption ou d’émission d’un photon par un électron.

    Le résultat du calcul de Dirac indique une valeur exactement égale à 2 pour le facteur de Landé.

    => Calcul de Dirac : g = 2

    Or les premières mesures du moment magnétique effectuées en 1948 montrent une valeur du facteur de Landé égale à 2.002

    => g mesuré en 1948 = 2.002

    Le problème de la différence entre les 2 valeurs est connu sous le terme moment magnétique anomal

    Cette différence semble insignifiante, mais comme cela s'est déjà vu en physique, un problème qui semble anodin nécessite la construction complète d'une nouvelle théorie.
    Pour expliquer le moment magnétique anomal de l'électron, il fallu développer la QED qui nécessita plusieurs dizaines d'années de recherche.

    Application de la QED au calcul du moment magnétique
    Le problème consiste donc à calculer un terme correctif au facteur de Landé établit par Dirac.
    Selon la QED, le calcul exact d’une interaction électromagnétique doit prendre en compte tous les cas possibles d’interactions compatibles avec les « règles de Feynman » [4] :
    - conservation de l’énergie
    - conservation de la charge
    - application de la constante de couplage j à chaque vertex (*)

    Le principe du calcul consiste à prendre en compte toutes les possibilités de couplages en s’aidant de la représentation des diagrammes de Feynman.

    (*) Un vertex est un point de couplage électron/photon (Fig. 1)

    Principe des perturbations
    Le calcul est ensuite organisé en appliquant la théorie des perturbations.
    Cette approche consiste à partir d'une valeur proche de la valeur que l'on recherche (ex : valeur de Dirac) puis à calculer progressivement des termes correctifs afin de converger vers la valeur réelle recherchée.

    Il s'agit donc de calculer un terme correctif ou anomalie "a" au facteur de Landé :
    g = 2(1 + a) équivalent à : g = 2 +2a (le 2 étant la valeur calculée par Dirac)

    Ce terme est lui même divisé en termes successifs dépendant de la constante de structure fine calculés les uns après les autres :

    a = A1*α + A2*α2 + A3*α3 + ....

    Les facteurs correctifs d’ordres successifs (A1, A2...) sont logiquement classés dans l’ordre décroissants du plus grand au plus petit, ceci afin de prioriser les efforts de calculs sur les termes les plus contributeurs au résultat final.

    Le chemin direct qui induit la principale contribution au résultat a donc comme on l'a vu d’abord été calculé par Dirac.

    A chaque calcul de l’un de ces facteurs, la précision du résultat global pour la détermination du facteur de Landé g augmente. Cela se traduisant par l'apparition de nouvelles décimales après la virgule.

    Puisque en parallèle, la précision des mesures s'améliore au fil du temps, la comparaison calcul/expérience permet de valider la théorie de l’électrodynamique quantique.

    Si un jour ces comparaisons divergent, alors la QED sera en danger...

    Des calculs étalés sur plusieurs dizaines d'années !

    Julian Schwinger
    Julian Schwinger

    Correction d'ordre 1
    Le premier terme correctif fut calculé par Julian Schwinger (*), un physicien surdoué qui obtint en 1948 un facteur de Landé corrigé à l’ordre 1 avec A1 = 1/2 [2].

    Diag Feynman - MMe- ordre 1
    Fig. 3 : Correctif ordre 1 : +2 interactions électron/photon supplémentaires

    => g calculé par Schwinger en 1948 = 2.00232

    Ce résultat est très proche de la valeur mesurée de l'époque !

    (*) Prix Nobel de physique en 1965 avec Feynman et Tomonaga.

    Correction d'ordre 2
    La correction d’ordre 2 fait intervenir quatre couplages supplémentaires et sept diagrammes de Feynman possibles, la fig. 4 présente les quatre premiers.
    Il a fallu trois ans à deux équipes de physiciens pour terminer ce calcul [2].

    Diag Feynman - MMe- ordre 2
    Fig. 4 : Correctif ordre 2 : +4 interactions e-/photon supplémentaires

    Au fur et à mesure que l’on étudie les contributions d’ordre plus élevé, les calculs deviennent de plus en plus complexes car le nombre de diagrammes se multiplie par la prise en compte d'un nombre d’interactions possibles toujours plus élevé.

    A titre d'exemple, la correction avec six couplages a mis vingt ans pour être calculée !

    Situation en 1990
    => En 1990, les valeurs du facteur de Landé g étaient les suivantes :
    Calculé = 2.002 319 304 280
    Mesuré = 2.002 319 304 386

    La dernière mesure de cette constante g date de 2006 et la valeur la plus récente se trouve ici.

    La QED est donc jusqu'à présent très bien vérifiée !

    Une difficulté supplémentaire
    Une difficulté importante est cependant apparue lors de l’élaboration des premiers calculs. En effet, dans certains cas, ces derniers ont fait apparaitre des valeurs infinies [2][6] pour le calcul des diagrammes en boucles...

    Apparition de valeurs infinies
    Il existe 3 cas possibles de diagrammes de Feynman en boucles (fig. 5).

    Diags_Feynman 3cas-infinis
    Fig. 5 : Les 3 cas d’apparition des infinis dans le calcul

    Les calculs correspondants contiennent des intégrales qui doivent être effectuées jusqu’à une distance nulle pour inclure toutes les possibilités.
    Si l’on stoppe les calculs à une distance finie, non nulle, alors les intégrales convergent vers une valeur finie.
    Mais dès que l’on « pousse » le calcul jusqu’à zéro, alors des divergences apparaissent sous la forme de résultats infinis, ce qui ne correspond pas bien entendu avec les expériences.
    Ce problème a mis vingt ans pour être résolu à l’aide d’une méthode appelée « renormalisation » mise au point par Feynman, Schwinger et Tomonaga.

    La méthode controversée de renormalisation
    L’idée de base de cette méthode consiste à écrire les équations de la QED en isolant au préalable les parties divergentes. Ces parties divergentes sont alors écrites en faisant apparaitre certaines valeurs physiquement mesurables telles que la masse m ou la charge électrique e [5].

    Les parties divergentes des équations sont alors isolées et écrites en fonction de ces valeurs mesurables (*).

    Les équations sont alors modifiées d'une manière ad hoc afin que les valeurs limites convergent non plus vers l’infini mais vers des valeurs liées aux grandeurs mesurées.
    Cette méthode de renormalisation fixe en particulier la valeur numérique des paramètres j et n cités précédemment.

    Il s’agit en fait d’une technique mathématique dite "de raccordement" dans la zone où les équations ne marchent plus, ce raccordement est réalisé à partir des données expérimentales mesurées.
    En gros, la renormalisation vise à faire disparaitre des infinis "gênants" en leur retranchant des infinis !
    Et au final grâce à cette méthode, les infinis disparaissent des résultats du calcul (**).

    (*) Ces constantes ne sont d’ailleurs pas calculables et doivent donc être mesurées avant d’être utilisées dans les calculs. On note dans ce cas un exemple typique de la "cuisine" que peut être la physique dans certains domaines.

    (**) Il reste en fait un semblant de problème lié aux infinis. En effet, la constante de structure fine tend toujours vers l'infini aux distances proches de zéro, cela correspond cette fois à une réalité physique car lors de mesures à hautes énergies, cette constante semble augmenter.
    L'interprétation correspondante appelée pôle de Landau est qu'un couplage photon/électron n'a jamais lieu à distance nulle, mais plus ce couplage est proche de zéro, plus l'énergie nécessaire augmente [6].

    Commentaire
    Cette méthode de renormalisation ne fonctionne pas systématiquement car elle n’est pas applicable à tous types d’équations. En effet, dans le cas de l’interaction faible, la théorie de Fermi élaborée pour modéliser cette dernière n’est pas renormalisable sauf si les particules sont de masse nulle, c’est la raison pour laquelle on a introduit la notion de champs de Higgs pour expliquer l’apparition de la masse [7].

    Dans le cas de la QED, par chance cette méthode a fonctionné, on dit que cette théorie est renormalisable.

    Cette méthode a été critiquée par ses propres concepteurs comme Richard Feynman qui considéraient que pour que les équations de la QED fonctionnent totalement, il a fallu recourir à une « cuisine infâme » (sic) dont la validité mathématique est douteuse.

    Le débat reste ouvert même si les équations renormalisées continuent à donner des résultats jamais démentis par l’expérience jusqu’à aujourd’hui.
    En effet, dès 1983 [2] la valeur mesurée du moment magnétique concorde jusqu’au 11e chiffre après la virgule par rapport à la valeur calculée, cela correspond à estimer la distance Paris/New-York à 1 cheveu près…

    Conclusion
    La QED ou électrodynamique quantique est une théorie destinée à concilier l'électromagnétisme avec la mécanique quantique.
    Elle est basée sur l'idée simple que les particules chargées interagissent par échange de photons.
    Sa genèse fut longue et difficile car elle fait appel à des mathématiques complexes basées sur la puissante notion de Lagrangien.
    Une difficulté particulière est apparue lors de son développement avec l'apparition de valeurs infinies dans certains cas de figure.
    La méthode controversée (même parmi ses concepteurs) de renormalisation a permis de résoudre ces problèmes. Le résultat fut l'obtention d'une précision sans précédent dans les calculs corroborée par l'expérience.

    Cette théorie est aujourd’hui considérée comme l'une des plus robustes, du moins jusqu'à ce qu'elle soit un jour prise en défaut et détrônée par une théorie plus globale.

    Reste la question du rapport entre cette théorie et la réalité déjà abordée au sens large ici.
    Certains épistémologues comme par exemple Aimé Michel estiment qu'il est secondaire qu'une théorie représente ou pas le réel pourvu qu'elle soit prédictive [8].

    Dans le cas de la QED, l’existence des électrons, des photons et de leurs interactions est avérée.
    Il ne reste que la question de l'approche de type probabiliste fondée sur la philosophie de la physique quantique.
    Jusqu'à présent, personne n'a été capable de faire mieux et de proposer une théorie déterministe, Einstein y a consacré le reste de son existence sans succès.

    Et enfin, au sujet de la constante de structure fine, deux choses sont à remarquer :
    . elle fait partie de la vingtaine de constantes fondamentales de la physique des particules
    . si sa valeur était différente de seulement 4%, alors la cohésion des atomes de carbone serait impossible et l'univers que l'on connait ne pourrait pas exister...

    Liens et références
    [1] Histoire de l'univers - Partie 2 : Introduction à la physique fondamentale (pour les nuls !) (sur ce site)
    [2] "Lumière et matière" - Richard Feynman (Ed. Française 1992)
    [3] Le mur de la Quantique (sur ce site)
    [4] Diagramme et rêgles de Feynman - Yves SCHUTZ (PDF ici)
    [5] Site Université de Laval - Luc Marleau (Si lien cassé : PDF ici).
    [6] Voyage vers l'infiniment petit - Source : Ecole Normale Supérieure (ENS)
    [7] "La physique et l'énigme du réel..." - Marceau Felden
    [8] "La clarté au cœur du labyrinthe" Aimé Michel ("Auguste Comte et le père Noël" - 1971)

  • La dette de l'état dans tous ses états

    dette-publique-de-la-france-trou

    On parle sans cesse de la dette de l'état qui est la source de tous nos maux, ce qui est en partie exact.
    Cependant, pour beaucoup ce problème reste abstrait et le but de ce post est d'expliquer le plus simplement possible d'où vient la dette, les problèmes qu'elle implique et les moyens de s'en débarrasser.

    A. ORIGINE DE LA DETTE DE L’ÉTAT
    La dette publique n'est bien entendu pas apparue par enchantement, elle est issue du fait que depuis environ 40 ans l'état dépense plus d'argent qu'il n'en gagne.
    Tout semble avoir commencé avec le fameux emprunt Giscard lancé en 1973 pour couvrir les baisses de recettes induites par le premier choc pétrolier, à noter par ailleurs que ce dernier s'est révélé un gouffre financier lors de son remboursement.

    Avant cette date, l'état était relativement bien géré car son budget était équilibré, il est évident que la période de forte croissance de l'époque, les fameuses 30 glorieuses, l'ont bien aidé !

    Les problèmes ont donc commencé au milieu des années 70 et pendant 40 ans les gouvernements successifs de droite comme de gauche on systématiquement fait gonfler la dette .

    En effet, durant chacune de ces années, le budget de l'état était en déficit, ce dernier devant être couvert par un emprunt. La somme des emprunts cumulés constitue donc la dette courante de l'état.
    Dette qui continue année après année à augmenter encore un peu plus...

    La figure 1 montre l'augmentation de la dette sur les 30 dernières années en Euros et en pourcentage du PIB (Produit Intérieur Brut). La comparaison entre la dette et le PIB est une convention internationale qui permet des comparatifs entre les différents pays.

    france-dette_Historique
    Fig. 1 : évolution de la dette publique sur 30 ans

    La dette de l'état est constituée de 3 parties distinctes (ratios 2011 entre parenthèses) :
    - dette publique : (80%)
    - dette sécurité sociale : (11%)
    - dette des collectivités locales : (9%)

    Le montant de la dette à fin 2012
    La dette de l'état Français calculée à la fin 2012 est de :
    1 833 Milliards d'Euros...

    Il faut remarquer qu'entre 2007 et 2012 durant le quinquennat Sarkozy, la dette a augmenté de 50% soit 600 Milliards. En 5 ans seulement, elle est donc passée de 1200 Milliards à 1800 Milliards même s'il y eut l'excuse de la crise...

    B. BUDGET ANNUEL DE L’ÉTAT, DÉFICITS ET EXCÉDENTS
    Comme pour une entreprise, le budget de l'état est calculé chaque année.
    Si les dépenses sont inférieures aux recettes, alors on parle d'excédent, à l'inverse, si les dépenses sont supérieures aux recettes, on parle de déficit.
    Et bien entendu, si un déficit apparait à la fin de l'année en cours, alors il faut lancer un emprunt d'état qui viendra se rajouter à la dette existante.

    D'où viennent les recettes ?
    La majeure partie des recettes de l'état provient des impôts car les quelques sociétés rentables que possédait l'état français ont été peu ou prou privatisées, et cela continue...
    Ces privatisations n'ont été que l'une des conséquences ayant fait suite à la déferlante ultra-libérale dans les sphères dirigeantes occidentales, cette déferlante fut issue de la chute du bloc communiste en 1989.

    Les principales recettes fiscales sont les suivantes (Fig. 2) :
    - TVA
    - Impôt Revenu (IR)
    - Impôt sur les sociétés
    - TIPP (Taxe sur les produits pétroliers)

    Revenus Etat français 2011
    Fig. 2 : Les recettes de l'état

    En 2011, les recettes de l'état se sont montées à : 270 Milliards d'Euros.

    Et où vont les dépenses ?
    Les dépenses de l'état (hors sécurité sociale et collectivités locales) vont principalement vers les postes suivants :
    - dépenses de personnel (fonctionnaires)
    - dépenses d'interventions (aides économiques et sociales)
    - charge de la dette
    - etc...

    Une présentation différente classée par thèmes est fournie avec la déclaration fiscale. L'estimation des dépenses 2011 selon ce format est ici.

    depense_etat
    Fig. 3 : Les dépenses de l'état

    En 2011, les dépenses de l'état se sont montées à : 352 Milliards d'Euros.

    Le déficit de l'état seul est donc de 352 - 270 = 82 Milliards.

    Pour calculer le déficit global appelé "déficit public", il faut donc ajouter celui des collectivités locales (3.5 Milliards) et celui de la sécurité sociale (17.5 Milliards).

    Si l'on cumule ces 3 déficits, le montant total du déficit 2011 fut donc de (82 + 3.5 +17.5) = 103 Milliards d'Euros ! (*)

    Dans ces chiffres sont inclus les prêts réalisés aux pays de la zone Euro en difficulté (ex : Grèce) avec un grand risque de non remboursement de ces derniers. En 2011, ces prêts se chiffrent à une dizaine de milliards environ.

    (*) Le calcul exact est en réalité un peu plus complexe mais l'objectif ici est de rester clair [1].

    Le déficit légal de Maastricht n'est pas de 3% mais de 20%
    On calcule le déficit de l'état par rapport à son PIB (2033 Milliards en 2012), ce qui est une absurdité car le PIB est le chiffre d'affaire variable de la France et non pas son "salaire".
    Son salaire, ce sont ses revenus, c'est à dire les impôts même s'il est exact que plus le PIB est important, plus les rentrées fiscales le sont également.
    Ramené à ses revenus, le déficit (exemple de 2011) est donc bien de 30% (82/270).
    Le fameux critère de Maastricht qui limite le déficit des états européens à 3% du PIB correspond plutôt à un déficit réel de 20% (une valeur annoncée de 3% impressionne probablement moins les foules).

    On a donc bien compris que chaque année, l'état est en déficit chronique et qu'il doit en conséquence emprunter sur les marchés financiers(*) un montant égal à ce déficit pour équilibrer son budget.

    Parmi les dépenses, il en est une qui est particulièrement importante, il s'agit des intérêts de la dette payée à ceux qui nous ont prêté tout cet argent.
    Cette dépense est appelée la charge de la dette.

    (*) Les "marchés financiers" sont un endroit virtuel où se rencontrent entre autres les emprunteurs et les prêteurs.

    La charge de la dette
    La charge de la dette représente les intérêts payés aux créanciers qui correspond à un pourcentage du montant total de la dette.
    En 2012, la charge de la dette s'est élevée à environ 49 Milliards d'Euros, soit un pourcentage approximatif ou taux d'intérêt moyen de 2.8%.

    Ce pourcentage est un paramètre fondamental car il peut varier, et bien entendu s'il varie à la hausse, alors la charge de la dette augmentera également.

    De plus, n'oublions pas que ces 49 Milliards versés à la finance auraient peut être été plus utiles ailleurs.

    A ce sujet, on parle de la notion de "déficit primaire" qui est le déficit hors charge de la dette.
    Pour 2011, le déficit primaire de l'état (hors sécurité sociale et collectivités) correspond à (82 - 53) = 29 Milliards.

    La particularité des emprunts d'état
    La dette est constituée de la somme de tous les emprunts de l'état "en cours", c'est à dire non arrivés à échéance.
    Comme tout emprunt, chaque emprunt d'état est effectué sur une certaine durée (court ou long terme) et à un certain taux. En ce moment, plus la durée est longue, plus le taux est élevé.

    Ce taux est lié à la capacité estimée - au moment de l'emprunt - d'un état à pouvoir payer ses agios puis éventuellement à rembourser un jour sa dette. Cette capacité est évaluée par les fameuses agences de notation.
    Si un état possède une note élevée comme AAA (la meilleure note), alors les taux consentis seront au plus bas.
    Et bien entendu, à l'inverse les taux s'envolent et la conséquence est dramatique car un emprunt d'état possède une particularité : pendant la durée de l'emprunt, l'état - contrairement à un particulier - ne rembourse que les intérêts (charge). Puis arrivé à l'échéance du prêt, l'état doit rembourser ce dernier en totalité.

    Les taux actuels consentis à l'état français sont historiquement bas, ce qui est paradoxal au vu de l'état des finances du pays. L'explication vient du fait que les autres pays de la zone euro (sauf l'Allemagne) sont dans un état de délabrement encore plus avancé : au royaume des aveugles les borgnes sont rois !

    La dette qui roule
    Aux emprunts nécessaires pour couvrir le déficit de l'année écoulée, il faut donc ajouter d'autres emprunts à effectuer pour rembourser ceux qui arrivent à échéance en cours d'année.
    Cela s'appelle "rouler la dette".

    Et bien entendu, si entre temps la note de l'état s'est dégradée (comme pour la Grèce, l'Espagne et l'Italie), les taux d'intérêts exigés seront plus élevés venant ainsi augmenter la future charge de la dette.

    Pour se faire une idée, le montant total emprunté en 2011 fut de 184 Milliards.
    Par chance (on en a au moins sur ce point), la durée de vie moyenne des emprunts de l'état français est assez élevée.

    La grande peur des taux
    Une augmentation des taux d'intérêts ne concerne donc pas que le financement du déficit mais également le refinancement des emprunts arrivés à échéance.
    On comprend donc la grande peur des dirigeants politiques de voir la note de l'état se faire dégrader, c'est l'une des raisons de la soumission de ces derniers aux marchés financiers [2].

    Point de situation
    Arrivé à ce stade, effectuons une petite synthèse :
    . Depuis 1975 environ, l'état dépense plus qu'il ne gagne provoquant un déficit annuel récurrent
    . Chaque année ce dernier est donc obligé d'emprunter sur les marchés avec des taux d'intérêt associés (*)
    . Aujourd'hui, la dette cumulée est telle que les intérêts payés chaque année par l'état se rapprochent du montant annuel du déficit de l'état

    Ex. pour 2012 : charge de la dette = 49 Milliards, déficit = 87 Milliards.
    La charge de la dette 2012 est égale à 56% du déficit de l'état. Le déficit est donc sur la voie de l'autoalimentation qui sera atteinte lorsque la charge égalera 100% du déficit !
    Lorsque la charge de la dette devient égale -ou pire supérieure- au déficit, cette dernière devient insoutenable.

    Si la situation ne s'améliore pas rapidement et elle n'en prend pas le chemin, nous allons nous retrouver dans moins de 3 ans dans la situation de la Grèce, de l'Espagne et de l'Italie.
    Les coupes budgétaires seront alors sanglantes...

    Personne ne sait à quel niveau de pourcentage du PIB les agences de notation vont dégrader la note de la France même si ce n'est pas le seul critère.
    Si l'on prend les chiffres (optimistes) estimés par la commission européenne, les ratios dette/PIB à venir sont les suivants :
    => fin 2013 : 93.4% du PIB
    => fin 2014 : 95.0% du PIB
    => fin 2015 : ?

    Sachant que les chiffres réels sont toujours supérieurs aux estimations, on se rend compte que la situation est catastrophique.

    A noter que les politiques d'austérité issues de l'idéologie du consensus de Washington et imposées par les institutions internationales à la Grèce, l'Espagne et l'Italie sont un échec total. Non seulement elles ont fait se rapprocher leur niveau de vie de celui des pays du tiers monde, mais leur dette reste désespérément en croissance.

    (*) Avant la loi de 1973 (article 73-7 ), l'état français pouvait demander des avances à sa banque centrale à taux zéro, cette possibilité fut interdite par cette loi. Cette interdiction a ensuite été reprise au niveau européen par l'article 123 de la constitution de Lisbonne obligeant les états à s'adresser au marché avec des taux d'intérêts liés à la santé financière de l'état emprunteur [3].

    C. COMMENT SE DÉBARRASSER DE LA DETTE ?
    C'est là que les choses intéressantes commencent.
    En effet, précisons d'abord que ceux qui nous ont mis dans cette situation depuis 40 ans ont disparus ou ne sont pas considérés comme responsables de cette dernière. C'est l'un des effets induits par la politique court-terme d'un mandat présidentiel de 5 ans : après moi le déluge.
    Nous devons donc nous débrouiller avec une dette qui représente environ 65 000 € par ménage.

    Pour se débarrasser de la dette, c'est en fait très simple, il n'y a que 2 solutions :
    1. Soit on rembourse la dette
    2. Soit on ne rembourse pas la dette

    Dans le premier cas, c'est la population qui paie la facture et dans le second ce sont les prêteurs.

    Cas où on rembourse la dette
    Pour rembourser la dette, il faut bien évidemment avoir de l'argent.
    Hors l'état étant en déficit chronique, il n'arrive même pas à se financer avec ses revenus.

    Alors que faire ?

    Il n'existe que 4 possibilités pour agir :
    1. Baisser les dépenses
    2. Augmenter les impôts
    3. Relancer la croissance
    4. Créer de l'inflation

    Baisse des dépenses
    Si l'état baisse ses dépenses, il peut agir sur les axes suivants :
    - personnel
    - fonctionnement
    - investissement
    - aides sociales

    Commentaires :
    Dans les 3 premiers cas, une baisse importante des dépenses de l'état induit de la récession car le nombre de chômeurs à indemniser augmente et l'activité des nombreux sous-traitants de l'état de diminue.
    Tout cela provoquant une diminution du PIB et une augmentation des dépenses sociales.
    Cela explique le choix systématique des restrictions sur les dépenses sociales pour les pays de la zone Euro qui furent arrivés les premiers en situation de quasi cessation de paiement (Grèce, Espagne, etc...).
    Cette politique est comme on l'a déjà évoqué largement inspiré des recommandations plus que controversées du consensus de Washington reprises par la Troïka (*) : Commission européenne, Banque centrale européenne (BCE) et FMI.

    (*) La Troïka impose des conditions drastiques aux pays de la zone euro en difficulté pour leur accorder des prêts en dernier recours.

    Augmentation des impôts
    L'état peut augmenter la TVA et/ou les impôts des particuliers ou des sociétés assurant immédiatement de nouvelles rentrées fiscales.

    Commentaires :
    Si l'état augmente les impôts des particuliers ou la TVA, alors ses revenus augmentent mais cela induit 2 conséquences :
    . la population est mécontente
    . cette dernière consomme moins (car elle a moins d'argent)
    Et si la consommation diminue, la production aussi et donc le PIB également. Et les rentrées fiscales baissent mécaniquement !
    On se retrouve au point de départ...

    Pour les entreprises, du moins celles qui ne peuvent se soustraire à l'impôt (PME), cela augmente le cout du travail et donc diminue leur compétitivité.

    Relance de la croissance
    Pour créer de la croissance (sous entendu "croissance du PIB") certains économistes expliquent qu'il faut baisser les impôts des entreprises pour les rendre plus compétitives.
    Si l'état baisse les impôts des entreprises, les rentrées fiscales diminuent immédiatement.
    Cependant, l'idée est de rendre les entreprises plus compétitives et de créer ainsi de l'activité pour ces dernières. Cela induit donc une croissance du PIB et donc de futures rentrées fiscales supplémentaires.

    Si on arrive à créer ou retrouver de la croissance, cela semble le cas idéal car l'activité économique accélère et le PIB augmente, induisant également de nouvelles rentrées fiscales.
    C'est pour cela que les dirigeants politiques ne parlent que de croissance car c'est la seule option "sans douleurs" pour remonter la pente.

    Relance de la croissance
    La croissance est aujourd'hui une chimère car dans un contexte où c'est toute la planète qui est en crise avec une croissance mondiale en berne, il est illusoire d'espérer le retour de cette dernière en France.
    De plus, en terme de ressources (matières premières) et de pollution, la planète est exsangue donc même si la croissance revenait par miracle, nous accélérerions l'autodestruction de notre environnement qui est déjà en piteux état.

    Création d'inflation
    Pour alléger le poids de la dette, l'inflation qui n'est autre qu'une hausse généralisée des prix et si possible des salaires est une solution possible.
    En effet, s'il faut 110 Euros pour payer un bien qui valait 100 Euros 1 an avant, il y a eu 10% d'inflation. Et si le bien est un emprunt, alors c'est l'emprunteur qui gagne 10% lors de son remboursement (toujours égal à 100 €) et le prêteur qui les perd car la monnaie s'est dépréciée.

    Pour créer de l'inflation, c'est assez simple, il suffit d'augmenter la masse monétaire en circulation. La banque centrale est la seule banque habilitée à effectuer de la création monétaire, c'est ce que tente actuellement la banque du japon.

    Commentaire
    La création monétaire appelée aussi "planche à billet" peut être un jeu dangereux dans la mesure où l'histoire montre qu'il y a un risque de dérapage vers l'hyperinflation. Lorsque cette dernière apparait, il n'y a plus aucun moyen de la stopper.

    Cette création de monnaie est à distinguer d'avances à taux zéro qui pourraient être effectués par la banque centrale pour couvrir les déficits.
    Car qui dit avance dit remboursement, il n'y a création que durant un temps limité par la durée de l'avance, lorsque l'état rembourse, la monnaie créée est détruite.

    Cependant tous ces sujet sont complexes comme le montre les incessants débats que l'on trouve dans les médias.
    Il n'existe aucune théorie économique viable contrairement à ce que tentent de nous faire croire certains experts très médiatisés.
    Les choix effectués parmi ces 4 possibilités sont plus politiques que rationnels.

    Cas où on ne rembourse pas la dette
    Ce cas est le plus facile à comprendre, cette option se nomme un défaut sur la dette ou une "restructuration" qui est une périphrase politiquement plus correcte !
    La restructuration peut être totale ou partielle, par exemple en 2003, l'Argentine avait une dette égale à 140% de son PIB, elle fut restructurée par effacement des 3/4 de cette dernière pour arriver à 40% du PIB.
    Le problème d'une restructuration est qu'il s'agit d'un fusil à un seul coup car elle interdit ensuite durablement de faire appel aux marchés qui n'accorderont évidemment plus leur confiance à un état qui a fait défaut.
    Cependant l'objectif est d'assainir les finances et d'éviter de refaire les mêmes erreurs en recommençant par exemple à s'endetter.

    Une ébauche de scénario
    La concrétisation d'un défaut de l'état pourrait s'articuler autour du scénario suivant :
    1. sortie de l'Euro et création d'une nouvelle monnaie nationale avec parité par rapport à l'Euro
    2. dévaluation de cette monnaie (de 20 à 30%)
    3. défaut sur la dette (de 70 à 100%)
    4. équilibrage du budget de l'état
    5. autorisation pour la banque centrale à faire des avances à court terme à l'état à taux zéro

    La sortie de l'Euro est une condition nécessaire pour permettre les mesures suivantes qui sont interdites par les traités européens.
    La dévaluation permettrait de stimuler les exportations ainsi que la réindustrialisation créant alors de nouvelles rentrées fiscales.
    Ces nouvelles rentrées permettraient de rééquilibrer le budget de l'état sachant que la charge de la dette serait réduite à néant dans la cas d'un défaut à 100% de la dette.
    Des avances à taux zéro permettraient de lisser les comptes de l'état en cas de déficits exceptionnels qui seraient remboursés lors des années excédentaires. Un mécanisme devra par ailleurs être créé pour éviter les déficits récurrents.

    D. CONCLUSION
    Le déficit de l'état n'est que l'une des multiples crises qui se sont accumulées depuis 2007 et avant [4]. Ces crises entrent en synergie pour s'auto-entretenir.

    On distingue également :
    - le chômage de masse qui explose suite à la désindustrialisation issue de la mondialisation
    - le système bancaire mondial en faillite virtuelle suite à la crise des subprimes de 2007
    - la crise de l'Euro qui a été mis en place sans prévoir le moindre mécanisme de régulation
    - la crise écologique avec le réchauffement planétaire
    - la pollution généralisée de notre environnement
    - etc...

    Pour réduire le déficit, toutes les solutions conventionnelles ont déjà été tentées depuis 30 ans avec plusieurs mélanges différents "savamment dosés" entre les options décrites.

    La tendance des gouvernements de droite allant par nature vers une diminution des charges des entreprises, on a constaté que cette dernière a surtout profité aux actionnaires.

    Les gouvernements de gauche ont quand à eux tenté une augmentation des impôts avec une politique de redistribution sociale. Devant l'explosion des déficits et du chômage, un virage à 180 degrés fut décidé (vers 1983) avec la mise en œuvre d'une politique de rigueur, cette dernière commence également à être appliquée en ce moment.
    Cette solution ne marche pas non plus car elle crée de la récession.

    Toutes ces vieilles recettes sont enseignées dans les cours d'économie "standards" du monde entier. Elles sont issues du dogmatique consensus de Washington, bréviaire de la pensée unique.

    Aucune de ces recettes n'a fonctionné dans d'autres pays pour résoudre la crise actuelle comme le montre les cas de la Grande Bretagne, de la Grèce, de l'Italie et de l'Espagne.

    La dernière option
    La seule solution restante s'oriente vers un défaut comme cela a été tenté en Argentine avec succès il y a environ 10 ans.
    Ce défaut qui doit être conçu pour préserver au maximum les intérêts de la nation (banques, particuliers, etc...).
    Le contexte européen montre qu'il n'y a aucune solidarité naturelle entre les pays de la zone Euro pour pallier l'absence de mécanismes prévus au départ pour corriger les déséquilibres.

    Le cas idéal serait un défaut simultané de tous les pays de la zone Euro, mais ce n'est pas imaginable car ces derniers n'arrivent même pas à se mettre d'accord pour interdire un pesticide qui tue les abeilles !

    Puisque les traités européens interdisent à l'un des états membres de cette zone de faire défaut, il faut rapidement sortir de l'euro avant de réaliser cette opération, le ou les premiers pays à le faire auront les meilleures chances de survie.

    De plus, une sortie de l'euro permettrait une dévaluation (également interdite par le système rigide de la monnaie unique) qui rendrait leur compétitivité aux entreprises françaises ayant survécu à la mondialisation.
    Une dévaluation rendrait les produits importés plus chers et inciterait donc également à réindustrialiser.

    A contrario, un défaut interdirait l'accès aux marchés financiers en cas de déficits obligeant donc l'état à respecter l'équilibre budgétaire. Le cas échéant, un système d'avances à taux 0 au trésor de la banque centrale pourrait être remis en place à condition qu'il soit maitrisé.

    Ce scénario certes drastique est donc à analyser en profondeur pour avoir une petite chance de sortir de cette impasse et pouvoir repartir rapidement vers une situation viable.
    La facture ne peut être payée que par la population ou par ceux qui ont prêté.

    La question restante est de savoir si ce défaut sera organisé avec un minimum de sang froid ou mis en œuvre dans l'urgence, la panique, le sang et les larmes. Car le temps joue contre nous...

    Liens
    [1] Budget 2011 de l'état Français (PDF)
    [2] La guerre contre la finance, il faut scinder les banques ! (sur ce blog)
    [3] Traité de Lisbonne, article 123 : le coup d’état de la finance (sur ce blog)
    [4] Chronique d'une catastrophe annoncée (sur ce blog)
    . Le Contrarien matin - Numéro du 2 mai qui résume la situation en 1 page !

Footer:

Le contenu de ce site wed appartient à une personne privée, blog.fr n'est pas responsable du contenu de ce site.