Oui mais bon je vais rajouter une deuxième information pour les lecteurs au sujet du paradoxe de l'apocalypse pour mieux les pousser à choisir leur camp
Ceci est un raisonnement purement mathématiques qui découle d'une logique de grande véracité *.*
Maintenant une petite introduction sur les probabilités bayésiennes :
La formule de Bayes indique comment, en fonction d’une information nouvelle, il faut réévaluer des probabilités précédemment attribuées.
On dispose de la probabilité Pr(A) pour l’événement A. La formule de Bayes est une formule compliquée qui exprime un fait simple : quand un événement apparaît, les théories où cet événement est le plus probable sont renforcées.
En termes abstraits, un événement E se produit et on veut connaître la probabilité, notée Pr(A|E), d’avoir A sachant que E s’est produit. Il existe une formule qui exprime cette probabilité Pr(A|E) que l’on cherche à connaître en fonction de Pr(A)
Pr(E|A),Pr(nonA), Pr(E|nonA) qui sont connues. Cette formule (qui ne nous apprend évidemment rien quand les événements A et E sont indépendants) est la suivante :
Pr(A|E)=Pr(A)xPr(E|A)/(Pr(A)xPr(E/A) + Pr(nonA)xPr(E/nonA))
Le paradoxe de l'Apocalypse (ou de fin du monde)
Imaginons que deux théories,
Sur le destin ultime de l’humanité sont en compétition :
Théorie A. La fin de l’humanité se produira avant 2050 et au total il y aura eu environ cent milliards d’êtres humains.
Théorie B. La fin de l’humanité se produira bien plus tard et, au total, il y aura eu cent mille milliards d’êtres humains. Imaginons que l’on détermine a priori, par des analyses provenant de diverses sciences fondamentales (mathématiques, physique, chimie, biologie, etc.), que : Pr(A)=1/2 et Pr(B)=1/2.
Le paradoxe de Brandon Carter défendu avec acharnement par John Leslie consiste à proposer l’argumentation suivante. Les évaluations Pr(A)=1/2 et Pr(B)=1/2 sont faites dans le cadre général des sciences, mais je dispose d’une information particulière qui me permet de réévaluer ces probabilités : «Je suis un humain dont le rang de naissance est inférieur à cent milliards» (événement E). Dans la théorie A l’événement E est banal (inévitable même), en revanche dans la théorie B cet événement est étonnant car cela me place dans le premier millième des êtres humains,chose statistiquement peu probable (la probabilité de E sachant B est 1/1000). Si une information est plus probable dans le cadre d’une théorie A que dans le cadre d’une théorie B, et que j’apprends alors que cette information est vraie, cela renforce ma confiance en la théorie A et diminue celle que j’ai concernant la théorie B. La formule de Bayes permet de rendre cela précis. Le calcul détaillé ci-dessus conduit à :
- Probabilité de A sachant que E est vrai = 0,9990 = 99,90 %
- Probabilité de B sachant que E est vrai = 0,001 = 0,10%
Détail du calcul :
Pr(A/E) = Pr(E/A)xPr(A)/(Pr(E/A)*Pr(A)+Pr(E/B)*Pr(B)) = 1x1/2 /(1x1/2 + 1/1000x1/2) = 0.999 = 99,9 %
Pr(B/E) = Pr(E/B)xPr(B)/(Pr(E/B)xPr(B)+Pr(E/A)xPr(A)) = 1/1000x1/2/(1/1000x1/2+1x1/2) = 0.001 = 0.1 %
Il y a un «glissement bayésien» en faveur de l’hypothèse d’une fin proche de l’humanité. Un tel glissement a lieu même si plus de deux théories sont en compétition et se produit quelles que soient les hypothèses numériques formulées. La fin de l’humanité serait donc plus proche que ce que l’on peut croire en se fiant uniquement aux risques évalués scientifiquement.
... Bouuuuh xDDD
Dernière modification par andr (10-11-2009 19:49:05)