Le théorème de Bayes, nommé d'après le mathématicien britannique Thomas Bayes (XVIIIe siècle), est une formule mathématique fondamentale pour calculer les probabilités conditionnelles. Il permet d'évaluer la probabilité d'un événement en tenant compte d'un événement antérieur survenu dans des conditions similaires. Ce théorème est essentiel pour mettre à jour des prédictions ou théories existantes à la lumière de nouvelles preuves. En finance, il aide à évaluer les risques de crédit pour les emprunteurs potentiels. Aussi appelé règle ou loi de Bayes, il forme la base des statistiques bayésiennes.
Ses applications dépassent la finance : en médecine, il évalue la fiabilité des tests diagnostics en croisant la prévalence d'une maladie et la précision du test. Le théorème intègre des probabilités a priori pour générer des probabilités a posteriori.
La probabilité a priori représente l'évaluation initiale d'un événement avant l'arrivée de nouvelles données, basée sur les connaissances existantes.
La probabilité a posteriori est la version révisée après intégration des nouvelles informations, calculée via le théorème de Bayes. Statistiquement, c'est P(A|B), la probabilité de A sachant B.
Le théorème calcule la probabilité d'un événement conditionnée à de nouvelles informations liées. Il peut aussi simuler l'impact d'informations hypothétiques.
Exemple : Dans un jeu de 52 cartes, la probabilité de tirer un roi est de 4/52 ≈ 7,69 %. Si on sait que c'est une figure (12 au total), elle passe à 4/12 ≈ 33,3 %.
P(A|B) = [P(A) × P(B|A)] / P(B)
où :
- P(A) : Probabilité que A se produise.
- P(B) : Probabilité que B se produise.
- P(A|B) : Probabilité de A sachant B.
- P(B|A) : Probabilité de B sachant A.
- P(A ∩ B) : Probabilité que A et B se produisent simultanément.
Voici deux exemples concrets : un investissement boursier avec Amazon (AMZN) et un test de dépistage de drogue.
Elle découle des axiomes de probabilité conditionnelle. Exemple : P(AMZN baisse | DJIA baisse) = P(AMZN et DJIA baissent) / P(DJIA baisse).
P(AMZN et DJIA) = P(AMZN) × P(DJIA|AMZN), menant à : P(AMZN|DJIA) = [P(AMZN) × P(DJIA|AMZN)] / P(DJIA).
Un test de drogue est précis à 98 % (vrai positif et vrai négatif). 0,5 % de la population consomme. Pour un test positif : (0,98 × 0,005) / [(0,98 × 0,005) + (0,02 × 0,995)] ≈ 19,76 %. Ainsi, 80 % de chances de faux positif.
Découvert par Thomas Bayes, publié posthumément en 1763. Ignoré au profit des approches fréquentistes, il renaît avec la puissance de calcul moderne, appliqué en finance, génétique et santé.
La probabilité conditionnelle P(A|B) égale [P(B|A) × P(A)] / P(B).
En utilisant les probabilités connues des événements impliqués.
Outil computant P(A|B) à partir de P(A), P(B) et P(B|A).
Il modélise la relation données-hypothèse, fondement des classificateurs bayésiens naïfs.
Le théorème relie résultats de tests à probabilités conditionnelles, affinant les prédictions face aux faux positifs.
[]