Le clans des mouettes

ainsi est la force.
 
AccueilAccueil  FAQFAQ  RechercherRechercher  S'enregistrerS'enregistrer  MembresMembres  GroupesGroupes  Connexion  

Partagez | 
 

 La Délivrance de l'Espérance, Prométhée et Y'becca

Voir le sujet précédent Voir le sujet suivant Aller en bas 
AuteurMessage
yanis la chouette



Nombre de messages : 7726
Localisation : http://yanis.tignard.free.fr/
Date d'inscription : 09/11/2005

MessageSujet: La Délivrance de l'Espérance, Prométhée et Y'becca   Mer 1 Mar à 2:27

La Délivrance de l'Espérance, Prométhée et Y'becca
Live At Plymouth Guildhall . May 11 1971
https://www.youtube.com/watch?v=49RbvU3LbQk

Le mot espérance a différentes significations.

Espérance, une disposition de l'esprit humain qui lui fait attendre un bien important qu'il désire et qu'il croit pouvoir se réaliser.
Espérance, une des trois vertus théologales (foi, espérance et charité) ;
Espérance mathématique, une valeur numérique permettant d'évaluer le résultat moyen d'une expérience aléatoire ;
Espérance quantique, application du concept précédent aux phénomènes quantiques ;

Prénom

Espérance, prénom féminin à la signification transparente, formé sur le latin sperare, « espérer ». Il fut utilisé aux débuts de l'ère chrétienne. Il eut plus de succès dans l'Église d'Orient comme le montre la grande diffusion de Nadège, francisation du prénom russe Nadiejda, qui signifie Espérance. Dans le reste de l'Europe, Espérance est toujours resté un prénom rare mais il a néanmoins traversé les siècles.

Il a pour autres formes féminines Espérança, Espéranza et Spéranza.
Personnes portant ce prénom

Espérance (IIe siècle), martyre chrétienne.
Espérance († 380), ou Exupérance, vierge à Troyes en Champagne, fêtée le 26 avril2.

Toponyme

Esperance, une ville d'Australie-Occidentale.
Bonne-Espérance Page d'aide sur l'homonymie
Charbonnage de l'Espérance Page d'aide sur l'homonymie

Autres

Espérance, titre du 14e épisode de la 8e saison de X-Files ;
La Brasserie de l'Espérance, brasserie alsacienne appartenant aujourd'hui au groupe Heineken et installée à Schiltigheim dans le Bas-Rhin ;
Espérance sportive de tunis, un club omnisports tunisien basé à Tunis et fondé en 1919 ;
L'Espérance (homonymie) Page d'aide sur l'homonymie,
Le Principe Espérance d'Ernst Bloch,
Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.atelier-yannistignard.com
yanis la chouette



Nombre de messages : 7726
Localisation : http://yanis.tignard.free.fr/
Date d'inscription : 09/11/2005

MessageSujet: Re: La Délivrance de l'Espérance, Prométhée et Y'becca   Mer 1 Mar à 2:47

le 7e jour du mois de floréal dans le calendrier républicain français, officiellement dénommé jour du muguet, Le 26 avril est le 116e jour de l’année du calendrier grégorien...
muguet de mai (Convallaria majalis)

La conjuration des Pazzi est un complot fomenté à Florence par la famille Pazzi contre les Médicis en 1478 et qui se solda par un échec, les assassins ayant été arrêtés et Laurent de Médicis ayant échappé à l'attentat.

Histoire
Une famille aristocratique opposée aux Médicis

La maison de Pazzi est une ancienne famille noble de Florence, originaire du Valdarno, où elle possédait de grands fiefs, et qui fut rivale acharnée de celle des Médicis.

Issue d'une lignée prestigieuse (en 1099, Pazzino de Pazzi, se couvrit de gloire pendant la Ire Croisade1, en étant le premier chevalier à entrer dans Jérusalem), la famille de Pazzi est au XVe siècle l'une des plus anciennes et importantes familles de Florence, et, à ce titre, représentative d'un ancien ordre où l'ancienne aristocratie exerçait son influence sur les républiques italiennes.

Les Médicis, installés en ville depuis peu, roturiers et de surcroît « nouveaux riches », dominent la vie politique de la cité. Une confrontation paraît presque inévitable et si Bianca de Médicis, fille de Pierre le Goutteux et sœur de Julien et de Laurent a épousé Guglielmo de Pazzi, les vieilles haines n'ont jamais vraiment disparu.

L'ascension des Médicis mettant, aux yeux de leurs ennemis, en péril les libertés de la République de Florence, les Pazzi prennent la tête du complot destiné à évincer les Médicis du cercle du pouvoir (et de les remplacer comme première famille de la ville).

Les Pazzi peuvent également compter sur l'appui du pape Sixte IV. Le souverain pontife voudrait étendre le pouvoir de son neveu, Jérôme Riario, dont il favorise l'ascension sans retenue.

Le complot
Événements

Un complot est alors ourdi dans le but d'éliminer Julien et Laurent de Médicis, décapitant ainsi la famille de ses principaux chefs. Après une tentative avortée la veille, lors d'un banquet où Julien, indisposé à la suite d'une légère blessure de chasse, ne se rend pas, le 26 avril 1478, jour de Pâques, au moment de l'élévation de l'hostie par le prêtre dans la cathédrale Santa Maria del Fiore, Julien de Médicis et son frère Laurent, agenouillés, sont attaqués par Francesco de Pazzi et ses complices : Julien qui n'a pas enfilé son habituelle cuirasse succombe de 19 coups de couteau mais Laurent, blessé à la gorge, est emmené par ses gardes du corps dans la sacristie où il se réfugie et en réchappe2.
Conséquences
Léonard de Vinci, dessin du cadavre du conjuré Bernardo di Bandino Baroncelli pendu au Bargello (1479).

Les participants au complot qui n'ont pu rallier les habitants de Florence au cri de « Liberté, liberté » sont très vite démasqués et punis : l'archevêque de Pise, dont le passage avait servi de prétexte au complot, est immédiatement pendu. Jacopo, Renato et Francesco de Pazzi sont quant à eux vite retrouvés et exécutés. Guglielmo de Pazzi, époux de Bianca, est épargné mais condamné à un exil perpétuel. Plus de 70 personnes auraient été exécutées pendant 15 jours, certaines sont déterrées et traînées avant d'être jetées dans l'Arno, d'autres sont pendues dans la tour du Bargello qui fait office de tribunal et de prison. Les autres Pazzi sont bannis et font l'objet d'une damnatio memoriæ3.

Sixte IV réussit pourtant à entraîner ses alliés dans une guerre contre les Médicis et Florence, à laquelle il n'a toujours pas renoncé : la guerre des Pazzi, dans laquelle le pape, allié au roi de Naples, à Lucques, Urbino et Sienne, lutte contre Florence, durera encore quelques années.

Finalement, l'échec de la conjuration des Pazzi marque un tournant dans l'histoire de la dynastie : elle renforce énormément la popularité de Laurent qui deviendra le Magnifique, et fait indiscutablement des Médicis les primi inter pares à Florence, les parant d'un prestige alors inégalé4.
Postérité

En 1494, la prédication du moine dominicain Jérôme Savonarole eut pour conséquence le départ des Médicis de la ville et le retour de la famille Pazzi dans ses prérogatives et privilèges.

L'histoire de la conjuration des Pazzi a été écrite par Ange Politien5 et a fourni à Alfieri le sujet d'une tragédie.
Évocations modernes
Au cinéma

Cette conjuration de la famille Pazzi est évoquée dans le film Hannibal de Ridley Scott dans lequel le cupide inspecteur de police Rinaldo Pazzi, descendant de cette illustre famille florentine, se fait chasseur de prime pour le compte du milliardaire Mason Verger prêt à verser 3 millions de dollars pour la capture du psychopathe Hannibal Lecter dont il a été l'une des victimes.
À la télévision

Dans la série Da Vinci's Demons6, le 8e épisode de la saison 1, raconte la conjuration de la famille Pazzi. La scène finale termine sur Laurent de Médicis réfugié dans la sacristie pendant que les Pazzi et le neveu du pape le Comte Girolamo Riario enfonce la porte.
Autres médias

En 1893, Ruggero Leoncavallo met la conjuration des Pazzi au centre de son opéra I Medici.

En 2009, Ubisoft utilisa également la guerre entre les Médicis et les Pazzi comme base pour son jeu Assassin's Creed II, où le héros Ezio Auditore poursuit et assassine tous les conjurés dans San Gimignano et sa campagne entre 1479 et 1480.

Le compositeur italien Riz Ortolani (né en 1931) compose, sur le thème de la conjuration des Pazzi, un "OperaMusical" intitulé Il Principe della Gioventu. Il en écrit également le livret en collaboration avec Ugo Chiti. La création mondiale de l'ouvrage a lieu en septembre 2007 à la Fenice de Venise dans une mise en scène de Pier Luigi Pizzi7.

Bibliographie

Lauro Martines, Le sang d'avril - Florence et le complot contre les Médicis, essai - Albin Michel - Histoire - Paris - 2006

Susana Fortes, " Le complot Médicis", roman -éditions Heloise d' Ormesson -2014

Notes et références

↑ Voir la commémoration pascale du Scoppio del Carro
↑ Bruno Tribout, Les récits de conjuration sous Louis XIV, Presses Université Laval, 2010, p. 288
↑ Odile Bordaz, Au labyrinthe avec vous descendue, Nouvelles Éditions Latines, 1986, p. 167
↑ Fred Bérence, Les papes de la Renaissance : du concile de Constance au concile de Tiente, Éditions du sud, 1966, p. 113
↑ Ange Politian descrit tout à la fin de ses œuvres latines l'histoire de la conjuration faicte contre Laurent et Julien de Médicis à Florence, par quelques-uns des principaux de la ville, ne pouvant supporter la prospérité des Médicis aprez la mort de Cosme. Les chefs estoient Jaques de Pazzi chevalier et l'archevesque de Florence avec autres, qui tuerent Julien et faillirent Laurent, lequel vescut en grande estime depuis, et maintint les affaires d'Italie en un merveilleux contrepoids, comme François Guichardin le marque au commencement de son histoire. Combien que Jaques de Pazzi soit représenté par Politian et autres, homme sans religion, dissolu, adonné au jeu, tenant peu de compte de ses affaires : néanmoins il fit un trait la veille de l'execution de son dessein, qui fGt notable, soit qu'il presageast sa mort prochaine (car il fut pendu et estranglé quatre jours après), soit qu'une force plus puissante qu'humaine poussast sa conscience à ce devoir. Ainsi donc le Samedi, precedant ce Dimanche que Julien fut tué dans l'Église, Pazzi paya tout ce qu'il devoit à plusieurs particuliers, jusques à la dernière maille, et d'une sollicitude extraordinaire fit retirer de la douane, et rencdre aux uns et autres les marchandises y gardees sous son nom, sans réserve de pièce quelconque : comme aussi tout ce qu'il avoit en son palais autre que du sien fut renvoyé et rendu ce mesme jour aux propriétaires. Tout cela fut executé sans bruit, d'esprit rassis en apaience, et part d'aucun : de sorte qu'avant nuit close ce personnage se vid nettement desgagé de la main des hommes. C estoit se deesfaire du moindre lien : tant y a qu'un tel acte flestrit infinis hommes venus depuis, lesquels ni durant leur vie, ni proches de la mort, n'ont tenu compte de leurs devoirs envers les autres. Brutus, au sixiesme livre de son Histoire de Florence
↑ Da Vinci's Demons - A STARZ Original Series - Episode 108 - The Lovers [archive]
↑ Il principe della gioventù (it) [1] [archive] [2] [archive]

Sources

Marie-Nicolas Bouillet et Alexis Chassang (dir.), « Conjuration des Pazzi » dans Dictionnaire universel d’histoire et de géographie, 1878 (Wikisource)

1319 : Jean II, roi de France († 8 avril 1364).
1336 : ascension du mont Ventoux par Pétrarque.
1564 : William Shakespeare, dramaturge et poète anglais (date présumée) († 23 avril 1616).
1575 : Marie de Médicis, reine de France († 3 juillet 1642).
1782 : Marie-Amélie de Bourbon-Siciles, reine des Français, épouse du roi Louis-Philippe Ier († 24 mars 1866).
1765 : Lady Hamilton, personnalité anglaise († 15 janvier 1815 ou 16 janvier 1815).
1792 : Rouget de l’Isle achève de composer Le Chant de guerre pour l’armée du Rhin, précurseur de l’hymne national français La Marseillaise.
1798 : Eugène Delacroix, peintre français († 13 août 1863).
1803 : chute de la météorite de L'Aigle.
1894 : Rudolf Hess, homme politique allemand († 17 août 1987).
1919 :
Georges de Caunes, journaliste français († 28 juin 2004).
Manuel Zorrilla, peintre, sculpteur et dessinateur argentin.
1921 :
Zbigniew Dłubak, peintre et photographe polonais († 21 août 2005).
Marga Höffgen, artiste lyrique allemande († 7 juillet 1995).
1961 :
Leif Andersson, biathlète suédois.
Galina Beliaïeva, actrice russe.
Serge Bromberg, cinéaste français.
Joan Chen, actrice et cinéaste américaine.
Philippe Chevallier, coureur cycliste français.
1962 : Debra Wilson, actrice et scénariste américaine.
1962 : impact de la sonde Ranger 4 (en) sur la face cachée de la Lune.
1963 : Jet Li, acteur chinois.
1965 : fondation de Rede Globo, principal réseau de télévision au Brésil.
1977 : rencontre du pape Paul VI et de l’archevêque de Cantorbéry Donald Coggan dans une volonté de réconciliation entre l’église anglicane et l’église romaine.
2007 : premier vol du téléscope Stratospheric Observatory for Infrared Astronomy.
2012 : résolution no 2045 du Conseil de sécurité des Nations unies ayant pour sujet : la situation en Côte d’Ivoire.
2015 : l’élection présidentielle au Kazakhstan conduit à la réélection de Noursoultan Nazarbaïev.
2016 : annonce de la découverte d’un satellite autour de la planète naine (136472) Makémaké.

Ecrit de
TAY
La chouette effraie




Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.atelier-yannistignard.com
yanis la chouette



Nombre de messages : 7726
Localisation : http://yanis.tignard.free.fr/
Date d'inscription : 09/11/2005

MessageSujet: Re: La Délivrance de l'Espérance, Prométhée et Y'becca   Mer 1 Mar à 2:53

Sainte Exupérance
Vierge (✝ 380)
Le sanctuaire Notre-Dame des Affligés à Verdelais

Née à Troyes, elle se distingua très vite par son désir d'une vie austère toute donnée à Dieu. Elle appuyait sa vie spirituelle sur les religieux du monastère Saint Ursion à Isle et, sous la direction des pères, elle fut conduite sur le chemin de la Vie éternelle.

Le sanctuaire Notre-Dame des Affligés à Verdelais, près de Langon en Gironde, est un lieu de pèlerinage depuis le douzième siècle.

Le sanctuaire est situé à quelques kilomètres de Malagar, le domaine de François Mauriac. L’écrivain s’y rendait à pied, le matin, par des chemins serpentant à travers les vignes, pour y entendre la messe. Il se compose d’une église transformée au cours des siècles mais dont la structure originale du douzième siècle est perceptible ; d’un chemin de croix construit au dix-neuvième siècle, dont l’aboutissement est un immense calvaire dressé au sommet d’une colline ; et de l’hôtellerie Géraud de Graves, du nom du croisé qui fonda le sanctuaire, qui propose aux pèlerins le gîte et le couvert.

Les pères maristes ont eu la charge du sanctuaire pendant un siècle et demi, de 1838 à 1990. Avant l’essor de Lourdes, le pèlerinage attirait des foules énormes. Verdelais, aujourd’hui animé par des marianistes, accueille toujours des pèlerins, mais en moindre nombre.

On vénère à Verdelais une très ancienne statue de la Vierge Marie. Comme le « petit Jésus » de Prague, la statue est parfois vêtue d’ornements somptueux offerts par des associations ou des corporations. Les murs intérieurs de l’église ont été assombris au fil des siècles par la suie des cierges allumés par les fidèles. Ce qui est remarquable, ce sont les innombrables ex-voto scellés qui y sont scellés. Certains sont elliptiques et ne mentionnent que « remerciement à la Vierge » et la date. D’autres sont plus explicites. Un pied est gravé en bas-relief sur un ex-voto en marbre. Le texte dit : « Vous me l’avez conservé, faites qu’il vous serve, 7 septembre 1871 ».

Dans une travée se trouve la chasse de Sainte Exupérance. François Mauriac écrit : « je pense à cette petite Sainte Exupérance dont l’effigie de cire m’a souvent fait rêver dans la sombre basilique de Verdelais, toute proche de ma maison. C’est une de ces saintes dont on ne sait rien que ce qu’en rapportent les épitaphes des catacombes : une enfant, une vierge, une martyre. Celle-ci appuie sa tête sur un coussin de soie où s’épandent ses boucles de petite fille. Elle porte à son cou gonflé de colombe, une mince blessure d’où s’égoutte le sang frais… »

Le sanctuaire est situé à quelques kilomètres de Malagar, le domaine de François Mauriac. L’écrivain s’y rendait à pied, le matin, par des chemins serpentant à travers les vignes, pour y entendre la messe. Il se compose d’une église transformée au cours des siècles mais dont la structure originale du douzième siècle est perceptible ; d’un chemin de croix construit au dix-neuvième siècle, dont l’aboutissement est un immense calvaire dressé au sommet d’une colline ; et de l’hôtellerie Géraud de Graves, du nom du croisé qui fonda le sanctuaire, qui propose aux pèlerins le gîte et le couvert.

Ecrit de
TAY
La chouette effraie


Dernière édition par yanis la chouette le Mer 1 Mar à 2:55, édité 1 fois
Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.atelier-yannistignard.com
yanis la chouette



Nombre de messages : 7726
Localisation : http://yanis.tignard.free.fr/
Date d'inscription : 09/11/2005

MessageSujet: Re: La Délivrance de l'Espérance, Prométhée et Y'becca   Mer 1 Mar à 2:55

En théorie des probabilités, l'espérance mathématique d'une variable aléatoire réelle est, intuitivement, la valeur que l'on s'attend à trouver, en moyenne, si l'on répète un grand nombre de fois la même expérience aléatoire. Elle se note E ( X ) {\displaystyle \scriptstyle \mathbb {E} (X)} \scriptstyle \mathbb E(X) et se lit « espérance de X ».

Elle correspond à une moyenne pondérée des valeurs que peut prendre cette variable. Dans le cas où celle-ci prend un nombre fini de valeurs, il s'agit d'une moyenne pondérée par les probabilités d'apparition de chaque valeur. Dans le cas où la variable aléatoire possède une densité de probabilité, l'espérance est la moyenne des valeurs pondérées par cette densité. De manière plus théorique, l'espérance d'une variable aléatoire est l'intégrale de cette variable selon la mesure de probabilité de l'espace probabilisé de départ.

La présentation intuitive de l'espérance exposée ci-dessus est la conséquence de la loi des grands nombres : l'espérance, si elle existe, est la limite presque-sûre de la moyenne des résultats au cours de plusieurs expériences, quand leur nombre augmente à l'infini.

Il n'existe pas toujours d'espérance pour une variable aléatoire. En particulier les distributions à longue traine comme la distribution de Cauchy, produisent des intégrales non convergentes et donc des espérances non définies.

L'espérance est une caractéristique importante d'une loi de probabilité : c'est un indicateur de position. Ainsi, une variable aléatoire est dite centrée si son espérance est nulle. Elle forme, avec la variance, indicateur de dispersion, l'ensemble des indicateurs qui sont presque systématiquement donnés quand est présentée une variable aléatoire.

L'espérance joue un rôle important dans un grand nombre de domaines, comme dans la théorie des jeux pour minimiser les risques, en théorie du signal ou en statistique inférentielle où un estimateur est dit sans biais si son espérance est égale à la valeur du paramètre à estimer.

La notion d'espérance est popularisé par Christian Huygens dans son Traité du hasard de 1656 sous le nom de « valeur de la chance ».

Motivations

La notion d' espérance prend forme au XVIIe siècle en théorie des jeux[réf. nécessaire]. Il s'agit de savoir quelle somme on peut espérer gagner dans un jeu de hasard. Ainsi Blaise Pascal, dans son problème des partis, cherche à savoir comment répartir les mises quand le jeu s'interrompt en cours de partie1 . Il imagine ainsi un jeu de pile ou face et un pot commun de 64 pistoles, le premier joueur à voir apparaître trois fois la face qu'il a choisie remporte la mise. Si le jeu s'interrompt à un moment où chacun des deux joueurs a la même chance de gagner, il est équitable de répartir les 64 pistoles à parts égales entre chaque joueur, mais si la partie s'interrompt alors qu'un des joueurs a pris un avantage, la répartition doit se faire autrement. Pascal imagine ainsi que le jeu s'interrompt alors que le lancer de dé est PPF. Il envisage alors ce qu'aurait été le coup suivant :

   si le coup suivant avait été P, le joueur ayant misé sur P aurait tout remporté et gagné 64 pistoles ;
   si le coup suivant avait été F, la partie aurait été équitable et l'interruption du jeu aurait conduit à distribuer 32 pistoles à chaque joueur.

Pour Pascal, le joueur ayant misé sur P doit obtenir 32 pistoles à coup sûr mais a une chance sur 2 de gagner 32 pistoles supplémentaires. Il doit donc récupérer 48 pistoles.

Pascal ne parle pas de probabilité ni d'espérance de gain mais son idée intuitive reste d'associer un gain à une chance de l'obtenir2. Les 48 pistoles que Pascal propose de donner au joueur ayant misé sur P correspondent de fait à son espérance de gain : si la partie s'arrête au quatrième coup, ce joueur a une chance sur 2 de gagner 64 pistoles (si la pièce tombe sur P) et une chance sur 2 de gagner seulement 32 pistoles (si la pièce tombe sur F et que le jeu s'interrompt). Son espérance de gain est alors de S = 64 × 1 2 + 32 × 1 2 {\displaystyle S=64\times {\frac {1}{2}}+32\times {\frac {1}{2}}} S=64\times {\frac 12}+32\times {\frac 12} (on multiplie chaque gain par la probabilité de l'obtenir puis on fait la somme de tous ces produits).

Christian Huygens, quant à lui, dans son Du calcul dans les jeux de hasard de 16573 s’intéresse à la somme à miser pour que le jeu soit équitable. Il établit que, si dans un jeu, on a p chances de gagner la somme a pour q chances de gagner la somme b, il faut miser : S = a p + b q p + q {\displaystyle S={\frac {ap+bq}{p+q}}} S=\frac{ap+bq}{p+q} pour que le jeu soit équitable. Il formalise ainsi la notion d'espérance, qu'il nomme la valeur de ma chance et l'étend à d'autres domaines que la théorie des jeux. En particulier, avec son frère, il s'intéresse à l'espérance de vie 4.
Illustration de la convergence vers 3,5 de la suite des moyennes obtenues pour des lancers de dés quand le nombre de lancers (trials) augmente.

L'espérance est fortement liée à l'idée de moyenne. En effet, la notion de hasard empêche de prédire le résultat d'une seule expérience aléatoire mais la loi des grands nombres permet de mieux maitriser le résultat si on exécute un grand nombre d'expériences aléatoires de même type. Ainsi, au cours d'un seul lancer de dé, chaque face a normalement une chance sur 6 d'apparaître et il est difficile de prédire le résultat moyen sur trois lancers de dé. Mais, en renouvelant mille fois ou dix mille fois le lancer, les résultats se répartissent presque équitablement entre les différents nombres de 1 à 6. La moyenne des nombres obtenus au cours de ces nombreux lancers s'approche alors de m = 1 ⋅ 1 6 + 2 ⋅ 1 6 + 3 ⋅ 1 6 + 4 ⋅ 1 6 + 5 ⋅ 1 6 + 6 ⋅ 1 6 = 3 , 5. {\displaystyle m=1\cdot {\frac {1}{6}}+2\cdot {\frac {1}{6}}+3\cdot {\frac {1}{6}}+4\cdot {\frac {1}{6}}+5\cdot {\frac {1}{6}}+6\cdot {\frac {1}{6}}=3,5.} m=1\cdot {\frac 16}+2\cdot {\frac 16}+3\cdot {\frac 16}+4\cdot {\frac 16}+5\cdot {\frac 16}+6\cdot {\frac 16}=3,5.qui correspond à l'espérance de cette expérience de lancer de dé. L'espérance sert donc à prévoir la valeur moyenne obtenue pour la variable que l'on mesure si l'expérience est renouvelée un très grand nombre de fois. Elle sert donc, en théorie des jeux, à l'organisateur qui peut ainsi prévoir la somme moyenne qu'il remporte pour chaque joueur, mais aussi dans le domaine des assurances pour déterminer le coût moyen d'une assurance permettant de couvrir les frais dus aux accidents.

L'espérance et la loi des grands nombres permettent aussi d'invalider une loi de probabilité. On raconte qu'Henri Poincaré s'en serait servi, avec d'autres indices, pour mettre en évidence la malhonnêteté de son boulanger5. En effet, le poids d'un pain est soumis à des fluctuations aléatoires mais son espérance est fixée par la loi. Le poids d'un pain annoncé à 1 kg, par exemple, peut fluctuer autour de cette valeur. Poincaré aurait pesé sur une grande période le pain acheté chez son boulanger et aurait trouvé que son poids moyen était largement inférieur à 1 kg. Cette moyenne était trop loin de l'espérance et indiquait une malversation du commerçant.
Définition
Variable discrète prenant un nombre fini de valeurs

Si la variable X prend les valeurs x1, x2, ... , xn avec les probabilités p1, p2, ... , pn, l'espérance de X est définie comme : E [ X ] = x 1 p 1 + x 2 p 2 + ⋯ + x n p n . {\displaystyle \mathbb {E} [X]=x_{1}p_{1}+x_{2}p_{2}+\dotsb +x_{n}p_{n}\;.} \mathbb{E}[X] = x_1p_1 + x_2p_2 + \dotsb + x_np_n \;.

Comme la somme des probabilités est égale à un, l'espérance peut être considérée comme la moyenne des xi pondérée par les pi E [ X ] = x 1 p 1 + x 2 p 2 + ⋯ + x n p n p 1 + p 2 + ⋯ + p n . {\displaystyle \mathbb {E} [X]={\frac {x_{1}p_{1}+x_{2}p_{2}+\dotsb +x_{n}p_{n}}{p_{1}+p_{2}+\dotsb +p_{n}}}\;.} {\displaystyle \mathbb {E} [X]={\frac {x_{1}p_{1}+x_{2}p_{2}+\dotsb +x_{n}p_{n}}{p_{1}+p_{2}+\dotsb +p_{n}}}\;.}

Exemple : Le jeu de la roulette française consiste à lancer une petite balle sur une roulette contenant 37 cases. Un joueur mise une certaine somme M sur une des cases. Si la balle s'arrête dans sa case, on lui rembourse 36 fois sa mise (son gain est alors de 35M =36M - M) , sinon il perd sa mise (son gain est alors de -M = 0 - M). Son espérance de gain est alors de : E [ Gain M ] = − M ⋅ 36 37   + 35 M ⋅ 1 37 ≈ − 0 , 027 M . {\displaystyle \mathbb {E} [\,{\text{Gain}}_{M}]=-M\cdot {\frac {36}{37}}\ +35M\cdot {\frac {1}{37}}\approx -0,027M.} {\mathbb {E}}[\,{\text{Gain}}_{M}]=-M\cdot {\frac {36}{37}}\ +35M\cdot {\frac {1}{37}}\approx -0,027M. Ce résultat signifie qu'en moyenne, le joueur perd 2,7% de sa mise à chaque jeu et inversement que le casino gagne en moyenne 2,7% de la mise de chaque joueur. Le nombre de joueurs dans un casino est suffisamment important pour que cette espérance corresponde effectivement au gain moyen par joueur pour le casino.

En théorie des jeux, une espérance nulle correspond à un jeu équitable.
Variable discrète prenant un ensemble dénombrable de valeurs

Si la variable X prend une infinité dénombrable de valeurs x1, x2,..., avec les probabilités p1, p2,..., l'espérance de X est définie comme E [ X ] = ∑ i = 1 ∞ x i p i , {\displaystyle \mathbb {E} [X]=\sum _{i=1}^{\infty }x_{i}\,p_{i},} \mathbb{E}[X] = \sum_{i=1}^\infty x_i\, p_i, à condition que cette somme soit absolument convergente. Ainsi la série qui prendrait les valeurs 1, -2, 3, -4 ,... avec les probabilités c⁄12, c⁄22, c⁄32, c⁄42, ..., où c = 6⁄π2 est choisi de telle sorte que la somme des probabilité donne un, donnerait pour somme infinie : ∑ i = 1 ∞ x i p i = c ( 1 − 1 2 + 1 3 − 1 4 + ⋯ ) . {\displaystyle \sum _{i=1}^{\infty }x_{i}\,p_{i}=c\,\left(1-{\frac {1}{2}}+{\frac {1}{3}}-{\frac {1}{4}}+\dotsb \right).} \sum _{{i=1}}^{\infty }x_{i}\,p_{i}=c\,\left(1-{\frac {1}{2}}+{\frac {1}{3}}-{\frac {1}{4}}+\dotsb \right). Cette somme converge vers ln(2) ≃ 0,69315. Cependant il serait incorrect d'en conclure que l'espérance de X serait égal à ce nombre — En fait, l'espérance de X n'existe pas car la série n'est pas absolument convergente (voir série harmonique).
Variable continue à densité

Si la variable aléatoire X admet une densité de probabilité f, son espérance est définie comme : E [ X ] = ∫ − ∞ ∞ x f ( x ) d x , {\displaystyle \mathbb {E} [X]=\int _{-\infty }^{\infty }xf(x)\,\mathrm {d} x,} \mathbb{E}[X] = \int_{-\infty}^\infty x f(x)\, \mathrm{d}x , à condition que l'intégrale soit absolument convergente.
Définition générale

La définition permet de retrouver toutes les définitions précédentes. Soit X {\displaystyle \scriptstyle X} \scriptstyle X une variable aléatoire de l'espace probabilisé ( Ω , E , P ) {\displaystyle \scriptstyle (\Omega ,\,{\mathcal {E}},\,\mathbb {P} )\,} \scriptstyle(\Omega, \, \mathcal E, \, \mathbb{P})\, vers ( R , B ( R ) ) , {\displaystyle \scriptstyle (\mathbb {R} ,\,{\mathcal {B}}(\mathbb {R} )),} \scriptstyle(\mathbb R, \, \mathcal B(\mathbb R)),. Si X {\displaystyle \scriptstyle X} \scriptstyle X est intégrable selon la mesure P , {\displaystyle \scriptstyle \mathbb {P} ,} \scriptstyle \mathbb{P}, , l'espérance de X {\displaystyle \scriptstyle X} \scriptstyle X est définie par : E ( X ) = ∫ Ω X ( ω ) P ( d ω ) = ∫ R x P X ( d x ) . {\displaystyle \mathbb {E} (X)=\int _{\Omega }X(\omega )\mathbb {P} (\mathrm {d} \omega )=\int _{\mathbb {R} }x\mathbb {P} _{X}(\mathrm {d} x).} \mathbb E(X) = \int_\Omega X(\omega) \mathbb{P}(\mathrm d\omega) = \int_{\mathbb R} x \mathbb{P}_X(\mathrm dx).
Généralisation : espérance d'une fonction d'une variable aléatoire

X {\displaystyle \scriptstyle X} \scriptstyle X étant une variable aléatoire non nécessairement réelle, donc à valeur dans un espace mesurable ( F , F ) {\displaystyle \scriptstyle (F,\,{\mathcal {F}})} \scriptstyle(F, \, \mathcal F) général, une fonction φ {\displaystyle \scriptstyle \varphi } \scriptstyle \varphi mesurable de ( F , F ) {\displaystyle \scriptstyle (F,\,{\mathcal {F}})} \scriptstyle(F, \, \mathcal F) dans ( R , B ( R ) ) {\displaystyle \scriptstyle (\mathbb {R} ,\,{\mathcal {B}}(\mathbb {R} ))} \scriptstyle(\mathbb R, \, \mathcal B(\mathbb R)) définit une nouvelle variable aléatoire réelle φ ∘ X {\displaystyle \scriptstyle \varphi \circ X} \scriptstyle \varphi \circ X notée φ ( X ) {\displaystyle \scriptstyle \varphi (X)} \scriptstyle \varphi(X) dont l'espérance, lorsqu'elle existe, s'écrit en remplaçant x {\displaystyle \scriptstyle x} \scriptstyle x par φ ( x ) {\displaystyle \scriptstyle \varphi (x)} \scriptstyle \varphi(x) dans les formules précédentes (théorème de transfert).

Son espérance est définie par :

   E ( φ ( X ) ) = ∫ Ω φ ( X ( ω ) ) P ( d ω ) = ∫ F φ ( x ) P X ( d x ) . {\displaystyle \mathbb {E} {\big (}\varphi (X){\big )}=\int _{\Omega }\varphi {\big (}X(\omega ){\big )}\mathbb {P} (\mathrm {d} \omega )=\int _{F}\varphi (x)\mathbb {P} _{X}(\mathrm {d} x).} \mathbb E \big( \varphi(X) \big) = \int_\Omega \varphi \big( X(\omega) \big) \mathbb{P}(\mathrm d \omega) = \int_F \varphi(x) \mathbb{P}_X(\mathrm dx).

   Si X {\displaystyle \scriptstyle X} \scriptstyle X est une variable aléatoire absolument continue, de densité de probabilité f X {\displaystyle \scriptstyle f_{X}} \scriptstyle f_{X} par rapport à une mesure σ {\displaystyle \sigma } \sigma -finie μ {\displaystyle \mu } \mu sur ( F , F ) {\displaystyle \scriptstyle (F,\,{\mathcal {F}})} \scriptstyle(F, \, \mathcal F), alors :

   E ( φ ( X ) ) = ∫ F φ ( x ) f X ( x ) μ ( d x ) . {\displaystyle \mathbb {E} {\big (}\varphi (X){\big )}=\int _{F}\varphi (x)f_{X}(x)\mu (\mathrm {d} x).} \mathbb E \big( \varphi(X) \big) = \int_F \varphi(x) f_X(x) \mu(\mathrm dx).

   Si X {\displaystyle \scriptstyle X} \scriptstyle X est une variable aléatoire discrète à valeurs dans un ensemble dénombrable S ⊂ F {\displaystyle \scriptstyle S\subset F} \scriptstyle S \subset F, alors :

   E ( φ ( X ) ) = ∑ x ∈ S φ ( x ) P X ( { x } ) . {\displaystyle \mathbb {E} {\big (}\varphi (X){\big )}=\sum _{x\in S}\varphi (x)\mathbb {P} _{X}(\{x\}).} \mathbb E \big( \varphi(X) \big) = \sum_{x \in S} \varphi(x) \mathbb{P}_X(\{x\}).

C'est notamment le cas quand S {\displaystyle \scriptstyle S} \scriptstyle S est fini. En notant ses valeurs x 1 , … , x n {\displaystyle \scriptstyle x_{1},\,\dots ,\,x_{n}} \scriptstyle x_1, \, \dots, \, x_n et p 1 , … , p n {\displaystyle \scriptstyle p_{1},\,\dots ,\,p_{n}} \scriptstyle p_1, \, \dots, \, p_n les probabilités correspondantes, l'espérance devient :

   E ( φ ( X ) ) = ∑ i = 1 n φ ( x i ) p i . {\displaystyle \mathbb {E} {\big (}\varphi (X){\big )}=\sum _{i=1}^{n}\varphi (x_{i})p_{i}.} \mathbb E \big( \varphi(X) \big) = \sum_{i = 1}^n \varphi(x_i) p_i.

En particulier, il est intéressant de considérer la variable aléatoire à valeurs complexes φ ( X ) = e i θ X {\displaystyle \scriptstyle \varphi (X)=e^{i\theta X}} \scriptstyle \varphi(X) = e^{i \theta X} (où θ {\displaystyle \theta } \theta est un réel) dont l'espérance mathématique est la transformée de Fourier inverse de f X {\displaystyle \scriptstyle f_{X}} \scriptstyle f_{X} (dans le cas où F = R {\displaystyle \scriptstyle F=\mathbb {R} } \scriptstyle F = \R) :

   ϕ X ( θ ) = E ( e i θ X ) . {\displaystyle \phi _{X}(\theta )=\mathbb {E} \left(e^{i\theta X}\right).} \phi_X(\theta) = \mathbb E \left( e^{i \theta X} \right).

Il s'agit de la fonction caractéristique d'une variable aléatoire. L'exponentielle se développe en série de Taylor :

   ϕ X ( θ ) = E ( ∑ k = 0 ∞ ( i θ X ) k k ! ) = ∑ k = 0 ∞ ( i θ ) k k ! E ( X k ) . {\displaystyle \phi _{X}(\theta )=\mathbb {E} \left(\sum _{k=0}^{\infty }{\frac {(i\theta X)^{k}}{k!}}\right)=\sum _{k=0}^{\infty }{\frac {(i\theta )^{k}}{k!}}\mathbb {E} \left(X^{k}\right).} \phi_X(\theta) = \mathbb E \left(\sum_{k = 0}^\infty \frac{(i \theta X)^k}{k!} \right) = \sum_{k = 0}^\infty \frac{(i \theta)^k}{k!} \mathbb E \left( X^k \right).

Propriétés
Propriétés élémentaires

   L'espérance d'une variable aléatoire constante est égale à cette constante ; par exemple, si b {\displaystyle b} b est une constante, alors E ( b ) = b {\displaystyle \scriptstyle \mathbb {E} (b)=b} \scriptstyle\mathbb E(b)=b.
   Monotonie : si X {\displaystyle \scriptstyle X} \scriptstyle X et Y {\displaystyle \scriptstyle Y} \scriptstyle Y sont des variables aléatoires telles que X ≤ Y {\displaystyle \scriptstyle X\leq Y} \scriptstyle X \le Y presque sûrement, alors E ( X ) ≤ E ( Y ) {\displaystyle \scriptstyle \mathbb {E} (X)\leq \mathbb {E} (Y)} \scriptstyle\mathbb E(X)\le\mathbb E(Y).
   Linéarité : l'espérance est un opérateur linéaire. Pour deux variables aléatoires quelconques X {\displaystyle \scriptstyle X} \scriptstyle X et Y {\displaystyle \scriptstyle Y} \scriptstyle Y (qui doivent être définies sur le même espace probabilisé) et pour deux nombres réels a {\displaystyle \scriptstyle a} \scriptstyle a et b {\displaystyle \scriptstyle b} \scriptstyle b :

   E ( a X + b Y ) = a E ( X ) + b E ( Y ) {\displaystyle \mathbb {E} (aX+bY)=a\mathbb {E} (X)+b\mathbb {E} (Y)} \mathbb E(aX+bY)=a\mathbb E(X)+b\mathbb E(Y)

   Produit : en général, l'opérateur espérance ne respecte pas le produit, c'est-à-dire qu'en général E ( X Y ) ≠ E ( X ) E ( Y ) {\displaystyle \scriptstyle \mathbb {E} (XY)\neq \mathbb {E} (X)\mathbb {E} (Y)} \scriptstyle\mathbb E(X Y)\ne\mathbb E(X)\mathbb E(Y). L'égalité est vraie pour des variables X {\displaystyle X} X et Y {\displaystyle Y} Y indépendantes. L'absence de la multiplicativité amène à étudier les covariances et corrélation.

Cas d'une variable aléatoire positive

Si X est une variable aléatoire positive ou nulle, alors

   E ( X ) = ∫ 0 + ∞ P ( X ≥ x ) d x = ∫ 0 + ∞ P ( X > x ) d x . {\displaystyle \mathbb {E} (X)=\int _{0}^{+\infty }\mathbb {P} (X\geq x)dx=\int _{0}^{+\infty }\mathbb {P} (X>x)dx.} \mathbb E(X)=\int_0^{+\infty}\mathbb P(X\ge x)dx=\int_0^{+\infty}\mathbb P(X> x)dx.

Plus généralement, si φ {\displaystyle \scriptstyle \varphi } \scriptstyle \varphi est positive, continument dérivable, croissante sur R + , {\displaystyle \scriptstyle \mathbb {R} _{+},} \scriptstyle \mathbb R_+, et si φ ( 0 ) = 0 , {\displaystyle \scriptstyle \varphi (0)=0,} \scriptstyle \varphi(0)=0, on a

   E [ φ ( X ) ] = ∫ 0 + ∞ φ ′ ( x ) P ( X ≥ x ) d x = ∫ 0 + ∞ φ ′ ( x ) P ( X > x ) d x . {\displaystyle \mathbb {E} [\varphi (X)]=\int _{0}^{+\infty }\varphi ^{\prime }(x)\mathbb {P} (X\geq x)dx=\int _{0}^{+\infty }\varphi ^{\prime }(x)\mathbb {P} (X>x)dx.} \mathbb E[\varphi(X)]=\int_0^{+\infty}\varphi^{\prime}(x)\mathbb P(X\ge x)dx=\int_0^{+\infty}\varphi^{\prime}(x)\mathbb P(X> x)dx.

Un cas particulier important est celui des moments de X : pour α > 0 , {\displaystyle \scriptstyle \alpha >0,} \scriptstyle \alpha>0,

   E [ X α ] = ∫ 0 + ∞ α x α − 1 P ( X ≥ x ) d x , {\displaystyle \mathbb {E} [X^{\alpha }]=\int _{0}^{+\infty }\alpha x^{\alpha -1}\mathbb {P} (X\geq x)dx,} \mathbb E[X^{\alpha}]=\int_0^{+\infty}\alpha x^{\alpha-1}\mathbb P(X\ge x)dx,

la première égalité étant l'instance α = 1 {\displaystyle \scriptstyle \alpha =1} \scriptstyle \alpha=1 de l'égalité précédente. Dans le cas d'une variable aléatoire à valeurs entières, ces formules se réécrivent, après un petit calcul intermédiaire, respectivement :

   E [ X ] = ∑ k ≥ 1 P ( X ≥ k ) , et E [ X α ] = ∑ k ≥ 1 ( k α − ( k − 1 ) α ) P ( X ≥ k ) . {\displaystyle \mathbb {E} [X]=\sum _{k\geq 1}\mathbb {P} (X\geq k),\quad {\textrm {et}}\quad \mathbb {E} [X^{\alpha }]=\sum _{k\geq 1}(k^{\alpha }-(k-1)^{\alpha })\mathbb {P} (X\geq k).} \mathbb E[X]=\sum_{k\ge 1}\mathbb P(X\ge k),\quad\textrm{et}\quad\mathbb E[X^{\alpha}]=\sum_{k\ge 1}(k^{\alpha}-(k-1)^{\alpha})\mathbb P(X\ge k).

[afficher]
Démonstration
Loi de l'espérance itérée

   Pour une variable aléatoire discrète : Pour deux variables aléatoires X , Y {\displaystyle X,Y} X,Y, on peut définir l'espérance conditionnelle

Définition —  E ( X | Y ) ( y ) ≡ E ( X | Y = y ) ≡ ∑ x x ⋅ P ( X = x | Y = y ) . {\displaystyle \mathbb {E} (X|Y)(y)\equiv \mathbb {E} (X|Y=y)\equiv \sum \limits _{x}x\cdot \mathbb {P} (X=x|Y=y).} \mathbb E(X|Y)(y)\equiv\mathbb E(X|Y=y)\equiv \sum\limits_xx\cdot\mathbb{P}(X=x|Y=y).

qui signifie que E ( X | Y ) ( y ) {\displaystyle \mathbb {E} (X|Y)(y)} \mathbb E(X|Y)(y) est une fonction de y (en fait une variable aléatoire). L'espérance itérée vérifie

Propriété —  E ( E ( X | Y ) ) = E ( X ) {\displaystyle \mathbb {E} \left(\mathbb {E} (X|Y)\right)=\mathbb {E} (X)} \mathbb E\left(\mathbb E(X|Y)\right)=\mathbb E(X)
[afficher]
Démonstration

   Pour une variable continue : dans le cas continu, les résultats sont analogues. Dans ce cas-ci, on utilise la densité de probabilité et les intégrales à la place de la distribution et des sommes. En tout cas, le résultat reste valable:

   E ( X ) = E ( E ( X | Y ) ) . {\displaystyle \mathbb {E} (X)=\mathbb {E} \left(\mathbb {E} (X|Y)\right).} \mathbb E(X)=\mathbb E\left(\mathbb E(X|Y)\right).

Espérance d'une fonctionnelle

En général, l'opérateur espérance ne respecte pas les fonctions de variable aléatoire, c'est-à-dire qu'en général :

   E ( g ( X ) ) = ∫ Ω g ( X ) d P ≠ g ( E ( X ) ) . {\displaystyle \mathbb {E} (g(X))=\int _{\Omega }g(X)\,\mathrm {d} \mathbb {P} \neq g(\mathbb {E} (X)).} \mathbb E(g(X))=\int_\Omega g(X)\, \mathrm d\mathbb{P}\ne g(\mathbb E(X)).

Une inégalité célèbre à ce propos est l'inégalité de Jensen pour des fonctions convexes (ou concaves).
Estimation

On utilise souvent comme estimateur de l'espérance la moyenne empirique, qui est un estimateur:

   Sans biais
   Convergent selon la loi des grands nombres et même fortement convergent selon la loi forte des grands nombres
   Distribué normalement asymptotiquement selon le théorème central limite

Caractère central

On considère fréquemment l'espérance comme le centre de la variable aléatoire, c'est-à-dire la valeur autour de laquelle se dispersent les autres valeurs.

En particulier, si X et 2a - X ont même loi de probabilité, c'est-à-dire si la loi de probabilité est symétrique par rapport à a, et si X admet une espérance, alors E(X) = a.

Mais ce point de vue n'est plus valable lorsque la loi est dissymétrique. Pour s'en persuader il suffit d'étudier le cas d'une loi géométrique, une loi particulièrement dissymétrique. Si X représente le nombre de lancers nécessaires pour obtenir le chiffre 1 avec un dé cubique, on démontre que E(X) = 6 ce qui veut dire qu'il faut en moyenne 6 lancers pour obtenir le chiffre 1. Pourtant, la probabilité que 5 essais ou moins suffisent vaut près de 0,6 et la probabilité que 7 lancers ou plus soient nécessaires est de 0,33. Les valeurs de X ne se répartissent donc pas équitablement de part et d'autre de l'espérance.
Interprétation et applications
Espérance mathématique et choix rationnel

Dans certains cas, les indications de l'espérance mathématique ne coïncident pas avec un choix rationnel. Imaginons par exemple qu'on vous fasse la proposition suivante : si vous arrivez à faire un double six avec deux dés, vous gagnez un million d'euros, sinon vous perdez 10 000 euros. Il est probable que vous refuserez de jouer. Pourtant l'espérance de ce jeu vous est très favorable : la probabilité de tirer un double 6 est de 1/36 ; on obtient donc :

   1 000 000 36 − 10 000 × 35 36 = 18 055 {\displaystyle {\frac {1\,000\,000}{36}}-{\frac {10\,000\times 35}{36}}=18\,055} \frac{1\,000\,000}{36} - \frac{10\,000 \times 35}{36} = 18\,055

à chaque partie vous gagnez en moyenne 18 000 euros.

Le problème tient justement sur ce « en moyenne » : si les gains sont extrêmement importants, ils n'interviennent que relativement rarement, et pour avoir une garantie raisonnable de ne pas finir ruiné, il faut donc avoir suffisamment d'argent pour participer à un grand nombre de parties. Si les mises sont trop importantes pour permettre un grand nombre de parties, le critère de l'espérance mathématique n'est donc pas approprié.
Incidence de la prime de risque

Ce sont ces considérations et de risque de ruine qui conduisirent, à partir de son « paradoxe de Saint Petersbourg », le mathématicien Daniel Bernoulli à introduire en 1738 l'idée d'aversion au risque qui conduit à assortir l'espérance mathématique d'une prime de risque pour son application dans les questions de choix.
Applications particulières (économie, assurance, finance, jeux)

   La notion de prime de risque appliquée à l'espérance mathématique fut en économie à l'origine du concept d'utilité (et d'utilité dite « marginale »).
   les primes d'assurance sont d'un coût supérieur à l'espérance mathématique de perte du souscripteur du contrat. Mais c'est ce risque de forte perte en cas d'évènement rare qui l'incite à le souscrire.
   L'espérance mathématique, comme d'autres concepts probabilistes, est utilisée dans les calculs d'évaluation en finance, par exemple pour l'évaluation d'entreprise.
   La finance comportementale aborde, entre autres, les aspects émotionnels et cognitifs, qui vont au-delà de la simple prime de risque, et qui peuvent interférer avec le concept rationnel d'espérance mathématique à l'heure du choix.
   De même que l'on paye une prime pour éviter le risque avec les assurances, on paie au contraire un accès au risque dans les jeux de hasard (qui rapportent toujours moins que leur espérance mathématique, puisqu'ils doivent s'autofinancer).

Notion d'utilité probabiliste

Plutôt que de passer par une notion de prime, on peut directement établir une fonction d'utilité, associant à tout couple {gain, probabilité} une valeur. L'espérance mathématique constitue alors la plus simple des fonctions d'utilité, appropriée dans le cas d'un joueur neutre au risque disposant de ressources au moins très grandes à défaut d'infinies.

Émile Borel adopta cette notion d'utilité pour expliquer qu'un joueur ayant peu de ressources choisisse rationnellement de prendre un billet de loterie chaque semaine : la perte correspondante n'est en effet pour lui que quantitative, tandis que le gain – si gain il y a – sera qualitatif, sa vie entière en étant changée. Une chance sur un million de gagner un million peut donc valoir dans ce cas précis bien davantage qu'un euro.
Notes et références

   ↑ Lettre de Pascal à Fermat du 29 juillet 1654, citée et analysée dans Pascal, Fermat et la géométrie du hasard [archive] [PDF], Nicolas Trotignon, 1er juin 1998, « La méthode pas à pas », pp. 5-6.
   ↑ Nicolas Trotignon, Pascal, Fermat et la géométrie du hasard [archive] [PDF], 1er juin 1998, p. 17.
   ↑ Christiaan Huygens, Œuvres complètes. Tome XIV. Probabilités. Travaux de mathématiques pures, 1655-1666 (ed. D.J. Korteweg). Martinus Nijhoff, Den Haag 1920, Van rekeningh in spelen van geluck/Du calcul dans les jeux de hasard, 1656-1657 [archive].
   ↑ Jean-Marc Rohrbasser et Jacques Véron, « Les frères Huygens et le «calcul des aages» : l'argument du pari équitable », Population, vol. 54, no 6,‎ 199, p. 993-1011 (lire en ligne [archive]).
   ↑ Alex Bellos, Alex au pays des chiffres, p. 389 [archive].

Voir aussi
Articles connexes

   Inégalité de Bienaymé-Tchebychev
   Moment
   Formule de Wald

Liens externes
Probabilités adaptées à la finance [archive] : article sur l'espérance et exemple simple, sur le site gestion-des-risques-conseil.fr

Réflexions et méditations
TAY
La chouette effraie

l'espérance des mathématiques se doit d'être élaborer sur le concept qui lie le moteur immobile
et le rien: le souffle de l'essence... La Force
de Monsieur Tignard Yanis

King Crimson - Larks' Tongues In Aspic, Part Two - 1973
https://www.youtube.com/watch?v=vy3UiXb2uDQ
Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.atelier-yannistignard.com
yanis la chouette



Nombre de messages : 7726
Localisation : http://yanis.tignard.free.fr/
Date d'inscription : 09/11/2005

MessageSujet: Re: La Délivrance de l'Espérance, Prométhée et Y'becca   Mer 1 Mar à 3:26

En mathématiques, un estimateur est une statistique permettant d'évaluer un paramètre inconnu relatif à une loi de probabilité (comme son espérance ou sa variance). Il peut par exemple servir à estimer certaines caractéristiques d'une population totale à partir de données obtenues sur un échantillon comme lors d'un sondage. La définition et l'utilisation de tels estimateurs constitue la statistique inférentielle.

La qualité des estimateurs s'exprime par leur convergence, leur biais, leur efficacité et leur robustesse. Diverses méthodes permettent d'obtenir des estimateurs de qualités différentes.

Illustrations de la notion

Si l'on cherche à évaluer la taille moyenne des enfants de 10 ans, on peut effectuer un sondage sur un échantillon de la population des enfants de 10 ans (par exemple en s'adressant à des écoles réparties dans plusieurs milieux différents). La taille moyenne calculée sur cet échantillon, appelée moyenne empirique, sera un estimateur de la taille moyenne des enfants de 10 ans.

Si l'on cherche à évaluer la surface totale occupée par la jachère dans un pays donné, on peut effectuer un sondage sur plusieurs portions du territoire de même taille, calculer la surface moyenne occupée par la jachère et appliquer une règle de proportionnalité.

Si l'on cherche à déterminer le pourcentage d'électeurs décidés à voter pour le candidat A, on peut effectuer un sondage sur un échantillon représentatif. Le pourcentage de votes favorables à A dans l'échantillon est un estimateur du pourcentage d'électeurs décidés à voter pour A dans la population totale.

Si l'on cherche à évaluer la population totale de poissons dans un lac, on peut commencer par ramasser n poissons, les baguer pour pouvoir les identifier ultérieurement, les relâcher, les laisser se mélanger aux autres poissons. On tire alors un échantillon de poissons du lac, on calcule la proportion p de poissons bagués. La valeur n/p est un estimateur de la population totale de poissons dans le lac. S'il n'y a aucun poisson bagué dans l'échantillon, on procède à un autre tirage.

Un estimateur est très souvent une moyenne, une population totale, une proportion ou une variance.
Définition formelle
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue !

Un estimateur du paramètre inconnu θ {\displaystyle \theta } \theta d'un modèle ou loi de probabilité est une fonction qui fait correspondre à une suite d'observations x 1 {\displaystyle x_{1}} x_{1}, x 2 {\displaystyle x_{2}} x_{2}..., x n {\displaystyle x_{n}} x_{n} issues du modèle ou de la loi de probabilité, la valeur θ ^ {\displaystyle {\hat {\theta }}} {\hat \theta } que l'on nomme estimé ou estimation.

Définition — θ ^ n = f ( x 1 , x 2 , . . . , x n ) {\displaystyle {\hat {\theta }}_{n}=f(x_{1},x_{2},...,x_{n})} {\hat \theta }_{n}=f(x_{1},x_{2},...,x_{n})

Un estimateur ne doit évidemment jamais dépendre de θ {\displaystyle \theta } \theta , il ne dépend que des observations empiriques.
Qualité d'un estimateur

Un estimateur est une valeur θ ^ {\displaystyle {\hat {\theta }}} {\hat \theta } calculée sur un échantillon tiré au hasard, la valeur θ ^ {\displaystyle {\hat {\theta }}} {\hat \theta } est donc une variable aléatoire possédant une espérance E ( θ ^ ) {\displaystyle E({\hat {\theta }})} E({\hat \theta }) et une variance Var ⁡ ( θ ^ ) {\displaystyle \operatorname {Var} ({\hat {\theta }})} \operatorname {Var}({\hat \theta }). On comprend alors que sa valeur puisse fluctuer selon l'échantillon. Elle a de très faibles chances de coïncider exactement avec la valeur θ {\displaystyle \theta } \theta qu'elle est censée représenter. L'objectif est donc de maîtriser l'erreur commise en prenant la valeur de θ ^ {\displaystyle {\hat {\theta }}} {\hat \theta } pour celle de θ {\displaystyle \theta } \theta .
Biais
Article détaillé : Biais (statistique).

Une variable aléatoire fluctue autour de son espérance. On peut donc souhaiter que l'espérance de θ ^ {\displaystyle {\hat {\theta }}} {\hat \theta } soit égale à θ {\displaystyle \theta } \theta , soit qu'en "moyenne" l'estimateur ne se trompe pas.

Définition — Biais ⁡ ( θ ^ ) ≡ E [ θ ^ ] − θ {\displaystyle \operatorname {Biais} ({\hat {\theta }})\equiv \mathbb {E} [{\hat {\theta }}]-\theta } \operatorname {Biais}({\hat \theta })\equiv {\mathbb {E}}[{\hat \theta }]-\theta

Lorsque l'espérance E ( θ ^ ) {\displaystyle \mathbb {E} ({\hat {\theta }})} {\mathbb {E}}({\hat \theta }) de l'estimateur égale θ {\displaystyle \theta } \theta , i.e. le biais est égal à zéro, l'estimateur est dit sans biais.

L'estimateur choisi précédemment sur la taille moyenne des enfants de 10 ans est un estimateur sans biais mais celui des poissons comporte un biais: le nombre de poissons estimé est en moyenne supérieur au nombre de poissons réels.

Dans son ouvrage Dynamic programming, Richard Bellman s'en prend violemment à la recherche trop systématique des estimateurs sans biais en rappelant à l'aide d'exemples que des estimateurs avec biais ont dans plusieurs cas une convergence plus rapide, et donc une efficacité pratique bien plus grande.
Erreur quadratique moyenne
Article détaillé : Erreur quadratique moyenne.

L'erreur quadratique moyenne (Mean Squared Error en anglais) est l'espérance du carré de l'erreur entre la vraie valeur et sa valeur estimée.

Définition — MSE ⁡ ( θ ^ ) ≡ E ( ( θ ^ − θ ) 2 ) . {\displaystyle \operatorname {MSE} ({\hat {\theta }})\equiv \mathbb {E} \left(({\hat {\theta }}-\theta )^{2}\right).} \operatorname {MSE}({\hat {\theta }})\equiv {\mathbb {E}}\left(({\hat {\theta }}-\theta )^{2}\right).
Convergence

On souhaite aussi pouvoir, en augmentant la taille de l'échantillon, diminuer l'erreur commise en prenant θ ^ {\displaystyle {\hat {\theta }}} {\hat \theta } à la place de θ {\displaystyle \theta } \theta . Si c'est le cas, on dit que l'estimateur est convergent (on voit aussi consistant), c'est-à-dire qu'il converge vers sa vraie valeur. La définition précise en mathématique est la suivante :

Définition — L'estimateur θ ^ n {\displaystyle {\hat {\theta }}_{n}} {\hat \theta }_{n} est convergent s'il converge en probabilité vers θ {\displaystyle \theta } \theta , soit: lim n → ∞ P ( | θ ^ n − θ | > ϵ ) = 0 ∀ ϵ > 0 {\displaystyle \lim _{n\to \infty }\mathbb {P} (|{\hat {\theta }}_{n}-\theta |>\epsilon )=0\qquad \forall \,\epsilon >0} \lim _{{n\to \infty }}{\mathbb {P}}(|{\hat \theta }_{n}-\theta |>\epsilon )=0\qquad \forall \,\epsilon >0.

On l'interprète comme le fait que la probabilité de s'éloigner de la valeur à estimer de plus de ϵ {\displaystyle \epsilon } \epsilon tend vers 0 quand la taille de l'échantillon augmente.

Cette définition est parfois écrite de manière inverse:

Définition — L'estimateur θ ^ n {\displaystyle {\hat {\theta }}_{n}} {\hat \theta }_{n} est convergent s'il converge en probabilité vers θ {\displaystyle \theta } \theta , soit: lim n → ∞ P ( | θ ^ n − θ | ≤ ϵ ) = 1 ∀ ϵ > 0 {\displaystyle \lim _{n\to \infty }\mathbb {P} (|{\hat {\theta }}_{n}-\theta |\leq \epsilon )=1\qquad \forall \,\epsilon >0} \lim _{{n\to \infty }}{\mathbb {P}}(|{\hat \theta }_{n}-\theta |\leq \epsilon )=1\qquad \forall \,\epsilon >0.

Il existe enfin un type de convergence plus forte, la convergence presque sûre, définie ainsi pour un estimateur :

Définition — L'estimateur θ ^ n {\displaystyle {\hat {\theta }}_{n}} {\hat \theta }_{n} est fortement convergent s'il converge presque sûrement vers θ {\displaystyle \theta } \theta, soit : P ( lim n → ∞ θ ^ n = θ ) = 1 {\displaystyle \mathbb {P} \left(\lim _{n\to \infty }{\hat {\theta }}_{n}=\theta \right)=1} {\mathbb {P}}\left(\lim _{{n\to \infty }}{\hat \theta }_{n}=\theta \right)=1


Exemple : La moyenne empirique est un estimateur convergent de l'espérance d'une variable aléatoire. La loi faible des grands nombres assure que la moyenne converge en probabilité vers l'espérance et la loi forte des grands nombres qu'elle converge presque sûrement.
Taux de convergence

Dans la limite d'un échantillon infini, l'estimateur doit converger vers la valeur vraie du paramètre : lim n → ∞ θ ^ n = θ 0 {\displaystyle \lim _{n\to \infty }{\hat {\theta }}_{n}=\theta _{0}} {\displaystyle \lim _{n\to \infty }{\hat {\theta }}_{n}=\theta _{0}}. Rigoureusement, il s'agit d'une convergence en probabilité, soit: ∀ ε > 0 , lim n → ∞ P ( | θ ^ n − θ 0 | ⩽ ε ) = 1. {\displaystyle \forall \varepsilon >0,\lim _{n\to \infty }P(|{\hat {\theta }}_{n}-\theta _{0}|\leqslant \varepsilon )=1.} {\displaystyle \forall \varepsilon >0,\lim _{n\to \infty }P(|{\hat {\theta }}_{n}-\theta _{0}|\leqslant \varepsilon )=1.}
Efficacité

La variable aléatoire fluctue autour de son espérance. Plus la variance Var ⁡ ( θ ^ ) {\displaystyle \operatorname {Var} ({\hat {\theta }})} \operatorname {Var}({\hat {\theta }}) est faible, moins les variations sont importantes. On cherche donc à ce que la variance soit la plus faible possible. C'est ce qu'on appelle l’efficacité d'un estimateur.
Robustesse
Article détaillé : Robustesse (Statistiques).

Il arrive que lors d'un sondage, une valeur extrême et rare apparaisse (par exemple un enfant de 10 ans mesurant 1,80 m). On cherche à ce que ce genre de valeur ne change que de manière très faible la valeur de l'estimateur. On dit alors que l'estimateur est robuste.

Exemple: En reprenant l'exemple de l'enfant, la moyenne n'est pas un estimateur robuste car ajouter l'enfant très grand modifiera beaucoup la valeur de l'estimateur. La médiane par contre n'est pas modifiée dans un tel cas.
Estimateurs classiques

On se placera dans le cas simple d'un tirage aléatoire de n individus dans une population en comportant N. On s'intéresse au caractère quantitatif Y de moyenne Y ¯ {\displaystyle {\overline {Y}}} \overline Y et de variance V(Y). Dans l'échantillon tiré, le caractère quantitatif est y, sa moyenne est y ¯ {\displaystyle {\overline {y}}} \overline y et sa variance est σ 2 = 1 n ∑ i = 1 n ( y i − y ¯ ) 2 {\displaystyle \sigma ^{2}={\frac {1}{n}}\sum _{i=1}^{n}(y_{i}-{\overline {y}})^{2}} \sigma ^{2}={\frac {1}{n}}\sum _{{i=1}}^{n}(y_{i}-\overline y)^{2}. Les valeurs y ¯ {\displaystyle {\overline {y}}} \overline y et σ 2 {\displaystyle \sigma ^{2}} \sigma ^{2} varient selon l'échantillon et sont donc des variables aléatoires possédant chacune une espérance, une variance et un écart type.
Estimateur de la moyenne de Y

On prend en général comme estimateur de Y ¯ {\displaystyle {\overline {Y}}} \overline Y la valeur

y ¯ = 1 n ∑ i = 1 n y i {\displaystyle {\overline {y}}={\frac {1}{n}}\sum _{i=1}^{n}y_{i}} \overline y={\frac 1n}\sum _{{i=1}}^{n}y_{i}.

appelée moyenne empirique de Y. On démontre que c'est un estimateur sans biais, c’est-à-dire que E ( y ¯ ) = Y ¯ {\displaystyle E({\overline {y}})={\overline {Y}}} E(\overline y)=\overline Y
Estimateur de la variance de Y

On pourrait penser que σ 2 {\displaystyle \sigma ^{2}} \sigma ^{2} est un bon estimateur de V(Y). Cependant des calculs (voir écart type) prouvent que cet estimateur est biaisé, l'espérance de σ 2 {\displaystyle \sigma ^{2}} \sigma ^{2} est toujours inférieure à V(Y). On prouve qu'un estimateur sans biais de V(Y) est :

n n − 1 σ 2 {\displaystyle {\frac {n}{n-1}}\sigma ^{2}} {\frac {n}{n-1}}\sigma ^{2} dans le cas de tirage avec remise,
N − 1 N n n − 1 σ 2 {\displaystyle {\frac {N-1}{N}}{\frac {n}{n-1}}\sigma ^{2}} {\frac {N-1}{N}}{\frac {n}{n-1}}\sigma ^{2} dans le cas de tirage sans remise (qui vaut bien σ 2 {\displaystyle \sigma ^{2}} \sigma ^{2} lorsque n = N : l’échantillon est identique à la population, donc on mesure la variance réelle).

On peut remarquer que, pour N grand, le calcul avec remise et le calcul sans remise donnent des résultats presque équivalents. (le quotient N − 1 N {\displaystyle {\frac {N-1}{N}}} {\frac {N-1}{N}} est alors proche de 1). On prend donc en général, pour estimateur sans biais de V(Y) la valeur :

s 2 = 1 n − 1 ∑ i = 1 n ( y i − y ¯ ) 2 {\displaystyle s^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}(y_{i}-{\overline {y}})^{2}} s^{2}={\frac {1}{n-1}}\sum _{{i=1}}^{n}(y_{i}-\overline y)^{2}

appelée variance empirique sans biais de Y.
Efficacité, convergence et intervalle de confiance

La manière dont y ¯ {\displaystyle {\overline {y}}} \overline y fluctue autour de son espérance E ( Y ) {\displaystyle \mathbb {E} (Y)} {\mathbb {E}}(Y) dépend de sa variance V ( y ¯ ) {\displaystyle V({\overline {y}})} V(\overline y). Cette variance se calcule grâce à V(Y).

V ( y ¯ ) = V ( Y ) n {\displaystyle V({\overline {y}})={\frac {V(Y)}{n}}} V(\overline y)={\frac {V(Y)}{n}} dans le cas d'un tirage avec remise,
V ( y ¯ ) = N − n N − 1 V ( Y ) n {\displaystyle V({\overline {y}})={\frac {N-n}{N-1}}{\frac {V(Y)}{n}}} V(\overline y)={\frac {N-n}{N-1}}{\frac {V(Y)}{n}} dans le cas d'un tirage sans remise (qui vaut bien 0 lorsque n = N : l’échantillon est identique à la population, donc on mesure la moyenne réelle, donc l’incertitude de la mesure est nulle).

On peut remarquer que, pour N très grand devant n, les deux valeurs sont très voisines. Par la suite, on ne s'intéressera donc qu'au cas du tirage avec remise en considérant que N est très grand.

On s'aperçoit que plus n est grand, plus V ( y ¯ ) {\displaystyle V({\overline {y}})} V(\overline y) est petit. Donc, plus la taille de l'échantillon est grande, plus l'estimateur y ¯ {\displaystyle {\overline {y}}} \overline y est efficace.

L'inégalité de Bienaymé-Tchebychev précise que, pour tout réel strictement positif ϵ {\displaystyle \epsilon } \epsilon ,

P ( | y ¯ − Y ¯ | > ϵ ) ≤ V ( y ¯ ) ϵ 2 {\displaystyle \mathbb {P} \left(|{\overline {y}}-{\overline {Y}}|>\epsilon \right)\leq {\frac {V({\overline {y}})}{\epsilon ^{2}}}} {\mathbb {P}}\left(|\overline y-\overline Y|>\epsilon \right)\leq {\frac {V(\overline y)}{\epsilon ^{2}}}

donc que

P ( | y ¯ − Y ¯ | > ϵ ) ≤ V ( Y ) n ϵ 2 {\displaystyle \mathbb {P} \left(|{\overline {y}}-{\overline {Y}}|>\epsilon \right)\leq {\frac {V(Y)}{n\epsilon ^{2}}}} {\mathbb {P}}\left(|\overline y-\overline Y|>\epsilon \right)\leq {\frac {V(Y)}{n\epsilon ^{2}}}

Or V ( Y ) n ϵ 2 {\displaystyle {\frac {V(Y)}{n\epsilon ^{2}}}} {\frac {V(Y)}{n\epsilon ^{2}}} converge vers 0 quand n tend vers l'infini. Il en est de même de P ( | y ¯ − Y ¯ | > ϵ ) {\displaystyle \mathbb {P} (|{\overline {y}}-{\overline {Y}}|>\epsilon )} {\mathbb {P}}(|\overline y-\overline Y|>\epsilon ) : l'estimateur y ¯ {\displaystyle {\overline {y}}} \overline y est convergent.

Enfin, il résulte du théorème central limite que pour n relativement grand, la variable aléatoire y ¯ {\displaystyle {\overline {y}}} \overline y suit (approximativement) une loi normale d'espérance Y et de variance V ( Y ) n {\displaystyle {\frac {V(Y)}{n}}} {\frac {V(Y)}{n}}, variance que l'on peut estimer être voisine de s 2 n {\displaystyle {\frac {s^{2}}{n}}} {\frac {s^{2}}{n}}. Pour toute loi normale, dans 95 % des cas, la variable aléatoire s'éloigne de son espérance de moins de deux fois son écart type. Dans le cas du sondage, cela signifie qu'il y a 95 % de chances que l'estimateur y ¯ {\displaystyle {\overline {y}}} \overline y s'éloigne de Y ¯ {\displaystyle {\overline {Y}}} \overline Y de moins de 2 s n {\displaystyle {\frac {2s}{\sqrt {n}}}} {\frac {2s}{{\sqrt n}}}. L'intervalle [ Y ¯ − 2 σ ( Y ) n , Y ¯ + 2 σ ( Y ) n ] {\displaystyle \left[{\overline {Y}}-{\frac {2\sigma (Y)}{\sqrt {n}}},{\overline {Y}}+{\frac {2\sigma (Y)}{\sqrt {n}}}\right]} \left[\overline Y-{\frac {2\sigma (Y)}{{\sqrt n}}},\overline Y+{\frac {2\sigma (Y)}{{\sqrt n}}}\right] est appelé intervalle de confiance à 95 %. On peut remarquer que, pour diviser par 10 la longueur de l'intervalle de confiance, ce qui consiste à augmenter la précision de l'estimateur, il faut multiplier par 102 = 100 la taille de l'échantillon.

On parle souvent de la précision d'une enquête : c'est le rapport σ ( y ¯ ) Y ¯ {\displaystyle {\frac {\sigma ({\overline {y}})}{\overline {Y}}}} {\frac {\sigma (\overline y)}{\overline Y}} entre l'écart type et la moyenne de la variable aléatoire y ¯ {\displaystyle {\overline {y}}} \overline y. Si l'enquête est précise à 2 % par exemple, c'est que ce rapport est de 2 %. Cela signifie que l'intervalle de confiance à 95 % est de [ 0 , 96 Y ¯ , 1 , 04 Y ¯ ] {\displaystyle [0,96{\overline {Y}},1,04{\overline {Y}}]} [0,96\overline Y,1,04\overline Y]
Influence des techniques de sondages sur les estimateurs

Découper la population en strates homogènes peut réduire de manière significative la valeur de la variance de l'estimateur et donc le rendre plus efficace.

Utiliser un tirage aléatoire à probabilités inégales, procéder à un sondage en plusieurs étapes ou par grappe change évidemment les formules calculées précédemment.

Enfin, l'utilisation d'informations auxilaires permet parfois d'effectuer une correction sur l'estimateur pour le rapprocher de la valeur réelle.
Construction d'estimateurs
Méthode du maximum de vraisemblance
Articles détaillés : M-estimateur et Maximum de vraisemblance.

Comme son nom l'indique, cette méthode consiste à maximiser une fonction appelée fonction de vraisemblance, contenant le paramètre que l'on souhaite estimer. Elle aura ainsi de fortes chances d'être très proche de ce paramètre.

Fonction de vraisemblance, au vu d'un n-échantillon ( x 1 , . . . , x i , . . . , x n ) {\displaystyle (x_{1},...,x_{i},...,x_{n})} (x_{1},...,x_{i},...,x_{n}) :

L ( x 1 , . . . , x i , . . . , x n ; θ ) = f ( x 1 ; θ ) × f ( x 2 ; θ ) × . . . × f ( x n ; θ ) = ∏ i = 1 n f ( x i ; θ ) {\displaystyle L(x_{1},...,x_{i},...,x_{n};\theta )=f(x_{1};\theta )\times f(x_{2};\theta )\times ...\times f(x_{n};\theta )=\prod _{i=1}^{n}f(x_{i};\theta )} L(x_{1},...,x_{i},...,x_{n};\theta )=f(x_{1};\theta )\times f(x_{2};\theta )\times ...\times f(x_{n};\theta )=\prod _{{i=1}}^{n}f(x_{i};\theta )

L'estimateur obtenu par cette méthode est généralement le meilleur possible, mais cela peut être fastidieux et surtout nécessite de maîtriser des règles mathématiques plus difficiles que la méthode des moments (voir ci-dessous).
Méthode des moments
Article détaillé : Méthode des moments (statistiques).

La méthode des moments permet d'estimer des paramètres : pour cela, on pose l'égalité entre moments théoriques et empiriques correspondants puis, en résolvant les équations écrites, on exprime les paramètres en fonction de ces moments.
Estimateurs et loi de probabilité

Le fait de pouvoir estimer une espérance et une variance permet alors d'estimer les paramètres d'une distribution (loi normale, loi de Poisson etc.).

En probabilité, on cherche parfois à valider une loi de probabilité théorique à l'aide d'une expérience statistique. Dans le cas d'une variable discrète finie, on prend comme estimateur de chaque probabilité p k {\displaystyle p_{k}} p_{k}, la fréquence f k {\displaystyle f_{k}} f_{k} dans l'échantillon. Les valeurs f k {\displaystyle f_{k}} f_{k} étant des variables aléatoires, il est normal que ces estimateurs ne coïncident pas complètement avec les valeurs p k {\displaystyle p_{k}} p_{k}. Pour vérifier si les différences trouvées sont significatives ou non, on effectue des tests d'adéquations dont le plus connu est le test du χ².
Notes et références
Voir aussi
Bibliographie

(fr) FAVRE J.P., (2009) Mathématiques de gestion, Digilex, 2009, (ISBN 978-2-940404-01-Cool
(fr) DAGNELIE P. (2007) Statistique théorique et appliquée. Tome 1 : Statistique descriptive et base de l'inférence statistique. Paris et Bruxelles, De Boeck et Larcier.
(fr) DAGNELIE P. (2006) Statistique théorique et appliquée. Tome 2 : Inférence statistique à une et à deux dimensions. Paris et Bruxelles, De Boeck et Larcier.
(fr) DROESBECKE J.-J. (2001) Éléments de statistique. Paris, Ellipses.
(fr) ESCOFIER B., PAGES J. (1997) Initiation au traitement statistique : Méthodes, méthodologie. PUR, Rennes.
(fr) FALISSARD B., MONGA (1993) Statistique : concepts et méthodes. Paris, Masson.
(fr) ROUANET H., BERNARD J.-M., LE ROUX B. (1990) : Statistique en sciences humaines : analyse inductive des données. Paris, Dunod.
Gilbert Saporta, Probabilités, Analyse des données et Statistiques, Paris, Éditions Technip, 2006, 622 p. [détail des éditions] (ISBN 978-2-7108-0814-5, présentation en ligne [archive])
(fr) VEYSSEYRE R. (2002) Statistique et probabilité pour l'ingénieur. Paris, Dunod.
(en) LEHMANN, E.L. (1983) "THEORY OF POINT ESTIMATION". John Wiley and Sons, New York.
(fr) ROUAUD M. (2012) Probabilités, statistiques et analyses multicritères [archive] Une introduction aux estimateurs et à la méthode du maximum de vraisemblance. Version numérique libre et gratuite.

Articles connexes

Biais (statistique)
Inférence statistique
M-estimateur
Statistique mathématique
Sondage
Théorème de Masreliez
Variable indépendante et identiquement distribuée
Variance
Estimateur du minimum du χ²

Liens externes

estimateur [archive] cours de Bernart Ycart
Estimation [archive] cours de l'INSA de Lyon
Glossaire [archive] sur l'estimation
Rémy Clairin et Philippe Brion, Manuel de sondages. Application aux pays en développement. Paris, Centre français sur la population et le développement, 1996.

En route sur les projets quantiques tel que Le temps existe-t-il ou
ne s'agit-il que d'une illusion ?
En suivant les principes de Feu l'Astrophysicien Brahic André et dans l'honneur de sa conscience sur les dangers des atomes et des combinaisons physiques, morales et biologiques,
Agir dans le respect de la prudence, de la vie et de l'environnement !

Ecrit de
TAY
La chouette effraie
Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.atelier-yannistignard.com
yanis la chouette



Nombre de messages : 7726
Localisation : http://yanis.tignard.free.fr/
Date d'inscription : 09/11/2005

MessageSujet: Re: La Délivrance de l'Espérance, Prométhée et Y'becca   Lun 13 Mar à 4:32

Lundi 13 Mars 2017....

Peuples de Sparte avec le Taygète et Athene noctua...

Voilà des mois que Toulouse a présenté sa candidature au Patrimoine Mondiale
de L'UNESCO tout comme d'autres villes et Lieux en France... Mon visage est de
me dire quel ou quelle président ou présidente sera la plus apte à présenter
ses différents domaines de la Culture française et international...

Il y a l'aspect Financier et Régalien auquel je suis attaché afin d'amener des
modifications intéressante sur le niveau de vie des localités... J'écoute donc
avec le plus grand intérêt les mesures proposer dans tous les domaines des
différents candidats et candidates... J'examine les caractères et les propos
de leurs plus proche collaboratrices et collaborateurs...

Certains de ces domaines qui se propose à l'héritage international de L’UNESCO
sont très diverses et divers: Féminin et Masculin; Citadine, Rural , Ville, Village
et Lieu Dit... J'ai vécu dans tous ces aspects de la France et pour les défendre;
je me sens plus proche du Procureur que du Juge... Je préfère être celui qui
constitue les dossiers que d'en être juge... Depuis le Bistrot 12 et l'atelier 66,
je déploie les ailes depuis Saint Cyprien pour la candidature Toulousaine en y
intégrant les autres candidatures françaises: Ne craignez rien, loin de moi
de vouloir créer une ligue de Délos tel Marine Le Pen, de devenir le nouveau
Périclès comme Emmanuel Macron ou de devenir le nouveau Socrate tel
Mélanchon, Hamon et Asselineau...

Juger bien vos candidats et surpris par la discorde entre Dupont-Aignan et
Fillon qui porte bien plus d’intérêt sur l'aspect de Richesse Économique et d'Emploi
sur le territoire que sur l'aspect de leur propre personne... Et Hollande incapable
d'écrire une mise au point sur l'aspect morale de la condition humaine et de travail
durant son quinquennat... Pourtant, Vous et Moi, allons choisir ! Certains en quittant
en la France, d'autres en allant voter ou en allant chercher du travail par leur propre
moyen sans attendre l’assistance de nouvelle loi auquel les fonctions de marché
tel que le privé et le public; le capitalisme, la mondialisation et le nationalisme n'ont que
faire lorsque leur candidate et candidat a été vaincu...

Par contre soutenir comme je fais tous les aspects économiques soumis à intérêt
National qui promulgue la vision française au niveau international: Dans tous les domaines
qu'il soit scientifiques, intellectuels ou Compagnons du Devoir tout le monde voit l’intérêt
que cela peut apporter à son foyer, son porte feuille et dans sa condition de vivre...
Tout en devenant un programme communautaire, la réalité de votre personnalité est au cœur du
débat: Pour réussir dans ce programme International et Spatial; le sens même de morale
est au cœur du Peuple... Vous dites alors qui va commander ? Qui va diriger ? Encore une
Nouvelle Utopie venu d'un anti système...?

Je vous répondrez que vous croyez en une Image auquel vous attribuez une parole...
Je ne fais pas de morale car j'irai votre un "je voterai une candidate ou un candidat". Je ne leur
fais pas de morale mais en mots: on se plaint et ils se plaignent, on est heureux et ils sont heureux
et puis le jour des élections, c'est les remises de médailles en chocolats... Tous nos projets
repartent de zéro quand on est vaincu... Et savez vous, Pourquoi ?

Parce que en France Résonne encore ces mots attribué par Brennus, lors de sa conquête de Rome:
"MALHEUR AUX VAINCUS" et EN CELA, JE COMPRENDS VOS PEURS ET HANTISES...
VOTRE APPARTENANCE AUX PRINCIPES ET AUX MORALES DE Y'BECCA, VOUS PERMETTRONS DE
MANIFESTER CONTRE LES SBIRES QUI DIRIGENT LES CAMPAGNES CAR FINALEMENT, CE N'EST
PAS CELUI QUI SE PRÉSENTE QUI EST LE PLUS DANGEREUX MAIS CEUX QUI CONDUISENT
LEURS PROJETS ET LEURS DISCOURS..."

L'ironie n'est pas le refuge de la démocratie mais la réalité ne peut nier l'ironie quand elle s’avère
être juste aux oreilles du temps et de la conscience... cela est valable pour vous, pour moi et l'UNESCO...

Ecrit de
Monsieur Tignard Yanis,
Juge de La République de L'Olivier...
ou
TAY
La chouette effraie
Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.atelier-yannistignard.com
Contenu sponsorisé




MessageSujet: Re: La Délivrance de l'Espérance, Prométhée et Y'becca   

Revenir en haut Aller en bas
 
La Délivrance de l'Espérance, Prométhée et Y'becca
Voir le sujet précédent Voir le sujet suivant Revenir en haut 
Page 1 sur 1
 Sujets similaires
-
» Prométhée, ou celui qui réfléchit avant d'agir
» Agnes se promene (pv qui veut )
» Présentation d'Echo [Capitaine pirate du Prométhée]
» BECCA + on meurt tous un jour ou l'autre, alors autant faire mourir avec gloire
» Cours n°2: Prométhée

Permission de ce forum:Vous ne pouvez pas répondre aux sujets dans ce forum
Le clans des mouettes :: Le clans des mouettes-
Sauter vers: