Vérifié contenu

Loi de Student

Sujets connexes: Mathématiques

Saviez-vous ...

Arrangeant une sélection Wikipedia pour les écoles dans le monde en développement sans internet était une initiative de SOS Enfants. SOS Children travaille dans 45 pays africains; pouvez-vous aider un enfant en Afrique ?

T de Student
Densité de probabilité
Étudiant densite best.JPG
Fonction de distribution cumulative
T distributionCDF.png
Paramètres \ Nu> 0 degrés de liberté ( réelle )
Soutien x \ in (- \ infty; + \ infty) \!
PDF \ Frac {\ Gamma (\ frac {\ nu + 1} {2})} {\ sqrt {\ nu \ pi} \, \ Gamma (\ frac {\ nu} {2})} \ left (1+ \ frac {x ^ 2} {\ nu} \ right) ^ {- (\ frac {\ nu + 1} {2})} \!
CDF \ Begin {matrix} \ frac {1} {2} + x \ Gamma \ left (\ frac {\ nu + 1} {2} \ right) \ cdot \\ [0.5em] \ frac {\, _ 2F_1 \ gauche (\ frac {1} {2}, \ frac {\ nu + 1} {2}; \ frac {3} {2}; - \ frac {x ^ 2} {\ nu} \ right)} {\ sqrt {\ pi \ nu} \, \ Gamma (\ frac {\ nu} {2})} \ end {matrix}
\, _ 2F_1 est le fonction hypergéométrique
Signifier 0 \ text {for} \ nu> 1 , Sinon undefined
Médiane 0
Mode 0
Variance \ Frac {\ nu} {\ nu-2} \ text {for} \ nu> 2 \! , Sinon undefined
Asymétrie 0 \ text {for} \ nu> 3
Ex. aplatissement \ Frac {6} {\ nu-4} \ text {for} \ nu> 4 \!
Entropy \ Begin {matrix} \ frac {\ nu + 1} {2} \ left [\ psi (\ frac {1+ \ nu} {2}) - \ psi (\ frac {\ nu} {2}) \ right ] \\ [0.5em] + \ log {\ left [\ sqrt {\ nu} B (\ frac {\ nu} {2}, \ frac {1} {2}) \ right]} \ end {matrix}
  • \ Psi : digamma fonction,
  • B : fonction beta
MGF (Non défini)

T la -Distribution de l'étudiant (ou encore t -Distribution), en probabilité et statistiques , est une distribution de probabilité qui se pose dans le problème de l'estimation de la moyenne d'une distribution normale lorsque la population taille de l'échantillon est faible. Ce est la base de la populaire t-tests de Student les pour le la signification statistique de la différence entre deux échantillons moyens , et pour intervalles de confiance pour la différence entre deux moyennes de population. Distribution t de Student est un cas particulier de la la distribution hyperbolique généralisée.

La dérivation de la t -Distribution a été publiée en 1908 par William Gosset, alors qu'il travaillait à une Brasserie Guinness dans Dublin . Il a été interdit de publier sous son propre nom, de sorte que le document a été rédigé dans le cadre du Student pseudonyme. Le t -test et la théorie associée sont devenus bien connus grâce aux travaux de RA Fisher, qui a appelé la distribution «distribution de l'étudiant".

La distribution de Student se pose lorsque (comme dans presque tous les travaux statistiques pratique) la population écart-type est inconnue et doit être estimée à partir des données. problèmes de manuels traitant l'écart-type comme se il était connu sont de deux sortes: (1) ceux dans lesquels la taille de l'échantillon est si grande que l'on peut traiter une estimation basée sur les données de la variance comme si ce était certain, et (2) ceux qui illustrent le raisonnement mathématique, dans lequel le problème de l'estimation de l'écart type est temporairement ignorée parce que ce ne est pas le point que l'auteur ou l'instructeur est ensuite expliquer.

Pourquoi utiliser la -Distribution t de Student

Les intervalles de confiance et tests d'hypothèses se appuient sur la -Distribution t de Student pour faire face à l'incertitude résultant de l'estimation de l'écart-type d'un échantillon, alors que si l'écart-type de la population était connue, une distribution normale serait utilisé.

Comment la -Distribution t de Student vient à propos

Supposons que X 1, ..., X n sont indépendants des variables aléatoires qui sont normalement distribués avec μ de valeur attendue et la variance σ 2. Laisser

\ overline {X} _n = (X_1 + \ cdots + xn) / n

soit la moyenne d'échantillon, et

{} S_n ^ 2 = \ frac {1} {n-1} \ sum_ {i = 1} ^ n \ left (X_i- \ overline {X} _n \ right) ^ 2

la variance de l'échantillon. Il est facilement disponible en ce que la quantité

Z = \ frac {\ overline {X} _n- \ mu} {\ sigma / \ sqrt {n}}

est normalement distribué avec une moyenne de 0 et de variance 1, puisque la moyenne d'échantillon \ Scriptstyle \ overline {X} _n est normalement distribué avec une moyenne \ mu et l'erreur standard \ Scriptstyle \ sigma / \ sqrt {n} .

Gosset a étudié un connexes quantité pivot,

T = \ frac {\ overline {X} _n- \ mu} {S_n / \ sqrt {n}},

qui diffère de Z en ce que l'écart type exact \ Scriptstyle \ sigma est remplacé par la variable aléatoire \ Scriptstyle S_n . Techniquement, \ Scriptstyle (n-1) S_n ^ 2 / \ sigma ^ 2 a un \ Scriptstyle \ chi_ {n-1} ^ 2 Répartition par Le théorème de Cochran. Le travail de Gosset a montré que T a la fonction de densité de probabilité

f (t) = \ frac {\ Gamma (\ frac {\ nu + 1} {2})} {\ sqrt {\ nu \ pi} \, \ Gamma (\ frac {\ nu} {2})} \ gauche (1+ \ frac {t ^ 2} {\ nu} \ right) ^ {- (\ frac {\ nu + 1} {2})} \ !,

avec ν égal à n - 1 et où Γ est la Fonction Gamma.

Cela peut aussi se écrire

f (t) = \ frac {1} {\ sqrt {\ nu} \, B \ left (\ frac {1} {2}, \ frac {\ nu} {2} \ right)} \ left (1+ \ frac {t ^ 2} {\ nu} \ right) ^ {- (\ frac {\ nu + 1} {2})} \ !,

B est la Fonction bêta.

La distribution de T est maintenant appelé le t -Distribution. Le paramètre ν est appelé le nombre de degrés de liberté. La distribution dépend de ν, μ mais pas ou σ; le manque de dépendance sur μ et σ est ce qui rend le t -Distribution important à la fois la théorie et la pratique.

Les moments de la distribution t sont

E (T ^ k) = \ begin {} 0 cas et \ mbox {k impair}, \ quad 0 <k <\ nu \\ \ frac {\ Gamma (\ frac {k + 1} {2}) \ Gamma (\ frac {\ nu-k} {2}) \ nu ^ {k / 2}} {\ sqrt {\ pi} \ Gamma (\ frac {\ nu} {2})} et \ mbox {k même} , \ quad 0 <k <\ nu \\ \ mbox {} & NaN \ mbox {k impair}, \ quad 0 <\ nu \ leq k \\ \ infty & \ mbox {} k même, \ quad 0 <\ nu \ leq k \\ \ end {} cas

Il convient de noter que le terme pour 0 <k <ν, k même, peut être simplifiée en utilisant les propriétés de la Fonction Gamma à

E (T ^ k) = \ prod_ {i = 1} ^ {k / 2} \ frac {2i-1} {\ nu - 2i} \ nu ^ {k / 2} \ qquad k \ mbox {} même, \ quad 0 <k <\ nu.

Les intervalles de confiance provenant de la -Distribution t de Student

Supposons que le nombre A est choisie de sorte que

\ Pr (-A <T <A) = 0,9, \,

lorsque T a un t -Distribution à n - 1 degrés de liberté. Ce est le même que

\ Pr (T <A) = 0,95, \,

si A est le "95e centile" de cette distribution de probabilité, ou A = {(t _ 0,05, n-1)} . Puis

\ Pr \ left (-A <{\ overline {X} _n - \ mu \ over S_n / \ sqrt {n}} <A \ right) = 0,9,

et ceci est équivalent à

\ Pr \ left (\ overline {X} _n - A {S_n \ over \ sqrt {n}} <\ mu <\ overline {X} A {+ _n S_n \ over \ sqrt {n}} \ right) = 0,9 .

Par conséquent l'intervalle dont les extrémités sont

\ Overline {X} _n \ h A \ frac {} {S_n \ sqrt {n}}

est un 90 pour cent intervalle de confiance pour μ. Par conséquent, si nous trouvons la moyenne d'un ensemble d'observations que nous pouvons raisonnablement se attendre à avoir une distribution normale, nous pouvons utiliser le t -Distribution d'examiner si les limites de confiance sur ce que cela signifie comprennent une certaine valeur prédite par la théorie - comme la valeur prédite sur un hypothèse nulle.

Ce est ce résultat qui est utilisé dans le T-tests de Student les : car la différence entre les moyens d'échantillons provenant de deux distributions normales est lui-même distribué normalement, le t -Distribution peut être utilisé pour examiner si cette différence peut être raisonnablement supposé être zéro .

Si les données sont distribuées normalement, l'une face (1 - a) limite -Upper de confiance (UCL) de la moyenne, peut être calculée en utilisant l'équation suivante:

\ Mathrm {} UCL _ {1-a} = \ overline {X} _n + \ frac {{a t_, n-1} S_n} {\ sqrt {n}}.

L'UCL résultant sera la plus grande valeur moyenne qui se produira pour un intervalle de confiance de la population et de taille donnée. Autrement dit, \ Overline {X} _n étant la moyenne de l'ensemble des observations, la probabilité que la moyenne de la distribution est inférieur à \ Mathrm {} UCL _ {1-a} est égal à un niveau de confiance 1-a.

Un certain nombre d'autres statistiques peut être démontré qu'ils ont t -distributions pour des échantillons de taille modérée de moins hypothèses nulles qui sont d'intérêt, de sorte que le t -Distribution constitue la base de tests de signification dans d'autres situations, ainsi que l'examen des différences entre les moyennes. Par exemple, la distribution de Le coefficient de corrélation de Spearman, rho, dans le cas nulle (corrélation nulle) est bien approchée par la distribution de t pour les tailles d'échantillon ci-dessus environ 20.

Voir intervalle de prédiction pour un autre exemple de l'utilisation de cette distribution.

Intégrale de la fonction de densité de probabilité et la valeur de p de Student

La fonction \ Scriptstyle A (t | \ nu) est l'intégrale de la fonction de densité de probabilité de Student, ƒ (t) entre - t et t. Il donne ainsi la probabilité qu'une valeur de t inférieure à celle calculée à partir des données observées se produirait par hasard. Par conséquent, la fonction \ Scriptstyle A (t | \ nu) peut être utilisé lors de l'essai si la différence entre les moyennes des deux ensembles de données est statistiquement significative, en calculant la valeur correspondante de t et de la probabilité de son occurrence si les deux ensembles de données ont été tirées à partir de la même population. Il est utilisé dans une variété de situations, en particulier dans t-tests . Pour la statistique t, avec \ Scriptstyle \ nu degrés de liberté, \ Scriptstyle A (t | \ nu) est la probabilité que t serait inférieure à la valeur observée si les deux moyens sont les mêmes (à condition que la plus petite moyenne est soustraite de la plus grande, de sorte que t> 0). Elle est définie pour t réel par la formule suivante:

A (t | \ nu) = \ frac {1} {\ sqrt {\ nu} B \ gauche (\ frac {1} {2}, \ frac {\ nu} {2} \ right)} \ int \ limits_ {} -t ^ {t} \ left (1+ \ frac {x ^ 2} {\ nu} \ right) ^ {- \ frac {\ nu 1} {2}} \, dx

B est la Fonction bêta. Pour t> 0, il existe une relation à la régularisation fonction bêta incomplète I x (a, b) comme suit:

A (t | \ nu) = 1 - Je _ {\ frac {\ nu} {\ nu + t ^ 2}} \ left (\ frac {\ nu} {2}, \ frac {1} {2} \ right ).

La probabilité qu'une valeur de la statistique t supérieure ou égale à celle observée qui se produirait par hasard si les deux ensembles de données ont été tirées à partir de la même population, est donnée par

p = {1-A (t | \ nu)} \,.

En outre la théorie

Le résultat de Gosset peut dire plus généralement. (Voir, par exemple, Hogg et Craig, Sections 4.4 et 4.8.) Soit Z avoir une distribution normale avec une moyenne de 0 et de variance 1. Soit V avoir une distribution chi-carré avec des degrés de liberté ν. Supposons en outre que Z et V sont indépendante (voir Le théorème de Cochran). Ensuite, le rapport

\ Frac {Z} {\ sqrt {V / \ nu \}}

a t -Distribution avec des degrés de liberté ν.

Pour un t -Distribution avec des degrés de liberté ν, le valeur attendue est 0, et sa variance est ν / - 2) si ν> 2. Le asymétrie est 0 et la aplatissement est 6 / - 4) si ν> 4.

Le fonction de distribution cumulative est donnée par un fonction bêta incomplète,

\ Int _ {- \ infty} ^ tf (u) \, du I_x = \ left (\ frac {\ nu} {2}, \ frac {\ nu} {2} \ right)

avec

x = \ frac {t + \ sqrt {t ^ 2 + \ nu}} {2 \ sqrt {t ^ 2 + \ nu}}.

Le t -Distribution est liée à la F-répartition comme suit: le carré d'une valeur de t avec des degrés de liberté ν est distribué comme F avec 1 et ν degrés de liberté.

La forme générale de la fonction de densité de probabilité de la t -Distribution ressemble à la forme de cloche d'une distribution normale variable moyenne 0 et de variance 1, sauf que ce est un peu plus bas et plus large. Comme le nombre de degrés de liberté grandit, le t -Distribution approche de la distribution normale de moyenne 0 et de variance 1.

Les images suivantes montrent la densité de la t -Distribution pour des valeurs croissantes de ν. La distribution normale est représentée par une ligne bleue pour la comparaison .; Notez que le t -Distribution (ligne rouge) se rapproche de la distribution normale en tant que ν augmente. Pour ν = 30 t -Distribution est presque la même que la distribution normale.

Densité de la t -Distribution (rouge et vert) pendant 1, 2, 3, 5, 10 et 30 df rapport à distribution normale (bleu)
T 1df.png de distribution T 2df.png de distribution T 3df.png de distribution
T 5df.png de distribution T 10df.png de distribution T 30df.png de distribution

Tableau des valeurs sélectionnées

Le tableau suivant présente quelques valeurs sélectionnées pour T-distributions avec ν degrés de liberté pour une gamme d'intervalles de confiance unilatéral. Pour un exemple de la façon de lire ce tableau, prendre la quatrième ligne, qui commence par 4; cela signifie ν, le nombre de degrés de liberté, est de 4 (et si nous avons affaire, comme ci-dessus, avec n valeurs avec une somme fixe, n = 5). Prenez la cinquième entrée, dans la colonne 95%. La valeur de cette entrée est "2.132". Ensuite, la probabilité que T est inférieur à 2,132 est de 95% ou \ Mbox {} Pr \ gauche (- \ infty <T <2,132 \ right) = 0,95 ; l'entrée ne signifie pas (comme cela peut être avec d'autres distributions) que \ Mbox {} Pr \ left (-2,132 <T <2,132 \ right) = 0,95 .

En effet, par la symétrie de la distribution,

Pr (T <-2,132) = 1 - Pr (T> -2,132) = 1 à 0,95 = 0,05,

et donc

Pr (-2,132 <T <2,132) = 1 - 2 (0,05) = 0,9.

Notez que la dernière ligne donne aussi des points critiques: un t -Distribution avec infiniment de nombreux degrés de liberté est une distribution normale. (Voir ci-dessous: distributions connexes).

\ Nu 75% 80% 85% 90% 95% 97,5% 99% 99,5% 99,75% 99,9% 99,95%
1 1,000 1,376 1,963 3,078 6,314 12,71 31,82 63,66 127,3 318,3 636,6
2 0,816 1,061 1,386 1,886 2,920 4,303 6,965 9,925 14,09 22,33 31,60
3 0,765 0,978 1,250 1,638 2,353 3,182 4,541 5,841 7,453 10,21 12,92
4 0,741 0,941 1,190 1,533 2,132 2,776 3,747 4,604 5,598 7.173 8,610
5 0,727 0,920 1,156 1,476 2,015 2,571 3,365 4,032 4,773 5,893 6,869
6 0,718 0,906 1,134 1,440 1,943 2,447 3,143 3,707 4,317 5,208 5,959
7 0,711 0,896 1,119 1,415 1,895 2,365 2,998 3,499 4,029 4,785 5,408
8 0,706 0,889 1,108 1,397 1,860 2,306 2,896 3,355 3,833 4,501 5,041
9 0,703 0,883 1,100 1,383 1,833 2,262 2,821 3,250 3,690 4,297 4,781
10 0,700 0,879 1,093 1,372 1,812 2,228 2,764 3,169 3,581 4,144 4,587
11 0,697 0,876 1,088 1,363 1,796 2,201 2,718 3,106 3,497 4,025 4,437
12 0,695 0,873 1,083 1,356 1,782 2,179 2,681 3,055 3,428 3,930 4,318
13 0,694 0,870 1,079 1,350 1,771 2,160 2,650 3,012 3,372 3,852 4,221
14 0,692 0,868 1,076 1,345 1,761 2,145 2,624 2,977 3,326 3,787 4,140
15 0,691 0,866 1,074 1,341 1,753 2,131 2,602 2,947 3,286 3,733 4,073
16 0,690 0,865 1,071 1,337 1,746 2,120 2,583 2,921 3,252 3,686 4,015
17 0,689 0,863 1,069 1,333 1,740 2,110 2,567 2,898 3,222 3,646 3,965
18 0,688 0,862 1,067 1,330 1,734 2.101 2,552 2,878 3,197 3,610 3,922
19 0,688 0,861 1,066 1,328 1,729 2,093 2,539 2,861 3,174 3,579 3,883
20 0,687 0,860 1,064 1,325 1,725 2,086 2,528 2,845 3,153 3,552 3,850
21 0,686 0,859 1,063 1,323 1,721 2,080 2,518 2,831 3,135 3,527 3,819
22 0,686 0,858 1,061 1,321 1,717 2,074 2,508 2,819 3.119 3,505 3,792
23 0,685 0,858 1,060 1,319 1,714 2,069 2,500 2,807 3,104 3,485 3,767
24 0,685 0,857 1,059 1,318 1,711 2,064 2,492 2,797 3,091 3,467 3,745
25 0,684 0,856 1,058 1,316 1,708 2,060 2,485 2,787 3,078 3,450 3,725
26 0,684 0,856 1,058 1,315 1,706 2,056 2,479 2,779 3,067 3,435 3,707
27 0,684 0,855 1,057 1,314 1,703 2,052 2,473 2,771 3,057 3,421 3,690
28 0,683 0,855 1,056 1,313 1,701 2,048 2,467 2,763 3,047 3,408 3,674
29 0,683 0,854 1,055 1,311 1,699 2,045 2,462 2,756 3,038 3,396 3,659
30 0,683 0,854 1,055 1,310 1,697 2,042 2,457 2,750 3,030 3,385 3,646
40 0,681 0,851 1,050 1,303 1,684 2,021 2,423 2,704 2,971 3,307 3,551
50 0,679 0,849 1,047 1,299 1,676 2,009 2,403 2,678 2,937 3,261 3,496
60 0,679 0,848 1,045 1,296 1,671 2,000 2,390 2,660 2,915 3,232 3,460
80 0,678 0,846 1,043 1,292 1,664 1,990 2,374 2,639 2,887 3,195 3,416
100 0,677 0,845 1,042 1,290 1,660 1,984 2,364 2,626 2,871 3,174 3,390
120 0,677 0,845 1,041 1,289 1,658 1,980 2,358 2,617 2,860 3,160 3,373
\ Infty 0,674 0,842 1,036 1,282 1,645 1,960 2,326 2,576 2,807 3,090 3,291

Voir aussi T-Table .

Le nombre au début de chaque ligne dans le tableau ci-dessus est ν qui a été défini ci-dessus que le n - 1. Le pourcentage le long du sommet est de 100% (1 - α). Les chiffres dans le corps principal de la table sont t α, ν. Si une quantité T est distribué comme la distribution t de Student avec des degrés ν de la liberté, alors il ya une probabilité 1 -. Α que T sera inférieure à t α, ν (calculé que pour un test unilatéral ou unilatérale que opposition à une deux-tailed test.)

Par exemple, étant donné un échantillon avec une variance de l'échantillon 2 et l'échantillon moyen de 10, prise à partir d'un ensemble de 11 (dix degrés de liberté) de l'échantillon, selon la formule

\ Overline {X} _n \ h A \ frac {} {S_n \ sqrt {n}}.

Nous pouvons déterminer qu'au confiance de 90%, nous avons une vraie moyenne comprise ci-dessous

10 + 1,37218 \ frac {\ sqrt {2}} {\ sqrt {11}} = 10,58510.

(En d'autres termes, en moyenne, 90% des fois où un seuil supérieur est calculée par cette méthode, la vraie moyenne se situe en dessous de ce seuil supérieur.) Et, toujours à 90% de confiance, nous avons une vraie moyenne comprise plus

10 à 1,37218 \ frac {\ sqrt {2}} {\ sqrt {11}} = 9,41490.

(En d'autres termes, en moyenne, 90% des fois qu'un seuil inférieure est calculée par ce procédé, la moyenne réelle est au-dessus de ce seuil bas). Alors que la confiance à 80%, on a une véritable moyenne comprise entre

10 \ pm1.37218 \ frac {\ sqrt {2}} {\ sqrt {11}} = [9,41490, 10,58510].

(En d'autres termes, en moyenne, 80% des fois que les seuils supérieur et inférieur sont calculées par ce procédé, la moyenne vraie est à la fois au-dessous du seuil supérieur et le seuil inférieur au-dessus. Ce ne est pas la même chose que dire qu'il n'y a une probabilité de 80% que la moyenne réelle se trouve entre une paire de seuils supérieur et inférieur qui ont notamment été calculée par ce procédé - voir intervalle de confiance et Sophisme du procureur.)

Pour plus d'informations sur la fonction cumulative inverse de distribution voir Fonction quantile.

Cas particuliers

Certaines valeurs de ν donnent une forme particulièrement simple.

ν = 1

la fonction de distribution:

F (x) = \ frac {1} {2} + \ frac {1} {\ pi} \ arctan (x).

fonction de densité:

f (x) = \ frac {1} {{\ pi} (1 + x ^ 2)}.

Voir Distribution de Cauchy

ν = 2

la fonction de distribution:

F (x) = \ frac {1} {2} \ left [1+ \ frac {x} {\ sqrt {2 + x ^ 2}} \ right].

fonction de densité:

f (x) = \ frac {1} {\ left (2 + x ^ 2 \ right) ^ {3/2}}.

Modélisation paramétrique robuste

Le t -Distribution est souvent utilisé comme une alternative à la distribution normale en tant que modèle pour les données. Il est fréquent que des données réelles ont des queues plus lourdes que la distribution normale permet. L'approche classique était d'identifier des valeurs aberrantes et exclure ou downweight eux en quelque sorte. Cependant, il ne est pas toujours facile d'identifier des valeurs aberrantes (en particulier dans grandes dimensions), et le t -Distribution est un choix naturel de modèle pour ces données et fournit une approche paramétrique statistiques robustes.

Lange et al exploré l'utilisation de la t -Distribution pour la modélisation des données robuste queue lourde dans une variété de contextes. Un compte bayésienne peut être trouvée dans Gelman et al. Les degrés de liberté de paramètre commande l'aplatissement de la distribution et est en corrélation avec le paramètre d'échelle. La probabilité peut avoir des maxima locaux multiples et, comme tel, il est souvent nécessaire de fixer les degrés de liberté à une valeur relativement faible et d'estimer les autres paramètres prennent ce que donné. Certains auteurs rapportent que les valeurs entre 3 et 9 sont souvent de bons choix. Venables et Ripley suggèrent qu'une valeur de 5 est souvent un bon choix.

Distributions connexes

  • X \ sim \ mathrm {t} (\ nu) a t -Distribution si \ Sigma ^ 2 \ sim \ mbox {Inv -} \ chi ^ 2 (\ nu, 1) \! a un échelle inverse- χ 2 distribution et X \ sim \ mathrm {} N (0, \ sigma ^ 2) \! a une distribution normale .
  • Y \ sim \ mathrm {F} (\ nu_1 = 1, \ nu_2 = \ nu) a un F -Distribution si Y = X ^ 2 \! et X \ sim \ mathrm {t} (\ nu) \! a t la -Distribution de Student.
  • Y \ sim \ mathrm {} N (0,1) \! a une distribution normale en tant que Y = \ lim _ {\ nu \ à \ infty} XX \ sim \ mathrm {t} (\ nu) .
  • X \ sim \ mathrm {} Cauchy (0,1) a un Distribution de Cauchy si X \ sim \ mathrm {t} (\ nu = 1) .
Récupéré à partir de " http://en.wikipedia.org/w/index.php?title=Student%27s_t-distribution&oldid=198777445 "