Exemple de mostres de dues poblacions amb la mateixa mitjana però diferent variància. La població blava té una variància més gran que la població vermella.
En teoria de probabilitat , la variància d'una variable aleatòria [1] és una mesura de la dispersió d'una variable aleatòria
X
{\displaystyle X}
respecte de la seva mitjana
E
[
X
]
{\displaystyle E[X]}
. Es defineix com l'esperança de
(
X
−
E
[
X
]
)
2
{\displaystyle \left(X-E[X]\right)^{2}}
, això és
V
(
X
)
=
E
[
(
X
−
E
[
X
]
)
2
]
,
{\displaystyle V(X)=E\left[\left(X-E[X]\right)^{2}\right],}
on suposem que
E
[
X
2
]
<
∞
{\displaystyle E[X^{2}]<\infty }
.
Està relacionada amb la desviació típica , que se sol designar amb la lletra grega
σ
{\displaystyle \sigma }
i que és l'arrel quadrada de la variància:[2] [3]
σ
X
=
V
(
X
)
.
{\displaystyle \sigma _{X}={\sqrt {V(X)}}.}
En estadística descriptiva [4] la variància d'un conjunt de dades
x
1
,
…
,
x
N
{\displaystyle x_{1},\dots ,x_{N}}
es defineix per
v
=
(
x
1
−
x
¯
)
2
+
⋯
+
(
x
N
−
x
¯
)
2
N
=
1
N
∑
i
=
1
N
(
x
i
−
x
¯
)
2
,
{\displaystyle v={\frac {(x_{1}-{\overline {x}})^{2}+\cdots +(x_{N}-{\overline {x}})^{2}}{N}}={\frac {1}{N}}\sum _{i=1}^{N}(x_{i}-{\overline {x}})^{2},}
on
x
¯
{\displaystyle {\overline {x}}}
és la mitjana aritmètica de les dades:
[5]
x
¯
=
x
1
+
⋯
+
x
N
N
=
1
N
∑
i
=
1
N
x
i
.
{\displaystyle {\overline {x}}={\frac {x_{1}+\cdots +x_{N}}{N}}={\frac {1}{N}}\sum _{i=1}^{N}x_{i}.}
En
inferència estadística s'utilitzen la
variància poblacional i la
variància mostral .
Variància d'una variable aleatòria [ modifica ]
La variància de una variable aleatòria
X
{\displaystyle X}
es defineix per
V
(
X
)
=
E
[
(
X
−
E
[
X
]
)
2
]
=
E
[
X
2
]
−
(
E
[
X
]
)
2
,
{\displaystyle V(X)=E\left[\left(X-E[X]\right)^{2}\right]=E[X^{2}]-{\big (}E[X]{\big )}^{2},}
on
E
[
X
]
{\displaystyle E[X]}
és l'esperança o mitjana de
X
{\displaystyle X}
, on suposem que
E
[
X
2
]
<
∞
{\displaystyle E[X^{2}]<\infty }
. La segona
igualtat s'obté desenvolupant el
quadrat i utilitzant que
E
[
X
]
{\displaystyle E[X]}
és una
constant . Cal remarcar que si
E
[
X
2
]
<
∞
{\displaystyle E[X^{2}]<\infty }
, aleshores
X
{\displaystyle X}
té esperança. Això es dedueix del fet que per a qualsevol
nombre
x
∈
R
{\displaystyle x\in \mathbb {R} }
,
|
x
|
≤
(
x
2
+
1
)
/
2
{\displaystyle \vert x\vert \leq (x^{2}+1)/2}
, d'on,
|
X
|
≤
1
2
(
X
2
+
1
)
.
{\displaystyle \vert X\vert \leq {\frac {1}{2}}(X^{2}+1).}
Llavors, traient esperances tenim
E
[
|
X
|
]
≤
1
2
(
E
[
X
2
]
+
1
)
.
{\displaystyle E[\vert X\vert ]\leq {\frac {1}{2}}(E[X^{2}]+1).}
La
desigualtat
|
x
|
≤
(
x
2
+
1
)
/
2
{\displaystyle \vert x\vert \leq (x^{2}+1)/2}
es dedueix del fet que
(
|
x
|
+
1
)
2
≥
0.
{\displaystyle (\vert x\vert +1)^{2}\geq 0.}
Interpretació de la variància [ modifica ]
Considerem tres variables aleatòries. La primera és la constant 0:
X
1
=
0
{\displaystyle X_{1}=0}
que com és evident no varia gens. La segona,
X
2
,
{\displaystyle X_{2},}
pren els valors 1 i -1 amb probabilitat 1/2; per exemple, correspon a un joc a cara o creu on si surt cara guanyem 1 euro i si surt creu perdem un euro. Finalment,
X
3
{\displaystyle X_{3}}
pren els valors 10 i -10 amb probabilitats 1/2; correspondria al mateix joc que abans però ara guanyaríem o perdríem 10 euros. Les tres variables tenen la mateixa esperança:
E
[
X
1
]
=
0
,
{\displaystyle E[X_{1}]=0,}
E
[
X
2
]
=
1
2
×
1
+
1
2
×
(
−
1
)
=
0
,
{\displaystyle E[X_{2}]={\frac {1}{2}}\times 1+{\frac {1}{2}}\times (-1)=0,}
E
[
X
3
]
=
1
2
×
10
+
1
2
×
(
−
10
)
=
0.
{\displaystyle E[X_{3}]={\frac {1}{2}}\times 10+{\frac {1}{2}}\times (-10)=0.}
D'altra banda,
X
1
2
=
0
{\displaystyle X_{1}^{2}=0}
, i llavors
E
[
X
1
2
]
=
0
,
{\displaystyle E[X_{1}^{2}]=0,}
i llavors
V
(
X
1
)
=
0
{\displaystyle V(X_{1})=0}
.
Per a
X
2
{\displaystyle X_{2}}
, aplicant la fórmula del càlcul de l'esperança d'una funció d'una variable aleatòria tenim
E
[
X
2
2
]
=
1
2
×
1
2
+
1
2
×
(
−
1
)
2
=
1
,
{\displaystyle E[X_{2}^{2}]={\frac {1}{2}}\times 1^{2}+{\frac {1}{2}}\times (-1)^{2}=1,}
d'on
V
(
X
2
)
=
E
[
X
2
2
]
−
(
E
[
X
2
]
)
2
=
1.
{\displaystyle V(X_{2})=E[X_{2}^{2}]-{\big (}E[X_{2}]{\big )}^{2}=1.}
Anàlogament, per a
X
3
{\displaystyle X_{3}}
tenim
E
[
X
3
2
]
=
100
{\displaystyle E[X_{3}^{2}]=100}
i
V
(
X
3
)
=
100
{\displaystyle V(X_{3})=100}
.
Així, les tres variables tenen igual mitjana, però la primera variable que és una constant té variància 0 (no varia gens respecte la seva mitjana), mentre que
X
2
{\displaystyle X_{2}}
pren valors més propers a la mitjana que
X
3
{\displaystyle X_{3}}
, i llavors la variància de
X
2
{\displaystyle X_{2}}
és més petita que la de
X
3
{\displaystyle X_{3}}
.
Càlcul de la variància en els casos habituals [ modifica ]
Variables aleatòries discretes [ modifica ]
Sigui
X
{\displaystyle X}
una variable aleatòria discreta que pot prendre un nombre finit o infinit numerable de valors
x
1
,
x
2
,
…
{\displaystyle x_{1},\,x_{2},\dots }
amb probabilitats respectives
p
1
,
p
2
,
…
{\displaystyle p_{1},\,p_{2},\dots }
Aleshores
V
(
X
)
=
∑
i
(
x
i
−
μ
)
2
p
i
=
∑
i
x
i
2
p
i
−
μ
2
,
{\displaystyle V(X)=\sum _{i}(x_{i}-\mu )^{2}p_{i}=\sum _{i}x_{i}^{2}\,p_{i}-\mu ^{2},}
on
μ
=
E
[
X
]
=
∑
i
x
i
p
i
,
{\displaystyle \mu =E[X]=\sum _{i}x_{i}p_{i},}
i suposem que
∑
i
x
i
2
p
i
<
∞
.
{\displaystyle \sum _{i}x_{i}^{2}\,p_{i}<\infty .}
Exemples
1. Si tenim un dau ordinari, que pren els valors
1
,
2
,
…
,
6
{\displaystyle 1,2,\dots ,6}
amb probabilitats
P
(
X
=
1
)
=
⋯
=
P
(
X
=
6
)
=
1
6
,
{\displaystyle P(X=1)=\cdots =P(X=6)={\frac {1}{6}},}
aleshores,
μ
=
E
(
X
)
=
1
⋅
1
6
+
⋯
+
6
⋅
1
6
=
1
6
∑
i
=
1
6
i
=
3
,
5.
{\displaystyle \mu =E(X)=1\cdot {\frac {1}{6}}+\cdots +6\cdot {\frac {1}{6}}={\frac {1}{6}}\sum _{i=1}^{6}i=3,5.}
Aplicant la fórmula del càlcul de l'esperança d'una funció d'una variable aleatòria ,
E
(
X
2
)
=
1
2
1
6
+
⋯
+
6
2
1
6
=
15
,
17.
{\displaystyle E(X^{2})=1^{2}\,{\frac {1}{6}}+\cdots +6^{2}\,{\frac {1}{6}}=15,17.}
Ara podem calcular la
variància de
X
{\displaystyle X}
:
V
(
X
)
=
E
(
X
2
)
−
(
E
(
X
)
)
2
=
15
,
17
−
3.5
2
=
2
,
67.
{\displaystyle V(X)=E(X^{2})-{\big (}E(X){\big )}^{2}=15,17-3.5^{2}=2,67.}
2. Sigui
X
{\displaystyle X}
una
variable binomial de paràmetres
n
{\displaystyle n}
i
p
{\displaystyle p}
, és a dir, que pot prendre els valors
0
,
1
,
.
.
.
,
n
{\displaystyle 0,1,...,n}
, amb probabilitats:
P
(
X
=
k
)
=
(
n
k
)
p
k
(
1
−
p
)
n
−
k
,
k
=
0
,
…
,
n
,
{\displaystyle P(X=k)={\binom {n}{k}}p^{k}(1-p)^{n-k},\ k=0,\dots ,n,}
aleshores
E
(
X
)
=
∑
k
=
0
n
k
(
n
k
)
p
k
(
1
−
p
)
n
−
k
=
n
p
∑
k
=
1
n
(
n
−
1
k
−
1
)
p
k
−
1
(
1
−
p
)
n
−
k
=
(
∗
)
n
p
∑
j
=
0
n
−
1
(
n
−
1
j
)
p
j
(
1
−
p
)
n
−
1
−
j
=
(
∗
∗
)
n
p
,
{\displaystyle E(X)=\sum _{k=0}^{n}k\,{\binom {n}{k}}p^{k}(1-p)^{n-k}=np\,\sum _{k=1}^{n}{\binom {n-1}{k-1}}p^{k-1}(1-p)^{n-k}=_{(*)}np\,\sum _{j=0}^{n-1}{\binom {n-1}{j}}p^{j}(1-p)^{n-1-j}=_{(**)}np,}
on a la igualtat (*) hem fet el canvi
k
−
1
=
j
{\displaystyle k-1=j}
, i a la igualtat (**) que
∑
j
=
0
n
−
1
(
n
−
1
j
)
p
j
(
1
−
p
)
n
−
1
−
j
=
∑
j
=
0
n
−
1
P
(
Y
=
j
)
=
1
,
{\displaystyle \sum _{j=0}^{n-1}{\binom {n-1}{j}}p^{j}(1-p)^{n-1-j}=\sum _{j=0}^{n-1}P(Y=j)=1,}
on
Y
{\displaystyle Y}
és una variable binomial de paràmetres
n
−
1
i
p
{\displaystyle n-1\quad {\text{i}}\quad p}
.
D'altra banda, per calcular
E
[
X
2
]
{\displaystyle E[X^{2}]}
calcularem primer
E
[
X
(
X
−
1
)
]
{\displaystyle E[X(X-1)]}
. Utilitzant de nou la fórmula per a calcular l'esperança d'una funció d'una variable aleatòria (en aquest cas, la funció
g
(
x
)
=
x
(
x
−
1
)
{\displaystyle g(x)=x(x-1)}
), i amb arguments similars als anteriors,
E
[
X
(
X
−
1
)
]
=
∑
k
=
0
n
k
(
k
−
1
)
(
n
k
)
p
k
(
1
−
p
)
n
−
k
=
n
(
n
−
1
)
p
2
∑
k
=
2
n
(
n
−
2
k
−
2
)
p
k
−
2
(
1
−
p
)
n
−
k
=
n
(
n
−
1
)
p
2
∑
j
=
0
n
−
2
(
n
−
2
j
)
p
j
(
1
−
p
)
n
−
2
−
j
=
n
(
n
−
1
)
p
2
.
{\displaystyle E[X(X-1)]=\sum _{k=0}^{n}k(k-1)\,{\binom {n}{k}}p^{k}(1-p)^{n-k}=n(n-1)p^{2}\,\sum _{k=2}^{n}{\binom {n-2}{k-2}}p^{k-2}(1-p)^{n-k}=n(n-1)p^{2}\,\sum _{j=0}^{n-2}{\binom {n-2}{j}}p^{j}(1-p)^{n-2-j}=n(n-1)p^{2}.}
Així,
E
[
X
(
X
−
1
)
]
=
E
[
X
2
]
−
E
[
X
]
=
n
(
n
−
1
)
p
2
.
{\displaystyle E[X(X-1)]=E[X^{2}]-E[X]=n(n-1)p^{2}.}
Aïllant
E
[
X
2
]
{\displaystyle E[X^{2}]}
tenim
E
[
X
2
]
=
n
2
p
2
−
n
p
2
+
n
p
,
{\displaystyle E[X^{2}]=n^{2}p^{2}-np^{2}+np,}
i aleshores,
V
(
X
)
=
n
p
(
1
−
p
)
.
{\displaystyle V(X)=np(1-p).}
3. Sigui
X
{\displaystyle X}
una
variable aleatòria de Poisson de paràmetre
λ
>
0
{\displaystyle \lambda >0}
, és a dir, que pot prendre qualsevol valor natural (0 inclòs) amb probabilitats
P
(
X
=
k
)
=
e
−
λ
λ
k
k
!
,
k
=
0
,
1
,
…
{\displaystyle P(X=k)=e^{-\lambda }{\frac {\lambda ^{k}}{k!}},\quad k=0,1,\dots }
D'una banda tenim que
E
[
X
]
=
∑
k
=
0
∞
k
e
−
λ
λ
k
k
!
=
λ
e
−
λ
∑
k
=
1
∞
λ
k
−
1
(
k
−
1
)
!
=
(
∗
)
λ
e
−
λ
∑
j
=
0
∞
λ
j
j
!
=
λ
e
−
λ
e
λ
=
λ
,
{\displaystyle E[X]=\sum _{k=0}^{\infty }ke^{-\lambda }\,{\frac {\lambda ^{k}}{k!}}=\lambda e^{-\lambda }\sum _{k=1}^{\infty }{\frac {\lambda ^{k-1}}{(k-1)!}}=_{(*)}\lambda e^{-\lambda }\sum _{j=0}^{\infty }{\frac {\lambda ^{j}}{j!}}=\lambda \,e^{-\lambda }e^{\lambda }=\lambda ,}
on a la igualtat (*) hem fet el canvi
k
−
1
=
j
{\displaystyle k-1=j}
, i després hem utilitzat que per a qualsevol nombre
x
∈
R
{\displaystyle x\in \mathbb {R} }
,
e
x
=
∑
n
=
0
∞
x
n
n
!
.
{\displaystyle e^{x}=\sum _{n=0}^{\infty }{\frac {x^{n}}{n!}}.}
Per a calcular
E
[
X
2
]
{\displaystyle E[X^{2}]}
farem com en el cas de la binomial i calcularem
E
[
X
(
X
−
1
)
]
{\displaystyle E[X(X-1)]}
: Utilitzant arguments anàlegs als anteriors, tenim
E
[
X
(
X
−
1
)
]
=
∑
k
=
0
∞
k
(
k
−
1
)
e
−
λ
λ
k
k
!
=
λ
2
e
−
λ
∑
k
=
2
∞
λ
k
−
2
(
k
−
2
)
!
=
λ
2
.
{\displaystyle E[X(X-1)]=\sum _{k=0}^{\infty }k(k-1)\,e^{-\lambda }{\frac {\lambda ^{k}}{k!}}=\lambda ^{2}e^{-\lambda }\sum _{k=2}^{\infty }{\frac {\lambda ^{k-2}}{(k-2)!}}=\lambda ^{2}.}
D'on es dedueix
V
(
X
)
=
λ
.
{\displaystyle V(X)=\lambda .}
Variables aleatòries absolutament contínues [ modifica ]
Sigui
X
{\displaystyle X}
una variable aleatòria amb funció de densitat
f
{\displaystyle f}
. Aleshores
V
(
X
)
=
∫
−
∞
∞
(
x
−
μ
)
2
f
(
x
)
d
x
=
∫
−
∞
∞
x
2
f
(
x
)
d
x
−
μ
2
,
{\displaystyle V(X)=\int _{-\infty }^{\infty }(x-\mu )^{2}\,f(x)\,dx=\int _{-\infty }^{\infty }x^{2}\,f(x)\,dx-\mu ^{2},}
on
μ
=
E
[
X
]
=
∫
−
∞
∞
x
f
(
x
)
d
x
{\displaystyle \mu =E[X]=\int _{-\infty }^{\infty }x\,f(x)\,dx}
, i suposem
∫
−
∞
∞
x
2
f
(
x
)
d
x
<
∞
.
{\displaystyle \int _{-\infty }^{\infty }x^{2}\,f(x)\,dx<\infty .}
Exemple Variable normal estàndard. Sigui
X
{\displaystyle X}
una variable aleatòria normal estàndard, amb funció de densitat
f
(
x
)
=
1
2
π
e
−
x
2
/
2
,
x
∈
R
.
{\displaystyle f(x)={\frac {1}{\sqrt {2\pi }}}\,e^{-x^{2}/2},\quad x\in \mathbb {R} .}
Integrant per parts,
E
(
X
2
)
=
∫
−
∞
∞
x
2
f
(
x
)
d
x
=
1
2
π
∫
−
∞
∞
x
2
e
−
x
2
/
2
d
x
=
1.
{\displaystyle E(X^{2})=\int _{-\infty }^{\infty }x^{2}\,f(x)\,dx={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }x^{2}\,e^{-x^{2}/2}\,dx=1.}
D'altra banda, l'esperança de
X
{\displaystyle X}
val
E
(
X
)
=
∫
−
∞
∞
x
e
−
x
2
/
2
d
x
=
∫
−
∞
0
x
e
−
x
2
/
2
d
x
+
∫
0
∞
x
e
−
x
2
/
2
d
x
=
−
∫
0
∞
x
e
−
x
2
/
2
d
x
+
∫
0
∞
x
e
−
x
2
/
2
d
x
=
0.
{\displaystyle E(X)=\int _{-\infty }^{\infty }x\,e^{-x^{2}/2}dx=\int _{-\infty }^{0}x\,e^{-x^{2}/2}dx+\int _{0}^{\infty }x\,e^{-x^{2}/2}dx=-\int _{0}^{\infty }x\,e^{-x^{2}/2}dx+\int _{0}^{\infty }x\,e^{-x^{2}/2}dx=0.}
Variables aleatòries sense variància [ modifica ]
Pot ocórrer que una variable aleatòria no tingui esperança: per exemple, una variable amb distribució de Cauchy . Aleshores la fórmula
E
[
(
X
−
E
[
X
]
)
2
]
{\displaystyle E{\big [}(X-E[X])^{2}{\big ]}}
no tindrà sentit. Es diu que la variància de
X
{\displaystyle X}
no existeix.
D'altra banda, també pot passar que una variable
X
{\displaystyle X}
tingui esperança, però que
E
[
X
2
]
=
∞
{\displaystyle E[X^{2}]=\infty }
. Aleshores la fórmula de la variància es pot aplicar, però dona
+
∞
{\displaystyle +\infty }
. En aquest cas també es diu que la variància de
X
{\displaystyle X}
no existeix o que és infinita. Una variable amb distribució t de Student amb dos graus de llibertat està en aquest cas.
Propietats de la variància [ modifica ]
V
(
X
)
≥
0
{\displaystyle V(X)\geq 0}
, i
V
(
X
)
=
0
{\displaystyle V(X)=0}
si i només si
X
{\displaystyle X}
és una constant quasi segurament.
V
(
a
X
+
b
)
=
a
2
V
(
X
)
{\displaystyle V(aX+b)=a^{2}V(X)}
essent
a
{\displaystyle a}
i
b
{\displaystyle b}
constants qualssevol.
V
(
X
)
=
E
[
X
2
]
−
(
E
[
X
]
)
2
.
{\displaystyle V(X)=E[X^{2}]-{\big (}E[X]{\big )}^{2}.}
Desigualtat de Txebixev : per a qualsevol constant
k
>
0
{\displaystyle k>0}
P
(
|
X
−
E
[
X
]
|
≥
k
σ
X
)
≤
1
k
2
.
{\displaystyle P\left(\left|X-E[X]\right|\geq k\sigma _{X}\right)\leq {\frac {1}{k^{2}}}.}
Desigualtat de Cauchy-Schwarz. Si
X
{\displaystyle X}
i
Y
{\displaystyle Y}
són dues variables aleatòries, aleshores,
E
[
|
X
Y
|
]
≤
E
[
X
2
]
E
[
Y
2
]
.
{\displaystyle E{\big [}\vert X\,Y\vert {\big ]}\leq {\sqrt {E[X^{2}]\,E[Y^{2}]}}.}
Nova interpretació de la variància gràcies a la desigualtat de Txebixev
La desigualtat de Txebixev permet interpretar de quina manera la variància mesura la "dispersió" d'una variable aleatòria.[6] Si a la fórmula de la desigualtat de Txebixev prenem, per exemple,
k
=
3
{\displaystyle k=3}
, aleshores la probabilitat que la variable s'allunyi de la seva mitjana més de 3 vegades la desviació típica serà menor de
1
/
9
≈
0
,
11
{\displaystyle 1/9\approx 0,11}
.
Covariància i correlació [ modifica ]
Siguin
X
{\displaystyle X}
i
Y
{\displaystyle Y}
dues variables aleatòries. Definim la covariància de
X
{\displaystyle X}
i
Y
{\displaystyle Y}
a
Cov
(
X
,
Y
)
=
E
[
(
X
−
E
[
X
]
)
(
Y
−
E
[
Y
]
)
]
=
E
[
X
Y
]
−
E
[
X
]
E
[
Y
]
,
{\displaystyle {\text{Cov}}(X,Y)=E{\big [}(X-E[X])(Y-E[Y]){\big ]}=E[X\,Y]-E[X]\,E[Y],}
on suposem que
E
[
X
2
]
<
∞
i
E
[
Y
2
]
<
∞
.
{\displaystyle E[X^{2}]<\infty \quad {\text{i}}\quad E[Y^{2}]<\infty .}
Tenim la següent fórmula per a la variància d'una suma de dues variables aleatòries:
V
(
X
+
Y
)
=
V
(
X
)
+
V
(
Y
)
+
2
Cov
(
X
,
Y
)
.
{\displaystyle V(X+Y)=V(X)+V(Y)+2\,{\text{Cov}}(X,Y).}
Més generalment, per a la variància de la suma de
n
{\displaystyle n}
variables aleatòries
X
1
,
…
,
X
n
,
{\displaystyle X_{1},\dots ,X_{n},}
tenim
V
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
V
(
X
i
)
+
2
∑
1
≤
i
<
j
≤
n
Cov
(
X
i
,
X
j
)
.
{\displaystyle V{\big (}\sum _{i=1}^{n}X_{i}{\big )}=\sum _{i=1}^{n}V(X_{i})+2\sum _{1\leq i<j\leq n}{\text{Cov}}(X_{i},X_{j}).}
Si
Cov
(
X
,
Y
)
=
0
{\displaystyle {\text{Cov}}(X,Y)=0}
, es diu que
X
{\displaystyle X}
i
Y
{\displaystyle Y}
estan incorrelacionades . En aquest cas, la variància de la suma o la resta de variables es simplifica:
V
(
X
+
Y
)
=
V
(
X
−
Y
)
=
V
(
X
)
+
V
(
Y
)
,
{\displaystyle V(X+Y)=V(X-Y)=V(X)+V(Y),}
on, al cas de la resta, hem aplicat la propietat 2 de l'apartat anterior.
Noteu que si dues variables
X
{\displaystyle X}
i
Y
{\displaystyle Y}
són independents, aleshores són incorrelacionades, ja que
E
[
X
Y
]
=
E
[
X
]
E
[
Y
]
{\displaystyle E[X\,Y]=E[X]\,E[Y]}
.
La fórmula de la variància de la suma de
n
{\displaystyle n}
variables també es simplifica: Si
X
1
,
…
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
són incorrelacionades dos a dos, és a dir,
Cov
(
X
i
,
X
j
)
=
0
,
{\displaystyle {\text{Cov}}(X_{i},X_{j})=0,}
per a
i
≠
j
{\displaystyle i\neq j}
, aleshores
V
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
V
(
X
i
)
.
{\displaystyle V{\big (}\sum _{i=1}^{n}X_{i}{\big )}=\sum _{i=1}^{n}V(X_{i}).}
Sigui
X
{\displaystyle X}
i
Y
{\displaystyle Y}
dues variables aleatòries tals que
V
(
X
)
≠
0
i
V
(
Y
)
≠
0.
{\displaystyle V(X)\neq 0\quad i\quad V(Y)\neq 0.}
Es defineix el
coeficient de correlació entre
X
{\displaystyle X}
i
Y
{\displaystyle Y}
al nombre
ρ
=
Cov
(
X
,
Y
)
σ
X
σ
Y
.
{\displaystyle \rho ={\frac {{\text{Cov}}(X,Y)}{\sigma _{X}\,\sigma _{Y}}}.}
Es té que
−
1
≤
ρ
≤
1
{\displaystyle -1\leq \rho \leq 1}
. A més, si
ρ
=
1
{\displaystyle \rho =1}
, aleshores existeixen nombres
a
,
b
{\displaystyle a,\,b}
, amb
a
>
0
{\displaystyle a>0}
, tals que (quasi segurament)
Y
=
a
X
+
b
.
{\displaystyle Y=aX+b.}
I si
ρ
=
−
1
{\displaystyle \rho =-1}
, aleshores existeixen nombres
a
,
b
{\displaystyle a,\,b}
, amb
a
<
0
{\displaystyle a<0}
, tals que (quasi segurament)
Y
=
a
X
+
b
.
{\displaystyle Y=aX+b.}
Per aquest motiu, el coeficient de correlació s'interpreta com una mesura del grau d'
associació lineal entre dues variables (però no del grau d'associació general).
Variància d'una població finita [ modifica ]
En estadística descriptiva [4] es considera una població (de persones o de coses: també s'anomena univers o col·lectiu ) finita, amb
N
{\displaystyle N}
elements , i es mesura una característica numèrica. Els resultats, iguals o diferents, es designen per
x
1
,
…
,
x
N
{\displaystyle x_{1},\dots ,x_{N}}
. La mitjana o mitjana aritmètica es defineix per
x
¯
=
x
1
+
⋯
+
x
N
N
=
1
N
∑
i
=
1
N
x
i
.
{\displaystyle {\overline {x}}={\frac {x_{1}+\cdots +x_{N}}{N}}={\frac {1}{N}}\sum _{i=1}^{N}x_{i}.}
La variància es defineix per
v
=
(
x
1
−
x
¯
)
2
+
⋯
+
(
x
N
−
x
¯
)
2
N
=
1
N
∑
i
=
1
N
(
x
i
−
x
¯
)
2
.
{\displaystyle v={\frac {(x_{1}-{\overline {x}})^{2}+\cdots +(x_{N}-{\overline {x}})^{2}}{N}}={\frac {1}{N}}\sum _{i=1}^{N}(x_{i}-{\overline {x}})^{2}.}
En general, en les observacions hi ha nombres repetits i només tenim
K
{\displaystyle K}
valors diferents, que escriurem
x
1
,
…
,
x
K
{\displaystyle x_{1},\dots ,x_{K}}
, de manera que els
N
{\displaystyle N}
nombres es resumeixen en una taula de freqüències :
on
F
i
{\displaystyle F_{i}}
és la freqüència absoluta de la dada
x
i
{\displaystyle x_{i}}
, és a dir, el nombre de vegades que surt aquesta dada, i
f
i
=
F
i
/
N
{\displaystyle f_{i}=F_{i}/N}
és la freqüència relativa. Aleshores la mitjana es calcula per la fórmula
x
¯
=
1
N
∑
i
=
1
K
x
i
F
i
=
∑
i
=
1
K
x
i
f
i
,
{\displaystyle {\overline {x}}={\frac {1}{N}}\sum _{i=1}^{K}x_{i}F_{i}=\sum _{i=1}^{K}x_{i}f_{i},}
i la variància per
v
=
1
N
∑
i
=
1
K
(
x
i
−
x
¯
)
2
F
i
=
∑
i
=
1
K
(
x
i
−
x
¯
)
2
f
i
.
{\displaystyle v={\frac {1}{N}}\sum _{i=1}^{K}(x_{i}-{\overline {x}})^{2}F_{i}=\sum _{i=1}^{K}(x_{i}-{\overline {x}})^{2}f_{i}.}
Atès que la variància de la població descrita per la taula anterior coincideix amb la variància d'una variable aleatòria discreta que prengui els valors
x
1
,
…
,
x
K
{\displaystyle x_{1},\dots ,x_{K}}
amb probabilitats
f
1
,
…
,
f
K
{\displaystyle f_{1},\dots ,f_{K}}
, les propietats i fórmules que hem comentat als apartats anteriors també serveixen per aquest cas. Aleshores, per la Propietat 3 de la variància, tenim la fórmula
v
=
1
N
∑
i
=
1
K
x
i
2
F
i
−
(
x
¯
)
2
=
∑
i
=
1
K
x
i
2
f
i
−
(
x
¯
)
2
.
{\displaystyle v={\frac {1}{N}}\sum _{i=1}^{K}x_{i}^{2}F_{i}-({\overline {x}})^{2}=\sum _{i=1}^{K}x_{i}^{2}f_{i}-({\overline {x}})^{2}.}
Aquesta fórmula és útil per a calcular la variància amb les dades tabulades. Per exemple, utilitzant freqüències absolutes tenim
x
{\displaystyle x}
F
{\displaystyle F}
x
F
{\displaystyle xF}
x
2
{\displaystyle x^{2}}
x
2
F
{\displaystyle x^{2}F}
x
1
{\displaystyle x_{1}}
F
1
{\displaystyle F_{1}}
x
1
F
1
{\displaystyle x_{1}F_{1}}
x
1
2
{\displaystyle x_{1}^{2}}
x
1
2
F
1
{\displaystyle x_{1}^{2}F_{1}}
x
2
{\displaystyle x_{2}}
F
2
{\displaystyle F_{2}}
x
2
F
2
{\displaystyle x_{2}F_{2}}
x
2
2
{\displaystyle x_{2}^{2}}
x
2
2
F
2
{\displaystyle x_{2}^{2}F_{2}}
⋮
{\displaystyle \vdots }
⋮
{\displaystyle \vdots }
⋮
{\displaystyle \vdots }
⋮
{\displaystyle \vdots }
⋮
{\displaystyle \vdots }
x
K
{\displaystyle x_{K}}
F
K
{\displaystyle F_{K}}
x
K
F
K
{\displaystyle x_{K}F_{K}}
x
K
2
{\displaystyle x_{K}^{2}}
x
K
2
F
K
{\displaystyle x_{K}^{2}F_{K}}
TOTAL
N
{\displaystyle N}
∑
i
=
1
K
x
i
F
i
{\displaystyle \sum _{i=1}^{K}x_{i}F_{i}}
∑
i
=
1
K
x
i
2
F
i
{\displaystyle \sum _{i=1}^{K}x_{i}^{2}F_{i}}
Llavors dividint el total de la tercera columna per
N
{\displaystyle N}
s'obté
x
¯
{\displaystyle {\overline {x}}}
, i dividint el total de la cinquena columna per
N
{\displaystyle N}
s'obté l'altre terme que intervé en la fórmula de la variància.
Per a variància poblacional i variància mostral vegeu la pàgina desviació tipus .
↑ Chung , Kai Lai. Teoría elemental de la probabilidad y de los procesos estocásticos, cap . 6 . Editorial Reverté, 1983.
↑ Variance a MathWorld (anglès)
↑ «variance | statistics | Britannica » (en anglès). [Consulta: 29 gener 2022].
↑ 4,0 4,1 Lobez Urquía, J. ; Casa Aruta, E. . Estadística intermedia . Segunda edición. Vicens-Vives, 1975.
↑ «Standard Deviation and Variance ». [Consulta: 4 febrer 2022].
↑ Bonet, E. . Espais de probabilitat finits . Barcelona: Editorial Lavínia, S. A., 1969, p. 158.