Cas multidimensional[modifica]
Sigui
un vector aleatori de dimensió
, és a dir, una aplicació
tal que cada component
és una variable aleatòria. La seva funció característica és l'aplicació
definida per
![{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=E[e^{i(t_{1}X_{1}+\cdots +t_{d}X_{d})}],\quad (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/24ca82c31ee9a586208c4bbccbf51e34e8a6b378)
Amb notació vectorial, si designem per
![{\textstyle <{\boldsymbol {s}},{\boldsymbol {t}}>=\sum _{j=1}^{d}s_{j}t_{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/63d80b84b224e8b66d04aca2beb9e65e6daff21b)
el producte escalar ordinari de dos vectors
![{\displaystyle {\boldsymbol {s}}=(s_{1},\dots ,s_{d})\ {\text{i}}\ {\boldsymbol {t}}=(t_{1},\dots ,t_{d})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/295c08dd16615e62d06d48b728d79265dbe026f6)
,
![{\displaystyle \varphi _{\boldsymbol {X}}({\boldsymbol {t}})=E[e^{i\,<{\boldsymbol {t}},{\boldsymbol {X}}>}],\quad {\boldsymbol {t}}\in \mathbb {R} ^{d}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f99ea22fe7362a83e8a72ea845377ff751fc6299)
Quan no hi hagi confusió, escriurem
![{\displaystyle \varphi }](https://wikimedia.org/api/rest_v1/media/math/render/svg/33ee699558d09cf9d653f6351f9fda0b2f4aaa3e)
en lloc de
![{\displaystyle \varphi _{\boldsymbol {X}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/19c47acfb581052f23fb793fc8dec29c59f32432)
.
Càlcul de la funció característica[modifica]
Sigui
un vector aleatori discret amb funció de probabilitat
. Aleshores la seva funció característica és
![{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=\sum _{x_{1},\dots ,x_{d}}e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,p_{\boldsymbol {X}}(x_{1},\dots ,x_{d}),\quad (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6b56c0dbc052b79cb43bb7990c0e771cc4fba126)
Cas absolutament continu[modifica]
Si
és un vector aleatori amb funció de densitat
. Aleshores la seva funció característica és
![{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,f_{\boldsymbol {X}}(x_{1},\dots ,x_{d})\,dx_{1}\cdots dx_{d},\quad (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/06b0aa8033e856279a578b5eaabe61629dd2643a)
Les propietats de les funcions característiques unidimensionals es trasllades al cas vectorial. Les següents propietats es troben a Sato ; per a les demostracions completes vegeu Cuppens.
, on
.
.
- la funció
és uniformement contínua.
- La funció
és hermítica: ![{\displaystyle \varphi (-{\boldsymbol {t}})={\overline {\varphi ({\boldsymbol {t}})}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3f5795fb7bb120d2bfb0181f820e7beb10ea1c0b)
- Per aquesta propietat és convenient escriure tots els vectors en columna, tal com és habitual en Algebra lineal. Designarem per
la transposada d'una matriu (o vector)
. Sigui
un vector aleatori,
un vector d'escalars i
una matriu
. Definim![{\displaystyle {\boldsymbol {Y}}={\boldsymbol {A\,X}}+{\boldsymbol {b}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a394fc440cc5aa7bafafd720dcf03f49802d1416)
Aleshores, ![{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=e^{i\,<{\boldsymbol {t}},{\boldsymbol {b}}>}\,\varphi _{\boldsymbol {X}}({\boldsymbol {A't}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {b}}}\,\varphi _{\boldsymbol {X}}({\boldsymbol {A't}}),\quad {\boldsymbol {t}}=(t_{1},\dots ,t_{k})'\in \mathbb {R} ^{k}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/426d0c47e9e602dc23eef385e1c16126c3681d8d)
- Teorema d'inversió. Necessitem algunes notacions: Recordem que un conjunt
, on
és la
-àlgebra de Borel sobre
, es diu que és un conjunt de continuïtat de (la distribució de)
si
, on
és la frontera de
. Donats dos vectors,
escriurem
(respectivament
) si
(respectivament
). Si
designarem per
el conjunt
; de manera anàloga es defineix
. Si
és un conjunt de continuïtat de
, aleshores
![{\displaystyle P{\big (}X\in ({\boldsymbol {a}},{\boldsymbol {b}}){\big )}={\frac {1}{(2\pi )^{d}}}\lim _{\tau _{1}\to \infty }\cdots \lim _{\tau _{d}\to \infty }\int _{-\tau _{1}}^{\tau _{1}}\cdots \int _{-\tau _{d}}^{\tau _{d}}\prod _{j=1}^{d}{\frac {e^{-it_{j}a_{j}}-e^{it_{j}b_{j}}}{it_{j}}}\,\varphi (t_{1},\dots ,t_{d})\,dt_{1}\cdots dt_{d}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/96d09e8354c6eae1306499456306829401d88e1d)
- Teorema d'unicitat. si
i
són dos vectors aleatoris, amb funcions característiques
i
respectivament, tals que![{\displaystyle \varphi _{\boldsymbol {X}}({\boldsymbol {t}})=\varphi _{\boldsymbol {Y}}({\boldsymbol {t}}),\quad \forall {\boldsymbol {t}}\in \mathbb {R} ^{d},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a773b33eb6e44f20d62365d4cfe57785cf2b23e0)
aleshores
i
tenen la mateixa distribució.
- Funció característica i independència. Els vectors aleatoris
-dimensionals
són independents si i només si ![{\displaystyle \varphi _{({\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{k})}({\boldsymbol {t}}_{1},\dots ,{\boldsymbol {t}}_{k})=\varphi _{{\boldsymbol {X}}_{1}}({\boldsymbol {t}}_{1})\cdots \varphi _{{\boldsymbol {X}}_{k}}({\boldsymbol {t}}_{k}),\quad \forall {\boldsymbol {t}}_{1},\dots ,{\boldsymbol {t}}_{k}\in \mathbb {R} ^{d}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e058ee14ec07b6bd7d11b772c8e93a0e0aaee4a0)
- Funció característica i suma de vectors aleatoris independents. Siguin
vectors aleatoris
-dimensionals independents i posem![{\displaystyle {\boldsymbol {Y}}={\boldsymbol {X}}_{1}+\cdots +{\boldsymbol {X}}_{k}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5847ef44ac393eba1f807258cf45ea4571a4c704)
Aleshores ![{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=\varphi _{{\boldsymbol {X}}_{1}}({\boldsymbol {t}})\cdots \varphi _{{\boldsymbol {X}}_{k}}({\boldsymbol {t}}),\quad \forall {\boldsymbol {t}}\in \mathbb {R} ^{d}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/33619803a0b6d7ce521a6de8f303ded3c61432f1)
- Funció característica i moments. Recordem que es diu que un vector aleatori
té moment d'ordre
, on
, si
, i, en aquest cas, es defineix el moment d'ordre
per
![{\displaystyle m_{n_{1},\dots ,n_{d}}=E{\big [}X_{1}^{n_{1}}\cdots X_{d}^{n_{d}}{\big ]}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d57ad3f90f2bea8b7badb1fa14451e100ddce1e1)
Si el vector aleatori
![{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d3f3f8bfc17e26013d1735a40d75e23732a44585)
compleix que
![{\displaystyle E{\big [}\Vert {\boldsymbol {X}}\Vert ^{m}{\big ]}<\infty }](https://wikimedia.org/api/rest_v1/media/math/render/svg/feedf753b9410e5eb6c190ab6023dd2a459622bc)
, on
![{\textstyle \Vert {\boldsymbol {x}}\Vert ={\sqrt {\sum _{j=1}^{d}x_{j}^{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bcecfe795b8aa6ff37e45509fe9e5c5511f6e32d)
és la norma d'un vector
![{\displaystyle {\boldsymbol {x}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/606b7680d510560a505937143775ea80fa958051)
, aleshores la funció característica
![{\displaystyle \varphi }](https://wikimedia.org/api/rest_v1/media/math/render/svg/33ee699558d09cf9d653f6351f9fda0b2f4aaa3e)
és de classe
![{\displaystyle {\mathcal {C}}^{m}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ebbc6dfeac005089d4848aac4039a9882233dd3c)
i per a qualsevol
![{\displaystyle n_{1},\dots ,n_{d}\geq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1f2034eb83233fe8beb9e40ea4a599a612052d8b)
, amb
![{\displaystyle \sum _{j=1}^{d}n_{j}\leq m}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2ef4e0378ab8033768279794b3e58b24dd7374f3)
,
![{\displaystyle E(X_{1}^{n_{1}}\cdots X_{k}^{n_{d}})={\frac {1}{i^{n_{1}+\cdots +n_{d}}}}\,{\frac {\partial ^{n_{1}+\cdots +n_{d}}}{\partial t_{1}^{n_{1}}\cdots \partial t_{k}^{n_{d}}}}\,\varphi (t_{1}\dots ,t_{d}){\Big \vert }_{t_{1}=0,\dots ,t_{d}=0}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/114fe0a37e6aefb4bc2ef9bac0711c423cef2bfc)
Recíprocament, si la funció característica
![{\displaystyle \varphi }](https://wikimedia.org/api/rest_v1/media/math/render/svg/33ee699558d09cf9d653f6351f9fda0b2f4aaa3e)
és de classe
![{\displaystyle {\mathcal {C}}^{m}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ebbc6dfeac005089d4848aac4039a9882233dd3c)
per a
![{\displaystyle m}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0a07d98bb302f3856cbabc47b2b9016692e3f7bc)
parell , aleshores el vector
![{\displaystyle {\boldsymbol {X}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/899e933d518eefcbbd0c48512cc7887ee117d040)
té moments d'ordre
![{\displaystyle (n_{1},\dots ,n_{d})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dde8950a2dfd43445c25cce83d575f0076e0f7ed)
per qualsevol
![{\displaystyle n_{1},\dots ,n_{d}\geq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1f2034eb83233fe8beb9e40ea4a599a612052d8b)
, amb
![{\displaystyle \sum _{j=1}^{d}n_{j}\leq m}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2ef4e0378ab8033768279794b3e58b24dd7374f3)
.
- Funció característica i convergència en distribució. Sigui
una successió de vectors aleatoris
-dimensionals. Designem per
la funció característica del vector
. Aleshores la successió convergeix en distribució a un vector aleatori
si i només si ![{\displaystyle \forall {\boldsymbol {t}}\in \mathbb {R} ^{d},\ \varphi _{{\boldsymbol {X}}_{n}}({\boldsymbol {t}})\to \phi ({\boldsymbol {t}}),\ {\text{quan}}\ n\to \infty ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9d8833d149fe11119ef4347c6758205d06195eeb)
on
és una funció contínua en
. En aquest cas,
és la funció característica de ![{\displaystyle {\boldsymbol {X}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/899e933d518eefcbbd0c48512cc7887ee117d040)
Distribució multinomial[modifica]
Considerem un experiment que pot tenir
resultats diferents, que designarem per
, amb probabilitats
,
. Fem
repeticions independents i denotem per
el nombre de vegades que obtenim el resultat
, per
el nombre de vegades que obtenim el resultat
, i així successivament. Aleshores la probabilitat d'obtenir
vegades el resultat
,
vegades el resultat
, etc. amb
és
![{\displaystyle p_{(X_{1},\dots ,X_{d})}(x_{1},\dots ,x_{d})=P(X_{1}=x_{1},\dots ,X_{d}=x_{d})={\frac {n!}{x_{1}!\cdots x_{d}!}}\,p_{1}^{x_{1}}\cdots p_{d}^{x_{d}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/59f60b8d38f04fc1e398636f79493191d476ba87)
Es diu que el vector
segueix una distribució multinomial[3] [4] de paràmetres
, i s'escriu
. Cal notar que cada component
té una distribució binomial de paràmetres
i
,
. De fet, una distribució multinomial és una extensió de la distribució binomial quan hi ha més de dos resultats possibles. La funció característica del vector
és
![{\displaystyle \varphi (t_{1},\dots ,t_{d})={\big (}p_{1}e^{it_{1}}+\cdots +p_{d}e^{it_{d}}{\big )}^{n},\ t_{1},\dots ,t_{d}\in \mathbb {R} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8ee548df7fd53f78b85cb548b6af45882589defe)
Càcul de la funció característica
Per a
![{\displaystyle t_{1},\dots ,t_{d}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/13ee448b81228fbea88bf97ec93b8b1039a9db89)
,
![{\displaystyle {\begin{aligned}\varphi (t_{1},\dots ,t_{d})&=E(e^{i\sum _{j=1}^{d}t_{j}X_{j}})=\sum _{x_{1},\dots ,x_{d}\in \{0,\dots ,n\}, \atop \sum _{j=1}^{d}x_{j}=n}{\frac {n!}{x_{1}!\cdots x_{d}!}}\,e^{i\sum _{j=1}^{d}t_{j}x_{j}}p_{1}^{x_{1}}\cdots p_{d}^{x_{d}}\\&=\sum _{x_{1},\dots ,x_{d}\in \{0,\dots ,n\}, \atop \sum _{j=1}^{d}x_{j}=n}{\frac {n!}{x_{1}!\cdots x_{d}!}}\,{\big (}p_{1}e^{it_{1}}{\big )}^{x_{1}}\cdots {\big (}p_{d}e^{it_{d}})^{x_{d}}={\big (}p_{1}e^{it_{1}}+\dots +p_{d}e^{it_{d}}{\big )}^{n},\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1b5687082db7937b964593281b36d311529b382a)
on a l'última igualtat hem aplicat la
fórmula
![{\displaystyle (a_{1}+a_{2}+\cdots +a_{d})^{n}=\sum {\binom {n}{x_{1},\dots ,x_{d}}}a_{1}^{x_{1}}\cdots a_{d}^{x_{d}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/20d4d8b80d999677a9f8204db39b8d374a0bafdb)
on la suma es fa sobre totes les
![{\displaystyle d}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e85ff03cbe0c7341af6b982e47e9f90d235c66ab)
-
ples ![{\displaystyle (x_{1},\dots ,x_{d})\in \mathbb {\{} 0,1,\dots ,n\}^{d}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f7adb4f73802b66ad40660bdbd437e1330cd699b)
tals que
![{\displaystyle x_{1}+\cdots +x_{d}=n}](https://wikimedia.org/api/rest_v1/media/math/render/svg/80d9e0feb7cf7fe06713680648d6863d01e42e84)
.
A partir d'aquesta funció característica podem calcular de manera senzilla
:
![{\displaystyle {\frac {\partial ^{2}}{\partial t_{1}\partial t_{2}}}\varphi (t_{1},\dots ,t_{d})=-n(n-1)(p_{1}e^{it_{1}}+\cdots +p_{d}e^{it_{d}})^{n-2}p_{1}p_{2}e^{it_{1}}e^{it_{2}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8175f6541152cb56d418a14878efe095731cb59d)
d'on
![{\displaystyle E(X_{1}X_{2})=n(n-1)p_{1}p_{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f5b77a8fe2b8dc37be06de371f1dace8448cbf15)
Distribució normal multivariant[modifica]
Vegeu Anderson [5]. En aquest exemple escriurem tots els vectors en columna. Un vector aleatori
es diu que segueix una distribució normal
-dimensional
on
és la matriu identitat, si té funció de densitat
![{\displaystyle f(x_{1},\dots ,x_{d})={\frac {1}{(2\pi )^{d/2}}}\,e^{-(x_{1}^{2}+\cdots +x_{d}^{2})/2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d953620c6b11943b60e66551c0224eefc5bef5ed)
Cal notar que les components del vector són independents, cadascuna amb una
distribució normal estàndard
![{\displaystyle {\mathcal {N}}(0,1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a3eeb356405c0b33b680b5caa425ada4e9f53e8b)
. La seva funció característica és
![{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=e^{-(t_{1}^{2}+\cdots +t_{d}^{2})/2}=e^{-{\boldsymbol {t}}'{\boldsymbol {t}}/2},\ {\boldsymbol {t}}=(t_{1},\dots ,t_{d})^{\prime }\in \mathbb {R} ^{d}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1ee2b9903c1ca212f7215e510841237efc724e5f)
Càcul de la funció característica
![{\displaystyle {\begin{aligned}\varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})&=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,f_{\boldsymbol {X}}(x_{1},\dots ,x_{d})\,dx_{1}\cdots dx_{d}\\&={\frac {1}{(2\pi )^{d/2}}}\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,e^{-(x_{1}^{2}+\cdots +_{d}^{2})/2}\,dx_{1}\cdots dx_{d}\\&={\frac {1}{(2\pi )^{d/2}}}\int _{-\infty }^{\infty }e^{it_{1}x_{1}-x_{1}^{2}/2}\,dt_{1}\cdots \int _{-\infty }^{\infty }e^{it_{d}x_{d}-x_{d}^{2}/2}\,dt_{d}\\&=e^{-(t_{1}^{2}+\cdots +t_{d}^{2})/2},\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/48daeab9a8ac5acdc64c01af2340fb7bf2776a9d)
on hem utilitzar la funció característica de la distribució
![{\displaystyle {\mathcal {N}}(0,1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a3eeb356405c0b33b680b5caa425ada4e9f53e8b)
que hem calculat abans.
Sigui
una matriu
definida positiva [6] i
un vector d'escalars. La matriu
té una matriu arrel quadrada [7]
definida positiva ( i per tant simètrica), que compleix
. Definim
![{\displaystyle {\boldsymbol {Y}}={\boldsymbol {\Sigma }}^{1/2}{\boldsymbol {X}}+{\boldsymbol {\mu }}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dfa515787998e94f9f00b0c9d198df75deccf481)
Per la fórmula que hem vist abans, la funció característica de
![{\displaystyle {\boldsymbol {Y}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/026ecbeeef99cb5ee8eaef9ec2f59bf7a8fce8fa)
serà, per
![{\displaystyle {\boldsymbol {t}}=(t_{1},\dots ,t_{d})'\in \mathbb {R} ^{d}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/989709e52502e4ef460546d6a19b755369b50bb7)
,
![{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}}\,\varphi _{\boldsymbol {X}}({\boldsymbol {\Sigma ^{1/2}t}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}}\,e^{-(\Sigma ^{1/2}{\boldsymbol {t}})'\Sigma ^{1/2}{\boldsymbol {t}}/2}=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}-{\boldsymbol {t}}'\Sigma {\boldsymbol {t}}/2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/278b684342f7979c2e21a5412b44257b20ed758e)
D'altra banda, atès que
![{\displaystyle {\text{E}}({\boldsymbol {X}})={\big (}{\text{E}}(X_{1}),\dots ,{\text{E}}(X_{d}){\big )}'={\boldsymbol {0}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ed83df8361c46fe8d071451175ce05e01f79998a)
d'on
![{\displaystyle {\text{E}}({\boldsymbol {Y}})={\big (}{\text{E}}(Y_{1}),\dots ,{\text{E}}(Y_{d}){\big )}'=(\mu _{1},\dots ,\mu _{d})'={\boldsymbol {\mu }}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d2ad5e09b2a45b375c755d24fe7d57dcfba13d80)
I per les propietats de la matriu de variàncies-covariàncies, la matriu de variàncies-covariàncies del vector
![{\displaystyle {\boldsymbol {Y}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/026ecbeeef99cb5ee8eaef9ec2f59bf7a8fce8fa)
serà:
![{\displaystyle {\boldsymbol {V}}({\boldsymbol {Y}})={\boldsymbol {\Sigma }}^{1/2}\,{\boldsymbol {V}}({\boldsymbol {Y}})\,{\boldsymbol {\Sigma }}^{1/2}={\boldsymbol {\Sigma }}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c8466027ccae833facfd0cdf69c5b6e29f3b041f)
S'escriu
![{\displaystyle {\boldsymbol {Y}}\sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/25e4f5b4b6a1f2630396aa152c2a6b8bb6a925dc)
. Utilitzant la fórmula del canvi de variables per a vectors aleatoris amb densitat, podem calcular la funció de densitat de
![{\displaystyle {\boldsymbol {Y}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/026ecbeeef99cb5ee8eaef9ec2f59bf7a8fce8fa)
, que és:
![{\displaystyle f_{\boldsymbol {Y}}(x_{1},\dots ,x_{d})={\frac {1}{(2\pi )^{d/2}{\sqrt {{\text{det}}\,{\boldsymbol {\Sigma }}}}}}\,e^{-({\boldsymbol {x}}-{\boldsymbol {\mu }})'{\boldsymbol {\Sigma }}^{-1}({\boldsymbol {x}}-{\boldsymbol {\mu }})/2},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8e5491236de15a089f28b5f3b76a623c7e33aca6)
on
![{\displaystyle {\text{det}}\,{\boldsymbol {\Sigma }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/22285939ac2591557cb8cc57a49a7e3106ede73b)
és el determinant de la matriu
![{\displaystyle {\boldsymbol {\Sigma }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8532511177f5a2d2dc2b8c1ea37d483c70266911)
.
En el cas que hem vist fins ara, la matriu de variàncies-covariàncies del vector normal multidimensional
era no singular, és a dir,
. Utilitzant la funció característica es pot definir un vector normal multidimensional de manera que inclogui el cas que la matriu de variàncies covariàncies sigui singular i que s'anomena vector normal multidimensional singular o degenerat [8] [9]; aquest vector està concentrat en una varietat lineal (estricte) de
i no té funció de densitat. Específicament, sigui
una matriu
definida no negativa i
un vector d'escalars; un vector aleatori
, es diu que és normal multidimensional, i s'escriu
si té funció característica
![{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}-{\boldsymbol {t}}'\Sigma {\boldsymbol {t}}/2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/018e43c10adfbb40271e265c37963e7f18a953d9)
Quan
![{\displaystyle {\text{det}}\,{\boldsymbol {\Sigma }}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/781bede28db1d9939bfb0001dcdf335d2bcb4a89)
es diu que és un vector
normal multidimensional singular; en aquest cas, també el vector d'esperances és
![{\displaystyle {\boldsymbol {\mu }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a1aee7d7b4a36d96dfb35bfee9c7751bba1fdfbe)
i la matriu de variàncies és
![{\displaystyle {\boldsymbol {\Sigma }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8532511177f5a2d2dc2b8c1ea37d483c70266911)
, però si el rang de
![{\displaystyle {\boldsymbol {\Sigma }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8532511177f5a2d2dc2b8c1ea37d483c70266911)
és
![{\displaystyle r}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0d1ecb613aa2984f0576f70f86650b7c2a132538)
, aleshores la distribució de
![{\displaystyle {\boldsymbol {Y}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/026ecbeeef99cb5ee8eaef9ec2f59bf7a8fce8fa)
està concentrada en una varietat lineal de dimensió
![{\displaystyle r}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0d1ecb613aa2984f0576f70f86650b7c2a132538)
i per tant no té funció de densitat.
Les variables
són independents i totes tenen distribució
. En efecte, per exemple, la funció de densitat marginal de
és
![{\displaystyle {\begin{aligned}f_{X_{1}}(x_{1})&=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }f_{(X_{1},\dots ,X_{d})}(X_{1},\dots ,x_{d})\,dx_{2}\cdots dx_{d}\\&={\frac {1}{\sqrt {2\pi }}}\,e^{-x_{1}^{2}/2}\,{\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }e^{-x_{2}^{2}/2}\,dx_{2}\cdots {\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }e^{-x_{d}^{2}/2}\,dx_{d}={\frac {1}{\sqrt {2\pi }}}\,e^{-x_{1}^{2}/2}.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9232a4a13e23c8c91ce0f300f23a46879a28d26d)
Per tant, d'una banda
![{\displaystyle X_{1}\sim {\mathcal {N}}(0,1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/150fa5b8e754a96d4807f705a5aef1ab9542153b)
. I de l'altra, tenim que
![{\displaystyle f_{(X_{1},\dots ,X_{d})}(x_{1},\dots ,{\boldsymbol {x}}_{d})=f_{X_{1}}(x_{1})\cdots f_{X_{d}}(x_{d}),\quad \forall x_{1},\dots ,x_{d}\in \mathbb {R} ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e8e087c9a8a1b119a76f6a231d4756aa87da0270)
d'on
![{\displaystyle X_{1},\dots ,X_{d}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b0316987de06d0f2686274256e042705c267e180)
són independents. Aleshores, utilitzant la relació entre variables independents i funcions característiques i l'expressió de la funció característica de la distribució normal
![{\displaystyle {\mathcal {N}}(0,1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a3eeb356405c0b33b680b5caa425ada4e9f53e8b)
que hem calculat abans, tenim que per qualsevol
![{\displaystyle t_{1},\dots t_{d}\in \mathbb {R} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/50b3f2d8d30ce2166e583fede4967bf069c3b2e8)
,
![{\displaystyle \varphi _{(X_{1},\dots ,X_{d})}(t_{1},\dots ,t_{d})=\varphi _{X_{1}}(t_{1})\cdots \varphi _{X_{d}}(t_{d})=e^{-t_{1}^{2}/2}\cdots e^{-t_{d}^{2}/2}=e^{-(t_{1}^{2}+\cdots +t_{d}^{2})/2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3269482c66ea41eb4e3fe62e82ee2f1cca167d0f)
- ↑ Johnson, N. L.; Kotz, S.; Balakrihsnan, N. Discrete Multivariate Distributions. Nova York: Wiley, 1997. ISBN 0-471-12844-1.
- ↑ Forbes, C.; Evans, M.; Hastings, N.; Peacock, B. Statistical distributions.. 4th ed.. Oxford: Wiley-Blackwell, 2010, pp.135-136. ISBN 978-0-470-62724-2.
- ↑ Anderson, T. W.. An introduction to multivariate statistical analysis. 3rd ed. Hoboken, N.J.: Wiley-Interscience, 2003. ISBN 0-471-36091-0.
- ↑ Per definició, una matriu definida positiva és simètrica
- ↑ Seber, G. A. F.. A matrix handbook for statisticians. Hoboken, N.J.: Wiley-Interscience, 2008, p. 220. ISBN 978-0-470-22678-0.
- ↑ Bryc, Wlodzimierz. The normal distribution : characterizations with applications. New York: Springer-Verlag, 1995. ISBN 0-387-97990-5.
- ↑ Per altres definicions alternatives, vegeu Seber, G. A. F.. A matrix handbook for statisticians. Hoboken, N.J.: Wiley-Interscience, 2008, p. 436. ISBN 978-0-470-22678-0.
Sato, Ken-iti. Lévy processes and infinitely divisible distributions. Cambridge, U.K.: Cambridge University Press, 1999, p. 9. ISBN 0-521-55302-4.
Cuppens, Roger. Decomposition of multivariate probabilities. New York: Academic Press, 1975. ISBN 0-12-199450-3.