Teoria probabilităților

Calitatea informațiilor sau a exprimării din acest articol sau secțiune trebuie îmbunătățită.
Consultați manualul de stil și îndrumarul, apoi dați o mână de ajutor.
Acest articol a fost etichetat în iunie 2014
Acest articol sau această secțiune are bibliografia incompletă sau inexistentă.
Puteți contribui prin adăugarea de referințe în vederea susținerii bibliografice a afirmațiilor pe care le conține.

Teoria probabilităților este o ramură a matematicii care studiază modul în care se desfășoară fenomenele aleatoare, opuse celor numite deterministe. În lumea înconjurătoare, fenomenele deterministe ocupă doar o mică parte. Imensa majoritate a fenomenelor din natură și societate sunt stocastice (aleatoare). Studiul acestora nu poate fi făcut pe cale deterministă și, de aceea, știința hazardului a apărut ca o necesitate.

Aplicarea matematicii la studierea fenomenelor aleatoare se bazează pe faptul că, prin repetarea de mai multe ori a unui experiment, în condiții practic identice, frecvența relativă a apariției unui anumit rezultat (raportul dintre numărul experimentelor în care apare rezultatul și numărul tuturor experimentelor efectuate) este aproximativ același, oscilând în jurul unui număr constant. Dacă acest lucru se întâmplă, atunci unui eveniment dat i se poate asocia un număr, anume probabilitatea sa. Această legătură între structura unui câmp de evenimente și număr este o reflectare în matematică a transformării calității în cantitate. Problema convertirii în număr a unui câmp de evenimente revine la a defini o funcție numerică pe această structură, care să fie o măsură a posibilităților de realizare a evenimentelor. Realizarea unui eveniment fiind probabilă, această funcție se numește probabilitate.

Scurt istoric

Începuturile teoriei probabilităților sunt legate de numele matematicienilor Blaise Pascal și Pierre Fermat în secolul al XVII-lea, ajungând la probleme legate de probabilitate datorită jocurilor de noroc. Dezvoltarea teoriei probabilităților și cercetarea unor probleme nelegate de jocurile de noroc sunt legate de matematicienii: Abraham Moivre, Pierre-Simon Laplace, Carl Friedrich Gauss, Simon-Denis Poisson, Pafnuti Lvovici Cebîșev, Andrei Andreevici Markov în secolul XIX, iar în secolul al XX-lea Andrei Nikolaevici Kolmogorov și al lui Alexandr Iakovlevici Hincin.

Probabilitatea evenimentelor aleatoare

Clasificarea evenimentelor

a) sigur - evenimentul apariției uneia din fețele 1,2,3,4,5,6 ale unui zar;
b) imposibil- evenimentul apariției feței 7 la aruncarea unui zar;
c) aleator - evenimentul apariției feței 3 la aruncarea unui zar.

Frecvența unui eveniment

h ( E ) {\displaystyle h(E)\,} = m n {\displaystyle {m \over n}} , unde m reprezintă numărul de apariții E în cazul a n încercări.

Probabilitatea unor evenimente aleatoare

În cazul unui număr n suficient de mare de experimente în care evenimentul E apare de m ori, frecvența relativă m/n poate fi socotită ca valoarea probabilităților. Această valoare se numește probabilitatea (statistică a) evenimentului E și se notează P(E); P ( E ) = m n {\displaystyle P(E)={m \over n}} .

Evenimente incompatibile, contrare

  • Evenimente incompatibile - evenimentele nu se produc simultan.
  • Evenimente contrare - producerea unuia înseamnă nerealizarea celorlalte.

Regula de adunare și cea de înmulțire

  • Regula de adunare

Probabilitatea reuniunii unui număr de evenimente incompatibile este egală cu suma probabilităților acestor evenimente:
P(E 1 {\displaystyle _{1}\cup } E 2 {\displaystyle _{2}\cup } E 3 {\displaystyle _{3}\cup } E 4 {\displaystyle _{4}\cup } ... {\displaystyle \cup } E K {\displaystyle _{K}} )=P(E 1 {\displaystyle _{1}} )+P(E 2 {\displaystyle _{2}} )+P(E 3 {\displaystyle _{3}} )+ P(E 4 {\displaystyle _{4}} )+...+P(E K {\displaystyle _{K}} ).

  • Regula de înmulțire
  • pentru evenimente independente: P(E {\displaystyle \cap } F)=P(E) {\displaystyle \cdot } P(F)
  • pentru evenimente condiționate: P(E {\displaystyle \cap } F)=P(F) {\displaystyle \cdot } P(E/F) Ex:·         Fie A și B dou ă evenimente: Pr(A ∩B) = Pr(A)·Pr(B|A) •Evenimente independente Pr(B|A) = Pr(B) A = {TAS mam ă > 140 mmHg}, Pr(A) = 0,10 • B = {TAS tat ă > 140 mmHg}, Pr(B) = 0,20 • Pr(A ∩B) = 0,05 • Evenimentele A Și B sunt dependente sau independente? Pr(A ∩B) = Pr(A)·Pr(B) – evenimente independente 0,05 ≠ 0,10·0,20 → evenimente dependent

Câmp de evenimente. Câmp Borel de evenimente

  1. Mulțimea S e un element a lui B.
  2. Dacă două mulțimi E 1 {\displaystyle _{1}} și E 2 {\displaystyle _{2}} sunt elemente ale lui B atunci E 1 {\displaystyle _{1}\cup } E 2 {\displaystyle _{2}} , E 1 {\displaystyle _{1}\cap } E 2 {\displaystyle _{2}} sunt elemente ale lui B.
  3. Dacă mulțimile E 1 {\displaystyle _{1}} , E 2 {\displaystyle _{2}} , ..., E n {\displaystyle _{n}} , ... sunt elemente ale lui B, atunci E 1 {\displaystyle _{1}\cup } E 2 {\displaystyle _{2}\cup } ...E n {\displaystyle _{n}\cup } ... și E 1 {\displaystyle _{1}\cap } E 2 {\displaystyle _{2}\cap } ...E n {\displaystyle _{n}\cap } sunt de asemenea elemente ale lui B.
  • Câmp de evenimente - condițiile 1 și 2
  • Câmp Borel de evenimente - condițiile 1, 2, 3.

Sistemul de axiome Kolmogorov

Axioma 1. Fiecărui eveniment aleator E din câmpul de evenimente îi este atașat un număr real nenegativ P(E) numit probabilitatea lui E.

Axioma 2. Probabilitatea evenimentului sigur S P(S)=1.

Axioma 3. Dacă evenimentele E 1 {\displaystyle _{1}} , E n {\displaystyle _{n}} sunt incompatibile două câte două, atunci P(E 1 {\displaystyle _{1}\cup } E 2 {\displaystyle _{2}\cup } ... {\displaystyle \cup } E n {\displaystyle _{n}} )=P(E 1 {\displaystyle _{1}} )+P(E 2 {\displaystyle _{2}} )+...+P(E n {\displaystyle _{n}} )
Axioma de adunare extinsă. Dacă apariția unui eveniment E echivalentă cu apariția unui oarecare eveniment E 1 {\displaystyle _{1}} ,..., E n {\displaystyle _{n}} , ... incompatibile două câte două, atunci P(E)=P(E 1 {\displaystyle _{1}} )+P(E 2 {\displaystyle _{2}} )+...+P(E n {\displaystyle _{n}} )+...

Variabile aleatoare și repartiții

Variabilă aleatoare: variabila ia valori diferite în cazul mai multor experimente efectuate în aceleași condiții.
Variabila aleatoare discretă: poate lua un număr finit de valori.
Variabila aleatoare continuă: poate lua un număr infinit de valori.
Repartiția: mulțimea, a cărei elemente sunt perechile formate din valorile pe care poate să le ia variabila și probabilitatea corespunzătoare.

Valoarea medie și dispersia

Valoarea medie

Variabila aleatoare X ce ia valorile x i {\displaystyle _{i}} și probabilitățile corespunzătoare p i {\displaystyle _{i}}
M ( X ) {\displaystyle M(X)\,} = i = 1 x i p i {\displaystyle \sum _{i=1}^{\infty }x_{i}p_{i}}
Variabila continuă X și f(x) - densitatea de repartiție continuă
M ( X ) {\displaystyle M(X)\,} = x f ( x ) d x {\displaystyle \int _{-\infty }^{\infty }xf(x)\,dx}

Valorile medii ale sumelor și produselor de variabile aleatoare

Valoarea medie a sumei a două variabile aleatoare este egală cu suma valorilor medii a celor două variabile aleatoare M(Z)=M(X)+M(Y), unde Z=X+Y, tot variabilă aleatoare. Valoarea medie a produsului a două variabile aleatoare independente este egală cu produsul valorilor medii ale variabilelor aleatoare M(Z)=M(X)×M(Y).

Dispersia pentru o variabilă aleatoare discretă

Dispersia σ² sau D(x) este o măsură pentru devierea de la medie. Se obține prin însumarea produselor dintre pătratul devierii de la medie (x i {\displaystyle _{i}} - μ) și probabilitatea corespunzătoare.
σ 2 = i = 1 n ( x i μ ) 2 × p i {\displaystyle \sigma ^{2}=\sum _{i=1}^{n}(x_{i}-\mu )^{2}\times p_{i}}

Dispersia pentru o variabilă aleatoare continuă

Dispersia σ² sau D(x) este o măsură pentru devierea de la medie. Se obține prin integrarea de la - ∞ la + ∞ a produsului dintre pătratul abaterii de la medie (x-μ) și densitatea de repartiție f(x).
σ 2 = ( x μ ) 2 f ( x ) d x {\displaystyle \sigma ^{2}=\int _{-\infty }^{\infty }(x-\mu )^{2}f(x)\,dx}

Dispersia sumei a două variabile aleatoare independente

Dispersia unei sume de două variabile aleatoare independente este egală cu suma dispersiilor celor două variabile σ 2 {\displaystyle _{2}} ²=σ x {\displaystyle _{x}} ²+σ y {\displaystyle _{y}} ²

Inegalitatea lui Cebîșev

Fie X o variabilă discretă sau continuă cu valorile x, valoare medie μ și dispersia σ². Probabilitatea ca modulul diferenței (x-μ) să fie mai mare sau egal cu un număr oarecare ε>0 este mai mică sau egală cu câtul dintre dispersia σ² și pătratul lui ε.
P ( | x μ | ϵ ) σ 2 ϵ 2 {\displaystyle P\left({\big |}x-\mu {\big |}\geq \epsilon \right)\leq {\sigma ^{2} \over \epsilon ^{2}}}

Legea numerelor mari

  • Jakob Bernoulli

Probabilitatea ca modulul diferenței dintre frecvența relativă a evenimentului E în cazul a n experimente (n suficient de mare) și probabilitatea p a evenimentului E să fie mai mic ca ε pozitiv, arbitrar de mic e aproximativ egală cu unu.
P ( | m n p | < ϵ ) 1 1 4 ϵ 2 n {\displaystyle P\left({\bigg |}{m \over n}-p{\bigg |}<\epsilon \right)\geq 1-{\frac {1}{4\epsilon ^{2}n}}}

  • Pafnuti Cebîșev

Probabilitatea ca modulul diferenței dintre media aritmetică A a valorilor medii a n variabile aleatoare independente (n suficient de mare) și media aritmetică a variabilelor aleatoare să fie mai mică decât ε e aproximativ egală cu unu. P ( | 1 n i = 1 n X i A | < ϵ ) 1 b 2 n ϵ 2 {\displaystyle P\left({\Bigg |}{1 \over n}\sum _{i=1}^{n}X_{i}-A{\Bigg |}<\epsilon \right)\geq 1-{\frac {b^{2}}{n\epsilon ^{2}}}} .

Repartiții

  • Repartiția binomială (Bernoulli)
Legea de repartiție: P n ( k ) = C n k p k ( 1 p ) n k {\displaystyle P_{n}(k)=C_{n}^{k}p^{k}(1-p)^{n-k}}
Media: μ = np
Dispersia: σ² = np(1-p)
Formula de recurență: P n ( k + 1 ) = n k k + 1 p 1 p P n ( k ) {\displaystyle P_{n}(k+1)={\frac {n-k}{k+1}}\cdot {\frac {p}{1-p}}P_{n}(k)}
  • Repartiția Poisson

Este asemănătoare cu cea binomială, deosebindu-se prin faptul că n poate fi foarte mare (n-> ∞) și p foarte mic (p->0).

Legea de repartiție: Ψ n ( k ) = a k e a k ! {\displaystyle \Psi _{n}(k)={\frac {a^{k}e^{-a}}{k!}}}
Media: a
Dispersia: a
Formula de recurență: Ψ n + 1 ( k ) = a k + 1 Ψ n ( k ) {\displaystyle \Psi _{n+1}(k)={\frac {a}{k+1}}\Psi _{n}(k)}
  • Repartiția Gauss (normală)
Densitatea de repartiție: p ( x ) = 1 a 2 π e ( x b ) 2 2 a 2 {\displaystyle p(x)={\frac {1}{a{\sqrt {2\pi }}}}e^{-{\frac {(x-b)^{2}}{2a^{2}}}}}
Media: μ=b
Dispersia: σ²=a²
  • Repartiția normală redusă
Densitatea de repartiție: φ ( λ ) = 1 2 π e λ 2 2 {\displaystyle \varphi (\lambda )={\frac {1}{\sqrt {2\pi }}}e^{-{\frac {\lambda ^{2}}{2}}}}
Media: μ=0
Dispersia: σ²=1

Cu ajutorul substituției λ=(x-μ)/σ și se face pentru a înlesni calculele.

  • Funcția de repartiție (integrala lui Gauss)

F ( x ) = x p ( t ) d t = 1 a 2 π x e ( t b ) 2 2 a 2 d t {\displaystyle F(x)=\int _{-\infty }^{x}p(t)\,dt={\frac {1}{a{\sqrt {2\pi }}}}\int _{-\infty }^{x}e^{-{\frac {(t-b)^{2}}{2a^{2}}}}\,dt}

Teoreme limită pentru sume de variabile aleatoare independente

Teorema Moivre-Laplace

Unde n reprezintă experimentele, p probabilitatea ca E să apară și q=1-p probabilitatea ca E să nu apară.
P { a k = 1 n m b μ m p q < b } {\displaystyle P\left\{a\leq \sum _{k=1}^{n}{\frac {mb-\mu }{\sqrt {mpq}}}<b\right\}} -> 1 2 π a b e x 2 2 d x {\displaystyle {\frac {1}{\sqrt {2\pi }}}\int _{a}^{b}e^{-{\frac {x^{2}}{2}}}\,dx}

Teorema limită centrală

Dacă variabilele aleatoare independente două câte două x 1 {\displaystyle _{1}} , x 2 {\displaystyle _{2}} , ..., x n {\displaystyle _{n}} au aceeași repartiție și dacă μ=M(x n {\displaystyle _{n}} ) și σ²=Δ²(x n {\displaystyle _{n}} )>0 atunci variabila aleatoare 1 n k = 1 n X k M ( 1 n k = 1 n X k ) Δ ( 1 n 2 k = 1 n X k ) {\displaystyle {\frac {{1 \over n}\sum _{k=1}^{n}X_{k}-M\left({1 \over n}\sum _{k=1}^{n}X_{k}\right)}{\Delta \left({1 \over n^{2}}\sum _{k=1}^{n}X_{k}\right)}}} urmează o repartiție normală redusă.

Bibliografie

  • Mică enciclopedie matematică, Ed Tehnică, București (1980)
  • Nicolae Mihăileanu, Istoria matematicii, Editura Științifică și Enciclopedică, București, 1981

Legături externe

  • Ghid de teoria probabilităților și aplicații

Vezi și

Control de autoritate
  • GND: 4079013-7
  • NDL: 00564753
  • NKC: ph116429