Erlang-Verteilung

Die Erlang-Verteilung ist eine stetige Wahrscheinlichkeitsverteilung, eine Verallgemeinerung der Exponential-Verteilung und ein Spezialfall der Gamma-Verteilung. Sie wurde von Agner Krarup Erlang für die statistische Modellierung der Intervall-Längen zwischen Telefonanrufen entwickelt.

Die Erlang-Verteilung wird in der Warteschlangentheorie verwendet, um die Verteilung der Zeitspanne zwischen Ereignissen eines Poisson-Prozesses, beispielsweise der Ankunft von Kunden, zu erfassen, sowie in der Qualitätssicherung zur Beschreibung von Lebensdauern. In Callcentern wird diese Verteilung für die Personaleinsatzplanung genutzt, um die Anzahl der benötigten Agenten auf Grund des erwarteten Anrufvolumens im Zeitintervall zu bestimmen.

Die Erlang-Verteilungsdichte liefert die Verteilung der Wahrscheinlichkeit dafür, dass nach Verstreichen des Orts- oder Zeitabstands x {\displaystyle x} das n {\displaystyle n} -te Ereignis eintritt, wenn man λ {\displaystyle \lambda } Ereignisse pro Einheitsintervall erwartet (siehe Herleitung). Sie beschreibt eine Kette von n {\displaystyle n} nacheinander erfolgenden Ereignissen. Der wahrscheinlichste Abstand bis zum n {\displaystyle n} -ten Ereignis (Modus) ist kleiner als der Mittelwert (Erwartungswert), weil kürzere Ereignisabstände häufiger auftreten. Füllt man die der Größe nach sortierten Abstände der jeweiligen Einzelereignisse in ein Histogramm, so zeigt dieses dementsprechend eine Exponential-Verteilung.[1]

Dichte der Erlang-Verteilung, λ = 1 {\displaystyle \lambda =1}

Definition

Die Erlang-Verteilung Erl ( λ , n ) {\displaystyle \operatorname {Erl} (\lambda ,n)} mit den Parametern λ > 0 {\displaystyle \lambda >0} (einer positiven reellen Zahl) und n 1 {\displaystyle n\geq 1} (einer natürlichen Zahl) ist eine spezielle Gammaverteilung, die durch die Dichtefunktion

f ( x ) = { λ n x n 1 ( n 1 ) ! e λ x x 0 0 x < 0 {\displaystyle f(x)={\begin{cases}\displaystyle {\frac {\lambda ^{n}x^{n-1}}{(n-1)!}}\,\mathrm {e} ^{-\lambda x}&x\geq 0\\0&x<0\end{cases}}}

festgelegt wird, und die sich von der allgemeinen Gammaverteilung durch die Beschränkung auf natürliche Zahlen im zweiten Parameter unterscheidet.

Für eine Erlang-verteilte Zufallsvariable X {\displaystyle X} ist die Wahrscheinlichkeit, dass X {\displaystyle X} innerhalb des Intervalls 0 X x {\displaystyle 0\leq X\leq x} liegt, durch die Verteilungsfunktion

F ( x ) = { λ n ( n 1 ) ! 0 x t n 1 e λ t d t = γ ( n , λ x ) ( n 1 ) ! = 1 Γ ( n , λ x ) ( n 1 ) ! = 1 e λ x i = 0 n 1 ( λ x ) i i ! x 0 0 x < 0 {\displaystyle F(x)={\begin{cases}\displaystyle {\frac {\lambda ^{n}}{(n-1)!}}\int _{0}^{x}t^{n-1}\mathrm {e} ^{-\lambda t}\,\mathrm {d} t={\frac {\gamma (n,\lambda x)}{(n-1)!}}=1-{\frac {\Gamma (n,\lambda x)}{(n-1)!}}=1-\mathrm {e} ^{-\lambda x}\sum _{i=0}^{n-1}{\frac {(\lambda x)^{i}}{i!}}&x\geq 0\\0&x<0\end{cases}}}

gegeben, wobei γ {\displaystyle \gamma } bzw. Γ {\displaystyle \Gamma } die unvollständige Gammafunktion bezeichnet.

Herleitung und Interpretation

Die Erlang-Verteilung kann interpretiert werden als die Wahrscheinlichkeitsdichte, nach einer Zeit t {\displaystyle t} das n {\displaystyle n} -te Ereignis zu erhalten. Dabei seien die Ereignisse poissonverteilt.

Betrachten wir die Wahrscheinlichkeit, dass das n {\displaystyle n} -te Ereignis im Zeitintervall [ t , t + Δ t ] {\displaystyle [t,t+\Delta t]} ist. Dies ist offensichtlich die Wahrscheinlichkeit, dass n 1 {\displaystyle n-1} Ereignisse im Intervall [ 0 , t ] {\displaystyle [0,t]} sind, multipliziert mit der Wahrscheinlichkeit, dass genau ein Ereignis in [ t , t + Δ t ] {\displaystyle [t,t+\Delta t]} ist. Da die Ereignisse poissonverteilt und unabhängig in disjunkten Intervallen sind, ist dies:

( λ t ) n 1 ( n 1 ) ! e λ t λ Δ t e λ Δ t {\displaystyle {\frac {(\lambda \cdot t)^{n-1}}{(n-1)!}}\mathrm {e} ^{-\lambda \cdot t}\cdot \lambda \cdot \Delta t\cdot \mathrm {e} ^{-\lambda \cdot \Delta t}} .

Dies ist in erster Ordnung Δ t {\displaystyle \Delta t} :

λ ( λ t ) n 1 ( n 1 ) ! e λ t Δ t {\displaystyle \lambda \cdot {\frac {(\lambda \cdot t)^{n-1}}{(n-1)!}}\mathrm {e} ^{-\lambda \cdot t}\cdot \Delta t} ,

so dass sich die Erlang-Verteilung ergibt als:

λ ( λ t ) n 1 ( n 1 ) ! e λ t {\displaystyle \lambda \cdot {\frac {(\lambda \cdot t)^{n-1}}{(n-1)!}}\mathrm {e} ^{-\lambda \cdot t}} .

Eigenschaften

Da eine Erlang-verteilte Zufallsvariable X {\displaystyle X} die Summe von n {\displaystyle n} unabhängig und identisch mit Parameter λ {\displaystyle \lambda } exponentialverteilten Zufallsvariablen X 1 , , X n {\displaystyle X_{1},\dotsc ,X_{n}} ist, ergeben sich die folgenden Eigenschaften.

Erwartungswert

Die Erlang-Verteilung besitzt den Erwartungswert

E ( X ) = E ( k = 1 n X k ) = k = 1 n E ( X k ) = n λ . {\displaystyle \operatorname {E} (X)=\operatorname {E} \left(\sum _{k=1}^{n}X_{k}\right)=\sum _{k=1}^{n}\operatorname {E} (X_{k})={\frac {n}{\lambda }}.}

Varianz

Analog ergibt sich die Varianz zu

Var ( X ) = Var ( k = 1 n X k ) = k = 1 n Var ( X k ) = n λ 2 . {\displaystyle \operatorname {Var} (X)=\operatorname {Var} \left(\sum _{k=1}^{n}X_{k}\right)=\sum _{k=1}^{n}\operatorname {Var} (X_{k})={\frac {n}{\lambda ^{2}}}.}

Modus

Der Modus, das Maximum der Dichte, liegt bei

n 1 λ . {\displaystyle {\frac {n-1}{\lambda }}.}

Charakteristische Funktion

Aus der charakteristischen Funktion einer exponentialverteilten Zufallsvariablen erhält man die einer Erlang-verteilten Zufallsvariable:

φ X ( t ) = ( λ λ i t ) n . {\displaystyle \varphi _{X}(t)=\left({\frac {\lambda }{\lambda -it}}\right)^{n}.}

Momenterzeugende Funktion

Analog ergibt sich für die momenterzeugende Funktion

M X ( t ) = ( λ λ t ) n . {\displaystyle M_{X}(t)=\left({\frac {\lambda }{\lambda -t}}\right)^{n}.}

Entropie

Die Entropie der Erlang-Verteilung beträgt

H ( X ) = ( 1 n ) ψ ( n ) + ln ( Γ ( n ) λ ) + n {\displaystyle H(X)=(1-n)\psi (n)+\ln \left({\frac {\Gamma (n)}{\lambda }}\right)+n}

wobei ψ(p) die Digamma-Funktion bezeichnet.

Beziehungen zu anderen Verteilungen

Beziehung zur Exponentialverteilung

  • Die Erlang-Verteilung Erl ( λ , n ) {\displaystyle \operatorname {Erl} (\lambda ,n)} ist eine Verallgemeinerung der Exponentialverteilung, denn sie geht für n = 1 {\displaystyle n=1} in diese über Erl ( λ , 1 ) = Exp ( λ ) {\displaystyle \operatorname {Erl} (\lambda ,1)=\operatorname {Exp} (\lambda )} .
  • Es seien n {\displaystyle n} viele, alle mit dem gleichen Parameter λ {\displaystyle \lambda } exponentialverteilte Zufallsvariablen Y i   ( i = 1 , , n ) {\displaystyle Y_{i}\ (i=1,\dotsc ,n)} , die stochastisch unabhängig sind, gegeben. Dann ist die Zufallsvariable X = Y 1 + Y 2 + + Y n {\displaystyle X=Y_{1}+Y_{2}+\dotsb +Y_{n}} Erlang-verteilt mit den Parametern n {\displaystyle n} und λ {\displaystyle \lambda } ( n N , λ 0 ) {\displaystyle (n\in \mathbb {N} ,\lambda \geq 0)} .

Beziehung zur Poisson-Verteilung

  • Für einen Poisson-Prozess wird die zufällige Anzahl der Ereignisse bis zu einem definierten Zeitpunkt mittels Poisson-Verteilung Poi ( λ ) {\displaystyle \operatorname {Poi} (\lambda )} bestimmt, die zufällige Zeit bis zum n {\displaystyle n} -ten Ereignis ist Erlang-verteilt. Im Fall n = 1 {\displaystyle n=1} geht diese Erlang-Verteilung in eine Exponentialverteilung über, mit der die Zeit bis zum ersten zufälligen Ereignis sowie die Zeit zwischen zwei aufeinanderfolgenden Ereignissen bestimmt werden kann.
  • Die Erlang-Verteilung ist die zur Poisson-Verteilung konjugierte Verteilung.

Beziehung zur stetigen Gleichverteilung

Eine Erlang-Verteilung kann als Faltung von n {\displaystyle n} gleichmäßig stetig verteilten Funktionen X ( 0 , 1 ) {\displaystyle X(0,1)} erzeugt werden:

Erl ( λ , n ) 1 λ ln ( i = 1 n x i ) . {\displaystyle \operatorname {Erl} (\lambda ,n)\sim -{\frac {1}{\lambda }}\ln {\left(\prod _{i=1}^{n}x_{i}\right)}.}

Beziehung zur Gamma-Verteilung

Die Erlang-Verteilung mit dem Parameter λ {\displaystyle \lambda } und n {\displaystyle n} Freiheitsgraden entspricht einer Gammaverteilung mit natürlichem Formparameter p = n {\displaystyle p=n} (und inversem Skalenparameter b = λ {\displaystyle b=\lambda } ).

Literatur

  • Klaus Heinz: Mathematisch-statistische Untersuchungen über die Erlang-Verteilung. Springer, Wiesbaden 1969, ISBN 978-3-663-06379-7.
  • Erlangverteilungen: Erklärung und Darstellung von Zusammenhängen zu anderen Verteilungen

Einzelnachweise

  1. Frodesen, Skjeggestad, Tofte: Probability and Statistics in Particle Physics, Universitetsforlaget, Bergen Oslo Tromsø S. 98.
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart