Markov-Prozesse: Beispiele. Markov-Zufallsprozess. Das Konzept eines Markov-Prozesses. Verwenden von Markov-Prozessen zur Beschreibung des Prozesses der Systemfunktion. So überprüfen Sie, ob ein Prozess Markov ist

Die Entwicklung davon nach einem beliebigen Wert des Zeitparameters t (\displaystyle t) kommt nicht darauf an aus der vorangegangenen Entwicklung t (\displaystyle t) vorausgesetzt, dass der Wert des Prozesses in diesem Moment feststeht („die Zukunft“ des Prozesses hängt nicht von der „Vergangenheit“ mit bekannter „Gegenwart“ ab; eine andere Interpretation (Wentzel): Die „Zukunft“ des Prozesses hängt davon ab auf die „Vergangenheit“ nur durch die „Gegenwart“).

Enzyklopädisches YouTube

    1 / 3

    ✪ Vorlesung 15: Markov-Zufallsprozesse

    ✪ Ursprung der Markov-Ketten

    ✪ Verallgemeinertes Modell des Markov-Prozesses

    Untertitel

Geschichte

Die Eigenschaft, die einen Markov-Prozess definiert, wird normalerweise Markovian genannt; Es wurde erstmals von A. A. Markov formuliert, der in den Werken von 1907 mit der Untersuchung von Folgen abhängiger Tests und zugehörigen Summen von Zufallsvariablen begann. Diese Forschungsrichtung ist als Markov-Kettentheorie bekannt.

Die Grundlagen der allgemeinen Theorie zeitkontinuierlicher Markov-Prozesse wurden von Kolmogorov gelegt.

Markov-Anwesen

Allgemeiner Fall

Lassen (Ω , F , P) (\displaystyle (\Omega ,(\mathcal (F)),\mathbb (P)))- Wahrscheinlichkeitsraum mit Filterung (F t , t ∈ T) (\displaystyle ((\mathcal (F))_(t),\ t\in T))über einige (teilweise geordnete) Sätze T (\displaystyle T); lassen Sie es gehen (S , S) (\displaystyle (S,(\mathcal (S))))- messbarer Raum. Zufälliger Prozess X = (X t , t ∈ T) (\displaystyle X=(X_(t),\ t\in T)), definiert auf dem gefilterten Wahrscheinlichkeitsraum, wird als erfüllt angesehen Markov-Anwesen, wenn für jeden A ∈ S (\displaystyle A\in (\mathcal (S))) Und s, t ∈ T: s< t {\displaystyle s,t\in T:s,

P (X t ∈ A | F s) = P (X t ∈ A | X s) . (\displaystyle \mathbb (P) (X_(t)\in A|(\mathcal (F))_(s))=\mathbb (P) (X_(t)\in A|X_(s)). )

Markov-Prozess ist ein zufälliger Prozess, der erfüllt Markov-Anwesen mit natürlicher Filterung.

Für zeitdiskrete Markov-Ketten

Wenn S (\displaystyle S) ist eine diskrete Menge und T = N (\displaystyle T=\mathbb (N) ), kann die Definition umformuliert werden:

P (X n = x n | X n − 1 = x n − 1 , X n − 2 = x n − 2 , … , X 0 = x 0) = P (X n = x n | (\displaystyle \mathbb (P) (X_(n)=x_(n)|X_(n-1)=x_(n-1),X_(n-2)=x_(n-2),\dots , X_(0)=x_(0))=\mathbb (P) (X_(n)=x_(n)|X_(n-1)=x_(n-1))).

Beispiel eines Markov-Prozesses

Betrachten wir ein einfaches Beispiel eines Markov-Zufallsprozesses. Ein Punkt bewegt sich zufällig entlang der Abszissenachse. Zum Zeitpunkt Null befindet sich der Punkt im Ursprung und bleibt dort eine Sekunde lang. Nach einer Sekunde wird eine Münze geworfen – wird das Wappen fallen gelassen, dann bewegt sich Punkt X um eine Längeneinheit nach rechts, bei der Zahl – nach links. Eine Sekunde später wird die Münze erneut geworfen und die gleiche zufällige Bewegung ausgeführt, und so weiter. Der Prozess der Positionsänderung eines Punktes („Gehen“) ist ein zufälliger Prozess mit diskreter Zeit (t=0, 1, 2, ...) und einer abzählbaren Menge von Zuständen. Ein solcher Zufallsprozess wird Markov genannt, da der nächste Zustand des Punktes nur vom gegenwärtigen (aktuellen) Zustand und nicht von früheren Zuständen abhängt (es spielt keine Rolle, auf welchem ​​Weg und zu welcher Zeit der Punkt die aktuelle Koordinate erreicht hat). .

Das Warteschlangensystem zeichnet sich durch einen Zufallsprozess aus. Die Untersuchung eines in einem System ablaufenden Zufallsprozesses und seines mathematischen Ausdrucks ist Gegenstand der Warteschlangentheorie.

Die mathematische Analyse der Funktionsweise eines Warteschlangensystems wird erheblich erleichtert, wenn der Zufallsprozess dieser Operation berücksichtigt wird Markowski. Ein in einem System ablaufender Prozess wird Markovian genannt, wenn die Wahrscheinlichkeit eines Zustands des Systems in der Zukunft zu jedem Zeitpunkt nur vom Zustand des Systems zum aktuellen Zeitpunkt abhängt und nicht davon abhängt, wie das System in diesen Zustand gelangt ist . Bei der Untersuchung von Wirtschaftssystemen werden am häufigsten Markov-Zufallsprozesse mit diskreten und kontinuierlichen Zuständen verwendet.

Der Zufallsprozess wird aufgerufen Prozess mit diskreten Zuständen, wenn alle möglichen Zustände im Voraus aufgelistet werden können und der Prozess selbst darin besteht, dass das System von Zeit zu Zeit von einem Zustand in einen anderen springt.

Der Zufallsprozess wird aufgerufen Prozess mit kontinuierlichem Zustand, wenn es durch einen sanften, allmählichen Übergang von Staat zu Staat gekennzeichnet ist.

Wir können auch Markov-Prozesse mit unterscheiden diskret Und kontinuierliche Zeit. Im ersten Fall sind Übergänge des Systems von einem Zustand in einen anderen nur zu genau definierten, vorab festgelegten Zeitpunkten möglich. Im zweiten Fall ist der Übergang des Systems von Zustand zu Zustand zu jedem zuvor unbekannten, zufälligen Zeitpunkt möglich. Wenn die Übergangswahrscheinlichkeit nicht von der Zeit abhängt, wird der Markov-Prozess aufgerufen homogen.

Bei der Untersuchung von Warteschlangensystemen sind zufällige Markov-Prozesse mit diskreten Zuständen und kontinuierlicher Zeit von großer Bedeutung.

Das Studium von Markov-Prozessen läuft auf das Studium von Über() hinaus. Jedes Element einer solchen Matrix (Ereignisfluss) stellt die Wahrscheinlichkeit des Übergangs von einem bestimmten Zustand (entsprechend einer Zeile) zum nächsten Zustand (entsprechend einer Spalte) dar. Diese Matrix stellt alle möglichen Übergänge einer bestimmten Menge von Zuständen bereit. Folglich müssen Prozesse, die mithilfe von Überbeschrieben und modelliert werden können, eine Abhängigkeit der Wahrscheinlichkeit eines bestimmten Zustands vom unmittelbar vorhergehenden Zustand aufweisen. So reiht es sich ein Markov-Kette. In diesem Fall ist eine Markov-Kette erster Ordnung ein Prozess, bei dem jeder spezifische Zustand nur von seinem vorherigen Zustand abhängt. Eine Markov-Kette zweiter und höherer Ordnung ist ein Prozess, bei dem der aktuelle Zustand von zwei oder mehr vorherigen abhängt.

Nachfolgend finden Sie zwei Beispiele für Übergangswahrscheinlichkeitsmatrizen.

Überkönnen durch Übergangszustandsgraphen dargestellt werden, wie in der Abbildung dargestellt.

Beispiel

Das Unternehmen produziert ein Produkt, das den Markt gesättigt hat. Wenn ein Unternehmen im laufenden Monat einen Gewinn (P) aus dem Verkauf eines Produkts erzielt, wird es im nächsten Monat mit einer Wahrscheinlichkeit von 0,7 einen Gewinn und mit einer Wahrscheinlichkeit von 0,3 einen Verlust erzielen. Wenn ein Unternehmen im aktuellen Monat einen Verlust (L) erleidet, wird es im nächsten Monat mit einer Wahrscheinlichkeit von 0,4 einen Gewinn und mit einer Wahrscheinlichkeit von 0,6 einen Verlust erzielen (Wahrscheinlichkeitsschätzungen wurden als Ergebnis einer Umfrage ermittelt). von Experten). Berechnen Sie die Wahrscheinlichkeitsschätzung, nach zwei Monaten Betrieb des Unternehmens einen Gewinn aus dem Verkauf von Waren zu erzielen.

In Matrixform würden diese Informationen wie folgt ausgedrückt werden (entsprechend Matrixbeispiel 1):

Erste Iteration – Aufbau einer Matrix zweistufiger Übergänge.

Erwirtschaftet ein Unternehmen im aktuellen Monat einen Gewinn, so ist die Wahrscheinlichkeit, dass es im nächsten Monat erneut einen Gewinn erwirtschaftet, gleich

Wenn ein Unternehmen im aktuellen Monat einen Gewinn erwirtschaftet, ist die Wahrscheinlichkeit, dass es im nächsten Monat einen Verlust erwirtschaften wird, gleich

Wenn ein Unternehmen im laufenden Monat einen Verlust macht, ist die Wahrscheinlichkeit, dass es im nächsten Monat einen Gewinn erwirtschaftet, gleich

Wenn ein Unternehmen im aktuellen Monat einen Verlust macht, ist die Wahrscheinlichkeit, dass es im nächsten Monat erneut einen Verlust machen wird, gleich

Als Ergebnis der Berechnungen erhalten wir eine Matrix zweistufiger Übergänge:

Das Ergebnis erhält man durch Multiplikation der Matrix m mit einer Matrix mit gleichen Wahrscheinlichkeitswerten:

Um diese Verfahren in Excel auszuführen, müssen Sie die folgenden Schritte ausführen:

  • 1) eine Matrix bilden;
  • 2) Rufen Sie die MULTIPLE-Funktion auf;
  • 3) geben Sie das erste Array an – eine Matrix;
  • 4) geben Sie das zweite Array an (dieselbe oder eine andere Matrix);
  • 5) OK;
  • 6) Wählen Sie die Zone der neuen Matrix aus;
  • 7) F2;
  • 8) Strg+Umschalt+Eingabetaste;
  • 9) Holen Sie sich eine neue Matrix.

Zweite Iteration – Aufbau einer Matrix dreistufiger Übergänge. In ähnlicher Weise werden die Wahrscheinlichkeiten berechnet, im nächsten Schritt einen Gewinn oder Verlust zu erzielen, und die Matrix der dreistufigen Übergänge wird berechnet. Sie hat die folgende Form:

Somit ist in den nächsten zwei Betriebsmonaten des Unternehmens die Wahrscheinlichkeit, aus der Veröffentlichung eines Produkts einen Gewinn zu erzielen, höher als die Wahrscheinlichkeit, einen Verlust zu erleiden. Es ist jedoch zu beachten, dass die Wahrscheinlichkeit, einen Gewinn zu erzielen, sinkt, sodass das Unternehmen ein neues Produkt entwickeln muss, um das produzierte Produkt zu ersetzen.

In den letzten Jahren haben sich Methoden der statistischen Analyse, Schätzung und optimalen Steuerung stochastischer Systeme verbreitet, die auf der Nutzung von Ergebnissen der Theorie der Markov-Prozesse basieren. In diesem Abschnitt wird die Anwendung von Methoden aus der Theorie der Markov-Prozesse zur statistischen Analyse linearer und nichtlinearer stochastischer Systeme diskutiert.

Fokker-Planck-Kolmogorov-Gleichung. In der Theorie der Markov-Prozesse werden partielle Differentialgleichungen parabolischen Typs für bedingte (Übergangs-) und unbedingte Wahrseines kontinuierlichen Markov-Prozesses erhalten x(t). Auf einen skalaren Markov-Prozess angewendet x(t) Dichtegleichung , Die sogenannte Fokker-Planck-Kolmogorov-Gleichung (FPK) hat die Form

Funktionen a(x, t)Undb(x, t) werden als Drift- bzw. Diffusionskoeffizienten des Markov-Prozesses bezeichnet x(t).

Im mehrdimensionalen Fall gilt die Gleichung FPK für einen Vektor-Markov-Prozess x(t), bestehend aus P Komponente , wird wie folgt geschrieben:

Wo - Vektor der Driftkoeffizienten; -Matrix der Diffusionskoeffizienten des Vektorprozesses x(t).

Integration der FPC-Gleichung für eine gegebene Anfangsbedingung , Es ist möglich, die Wahrdes betrachteten Markov-Prozesses zu späteren Zeitpunkten zu bestimmen.

Stochastische Differentialgleichungen. Zu den verschiedenen kontinuierlichen Markov-Prozessen in praktischen Problemen zählen die sogenannten Diffusions-Markov-Prozesse, deren zeitliche Änderung durch Differentialgleichungen der Form beschrieben wird

Wo ist normales weißes Rauschen?

Solche Gleichungen werden stochastische Differentialgleichungen genannt.

Eine Gleichung der Form (2.53) kann direkt für das untersuchte dynamische System geschrieben werden, wenn die zufällige Eingabewirkung dieses Systems tatsächlich durch standardmäßiges weißes Rauschen angenähert werden kann. Zum Beispiel ein eindimensionales System, das aus einer integrierenden Verbindung besteht 1/p, durch nichtlineare Rückkopplung abgedeckt f(x), unterliegt weißem Rauschen am Eingang und entspricht einer stochastischen Differentialgleichung erster Ordnung

Mit der Methode der Formfilter können Gleichungen, die das Verhalten von Systemen beschreiben, die farbigem Rauschen ausgesetzt sind, auf die Form (2.53) reduziert werden.

Beispiel. Das untersuchte dynamische System sei durch die Übertragungsfunktion der aperiodischen Verbindung beschrieben

Äußerer Einfluss – ein zufälliger Prozess mit spektraler Dichte

Gewinnen ZU ist eine durch die Parameter charakterisierte Gaußsche Zufallsvariable m k Und Dk.


Um dieses System mit einer stochastischen Differentialgleichung zu beschreiben, schreiben wir die Beziehung (2.54) in Form einer Differentialgleichung in Normalform um:

Wir kombinieren die letzte Gleichung mit der Formungsfiltergleichung für , zuvor erhalten [siehe Formel (2.30")].

und die Formungsfiltergleichung für den Zufallsparameter

Als Ergebnis erhalten wir eine stochastische Differentialgleichung der Form (2.53), die das betrachtete dynamische System beschreibt, in dem der Vektor-Zufallsprozess stattfindet x(t), Kombinieren von Variablen als Komponenten y, x 1 Und ZU, ist ein Diffusions-Markov-Prozess. Komponenten einer Vektorfunktion f T (x, t) - n in in diesem Fall sind gleich

Weißes Rauschen ist ein skalarer Zufallsprozess, weil in; die rechten Seiten der Gleichungen (2.56) und (2.57) beinhalten den gleichen externen Zufallseinfluss, und

Es stellt sich die Frage, wie werden die Driftkoeffizienten ausgedrückt? a(x, t) und Verbreitung b(x, t), in der FPC-Gleichung (2.51) oder (2.52) enthalten. Beschreibung von Dichteänderungen p(x, t) Wahrscheinlichkeitsverteilungen eines Diffusions-Markov-Prozesses x(t), durch f(x, t) Und ? Abhängig von der Antwort auf diese Frage werden stochastische Differentialgleichungen von Ito und Stratonovich unterschieden. In der Ito-Gleichung sind im Skalarfall die Drift- und Diffusionskoeffizienten jeweils gleich f(x, t) Und . Für die stochastische Differentialgleichung von Stratonovich werden diese Koeffizienten durch die Beziehungen *(* Dimentberg M.F. Nichtlineare stochastische Probleme mechanischer Schwingungen. M.: Nauka, 1980. 368 Seiten) bestimmt.

Die konkrete Interpretation der verwendeten stochastischen Differentialgleichung hängt von den Eigenschaften des zu analysierenden physikalischen Systems ab.

Im am weitesten verbreiteten Fall, der später in diesem Kapitel besprochen wird, wenn es nicht darauf ankommt X, die Schwankungskorrektur des Driftkoeffizienten, die sich bei der Betrachtung der stochastischen Differentialgleichung von Stratonovich ergibt, verschwindet und beide Interpretationen führen zu den gleichen Ergebnissen.

Es ist schwierig, eine partielle Differentialgleichung parabolischen Typs wie die FPC-Gleichung analytisch und sogar numerisch zu integrieren, insbesondere in Fällen, in denen die Dimension des Vektors X Großartig. Nur im eindimensionalen und teilweise auch im zweidimensionalen Fall ist es möglich, eine analytische Lösung dieser Gleichung zu finden, die der stochastischen Differentialgleichung eines nichtlinearen Systems entspricht. Jede dieser Lösungen ist jedoch von großem Interesse, da sie das vollständigste Merkmal der Genauigkeit des Systems darstellt und es ermöglicht, die Genauigkeit von Lösungen zu bewerten, die mit Näherungsmethoden erhalten wurden – beispielsweise durch Berechnung mit der Methode der statistischen Linearisierung.

Reis. 2.1. Nichtlineares System erster Ordnung.

Somit ergibt sich eine stationäre Lösung der FPC-Gleichung, die dem in Abb. gezeigten nichtlinearen System erster Ordnung entspricht. 2.4, z p(x,∞)=p st (x) ist der Ausdruck

in dem die Integrationskonstante MIT wird aus der Normalisierungsbedingung ausgewählt . Im Falle eines stationären linearen Systems mit f(x). =- X aus (2.60) erhalten wir die Gaußsche Dichte . Wenn die Rückmeldung ein Relais mit einem Sättigungsgrad enthält A, Das

Dichten (2.61) entsprechen und .

Gleichungen für die Momente des Diffusionsprozesses. Die Hauptanwendung der FPC-Gleichung bei der A-priori-Analyse der Genauigkeit von Systemen besteht darin, mit ihrer Hilfe gewöhnliche Differentialgleichungen für den Vektor mathematischer Erwartungen zu erhalten mx(t) und Korrelationsmatrix Kx(t) Phasenvektor des Diffusions-Markov-Systems. Diese Gleichungen erweisen sich als exakt, wenn die stochastische Differentialgleichung (2.53) linear ist, und näherungsweise im Fall einer nichtlinearen Gleichung (2.53).

Um aus der FPC-Gleichung die Gleichungen für und für den Fall zu erhalten, dass x(t)-skalarer Prozess, multipliziere (2.51) mit X und integrieren Sie beide Seiten über diese Variable über unendliche Grenzen hinweg. Dann bekommen wir

Links in Gleichung (2.62) gilt

und wir berechnen das Integral rechts mit der Methode der partiellen Integration und unter Berücksichtigung der Randbedingungen. Das Endergebnis ist wie folgt:

Gleichung für die Dispersion Dx erhält man durch Multiplikation der linken und rechten Seite von (2.51) mit und deren Integration über die Variable X innerhalb unendlicher Grenzen. Als Ergebnis haben wir

Die Beziehungen (2.64) - (2.65) stellen einen Zusammenhang zwischen den Zeitableitungen von her m x Und Dx Diffusionsprozess x(t) und seine Verteilungsdichte p(x, t). Kann keines davon finden mx(t) Und Dx(t), wenn Dichte p(x, t) Unbekannt.

Gleichungen für Momente in einem linearen System. Wenn der Driftkoeffizient f(x, t) auf der rechten Seite der stochastischen Differentialgleichung (2.57) - linear bzgl X, d.h. f(x,t)=a(t)x + b(t), dann werden die Beziehungen (2.64) und (2.65) zu Gleichungen für m x Und Dx, das heißt, sie ziehen sich zurück. In diesem Fall tatsächlich

also für ein lineares Markov-System erster Ordnung

Integration der Gleichungen (2.66) und (2.67) unter gegebenen Anfangsbedingungen m x (t 0) Und Dx(t0) ermöglicht es Ihnen, zu bestimmen mx(t) Und Dx(t).

Wenn das betrachtete System stationär und stabil ist und die erforderlichen sind m x Und Dx im stationären Zustand können diese Größen aus algebraischen Gleichungen ermittelt werden

da im stationären Zustand für ein solches System und

Im mehrdimensionalen Fall sind die Gleichungen für t x Und K x stellt sich wie folgt heraus:

Vektorgleichung (2.69) der Dimension P zusammen mit der Matrixgleichung (2.70) der Dimension p×p das sogenannte Korrelationsgleichungssystem. Die Systeme (2.69) und (2.70) sind nicht voneinander abhängig und können daher separat integriert werden. Berücksichtigung der Symmetrie der Matrix K x, Um es zu bestimmen, genügt die Integration n(n+1)/2 Gleichungen für verschiedene Kovarianzmomente K x. Die Anfangsbedingungen für (2.69) und (2.70) sind der Vektor der mathematischen Erwartungen m x (t 0) und Korrelationsmatrix K x (t 0) Phasenvektor x(t0) im ersten Moment der Zeit.

Wenn das untersuchte lineare Markov-System stationär und stabil ist und die erforderlichen Voraussetzungen erfüllt sind t x Und K x im stationären Zustand, dann können sie aus algebraischen Gleichungssystemen gefunden werden

Eine Lösungsmethode kann die Integration der entsprechenden Differentialgleichungssysteme (2.69) und (2.70) unter beliebig gegebenen Anfangsbedingungen sein. Die Konvergenz der Lösung wird durch die Stabilität des untersuchten dynamischen Systems sichergestellt.

Näherungsgleichungen zur Bestimmung der Momente des Diffusionsprozesses in einem nichtlinearen System. Um ein näherungsweise geschlossenes Gleichungssystem aus (2.64) und (2.65) im allgemeinen Fall des nichtlinearen Driftkoeffizienten zu erhalten f(x, t) Nehmen wir an, dass die Dichte p(x, t) die Wahrscheinlichkeitsverteilung des Phasenvektors ist Gaußsch. Bei p(x, t) =p Г (x, t) Die Integrale auf der rechten Seite der Beziehungen (2.64) und (2.65) können berechnet werden. Die resultierenden Funktionen hängen ab von mx(t) Und Dx(t), beschreibend p Г (x, t):


Wenn wir (2.73) und (2.74) in (2.64) und (2.65) einsetzen, erhalten wir ein System aus zwei nichtlinearen gewöhnlichen Differentialgleichungen:

Integration dieses Systems für gegeben m x (t 0) Und Dx(t0) ermöglicht Ihnen das Finden mx(t) Und Dx(t), d.h. das Problem der statistischen Analyse des betrachteten nichtlinearen Systems näherungsweise lösen. Für „typische“ Nichtlinearitäten f(x) Formeln für f 0 (m x , D x) Und K(m x , D x) können den Ausdruckstabellen für statistische Linearisierungskoeffizienten entnommen werden.

Beispiel. Lassen f(x) in (2.53) ist die Relaiskennlinie f(x)=-A Zeichen (X).

Für diese Nichtlinearität F (siehe Beispiel in Abschnitt 1.1) und

Gleichungen für m x Und Dx in einem solchen System haben sie die Form

Die stationären Werte und werden durch Einstellen von und erhalten.

Wir haben . Wenn wir den Näherungswert mit dem genauen Wert vergleichen, der zuvor durch Lösen der FPC-Gleichung erhalten wurde, sehen wir, dass die Annahme einer Gaußschen Verteilung vorliegt p(x) im betrachteten nichtlinearen System mit einem Relais in Rückkopplung führt zu einem Streuungsfehler von 22 %.

Im mehrdimensionalen Fall der Vektor mx(t) und Korrelationsmatrix Kx(t) kann als Ergebnis der gemeinsamen Integration zweier Systeme gewöhnlicher Differentialgleichungen gefunden werden


Eine Matrixfunktion, deren Elemente die partiellen Ableitungen der Komponenten der Vektorfunktion nach den Vektorkomponenten sind t x.

Wenn das untersuchte System nur lineare Verknüpfungen und typische eindimensionale signifikante Nichtlinearitäten umfasst, ist es zweckmäßig, ein Korrelationssystem der Form (2.76) zu erstellen, indem die statistische Linearisierung nichtlinearer Verknüpfungen und das Korrelationssystem der Gleichungen (2.69) gemeinsam verwendet werden. (2.70) für ein statistisch linearisiertes System.

Wenn die kontrollierte Bewegung eines Flugzeugs durch nichtlineare stochastische Differentialgleichungen beschrieben wird, deren rechte Seite glatte mehrdimensionale Nichtlinearitäten enthält, wird eine ungefähre Analyse der Genauigkeit einer solchen Bewegung im Vergleich zur direkten Verwendung der Gleichungen (2.76) erheblich vereinfacht. wenn wir das sogenannte quasilineare Korrelationsgleichungssystem verwenden. Bei der Zusammenstellung eines solchen Systems wird die Gesamtbewegung des untersuchten Systems in zwei Bewegungen unterteilt: mittlere und gestörte. Zur Beschreibung der durchschnittlichen Bewegung, die die Änderung der mathematischen Erwartungen der Komponenten des Phasenvektors charakterisiert, werden nichtlineare Gleichungen des Systems mit den mathematischen Erwartungen (Mittelwerten) der Anfangsbedingungen und äußeren Einflüssen verwendet. Zur Beschreibung der gestörten Bewegung, die die zufälligen Abweichungen der Komponenten des Phasenvektors von ihren Durchschnittswerten charakterisiert, werden linearisierte Gleichungen verwendet und die mathematischen Erwartungen der Phasenkoordinaten zu den entsprechenden Zeitpunkten als Referenzwerte für die Linearisierung herangezogen.

Beispiel. Betrachten wir das Problem des ballistischen Abstiegs eines Flugzeugs, also des Abstiegs ohne Auftrieb, in der Erdatmosphäre. Die Längsbewegung des Fahrzeugs wird durch nichtlineare Differentialgleichungen beschrieben

Es ist erforderlich, die Streuung der Fahrzeugtrajektorien unter der Annahme von Zufallsvariablen abzuschätzen V,θ, N Und L In dem Moment t 0 Beginn des Abstiegs; konstante Werte R, C x, S, t Und G, und die Abhängigkeit ist exponentiell , Wo .

Schreiben wir die Bewegungsgleichungen des Apparats in Form einer Vektorgleichung um

Stellen wir uns den Phasenvektor vor X als x=t x +Δx, und eine nichtlineare Vektorfunktion f(x, t) in der Nachbarschaft linearisieren x=t x:

Wo ist die 4×4-Matrix der partiellen Ableitungen der Vektorfunktion? f(x, t) durch Vektorkomponenten X, berechnet bei x=t x. Wir erhalten die Gleichung

woraus wir als Ergebnis der Mittelung direkt die Gleichung für den Vektor der mathematischen Erwartungen finden

im Aussehen ähnlich wie (2.77). Wenn wir (2.79) von (2.78) subtrahieren, erhalten wir die linearisierte Gleichung der gestörten Bewegung

Auf dieser Grundlage stellen wir eine Gleichung für die Korrelationsmatrix des Phasenvektors auf

Gemeinsame Integration der Gleichungen (2.80) und (2.81), die unter gegebenen Anfangsbedingungen zusammen ein quasilineares Korrelationssystem von Gleichungen bilden t x (t 0) Und K x (t 0) ermöglicht es Ihnen, zu bestimmen txt) Und Kx(t) zu späteren Zeitpunkten. Die Genauigkeit der Lösung wird durch die Genauigkeit der Approximation der Vektorfunktion durch die linearisierte Abhängigkeit für diese Werte zufälliger Abweichungen bestimmt Δx(t) Phasenvektor x(t), die im betrachteten Problem bei gegebenen statistischen Merkmalen zufälliger Anfangsbedingungen stattfinden.

2.6. STATISTISCHE MODELLIERUNGSMETHODE (MONTE CARLO)

Die Methode der statistischen Modellierung ist eine universelle Methode zur statistischen Analyse stochastischer Systeme (linear und nichtlinear, stationär und instationär), die dem Einfluss von Zufallsfaktoren verschiedener Art mit ihren willkürlichen statistischen Eigenschaften unterliegen. In der Literatur wird diese Methode auch als statistische Testmethode oder Monte-Carlo-Methode bezeichnet.

Grundlage der statistischen Modellierungsmethode ist das Gesetz der großen Zahlen, das darin besteht, dass sich das Ergebnis der Mittelung auf einen Zufallsfaktor (Ereignis, Menge, Prozess oder Feld) bezieht, der von berechnet wird P seine Implementierungen sind keineswegs zufällig und können als Bewertung der entsprechenden Eigenschaften des betrachteten Faktors betrachtet werden. Insbesondere gemäß dem Theorem. Bernoulli, bei einer großen Anzahl von Experimenten (Erkenntnissen) nähert sich die Häufigkeit eines zufälligen Ereignisses der Wahrscheinlichkeit dieses Ereignisses an. Ähnliche Theoreme gibt es für die statistischen Eigenschaften von Zufallsvariablen, Prozessen und Feldern.

In Bezug auf die A-priori-Analyse der Genauigkeit stochastischer Systeme besteht die Methode der statistischen Modellierung darin, statistische Experimente auf einem Computer durchzuführen, die die Funktionsweise des untersuchten Systems unter dem Einfluss von Zufallsfaktoren simulieren, und die erhaltenen Ergebnisse anschließend zu verarbeiten In diesen Experimenten werden Methoden der mathematischen Statistik verwendet, um die entsprechenden statistischen Merkmale zu ermitteln.

Statistische Modellierungstechnik. Der erste Vorbereitungsschritt für die statistische Modellierung eines stochastischen Systems ist die Wahl des Computertyps (Digitalrechner, AVM oder Analog-Digital-Komplex), auf dem die Modellierung durchgeführt werden soll. Dabei werden die Komplexität des untersuchten Systems, die Art und Anzahl der darin enthaltenen Nichtlinearitäten, die Geschwindigkeit der Prozesse in verschiedenen Teilen (Verbindungen) des Systems, die Art und Eigenschaften der auf das System einwirkenden zufälligen Störungen und andere Faktoren berücksichtigt.

Die Möglichkeit der Verwendung kanonischer Erweiterungen zufälliger Prozesse, die auf das untersuchte System einwirken, wird geklärt. Wenn solche Entwicklungen für alle im System betrachteten Zufallsfunktionen bekannt sind, kann die Modellierung des Systems erheblich vereinfacht werden, da in diesem Fall bei der Modellierung nur Realisierungen von Zufallsvariablen (Anfangsbedingungen, Systemparameter und kanonische Koeffizienten) erforderlich sind Erweiterungen).

Eine allgemeinere und komplexere Situation liegt vor, wenn die Systemstörungen zufällige Prozesse umfassen, für die die kanonischen Erweiterungen nicht bekannt sind. In diesem Fall werden die Gleichungen, die das untersuchte dynamische System beschreiben, auf ein System stochastischer Differentialgleichungen in Normalform der Form reduziert

wobei λ ein Vektor zufälliger Systemparameter ist; - Vektorweißes Rauschen. Vektor der Anfangsbedingungen x(t0) kann auch zufällig sein.

Einige der zufälligen Störungen, die auf das System einwirken, sind möglicherweise kein weißes Rauschen. Für solche Prozesse ist es notwendig, Differentialgleichungen von Formungsfiltern aufzustellen. Bei der Modellierung sollten diese Gleichungen zusammen mit den Gleichungen des Systems (2.82) integriert werden.

Anschließend wird auf dem Digitalrechner des Systems ein Integrationsprogramm (2.82) zusammen mit den Gleichungen der bildenden Filter oder einem Modellierungsschema für den Digitalrechner erstellt. Die charakteristischen Elemente des Programms sind Blöcke, die Implementierungen von im System berücksichtigten Zufallsfaktoren bereitstellen.

Erhalten von Implementierungen von Zufallsvariablen auf einem Computer. Bei der Modellierung eines Problems auf einem AVM und manchmal auch auf einem digitalen Computer werden Implementierungen von Zufallsvariablen mithilfe von Zufallszahlentabellen spezifiziert. Am weitesten verbreitet sind Tabellen mit Zufallszahlen, die Normal- (Gauß-) und Gleichverteilungen unterliegen. Eine Tabelle normalverteilter Zufallszahlen enthält Implementierungen einer Gaußschen Zufallsvariablen entsprechend und. Aus dieser Tabelle werden Implementierungen einer Gaußschen Zufallsvariablen mit Eigenschaften und anhand der Formel berechnet

Die Tabelle der gleichmäßig verteilten Zahlen enthält Erkenntnisse, die einer über das Intervall gleichmäßigen Wahrscheinlichkeitsverteilung gehorchen. Um Erkenntnisse über den Wert zu erhalten X, gleichmäßig über das Intervall verteilt Zahlen aus der Tabelle werden mithilfe der Relation umgerechnet

Der wichtigste Weg, Implementierungen von Zufallsvariablen auf einem digitalen Computer zu erhalten, ist die Verwendung spezieller Standardroutinen, sogenannter Pseudozufallszahlensensoren. Bei jedem Zugriff auf den Sensor wird eine neue Zufallszahl berechnet. Die Berechnung erfolgt mithilfe einer wiederkehrenden Formel, deren Argumente mehrere Zufallszahlen sind, die in früheren Aufrufen dieser Unterroutine berechnet wurden. Bei einem festen anfänglichen (Start-)Satz von Zufallszahlen sind alle nachfolgenden, vom Sensor rekursiv berechneten Zahlen abhängig vom Startsatz eindeutig, daher werden die mit dem Sensor erhaltenen Zahlen Pseudozufallszahlen genannt. Die im Sensor implementierte wiederkehrende Formel ist so gewählt, dass die mit dem Sensor erhaltenen Pseudozufallszahlen die erforderlichen statistischen Eigenschaften aufweisen – einer bestimmten Wahrentsprechen p(x), und der Korrelationskoeffizient war Null.

In der Regel enthält die Bibliothek standardmäßiger digitaler Computerroutinen zwei Pseudozufallszahlensensoren: gleichmäßig über das Intervall verteilt und Gauß mit und .

Das Erhalten von Implementierungen einer vektoriellen Gaußschen Zufallsvariablen bereitet keine Schwierigkeiten, wenn dieser Vektor unkorreliert ist. Realisierungen einzelner Komponenten eines solchen Vektors können mit einem Gaußschen Zahlensensor unabhängig voneinander berechnet werden. Wenn der Gaußsche Vektor X korreliert ist, werden seine Realisierungen durch lineare Transformation der Realisierungen des unkorrelierten Gaußschen Vektors erhalten U gleicher Dimension, erzeugt mit einem Gaußschen Pseudozufallszahlensensor. Am Vektor U Die mathematische Erwartung ist ein Nullvektor und die Korrelationsmatrix ist eine Einheitsmatrix. Lineare Transformationsmatrix A wird so gewählt, dass die resultierende Kovarianzmatrix K x entsprach dem angegebenen Wert. Bei der Bestimmung wird die Beziehung (1.26) verwendet.

Aus (1.26) erhalten wir die folgende Gleichung für A:

Diese Gleichung hat unzählige Lösungen. Wenn Sie suchen A in Form einer dreieckigen Matrix der Form

dann erhalten wir aus (2.83) n(n+1)/2 Gleichungen für die Elemente dieser Matrix, die rekursiv gelöst werden können. Das Ergebnis sind die folgenden Ausdrücke für die Matrixelemente A:

Wo sind die Elemente einer gegebenen Korrelationsmatrix?

Beispiel. Lassen X- zweidimensionaler Vektor mit Korrelationsmatrix

Finden wir die Matrix A, so dass

Wo-unkorrelierter Vektor mit .

Unter Verwendung der Beziehungen (2.84) finden wir ac, d.h.

In einer Reihe von Fällen ist es notwendig, Erkenntnisse über eine Zufallsvariable zu erhalten, deren Verteilung weder gleichmäßig noch Gauß-verteilt ist. Die gebräuchlichste Modellierungsmethode ist in diesem Fall die nichtlineare Transformation von Implementierungen, die mit einem gleichverteilten Zahlensensor erhalten wurden.

Das Problem der Bestimmung einer nichtlinearen Transformation y=f(x), Zufallsvariablen verbinden X Und bei mit gegebenen Verteilungsdichten p(x) Und RU)(Dichte p(x)-uniform) ist das Gegenteil des im Abschnitt betrachteten Problems der Bestimmung der Verteilung einer nichtlinearen Funktion einer Zufallsvariablen. 1.1. Wenn die Verteilung p(x)- einheitlich, dann haben wir aus der Beziehung (1.32), woraus wir mit einer monoton steigenden Funktion erhalten

Wo F (y)- integrale Wahrscder Menge u.

Die Funktion ist die Umkehrung der gewünschten Funktion f(x). Somit ist die Definition der gewünschten nichtlinearen Transformation y = f(x) reduziert sich auf das Finden aus einer gegebenen Dichte RU) Integralfunktion F(y) und anschließende Lösung der Gleichung F(y) = x verhältnismäßig u.

Beispiel. Lassen

Dann gilt im Intervall (0, 1). xF(y)=y 2 , Woher kommst du. e.

Ein anderer Ansatz kann in Fällen angewendet werden, in denen es erforderlich ist, Realisierungen einer Zufallsvariablen zu erhalten bei entsprechend seinem vorhandenen Histogramm oder wenn die Verteilung RU) hat eine komplexe Form, die durch eine Stufenabhängigkeit angenähert werden kann.

Lassen Sie das Intervall [y 0 , y n ] praktisch mögliche Werte einer Zufallsvariablen ja, eine Verteilung haben RU), eingeteilt in P Bereiche, innerhalb derer jeweils die Dichte RU) kann als einheitlich angenommen werden. Wahrscheinlichkeit, jedes Intervall zu erreichen

Und . Bei Verwendung einer solchen Näherung RU)

Die Implementierung kann durch zweimaligen Aufruf des Generators gleichmäßig verteilter Pseudozufallszahlen ermittelt werden. Beim ersten Aufruf wird das Ergebnis des Umsetzungshits ausgespielt y i in einem der Intervalle. Dazu die Wahrscheinlichkeiten P l Treffer y i Intervalle werden Intervallen von Werten gleichmäßig verteilter Pseudozufallszahlen aus dem allgemeinen Bereich zugeordnet. Wenn eine durch den Zugriff auf den Sensor erhaltene Zufallszahl x i р.р in das Intervall fällt, ist dies mit einem Treffer der Implementierung verbunden y i im Intervall Beim zweiten Zugriff auf den Sensor wird der Implementierungswert ausgespielt y i als gleichmäßig im Intervall verteilte Zufallsvariable.

Computersimulation von Implementierungen zufälliger Prozesse. Bei AVM werden Implementierungen von Zufallsprozessen mithilfe von Rauschgeneratoren erzielt. Dies ist die Bezeichnung für ein elektronisches Gerät, dessen elektrische Ausgangsspannung ein Zufallsprozess mit vorgegebenen statistischen Eigenschaften ist. Generatoren, die bei der statistischen Modellierung der kontrollierten Bewegung von Flugzeugen verwendet werden, erzeugen Lärm mit einer gleichmäßigen spektralen Dichte im Bereich der infra-niedrigen Frequenzen (von bis zu Hz) und mit einer eindimensionalen Gaußschen Wahrscheinlichkeitsverteilung. Bei der statistischen Modellierung von Systemen, deren Bandbreite kleiner ist als z. B. Flugzeugsteuerungssystemen, kann das Rauschen von Generatoren in der Regel als weiß betrachtet werden. Farbiges Rauschen, das auf das untersuchte System einwirkt, wird auf dem AVM simuliert, indem weißes Rauschen durch einen entsprechend ausgewählten Formungsfilter geleitet wird.

Auf einem digitalen Computer wird weißes Rauschen modelliert, indem es durch einen annähernd schrittweisen, absolut zufälligen Prozess angenähert wird x(t). Die Realisierungen letzterer werden nach folgender Regel berechnet. Prozessargument – ​​Zeit T-Ändert sich diskret in Schritten Δt. Innerhalb jedes Schritts wird der Implementierungswert mithilfe eines Gaußschen Pseudozufallszahlensensors neu festgelegt

Wo IN- konstanter Multiplikator.

Der Wert bleibt über das gesamte Intervall konstant. Mit dem Sensor ermittelte Pseudozufallszahlen sind paarweise nicht miteinander korreliert. Daher ist die Korrelation zwischen den Werten des Schrittprozesses x(t) in verschiedenen Abständen und , abwesend. Daher ist die Korrelationsfunktion dieses Prozesses gleich

Mit Haltung . Folglich dauert der Prozess für ein ausreichend kleines Intervall x(t) mit Korrelationsfunktion Rx(t), definiert durch die Beziehung (2.85), kann als ungefähre Annäherung an weißes Rauschen mit Intensität betrachtet werden . Je kleiner das Intervall, desto höher ist die Genauigkeit der Näherung .

Bei der numerischen Integration stochastischer Differentialgleichungen (2.82) auf einem Digitalrechner wird der Wert des Intervalls ermittelt , Wird bei der Modellierung von weißem Rauschen verwendet , Die Einwirkung auf das System kann nicht kleiner als der Integrationsschritt eingestellt werden. Folglich muss aus der Bedingung der Schritt der numerischen Integration bestimmt werden

Wo ist das Intervall, in dem ein schrittweiser, absolut zufälliger Prozess das weiße Rauschen ziemlich genau annähert? - Schritt der numerischen Integration, der eine akzeptable Genauigkeit der Berechnungen mit der gewählten Methode der numerischen Integration des Systems gewährleistet (2.82).

Experimente an einem Digitalrechner zeigen das mit allen Methoden der numerischen Integration , Um die Approximation des weißen Rauschens durch einen Stufenprozess sicherzustellen, muss daher die Integration des Systems (2.82) schrittweise erfolgen

Unter allen Methoden der numerischen Integration ist die für einen Integrationsschritt erforderliche Rechenzeit bei der Integration mit der Euler-Methode am geringsten:

Daher sollte diese Methode bei der statistischen Modellierung von Systemen eingesetzt werden , und der Koeffizient IN nach Formel berechnen

Wo ist die Intensität des weißen Rauschens, das auf das System einwirkt?

Durchführung statistischer Modellierung und Verarbeitung der Ergebnisse. Nachdem ein Programm zur Modellierung des zu untersuchenden dynamischen Systems auf einem digitalen Computer zusammengestellt oder ein Simulationsschema auf einem automatischen Computer eingegeben wurde, können sie verwendet werden, um die erforderliche Anzahl von Realisierungen der Ausgabekoordinaten des zu untersuchenden Systems zu erhalten. Die Verarbeitung der Modellierungsergebnisse kann entweder während der Modellierung oder nach deren Abschluss mit Methoden der mathematischen Statistik erfolgen. Abhängig vom spezifischen Zweck der statistischen Modellierung können die Ergebnisse der Verarbeitung Schätzungen mathematischer Erwartungen, Streuungen, gegenseitiger Korrelationsmomente, Korrelationsfunktionen und anderer statistischer Merkmale der Ausgabekoordinaten des Systems sein. Je größer die Anzahl der statistisch verarbeiteten Implementierungen ist, desto höher ist die Genauigkeit der Schätzungen. Beziehungen zur Berechnung von Konfidenzintervallen und Konfidenzwahrscheinlichkeiten von Schätzungen verschiedener Parameter in Abhängigkeit von der Anzahl der zu ihrer Ermittlung verwendeten Implementierungen werden in Büchern angegeben.

Wenn das untersuchte System und die darauf einwirkenden Störungen so beschaffen sind, dass die betrachtete Ausgangsvariable ein ergodischer stationärer Prozess ist, reicht es bei der Modellierung aus, sich darauf zu beschränken, eine einzige lange Realisierung dieser Variablen zu erhalten. In anderen Fällen ist es notwendig, mehrere Implementierungen von Ausgabekoordinaten zu empfangen und zu verarbeiten.


VERFAHREN ZUR BESTIMMUNG DER BEWERTUNG DES ZUSTANDS VON FLUGZEUG

3.1. SCHÄTZUNGSPROBLEM ALS SONDERFALL EINER STATISTISCHEN LÖSUNG. GRUNDLEGENDE KONZEPTE UND DEFINITIONEN

Formulieren wir das Problem der Erstellung von Schätzungen. Betrachten Sie einen Zufallsvektor X, deren Verteilungsdichte eine bekannte mathematische Form hat, jedoch eine Reihe unbekannter Parameter enthält. Es wird eine Stichprobe von Messwerten der Komponenten dieses Vektors angegeben, im Folgenden Messvektor Y genannt.

Wenn zum Beispiel gemessen wird N einmal T n-dimensionale Vektorkomponente X, dann der Vektor Y wird beinhalten N×m Komponente. Vektor Y ist ebenfalls zufällig, da es sogenannte Messfehler enthält, deren Verteilungsdichte als bekannt gilt. Es ist erforderlich, mithilfe des Messvektors Y Schätzungen der unbekannten Parameter der Verteilungsdichte zu erhalten X und bestimmen Sie die Genauigkeit dieser Schätzungen.

Es ist wichtig, die Eigenschaften verschiedener Schätzungen desselben Parameters vergleichen zu können und insbesondere Schätzungen mit maximaler Genauigkeit zu finden. Wir bestimmen die Genauigkeit der Schätzungen anhand der statistischen Merkmale der Abweichungen der Schätzungen von den unbekannten „wahren Werten“ der geschätzten Parameter. Verteilungsdichte X, gekennzeichnet durch die wahren Werte der geschätzten Parameter, nennen wir „wahr“.

Diese Formulierung des Problems der Schätzungsermittlung wird als statistisch bezeichnet und ist derzeit bei technischen Problemen am weitesten verbreitet. Gleichzeitig gibt es andere Formulierungen von Schätzproblemen, bei denen keine Annahmen über die Verteilung des zu bewertenden Wertes getroffen werden können. Diese Situation wird gesondert betrachtet.

Kehren wir zum Problem der statistischen Schätzung zurück. Lassen Sie uns einige Definitionen vorstellen.

Die Funktion der Werte der Schätzgröße, also die Messfunktion, wird künftig Statistik genannt. Die einfachste Statistik ist daher die Schätzung eines Zufallsvektors X, erhalten auf der Grundlage von Messungen von Y, d. h. (Y), ist auch eine Statistik. Wenn die Statistik alle notwendigen empirischen Informationen zur Erstellung der Verteilung enthält X, dann heißt es ausreichend.

Wenn die Wahrscheinlichkeit der Schätzung dem geschätzten Wert entspricht X bei unbegrenzter Vergrößerung der Stichprobengröße, also der Dimension des Vektors Y, dann spricht man von konsistent.

Vektorauswertung X ist eine Funktion zufälliger Argumente. Um Schätzungen miteinander zu vergleichen und die beste auszuwählen, ist es daher notwendig, die statistischen Eigenschaften der Verlustfunktion, der sogenannten Risikofunktion, zu berücksichtigen.

Es können mehrere solcher Funktionen erstellt werden. Die am häufigsten verwendeten Risikofunktionen sind wie folgt.

1. Durchschnittliches oder apriorisches Risiko:

Wo p(x, y)-Dichte der gemeinsamen Wahrscheinlichkeitsverteilung von Vektoren X und du.

Die Integration in (3.3) erfolgt über den Bereich aller möglichen Werte X und U. Im Folgenden werden wir in solchen Fällen nicht auf die Grenzen der Integration hinweisen; x i y- Werte der Zufallsvektoren X und Y. Notation (y) in (3.3) betont die Tatsache, dass die Schätzung als Funktion betrachtet wird u. Wenn die Punktzahl (y) Minimiert die Risikofunktion (3.3), dann heißt sie optimal im Sinne des durchschnittlichen Risikos. Mittleres Risiko (3,3) R( ) können im Formular dargestellt werden

, maximieren oder, was ist dasselbe, , wird als Schätzung der maximalen a-posteriori-Wahrscheinlichkeit bezeichnet, und die Schätzmethode selbst wird als Methode der maximalen a-posteriori-Wahrscheinlichkeit bezeichnet.

2. Bayesianisches Risiko:

Wo p(x/Y)- hintere Wahrscheinlichkeitsdichte der Werte X. für einen gegebenen (festen) Y, p(x)-prior Wahrscheinlichkeitsdichte des Vektors X, d. h. vor der Erfahrung existierend, in der ein Vektor realisiert wurde u. Somit hängt das Bayes'sche Risiko aufgrund der Struktur der Bayes-Formel (1.9) nicht nur von der Schätzung, sondern auch von der A-priori-Wahrscheinlichkeitsdichte ab p(x), was sich in der Aufnahme widerspiegelt . Grad , Die Minimierung der Risikofunktion (3.4) wird im Bayes'schen Sinne als optimal oder einfach Bayes'sch bezeichnet. Es wurde nachgewiesen, dass die Bayes'sche Schätzung für eine Verlustfunktion der Form (3.1) gleichzeitig die Risikofunktionen (3.3) und (3.4) minimiert. Schätzalgorithmen, die Bayes'sche Schätzungen liefern, werden üblicherweise als Bayes'sche Algorithmen bezeichnet.

3. Bedingtes Risiko:

Diese Risikofunktion charakterisiert Schätzfehler für einen gegebenen (festen) Wert des geschätzten Vektors X. Es besteht ein Zusammenhang zwischen bedingtem und durchschnittlichem Risiko:

In (3.5) und (3.6) p(y/X) Und p(x)- dementsprechend die bedingte Wahrscheinlichkeitsdichte des Vektors Y und A-priori-Wahrscheinlichkeitsdichte des Vektors X. Basierend auf der Wahrscheinlichkeitsdichte p(y/X) Es kann eine Maximum-Likelihood-Schätzung erstellt werden. Dies ist eine Schätzung, die die sogenannte Likelihood-Funktion maximiert. Im einfachsten Fall kann die Likelihood-Funktion als gewählt werden p(y/X), in die die tatsächlichen Messwerte eingesetzt werden u. Zum Bauen p(y/X) Es ist nicht erforderlich, die Art der Verteilungsdichte zu kennen p(x), d. h. die Form der A-priori-Wahrscheinlichkeitsdichte des Vektors X. X, X am Set.

Man kann auch sagen, dass der Minimax-Schätzer unter der Prior-Verteilung Bayesianisch ist X, für die Bewertungsaufgabe am ungünstigsten ist. Lassen Sie uns den letzten Gedanken genauer erläutern.

Bayesianisches Risiko kann bestimmt werden, wenn die Art der A-priori-Wahrscheinlichkeitsdichte bekannt ist p(x) Vektor X, da aufgrund (1.9) die bedingte Wahrscheinlichkeitsdichte

Wo RU)-Vektor-Wahrscheinlichkeitsdichte Y.

Im Fall der Wahrscheinlichkeitsdichte p(x) nicht existiert, können wir jeden bedingt zuweisen X aus einer früheren Verteilung , Zugehörigkeit zu einer Klasse von Distributionen .

Es stellt sich heraus, dass für die Verlustfunktion der Form (3.1) die folgende Gleichung gilt:

d.h. Minimax-Schätzung identisch mit der Bayes'schen Schätzung berechnet für die vorherige Verteilung, die das Bayes'sche Risiko um maximiert. Dadurch wird eine Verbindung zwischen Bayes'schen und Minimax-Schätzungen hergestellt.

3.2. Bayesianische Schätzalgorithmen

Wie die Praxis zeigt, hängt die Komplexität der Implementierung von Schätzalgorithmen zum einen von der Art des mathematischen Modells der Bewegung des zu bewertenden und zu messenden dynamischen Systems und zum anderen von der Art und Weise der Durchführung der Messungen ab, d. h. davon, wie die Messungen durchgeführt werden kontinuierlich oder diskret eingenommen werden. Betrachten wir lineare (für lineare Modelle), quasilineare (für linearisierte Modelle) und nichtlineare (für nichtlineare Modelle) Bayes'sche Algorithmen. In der Regel gehen wir davon aus, dass die Messinformationen diskret ankommen und die entsprechenden Algorithmen eine wiederkehrende Form haben. Diese Form des Algorithmus eignet sich am besten für die Implementierung auf einem Computer, wenn eingehende Messvektoren einzeln verarbeitet werden. In manchen Fällen ist es sinnvoll, die erhaltenen Ergebnisse auf den Fall kontinuierlicher Messungen zu übertragen.

Vorlesung 9

Markov-Prozesse
Vorlesung 9
Markov-Prozesse



1

Markov-Prozesse

Markov-Prozesse
Ein zufälliger Prozess, der in einem System abläuft, wird aufgerufen
Markovianisch, wenn es keine Konsequenzen hat. Diese.
wenn wir den aktuellen Zustand des Prozesses (t 0) betrachten - als
vorhanden, eine Menge möglicher Zustände ( (s),s t) - als
Vergangenheit, eine Menge möglicher Zustände ( (u),u t) - als
Zukunft, dann für einen Markov-Prozess für einen festen
Gegenwart, Zukunft hängt nicht von der Vergangenheit ab, sondern ist determiniert
nur in der Gegenwart und hängt nicht davon ab, wann und wie das System
kam in diesen Zustand.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
2

Markov-Prozesse

Markov-Prozesse
Markov-Zufallsprozesse sind nach dem herausragenden russischen Mathematiker A.A. Markov benannt, der als erster mit der Untersuchung des probabilistischen Zusammenhangs von Zufallsvariablen begann
und schuf eine Theorie, die man „Dynamik“ nennen kann
Wahrscheinlichkeiten.“ Anschließend wurden die Grundlagen dieser Theorie gelegt
die ursprüngliche Grundlage der allgemeinen Theorie zufälliger Prozesse sowie so wichtiger angewandter Wissenschaften wie der Theorie der Diffusionsprozesse, der Zuverlässigkeitstheorie, der Warteschlangentheorie usw.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
3

Markow Andrej Andrejewitsch Markow Andrej Andrejewitsch Markow Andrej Andrejewitsch

Markov-Prozesse
Markow Andrej Andrejewitsch
1856-1922
Russischer Mathematiker.
Schrieb etwa 70 Werke darüber
Theorien
Zahlen,
Theorien
Funktionsnäherungen, Theorie
Wahrscheinlichkeiten. Der Geltungsbereich des Gesetzes wurde erheblich erweitert
große Anzahl und zentral
Grenzwertsatz. Ist
Begründer der Theorie der Zufallsprozesse.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
4

Markov-Prozesse

Markov-Prozesse
In der Praxis handelt es sich meist um Markov-Prozesse in reiner Form
Nicht treffen. Aber es gibt Prozesse, bei denen der Einfluss der „Vorgeschichte“ vernachlässigt werden kann, und zwar beim Studium
Für solche Prozesse können Markov-Modelle verwendet werden. IN
Derzeit werden die Theorie der Markov-Prozesse und ihre Anwendungen in verschiedenen Bereichen häufig eingesetzt.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
5

Markov-Prozesse

Markov-Prozesse
Biologie: Prozesse von Geburt und Tod – Populationen, Mutationen,
Epidemien.
Physik:
radioaktiv
verfällt,
Theorie
Zähler
Elementarteilchen, Diffusionsprozesse.
Chemie:
Theorie
Spuren
V
nuklear
Fotoemulsionen,
Wahrscheinlichkeitsmodelle der chemischen Kinetik.
Bilder.jpg
Astronomie: Fluktuationstheorie
Helligkeit der Milchstraße.
Warteschlangentheorie: Telefonzentralen,
Reparaturwerkstätten, Fahrkartenschalter, Informationsschalter,
Maschinen- und andere technologische Systeme, Steuerungssysteme
flexible Produktionssysteme, Informationsverarbeitung durch Server.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
6

Markov-Prozesse

Markov-Prozesse
Das System sei im aktuellen Moment t0 in
bestimmter Zustand S0. Wir kennen die Eigenschaften
Zustand des Systems in der Gegenwart und alles, was damals passiert ist< t0
(Hintergrund des Prozesses). Können wir die Zukunft vorhersagen,
diese. Was passiert bei t > t0?
Nicht genau, aber einige wahrscheinlichkeitstheoretische Merkmale
Prozess kann in der Zukunft gefunden werden. Zum Beispiel die Wahrscheinlichkeit, dass
das nach einer Weile
System S wird sich in einem Zustand befinden
S1 oder bleibt im Zustand S0 usw.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
7

Markov-Prozesse. Beispiel.

Markov-Prozesse
Markov-Prozesse. Beispiel.
System S ist eine Gruppe von Flugzeugen, die am Luftkampf teilnehmen. Sei x die Menge
„rote“ Ebenen, y – die Anzahl der „blauen“ Ebenen. Zum Zeitpunkt t0 die Anzahl der überlebenden (nicht abgeschossenen) Flugzeuge
bzw. – x0, y0.
Uns interessiert die Wahrscheinlichkeit, dass das im Moment der Zeit der Fall ist
t 0 wird die zahlenmäßige Überlegenheit auf der Seite der „Roten“ liegen. Diese Wahrscheinlichkeit hängt vom Zustand ab, in dem sich das System befand
zum Zeitpunkt t0, und nicht darauf, wann und in welcher Reihenfolge die Flugzeuge vor dem Zeitpunkt t0 abgeschossen haben.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
8

Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
Markov-Prozess mit endlicher oder abzählbarer Zahl
Zustände und Momente der Zeit nennt man diskret
Markov-Kette. Übergänge von Zustand zu Zustand sind nur zu ganzzahligen Zeitpunkten möglich.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
9

10. Diskrete Markov-Ketten. Beispiel

Markov-Prozesse

Vermuten
Was
Rede
Kommen
Ö
aufeinanderfolgende Münzwürfe
Wurfspiel; eine Münze wird hineingeworfen
bedingte Zeitpunkte t =0, 1, ... und bei
Bei jedem Schritt kann der Spieler ±1 s gewinnen
das gleiche
Wahrscheinlichkeit
1/2,
so was
Somit ist sein Gesamtgewinn zum Zeitpunkt t eine Zufallsvariable ξ(t) mit möglichen Werten j = 0, ±1, ....
Vorausgesetzt, dass ξ(t) = k, erfolgt im nächsten Schritt die Auszahlung
ist bereits gleich ξ(t+1) = k ± 1, wobei die Werte j = k ± 1 mit der gleichen Wahrscheinlichkeit 1/2 angenommen werden. Man kann sagen, dass es hier mit entsprechender Wahrscheinlichkeit zu einem Übergang vom Zustand ξ(t) = k zum Zustand ξ(t+1) = k ± 1 kommt.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
10

11. Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
Wenn wir dieses Beispiel verallgemeinern, können wir uns ein System mit vorstellen
abzählbare Anzahl möglicher Zustände, die im Laufe der Zeit
Die diskrete Zeit t = 0, 1, ... bewegt sich zufällig von Zustand zu Zustand.
Sei ξ(t) seine Position zum Zeitpunkt t als Ergebnis einer Kette zufälliger Übergänge
ξ(0) -> ξ(1) -> ... -> ξ(t) -> ξ(t+1) ->...-> ... .
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
11

12. Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
Bei der Analyse zufälliger Prozesse mit diskreten Zuständen ist es praktisch, ein geometrisches Schema zu verwenden – einen Graphen
Zustände. Die Eckpunkte des Graphen sind die Zustände des Systems. Bögen des Diagramms
– mögliche Übergänge von Staat zu Staat.
Ein Wurfspiel.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
12

13. Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
Bezeichnen wir alle möglichen Zustände durch ganze Zahlen i = 0, ±1, ...
Nehmen wir an, dass das System für einen bekannten Zustand ξ(t) =i im nächsten Schritt mit bedingter Wahrscheinlichkeit in den Zustand ξ(t+1) = j übergeht
P( (t 1) j (t) i)
unabhängig von ihrem Verhalten in der Vergangenheit, oder besser gesagt, unabhängig
aus der Kette der Übergänge zum Moment t:
P( (t 1) j (t) i; (t 1) it 1;...; (0) i0 )
P( (t 1) j (t) i)
Diese Eigenschaft wird Markovium genannt.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
13

14. Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
Nummer
pij P( (t 1) j (t) i)
namens Wahrscheinlichkeit
Übergang des Systems vom Zustand i zum Zustand j in einem Schritt
Zeit t 1.
Wenn die Übergangswahrscheinlichkeit nicht von t abhängt, dann ist die Schaltung
Markov heißt homogen.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
14

15. Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
Matrix P, deren Elemente Wahrscheinlichkeiten sind
Der Übergang pij wird als Übergangsmatrix bezeichnet:
p11...p1n
P S. 21 ... S. 2n
P
n1...pnn
Es ist stochastisch, d.h.
pij 1 ;
ich
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
p ij 0 .
15

16. Diskrete Markov-Ketten. Beispiel

Markov-Prozesse
Diskrete Markov-Ketten. Beispiel
Übergangsmatrix für das Wurfspiel
...
k 2
k 2
0
k 1
1/ 2
k
0
k 1
k
k 1
k 2
0
1/ 2
0
0
1/ 2
0
1/ 2
0
1/ 2
0
0
0
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
...
k 1 k 2
0
0
0
1/ 2
0
1/ 2
...
0
0
1/ 2
0
16

17. Diskrete Markov-Ketten. Beispiel

Markov-Prozesse
Diskrete Markov-Ketten. Beispiel
Als Ergebnis einer chemischen Analyse des Bodens beurteilt der Gärtner
Sein Zustand ist eine von drei Zahlen: gut (1), befriedigend (2) oder schlecht (3). Als Ergebnis langjähriger Beobachtungen bemerkte der Gärtner
dass Bodenproduktivität in der Strömung
Jahr hängt nur von seinem Zustand ab
vorheriges Jahr. Daher die Wahrscheinlichkeiten
Übergang des Bodens von einem Zustand in einen
ein anderer kann wie folgt dargestellt werden
Markov-Kette mit Matrix P1:
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
17

18. Diskrete Markov-Ketten. Beispiel

Markov-Prozesse
Diskrete Markov-Ketten. Beispiel
Aufgrund landwirtschaftlicher Praktiken kann der Gärtner jedoch die Übergangswahrscheinlichkeiten in der Matrix P1 ändern.
Dann wird die Matrix P1 ersetzt
zur Matrix P2:
0.30 0.60 0.10
0.10 0.60 0.30
0.05 0.40 0.55
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
18

19. Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
Betrachten wir, wie sich Prozesszustände im Laufe der Zeit ändern. Wir betrachten den Prozess zu aufeinanderfolgenden Zeitpunkten, beginnend mit dem Zeitpunkt 0. Stellen wir die anfängliche Wahrscheinlichkeitsverteilung p(0) ( p1 (0),..., pm (0)) ein, wobei m die Anzahl der Zustände ist des Prozesses ist pi (0) die Wahrscheinlichkeit des Findens
Prozess im Zustand i zum Anfangszeitpunkt. Die Wahrscheinlichkeit pi(n) wird als unbedingte Wahrscheinlichkeit des Zustands bezeichnet
ich zum Zeitpunkt n 1.
Die Komponenten des Vektors p(n) zeigen, welche der möglichen Zustände der Schaltung zum Zeitpunkt n am häufigsten sind
wahrscheinlich.
M
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
pk(n) 1
k 1
19

20. Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
Wenn Sie die Reihenfolge kennen ( p (n)) für n 1,... können Sie sich ein Bild vom Verhalten des Systems im Zeitverlauf machen.
In einem 3-Staaten-System
S. 11 S. 12 S. 13
S. 21
P
31
S. 22
S. 32
S. 23
S. 33
S. 2 (1) S. 1 (0) S. 12 S. 2 (0) S. 22 S. 3 (0) S. 32
p2 (n 1) p1 (n) p12 p2 (n) p22 p3 (n) p32
Allgemein:
p j (1) pk (0) pkj
p j (n 1) pk (n) pkj
k
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
k
p(n 1) p(n) P
20

21. Diskrete Markov-Ketten. Beispiel

Markov-Prozesse
Diskrete Markov-Ketten. Beispiel
Matrix
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
Schritt
(p(n))
N
0
1, 0, 0
N
1
0.2 , 0.5 , 0.3
N
2
0.04 , 0.35 , 0.61
N
3
0.008 , 0.195 , 0.797
N
4
0.0016 , 0.1015 , 0.8969
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
21

22. Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
N
Übergangsmatrix für n Schritte P(n) P .
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
p(2) p(0) P
2
p(2)
P(2) P2
1, 0, 0
0.0016
0.
0.
0.0016
0.
0.
0.1015
0.0625
0.
0.1015
0.0625
0.
0.8969
0.9375
1.
0.8969
0.9375
1.
0.04 , 0.35 , 0.61
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
22

23. Diskrete Markov-Ketten

Markov-Prozesse
Diskrete Markov-Ketten
Wie verhalten sich Markov-Ketten für n?
Für eine homogene Markov-Kette gilt unter bestimmten Bedingungen die folgende Eigenschaft: p (n) für n.
Wahrscheinlichkeiten 0 hängen nicht von der Anfangsverteilung ab
p(0) und werden nur durch die Matrix P bestimmt. In diesem Fall spricht man von einer stationären Verteilung und die Kette selbst heißt ergodisch. Die Ergodizitätseigenschaft bedeutet, dass mit zunehmendem n
die Wahrscheinlichkeit von Zuständen ändert sich praktisch nicht mehr und das System geht in einen stabilen Betriebsmodus über.
ich
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
23

24. Diskrete Markov-Ketten. Beispiel

Markov-Prozesse
Diskrete Markov-Ketten. Beispiel
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
0 0 1
P() 0 0 1
0 0 1
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
p()(0,0,1)
24

25. Diskrete Markov-Ketten. Beispiel

Markov-Prozesse
Diskrete Markov-Ketten. Beispiel
0.30 0.60 0.10
0.10 0.60 0.30
0.05 0.40 0.55
0.1017 0.5254 0.3729
P() 0,1017 0,5254 0,3729
0.1017 0.5254 0.3729
p() (0,1017,0,5254,0,3729)
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
25

26. Markov-Prozesse mit kontinuierlicher Zeit

Markov-Prozesse

Ein Prozess heißt ein zeitkontinuierlicher Prozess, wenn
Die Zeitpunkte möglicher Übergänge von Zustand zu Zustand sind nicht im Voraus festgelegt, sondern unsicher, zufällig und können passieren
jederzeit.
Beispiel. Das technologische System S besteht aus zwei Geräten,
Jeder von ihnen kann zu einem zufälligen Zeitpunkt beendet werden
Anschließend wird sofort mit der Reparatur der Einheit begonnen, die ebenfalls für eine unbekannte, zufällige Zeit andauert.
Folgende Systemzustände sind möglich:
S0 - beide Geräte funktionieren;
S1 – das erste Gerät wird repariert, das zweite funktioniert ordnungsgemäß;
S2 – das zweite Gerät wird repariert, das erste funktioniert einwandfrei;
S3 – beide Geräte werden repariert.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
26

27. Markov-Prozesse mit kontinuierlicher Zeit

Markov-Prozesse
Zeitkontinuierliche Markov-Prozesse
Es kommt zu Übergängen des Systems S von Zustand zu Zustand
fast augenblicklich, in zufälligen Momenten des Scheiterns
das eine oder andere Gerät bzw
Abschluss der Reparaturen.
Die Wahrscheinlichkeit der Gleichzeitigkeit
Ausfall beider Geräte
kann vernachlässigt werden.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
27

28. Ereignisströme

Markov-Prozesse
Event-Streams
Ein Ereignisstrom ist eine Abfolge homogener Ereignisse, die zu zufälligen Zeitpunkten aufeinander folgen.
ist die durchschnittliche Anzahl der Ereignisse
Intensität des Ereignisflusses
pro Zeiteinheit.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
28

29. Ereignisströme

Markov-Prozesse
Event-Streams
Ein Ereignisfluss wird als stationär bezeichnet, wenn seine probabilistischen Eigenschaften nicht von der Zeit abhängen.
Insbesondere die Intensität
Der stetige Fluss ist konstant. Der Fluss von Ereignissen weist zwangsläufig Verdichtungen oder Verdünnungen auf, diese sind jedoch nicht regelmäßiger Natur und die durchschnittliche Anzahl von Ereignissen pro Zeiteinheit ist konstant und nicht von der Zeit abhängig.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
29

30. Ereignisströme

Markov-Prozesse
Event-Streams
Ein Fluss von Ereignissen wird als Fluss ohne Konsequenzen bezeichnet, wenn z
zwei beliebige, sich nicht überschneidende Zeiträume und die Anzahl der Ereignisse, die auf einen von ihnen fallen, hängt nicht davon ab, wie viele Ereignisse auf den anderen fallen. Mit anderen Worten bedeutet dies, dass die Ereignisse, die den Fluss bilden, zu bestimmten Zeitpunkten auftreten
Zeit unabhängig voneinander und jeweils aus eigenen Gründen verursacht.
Ein Ereignisfluss wird als gewöhnlich bezeichnet, wenn die Eintrittswahrscheinlichkeit von zwei oder mehr Ereignissen in einem Elementarsegment t im Vergleich zur Eintrittswahrscheinlichkeit eines einzigen Ereignisses vernachlässigbar ist
Ereignisse, d.h. Ereignisse erscheinen darin einzeln und nicht in Gruppen von mehreren gleichzeitig
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
30

31. Ereignisströme

Markov-Prozesse
Event-Streams
Ein Ereignisfluss wird als einfachstes (oder stationäres Poisson) bezeichnet, wenn er drei Eigenschaften gleichzeitig hat: 1) stationär, 2) gewöhnlich, 3) hat keine Konsequenzen.
Der einfachste Fluss hat die einfachste mathematische Beschreibung. Er spielt unter den Streams das gleiche Special
Rolle, wie unter anderem das Gesetz der Normalverteilung
Gesetze der Verteilung. Nämlich bei der Überlagerung einer ausreichend großen Anzahl unabhängiger, stationärer und gewöhnlicher
Strömungen (in der Intensität miteinander vergleichbar), das Ergebnis ist eine Strömung, die der einfachsten nahe kommt.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
31

32. Ereignisströme

Markov-Prozesse
Event-Streams
Für den einfachsten Fluss mit Intensität
Intervall
Die Zeit T zwischen benachbarten Ereignissen hat eine Exponentialfunktion
Verteilung mit Dichte
p(x) e x , x 0 .
Für eine Zufallsvariable T mit Exponentialverteilung ist der mathematische Erwartungswert der Kehrwert des Parameters.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
32

33. Markov-Prozesse mit kontinuierlicher Zeit

Markov-Prozesse
Zeitkontinuierliche Markov-Prozesse
Betrachtet man Prozesse mit diskreten Zuständen und kontinuierlicher Zeit, können wir davon ausgehen, dass alle Übergänge des Systems S von Zustand zu Zustand unter dem Einfluss erfolgen
einfache Ereignisflüsse (Anrufflüsse, Fehlerflüsse, Wiederherstellungsflüsse usw.).
Wenn alle Ereignisströme, die das System S von Zustand zu Zustand übertragen, einfach sind, dann ist der Prozess, der in auftritt
Das System wird Markovian sein.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
33

34. Markov-Prozesse mit kontinuierlicher Zeit

Markov-Prozesse
Zeitkontinuierliche Markov-Prozesse
Lassen Sie das System im Staat durch handeln
der einfachste Ablauf von Ereignissen. Sobald das erste Ereignis dieses Flusses auftritt, „springt“ das System aus dem Zustand
in den Zustand bringen.
- Intensität des Flusses von Ereignissen, die das System übertragen
vom Staat
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
V
.
34

35. Markov-Prozesse mit kontinuierlicher Zeit

Markov-Prozesse
Zeitkontinuierliche Markov-Prozesse
Das betrachtete System S sei
mögliche Zustände
. Die Wahrscheinlichkeit p ij (t) ist die Wahrscheinlichkeit des Übergangs vom Zustand i zum Zustand j in der Zeit t.
Wahrscheinlichkeit des i-ten Zustands
ist die Wahrscheinlichkeit, dass
dass sich das System zum Zeitpunkt t im Zustand befindet
. Offensichtlich für jeden Moment der Betrag
aller Zustandswahrscheinlichkeiten ist gleich eins:
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
35

36. Markov-Prozesse mit kontinuierlicher Zeit

Markov-Prozesse
Zeitkontinuierliche Markov-Prozesse
Um alle Zustandswahrscheinlichkeiten zu finden
Wie
Funktionen der Zeit werden Kolmogorov-Differentialgleichungen aufgestellt und gelöst – ein besonderer Gleichungstyp, bei dem die unbekannten Funktionen die Wahrscheinlichkeiten von Zuständen sind.
Für Übergangswahrscheinlichkeiten:
p ij (t) p ik (t) kj
k
Für unbedingte Wahrscheinlichkeiten:
p j (t) p k (t) kj
k
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
36

37. Kolmogorov Andrey Nikolaevich

Markov-Prozesse
Kolmogorov Andrey Nikolaevich
1903-1987
Großartiger Russe
Mathematiker.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
37

38. Markov-Prozesse mit kontinuierlicher Zeit

Markov-Prozesse
Zeitkontinuierliche Markov-Prozesse
- Intensität des Fehlerflusses;
- Intensität des Erholungsflusses.
Lassen Sie das System im Zustand sein
S0. Durch den Fluss wird es in den Zustand S1 überführt
Ausfälle des ersten Geräts. Seine Intensität ist
Wo
- durchschnittliche Geräteverfügbarkeit.
Durch den Wiederherstellungsfluss wird das System vom Zustand S1 in den Zustand S0 überführt
erstes Gerät. Seine Intensität ist
Wo
- durchschnittliche Zeit zur Reparatur der ersten Maschine.
Auf ähnliche Weise werden die Intensitäten der Ereignisströme berechnet, die das System entlang aller Bögen des Diagramms transportieren.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
38

39. Warteschlangensysteme

Markov-Prozesse

Beispiele für Warteschlangendienstsysteme (QS): Telefonzentralen, Reparaturwerkstätten,
Fahrkarte
Kassen,
Referenz
das Büro,
Werkzeugmaschinen und andere technologische Systeme,
Systeme
Management
flexibel
Produktionssysteme,
Informationsverarbeitung durch Server usw.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
39

40. Warteschlangensysteme

Markov-Prozesse
Warteschlangensysteme
Das QS besteht aus einer bestimmten Anzahl Portionen
Einheiten, die Servicekanäle genannt werden (dies sind
Maschinen, Roboter, Kommunikationsleitungen, Kassierer usw.). Irgendein SMO
ist darauf ausgelegt, den Fluss von Anwendungen (Anforderungen) zu bedienen, die zu zufälligen Zeiten eintreffen.
Die Bearbeitung der Anfrage wird für einen zufälligen Zeitraum fortgesetzt. Danach wird der Kanal freigegeben und ist bereit, die nächste Anfrage zu empfangen
Anwendungen.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
40

41. Warteschlangensysteme

Markov-Prozesse
Warteschlangensysteme
Der QS-Betriebsprozess ist ein Zufallsprozess mit diskreten
Zustände und kontinuierliche Zeit. Der Zustand des QS ändert sich schlagartig zum Zeitpunkt des Auftretens einiger Ereignisse
(Eintreffen einer neuen Anfrage, Ende des Dienstes, Zeitpunkt,
wenn eine Anwendung, die das Warten satt hat, die Warteschlange verlässt).
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
41

42. Warteschlangensysteme

Markov-Prozesse
Warteschlangensysteme
Klassifizierung von Warteschlangensystemen
1. QS mit Fehlschlägen;
2. Warteschlange mit einer Warteschlange.
In einem QS mit Ablehnungen erhält ein Antrag, der zu einem Zeitpunkt eingeht, an dem alle Kanäle belegt sind, eine Ablehnung, verlässt das QS und ist nicht mehr vorhanden
serviert.
In einem QS mit Warteschlange wird eine Anfrage, die zu einem Zeitpunkt eintrifft, an dem alle Kanäle belegt sind, nicht verlassen, sondern in die Warteschlange gestellt und wartet auf die Bearbeitung der Gelegenheit.
QS mit Warteschlangen werden je nach Typ in verschiedene Typen unterteilt
hängt davon ab, wie die Warteschlange organisiert ist – begrenzt oder unbegrenzt. Es können Einschränkungen hinsichtlich der Länge und der Zeit der Warteschlange gelten
Erwartungen, „Dienstleistungsdisziplin“.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
42

43. Warteschlangensysteme

Markov-Prozesse
Warteschlangensysteme
Gegenstand der Warteschlangentheorie ist die Konstruktion
mathematische Modelle, die gegebene Bedingungen verbinden
Betrieb des QS (Anzahl der Kanäle, deren Leistung, Regeln).
Arbeit, Art des Bewerbungsflusses) mit den für uns interessanten Merkmalen - Indikatoren für die Wirksamkeit des QS. Diese Indikatoren beschreiben die Fähigkeit des QS, den Strom zu bewältigen
Anwendungen. Dies können sein: die durchschnittliche Anzahl der vom QS pro Zeiteinheit bearbeiteten Anträge; durchschnittliche Anzahl belegter Kanäle; durchschnittliche Anzahl der Bewerbungen in der Warteschlange; durchschnittliche Wartezeit für den Service usw.
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“
43

44.

DANKE
FÜR AUFMERKSAMKEIT!!!
44

45. Konstruieren Sie einen Übergangsgraphen

Markov-Prozesse
Erstellen Sie ein Übergangsdiagramm
0.30
0.70
0.0
0.10
0.60
0.30
0.50
0.50
0.0
KHNURE, Abteilung PM, Dozent Kirichenko L.O.
„Wahrscheinlichkeitstheorie, mathematisch
Statistiken und Zufallsprozesse“

Markov-Zufallsprozesse sind nach dem herausragenden russischen Mathematiker A.A. benannt. Markov (1856-1922), der als erster mit der Untersuchung der probabilistischen Beziehung von Zufallsvariablen begann und eine Theorie entwickelte, die als „Wahrscheinlichkeitsdynamik“ bezeichnet werden kann. Anschließend wurden die Grundlagen dieser Theorie zur Ausgangsbasis für die allgemeine Theorie zufälliger Prozesse sowie für so wichtige angewandte Wissenschaften wie die Theorie der Diffusionsprozesse, die Zuverlässigkeitstheorie, die Warteschlangentheorie usw. Derzeit werden die Theorie der Markov-Prozesse und ihre Anwendungen in verschiedenen Wissenschaftsbereichen wie Mechanik, Physik, Chemie usw. häufig verwendet.

Aufgrund der vergleichsweisen Einfachheit und Klarheit des mathematischen Apparats sowie der hohen Zuverlässigkeit und Genauigkeit der erhaltenen Lösungen haben Markov-Prozesse besondere Aufmerksamkeit von Spezialisten erhalten, die sich mit Operations Research und der Theorie der optimalen Entscheidungsfindung befassen.

Trotz der oben erwähnten Einfachheit und Klarheit erfordert die praktische Anwendung der Theorie der Markov-Ketten die Kenntnis einiger Begriffe und Grundprinzipien, die vor der Präsentation von Beispielen besprochen werden sollten.

Wie bereits erwähnt, beziehen sich Markov-Zufallsprozesse auf Sonderfälle von Zufallsprozessen (SP). Zufallsprozesse wiederum basieren auf dem Konzept einer Zufallsfunktion (SF).

Eine Zufallsfunktion ist eine Funktion, deren Wert für jeden Wert des Arguments eine Zufallsvariable (RV) ist. Mit anderen Worten: SF kann als Funktion bezeichnet werden, die bei jedem Test eine bisher unbekannte Form annimmt.

Solche Beispiele für SF sind: Spannungsschwankungen in einem Stromkreis, die Geschwindigkeit eines Autos auf einem Straßenabschnitt mit Geschwindigkeitsbegrenzung, die Oberflächenrauheit eines Teils in einem bestimmten Abschnitt usw.

In der Regel wird angenommen, dass ein solcher Prozess als zufällig bezeichnet wird, wenn das SF-Argument die Zeit ist. Es gibt eine andere Definition von Zufallsprozessen, die näher an der Entscheidungstheorie liegt. Unter einem Zufallsprozess wird in diesem Fall ein Prozess der zufälligen Änderung der Zustände eines physikalischen oder technischen Systems in Bezug auf die Zeit oder ein anderes Argument verstanden.

Es ist leicht zu erkennen, dass, wenn man einen Zustand bezeichnet und eine Abhängigkeit darstellt, diese Abhängigkeit eine Zufallsfunktion ist.

Zufällige Prozesse werden nach Zustandstypen und dem Argument t klassifiziert. In diesem Fall können zufällige Prozesse diskrete oder kontinuierliche Zustände oder Zeit haben.

Zusätzlich zu den oben genannten Beispielen zur Klassifizierung zufälliger Prozesse gibt es noch eine weitere wichtige Eigenschaft. Diese Eigenschaft beschreibt den probabilistischen Zusammenhang zwischen den Zuständen zufälliger Prozesse. Wenn also beispielsweise in einem zufälligen Prozess die Wahrscheinlichkeit, dass das System in jeden nachfolgenden Zustand übergeht, nur vom vorherigen Zustand abhängt, dann wird ein solcher Prozess als Prozess ohne Nachwirkung bezeichnet.

Beachten wir zunächst, dass ein Zufallsprozess mit diskreten Zuständen und diskreter Zeit als Zufallsfolge bezeichnet wird.

Besitzt eine Zufallsfolge die Markov-Eigenschaft, so spricht man von einer Markov-Kette.

Wenn andererseits in einem Zufallsprozess die Zustände diskret sind, die Zeit kontinuierlich ist und die Nachwirkungseigenschaft erhalten bleibt, dann wird ein solcher Zufallsprozess als Markov-Prozess mit kontinuierlicher Zeit bezeichnet.

Ein Markov-Zufallsprozess heißt homogen, wenn die Übergangswahrscheinlichkeiten während des Prozesses konstant bleiben.

Eine Markov-Kette gilt als gegeben, wenn zwei Bedingungen erfüllt sind.

1. Es gibt eine Reihe von Übergangswahrscheinlichkeiten in Form einer Matrix:

2. Es gibt einen Vektor von Anfangswahrscheinlichkeiten

Beschreibung des Ausgangszustands des Systems.

Zusätzlich zur Matrixform kann das Markov-Kettenmodell als gerichteter gewichteter Graph dargestellt werden (Abb. 1).

Reis. 1

Die Zustandsmenge eines Markov-Kettensystems wird unter Berücksichtigung des weiteren Verhaltens des Systems auf eine bestimmte Weise klassifiziert.

1. Irreversibler Satz (Abb. 2).

Abb.2.

Im Falle einer nicht wiederkehrenden Menge sind beliebige Übergänge innerhalb dieser Menge möglich. Das System kann diesen Satz verlassen, aber nicht zu ihm zurückkehren.

2. Rückgabeset (Abb. 3).

Reis. 3.

Dabei sind auch beliebige Übergänge innerhalb der Menge möglich. Das System kann diesen Satz betreten, aber nicht verlassen.

3. Ergodensatz (Abb. 4).

Reis. 4.

Bei einer ergodischen Menge sind beliebige Übergänge innerhalb der Menge möglich, Übergänge von und zur Menge sind jedoch ausgeschlossen.

4. Absorptionsset (Abb. 5)

Reis. 5.

Wenn das System diesen Satz betritt, endet der Prozess.

In manchen Fällen ist es trotz der Zufälligkeit des Prozesses möglich, die Verteilungsgesetze oder die Parameter der Übergangswahrscheinlichkeiten bis zu einem gewissen Grad zu kontrollieren. Solche Markov-Ketten nennt man kontrolliert. Offensichtlich wird der Entscheidungsprozess mit Hilfe kontrollierter Markov-Ketten (CMC) besonders effektiv, wie später erläutert wird.

Das Hauptmerkmal einer diskreten Markov-Kette (DMC) ist der Determinismus der Zeitintervalle zwischen einzelnen Schritten (Stufen) des Prozesses. In realen Prozessen wird diese Eigenschaft jedoch häufig nicht beobachtet und die Intervalle erweisen sich mit einem bestimmten Verteilungsgesetz als zufällig, obwohl die Markov-Eigenschaft des Prozesses erhalten bleibt. Solche Zufallsfolgen werden Semi-Markov genannt.

Unter Berücksichtigung des Vorhandenseins und Fehlens bestimmter oben erwähnter Zustandsmengen können Markov-Ketten außerdem absorbierend sein, wenn es mindestens einen absorbierenden Zustand gibt, oder ergodisch, wenn die Übergangswahrscheinlichkeiten eine ergodische Menge bilden. Ergodenketten können wiederum regelmäßig oder zyklisch sein. Zyklische Ketten unterscheiden sich von regulären Ketten dadurch, dass bei Übergängen durch eine bestimmte Anzahl von Schritten (Zyklen) eine Rückkehr zu einem bestimmten Zustand erfolgt. Normale Ketten haben diese Eigenschaft nicht.

Wenn Sie einen Fehler finden, wählen Sie bitte einen Textabschnitt aus und drücken Sie Strg+Eingabetaste.