Verschiedene Wahrscheinlichkeiten bei Markovkette

Erste Frage Aufrufe: 639     Aktiv: 11.09.2018 um 01:45

0
Hallo zusammen,   ich habe mal eine Frage zur Markov Kette. Und zwar habe ich eine Übersicht mit 13 Wochen. In jeder dieser 13 Wochen gibt es eine 4x4 Übergangsmatrix mit bestimmten Wahrscheinlichkeiten. Mein Problem jetzt ist es, dass ich keine konstanten Wahrscheinlichkeiten in jeder Woche habe, sondern diese sich regelmäßig ändern. Meine Aufgabe ist es zu zeigen, dass es sich um eine homogene Markov Kette handelt. Habt ihr einen Plan wie ich da vorgehen kann? Kann ich das überhaupt zeigen, weil ich keine konstanten Wahrscheinlichkeiten habe?   Vorab Vielen Dank für eure Hilfe.
Diese Frage melden
gefragt

Student, Punkte: 2

 
Kommentar schreiben
1 Antwort
0
Hallo, wenn ich mich jetzt nicht irre beschreibt doch nur eine Matrix eine Markov-Kette oder nicht? Denn eine Matrix beschreibt einen eigenen Prozess.  Deshalb bin ich etwas verwirrt warum du für jede der Wochen eine neue Matrix hast und keinen Zustand. Meiner Meinung nach hast du also verschiedene Prozesse vorliegen. Vielleicht stehe ich gerade auch selbst auf dem Schlauch. Habe das Thema nicht komplett theoretisch behandelt. Die Idee die mir kommt ist, dass die Matrizen direkt vom Grundzustand die Veränderung in diese Woche berechnen. Dann müsste aber (meine ich) die Matrix für die zweite Woche das Quadrat der Matrix für die erste Woche sein. Dann hättest du eine gleichbleibende Verteilung. Die Grundmatrix die den Prozess beschreibt, müsste dann aber die Erste sein. Und die, die das Ende des Zyklus beschreibt eben die Letzte. Wenn das stimmt, dann könntest du bei der richtigen Verteilung (zu einer gegeben Woche) die erste Matrix anwenden und würdest die Verteilung der nächsten Woche herausbekommen, ohne notwendigerweise zu wissen wie es davor aussah. Was meinst du dazu? Grüße Christian
Diese Antwort melden
geantwortet

Sonstiger Berufsstatus, Punkte: 29.81K

 

Kommentar schreiben