Der Satz von Bayes

Der Satz von Bayes ermöglicht es, die bedingte Wahrscheinlichkeit zweier Ereignisse A und B zu bestimmen, falls eine der beiden bedingten Wahrscheinlichkeiten bereits bekannt ist. Dieser mathematische Satz ist auch unter den Namen Formel von Bayes oder Bayes Theorem bekannt.

Für zwei Ereignisse A und B mit P(B) größer 0 lässt sich die Wahrscheinlichkeit von A unter der Bedingung, dass B eingetreten ist, berechnen. Dies geschieht durch die Wahrscheinlichkeit von B unter der Bedingung, dass A eingetreten ist, mit dem Satz von Bayes.

P(A|B)= P(B|A)*P(A) / P(B)

Hierbei ist P(A|B) die (bedingte) Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass B eingetreten ist, P(B∣A) die (bedingte) Wahrscheinlichkeit des Ereignisses B unter der Bedingung, dass A eingetreten ist, P(A) die A-priori-Wahrscheinlichkeit des Ereignisses A und P(B) die A-priori-Wahrscheinlichkeit des Ereignisses B.

Wahrscheinlichkeitsrechnung mit dem Satz von Bayes

Der Satz von Bayes erlaubt in gewissem Sinn das Umkehren von Schlussfolgerungen. Man geht von einem bekannten Wert P(B∣A) aus, ist aber eigentlich an dem Wert P(A∣B) interessiert. Beispielsweise ist es von Interesse, wie groß die Wahrscheinlichkeit ist, dass jemand eine bestimmte Krankheit hat, wenn ein dafür entwickelter Schnelltest ein positives Ergebnis zeigt. Aus empirischen Studien kennt man in der Regel die Wahrscheinlichkeit dafür, mit der der Test bei einer von dieser Krankheit befallenen Person zu einem positiven Ergebnis führt.

Die gewünschte Umrechnung ist nur dann möglich, wenn man die Prävalenz der Krankheit kennt, das heißt die (absolute) Wahrscheinlichkeit, mit der die betreffende Krankheit in der Gesamtpopulation auftritt.

Für das Verständnis kann ein Entscheidungsbaum oder eine Vierfeldertafel helfen. Das Verfahren ist auch als Rückwärtsinduktion bekannt.

Mitunter begegnet man dem Fehlschluss, direkt von P(B∣A) auf P(A∣B) schließen zu wollen, ohne die A-priori-Wahrscheinlichkeit P(A) zu berücksichtigen. Beispielsweise indem angenommen wird, die beiden bedingten Wahrscheinlichkeiten müssten ungefähr gleich groß sein. Wie der Satz von Bayes zeigt, ist das aber nur dann der Fall, wenn auch P(A) und P(B) ungefähr gleich groß sind.

Ebenso ist zu beachten, dass bedingte Wahrscheinlichkeiten für sich allein nicht dazu geeignet sind, eine bestimmte Kausalbeziehung nachzuweisen.

Wie berechne ich den Wendepunkt?

In der Mathematik ist ein Wendepunkt ein Punkt auf einem Funktionsgraphen, an dem der Graph sein Krümmungsverhalten ändert. Der Graph wechselt hier entweder von einer Rechts- in eine Linkskurve oder umgekehrt. Dieser Wechsel wird auch Bogenwechsel genannt. Die Ermittlung von Wendepunkten ist Bestandteil einer Kurvendiskussion.

Ein Wendepunkt W an der Wendestelle xW liegt vor, wenn die Krümmung des Funktionsgraphen an der Stelle xW ihr Vorzeichen wechselt. Daraus lassen sich verschiedene hinreichende Kriterien zur Bestimmung von Wendepunkten ableiten. Ein Kriterium fordert, dass die zweite Ableitung der differenzierbaren Funktion f an der Stelle xW ihr Vorzeichen wechselt. 

Andere Kriterien fordern nur, dass die zweite Ableitung der Funktion Null ist und dass bestimmte höhere Ableitungen ungleich Null sind.

Betrachtet man die zweite Ableitung einer →Funktion f als „Steigung ihrer Steigung“, lassen sich ihre Wendestellen auch als [lokale] Extremstellen, das heißt [lokale] Maxima oder Minima, ihrer Steigung interpretieren.

Tangenten durch einen Wendepunkt heißen Wendetangenten. Wendepunkte, in denen diese Wendetangenten horizontal verlaufen, werden Sattel-, Terrassen- oder Horizontalwendepunkte genannt.

Notwendiges Kriterium für einen Wendepunkt

Sei f eine zweimal stetig differenzierbare Funktion, dann beschreibt, wie in der Definition schon angemerkt, die zweite Ableitung die Krümmung des →Funktionsgraphen. Da ein Wendepunkt ein Punkt ist, an dem sich das Vorzeichen der Krümmung ändert, muss die zweite Ableitung der Funktion f an diesem Punkt Null sein. 

Ist xW eine Wendestelle, so ist f(xW) = 0

Als hinreichendes Kriterium ohne Verwendung der dritten Ableitung gilt folgendes.

Bei Kurvendiskussionen verwendest du in der Regel eine der beiden folgenden hinreichenden Bedingungen. In der ersten Bedingung kommt nur die zweite Ableitung vor; dafür muss das Vorzeichen von f″(xw) untersucht werden.

In der zweiten für einen Wendepunkt hinreichenden Bedingung wird auch die dritte Ableitung benötigt, allerdings nur an der Stelle xW selbst. Diese Bedingung wird vor allem dann verwendet, wenn die dritte Ableitung leicht zu ermitteln ist. Der Hauptnachteil gegenüber der schon erläuterten Bedingung liegt darin, dass du im Falle f‴(xw) = 0 keine Entscheidung treffen kannst.

→Funktionen 2. Ordnung, also quadratische Funktionen z.B. f(x)=x² können keine Wendepunkte haben, da sich die Krümmung des Graphen nicht ändert. Kubische Funktionen haben immer einen Wendepunkt.

In der Mathematik bezeichnet man als Sattelpunkt, Terrassenpunkt oder Horizontalwendepunkt einen kritischen Punkt einer Funktion, der kein Extrempunkt ist. Punkte dieser Art sind, wie die zuletzt genannte Bezeichnung es andeutet, Spezialfälle von Wendepunkten. 

 

Reguläre, Inverse und Orthogonale Matrix

Eine reguläre, invertierbare oder nichtsinguläre Matrix ist in der Mathematik eine quadratische Matrix, die eine Inverse besitzt. Reguläre Matrizen können auf mehrere äquivalente Weisen charakterisiert werden. Zum Beispiel zeichnen sich reguläre Matrizen dadurch aus, dass die durch sie beschriebene lineare Abbildung bijektiv ist. Daher ist ein lineares Gleichungssystem mit einer regulären Koeffizientenmatrix stets eindeutig lösbar. Die Menge der regulären Matrizen fester Größe mit Einträgen aus einem Ring oder Körper bildet mit der Matrizenmultiplikation als Verknüpfung die allgemeine lineare Gruppe.

Nicht zu allen quadratischen Matrizen existieren Inverse. Quadratische Matrizen, die keine Inverse besitzen, werd singulär genannt.

Eine quadratische Matrix ist singulär, wenn die ihr zugeordnete →Determinante den Wert Null hat. Lineare Gleichungssysteme mit singulärer Koeffizientenmatrix sind nicht oder nicht eindeutig lösbar. Der Aufwand für die Berechnung einer Determinante entspricht etwa dem Aufwand zur Lösung eines linearen Gleichungssystems.

Die →inverse Matrix, Kehrmatrix oder kurz Inverse einer quadratischen Matrix ist in der Mathematik eine quadratisch, die mit der Ausgangsmatrix multipliziert die Einheitsmatrix ergibt. Nicht jede quadratische  besitzt eine Inverse. Die invertierbaren Matrizen werden reguläre Matrizen genannt.

Jedoch existieren nicht für alle quadratische Matrizen Inverse. Eine Matrix A ist genau dann invertierbar, wenn gilt: det(A) ≠ 0 det ( A ) ≠ 0. Zu Matrizen, in denen Zeilen oder Spalten linear abhängig sind, deren Determinante also 0 beträgt, gibt es keine inversen Matrizen.

Was ist eine Orthogonale Matrix?

→Orthogonale Matrizen sind in der linearen Algebra quadratische, reelle Matrizen, deren Zeilen- und Spaltenvektoren orthonormal bezüglich des Standardskalarprodukts sind. Damit ist die Inverse einer orthogonalen Matrix gleichzeitig ihre →Transponierte.

Orthogonale Matrizen stellen Kongruenzabbildungen im euklidischen Raum, also Drehungen, Spiegelungen und Kombinationen daraus, dar. Jede orthogonale Abbildung zwischen zwei endlichdimensionalen Skalarprodukträumen kann nach Wahl je einer Orthonormalbasis durch eine orthogonale Matrix dargestellt werden. Die Menge der orthogonalen Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung die orthogonale Gruppe.Orthogonale Matrizen werden beispielsweise bei der numerischen Lösung linearer Gleichungssysteme oder Eigenwertprobleme eingesetzt.

Rechnerisch sind zwei Vektoren orthogonal, wenn ihr Skalarprodukt gleich Null ist. Bilden die Spalten quadratischer Matrizen ein System zueinander orthogonaler Einheitsvektoren, so heißen diese orthogonale Matrizen.

Inverse von orthogonalen Matrizen sind gleichzeitig ihre Transponierten. Das Produkt einer orthogonalen Matrix mit ihrer Transponierten ergibt die →Einheitsmatrix. Die Determinante von orthogonalen Matrizen nimmt entweder den Wert +1 oder -1 an.