Arithmetische Folge und geometrische Reihe

Eine arithmetische Folge (auch arithmetische Progression) ist eine regelmäßige mathematische Zahlenfolge mit der Eigenschaft, dass die Differenz zweier benachbarter Folgenglieder konstant ist. Eine einfache arithmetische Folge stellen die ungeraden natürlichen Zahlen dar: 1,3,5,7,9,…

Als Folge oder Sequenz wird in der Mathematik eine Auflistung (Familie) von endlich oder unendlich vielen fortlaufend nummerierten Objekten (beispielsweise Zahlen) bezeichnet. Dasselbe Objekt kann in einer Folge auch mehrfach auftreten.

Die zwei wichtigsten Folgen sind die arithmetische und die geometrische Folge. Sie treten in der Natur (radioaktiver Zerfall, bakterielles Wachstum), den Finanzwissenschaften (Zinsen und Zinseszinsen) und vielen weiteren Bereichen auf. Man sieht zudem, dass ein Wechsel zwischen expliziter und rekursiver Darstellung sehr einfach ist.

Was ist eine arithmetische Folge und eine geometrische Folge?

Du kannst erkennen, dass die Ähnlichkeit der zwei Definitionen nicht zufällig ist, die arithmetische Folge wächst additiv, die geometrische multiplikativ. Die geometrische Folge tritt in vielen Wachstums- und Zerfallsprozessen in der Natur auf, in der Zinsrechnung haben sowohl arithmetische als auch geometrische Folge ihren Platz.

Eine geometrische Folge ist eine regelmäßige mathematische Zahlenfolge mit der Eigenschaft, dass der Quotient zweier benachbarter Folgenglieder konstant ist.

Die Bezeichnung „geometrische Folge“ leitet sich aus dem geometrischen Mittel ab. Jedes Glied einer geometrischen Folge ist nämlich das geometrische Mittel seiner Nachbarglieder. Die Summierung der Folgenglieder ergibt die geometrische Reihe.

Eine geometrische Reihe ist die Reihe einer geometrischen Folge, deren n-tes Glied die Summe der ersten n Glieder der zugehörigen geometrischen Folge ist. 

Wir unterscheiden zwischen endlichen und unendlichen Reihen, je nachdem, ob n endlich ist oder nicht. Eine unendliche geometrische Reihe entsteht, wenn bei der geometrischen Reihe n gegen unendlich geht. 

Arithmetische Reihen sind spezielle mathematische Reihen. Eine arithmetische Reihe ist die Folge, deren Glieder die Summe der ersten n Glieder (den Partialsummen) einer arithmetischen Folge sind. Arithmetische Reihen sind im Allgemeinen divergent. Es interessieren deshalb vor allem die Partialsummen, die auch als endliche arithmetische Reihen bezeichnet werden.

Es gibt eine einfache Formel zur Berechnung der Partialsummen beziehungsweise der endlichen arithmetischen Reihe. Die Summe einer endlichen arithmetischen Folge ist die Anzahl der Glieder multipliziert mit dem arithmetischen Mittel des ersten und des letzten Gliedes.

Standsicherheit und Gleichgewichtslagen

Die Standsicherheit oder Kippsicherheit eines aufrecht stehenden Körpers ist umso besser, je größer der Abstand des Lotpunktes des Körper-Schwerpunkts in der Aufstandsfläche von den Rändern (Kippachsen oder Kippkanten) dieser Fläche ist. Der Abstand ist optimal, wenn er von allen Kippkanten gleich groß ist.

Die Standsicherheit baulicher Anlagen betrifft die Einsturz-Gefahr. Im Rahmen des rechnerischen Standsicherheitsnachweises wird sie als Quotient zwischen den aufnehmbaren und den vorhandenen Beanspruchungen eines Tragwerks berechnet.

Man entwickelte verschiedene Normen, die für bestimmte Standsicherheitsnachweise eine erforderliche Standsicherheit definieren. Sie können in Systemversagen und örtliches Versagen untergliedert werden. Bei einem Systemversagen wird das Gesamtsystem instabil. Ein Beispiel dafür wäre das Kippen einer Wand. 

Gleichgewichtslagen 

Die Lage des →Schwerpunkts eines Körpers bezogen auf seine Standfläche bestimmt seine Standsicherheit. Man unterscheidet folgende Gleichgewichtslagen.

  • Stabiles Gleichgewicht: Der Schwerpunkt S wird bei einer Lageänderung gehoben. Hierbei entsteht immer ein rückstellendes Kraftmoment, das den Körper wieder in die Ausgangslage zurückführt.
  • Labiles Gleichgewicht: Der Schwerpunkt S wird bei schon kleiner Lageänderung gesenkt. Hierbei entsteht immer ein ablenkendes Kraftmoment, das den Körper immer weiter aus der Ausgangslage herausführt.
  • Indifferentes Gleichgewicht: Der Schwerpunkt S wird bei kleinster Lageänderung weder gehoben noch gesenkt. Hierbei entstehen weder rückstellende noch ablenkende Kraftmomente.

Kippmoment, Standmoment, Standsicherheit 

Das Kippen eines Körpers soll untersucht werden: Der skizzierte Körper steht frei beweglich auf einer rauen horizontalen Standfläche. Die waagerecht wirkende →Kraft F greift im Abstand a so hoch über der Standfläche an, dass der Körper nicht nach rechts wegrutscht. Bei genügend großer Kraft F wird der Körper eine Drehbewegung um die Körperkante K (Kippkante) ausführen. Der Körper kippt. 

Im Augenblick des Ankippens wirkt das (rechtsdrehende) Kippmoment Mk = F ⋅ a um die Kippkante K. Zugleich wirkt dem Kippmoment Mk entgegengerichtet (linksdrehend) das Standmoment Ms = FG ⋅ b, das den Körper in der Ruhelage zu halten sucht. 

Der Körper wird nicht kippen, solange das Standmoment Ms größer ist als das Kippmoment Mk. Der Sicherheitsgrad gegen das Kippen wird durch das Verhältnis beider Momente ausgedrückt. Dieses Momentenverhältnis nennt man die Standsicherheit S. 

Ist S = 1, also FG ⋅ b = F ⋅ a, so befindet sich der Körper gerade noch im Gleichgewicht. Bei S < 1 kippt der Körper. Es kann notwendig sein, die Untersuchung zur Standsicherheit für mehrere Kippkanten durchzuführen, zum Beispiel bei beladenen Fahrzeugen und Kränen. 

Beim Berechnen von Ms und Mk addiert man die Kraftmomente jeweils mit positivem Vorzeichen, im Gegensatz zur sonst üblichen Vorzeichenregel. 

Eigenvektor und Eigenwert einer Matrix

Für quadratische Matrizen gibt es bestimmte Vektoren, die man an die Matrix multiplizieren kann. Sodass man den selben Vektor als Ergebnis erhält, nur mit einem Vorfaktor multipliziert. Solch einen Vektor nennt man Eigenvektor und der Vorfaktor heißt →Eigenwert einer Matrix.

Anhand der Eigenwerte kann man die Definitheit einer Matrix bestimmen. So sind die Eigenwerte von reellen symmetrischen Matrizen reell. Ist die Matrix echt positiv definit so sind die Eigenwerte reell und echt größer Null.

Eigenvektoren einer Abbildung sind in der linearen Algebra vom Nullvektor verschiedene Vektoren, dessen Richtung durch die Abbildung nicht verändert wird. Eigenvektoren skaliert man und bezeichnet den Skalierungsfaktor als →Eigenwert der Abbildung.

Eigenwerte charakterisieren wesentliche Eigenschaften linearer Abbildungen, etwa ob ein entsprechendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. 

In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften eines mathematischen Modells. Die Verwendung der Vorsilbe „Eigen-“ für charakteristische Größen in diesem Sinne lässt sich auf eine Veröffentlichung von David Hilbert aus dem Jahre 1904 zurückführen.

Eigenvektor und Eigenwerte haben folgende Eigenschaften

Die Eigenvektoren sind nur bis auf einen Faktor bestimmt. Wenn x ein Eigenvektor ist, dann gilt das auch für q⋅x  mit beliebigem q.

Ist λ ein Eigenwert der →invertierbaren Matrix A zum Eigenvektor x, so ist 1/λ Eigenwert der inversen Matrix von A zum Eigenvektor x.

Alle Eigenwerte sind stets reell. Im Rahmen der Hauptachsentransformation nennt man die Eigenwerte auch Hauptwerte. Ist die Matrix zudem positiv definit, so sind auch ihre Eigenwerte echt positiv.

Es lässt sich immer eine Orthonormalbasis aus Eigenvektoren angeben.Dies ist eine direkte Folgerung aus dem Spektralsatz. Insbesondere sind Eigenvektoren zu verschiedenen Eigenwerten zueinander orthogonal.

Ein Eigenwert hat unendlich viele zugehörige Eigenvektoren, während ein Eigenvektor immer nur zu einem Eigenwert gehören kann. Multipliziert man die Matrix A mit dem k -fachen Eigenvektor, bleibt der dazu gehörende Eigenwert λ unverändert.

Eigenvektoren sind eindeutig bestimmt, bis auf die Multiplikation mit einem Skalar. Das heißt: Wenn x ein Eigenvektor und a ein Skalar ist, dann ist auch a * x ein Eigenvektor

Reguläre, Inverse und Orthogonale Matrix

Eine reguläre, invertierbare oder nichtsinguläre Matrix ist in der Mathematik eine quadratische Matrix, die eine Inverse besitzt. Reguläre Matrizen können auf mehrere äquivalente Weisen charakterisiert werden. Zum Beispiel zeichnen sich reguläre Matrizen dadurch aus, dass die durch sie beschriebene lineare Abbildung bijektiv ist. Daher ist ein lineares Gleichungssystem mit einer regulären Koeffizientenmatrix stets eindeutig lösbar. Die Menge der regulären Matrizen fester Größe mit Einträgen aus einem Ring oder Körper bildet mit der Matrizenmultiplikation als Verknüpfung die allgemeine lineare Gruppe.

Nicht zu allen quadratischen Matrizen existieren Inverse. Quadratische Matrizen, die keine Inverse besitzen, werd singulär genannt.

Eine quadratische Matrix ist singulär, wenn die ihr zugeordnete →Determinante den Wert Null hat. Lineare Gleichungssysteme mit singulärer Koeffizientenmatrix sind nicht oder nicht eindeutig lösbar. Der Aufwand für die Berechnung einer Determinante entspricht etwa dem Aufwand zur Lösung eines linearen Gleichungssystems.

Die →inverse Matrix, Kehrmatrix oder kurz Inverse einer quadratischen Matrix ist in der Mathematik eine quadratisch, die mit der Ausgangsmatrix multipliziert die Einheitsmatrix ergibt. Nicht jede quadratische  besitzt eine Inverse. Die invertierbaren Matrizen werden reguläre Matrizen genannt.

Jedoch existieren nicht für alle quadratische Matrizen Inverse. Eine Matrix A ist genau dann invertierbar, wenn gilt: det(A) ≠ 0 det ( A ) ≠ 0. Zu Matrizen, in denen Zeilen oder Spalten linear abhängig sind, deren Determinante also 0 beträgt, gibt es keine inversen Matrizen.

Was ist eine Orthogonale Matrix?

→Orthogonale Matrizen sind in der linearen Algebra quadratische, reelle Matrizen, deren Zeilen- und Spaltenvektoren orthonormal bezüglich des Standardskalarprodukts sind. Damit ist die Inverse einer orthogonalen Matrix gleichzeitig ihre →Transponierte.

Orthogonale Matrizen stellen Kongruenzabbildungen im euklidischen Raum, also Drehungen, Spiegelungen und Kombinationen daraus, dar. Jede orthogonale Abbildung zwischen zwei endlichdimensionalen Skalarprodukträumen kann nach Wahl je einer Orthonormalbasis durch eine orthogonale Matrix dargestellt werden. Die Menge der orthogonalen Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung die orthogonale Gruppe.Orthogonale Matrizen werden beispielsweise bei der numerischen Lösung linearer Gleichungssysteme oder Eigenwertprobleme eingesetzt.

Rechnerisch sind zwei Vektoren orthogonal, wenn ihr Skalarprodukt gleich Null ist. Bilden die Spalten quadratischer Matrizen ein System zueinander orthogonaler Einheitsvektoren, so heißen diese orthogonale Matrizen.

Inverse von orthogonalen Matrizen sind gleichzeitig ihre Transponierten. Das Produkt einer orthogonalen Matrix mit ihrer Transponierten ergibt die →Einheitsmatrix. Die Determinante von orthogonalen Matrizen nimmt entweder den Wert +1 oder -1 an.

Was sind Matrizen?

Matrizen sind ein Schlüsselkonzept der linearen Algebra und tauchen in fast allen Gebieten der Mathematik auf. Hier versteht man unter einer Matrix eine rechteckige Anordnung von Elementen. Mit diesen Objekten lässt sich dann in bestimmter Weise rechnen, indem man Matrizen addiert oder miteinander multipliziert.  Sie stellen Zusammenhänge, in denen Linearkombinationen eine Rolle spielen, übersichtlich dar und erleichtern damit Rechen- und Gedankenvorgänge. Du kannst sie insbesondere dazu nutzen, um lineare Abbildungen darzustellen und lineare Gleichungssysteme zu beschreiben und zu lösen. 

Eine Anordnung von m⋅n Elementen aij erfolgt in m Zeilen und n Spalten. Die Verallgemeinerung auf mehr als zwei Indizes wird auch Hypermatrix genannt.

Die →Determinante einer Matrix gibt an, wie sich das Volumen einer aus Eckpunkten zusammengesetzten Geometrie skaliert, wenn diese durch die Matrix abgebildet wird.

Als Notation hat sich die Anordnung der Elemente in Zeilen und Spalten zwischen zwei großen öffnenden und schließenden Klammern durchgesetzt. In der Regel verwendet man runde Klammern, du kannst aber auch eckige verwenden.

Die Lineare Algebra (→Vektoralgebra) beschäftigt sich mit Vektorräumen und linearen Abbildungen zwischen diesen. Vektorräume und deren lineare Abbildungen sind ein wichtiges Hilfsmittel in vielen Bereichen der Mathematik. Anwendungen in Naturwissenschaften, Informatik und Wirtschaftswissenschaft.

Betrachtung und Bedeutung von Matrizen?

  • Die lineare Algebra entstand aus zwei konkreten Anforderungen heraus: 
  • Lösen von →linearen Gleichungssystemen.
  • Rechnerische Beschreibung geometrischer Objekte, der sogenannten analytischen Geometrie

In Verallgemeinerung der Koordinatendarstellung von geometrischen Vektoren werden Elemente des Rn, also n-Tupel reeller Zahlen, als Vektoren bezeichnet, wenn mit ihnen die für Vektoren typischen Rechenoperationen Addition und →skalare Multiplikation ausgeführt werden. 

In der Regel werden die n-Tupel als sogenannte Spaltenvektoren geschrieben, das heißt, ihre Einträge stehen untereinander. 

Die Elemente der Matrix nennt man auch Einträge oder Komponenten der Matrix. Sie entstammen einer Menge K, in der Regel einem Körper oder einem Ring. Man spricht von einer Matrix über K. Wählt man für K die Menge der reellen Zahlen, so spricht man von einer reellen Matrix, bei →komplexen Zahlen von einer komplexen Matrix.

Ein bestimmtes Element beschreibt man durch zwei Indizes, meist ist das Element in der ersten Zeile und der ersten Spalte durch a11 beschrieben. Allgemein bezeichnet aij das Element in der i-ten Zeile und der j-ten Spalte. Bei der Indizierung wird dabei stets als erstes der Zeilenindex und als zweites der Spaltenindex des Elements genannt. Merkregel: Zeile zuerst, Spalte später. Wenn Verwechslungsgefahr besteht, trenne die beiden Indizes mit einem Komma. 

So wird zum Beispiel das Matrixelement in der ersten Zeile und der elften Spalte mit a1,11 bezeichnet.

Was ist eine Differentialgleichung?

Eine Differentialgleichung (abgekürzt auch DGL, DG, DGl. oder Dgl.) ist eine mathematische Gleichung für eine gesuchte Funktion von einer oder mehreren Variablen, in der auch Ableitungen dieser Funktion vorkommen. Viele Naturgesetze können mittels Differentialgleichungen formuliert werden. Differentialgleichungen sind daher ein wesentliches Werkzeug der mathematischen Modellierung. 

Dabei beschreibt eine →Differentialgleichung das Änderungsverhalten dieser Größen zueinander. Differentialgleichungen sind ein wichtiger Untersuchungsgegenstand der Analysis, die deren Lösungstheorie untersucht. Nicht nur weil für viele Differentialgleichungen keine explizite Lösungsdarstellung möglich ist, spielt die näherungsweise Lösung mittels numerischer Verfahren eine wesentliche Rolle. Eine Differentialgleichung kann durch ein Richtungsfeld veranschaulicht werden.

Hängt die gesuchte Funktion lediglich von einer Variablen ab, so spricht man von einer gewöhnlichen Differentialgleichung. Es kommen lediglich gewöhnliche Ableitungen nach der einen Veränderlichen vor.

Hängt die gesuchte Funktion von mehreren Variablen ab und treten in der Gleichung partielle Ableitungen nach mehr als einer Variable auf, so spricht man von einer →partiellen Differentialgleichung. Partielle Differentialgleichungen sind ein großes Feld und die Theorie ist mathematisch nicht abgeschlossen, sondern Gegenstand der aktuellen Forschung in mehreren Gebieten.

Die Lösungsmenge einer Differentialgleichung ist im Allgemeinen nicht durch die Gleichung selbst eindeutig bestimmt, sondern benötigt zusätzlich noch weitere Anfangs- oder Randwerte. Im Bereich der partiellen Differentialgleichungen können auch sogenannte Anfangsrandwertprobleme auftreten.

Wie löse ich eine Differentialgleichung?

Grundsätzlich wird bei →Anfangs- oder Anfangsrandwertproblemen eine der Veränderlichen als Zeit interpretiert. Bei diesen Problemen werden gewisse Daten zu einem gewissen Zeitpunkt, nämlich dem Anfangszeitpunkt, vorgeschrieben. Bei den Randwert- oder Anfangsrandwertproblemen wird eine Lösung der Differentialgleichung in einem beschränkten oder unbeschränkten Gebiet gesucht und wir stellen als Daten sogenannte Randwerte, welche eben auf dem Rand des Gebietes gegeben sind.

Die Differentialgleichung ist eine Gleichung, in der eine Funktion und auch Ableitungen von dieser Funktion auftauchen können. Die Lösung dieser Art von Gleichung ist eine Funktion – keine Zahl!

Die Variation der Konstanten ist eine Methode, die beim Lösen von linearen Differentialgleichungen 1. Ordnung benutzt wird. mit c ∈ R und A(x) = ∫a(x) dx bekannt. Dann liefert die →Variation der Konstanten die allgemeine Lösung der DGL.

Das Verfahren „Trennung der Variablen“ liefert im Allgemeinen keine explizite Lösung der Form y= f(x). Sondern allgemeinere funktionale Zusammenhänge (mitunter die Umkehrfunktion x(y)). Das folgende Beispiel zeigt, dass es nicht immer einfach ist. Erst nach einer Substitution gelingt es, die Variablen zu trennen.

Cookie Consent mit Real Cookie Banner