P.1.4. Satz über die lineare Unabhängigkeit von Vektoren. Satz. Jeder Vektor X kann auf einzigartige Weise als Linie dargestellt werden. Kombinationen von Basisvektoren

Def. Die Menge w heißt linearer Raum und sein Element. -Vektoren, wenn:

*Gesetz wird gemäß Kat. angegeben (+). Zwei beliebige Elemente x, y aus w sind einem Element namens zugeordnet. ihre Summe [x + y]

*Es ist ein Gesetz gegeben (* für die Zahl a), entsprechend dem Katzenelement x aus w und a wird ein Element aus w verglichen, das als Produkt von x und a [ax] bezeichnet wird;

* vollendet

die folgenden Anforderungen (oder Axiome):

Spur c1. Nullvektor (ctv 0 1 und 0 2. durch a3: 0 2 + 0 1 = 0 2 und 0 1 + 0 2 = 0 1. durch a1 0 1 + 0 2 = 0 2 + 0 1 => 0 1 = 0 2.)

c2. .(ctv, a4)

c3. 0 Vektor.(a7)

c4. a(Zahl)*0=0.(a6,c3)

c5. x (*) -1 =0 Vektor, entgegengesetzt zu x, d.h. (-1)x = -x. (a5,a6)

c6. In w ist die Subtraktionswirkung definiert: Der Vektor x heißt Differenz der Vektoren b und a, wenn x + a = b, und wird mit x = b – a bezeichnet.

Nummer N angerufen Abmessungen lin. pr-a L , wenn in L Es gibt ein System von N lin. nezav. Vektoren und jedes System von N+1 Vektor - lin. abhängig schwach L= N. Raum L heißt n-dimensional.

Eine geordnete Sammlung von n Zeilen. nezav. Vektoren n-dimensional unabhängig. Raum - Basis

Satz. Jeder Vektor X kann auf einzigartige Weise als Linie dargestellt werden. Kombinationen von Basisvektoren

Sei (1) die Basis einer n-dimensionalen Linearität. pr-va V, d.h. eine Sammlung linear unabhängiger Vektoren. Die Menge der Vektoren ist linear. abhängig, weil ihre n+ 1.

Diese. Es gibt Zahlen, die nicht alle gleichzeitig gleich Null sind, was hat das damit zu tun (ansonsten sind (1) linear abhängig).

Dann Wo ist die Vektorzerlegung? X durch basis(1) .

Dieser Ausdruck ist einzigartig, weil wenn ein anderer Ausdruck existiert (**)

Subtrahieren der Gleichheit (**) von (*),

wir bekommen

Weil sind dann linear unabhängig. Chtd

Satz. Wenn - lin. Unabhängige Vektoren des Raums V und jeder Vektor x von V können durch dargestellt werden, dann bilden diese Vektoren eine Basis von V

Doc: (1)-lin.independent =>das Dokument bleibt linear-unabhängig. Gemäß der Konvention Jeder Vektor a wird durch (1) ausgedrückt: , berücksichtigen, rang≤n => unter den Spalten sind nicht mehr als n linear unabhängig, aber m > n=> m Spalten sind linear abhängig => s=1, n

Das heißt, die Vektoren sind linear abhängig

Somit ist der Raum V n-dimensional und (1) seine Basis

№4Def. Teilmenge L lin. Produktion V heißt lin. Kond. dieses Raumes, wenn der Unterraum L bezüglich der in V angegebenen Operationen (+) und (*a) ein linearer Raum ist

Satz Die Menge l der Vektoren des Raums V ist linear. Ein Unterraum dieses Raumes führt aus

(Vorab) Es seien (1) und (2) erfüllt, damit L ein Subsimple.V ist. Es bleibt zu beweisen, dass alle Axiome von lin erfüllt sind. pr-va.

(-x): -x+x=0 D. a(x + y) = ax + ay;

(a-b) und (e-h) folgt aus der Gültigkeit von V; beweisen wir (c)

(Notwendigkeit) Sei L lin. Unterraum dieses Raumes, dann sind (1) und (2) aufgrund der Definition von Linien erfüllt. pr-va

Def. Eine Sammlung aller Arten von Linien. Kombinationen einiger Elemente (x j) lin. Das Produkt wird als lineare Schale bezeichnet

Satz eine beliebige Menge aller Linien. Kombinationen von Vektoren V mit real. Koeffizient ist lin. subpr V (lineare Schale gegebenes Vektorsystem lin. pr. ist der lineare Unterpr dieses Pr. )

ODA.Nicht leere Teilmenge von L Linienvektoren. Produktion V heißt lin. Unterraum, wenn:

a) Die Summe aller Vektoren aus L gehört zu L

b) das Produkt jedes Vektors aus L mit einer beliebigen Zahl gehört zu L

Summe zweier UnterräumeList wieder ein UnterraumL

1) Sei y 1 +y 2 (L 1 +L 2)<=>y 1 =x 1 +x 2, y 2 =x’ 1 +x’ 2, wobei (x 1,x’ 1) L 1, (x 2,x’ 2) L 2. y 1 +y 2 =(x 1 +x 2)+(x' 1 +x' 2)=(x 1 +x' 1)+(x 2 +x' 2), wobei (x 1 +x' 1 ) L 1 , (x 2 +x' 2) L 2 => die erste Bedingung eines linearen Unterraums ist erfüllt.

ay 1 =ax 1 +ax 2, wobei (ax 1) L 1, (ax 2) L 2 => weil (y 1 +y 2) (L 1 +L 2) , (ly 1) (L 1 +L 2) => Bedingungen sind erfüllt => L 1 +L 2 ist ein linearer Unterraum.

Der Schnittpunkt zweier UnterteilungenL 1 UndL 2 lin. pr-vaL ist auch eine Unterart. diesen Raum.

Betrachten Sie zwei beliebige Vektoren X,j, zum Schnittpunkt von Unterräumen gehörend, und zwei beliebige Zahlen A,B:.

Laut def. Schnittmengen von Mengen:

=> per Definition eines Unterraums eines linearen Raums:,.

T.K.-Vektor Axt + von gehört vielen L 1 und viele L 2, dann gehört sie per Definition zum Durchschnitt dieser Mengen. Auf diese Weise:

ODA.Sie sagen, dass V die direkte Summe seiner Unterteilungen ist. wenn und b) diese Zerlegung eindeutig ist

B") Zeigen wir, dass b) äquivalent zu b’) ist

Wenn b) wahr ist, b’)

Alle Arten von (M, N) aus schneiden sich nur entlang des Nullvektors

Sei ∃ z ∈

Gerecht zurückkehrenL=

Widerspruch

Satz zu (*) ist notwendig und ausreichend für die Vereinigung von Basen ( bildete die Grundlage des Raumes

(Erforderlich) Seien (*) und Vektoren Basen von Teilmengen. und es gibt eine Erweiterung in ; x wird über die Basis L entwickelt. Um anzugeben, dass ( eine Basis darstellen, ist es notwendig, ihre lineare Unabhängigkeit zu beweisen; sie enthalten alle 0 0=0+...+0. Aufgrund der Eindeutigkeit der Entwicklung von 0 über : => aufgrund der linearen Unabhängigkeit der Basis => ( – Basis

(Ext.) Sei ( die Basis von L eine eindeutige Zerlegung (**) bilden, existiert mindestens eine Zerlegung. Durch Eindeutigkeit (*) => Eindeutigkeit (**)

Kommentar. Die Dimension der direkten Summe ist gleich der Summe der Dimensionen des Unterraums

Jede nicht singuläre quadratische Matrix kann als Übergangsmatrix von einer Basis zur anderen dienen

Sei n-dimensional linearer Raum V es gibt zwei Basen und

(1) =A, wobei die Elemente * und ** keine Zahlen sind, aber wir werden bestimmte Operationen an einer numerischen Matrix auf solche Zeilen erweitern.

Weil andernfalls wären die Vektoren ** linear abhängig

Zurück. Wenn dann die Spalten von A linear unabhängig sind =>bilden Sie eine Basis

Koordinaten Und durch die Relation verbunden , Wo Übergangsmatrixelemente

Die Zerlegung der Elemente der „neuen“ Basis in die „alte“ sei bekannt

Dann sind die Gleichheiten wahr

Aber wenn eine Linearkombination linear unabhängiger Elemente 0 ist, dann =>

Grundlegender linearer Abhängigkeitssatz

Wenn (*) wird linear ausgedrückt durch (**) DasN<= M

Beweisen wir durch Induktion nach m

m=1: System (*) enthält 0 und lin. Manager - unmöglich

es sei wahr für m=k-1

Beweisen wir für m=k

Es kann sich herausstellen, dass 1), d.h. v-ry (1) sind lin.comb. lin. im Graben (2)System (1) linear unzuverlässig, weil ist Teil von lin.nezav. Systeme (*). Weil in System (2) gibt es nur k-1 Vektoren, dann erhalten wir durch die Induktionshypothese k+1

Lemma 1 : Wenn in einer Matrix der Größe n n mindestens eine Zeile (Spalte) Null ist, dann sind die Zeilen (Spalten) der Matrix linear abhängig.

Nachweisen: Dann sei die erste Zeile Null

Wo ein 1 0. Das war erforderlich.

Definition: Eine Matrix, deren Elemente unterhalb der Hauptdiagonale gleich Null sind, heißt dreieckig:

und ij = 0, i>j.

Lemma 2: Die Determinante einer Dreiecksmatrix ist gleich dem Produkt der Elemente der Hauptdiagonale.

Der Beweis lässt sich leicht durch Induktion über die Dimension der Matrix führen.

Satz Ö lineare Unabhängigkeit Vektoren.

A)Notwendigkeit: linear abhängig D=0 .

Nachweisen: Lassen Sie sie linear abhängig sein, j=,

das heißt, es gibt ein j, nicht alle gleich Null, j= , Was a 1 A 1 + a 2 A 2 + ... a n A n = , A j – Matrixspalten A. Lassen Sie zum Beispiel a n¹0.

Wir haben a j * = a j / a n , j£ n-1a 1 * A 1 + a 2 * A 2 + ... a n -1 * A n -1 + A n = .

Ersetzen wir die letzte Spalte der Matrix A An

A n * = a 1 * A 1 + a 2 * A 2 + ... a n -1 A n -1 + A n = .

Gemäß der oben nachgewiesenen Eigenschaft der Determinante (sie ändert sich nicht, wenn einer beliebigen Spalte in der Matrix eine weitere Spalte multipliziert mit einer Zahl hinzugefügt wird) ist die Determinante der neuen Matrix gleich der Determinante der ursprünglichen Matrix. Aber in der neuen Matrix ist eine Spalte Null, was bedeutet, dass wir, wenn wir die Determinante über diese Spalte erweitern, erhalten D=0, Q.E.D.

B)Angemessenheit: Größenmatrix nnmit linear unabhängigen Reihen Es kann jederzeit durch Transformationen, die den Absolutwert der Determinante nicht verändern, auf eine Dreiecksform reduziert werden. Darüber hinaus folgt aus der Unabhängigkeit der Zeilen der ursprünglichen Matrix, dass ihre Determinante gleich Null ist.

1. Wenn in der Größenmatrix nn mit linear unabhängigem Zeilenelement eine 11 gleich Null ist, dann die Spalte, deren Element a 1 j ¹ 0. Nach Lemma 1 existiert ein solches Element. Die Determinante der transformierten Matrix darf sich von der Determinante der Originalmatrix nur im Vorzeichen unterscheiden.

2. Aus Zeilen mit Zahlen i>1 Subtrahieren Sie die erste Zeile multipliziert mit dem Bruch a i 1 /a 11. Darüber hinaus gibt es in der ersten Spalte Zeilen mit Zahlen i>1 führt zu null Elementen.

3. Beginnen wir mit der Berechnung der Determinante der resultierenden Matrix, indem wir sie über die erste Spalte zerlegen. Da alle darin enthaltenen Elemente außer dem ersten gleich Null sind,

D neu = a 11 neu (-1) 1+1 D 11 neu,

Wo d 11 neu ist die Determinante einer Matrix kleinerer Größe.

Als nächstes berechnen wir die Determinante D 11 Wiederholen Sie die Schritte 1, 2, 3, bis sich herausstellt, dass die letzte Determinante die Determinante der Größenmatrix ist 1 1. Da Schritt 1 nur das Vorzeichen der Determinante der transformierten Matrix ändert und Schritt 2 den Wert der Determinante überhaupt nicht ändert, erhalten wir bis auf das Vorzeichen letztendlich die Determinante der ursprünglichen Matrix. Da in diesem Fall aufgrund der linearen Unabhängigkeit der Zeilen der Originalmatrix Schritt 1 immer erfüllt ist, erweisen sich alle Elemente der Hauptdiagonale als ungleich Null. Somit ist die endgültige Determinante gemäß dem beschriebenen Algorithmus gleich dem Produkt von Nicht-Null-Elementen auf der Hauptdiagonale. Daher ist die Determinante der ursprünglichen Matrix ungleich Null. Q.E.D.


Anlage 2

Die Funktionen werden aufgerufen linear unabhängig, Wenn

(Zulässig ist nur eine triviale Linearkombination von Funktionen, die identisch gleich Null ist). Im Gegensatz zur linearen Unabhängigkeit von Vektoren ist hier die Linearkombination identisch mit Null und nicht gleich. Dies ist verständlich, da für jeden Wert des Arguments die Gleichheit einer Linearkombination mit Null erfüllt sein muss.

Die Funktionen werden aufgerufen linear abhängig, wenn es eine Menge von Konstanten ungleich Null gibt (nicht alle Konstanten sind gleich Null), so dass (es eine nicht triviale lineare Kombination von Funktionen gibt, die identisch gleich Null sind).

Satz.Damit Funktionen linear abhängig sind, ist es notwendig und ausreichend, dass eine von ihnen durch die anderen linear ausgedrückt wird (dargestellt als ihre Linearkombination).

Beweisen Sie diesen Satz selbst; er wird auf die gleiche Weise bewiesen wie ein ähnlicher Satz über die lineare Abhängigkeit von Vektoren.

Wronskis Determinante.

Die Wronski-Determinante für Funktionen wird als eine Determinante eingeführt, deren Spalten die Ableitungen dieser Funktionen von Null (den Funktionen selbst) bis zur n-1. Ordnung sind.

.

Satz. Wenn das funktioniert sind dann linear abhängig

Nachweisen. Da die Funktionen linear abhängig sind, dann wird jedes von ihnen linear durch die anderen ausgedrückt, zum Beispiel:

Die Identität kann also differenziert werden

Dann wird die erste Spalte der Wronski-Determinante linear durch die übrigen Spalten ausgedrückt, sodass die Wronski-Determinante identisch gleich Null ist.

Satz.Damit ergeben sich Lösungen zu einer linearen Homogenität Differentialgleichung n-ter Ordnung linear abhängig sind, ist das notwendig und ausreichend.

Nachweisen. Die Notwendigkeit folgt aus dem vorherigen Satz.

Angemessenheit. Lassen Sie uns einen Punkt klären. Da die Spalten der an dieser Stelle berechneten Determinante linear abhängige Vektoren sind.

, dass die Beziehungen erfüllt sind

Da eine lineare Kombination von Lösungen einer linearen homogenen Gleichung deren Lösung ist, können wir eine Lösung der Form einführen

Eine lineare Kombination von Lösungen mit denselben Koeffizienten.

Beachten Sie, dass diese Lösung die Anfangsbedingungen Null erfüllt; dies ergibt sich aus dem oben beschriebenen Gleichungssystem. Aber auch die triviale Lösung einer linearen homogenen Gleichung erfüllt die gleichen Null-Anfangsbedingungen. Daher folgt aus dem Satz von Cauchy, dass die eingeführte Lösung identisch mit der trivialen Lösung ist, also

daher sind die Lösungen linear abhängig.

Folge.Wenn die Wronski-Determinante, die auf Lösungen einer linearen homogenen Gleichung basiert, an mindestens einem Punkt verschwindet, ist sie identisch gleich Null.

Nachweisen. Wenn , dann sind die Lösungen linear abhängig, also .

Satz.1. Für die lineare Abhängigkeit von Lösungen ist es notwendig und ausreichend(oder ).

2. Für die lineare Unabhängigkeit von Lösungen ist sie notwendig und ausreichend.

Nachweisen. Die erste Aussage folgt aus dem oben bewiesenen Satz und der Folgerung. Die zweite Aussage lässt sich leicht durch Widerspruch beweisen.

Die Lösungen seien linear unabhängig. Wenn , dann sind die Lösungen linear abhängig. Widerspruch. Somit, .

Lassen . Wenn die Lösungen linear abhängig sind, dann , daher ein Widerspruch. Daher sind die Lösungen linear unabhängig.

Folge.Das Verschwinden der Wronski-Determinante an mindestens einem Punkt ist ein Kriterium für die lineare Abhängigkeit von Lösungen einer linearen homogenen Gleichung.

Der Unterschied zwischen der Wronski-Determinante und Null ist ein Kriterium für die lineare Unabhängigkeit von Lösungen einer linearen homogenen Gleichung.

Satz.Die Dimension des Lösungsraums einer linearen homogenen Gleichung n-ter Ordnung ist gleich n.

Nachweisen.

a) Zeigen wir, dass es n linear unabhängige Lösungen einer linearen homogenen Differentialgleichung n-ter Ordnung gibt. Lassen Sie uns über Lösungen nachdenken , die die folgenden Anfangsbedingungen erfüllen:

...........................................................

Es gibt solche Lösungen. Tatsächlich, nach dem Satz von Cauchy, durch den Punkt durchläuft eine einzelne Integralkurve – die Lösung. Durch den Punkt Die Lösung geht durch den Punkt

- Lösung, durch einen Punkt - Lösung .

Diese Lösungen sind seitdem linear unabhängig .

b) Zeigen wir, dass jede Lösung einer linearen homogenen Gleichung durch diese Lösungen linear ausgedrückt wird (ihre Linearkombination ist).

Betrachten wir zwei Lösungen. Erstens: eine beliebige Lösung mit Anfangsbedingungen . Faires Verhältnis

Satz 1. (Über die lineare Unabhängigkeit orthogonaler Vektoren). Dann sei das Vektorsystem linear unabhängig.

Machen wir eine lineare Kombination ∑λ i x i =0 und betrachten wir das Skalarprodukt (x j , ∑λ i x i)=λ j ||x j || 2 =0, aber ||x j || 2 ≠0⇒λ j =0.

Definition 1. Vektorsystemoder (e i ,e j)=δ ij - Kronecker-Symbol, wird Orthonormal (ONS) genannt.

Definition 2. Für ein beliebiges Element x eines beliebigen unendlichdimensionalen euklidischen Raums und eines beliebigen Orthonormalsystems von Elementen wird die Fourier-Reihe eines Elements x über dem System als formal zusammengesetzte unendliche Summe (Reihe) der Form bezeichnet , in dem die reellen Zahlen λ i als Fourier-Koeffizienten des Elements x im System bezeichnet werden, wobei λ i =(x,e i).

Ein Kommentar. (Natürlich stellt sich die Frage nach der Konvergenz dieser Reihe. Um dieses Problem zu untersuchen, legen wir eine beliebige Zahl n fest und finden heraus, was sie unterscheidet nter Teil die Summe der Fourier-Reihe einer beliebigen anderen Linearkombination der ersten n Elemente eines Orthonormalsystems.)

Satz 2. Für jede feste Zahl n weist unter allen Summen der Form die n-te Teilsumme der Fourier-Reihe des Elements die kleinste Abweichung vom Element x gemäß der Norm eines gegebenen euklidischen Raums auf

Unter Berücksichtigung der Orthonormalität des Systems und der Definition des Fourier-Koeffizienten können wir schreiben


Das Minimum dieses Ausdrucks wird bei c i =λ i erreicht, da in diesem Fall die nichtnegative erste Summe auf der rechten Seite immer verschwindet und die übrigen Terme nicht von c i abhängen.

Beispiel. Betrachten Sie das trigonometrische System

im Raum aller Riemann-integrierbaren Funktionen f(x) auf der Strecke [-π,π]. Es lässt sich leicht überprüfen, dass es sich um ein ONS handelt, und dann hat die Fourier-Reihe der Funktion f(x) die Form wo.

Ein Kommentar. (Die trigonometrische Fourier-Reihe wird üblicherweise in der Form geschrieben Dann )

Ein beliebiges ONS in einem unendlichdimensionalen euklidischen Raum ohne zusätzliche Annahmen ist im Allgemeinen keine Grundlage dieses Raums. Auf einer intuitiven Ebene, ohne strenge Definitionen zu geben, werden wir das Wesentliche der Sache beschreiben. Betrachten Sie in einem beliebigen unendlichdimensionalen euklidischen Raum E das ONS, wobei (e i ,e j)=δ ij das Kronecker-Symbol ist. Sei M ein Unterraum des euklidischen Raums und k=M ⊥ ein zu M orthogonaler Unterraum, so dass der euklidische Raum E=M+M ⊥ ist. Die Projektion des Vektors x∈E auf den Unterraum M ist der Vektor ∈M, wobei


Wir werden nach den Werten der Expansionskoeffizienten α k suchen, für die das Residuum (quadratisches Residuum) h 2 =||x-|| ist 2 wird das Minimum sein:

h 2 =||x-|| 2 =(x-,x-)=(x-∑α k e k ,x-∑α k e k)=(x,x)-2∑α k (x,e k)+(∑α k e k ,∑α k e k)= ||x|| 2 -2∑α k (x,e k)+∑α k 2 +∑(x,e k) 2 -∑(x,e k) 2 =||x|| 2 +∑(α k -(x,e k)) 2 -∑(x,e k) 2 .

Es ist klar, dass dieser Ausdruck einen minimalen Wert bei α k = 0 annimmt, was trivial ist, und bei α k = (x,ek). Dann ist ρ min =||x|| 2 -∑α k 2 ≥0. Von hier aus erhalten wir die Besselsche Ungleichung ∑α k 2 ||x|| 2. Bei ρ=0 Ein Orthonormalsystem von Vektoren (ONS) wird als vollständiges Orthonormalsystem im Sinne von Steklov (PONS) bezeichnet. Von hier aus können wir die Steklov-Parseval-Gleichheit ∑α k 2 =||x|| erhalten 2 - der „Satz des Pythagoras“ für unendlichdimensionale euklidische Räume, die im Sinne von Steklov vollständig sind. Nun müsste bewiesen werden, dass es notwendig und ausreichend ist, dass die Steklov-Parseval-Gleichheit gilt, damit jeder Vektor im Raum eindeutig in Form einer zu ihm konvergierenden Fourier-Reihe dargestellt werden kann. Das Vektorsystem pic=""> ONB bildet? Vektorsystem Betrachten Sie für die Teilsumme der Reihe Dann wie der Schwanz einer konvergenten Reihe. Somit ist das Vektorsystem ein PONS und bildet ein ONB.

Beispiel. Trigonometrisches System

im Raum aller Riemann-integrierbaren Funktionen f(x) auf der Strecke [-π,π] ist ein PONS und bildet ein ONB.



Lesen Sie auch: