lin. Abhängigkeit bei Matrix < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Hallo,
wie kann ich feststellen, ob Vektoren inear (un)abhängig sind mit Hilfe des Gauß Algorithmus?
Beispiel
a=(1 2 [mm] 0)^t [/mm] b=(1 3 [mm] 1)^t [/mm] c=(-2 1 [mm] 5)^t
[/mm]
Und vor allem: Normalerweise löse ich ja ein lin. Gleichungssystem in der Form (A|b). Kann ich trotz des Vektors b ablesen, ob meine Vektoren linear (un)abhängig sind?
Danke!
|
|
|
|
> Hallo,
>
> wie kann ich feststellen, ob Vektoren inear (un)abhängig
> sind mit Hilfe des Gauß Algorithmus?
>
> Beispiel
>
> a=(1 2 [mm]0)^t[/mm] b=(1 3 [mm]1)^t[/mm] c=(-2 1 [mm]5)^t[/mm]
Hallo,
stell sie als Spalten in eine Matrix, bring die Matrix in ZSF.
Wenn der Rang der Matrix = der Anzahl der Spalten ist, sind die eingesetzen Vektoren linear unabhängig.
> Und vor allem: Normalerweise löse ich ja ein lin.
> Gleichungssystem in der Form (A|b).
???
Wenn Du was tun willst?
Für die Unabhängigkeit löst Du doch (A|0).
Am Rang der Matrix A, die die Vektoren als Spalten enthält, kannst Du die (Un)Abhängigkeit ablesen, ein eventueller Vektor b jenseits des Striches stört nicht.
Gruß v. Angela
|
|
|
|
|
Danke!
Ich frage deshalb so, weil unser Prof sagte, dass es ja praktisch sei, wenn man eine Matrix löst, bei der man dann ganz normal zB den Nullraum berechnen soll, dass man da auch ablesen kann, ob Vektoren linear (un) abhängig sind.
Aber demnach geht das ja gar nicht, weil ich dann doch ganz normal ausschließlich die 3 Vektoren verwende, also nur eine Matrix A habe und dann schaue: Rang = n => unabhängig; Rang ungleich n => lin. abhängig? Statt also hinzugehen und das mit Skalaren zu multiplizireren und zu schauen ob alle Skalare=0 sind?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:47 So 04.01.2009 | Autor: | leduart |
Hallo
Ich versteh nicht was der Unterschied für dich ist: wenn du die Skalare mit den Vektoren hinschreibst und das GS löst , wie machst du das denn? Das Vorgehen ist doch dasselbe wie bei der matrix?
Gruss leduart
|
|
|
|
|
Ich glaube hier liegt der Knackpunkt bei mir:
"Für die Unabhängigkeit löst Du doch (A|0).
Am Rang der Matrix A, die die Vektoren als Spalten enthält, kannst Du die (Un)Abhängigkeit ablesen, ein eventueller Vektor b jenseits des Striches stört nicht."
Demnach kann ich also bei jeder Matrix, egal ob nun (wie ich es nach Definition machen würde, wenn ich kein bestimmtes GS gegeben habe) (A|0) oder (A|b) am ENde die (Un)abgänhigkeit ablesen, indem ich mir den Rang ansehe?
Dann kann ich also eigentlich doch vorher schon sagen, ohne den Rang zu berechnen, ob die Vektoren linear (un)abhängig sind, denn:
ist A singulär, ist der Rang(A) < n und für A regulär ist der Rang(A)=n. Dann muss ich doch nur sehen, ob die Matrix quadratisch íst, oder nicht.
Aber das kann doch nicht sein, denn warum musste ich dann ganz zu Anfang schauen, ob die Skalare alle ungleich 0 sind für lineare Abhängigkeit? Demnach kann ich ja gleich hingehen und sagen: DIese Vektoren bilden eine quadratische Matrix, also: lin. unabhängig.
Edit: Ich habe zB hier eine Aufgabe, bei der ich eine 3x3 Matrix habe und soll den "nullvektor als nichttriviale linearkombination" schreiben um herauszufinden, ob die 3 vektoren linear unabhängig sind.
Wie muss ich denn jetzt die Matrix umformen, um zu zeigen, dass die Vektoren lin. unabhängig sind? Hier wird offenbar mit dem Nullraum gearbeitet, da die Lösung lautet:
1 0 1
0 1 -2
0 0 0
und die Matrix mit -1 unten rechts aufgefüllt wird,also:
1 0 1
0 1 -2
0 0 -1
Aber warum ist die Lösung nun 1, -2 und -1?
Hilfe :(
Gibt es daher einen Unterschied ob gefragt wird nach "Darstellung als triviale" und "durch ichttriviale Linearkombination"? Ich dachte wie gesagt immer, dass es eine triviale Darstellung geben muss, nämlich alles = 0. Aber jetzt lese ich ständig nichttriviale Linearkombination - warum?
|
|
|
|
|
> "Für die Unabhängigkeit löst Du doch (A|0).
>
> Am Rang der Matrix A, die die Vektoren als Spalten enthält,
> kannst Du die (Un)Abhängigkeit ablesen, ein eventueller
> Vektor b jenseits des Striches stört nicht."
>
> Demnach kann ich also bei jeder Matrix, egal ob nun (wie
> ich es nach Definition machen würde, wenn ich kein
> bestimmtes GS gegeben habe) (A|0) oder (A|b) am ENde die
> (Un)abgänhigkeit ablesen, indem ich mir den Rang ansehe?
Hallo,
ja. Am Rang der Matrix A, welche die Vektoren als Spalten enthält.
>
> Dann kann ich also eigentlich doch vorher schon sagen, ohne
> den Rang zu berechnen, ob die Vektoren linear (un)abhängig
> sind, denn:
> ist A singulär, ist der Rang(A) < n und für A regulär ist
> der Rang(A)=n.
Klar. Wenn Du schon vorher aus irgendwelchen Gründen weißt, daß die Matrix singulär ist, weißt Du, daß die Spalten nicht linear unabhängig sind.
Bloß Du weißt es i.d.R. nicht vorher.
> Dann muss ich doch nur sehen, ob die Matrix
> quadratisch íst, oder nicht.
Unfug! Es ist doch nicht jede quadratische Matrix regulär.
Und wenn die Matrix nicht quadratisch ist, greifen die Begriffe regulär und singulär doch gar nicht.
>
> Edit: Ich habe zB hier eine Aufgabe, bei der ich eine 3x3
> Matrix habe und soll den "nullvektor als nichttriviale
> linearkombination" schreiben um herauszufinden, ob die 3
> vektoren linear unabhängig sind.
>
> Wie muss ich denn jetzt die Matrix umformen, um zu zeigen,
> dass die Vektoren lin. unabhängig sind? Hier wird offenbar
> mit dem Nullraum gearbeitet, da die Lösung lautet:
>
> 1 0 1
> 0 1 -2
> 0 0 0
Das soll anscheinend die ZSF sein.
Man hat nun in Gleichungen "übersetzt" dastehen
a+c=0
b-2c=0
Man behält also nur zwei Gleichungen (Rang =2) mit drei Variablen, kann daher eine Variable frei wählen, um eine Lösung zu finden.
Wähle ich c=-1, so folgt b=-2 und a=1.
Das sagt einem, daß (wenn die Startvektoren [mm] v_1, v_2, v_3 [/mm] waren) [mm] 0=1*v_1 -2*v_2-1*v_3 [/mm] gilt.
Du kannst den Nullvektor also nichttrivial scheiben, und somit sind [mm] v_1, v_2, v_3 [/mm] linear abhängig.
> Gibt es daher einen Unterschied ob gefragt wird nach
> "Darstellung als triviale" und "durch ichttriviale
> Linearkombination"?
Kein Mensch wird Dich fragen, ob man die Null als triviale Linearkombination schreiben kann, denn das geht doch immer, egal ob die Vektoren abhängig oder unabhängig sind.
Der Witz ist der, daß bei Unabhängigkeit nur die triviale Darstellung der Null möglich ist, und bei Abhängigkeit gibt es auch nichttriviale Darstellungen.
Gruß v. Angela
Ich dachte wie gesagt immer, dass es
> eine triviale Darstellung geben muss, nämlich alles = 0.
> Aber jetzt lese ich ständig nichttriviale Linearkombination
> - warum?
|
|
|
|
|
Ich dachte immer, reguläre Matritzen wären quadratische Matrizen und singuläre, nicht-quadratische.
Also sind reguläre Matrizen solche, die man invertieren kann? D.h. dass ich die ganzen Definitionen für reguläre Matrizen nur anwenden kann (zB dass bei regulären Matrizen die Vektoren unabhängig sind), wenn ich die Matrix vorher invertiert habe und weiß, dass es eine Inverse gibt?
---
Und zu der Abhängigkeit und (nicht)trivialen Darstellungen: D.h. eigtl, wenn der Prof schreibt: Schreiben sie als nichttriviale Linearkombination, dass die Vektoren höchstwahrscheinlich abhängig sind?
Ich verstehe nch nicht ganz den Unterschied zwischen nichttrivialen und trivialen Darstellungen. Gerade im Zusammenhang mit der Rechnung durch Matrizen.
Denn wieso rechne ich bis zu dem Punkt, wie ich ihn gepostet habe? Und funktioniert das dann immer so? Ich verstehe das Prinzip nicht.
|
|
|
|
|
> Ich dachte immer, reguläre Matritzen wären quadratische
> Matrizen und singuläre, nicht-quadratische.
Tja. Vor so etwas schützt nur die genaue Kenntnis der Definitionen.
>
> Also sind reguläre Matrizen solche, die man invertieren
> kann?
Ja.
> D.h. dass ich die ganzen Definitionen für reguläre
> Matrizen nur anwenden kann (zB dass bei regulären Matrizen
> die Vektoren unabhängig sind), wenn ich die Matrix vorher
> invertiert habe und weiß, dass es eine Inverse gibt?
Nö, invertieren mußt Du die nicht unbedingt. Du mußt nur wissen, daß sie invertierbar sind. Wenn die det [mm] \not=0 [/mm] , weiß Du das z.B auch ohne die Inverse zu kennen..
> Und zu der Abhängigkeit und (nicht)trivialen Darstellungen:
> D.h. eigtl, wenn der Prof schreibt: Schreiben sie als
> nichttriviale Linearkombination, dass die Vektoren
> höchstwahrscheinlich abhängig sind?
Wenn Euch der Prof. nicht ein bißchen neckt, sind sie ganz sicher abhängig.
Denn wenn sie linear unabhängig sind, kann man die Null ja nur als triviale Linearkombination schreiben. Das ist doch gerade die definition der linearen Unabhängigkeit.
>
> Ich verstehe nch nicht ganz den Unterschied zwischen
> nichttrivialen und trivialen Darstellungen. Gerade im
> Zusammenhang mit der Rechnung durch Matrizen.
???
Bitte ein Beispiel.
> Denn wieso rechne ich bis zu dem Punkt, wie ich ihn
> gepostet habe? Und funktioniert das dann immer so? Ich
> verstehe das Prinzip nicht.
Wenn Du wissen willst, ob man [mm] v_1, v_2, v_3 [/mm] nichttrivial zu Null linearkombinieren kann, steht dahinter die Frage, ob es a,b,c [mm] \in \IR [/mm] gibt, so daß die a,b,c nicht alle =0 sind und
[mm] 0=av_1+bv_2+cv_3 [/mm] gilt.
Hierzu ist ein lineares Gleichungssystem zu lösen, was man gerne in Matrixform mit dem Gaußalgorithmus tut.
Was ist also zu klären, wenn die Frage lautet, ob Du die Null nichttrivial als Linearkombination von [mm] \vektor{1\\1\\1}, \vektor{5\\8\\11} [/mm] und [mm] \vektor{1\\2\\3} [/mm] schreiben kannst?
Schreibe die zu lösende Gleichung auf, übersetze sie in ein lineares Gleichungssystem, erstelle die Koeffizientenmatrix desselbigen und dann die Lösung.
Gruß v. Angela
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:56 Mo 05.01.2009 | Autor: | crashby |
> Hallo,
>
> wie kann ich feststellen, ob Vektoren inear (un)abhängig
> sind mit Hilfe des Gauß Algorithmus?
>
> Beispiel
>
> a=(1 2 [mm]0)^t[/mm] b=(1 3 [mm]1)^t[/mm] c=(-2 1 [mm]5)^t[/mm]
>
> Danke!
Hallo,
die Frage koennte z.b auch lautet:
Bilden diese Vektoren eine Basis?
Ohne Gauß kann man das auch zeigen. Sie bilden genau dann eine Basis,wenn diese Vektoren linear unabhängig sind. Zeigen tut man das mit der Determinante, wenn gilt: $ [mm] det(A)\not= [/mm] 0 $ dann sind die Vektoren lin. unabhängig und bilden somit eine Basis.
Also bei deinem Beispiel kann man dann so vorgehen:
Sei
$A= [mm] \pmat{1 & 1 & -2 \\ 2 & 3 &1\\0&1& 5}
[/mm]
dann ist $ det A = [mm] \vmat{1 & 1 & -2 \\ 2 & 3 &1\\0&1& 5}=.. [/mm] $
mit der Regel von Sarruas kann man die Determinante ausrechnen, da ich abern och nicht weiß ob ihr Determinanten schon hattet,lasse ich es :)
Wenn du möchtest kann ich dir gerne nochmal ein Musterbeispiel geben.
lg
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:18 Mo 05.01.2009 | Autor: | Englein89 |
Ja, wir hatten bereits Determinanten! Danke :)
|
|
|
|