Der Rang einer Matrix < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Hallo Zusammen,
Folgende Aufgabe hatten wir hier schonmal gehabt:
Aufgabe | Zeige: Eine Matrix [m]A \in M\left(m \times n, \IK\right)[/m] hat den Rang [mm] $n\!$ [/mm] genau dann, wenn durch Multiplikation mit der Matrix keine zwei verschiedenen Vektoren auf denselben Vektor abgebildet werden. |
Damals hatten wir über eine Lösung mit Hilfe des Dimensionensatzes diskutiert. Und da ich jetzt alle einfachen Beweise nochmal lerne, habe ich für die [m]\texttt{''$\Rightarrow$'' - Richtung}[/m] noch folgenden Beweis entwickelt:
Gegeben:
[m]A \in \left( {m \times n, \IK} \right);\;m \geqslant n;\;{\operatorname{rang}}(A) = n[/m]
[m]\texttt{''$\Rightarrow$''}:[/m]
Sei [m]f:\IK^n \to \IK^m ;\;f:x \mapsto Ax[/m] eine lineare Abbildung. Seien $y,z [mm] \in \IK^n$ [/mm] mit $y [mm] \not= [/mm] z$ beliebig. Wir vereinbaren folgende Schreibweisen: [m]A = \left(a_{i,j}\right);\;y = \left(y_{i,1}\right)[/m] und [m]z = \left(z_{i,1}\right)[/m]. Seien weiterhin [m]y', z' \in \IK^m[/m] mit analoger Schreibweise Ergebnisvektoren mit [m]f\left(y\right) = y'[/m] und [m]f\left(z\right) = z'[/m]. Damit erhalten wir folgende Gleichungssysteme:
[m]\pmat{
{a_{1,1} } & \cdots & {a_{1,n} } &\vline & {y_{1,1} '} \\
\vdots & \ddots & \vdots &\vline & \vdots \\
{a_{m,1} } & \cdots & {a_{m,n} } &\vline & {y_{m,1} '} \\
}[/m] und [m]\pmat{
{a_{1,1} } & \cdots & {a_{1,n} } &\vline & {z_{1,1} '} \\
\vdots & \ddots & \vdots &\vline & \vdots \\
{a_{m,1} } & \cdots & {a_{m,n} } &\vline & {z_{m,1} '} \\}[/m]
Nach der Anwendung des Gauss-Jordan-Algorithmus erhalten wir folgende Lösungen dieser Gleichungssysteme:
[m]\pmat{
1 & \cdots & \cdots & \cdots & 0 &\vline & {y_{1,1} } \\
\vdots & \ddots & {} & {\mathinner{\mkern2mu\raise1pt\hbox{.}\mkern2mu
\raise4pt\hbox{.}\mkern2mu\raise7pt\hbox{.}\mkern1mu}} & \vdots &\vline & \vdots \\
\vdots & {} & 1 & {} & \vdots &\vline & \vdots \\
\vdots & {\mathinner{\mkern2mu\raise1pt\hbox{.}\mkern2mu
\raise4pt\hbox{.}\mkern2mu\raise7pt\hbox{.}\mkern1mu}} & {} & \ddots & \vdots &\vline & \vdots \\
0 & \cdots & \cdots & \cdots & 1 &\vline & {y_{n,1} } \\
0 & \cdots & \vdots & \cdots & 0 &\vline & 0 \\
\vdots & \cdots & 0 & \cdots & \vdots &\vline & \vdots \\
0 & \cdots & \vdots & \cdots & 0 &\vline & 0 \\}[/m] und [m]\pmat{ 1 & \cdots & \cdots & \cdots & 0 &\vline & {z_{1,1} } \\
\vdots & \ddots & {} & {\mathinner{\mkern2mu\raise1pt\hbox{.}\mkern2mu
\raise4pt\hbox{.}\mkern2mu\raise7pt\hbox{.}\mkern1mu}} & \vdots &\vline & \vdots \\
\vdots & {} & 1 & {} & \vdots &\vline & \vdots \\
\vdots & {\mathinner{\mkern2mu\raise1pt\hbox{.}\mkern2mu
\raise4pt\hbox{.}\mkern2mu\raise7pt\hbox{.}\mkern1mu}} & {} & \ddots & \vdots &\vline & \vdots \\
0 & \cdots & \cdots & \cdots & 1 &\vline & {z_{n,1} } \\
0 & \cdots & \vdots & \cdots & 0 &\vline & 0 \\
\vdots & \cdots & 0 & \cdots & \vdots &\vline & \vdots \\
0 & \cdots & \vdots & \cdots & 0 &\vline & 0 \\}[/m]
Da der Gauss-Jordan-Algorithmus hier wegen [m]\operatorname{rang}(A) = n[/m] eine eindeutige Lösung liefern muß und wir außerdem [m]y \not= z[/m] vorrausgesetzt haben, muß auch [m]y' \not= z'[/m] gelten. [m]\square[/m]
Wäre das so richtig? Und könnte man nicht auch eine ähnliche Argumentation für die umgekehrte Richtung verwenden?
Vielen Dank!
Viele Grüße
Karl
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 11:12 So 13.03.2005 | Autor: | Stefan |
Lieber Karl!
Zunächst: Der Beweis ist so richtig.
Aber irgendwie finde ich doch einen direkten Beweis schöner und kürzer:
Nehmen wir an, es gäbe ein $b [mm] \in \IK^m$ [/mm] und $x,y [mm] \in \IK^n$ [/mm] mit $x [mm] \ne [/mm] y$ und
$Ax = f(x) = b = f(y) = Ay$.
Bezeichne ich mit [mm] $a^i$ [/mm] die $i$-te Spalte von $A$, so wäre dann
[mm] $\sum\limits_{i=1}^n x_ia^i [/mm] = [mm] \sum\limits_{i=1}^n y_i a^i$
[/mm]
mit [mm] $(x_1,x_2,\ldots,x_n) \ne (y_1,y_2,\ldots,y_n)$, [/mm] im Widerspruch zu $Rang(A)=n$ (was die lineare Abhängigkeit der Spaltenvektoren impliziert).
Verstehst du den Beweis und findest du ihn nicht auch schöner?
Liebe Grüße
Stefan
|
|
|
|
|
Hallo Stefan,
Danke für deine Hilfe!
> Aber irgendwie finde ich doch einen direkten Beweis schöner und kürzer:
>
> Nehmen wir an, es gäbe ein [mm]b \in \IK^m[/mm] und [mm]x,y \in \IK^n[/mm]
> mit [mm]x \ne y[/mm] und
>
> [mm]Ax = f(x) = b = f(y) = Ay[/mm].
Ab dieser Zeile ist klar, daß es ein Widerspruchsbeweis wird ...
> Bezeichne ich mit [mm]a^i[/mm] die [mm]i[/mm]-te Spalte von [mm]A[/mm], so wäre dann
>
> [mm]\sum\limits_{i=1}^n x_ia^i = \sum\limits_{i=1}^n y_i a^i[/mm]
>
>
> mit [mm](x_1,x_2,\ldots,x_n) \ne (y_1,y_2,\ldots,y_n)[/mm], im
> Widerspruch zu [mm]Rang(A)=n[/mm] (was die lineare Abhängigkeit der
> Spaltenvektoren impliziert).
>
> Verstehst du den Beweis und findest du ihn nicht auch
> schöner?
Ich denke, ich verstehe deinen Beweis, bis auf die Tatsache, daß man hier über die Spalte argumentiert. Im Grunde betrachtest Du doch die [mm] $i\texttt{-te}$ [/mm] Zeile, weil man ja "Zeile mal Spalte" multipliziert.
Im Moment zweifele ich jedoch an meinem Beweis. Wie zeigt man, daß der Gauss-Jordan-Algorithmus eindeutige Lösungen liefert? Sollte in dem Beweis zur Eindeutigkeit die hier zu beweisende Aussage vorkommen, hätte ich eine Zirkelargumentation verursacht. Aber vermutlich gibt es mehrere von einander unabhängige Möglichkeiten diese Eindeutigkeit nachzuweisen. Dann gilt mein Beweis nach wie vor.
[m]\pmat{
{a_{1,1} } & \cdots & {a_{1,n} } \\
\vdots & {} & \vdots \\
{a_{i,1} } & \ddots & {a_{i,n} } \\
\vdots & {} & \vdots \\
{a_{m,1} } & \cdots & {a_{m,n} } \\}\pmat{
{x_1 } \\
\vdots \\
{x_n } \\} = \pmat{
{\sum\limits_{i = 1}^n {a_{1,i} x_i } } \\
\vdots \\
{\sum\limits_{i = 1}^n {a_{m,i} x_i } } \\}[/m]
Analog multiplizierst Du die Matrix mit dem [mm] $y\texttt{-Vektor}$ [/mm] aus. Wenn wir die Vektoren jetzt komponentenweise vergleichen, ergeben sich [mm] $m\!$ [/mm] Vergleiche:
[m]\begin{gathered}
\sum\limits_{i = 1}^n {a_{1,i} x_i } \mathop = \limits^{\text{?}} \sum\limits_{i = 1}^n {a_{1,i} y_i } \hfill \\
\vdots \hfill \\
\sum\limits_{i = 1}^n {a_{m,i} x_i } \mathop = \limits^{\text{?}} \sum\limits_{i = 1}^n {a_{m,i} y_i } \hfill \\
\end{gathered}[/m]
Aber was passiert dann mit dem Rang? Ich sehe nicht, wie Du hier mit der Spalte argumentierst.
Viele Grüße
Karl
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 09:26 Di 15.03.2005 | Autor: | Stefan |
Lieber Karl!
Wir müssen erst einmal eine Sache verstehen, sonst kannst du meine Lösung nicht nachvollziegen.
ISt $A$ eine [mm] $n\times [/mm] n$-Matrix mit den Spalten [mm] $a^j$, [/mm] so gilt:
$Ax = [mm] \sum\limits_{j=1}^n x_j a^j$.
[/mm]
Wusstest du das bisher nicht? Im Prinzip ist $Ax$ nichts anders als eine Linearkombination der Spalten von $A$, und die Koeffizienten stecken in dem $x$.
Ist ja auch klar:
$Ax = [mm] \begin{pmatrix} \sum\limits_{j=1}^n a_{1j}x_j \\ \sum\limits_{j=1}^n a_{2j}x_j \\ \vdots \\ \sum\limits_{j=1}^n a_{nj}x_j \end{pmatrix} =\sum\limits_{j=1}^n \begin{pmatrix} a_{1j}x_j \\ a_{2j}x_j \\ \vdots \\ a_{nj}x_j \end{pmatrix} [/mm] = [mm] \sum\limits_{j=1}^n x_j \begin{pmatrix} a_{1j}\\ a_{2j}\\ \vdots \\ a_{nj} \end{pmatrix} [/mm] = [mm] \sum\limits_{j=1}^n x_ja^j$.
[/mm]
Lies dir meine Lösung jetzt noch einmal durch. Ist es dir jetzt klarer?
Liebe Grüße
Stefan
|
|
|
|
|
Hallo Stefan,
> Lies dir meine Lösung jetzt noch einmal durch. Ist es dir
> jetzt klarer?
Die "Spaltenschreibweise" habe ich nun verstanden. Trotzdem ist mir der Widerspruch noch nicht klar genug. Ich verstehe zwar, daß es irgendwie auf einen Vergleich von [mm] $m\!$ [/mm] Gleichungen hinausläuft, wo wir dann in jeder Gleichung [mm] $2n\!$ [/mm] Unbekannte hätten, [mm] $\operatorname{rang}(A) [/mm] = n$ sagt jedoch, daß es genau [mm] $n\!$ [/mm] eindeutige Lösungen für dieses System gibt.
Besteht nun der Widerspruch im [mm] $2n\!$? [/mm] Also: $2n = n [mm] \gdw [/mm] 2 = 1$?
Vielen Dank!
Viele Grüße
Karl
|
|
|
|
|
Hallo Stefan!
Ich versuche deine Gedanken nochmal aufzuschreiben:
[m]\texttt{``$\Rightarrow$'':}[/m]
Angenommen es gibt doch zwei verschiedene Vektoren $x, y [mm] \in \IK^n$, [/mm] so daß ein $b [mm] \in \IK^m$ [/mm] mit [m]f(y) = b = f(x)[/m] existiert. Dann gilt:
[m]\begin{gathered}
\Rightarrow f\left( x \right) = b = f\left( y \right) \Leftrightarrow f\left( x \right) = f\left( y \right) \hfill \\
\Leftrightarrow \left( {\begin{array}{*{20}c}
{a_{1,1} } & \ldots & {a_{1,n} } \\
\vdots & \ddots & \vdots \\
{a_{m,1} } & \cdots & {a_{m,n} } \\
\end{array} } \right)\left( {\begin{array}{*{20}c}
{x_{1,1} } \\
\vdots \\
{x_{n,1} } \\
\end{array} } \right) = \left( {\begin{array}{*{20}c}
{a_{1,1} } & \ldots & {a_{1,n} } \\
\vdots & \ddots & \vdots \\
{a_{m,1} } & \cdots & {a_{m,n} } \\
\end{array} } \right)\left( {\begin{array}{*{20}c}
{y_{1,1} } \\
\vdots \\
{y_{n,1} } \\
\end{array} } \right) \hfill \\
\Leftrightarrow \left( {\begin{array}{*{20}c}
{a_{1,1} } & \ldots & {a_{1,n} } \\
\vdots & \ddots & \vdots \\
{a_{m,1} } & \cdots & {a_{m,n} } \\
\end{array} } \right)\left( {\begin{array}{*{20}c}
{x_{1,1} } \\
\vdots \\
{x_{n,1} } \\
\end{array} } \right) - \left( {\begin{array}{*{20}c}
{a_{1,1} } & \ldots & {a_{1,n} } \\
\vdots & \ddots & \vdots \\
{a_{m,1} } & \cdots & {a_{m,n} } \\
\end{array} } \right)\left( {\begin{array}{*{20}c}
{y_{1,1} } \\
\vdots \\
{y_{n,1} } \\
\end{array} } \right) = 0 \hfill \\
\Leftrightarrow \left\{ {\begin{array}{*{20}c}
{a_{1,1} x_{1,1} + \ldots + a_{1,n} x_{n,1} - a_{1,1} y_{1,1} - \ldots - a_{1,n} y_{n,1} = 0} \\
\vdots \\
{a_{m,1} x_{1,1} + \ldots + a_{m,n} x_{n,1} - a_{m,1} y_{1,1} - \ldots - a_{m,n} y_{n,1} = 0} \\
\end{array} } \right. \hfill \\
\Leftrightarrow \left\{ {\begin{array}{*{20}c}
{a_{1,1} x_{1,1} - a_{1,1} y_{1,1} + \ldots + a_{1,n} x_{n,1} - a_{1,n} y_{n,1} = 0} \\
\vdots \\
{a_{m,1} x_{1,1} - a_{m,1} y_{1,1} + \ldots + a_{m,n} x_{n,1} - a_{m,n} y_{n,1} = 0} \\
\end{array} } \right. \hfill \\
\Leftrightarrow \left\{ {\begin{array}{*{20}c}
{a_{1,1} \left( {x_{1,1} - y_{1,1} } \right) + \ldots + a_{1,n} \left( {x_{n,1} - y_{n,1} } \right) = 0} \\
\vdots \\
{a_{m,1} \left( {x_{1,1} - y_{1,1} } \right) + \ldots + a_{m,n} \left( {x_{n,1} - y_{n,1} } \right) = 0} \\
\end{array} } \right. \hfill \\
\end{gathered}[/m]
Dies entspricht folgendem linearen GLS:
[m]\pmat{
{a_{1,1} } & \cdots & {a_{1,n} } &\vline & 0 \\
\vdots & \ddots & \vdots &\vline & \vdots \\
{a_{m,1} } & \cdots & {a_{m,n} } &\vline & 0}[/m]
Das lösen wir mit Gauss-Jordan. Wegen [mm] $\operatorname{rang}(A) [/mm] = n$ erhalten wir damit [mm] $n\!$ [/mm] Lösungen und [mm] $m-n\!$ [/mm] Zeilen mit 0 = 0:
[m]\pmat{
1 & \cdots & 0 &\vline & 0 \\
\vdots & \ddots & \vdots &\vline & \vdots \\
0 & \cdots & 1 &\vline & 0 \\
0 & \cdots & 0 &\vline & 0 \\
\vdots & \ddots & \vdots &\vline & \vdots \\
0 & \cdots & 0 &\vline & 0}[/m]
Damit erhalten wir folgende Gleichungen:
[m] \Leftrightarrow \left\{ {\begin{array}{*{20}c}
{x_{1,1} - y_{1,1} = 0} \\
\vdots \\
{x_{n,1} - y_{n,1} = 0} \\
\end{array} } \right. \Leftrightarrow \left( {\begin{array}{*{20}c}
{x_{1,1} } \\
\vdots \\
{x_{n,1} } \\
\end{array} } \right) - \left( {\begin{array}{*{20}c}
{y_{1,1} } \\
\vdots \\
{y_{n,1} } \\
\end{array} } \right) = 0 \Leftrightarrow x = y[/m]
Wegen $x [mm] \not [/mm] = y$ als Voraussetzung ist dies aber ein Widerspruch zur Annahme. [mm] $\square$
[/mm]
Ich nehme an, daß ich diese Beweisrichtung geschafft habe. Weißt Du welcher Ansatz bei der anderen Beweisrichtung hilft?
Danke Stefan!
Viele Grüße
Karl
|
|
|
|
|
geht es so nicht am einfachsten?
sei A [mm] \in [/mm] M(mxn;K), m [mm] \ge [/mm] n, [mm] f:K^n->K^m [/mm] x [mm] \mapsto [/mm] Ax die dazugehörige lin. abbildung und [mm] f(e_{j})=a_{j} [/mm] j [mm] \in [/mm] {1,...,n}, dann gilt:
rgA=n <=> [mm] (a_{1},...,a_{n}) [/mm] lin. unabhängig <=> f inj.
[mm] \Box
[/mm]
falls du noch weitere fragen hast, lass dich durch meine knappe antwort nicht aufhalten...
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:50 Sa 19.03.2005 | Autor: | taura |
Ich hätte da einen Ansatz für die Rückrichtung:
Also, wir haben [mm]A \in (n \times m,\IK);\ m \ge n[/mm] und [mm]f:\IK^n\to\IK^m;\ x \mapsto Ax[/mm].
Dann wissen wir nach Vorraussetzung: f ist injektiv.
Betrachte nun [mm]\tilde f: \IK^n \to Bild(f);\ x\mapsto f(x)[/mm].
Dann gilf: [mm]\tilde f[/mm] ist immernoch injektiv, denn die Abbildungsvorschrift hat sich nicht geändert. Außerdem ist [mm]\tilde f[/mm] surjektiv, da der Zielraum auf das Bild eingeschränkt wurde.
[mm]\Rightarrow \tilde f \ ist \ Isomorphismus[/mm]
[mm]\Rightarrow \IK^n \ isom. \ zu \ Bild(f)[/mm]
[mm]\Rightarrow dim\IK^n = n = dim Bild(f)[/mm]
Da A die Abbildungsmatrix von f bezgl. der kanonischen Basis ist, gilt also:
dim Bild(f)=Rang(A)=n
[mm]\Box[/mm]
Ich hoffe das ist alles verständlich und vor allem richtig...
Müsste übrigens rückwärts ziemlich ähnlich auch funktionieren...
|
|
|
|