TermX 
13:45 Uhr, 11.04.2019
|
Hallo,
ich habe unteren Beweis gegeben der zeigen soll, dass die Eigenvektoren von verschiedenen Eigenwerten linear unabhängig sind.
Mein Problem ist, dass ich noch nicht ganz folgen kann.
Meine Überlegungen.
1. Der Induktionsanfang ist erfüllt, da der erste Eigenvektor linear unabhängig ist(da es ja keinen anderen Eigenvektor gibt und der erste Eigenvektot laut Eigenvektordefinition nicht gleich Null ist)
2. Induktionsschritt:
Hypothese: Es gelte alle Eigenvektoren für sind linear unabhängig . ist nur erfüllt für die triviale Lösung
Nun muss jagezeigt werden dass dann auch gilt: Auhch der -te Eigenvektor ist linear unabhängig von den Eigenvektoren . ist nur erfüllt für die triviale Lösung
Im Beweis wird diese Bedingung nun noch geschickt umformuliert, sodass nun bewießen werden muss, dass: nur erfüllt ist für alle
Laut Induktionshypothese sind alle Eigenvektoren linear unabhängig . ich kann die Bedingung umformulieren in: für alle darf nur erfüllt sein für alle
Nun muss sich ja der Eigenwert von allen anderen Eigenvektoren unterscheiden, da es ja ansonsten kein neuer Eigenwert ist. Das bedeutet für alle .
Das bedeutet man muss zeigen, dass: für alle nur dann erfüllt ist, wenn alle sind.
Das ergibt sich ja trivialerweise aus der Gleichung und damit ist die Aussage gezeigt, dass die Eigenvektoren von verschiedenen Eigenwerten linear unabhängig sind. Oder?
Im Musterbeweis leiten sie nun aber noch von der Gleichung ab, dass ist. Muss man das für den Beweis auch noch machen. Und wenn ja, warum?
Vielen Dank vorab :-)
EDIT: Da fällt mir gerade noch eine Frage ein. Wenn ein Eigenwert 2 linear unabhängige Vektoren besitzt . die geometrische Vielfachheit von 2 besitzt), sind dann diese 2 Vektoren auch linear unabhängig zu allen anderen Vetoren der restlichen Eigenwerte? Laut der Difinition ist dieser Fall ja nicht mit abgedeckt, da die Definition Eigenwerten Eigenvektoren zuordnet . jeder Eigenwert hat nur einen Eigenvektor).
|
|
ledum 
16:36 Uhr, 11.04.2019
|
Hallo soweit ich sehe ist in dem Skript ein Druckfehler: nach der Differenzbildung muss die Summe weiterhin bis gehen, nicht nur bis erst dadurch hat man den Beweis, indem man das Glied mit einzeln dazuschreibt Gruß ledum
|
TermX 
17:37 Uhr, 11.04.2019
|
Hi, danke für deine Antwort. Ich denke aber so wie es im Skript steht ist es korrekt, da die zwei Gleichungen ober und unterhalb des "sowie" voneinander abgezogen werden. Dann kann man jeweils den Summanden für rausziehen und der kürzt sich dann weg.
Das bedeutet damit ist mein Problem noch nicht gelöst. :-)
|
|
Die Argumente in logische Reihenfolge gebracht: Die Differenzbildung liefert zunächst
1) . Nun ist für den letzten Index , daher folgt
2) .
3) Jetzt greift die Induktionsvoraussetzung, die liefert für alle .
4) Aus der Verschiedenheit der Eigenwerte folgt für alle , und damit wegen 3) dann .
5) Dies in eingesetzt ergibt und damit schlussendlich auch .
> Im Musterbeweis leiten sie nun aber noch von der Gleichung 7.3 ab, dass ist. Muss man das für den Beweis auch noch machen?
Aber ja! Im Induktionsschritt ist zu zeigen, dass aus dann für alle folgt. Und "für alle" bedeutet , nicht nur . Daher ist auch Schritt 5) notwendig zur Komplettierung des Induktionsschritts.
|
TermX 
15:01 Uhr, 12.04.2019
|
Achso, jetzt habe ich es verstanden. Um zu zeigen, dass auch die Summe nur genau dann ist, wenn alle Koeffizienten sind, berechnen wir einfach das Ergebnis für . Dabei erhalten wir nur eine mögliche Lösung, nämlich und damit ist der Beweis abgeschlossen.
Stimmts? :-)
|
TermX 
14:45 Uhr, 17.04.2019
|
ende
|
|
Ich verstehe die einzelnen Schritte des Beweises sehr gut. Meine Frage besteht allerdings darin, wieso ich diese beiden Summen voneinander abziehen kann und dann behaupten darf, dass die vorherige Selektion linear unabhängig ist. Meines Erachtens könnte man mit genau demselben Vorgehen beweisen, dass 4 Vektoren im linear unabhängig sind. Ich subtrahiere erst den vierten Vektor von der Summe weg und behaupte dann, dass per Annahme die drei übrig gebliebenen Vektoren ja unabhängig sind woraus dann folgt, dass und dann bleibt übrig: woraus dann trivialerweise folgt, dass , also sind vier Vektoren im linear unabhängig.
Wieso darf ich diesen Schluss bei Eigenvektoren machen und bei allen anderen Vektoren nicht?
|
|
> und dann behaupten darf, dass die vorherige Selektion linear unabhängig ist.
Die lineare Unabhängigkeit von ist die Aussage der Induktionsvoraussetzung. Es ist doch der wesentliche Grund dafür, dass man das ganze als Induktionsbeweis aufzieht, dass man dieses mächtige Pfund im Induktionsschritt einsetzen kann!!!
> Ich subtrahiere erst den vierten Vektor von der Summe weg
Damit veränderst du in deinem konkreten Fall die Summe! Im obigen Beweis wird nur 0-0=0 gerechnet, was soweit Ok weil summenerhaltend ist.
|
|
Das Prinzip der vollständigen Induktion habe ich schon verstanden. Aber mit der Art zu beweisen kann ich auch nachweisen, dass Vektoren in einem beliebigen Vektorraum linear unabhängig sind. Siehe hier:
Zu zeigen: Vektoren , alle ungleich dem Nullvektor, sind linear unabhängig im . Zu beweisen ist also, dass aus folgt, dass alle .
Induktionsanfang: Für gilt: .
Induktionsanfang: Die Annahme gilt für , also: folgt, dass alle
Induktionsschritt: Wir nehmen an, dass
Wir subtrahieren hiervon die Gleichung und erhalten:
Laut Induktionssanfang gilt aber für diese Gleichung, dass alle . Setzen wir das oben ein, so folgt, dass:
Woraus direkt folgt, dass , woraus wir folgern (da nicht der Nullvektor), dass .
Somit sind Vektoren im (oder irgendeinem anders-dimensionalen Vektorraum) linear unabhängig.
Und ich verstehe nicht, warum das hier ja offensichtlich nicht erlaubt ist, aber bei Eigenvektoren schon. Was ist die Eigenschaft, die diesen Beweis "erlaubt"?
|
|
Hallo,
> Was ist die Eigenschaft, die diesen Beweis "erlaubt"?
Im angegebenen Beweis subtrahierst man die Gleichung die aus der als wahr angenommenen Gleichung entsteht.
Du subtrahierst die Gleichung , aus der man aber schon im Vorfeld schließen kann, dass oder gilt.
Du schreibst, dass die sein sollen (Vss.). Dann ist automatisch zwangsläufig.
Verstehe, was das bedeutet: Lineare Unabhängigkeit kann man gut wie folgt zuspitzen: sind genau dann linear unabhängig, wenn das Gleichungssystem EINDEUTIG lösbar ist.
Nun kann es ja vorkommen, dass ein solches System (ich erweitere mal auf Vektoren, damit es mehr zu der von dir angeprangerten Situation passt) mehrdeutig lösbar ist (eben genau dann, wenn die Vektoren linear abhängig sind).
Dann könnte ja gerade gelten. Dann (Vss ) wäre aber die Gleichung aber falsch!
Aus etwas Falschem kannst du alles folgern (auch etwas wieder falsches).
Etwa: Alle Zahlen sind gerade. Fallunterscheidung: ist klar. auch.
Fazit: Du subtrahierst eine Gleichung, deren Wahrheitsgehalt nur im Falle von linear unabhängigen Vektoren bewiesen werden kann. Du setzt damit das, was du beweisen willst, schon als Voraussetzung mit ein.
Mfg Michael
|
|
Das ist quasi ja mein Punkt. Ich verstehe nicht so recht, warum ich das subtrahieren darf ohne den Wahrheitsgehalt der Ausgangsgleichung in dem Ursprungsbeweis nicht zu gefährden. Wie man ja an meinem Beispiel sieht ist dieses "Gefährden" ja tatsächlich real, es kann ja passieren, dass diese Umformung eben nichts beweist.
(Btw mir ist klar, dass der Satz gilt, ich habe auch schöne Beweise mit Basistransformationen und so gesehen, nur dieser hier scheint mir echt komisch.)
|
|
Hallo,
im gegebenen Beweis wird von der Gleichung (7.3) ausgegangen.
Die Gleichung hat stets wenigstens die Lösung . Sie ist also war. (Genau genommen soll sie wahr sein. Man will daraus ableiten, dass es nur die triviale Lösung gibt.)
Nun kann man (7.3) einmal mit der Matrix von links und einmal mit multiplizieren. Dadurch bleiben die Gleichungen weiterhin wahr. Es ergeben sich: und
Diese beiden Gleichungen sind wahr (da sie von einer wahren Gleichung abgeleitet werden). Ihre Differenz ist also auch wahr:
Differenz:
Bei dem von dir vorgelegten Beweis bemängele ich, dass zwar die Gleichung wahr ist, die Gleichung aber eben unter der Voraussetzung nur gerade genau dann, wenn gilt, was du im Induktionsschritt aber gerade erst beweisen willst.
Merkst du nicht, dass deine Vorgehensweise sich signifikant von der oberen unterscheidet?
Mfg Michael
|
|
Ja, das ist sicher ein berechtigter Kritikpunkt am Eröffnungsposting und auch meiner Beweisdarstellung oben:
Dass da nicht darauf eingegangen wurde, woher dieses eigentlich stammt. Das hat michaL nun nachgeholt: Es entsteht durch Links-Multiplikation der Matrix an die Gleichung (die ja der Ausgangspunkt im Induktionsschritt ist) mit anschließender Nutzung der Eigenvektor-Eigenschaft .
|
|
Jetzt habe ich es verstanden, danke! Im Endeffekt ist der große Unterschied, dass ich dieselbe Gleichung mit zwei unterschiedlichen Sachen multipliziere und dank der EV und EW Eigenschaften bzgl der Matrix in jeder Gleichung dieses auftaucht, was ich dann durch das Subtrahieren los werde.
Das klappt natürlich so dann nicht mit jeder x-beliebigen Selektion an Vektoren.
Vielen Dank! :-)
|