www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Numerik" - Matrixnorm (Beweis verstehen)
Matrixnorm (Beweis verstehen) < Numerik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Numerik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Matrixnorm (Beweis verstehen): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:23 Mo 23.12.2019
Autor: teskiro

Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.




Hallo, ich möchte gerne ein Beweis aus der Vorlesung nachvollziehen, aber ich habe ein paar Fragen dazu, die meine Kommilitonen nicht beantworten können. Entweder wissen sie auch nicht weiter, oder haben keine Zeit.

Daher hoffe ich, dass ich hier vielleicht Rückmeldungen bekomme.


Es geht um folgenden Satz:




Satz 4.2
_______


Die natürlichen Matrizennormen zu [mm] $\vert \vert \cdot \vert \vert_{\infty}$ [/mm] und [mm] $\vert \vert \cdot \vert \vert_{1}$ [/mm] sind die "maximale Zeilensumme" bzw. die "maximale Spaltensumme":


[mm] $\vert \vert [/mm] A  [mm] \vert \vert_{\infty} [/mm] := [mm] \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk} \vert$, $\vert \vert [/mm] A  [mm] \vert \vert_{1} [/mm] := [mm] \max\limits_{1 \le k \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk} \vert$ [/mm]




Beweis
______


Wir geben den Beweis nur für [mm] $\vert \vert \cdot \vert \vert_{\infty}$. [/mm] Für [mm] $\vert \vert \cdot \vert \vert_{1}$ [/mm] verläuft er analog.


$(i)$ Die maximale Zeilensumme [mm] $\vert \vert \cdot \vert \vert_{\infty}$ [/mm] ist eine Matrizennorm. Die Normeigenschaften $(N1) - (N3)$ folgen mit Hilfe der entsprechenden Eigenschaften des Absolutbetrags, und für ein Matrizenprodukt $AB$ gilt:


[mm] $\vert \vert [/mm] AB [mm] \vert \vert_{\infty} [/mm] = [mm] \max\limits_{1 \le i \le n} \left \vert \sum\limits_{j = 1}^{n} \left ( \sum\limits_{ k = 1}^{n} a_{ik} b_{k j } \right ) \right \vert \le \max\limits_{1 \le k \le n} \sum\limits_{k = 1}^{n} \left ( \vert a_{ik} \vert \sum\limits_{j = 1}^{n} \vert b_{kj } \vert \right [/mm] )   [mm] \le \max\limits_{1 \le i \le n} \sum\limits_{k = 1}^{n} \vert a_{ik} \vert \cdot \max\limits_{1 \le k \le n} \sum\limits_{j = 1}^{n} \vert b_{kj} \vert [/mm]  =  [mm] \vert \vert [/mm] A [mm] \vert \vert_{\infty} \cdot \vert \vert [/mm] B [mm] \vert \vert_{\infty}$ [/mm]


$(ii)$  Weiter ist die maximale Zeilensumme wegen


[mm] $\vert \vert [/mm] A x [mm] \vert \vert_{\infty} [/mm] = [mm] \max\limits_{1 \le j \le n} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \le \max\limits_{1 \le j \le n} \sum\limits_{k = 1}^{n} \vert a_{jk} \vert \cdot \max\limits_{1 \le k \le n} \vert x_{k} \vert [/mm] = [mm] \vert \vert [/mm] A [mm] \vert \vert_{\infty} \cdot \vert \vert [/mm] x [mm] \vert \vert_{\infty} [/mm] $


verträglich mit [mm] $\vert \vert [/mm] A [mm] \cdot \vert \vert_{\infty}$, [/mm] und es gilt


[mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} \le \vert \vert [/mm] A  [mm] \vert \vert_{\infty}$ [/mm]



$(iii)$  Im Falle [mm] \vert \vert [/mm] A [mm] \vert \vert_{\infty} [/mm] = 0$ ist $A = 0$, d.h. trivialerweise


[mm] $\vert \vert [/mm] A [mm] \vert \vert_{\infty} [/mm] = [mm] \max\limits_{1 \le j \le n} \sum\limits_{k = 1}^{n} \vert a_{jk} \vert [/mm] = [mm] \sum\limits_{k = 1}^{n} \vert a_{mk} \vert$ [/mm]




Wir setzen für $ k = 1, [mm] \ldots, [/mm] n:$



[mm] $z_{k} [/mm] := [mm] \begin{cases} \vert a_{m k} \vert / a_{mk},\; \text{für}\; a_{m k } \neq 0 \\ 0,\; \text{sonst}\\ \end{cases}$, [/mm]



d.h.: $ z = [mm] (z_{k})_{k = 1}^{n} \in \mathbb{K}^{n}, \vert \vert [/mm]  z [mm] \vert \vert_{\infty} [/mm] = 1$. Für $v := Az$ gilt dann


[mm] $v_{m} [/mm] = [mm] \sum\limits_{k = 1}^{n} a_{mk} z_{k} [/mm] = [mm] \sum\limits_{k = 1}^{n} \vert a_{m k } \vert [/mm] = [mm] \vert \vert [/mm]  A [mm] \vert \vert_{\infty}$. [/mm]



Folglich ist


[mm] $\vert \vert [/mm]  A [mm] \vert \vert_{\infty} [/mm] = [mm] v_{m} \le \vert \vert [/mm] v [mm] \vert \vert_{\infty} [/mm] = [mm] \vert \vert [/mm] A z [mm] \vert \vert_{\infty} \le \sup\limits_{\vert \vert y \vert \vert = 1} \vert \vert [/mm] A y [mm] \vert \vert_{\infty}$, [/mm]


was zu zeigen war.



Ich verstehe dazu einige Sachen nicht.


1) Warum wird gleich am Anfang, (wenn man i) und ii) zeigt, [mm] $\max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk}$ \vert [/mm] mit [mm] $\vert \vert [/mm] A [mm] \vert \vert_{\infty}$ [/mm] gleichgesetzt ?

Muss man nicht folgende beide Ungleichungen zeige?:

[mm] $\vert \vert [/mm] A [mm] \vert \vert_{\infty} \le \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk}$ [/mm] und [mm] $\vert \vert [/mm] A [mm] \vert \vert_{\infty} \ge \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk}$ [/mm]


Ich bin deswegen sehr irritiert.


2.) Warum zeigt man, dass die maximale Zeilensumme eine Matrixnorm ist ?

Ich meine, wir wissen doch, dass [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty}$ [/mm] eine Matrixnorm ist.


Zumindest haben wir in der VL gezeigt, dass [mm] $\vert \vert [/mm] A [mm] \vert \vert [/mm] = [mm] \sup\limits_{\vert \vert x \vert \vert = 1} \vert \vert [/mm] A x [mm] \vert \vert$ [/mm] eine verträgliche Matrizennorm ist.

Wenn wir  also [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty}$ [/mm] so umformen, dass wir am Ende die maximale Zeilensumme erhalten, dann ist es klar, dass die maximale Zeilensumme eine Matrixnorm ist, weil schon [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty}$ [/mm] eine Matrixnorm ist, oder ?



3) Warum gilt jetzt [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} \le \vert \vert [/mm] A  [mm] \vert \vert_{\infty}$ [/mm] ?

Gehen wir hier erstmal  davon aus, dass [mm] $\vert \vert [/mm] A [mm] \vert \vert_{\infty} [/mm] = [mm] \max\limits_{1 \le j \le n} \sum\limits_{k = 1}^{n} \vert a_{jk} \vert [/mm] $ gilt, oder wie ?

Aber die Frage wird sich beantworten, wenn die 2. Frage klar ist, da beide Fragen voneinander abhängen.



Die restlichen Fragen tippe ich noch nicht ab. Vielleicht verstehe ich den Beweis, wenn diese Fragen geklärt sind.


Wünsche euch noch einen schönen Tag und bedanke mich im Voraus.


        
Bezug
Matrixnorm (Beweis verstehen): Antwort
Status: (Antwort) fertig Status 
Datum: 08:44 Mi 25.12.2019
Autor: Gonozal_IX

Hiho,

> Ich verstehe dazu einige Sachen nicht.

das ist verständlich ;-)

Fangen wir mal in der Mitte an und strukturieren deine Fragen etwas angemessener:

> Muss man nicht folgende beide Ungleichungen zeige?:
>  
> [mm]\vert \vert A \vert \vert_{\infty} \le \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk}[/mm]
> und [mm]\vert \vert A \vert \vert_{\infty} \ge \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk}[/mm]

Exakt das wurde ja gezeigt, aber nur mit anderen "Symboliken"
Du denkst wie folgt:

Definiere
[mm] $\vert \vert [/mm] A  [mm] \vert \vert_{\infty} [/mm]  := [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty}$ [/mm] und zeige dann
[mm]\vert \vert A \vert \vert_{\infty} = \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk}\vert[/mm]

Gemacht wurde:
Definiere  [mm]\vert \vert A \vert \vert_{\infty} := \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk}\vert[/mm] und zeige dann
[mm] $\vert \vert [/mm] A  [mm] \vert \vert_{\infty} [/mm]  = [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty}$ [/mm]

Beides ist aber faktisch dasselbe. Es ist nur eine Frage, welchen Ausdruck ich mit  [mm]\vert \vert A \vert \vert_{\infty} [/mm] abkürze. Letztendlich will man ja "nur" zeigen

$ [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} [/mm] = [mm] \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk} \vert$ [/mm]  
und [mm]\vert \vert A \vert \vert_{\infty} [/mm] ist nur eine Abkürzung fuer den Ausdruck. Je nachdem, ob ich [mm]\vert \vert A \vert \vert_{\infty} [/mm] als linke oder rechte Seite definiere, muss ich dann die Gleichheit zur anderen Seite zeigen.

> 2.) Warum zeigt man, dass die maximale Zeilensumme eine
> Matrixnorm ist ?
>
> Ich meine, wir wissen doch, dass [mm]\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert A x \vert \vert_{\infty}[/mm]
> eine Matrixnorm ist.
>
>
> Zumindest haben wir in der VL gezeigt, dass [mm]\vert \vert A \vert \vert = \sup\limits_{\vert \vert x \vert \vert = 1} \vert \vert A x \vert \vert[/mm]
> eine verträgliche Matrizennorm ist.
>  
> Wenn wir  also [mm]\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert A x \vert \vert_{\infty}[/mm]
> so umformen, dass wir am Ende die maximale Zeilensumme
> erhalten, dann ist es klar, dass die maximale Zeilensumme
> eine Matrixnorm ist, weil schon [mm]\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert A x \vert \vert_{\infty}[/mm]
> eine Matrixnorm ist, oder ?

Der Dozent geht wie folgt vor:

Definiere $ [mm] \vert \vert [/mm] A  [mm] \vert \vert_{\infty} [/mm] := [mm] \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk} \vert [/mm] $ und zeige, dass dies eine Matrixnorm ist. Dies ist notwendig, weil wir zu Beginn ja noch gar nicht wissen, dass $ [mm] \vert \vert [/mm] A  [mm] \vert \vert_{\infty}$ [/mm] eine durch Vektornorm induzierte Matrixnorm ist.
Darum macht der Dozent den Hinweis

> Die Normeigenschaften $ (N1) - (N3) $ folgen mit Hilfe der entsprechenden Eigenschaften des Absolutbetrags

und zeigt $(N4)$ dann direkt.

Erst danach zeigt er mit (ii) und (iii), dass die Gleichung $ [mm] \vert \vert [/mm] A [mm] \vert \vert_{\infty} [/mm] =  [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} [/mm] $  gilt, also das die oben definierte Matrixnorm eine induzierte Matrixnorm ist.

Dafur wird bei (ii) gezeigt, dass gilt
$ [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} \le \vert \vert [/mm] A  [mm] \vert \vert_{\infty} [/mm] $

und bei (iii) dann
$ [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} \ge \vert \vert [/mm] A  [mm] \vert \vert_{\infty} [/mm] $

daraus folgt dann die Gleichheit.

Ergo: Würde man man zuerst (ii) und (iii) zeigen, wäre der erste Abschnitt durch eure Vorarbeit in der Vorlesung überflüssig.


> 1) Warum wird gleich am Anfang, (wenn man i) und ii) zeigt,
> [mm]\max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk}[/mm]
> [mm]\vert[/mm] mit [mm]\vert \vert A \vert \vert_{\infty}[/mm] gleichgesetzt
> ?

Dass nun hoffentlich klar, warum das geht. Nochmal wiederholt: Es wird zu beginn definiert $ [mm] \vert \vert [/mm] A  [mm] \vert \vert_{\infty} [/mm] := [mm] \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk} \vert [/mm] $ und dann gezeigt, dass $ [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} [/mm] = [mm] \vert \vert [/mm] A  [mm] \vert \vert_{\infty} [/mm] $

Soweit erst mal alles klar?

Gruß,
Gono

Bezug
                
Bezug
Matrixnorm (Beweis verstehen): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 17:31 Mi 25.12.2019
Autor: teskiro

Hallo, danke für die Erklärung. Jetzt habe ich die Intention des Dozenten verstanden! :-)


Ich habe mit deiner Erklärung den Beweis noch einmal angeschaut und dann wurde einiges klarer.


Die Abschnitte $(i)$ und $(ii)$ sind für mich jetzt klar.



Am Anfang habe ich gefragt, warum [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty}} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} \le \vert \vert [/mm] A [mm] \vert \vert$ [/mm] gilt.


Wegen dem ? [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} \overset{\text{(ii)}}{\underset{\text{}}{=}} \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} [/mm] ( [mm] \vert \vert [/mm]  A [mm] \vert \vert \cdot \vert \vert [/mm] x [mm] \vert \vert [/mm] ) = [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A [mm] \vert \vert_{\infty} \cdot \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] x [mm] \vert \vert_{\infty} [/mm]  = [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A [mm] \vert \vert_{\infty} \cdot [/mm] 1 = [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A [mm] \vert \vert_{\infty} [/mm] =   [mm] \vert \vert [/mm] A [mm] \vert \vert_{\infty} [/mm]  $


Falls das so passt, dann wäre der Rest eigentlich klar.



Dankeschön nochmal für die Hilfe!

Bezug
                        
Bezug
Matrixnorm (Beweis verstehen): Antwort
Status: (Antwort) fertig Status 
Datum: 17:56 Mi 25.12.2019
Autor: Gonozal_IX

Hiho,

> Wegen dem ? [mm]\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert A x \vert \vert_{\infty} \overset{\text{(ii)}}{\underset{\text{}}{=}} \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} ( \vert \vert A \vert \vert \cdot \vert \vert x \vert \vert )[/mm]

Hier müsste ein [mm] \le [/mm] zwischen stehen, und ja, dann ist es wegen $(ii)$

Du kannst aber auch einfach mit der (ii) starten und dann auf beiden Seiten das Supremum bilden. Das erhält ja die Ungleichung und dann steht dasselbe da.

> $= [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A [mm] \vert \vert_{\infty} \cdot \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] x [mm] \vert \vert_{\infty}$ [/mm]

Das ist hier zwar nicht falsch, aber trotzdem falsch aufgeschrieben.
$ [mm] \vert \vert [/mm] A [mm] \vert \vert_{\infty}$ [/mm] is ja eine nichtnegative relle Zahl, da hängt nix mehr von irgendwas ab, d.h. du kannst die sofort aus dem Supremum herausziehen, d.h. es gilt sofort:
$=  [mm] \vert \vert [/mm] A [mm] \vert \vert_{\infty} \cdot \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] x [mm] \vert \vert_{\infty}$ [/mm]
Und fertig bist du.

Gruß,
Gono

Bezug
                                
Bezug
Matrixnorm (Beweis verstehen): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:34 Mi 25.12.2019
Autor: teskiro

Okay, super! Dann ist alles klar.

Ich wollte noch fragen, ob man den Beweis direkt zeigen kann, also durch eine einzige Gleichungskette. Das interessiert mich.

Ich habe das versucht, bevor ich mich mit diesem Beweis beschäftigt habe, weil ich dachte, es geht intuitiver.

Aber ich bekomme es nicht hin, den Beweis in einer einzigen Gleichungskette zu schreiben.

Wie sieht so ein direkter Beweis aus? Ist er schwieriger bzw. komplizierter als der obige Beweis?


Schöne Grüße,

Teskiro


Bezug
                                        
Bezug
Matrixnorm (Beweis verstehen): Antwort
Status: (Antwort) fertig Status 
Datum: 19:36 Mi 25.12.2019
Autor: Gonozal_IX

Hiho,

> Ich wollte noch fragen, ob man den Beweis direkt zeigen
> kann, also durch eine einzige Gleichungskette. Das
> interessiert mich.

Schon, den in (iii) konstruierten Vektor $z$ brauchst du aber dafür. Dann gilt:

$ [mm] \vert \vert [/mm]  A [mm] \vert \vert_{\infty} [/mm] := [mm] \sup_{\vert \vert x \vert \vert = 1} \vert \vert [/mm] A x [mm] \vert \vert_{\infty} [/mm] = [mm] \sup_{\vert \vert x \vert \vert = 1} \max\limits_{1 \le j \le n} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \le \sup_{\vert \vert x \vert \vert = 1} \max\limits_{1 \le j \le n} \sum\limits_{k = 1}^{n} \vert a_{jk} \vert \cdot \max\limits_{1 \le k \le n} \vert x_{k} \vert [/mm] =  [mm] \max\limits_{1 \le j \le n} \sum\limits_{k = 1}^{n} \vert a_{jk} \vert [/mm] = [mm] \vert\vert Az\vert\vert_\infty \le \sup_{\vert \vert z \vert \vert = 1} \vert\vert Az\vert\vert_\infty [/mm] =:  [mm] \vert \vert [/mm]  A [mm] \vert \vert_{\infty}$ [/mm]

Da steht also faktisch $ [mm] \vert \vert [/mm]  A [mm] \vert \vert_{\infty} \le \max\limits_{1 \le j \le n} \sum\limits_{k = 1}^{n} \vert a_{jk} \vert \le \vert \vert [/mm]  A [mm] \vert \vert_{\infty} [/mm] $ und damit das Gewünschte.

Gruß,
Gono

Bezug
                                                
Bezug
Matrixnorm (Beweis verstehen): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:45 Do 26.12.2019
Autor: teskiro

Hey, den direkten Beweis habe ich auch verstanden.


Ich habe heute noch einmal versucht, einen neuen Beweis zu entwerfen (also ohne den konstruierten Vektor).

Der sieht so aus:





Behauptung
___________


Es gilt [mm] $\vert \vert [/mm] A  [mm] \vert \vert_{\infty} [/mm] := [mm] \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk} \vert$ [/mm]



Beweis
_______


Sei $A [mm] \in \mathbb{K\}^{m \times n}$ [/mm] und $x [mm] \in \mathbb{K}^{n}$. [/mm]



Dann ist:



[mm] $\vert \vert \vert [/mm] A [mm] \vert \vert \vert_{\infty} [/mm] = [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \vert \vert [/mm] A [mm] \cdot [/mm] x [mm] \vert \vert [/mm] =  [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \left \vert \left( \begin{array}{rrrr} a_{11} & \ldots & a_{1n} \\ \vdots & & \vdots \\ a_{m1} & \ldots & a_{mn} \\ \end{array}\right) \cdot \left(\begin{array}{c}x_{1}\\ \vdots \\ x_{n} \end{array}\right) \right \vert \right \vert_{\infty} [/mm] = [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \left \vert \left(\begin{array}{c}\sum\limits_{k = 1}^{n} a_{1k} x_{k}\\ \vdots \\ \sum\limits_{k = 1}^{n} a_{1k} x_{k} \end{array}\right) \right \vert \right \vert_{\infty} [/mm] = [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \overset{(1)}{\underset{\text{}}{=}} \max\limits_{ 1 \le j \le m} \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \overset{(2)}{\underset{\text{}}{=}} \max\limits_{ 1 \le j \le m} \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} \cdot sgn(a_{jk}) \right \vert [/mm] =  [mm] \max\limits_{1 \le j \le n} \sum\limits_{ k = 1}^{n} \vert a_{jk} \vert [/mm]  



Zu (1)
_____



Wir haben [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$. [/mm]

Diese Ausdruck kann man auch schreiben als:  [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert [/mm] = [mm] \sup \left \{ \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \; : \; \vert \vert x \vert \vert_{\infty} = 1 \right \}$ [/mm]


Dieses Supremum können wir wie folgt bestimmen:


Wir maximieren jede Komponente (im Betrag) des Vektors $A [mm] \cdot [/mm] x$.

Wir maximieren also $ [mm] \left \vert \sum\limits_{k = 1}^{n} a_{1k} x_{k} \right \vert, \ldots, \left \vert \sum\limits_{k = 1}^{n} a_{mk} x_{k} \right \vert$. [/mm]

Diese maximieren wir, in dem wir das Supremum bilden. Wir betrachten also die Werte [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{1k} x_{k} \right \vert, \ldots, \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{mk} x_{k} \right \vert [/mm] $ und von diesen Werte nehmen wir den größten davon.



Damit habe ich ja auch  [mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$ [/mm] bestimmt, oder ?


Also gilt:


[mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert [/mm]    = [mm] \max\limits_{ 1 \le j \le m} \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$ [/mm]



Habe ich das korrekt erklärt oder eher schwammig?







Zu (2)
_____



Betrachten wir den Ausdruck $ [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$. [/mm]


Wir groß kann $ [mm] \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$ [/mm] maximal werden?


Es ist $ [mm] \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert [/mm] =  [mm] \left \vert a_{j1} x_{1} + a_{j2} x_{2} + \ldots a_{jn} x_{n} \right \vert \le \left \vert\underbrace{ a_{j1} \cdot sgn(a_{j1}) x_{1}}_{\ge 0} + \underbrace{ a_{j2} \cdot sgn(a_{j2}) x_{2}}_{\ge 0} +\underbrace{ a_{jn} \cdot sgn(a_{jn}) x_{n}}_{\ge 0 } \right \vert [/mm] =    [mm] a_{j1} \cdot sgn(a_{j1}) x_{1} [/mm] +   [mm] a_{j2} \cdot sgn(a_{j2}) x_{2} [/mm] + [mm] a_{jn} \cdot sgn(a_{jn}) x_{n} \le a_{j1} \cdot sgn(a_{j1}) [/mm] +   [mm] a_{j2} \cdot sgn(a_{j2}) [/mm]  + [mm] a_{jn} \cdot sgn(a_{jn}) [/mm] = [mm] \vert a_{j1} \vert [/mm] + [mm] \vert a_{j2} \vert [/mm] + [mm] \ldots [/mm] + [mm] \vert a_{jk} \vert [/mm]    $

Die untere Schranke der letzten Summe rechts wird dadurch erreicht, dass alle Komponenten von $x$ gleich 1 sind.



Also ist $ [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert [/mm] =  [mm] \vert a_{j1} \vert [/mm] + [mm] \vert a_{j2} \vert [/mm] + [mm] \ldots [/mm] + [mm] \vert a_{jk} \vert [/mm]  $.



Und damit ist dann  [mm] $\max\limits_{ 1 \le j \le m} \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert [/mm] = [mm] \max\limits_{ 1 \le j \le m} \vert a_{j1} \vert [/mm] + [mm] \vert a_{j2} \vert [/mm] + [mm] \ldots [/mm] + [mm] \vert a_{jk} \vert [/mm]  $.




Was hältst du von meinem Beweis ? Ist er vollständig, oder habe ich irgend etwas vergessen ?


Wäre super, wenn du mir ein Feedback gibst !:)

Bezug
                                                        
Bezug
Matrixnorm (Beweis verstehen): Antwort
Status: (Antwort) fertig Status 
Datum: 10:33 Fr 27.12.2019
Autor: Gonozal_IX

Hiho,

deine Beweisidee ist ok, entspricht exakt dem Vorgehen vorher, auch wenn dir das nicht klar ist, und deine Begründungen sind gruselig.
Dann wollen wir mal:

> Dieses Supremum können wir wie folgt bestimmen:

In der Mathematik ist es oftmals so: Brauchst du viel Text um etwas zu umschreiben und kannst es nicht prägnant in eine Formel packen, ist es meist nur Geschwafel und falsch.
So auch hier...

> Wir maximieren jede Komponente (im Betrag) des Vektors [mm]A \cdot x[/mm].

Nein: Wir suchen erst die betragsmäßig größte Komponente von $Ax$ und maximieren diese dann. Wenn du erst jede Komponente maximierst (also das Supremum bildest) und dir dann das größte heraussuchst, hast du [mm] $\sup$ [/mm] und [mm] $\max$ [/mm] ja bereits vertauscht. Du versteckst deinen Tausch also hier nur in viel Text, der aber nix begründet... Geschwafel eben.

Den Rest spar ich mir dann... es gilt aber trotzdem $ [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert [/mm] = [mm] \max\limits_{ 1 \le j \le m} \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert [/mm] $ wie man wie folgt leicht zeigt:

Es ist offensichtlich:
$ [mm] \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \ge \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$ [/mm] für alle $x,j$

Damit folgt durch Supremumsbildung über x:
$ [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \ge \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$ [/mm]  für alle $j$

und damit auch durch Maximumsbildung über j:
$ [mm] \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \ge \max\limits_{ 1 \le j \le m} \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$ [/mm]

Umgekehrt gilt ebenso offensichtlich:
[mm] $\left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \le \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$ [/mm] für alle $x,j$

Damit folgt diesmal erst mit Maximumsbildung über $j$ und dann Supremumsbildung über x:
[mm] $\sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \max\limits_{ 1 \le j \le m} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \le \max\limits_{ 1 \le j \le m} \sup\limits_{\vert \vert x \vert \vert_{\infty} = 1} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert$ [/mm]

Und damit die Gleichheit.

> Habe ich das korrekt erklärt oder eher schwammig?

Den könntest du als Rettungsschwamm verwenden!


> Es ist [mm]\left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert = \left \vert a_{j1} x_{1} + a_{j2} x_{2} + \ldots a_{jn} x_{n} \right \vert \le \left \vert\underbrace{ a_{j1} \cdot sgn(a_{j1}) x_{1}}_{\ge 0} + \underbrace{ a_{j2} \cdot sgn(a_{j2}) x_{2}}_{\ge 0} +\underbrace{ a_{jn} \cdot sgn(a_{jn}) x_{n}}_{\ge 0 } \right \vert = a_{j1} \cdot sgn(a_{j1}) x_{1} + a_{j2} \cdot sgn(a_{j2}) x_{2} + a_{jn} \cdot sgn(a_{jn}) x_{n} \le a_{j1} \cdot sgn(a_{j1}) + a_{j2} \cdot sgn(a_{j2}) + a_{jn} \cdot sgn(a_{jn}) = \vert a_{j1} \vert + \vert a_{j2} \vert + \ldots + \vert a_{jk} \vert [/mm]

Warum sollten die [mm] $x_k \ge [/mm] 0$ sein?
Was gilt ist: [mm] $|x_k| \le [/mm] 1$ mehr aber auch nicht und damit bekommst du natürlich sofort:

[mm]\left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \le \sum\limits_{k = 1}^{n} \vert a_{jk} \vert [/mm]
ganz simpel durch die Dreiecksungleichung.
Und Gleichheit erreichst du für ein fixes j durch [mm] $x_k [/mm] := [mm] \text{sgn}(a_{jk})$ [/mm] (beachte, dass dann wirklich gilt [mm] $||x||_\infty=1$, [/mm] d.h. x ist ein zulässiger Vektor!), da dann gilt:
[mm]\left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert = \left \vert \sum\limits_{k = 1}^{n} a_{jk} \text{sgn}(a_{jk}) \right \vert = \sum\limits_{k = 1}^{n} \vert a_{jk} \vert [/mm]

Und wenn wir nun noch erkennen, dass für [mm] $a_{jk} \not=0$ [/mm] die Gleichheit [mm] $\text{sgn}(a_{jk}) [/mm] = [mm] \frac{a_{jk}}{|a_{jk}|}$ [/mm] gilt, dann haben wir, oh Wunder, den Vektor z nachgebaut....

Eine Bitte noch für die Zukunft: Du brauchst Betragsstriche nicht mit \vert zu machen, ein einfacher | zu finden auf jeder Tastatur reicht und ist genauso gut mit \left und \right steuerbar, aber im Code deutlich einfacher zu lesen und deutlich kürzer.

Gruß,
Gono

Bezug
                                                                
Bezug
Matrixnorm (Beweis verstehen): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:03 So 29.12.2019
Autor: teskiro


> Hiho,
>  
> deine Beweisidee ist ok, entspricht exakt dem Vorgehen
> vorher, auch wenn dir das nicht klar ist, und deine
> Begründungen sind gruselig.
>  Dann wollen wir mal:
>  
> > Dieses Supremum können wir wie folgt bestimmen:
>  In der Mathematik ist es oftmals so: Brauchst du viel Text
> um etwas zu umschreiben und kannst es nicht prägnant in
> eine Formel packen, ist es meist nur Geschwafel und falsch.
> So auch hier...
>  
> > Wir maximieren jede Komponente (im Betrag) des Vektors [mm]A \cdot x[/mm].
>  
> Nein: Wir suchen erst die betragsmäßig größte
> Komponente von [mm]Ax[/mm] und maximieren diese dann. Wenn du erst
> jede Komponente maximierst (also das Supremum bildest) und
> dir dann das größte heraussuchst, hast du [mm]\sup[/mm] und [mm]\max[/mm]
> ja bereits vertauscht. Du versteckst deinen Tausch also
> hier nur in viel Text, der aber nix begründet...
> Geschwafel eben.



Okay, ich sehe ein, dass meine "Begründung" keine Begründung ist. Das Vertauschen von Maximum und Supremum erschien mir nach langem Nachdenken voll logisch, aber man sollte nicht damit argumentieren, weil sonst bräuchten wir fast keine Beweise.

Den Rest habe ich dann verstanden. Darf ich dich noch was fragen? Es geht dieses Mal nicht um die Maximumsnorm, sondern um die Spektralnorm.




Da versuche ich, den Beweis zu folgenden Satz zu verstehen:

Satz
_____


Für die Spektralnorm hermitescher Matrizen $A [mm] \in \mathbb{K}^{n \times n}$ [/mm] gilt

$|| A [mm] ||_{2} [/mm] = [mm] \max \{ \lambda |,\; \lambda\; \text{Eigenwert von A} \}$ [/mm]


Für allgemeine Matrizen $A [mm] \in \mathbb{K}^{n \times n}$ [/mm] gilt

$|| A [mm] ||_{2} [/mm] = [mm] \max \{ | \lambda |^{\frac{1}{2}}, \lambda\; \text{Eigenwert von\;} \overline{A}^{T} A \}$ [/mm]




Beweis
______


Bekanntlich besitzt eine hermitesche Matrix $A [mm] \in \mathbb{K}^{n \times n}$ [/mm] nur reelle Eigenwerte und zwar genau $n$ Stück (ihrer Vielfachheit entsprechend oft gezählt), [mm] $\lambda_{1}, \ldots, \lambda_{n} \in \mathbb{R}$. [/mm]


Ferner existiert ein zugehöriges "Orthonormalsystem" von Eigenvektoren


[mm] $\{ \omega^{1}, \ldots, \omega^{n} \} \subset \mathbb{K}^{n }: [/mm] A [mm] \omega^{i} [/mm] = [mm] \lambda_{i} \omega^{i}$, $(\omega^{i}, w^{j})_{2} [/mm] = [mm] \delta_{ij}$, [/mm] $i,j = 1, [mm] \ldots, [/mm] n$.



Jedes $x [mm] \in \mathbb{K}^{n}$ [/mm] besitzt eine Darstellung der Form


$x = [mm] \sum\limits_{i = 1}^{n} \alpha_{i} \omega^{i}$, $\alpha_{i} [/mm] = (x, [mm] \omega^{i})_{2}$, [/mm]

und es gilt


$|| x [mm] ||^{2}_{2} [/mm] = (x, [mm] x)_{2} [/mm] = [mm] \sum\limits_{i,j = 1}^{n} \alpha_{i} \overline{\alpha}_{j} (\omega^{i}, \omega^{j})_{2} [/mm] = [mm] \sum\limits_{i = 1}^{n} [/mm] | [mm] \alpha_{i} |^{2}$, [/mm]


$|| A [mm] ||_{2}^{2} [/mm] = (Ax, [mm] Ax)_{2} [/mm] = [mm] \sum\limits_{i,j = 1}^{n} \lambda_{i} \alpha_{i} \overline{\lambda_{i} \alpha_{j}} (\omega^{i}, \omega^{j}) [/mm] = [mm] \sum\limits_{i = 1}^{n} \lambda_{i}^{2} [/mm] | [mm] \alpha_{i} [/mm] | ^{2}$



Hiermit folgt


$|| A [mm] ||_{2}^{2} [/mm] = [mm] \sup\limits_{x \in \mathbb{K}^{n} \setminus \{0 \}} \frac{|| A ||_{2}^{2}}{|| x ||^{2}_{2}} [/mm] = [mm] \sup\limits_{x \in \mathbb{K}^{n} \setminus \{0 \}} \frac{\sum\limits_{i = 1}^{n} \lambda_{i}^{2} | \alpha_{i} | ^{2}}{\sum\limits_{i = 1}^{n} | \alpha_{i} |^{2}} \le \max\limits_{1 \le i \le n } [/mm] | [mm] \lambda_{i} |^{2}$ [/mm]


Wegen der Eigenwertschranke ergibt sich damit die Behauptung.








_________________________________________________________________________________

Ich denke, sie meinen mit der Eigenwertschranke die Ungleichung


$| [mm] \lambda [/mm] | [mm] \le [/mm] || A ||$ , wobei [mm] $\lambda \in \mathbb{K}, [/mm] A [mm] \in \mathbb{K}^{n \times n}$. [/mm] Diese Ungleichung ist im Skript enthalten.




Dazu habe ich 2 Fragen:





1)   Warum existiert ein zugehöriges "Orthonormalsystem" von Eigenvektoren


[mm] $\{ \omega^{1}, \ldots, \omega^{n} \} \subset \mathbb{K}^{n }$ [/mm] mit $ A [mm] \omega^{i} [/mm] = [mm] \lambda_{i} \omega^{i}$, $(\omega^{i}, w^{j})_{2} [/mm] = [mm] \delta_{ij}$, [/mm] $i,j = 1, [mm] \ldots, [/mm] n$ ?

Ist das speziell  für hermitesche Matrizen so?


2) Warum gilt $|| x [mm] ||^{2}_{2} [/mm] = (x, [mm] x)_{2} [/mm] = [mm] \sum\limits_{i,j = 1}^{n} \alpha_{i} \overline{\alpha}_{j} (\omega^{i}, \omega^{j})_{2} [/mm] = [mm] \sum\limits_{i = 1}^{n} [/mm] | [mm] \alpha_{i} |^{2}$ [/mm] ?

Verstehe nicht, wie man darauf kommt,  [mm] $\alpha_{j}$ [/mm] komplex zu konjugieren. Kann die Rechnung irgendwie noch nicht durchsteigen und frage mich auch, wie man am Ende auf $ [mm] \sum\limits_{i = 1}^{n} [/mm] | [mm] \alpha_{i} |^{2}$ [/mm] kommt.


Wenn ich das weiß, dann müsste es kein Problem sein, die Gleichung $|| A [mm] ||_{2}^{2} [/mm] = (Ax, [mm] Ax)_{2} [/mm] = [mm] \sum\limits_{i,j = 1}^{n} \lambda_{i} \alpha_{i} \overline{\lambda_{i} \alpha_{j}} (\omega^{i}, \omega^{j}) [/mm] = [mm] \sum\limits_{i = 1}^{n} \lambda_{i}^{2} [/mm] | [mm] \alpha_{i} [/mm] | ^{2}$ nachzuvollziehen.





Und vielleicht noch eine Frage zur Definition des Skalarprodukts. Dazu haben wir die Definition:


Definition
________


Eine Abbildung [mm] $(\cdot, \cdot): \mathbb{K}^{n} \times \mathbb{K}^{n} \rightarrow \mathbb{K}$ [/mm] wird ein "Skalarprodukt" genannt, wenn sie folgende Eigenschaften hat:

$(S1)$ $(x, y) = [mm] \overline{(y,x )}$, [/mm] $x,y [mm] \in \mathbb{K}^{n}$ [/mm] (Symmetrie)

$(S2)$ [mm] $(\alpha [/mm] x + [mm] \beta [/mm] y, z)= [mm] \alpha [/mm] (x,z) + [mm] \beta [/mm] (y, z)$, $x,y, z [mm] \in \mathbb{K}^{n}, \alpha, \beta \in \mathbb{K}$ [/mm] (Linearität)

$(S3)$ $(x,x) > 0$, $x [mm] \in \mathbb{K}^{n} \setminus \{0 \}$ [/mm] (Definitheit)





Frage dazu:
_________


Ich verstehe nicht, warum $(x, y) = [mm] \overline{(y,x )}$ [/mm] gilt.

Ich habe die Eigenschaft beim euklidischen Skalarprodukt versucht zu überprüfen, aber da kam nichts gescheites heraus.



Seien [mm] $\left(\begin{array}{c}a_{1}\\a_{2}\end{array}\right) [/mm] = [mm] \left(\begin{array}{c}x_{1} + i \cdot y_{1}\\x_{2} + i \cdot y_{2}\end{array}\right) [/mm] $, [mm] $\left(\begin{array}{c}b_{1}\\b_{2}\end{array}\right) [/mm] = [mm] \left(\begin{array}{c}x'_{1} + i \cdot y'_{1}\\x'_{2} + i \cdot y'_{2}\end{array}\right) \in \mathbb{C}^{2}$. [/mm]


Dann ist [mm] $\left(\begin{array}{c}a_{1}\\a_{2}\end{array}\right) \cdot \left(\begin{array}{c}b_{1}\\b_{2}\end{array}\right) [/mm] = [mm] \left(\begin{array}{c}x_{1} + i \cdot y_{1}\\x_{2} + i \cdot y_{2}\end{array}\right) \cdot \left(\begin{array}{c}x'_{1} + i \cdot y'_{1}\\x'_{2} + i \cdot y'_{2}\end{array}\right) [/mm] = [mm] (x_{1} [/mm] + i [mm] \cdot y_{1}) \cdot [/mm] (x'_{1} + i [mm] \cdot [/mm] y'_{1}) + [mm] (x_{2} [/mm] + i [mm] \cdot y_{2}) \cdot [/mm] x'_{2} + i [mm] \cdot [/mm] y'_{2}$


$ = [mm] x_{1} [/mm] x'_{1}  + i [mm] \cdot x_{1} [/mm] y'_{1} + i [mm] \cdot [/mm]  x'_{1} [mm] y_{1} [/mm] - y'_{1} [mm] y_{1} [/mm] + [mm] x_{2} [/mm] x'_{2}  + i [mm] \cdot x_{2} [/mm] y'_{2} + i [mm] \cdot [/mm]  x'_{2} [mm] y_{2} [/mm] - y'_{2} [mm] y_{2}$ [/mm]

$ = [mm] x_{1} [/mm] x'_{1} - y'_{1} [mm] y_{1} [/mm] + i [mm] \cdot (x_{1} [/mm] y'_{1} + x'_{1} [mm] y_{1}) [/mm] + [mm] x_{2} [/mm] x'_{2} - y'_{2} [mm] y_{2} [/mm] + i [mm] \cdot (x_{2} [/mm] y'_{2} + x'_{2} [mm] y_{2})$ [/mm]

$ = [mm] x_{1}x'_{1} [/mm] + [mm] x_{2}x'_{2} [/mm] - [mm] (y'_{1}y_{1} [/mm] + y'_{2} [mm] y_{2}) [/mm] + i [mm] \cdot (x_{1} [/mm] y'_{1} + [mm] x_{2}y'_{2} [/mm] + x'_{1} [mm] y_{1} x'_{2}y_{2}) \neq x_{1}x'_{1} [/mm] + [mm] x_{2}x'_{2} [/mm] - [mm] (y'_{1}y_{1} [/mm] + y'_{2} [mm] y_{2}) [/mm] - i [mm] \cdot (x_{1} [/mm] y'_{1} + [mm] x_{2}y'_{2} [/mm] + x'_{1} [mm] y_{1} x'_{2}y_{2})$ [/mm]



Wenn ich das ganze also komplex konjugiere, dann erhalte ich ja nicht das selbe Ergebnis. Oder wo liegt denn mein Fehler ?




Schönen Abend noch,

Teskiro




Bezug
                                                                        
Bezug
Matrixnorm (Beweis verstehen): Antwort
Status: (Antwort) fertig Status 
Datum: 16:58 Mo 30.12.2019
Autor: Gonozal_IX

Hiho,

> Den Rest habe ich dann verstanden. Darf ich dich noch was
> fragen? Es geht dieses Mal nicht um die Maximumsnorm,
> sondern um die Spektralnorm.

Dafür ist das Forum ja da.
Der Übersichtlichkeit halber solltest du das nächste Mal aber ein eigenes Thema dazu eröffnen.

> Ich denke, sie meinen mit der Eigenwertschranke die Ungleichung
>  
>
> [mm]| \lambda | \le || A ||[/mm] , wobei [mm]\lambda \in \mathbb{K}, A \in \mathbb{K}^{n \times n}[/mm].
> Diese Ungleichung ist im Skript enthalten.

Ja, ist dir auch klar, wieso diese Ungleichung eigentlich trivialerweise gilt (fuer jede induzierte Matrixnorm) und wieso daraus die Behauptung folgt?

> 1)   Warum existiert ein zugehöriges "Orthonormalsystem" von Eigenvektoren

Das folgt aus dem []Spektralsatz bzw. einem Spezialfall davon, der besagt: Bei symmetrischen / hermitischen Matrizzen stehen Eigentvektoren zu versch. Eigenwerten orthogonal zueinander. Normierst du diese dann, hast du ein Orthonormalsystem.

Also laesst sich deine Frage

> Ist das speziell  für hermitesche Matrizen so?

mit ja beantworten.

> 2) Warum gilt [mm]|| x ||^{2}_{2} = (x, x)_{2} = \sum\limits_{i,j = 1}^{n} \alpha_{i} \overline{\alpha}_{j} (\omega^{i}, \omega^{j})_{2} = \sum\limits_{i = 1}^{n} | \alpha_{i} |^{2}[/mm]Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)

Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)



Na nun hast du ein Orthonormalsystem $ \{ \omega^{1}, \ldots, \omega^{n} \} \subset \mathbb{K}^{n $
Was bedeutet das fuer einen beliebigen Vektor $x \in \mathbb{K}^{n $?
Das setzt du dann mal in $(x,x)_2$ ein.


> Verstehe nicht, wie man darauf kommt,  [mm]\alpha_{j}[/mm] komplex  zu konjugieren. t

Dann solltest du die Definition von [mm] $(x,x)_2$ [/mm] nochmal nachschlagen....

> Kann die Rechnung irgendwie noch nicht
> durchsteigen und frage mich auch, wie man am Ende auf
> [mm]\sum\limits_{i = 1}^{n} | \alpha_{i} |^{2}[/mm] kommt.

Dann solltest du Rechenregeln für komplexe Zahlen nochmal nachschlagen. Was ist denn [mm] $z\overline{z}$ [/mm] für [mm] $z\in\IC$? [/mm]
Das kannst du auch einfach mal ausrechnen.

> Wenn ich das weiß, dann müsste es kein Problem sein, die
> Gleichung [mm]|| A ||_{2}^{2} = (Ax, Ax)_{2} = \sum\limits_{i,j = 1}^{n} \lambda_{i} \alpha_{i} \overline{\lambda_{i} \alpha_{j}} (\omega^{i}, \omega^{j}) = \sum\limits_{i = 1}^{n} \lambda_{i}^{2} | \alpha_{i} | ^{2}[/mm]
> nachzuvollziehen.

Hier müsste es am Anfang $|| Ax [mm] ||_{2}^{2}$ [/mm] und nicht $|| A [mm] ||_{2}^{2}$ [/mm] heißen

> Und vielleicht noch eine Frage zur Definition des
> Skalarprodukts. Dazu haben wir die Definition:
>  
>
> Definition
>  ________
>  
>
> Eine Abbildung [mm](\cdot, \cdot): \mathbb{K}^{n} \times \mathbb{K}^{n} \rightarrow \mathbb{K}[/mm]
> wird ein "Skalarprodukt" genannt, wenn sie folgende
> Eigenschaften hat:
>  
> [mm](S1)[/mm] [mm](x, y) = \overline{(y,x )}[/mm], [mm]x,y \in \mathbb{K}^{n}[/mm]
> (Symmetrie)
>  
> [mm](S2)[/mm] [mm](\alpha x + \beta y, z)= \alpha (x,z) + \beta (y, z)[/mm],
> [mm]x,y, z \in \mathbb{K}^{n}, \alpha, \beta \in \mathbb{K}[/mm]
> (Linearität)
>  
> [mm](S3)[/mm] [mm](x,x) > 0[/mm], [mm]x \in \mathbb{K}^{n} \setminus \{0 \}[/mm]
> (Definitheit)

Dann verwende die Definition mal oben und du siehst, wie da das [mm] $\overline{\alpha_j}$ [/mm] erscheint.... rechne es eben mal sauber nach.

> Frage dazu:
>  ________
>  
>
> Ich verstehe nicht, warum [mm](x, y) = \overline{(y,x )}[/mm] gilt.

Was verstehst du daran nicht? Das "gilt" übrigens nicht, sondern ist die Definition des Skalarprodukts. D.h. damit sich etwas Skalarprodukt nennen darf, muss das zwingend gelten.

>
> Ich habe die Eigenschaft beim euklidischen Skalarprodukt
> versucht zu überprüfen, aber da kam nichts gescheites
> heraus.

Bei mir schon.

> Dann ist
> [mm]\left(\begin{array}{c}a_{1}\\a_{2}\end{array}\right) \cdot \left(\begin{array}{c}b_{1}\\b_{2}\end{array}\right) = \left(\begin{array}{c}x_{1} + i \cdot y_{1}\\x_{2} + i \cdot y_{2}\end{array}\right) \cdot \left(\begin{array}{c}x'_{1} + i \cdot y'_{1}\\x'_{2} + i \cdot y'_{2}\end{array}\right) = (x_{1} + i \cdot y_{1}) \cdot (x'_{1} + i \cdot y'_{1}) + (x_{2} + i \cdot y_{2}) \cdot x'_{2} + i \cdot y'_{2}[/mm]

Nö.

> Wenn ich das ganze also komplex konjugiere, dann erhalte
> ich ja nicht das selbe Ergebnis. Oder wo liegt denn mein
> Fehler ?

Dass du nicht die Definition des Skalarprodukts auf [mm] $\IC^2$ [/mm] verwendet hast, sondern das aus [mm] $\IR^2$..... [/mm] das wird so nix.
Du kannst ja selbst nachrechnen, dass das Skalarprodukt aus dem [mm] $\IR^2$ [/mm] nicht die Eigenschaften eines Skalarprodukts auf dem [mm] $\IC^2$ [/mm] erfüllt.... wie du selbst festgestellt hast.

Gruß,
Gono

Bezug
                                                                                
Bezug
Matrixnorm (Beweis verstehen): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 12:12 Di 31.12.2019
Autor: teskiro


> > Ich denke, sie meinen mit der Eigenwertschranke die
> Ungleichung
>  >  
> >
> > [mm]| \lambda | \le || A ||[/mm] , wobei [mm]\lambda \in \mathbb{K}, A \in \mathbb{K}^{n \times n}[/mm].
> > Diese Ungleichung ist im Skript enthalten.
>  Ja, ist dir auch klar, wieso diese Ungleichung eigentlich
> trivialerweise gilt (fuer jede induzierte Matrixnorm) und
> wieso daraus die Behauptung folgt?

Ja, das ist mir klar.


Sei [mm] $\lambda \in \mathbb{K}$ [/mm] ein Eigenwert der Matrix $A [mm] \in \mathbb{K}^{n \times n}$. [/mm]

Dann gilt für einen beliebigen Eigenvektor [mm] $\omgea$ [/mm]  von [mm] $\lambda$: [/mm]


$| [mm] \lambda [/mm] | [mm] \cdot [/mm] || [mm] \omega [/mm] || = || [mm] \lambda \cdot \omega [/mm] || = || A [mm] \omega [/mm] || [mm] \le [/mm] || A || [mm] \cdot [/mm] || [mm] \omega [/mm] ||$


Und wenn man nun durch $|| [mm] \omega [/mm] || $ teilt, erhält man $| [mm] \lambda [/mm] | [mm] \le [/mm] || A ||$





>  > 1)   Warum existiert ein zugehöriges

> "Orthonormalsystem" von Eigenvektoren
>  Das folgt aus dem
> []Spektralsatz
> bzw. einem Spezialfall davon, der besagt: Bei symmetrischen
> / hermitischen Matrizzen stehen Eigentvektoren zu versch.
> Eigenwerten orthogonal zueinander. Normierst du diese dann,
> hast du ein Orthonormalsystem.
>  
> Also laesst sich deine Frage
>  > Ist das speziell  für hermitesche Matrizen so?

>  mit ja beantworten.


Okay, Dankeschön! Ich verstehe nur nicht, warum sich $x$ so schreiben lässt:

$x = [mm] \sum\Limits_{i = 1}^{n} \alpha_{i} \omega^{i}$ [/mm] mit [mm] $\Alpha_{i} [/mm] = (x, [mm] \omega^{i})_{2}$ [/mm]  schreiben lässt.

Ich meine, dass $x$ sich als Linearkombination einer ONB darstellen lässt, ist mir klar. Aber warum ist hier  unser Skalar [mm] $\alpha_{i}$ [/mm]  gegeben durch $(x, [mm] \omega^{i})_{2}$ [/mm] ?


>  
> > 2) Warum gilt [mm]|| x ||^{2}_{2} = (x, x)_{2} = \sum\limits_{i,j = 1}^{n} \alpha_{i} \overline{\alpha}_{j} (\omega^{i}, \omega^{j})_{2} = \sum\limits_{i = 1}^{n} | \alpha_{i} |^{2}[/mm]
>
> Na nun hast du ein Orthonormalsystem [mm]\{ \omega^{1}, \ldots, \omega^{n} \} \subset \mathbb{K}^{n[/mm]
>  
> Was bedeutet das fuer einen beliebigen Vektor [mm]x \in \mathbb{K}^{n [/mm]?
>  
> Das setzt du dann mal in [mm](x,x)_2[/mm] ein.


Mein Problem ist eher, dass ich die Summe nicht vereinfachen kann.

Wenn ich $x$ mal als $n$ - Tupel schreibe, dann habe ich doch

$x = [mm] \left(\begin{array}{c}\sum\Limits_{i = 1}^{n} \alpha_{i} \omega_{1}^{i}\\ \sum\Limits_{i = 1}^{n} \alpha_{i} \omega_{2}^{i} \\ \vdots \\ \sum\Limits_{i = 1}^{n} \alpha_{i} \omega_{n}^{i}\end{array}\right)$ [/mm]


Dann ist $|| x [mm] ||_{2}^{2} [/mm] = (x, [mm] x)_{2} [/mm] = [mm] \sum\Limits_{k = 1}^{n} \left ( \sum\Limits_{i = 1}^{n} \alpha_{i} \cdot \omega_{k}^{i} \cdot \overline{\sum\Limits_{i = 1}^{n} \alpha_{i} \cdot \omega_{k}^{i}} \right [/mm] ) = [mm] \sum\Limits_{k = 1}^{n} \left ( \sum\Limits_{i = 1}^{n} \alpha_{i} \cdot \omega_{k}^{i} \cdot \sum\Limits_{i = 1}^{n} \overline{ \alpha_{i} \cdot \omega_{k}^{i}} \right [/mm] )$


Mehr weiß ich auch nicht, wie ich diesen Ausdruck weiter vereinfachen kann, so dass irgendwann ein [mm] $\overline{\alpha_{j}}$ [/mm] auftaucht.



Die Frage mit dem Skalarprodukt hat sich nun  geklärt. Vielen Dank :-)

Liebe Grüße,

teskiro

Bezug
                                                                                        
Bezug
Matrixnorm (Beweis verstehen): Antwort
Status: (Antwort) fertig Status 
Datum: 16:19 Di 31.12.2019
Autor: Gonozal_IX

Hiho,

> > > Ich denke, sie meinen mit der Eigenwertschranke die
> > Ungleichung
>  >  >  
> > >
> > > [mm]| \lambda | \le || A ||[/mm] , wobei [mm]\lambda \in \mathbb{K}, A \in \mathbb{K}^{n \times n}[/mm].
> > > Diese Ungleichung ist im Skript enthalten.
>  >  Ja, ist dir auch klar, wieso diese Ungleichung
> eigentlich
> > trivialerweise gilt (fuer jede induzierte Matrixnorm) und
> > wieso daraus die Behauptung folgt?
>  
> Ja, das ist mir klar.
>  
>
> Sei [mm]\lambda \in \mathbb{K}[/mm] ein Eigenwert der Matrix [mm]A \in \mathbb{K}^{n \times n}[/mm].
>  
> Dann gilt für einen beliebigen Eigenvektor [mm]\omgea[/mm]  von
> [mm]\lambda[/mm]:
>  
>
> [mm]| \lambda | \cdot || \omega || = || \lambda \cdot \omega || = || A \omega || \le || A || \cdot || \omega ||[/mm]
>  
>
> Und wenn man nun durch [mm]|| \omega ||[/mm] teilt, erhält man [mm]| \lambda | \le || A ||[/mm]

Ja, es fehlt aber, wieso daraus nun folgt $|| A || = [mm] \max_i |\lambda_i|$ [/mm]


> >  > 1)   Warum existiert ein zugehöriges

> > "Orthonormalsystem" von Eigenvektoren
>  >  Das folgt aus dem
> > []Spektralsatz
> > bzw. einem Spezialfall davon, der besagt: Bei symmetrischen
> > / hermitischen Matrizzen stehen Eigentvektoren zu versch.
> > Eigenwerten orthogonal zueinander. Normierst du diese dann,
> > hast du ein Orthonormalsystem.
>  >  
> > Also laesst sich deine Frage
>  >  > Ist das speziell  für hermitesche Matrizen so?

>  >  mit ja beantworten.
>  
>
> Okay, Dankeschön! Ich verstehe nur nicht, warum sich [mm]x[/mm] so
> schreiben lässt:
>  
> [mm]x = \sum\Limits_{i = 1}^{n} \alpha_{i} \omega^{i}[/mm] mit
> [mm]\Alpha_{i} = (x, \omega^{i})_{2}[/mm]  schreiben lässt.
>  
> Ich meine, dass [mm]x[/mm] sich als Linearkombination einer ONB
> darstellen lässt, ist mir klar. Aber warum ist hier  unser
> Skalar [mm]\alpha_{i}[/mm]  gegeben durch [mm](x, \omega^{i})_{2}[/mm] ?

Dann formulier die Frage doch nächste Mal so :-)

Sei also nun $x =  [mm] \sum\Limits_{i = 1}^{n} \alpha_{i} \omega^{i}$ [/mm] unsere Darstellung zur gewählten Basis, d.h. wir wissen erst mal zwar, dass es solche [mm] \alpha_i [/mm] gibt, aber nicht, wie diese aussehen (PS: du brauchst bei [mm] $\LaTeX$-Befehlen [/mm] kein \Limits angeben, außer du willst im Fließtext die Grenzen korrekt positioniert haben. Hier im Forum wird aber jeder [mm] $\LaTeX$-Code [/mm] wie in einer Mathe-Umgebung gerendert, d.h. normal brauchst du das nicht).

Nun berechne mal das Skalarprodukt von $x$ mit einem Basisvektor [mm] $\omega^i$ [/mm] und zwar nur mit dem Wissen, dass $(x,x)$ ein Skalarprodukt ist und du eine Orthonormalbasis hast. Wie $(x,x)$ dabei konkret aussieht, ist völlig egal und wird hier nicht benötigt.

> > > 2) Warum gilt [mm]|| x ||^{2}_{2} = (x, x)_{2} = \sum\limits_{i,j = 1}^{n} \alpha_{i} \overline{\alpha}_{j} (\omega^{i}, \omega^{j})_{2} = \sum\limits_{i = 1}^{n} | \alpha_{i} |^{2}[/mm]
> >
> > Na nun hast du ein Orthonormalsystem [mm]\{ \omega^{1}, \ldots, \omega^{n} \} \subset \mathbb{K}^{n[/mm]
>  
> >  

> > Was bedeutet das fuer einen beliebigen Vektor [mm]x \in \mathbb{K}^{n [/mm]?
>  
> >  

> > Das setzt du dann mal in [mm](x,x)_2[/mm] ein.
>  
>
> Mein Problem ist eher, dass ich die Summe nicht
> vereinfachen kann.
>  
> Wenn ich [mm]x[/mm] mal als [mm]n[/mm] - Tupel schreibe, dann habe ich doch
>
> [mm]x = \left(\begin{array}{c}\sum\Limits_{i = 1}^{n} \alpha_{i} \omega_{1}^{i}\\ \sum\Limits_{i = 1}^{n} \alpha_{i} \omega_{2}^{i} \\ \vdots \\ \sum\Limits_{i = 1}^{n} \alpha_{i} \omega_{n}^{i}\end{array}\right)[/mm]
>  
>
> Dann ist [mm]|| x ||_{2}^{2} = (x, x)_{2} = \sum\Limits_{k = 1}^{n} \left ( \sum\Limits_{i = 1}^{n} \alpha_{i} \cdot \omega_{k}^{i} \cdot \overline{\sum\Limits_{i = 1}^{n} \alpha_{i} \cdot \omega_{k}^{i}} \right ) = \sum\Limits_{k = 1}^{n} \left ( \sum\Limits_{i = 1}^{n} \alpha_{i} \cdot \omega_{k}^{i} \cdot \sum\Limits_{i = 1}^{n} \overline{ \alpha_{i} \cdot \omega_{k}^{i}} \right )[/mm]
>  
>
> Mehr weiß ich auch nicht, wie ich diesen Ausdruck weiter
> vereinfachen kann, so dass irgendwann ein
> [mm]\overline{\alpha_{j}}[/mm] auftaucht.

Schmu, du denkst zu sehr im Standardskalarprodukt.
Das ist hier aber gar nicht notwendig, die Identität gilt für jedes beliebige Skalarprodukt!!

Hier ebenso: Berechne doch mal $(x,x)$ nur mit Hilfe der Kenntnisse darüber, dass $(x,x)$ ein Skalarprodukt ist.
Grundsätzlich gilt: Versuche immer erst so weit wie möglich allgemein zu vereinfachen bevor du die Definition des Skalarprodukts verwendest. Dann wirst du nämlich merken, dass die konkrete Wahl deines Skalarprodukts völlig egal ist....

Gruß,
Gono

Bezug
                                                                                                
Bezug
Matrixnorm (Beweis verstehen): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 23:02 Di 31.12.2019
Autor: teskiro


> Hiho,
>  
> > > > Ich denke, sie meinen mit der Eigenwertschranke die
> > > Ungleichung
>  >  >  >  
> > > >
> > > > [mm]| \lambda | \le || A ||[/mm] , wobei [mm]\lambda \in \mathbb{K}, A \in \mathbb{K}^{n \times n}[/mm].
> > > > Diese Ungleichung ist im Skript enthalten.
>  >  >  Ja, ist dir auch klar, wieso diese Ungleichung
> > eigentlich
> > > trivialerweise gilt (fuer jede induzierte Matrixnorm) und
> > > wieso daraus die Behauptung folgt?
>  >  
> > Ja, das ist mir klar.
>  >  
> >
> > Sei [mm]\lambda \in \mathbb{K}[/mm] ein Eigenwert der Matrix [mm]A \in \mathbb{K}^{n \times n}[/mm].
>  
> >  

> > Dann gilt für einen beliebigen Eigenvektor [mm]\omgea[/mm]  von
> > [mm]\lambda[/mm]:
>  >  
> >
> > [mm]| \lambda | \cdot || \omega || = || \lambda \cdot \omega || = || A \omega || \le || A || \cdot || \omega ||[/mm]
>  
> >  

> >
> > Und wenn man nun durch [mm]|| \omega ||[/mm] teilt, erhält man [mm]| \lambda | \le || A ||[/mm]
>  
> Ja, es fehlt aber, wieso daraus nun folgt [mm]|| A || = \max_i |\lambda_i|[/mm]
>  
>

> Dann formulier die Frage doch nächste Mal so :-)
>  
> Sei also nun [mm]x = \sum\Limits_{i = 1}^{n} \alpha_{i} \omega^{i}[/mm]
> unsere Darstellung zur gewählten Basis, d.h. wir wissen
> erst mal zwar, dass es solche [mm]\alpha_i[/mm] gibt, aber nicht,
> wie diese aussehen (PS: du brauchst bei [mm]\LaTeX[/mm]-Befehlen
> kein [mm][code]\Limits[/code][/mm] angeben, außer du willst im
> Fließtext die Grenzen korrekt positioniert haben. Hier im
> Forum wird aber jeder [mm]\LaTeX[/mm]-Code wie in einer
> Mathe-Umgebung gerendert, d.h. normal brauchst du das
> nicht).
>  
> Nun berechne mal das Skalarprodukt von [mm]x[/mm] mit einem
> Basisvektor [mm]\omega^i[/mm] und zwar nur mit dem Wissen, dass
> [mm](x,x)[/mm] ein Skalarprodukt ist und du eine Orthonormalbasis
> hast. Wie [mm](x,x)[/mm] dabei konkret aussieht, ist völlig egal
> und wird hier nicht benötigt

Okay, ich habe dann:


[mm] $(x,\omega^{i})_{2} [/mm] = [mm] \left ( \sum\limits_{i = 1}^{n} \alpha_{i} \omega^{i}, \omega^{i} \right )_{2} [/mm] = [mm] \alpha_{1}\cdot (\omega^{1}, \omega^{i})_{2} [/mm] + [mm] \alpha_{2}\cdot (\omega^{2}, \omega^{i})_{2} [/mm] + [mm] \ldots [/mm] + [mm] \alpha_{n}\cdot (\omega^{n}, \omega^{i})_{2} [/mm] = [mm] \sum\limits_{j = 1}^{n} \alpha_{j} (\omega^{j}, \omega^{i})_{2} [/mm] = [mm] \sum\limits_{j = 1}^{n} \alpha_{j} \delta_{ij} [/mm] = [mm] \alpha_{i}$ [/mm]


Also ja, ich sehe schon, da kommt $ [mm] \alpha_{i}$ [/mm] heraus :-)

Das heißt, dass die Skalare bei einer Linearkombination von einer ONB immer die Gestalt $(x, [mm] \omega^{i})_{2}$ [/mm] haben, oder ?

>  
> > > > 2) Warum gilt [mm]|| x ||^{2}_{2} = (x, x)_{2} = \sum\limits_{i,j = 1}^{n} \alpha_{i} \overline{\alpha}_{j} (\omega^{i}, \omega^{j})_{2} = \sum\limits_{i = 1}^{n} | \alpha_{i} |^{2}[/mm]
> > >
> > > Na nun hast du ein Orthonormalsystem [mm]\{ \omega^{1}, \ldots, \omega^{n} \} \subset \mathbb{K}^{n[/mm]
>  
> >  

> > >  

> > > Was bedeutet das fuer einen beliebigen Vektor [mm]x \in \mathbb{K}^{n [/mm]?
>  
> >  

> > >  

> > > Das setzt du dann mal in [mm](x,x)_2[/mm] ein.
>  >  
> >
> > Mein Problem ist eher, dass ich die Summe nicht
> > vereinfachen kann.
>  >  
> > Wenn ich [mm]x[/mm] mal als [mm]n[/mm] - Tupel schreibe, dann habe ich doch
> >
> > [mm]x = \left(\begin{array}{c}\sum\Limits_{i = 1}^{n} \alpha_{i} \omega_{1}^{i}\\ \sum\Limits_{i = 1}^{n} \alpha_{i} \omega_{2}^{i} \\ \vdots \\ \sum\Limits_{i = 1}^{n} \alpha_{i} \omega_{n}^{i}\end{array}\right)[/mm]
>  
> >  

> >
> > Dann ist [mm]|| x ||_{2}^{2} = (x, x)_{2} = \sum\Limits_{k = 1}^{n} \left ( \sum\Limits_{i = 1}^{n} \alpha_{i} \cdot \omega_{k}^{i} \cdot \overline{\sum\Limits_{i = 1}^{n} \alpha_{i} \cdot \omega_{k}^{i}} \right ) = \sum\Limits_{k = 1}^{n} \left ( \sum\Limits_{i = 1}^{n} \alpha_{i} \cdot \omega_{k}^{i} \cdot \sum\Limits_{i = 1}^{n} \overline{ \alpha_{i} \cdot \omega_{k}^{i}} \right )[/mm]
>  
> >  

> >
> > Mehr weiß ich auch nicht, wie ich diesen Ausdruck weiter
> > vereinfachen kann, so dass irgendwann ein
> > [mm]\overline{\alpha_{j}}[/mm] auftaucht.
>  Schmu, du denkst zu sehr im Standardskalarprodukt.
>  Das ist hier aber gar nicht notwendig, die Identität gilt
> für jedes beliebige Skalarprodukt!!
>  
> Hier ebenso: Berechne doch mal [mm](x,x)[/mm] nur mit Hilfe der
> Kenntnisse darüber, dass [mm](x,x)[/mm] ein Skalarprodukt ist.
> Grundsätzlich gilt: Versuche immer erst so weit wie
> möglich allgemein zu vereinfachen bevor du die Definition
> des Skalarprodukts verwendest. Dann wirst du nämlich
> merken, dass die konkrete Wahl deines Skalarprodukts
> völlig egal ist....




Hier versuche ich das selbe und bekomme:



$|| x [mm] ||_{2}^{2} [/mm] = (x, [mm] x)_{2} [/mm] = [mm] \left ( \sum\limits_{i = 1}^{n} \alpha_{i} \omega^{i}, \sum\limits_{i = 1}^{n} \alpha_{i} \omega^{i} \right [/mm] ) =  [mm] \sum\limits_{i = 1}^{n} \alpha_{i} \cdot \left ( \omega^{i}, \sum\limits_{j = 1}^{n} \alpha_{j} \omega^{j} \right [/mm] ) =  [mm] \sum\limits_{i = 1}^{n} \alpha_{i} \cdot \overline{\left ( \sum\limits_{j = 1}^{n} \alpha_{j} \omega^{j}, \omega^{i} \right ) }= \sum\limits_{i = 1}^{n} \alpha_{i} \cdot \overline{\sum\limits_{j = 1}^{n} \alpha_{j} \cdot \left ( \omega^{j}, \omega^{i} \right ) } [/mm] = [mm] \sum\limits_{i = 1}^{n} \alpha_{i} \cdot \sum\limits_{j = 1}^{n} \overline{\alpha_{j} \cdot \underbrace{\left ( \omega^{j}, \omega^{i} \right ) }_{\in \mathbb{N}_{0}}} [/mm] = [mm] \sum\limits_{i = 1}^{n} \alpha_{i} \cdot \sum\limits_{j = 1}^{n} \overline{\alpha_{j}} \cdot \left ( \omega^{j}, \omega^{i} \right [/mm] )  = [mm] \sum\limits_{i = 1}^{n} \alpha_{i} \cdot \sum\limits_{j = 1}^{n} \overline{\alpha_{j}} \cdot \left ( \omega^{i}, \omega^{j} \right [/mm] )  $

Ist es das selbe ? Ich verstehe nicht ganz den Ausdruck [mm] $\sum\Limits_{i,j = 1}^{n} \alpha_{i} \overline{a_{j}} (\omega^{i}, \omega^{j})_{2}$ [/mm]

Wie ist das Summenzeichen mit dem Doppelindex zu lesen ?  



Passt das ?



Lg,

teskiro

Bezug
                                                                                                        
Bezug
Matrixnorm (Beweis verstehen): Antwort
Status: (Antwort) fertig Status 
Datum: 23:34 Di 31.12.2019
Autor: Gonozal_IX

Hiho,

> Das heißt, dass die Skalare bei einer Linearkombination von einer ONB immer die Gestalt $ (x, [mm] \omega^{i})_{2} [/mm] $ haben, oder ?

Korrekt.

>Ist es das selbe ?
Ja

> Wie ist das Summenzeichen mit dem Doppelindex zu lesen ?

Es ist für den faulen Mathematiker $ [mm] \sum\Limits_{i,j = 1}^{n} [/mm]  =  [mm] \sum\Limits_{i= 1}^{n} \sum\Limits_{j = 1}^{n}$ [/mm]

Gruß,
Gono

Bezug
                                                                                                                
Bezug
Matrixnorm (Beweis verstehen): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 03:02 Mi 01.01.2020
Autor: teskiro

Okay, danke für dein Feedback :-)

Ich hätte noch 4 letzte Fragen:



1. Frage
_______

Da ich nun weiß, wie man $|| x [mm] ||_{2}^{2}$ [/mm] berechnet, ist die  Berechnung von $|| Ax [mm] ||_{2}^{2}$ [/mm] kein Problem.


Es ist nämlich, 


$|| Ax [mm] ||{2}^{2} [/mm] = (Ax, Ax){2} = [mm] \left ( A \cdot \sum\limits_{i = 1}^{n} \alpha_{i} \omega^{i}, A \cdot \sum\limits_{i = 1}^{n} \alpha_{i} \omega^{i}  \right [/mm] ){2} = [mm] \left ( \sum\limits{i = 1^{n}} \alpha_{i} \cdot  A \cdot \omega^{i}, \sum\limits_{i = 1}^{n} \alpha_{i} \cdot  A \cdot \omega^{i} \right [/mm] ){2}  = [mm]  \left ( \sum\limits{i = 1}^{n} \alpha_{i}  \lambda_{i} \omega^{i}, \sum\limits_{i = 1}^{n} \alpha_{i}  \lambda_{i} \omega^{i} \right )_{2}$ [/mm]


$ = [mm] \sum\limits_{i = 1}^{n} \alpha_{i} \lambda_{i} \left ( \omega^{i},  \sum\limits_{j =1}^{n} \alpha_{j}  \lambda_{j} \omega^{j}\right [/mm] ) = [mm]  \sum\limits_{i = 1}^{n} \alpha_{i} \lambda_{i} \overline{\left ( \sum\limits_{j = 1}^{n} \alpha_{j}  \lambda_{j} \omega^{j}, \omega^{i}\right )} [/mm] = [mm] \sum\limits_{i = 1}^{n} \alpha_{i} \lambda_{i}  \overline{\sum\limits_{j = 1}^{n} \alpha_{j}  \lambda_{j} \cdot \left (  \omega^{j}, \omega^{i}\right )} [/mm] = [mm] \sum\limits_{i = 1}^{n} \alpha_{i} \lambda_{i}  \sum\limits_{j = 1}^{n} \overline{\alpha_{j}  \lambda_{j}} \cdot \left (  \omega^{j}, \omega^{i}\right [/mm] ) = [mm] \sum\limits_{i = 1}^{n} \sum\limits_{j = 1}^{n} \alpha_{j}  \lambda_{j} \cdot \overline{\alpha_{j}  \lambda_{j}} [/mm] = [mm] \sum\limits_{i = 1}^{n} \vert \alpha_{i}  \lambda_{i} \vert^{2} [/mm]  $

Im Skript ist das Endergebnis aber $ [mm] \sum\limits_{i = 1}^{n} \lambda_{i}^{2} \cdot \vert \alpha_{i}  \vert^{2}$. [/mm]


Die Frage ist nun:  Wieso zieht man das [mm] $\lambda_{i}$ [/mm] aus dem Betrag ? Welchen Sinn hat das ?


2. Frage
________

Am Ende haben wir dann:


$|| A [mm] ||_{2}^{2} [/mm] = [mm] \sup\limits_{x \in \mathbb{K}^{n}\setminus \{ 0 \}} \frac{|| Ax ||_{2}^{2} }{|| x ||_{2}^{2} } [/mm] = [mm]  \sup\limits_{x \in \mathbb{K}^{n} \setminus \{ 0 \}} \frac{\sum\limits_{i = 1}^{n} \lambda_{i}^{2} \cdot \vert \alpha_{i}  \vert^{2} }{\sum\limits_{i = 1}^{n}  \cdot \vert \alpha_{i}  \vert^{2}} \le \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert^{2} \quad \vert \quad \sqrt{}$ [/mm]


[mm] $\Leftrightarrow [/mm] || A [mm] ||_{2} \le \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert$ [/mm]

Die Frage hierzu lautet:  Wie sieht man, dass [mm] $\sup\limits_{x \in \mathbb{K}^{n} \setminus \{ 0 \}} \frac{\sum\limits_{i = 1}^{n} \lambda_{i}^{2} \cdot \vert \alpha_{i}  \vert^{2} }{\sum\limits_{i = 1}^{n}  \cdot \vert \alpha_{i}  \vert^{2}} \le \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert^{2}$ [/mm] gilt ?


Das ist mir noch nicht ganz klar.







3. Frage
________


Als ich die Ungleichung [mm] $\vert \lambda \vert \le [/mm] || A ||$ gezeigt habe, hast du gemeint, dass noch die Begründung fehlt, warum   $|| A || = [mm] \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert$ [/mm] folgt.

Ich könnte nicht erklären, warum diese Gleichung gilt.

Ich meine, es ist offensichtlich [mm] $\vert \lambda_{i} \vert \le \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \le [/mm] || A ||$.

Weil wenn die Ungleichung  [mm] $\vert \lambda \vert \le [/mm] || A ||$ für jeden Eigenwert [mm] $\lambda_{i}$ [/mm] von $A$ gilt, dann gilt sie auch für den maximalen Eigenwert [mm] $\max\limits_{1 \le i \le n } \vert \lambda_{i} \vert$ [/mm] von $A$.


Aber ich weiß nicht, warum $|| A || = [mm] \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert$ [/mm] gilt.



Aber wenn man die Gleichheit $|| A || = [mm] \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert$ [/mm] anhand der obigen Ungleichung folgern kann, warum ist es dann notwendig, die Gleichung $|| A [mm] ||_{2} [/mm] = [mm] \max \{ | \lambda |,\; \lambda\; \text{Eigenwert von A} \}$ [/mm] zu zeigen?

Wenn die Gleichung  $|| A || = [mm] \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert$ [/mm] für eine allgemeine Norm gilt,dann gilt sie auch für $|| A [mm] ||_{2}$. [/mm]

Aber nach der Logik wäre ja auch $|| A [mm] ||_{\infty} [/mm] = [mm] \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert$. [/mm]  Daher habe ich irgendwo einen Denkfehler.


4. Frage
_______



Wir haben nun $|| A [mm] ||_{2} \le \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert$. [/mm]


Wir haben weiter oben herausgefunden, dass [mm] $\vert \lambda_{i} \vert \le \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \le [/mm] || A ||$ gilt.

Wenn diese Ungleichung für eine beliebigen Norm gilt, dann gilt sie auch die die $2 - Norm$, also [mm] $\vert \lambda_{i} \vert \le \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \le [/mm] || A [mm] ||_{2}$. [/mm] Stimmt es ?


Damit haben wir

$|| A [mm] ||_{2} \le \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert$ [/mm] und $|| A [mm] ||_{2} \ge \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert$ [/mm] und der Beweis ist vollbracht.



Stimmt die Argumentation so ?




Das wären die letzten Fragen, die ich noch habe. Ich bedanke mich schon im Voraus und wünsche dir ein frohes neues Jahr! :-) 




Lg,

Teskiro




Ach und noch was: Neben deinem Namen stehen 3 von 7 Sterne. Was bedeuten diese Sterne eigentlich ?

Bezug
                                                                                                                        
Bezug
Matrixnorm (Beweis verstehen): Antwort
Status: (Antwort) fertig Status 
Datum: 14:28 Mi 01.01.2020
Autor: Gonozal_IX

Hiho,

> Ich hätte noch 4 letzte Fragen:

na das glaube ich noch nicht, dass es die letzten sind...

> Im Skript ist das Endergebnis aber [mm]\sum\limits_{i = 1}^{n} \lambda_{i}^{2} \cdot \vert \alpha_{i}  \vert^{2}[/mm].
>  
>
> Die Frage ist nun:  Wieso zieht man das [mm]\lambda_{i}[/mm] aus dem
> Betrag ? Welchen Sinn hat das ?

Es sieht schöner aus... und weil das die Abschätzung unten klarer macht.

> Die Frage hierzu lautet:  Wie sieht man, dass
> [mm]\sup\limits_{x \in \mathbb{K}^{n} \setminus \{ 0 \}} \frac{\sum\limits_{i = 1}^{n} \lambda_{i}^{2} \cdot \vert \alpha_{i}  \vert^{2} }{\sum\limits_{i = 1}^{n}  \cdot \vert \alpha_{i}  \vert^{2}} \le \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert^{2}[/mm]
> gilt ?
>  
>
> Das ist mir noch nicht ganz klar.

Nehmen wir mal deine erste Frage hier im Thread, dort schriebst du, dass dir folgende Abschätzung klar ist.

> $ [mm] \vert \vert [/mm] A x [mm] \vert \vert_{\infty} [/mm] = [mm] \max\limits_{1 \le j \le n} \left \vert \sum\limits_{k = 1}^{n} a_{jk} x_{k} \right \vert \le \max\limits_{1 \le j \le n} \sum\limits_{k = 1}^{n} \vert a_{jk} \vert \cdot \max\limits_{1 \le k \le n} \vert x_{k} \vert [/mm] = [mm] \vert \vert [/mm] A [mm] \vert \vert_{\infty} \cdot \vert \vert [/mm] x [mm] \vert \vert_{\infty} [/mm] $

Wieso gilt hier die erste Ungleichung? Wie wurde da abgeschätzt? Die selbe Abschätzung macht man hier mit den [mm] $\lambda_i$. [/mm]

Sowas solltest du in der Zwischenzeit aber selbst sehen. Das sind triviale Abschätzungen, die immer wieder vorkommen....

> Ich meine, es ist offensichtlich [mm]\vert \lambda_{i} \vert \le \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \le || A ||[/mm].
>  
> Weil wenn die Ungleichung  [mm]\vert \lambda \vert \le || A ||[/mm]
> für jeden Eigenwert [mm]\lambda_{i}[/mm] von [mm]A[/mm] gilt, dann gilt sie
> auch für den maximalen Eigenwert [mm]\max\limits_{1 \le i \le n } \vert \lambda_{i} \vert[/mm]
> von [mm]A[/mm].

[ok]


> Aber ich weiß nicht, warum [mm]|| A || = \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert[/mm] gilt.
>
>
>
> Aber wenn man die Gleichheit [mm]|| A || = \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert[/mm] anhand der obigen Ungleichung folgern kann, warum ist es
> dann notwendig, die Gleichung [mm]|| A ||_{2} = \max \{ | \lambda |,\; \lambda\; \text{Eigenwert von A} \}[/mm]
> zu zeigen?

Gute Frage und aufpassen:

Die Ungleichung $ [mm] \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \le [/mm] ||A||$ gilt für jede verträgliche beliebige Matrixnorm, weil sie aus der Verträglichkeit folgt.

Die Umgekehrte Ungleichung haben wir aber nur für die [mm] $||\cdot||_2$-Norm [/mm] gefolgert, weil du an einer einzigen Stelle explizit die 2-Norm einsetzt. An welcher?

D.h. für die 2-Norm gilt $ [mm] \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \le [/mm] ||A||$, weil diese Abschätzung für alle Matrixnormen gilt, und explizit für die 2-Norm gilt $ [mm] \max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \ge ||A||_2$, [/mm] d.h. nur für die 2-Norm gilt Gleichheit.

(Daraus folgt übrigens, dass die 2-Norm die kleinste aller Matrixnormen ist, siehst du es?)

> Stimmt die Argumentation so ?

Ja, dann stimmt es

> Ach und noch was: Neben deinem Namen stehen 3 von 7 Sterne.
> Was bedeuten diese Sterne eigentlich ?

Das sind nicht 3 von 7 Sternen, sondern 7 blaue Sterne, von denen 3 gelb sind.
Siehe dazu: Rollenverteilung

Gruß,
Gono


Bezug
                                                                                                                                
Bezug
Matrixnorm (Beweis verstehen): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 17:10 Mi 01.01.2020
Autor: teskiro

Okay, ich denke ich hab's.


Es ist [mm] $\sup\limits_{x \in \mathbb{K}^{n} \setminus \{ 0 \}} \frac{\sum\limits_{i = 1}^{n} \lambda_{i}^{2} \cdot \vert \alpha_{i} \vert^{2} }{\sum\limits_{i = 1}^{n} \cdot \vert \alpha_{i} \vert^{2}} \le \sup\limits_{x \in \mathbb{K}^{n} \setminus \{ 0 \}} \frac{\sum\limits_{i = 1}^{n} \max\limits_{1 \le i \le n} \lambda_{i}^{2} \cdot \vert \alpha_{i} \vert^{2} }{\sum\limits_{i = 1}^{n} \cdot \vert \alpha_{i} \vert^{2}} [/mm]  = [mm] \sup\limits_{x \in \mathbb{K}^{n} \setminus \{ 0 \}} \frac{ \max\limits_{1 \le i \le n} \lambda_{i}^{2} \cdot \sum\limits_{i = 1}^{n} \vert \alpha_{i} \vert^{2} }{\sum\limits_{i = 1}^{n} \cdot \vert \alpha_{i} \vert^{2}} [/mm] =  [mm] \sup\limits_{x \in \mathbb{K}^{n} \setminus \{ 0 \}} \frac{ \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert^{2} \cdot \sum\limits_{i = 1}^{n} \vert \alpha_{i} \vert^{2} }{\sum\limits_{i = 1}^{n} \cdot \vert \alpha_{i} \vert^{2}} [/mm] =  [mm] \sup\limits_{x \in \mathbb{K}^{n} \setminus \{ 0 \}} \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert^{2} [/mm] = [mm] \max\limits_{1 \le i \le n} \vert \lambda_{i} \vert^{2}$ [/mm]



Passt so?



> Die Umgekehrte Ungleichung haben wir aber nur für die
> [mm]||\cdot||_2[/mm]-Norm gefolgert, weil du an einer einzigen
> Stelle explizit die 2-Norm einsetzt. An welcher?


Das sehe ich leider nicht und ich habe mich deswegen auch schon gefragt, wo hier die 2 - Norm eine Rolle spielt.

Ich meine, um die Gleichungen

$|| x [mm] ||_{2}^{2} [/mm] = [mm] \sum\limits_{ i = 1}^{n} \vert \alpha_{i} \vert^{2}$ [/mm]

$|| Ax [mm] ||_{2}^{2} [/mm] = [mm] \sum\limits_{ i = 1}^{n} \lambda_{i}^{2} \vert \alpha_{i} \vert^{2}$ [/mm]

haben wir nur die Eigenschaften eines Skalarprodukts gezeigt. Wir haben nirgends das euklidische Skalarprodukt eingesetzt.

Das heißt, es gilt auch:


$|| x [mm] ||^{2} [/mm] = [mm] \sum\limits_{ i = 1}^{n} \vert \alpha_{i} \vert^{2}$ [/mm]

$|| Ax [mm] ||^{2} [/mm] = [mm] \sum\limits_{ i = 1}^{n} \lambda_{i}^{2} \vert \alpha_{i} \vert^{2}$ [/mm]


oder etwa nicht?



> D.h. für die 2-Norm gilt [mm]\max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \le ||A||[/mm],
> weil diese Abschätzung für alle Matrixnormen gilt, und
> explizit für die 2-Norm gilt [mm]\max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \ge ||A||_2[/mm],
> d.h. nur für die 2-Norm gilt Gleichheit.

Du schreibst, dass nur für die $2$ - Norm Gleichheit gilt. Müsste man das "nur" nicht weglassen und lieber sagen, dass die Gleichheit für die $2$ - Norm gilt?

Weil es kann z.B. auch sein, dass die Gleichheit für die $17$ - Norm gilt. Kann man nicht wissen, oder ?


> (Daraus folgt übrigens, dass die 2-Norm die kleinste aller
> Matrixnormen ist, siehst du es?)


Ich denke schon.

Wir haben für eine beliebige Matrixnorm die Ungleichung [mm] $\max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \le [/mm] ||A||$.


Und da [mm] $\max\limits_{1 \le i \le n } \vert \lambda_{i} \vert [/mm] = [mm] ||A||_{2}$ [/mm] gilt, gilt logischerweise auch [mm] $||A||_{2} \le [/mm]  ||A||$ für jede Matrixnnorm.



> Das sind nicht 3 von 7 Sternen, sondern 7 blaue Sterne, von
> denen 3 gelb sind.
>  Siehe dazu: Rollenverteilung


Okay, vielen Dank. Hat mich nämlich neugierig gemacht.


Lg,


Teskiro

Bezug
                                                                                                                                        
Bezug
Matrixnorm (Beweis verstehen): Antwort
Status: (Antwort) fertig Status 
Datum: 18:02 Mi 01.01.2020
Autor: Gonozal_IX

Hiho,

> Okay, ich denke ich hab's.
> Passt so?

[ok]

> Das sehe ich leider nicht und ich habe mich deswegen auch
> schon gefragt, wo hier die 2 - Norm eine Rolle spielt.
>  
> Ich meine, um die Gleichungen
>  
> [mm]|| x ||_{2}^{2} = \sum\limits_{ i = 1}^{n} \vert \alpha_{i} \vert^{2}[/mm]
>  
> [mm]|| Ax ||_{2}^{2} = \sum\limits_{ i = 1}^{n} \lambda_{i}^{2} \vert \alpha_{i} \vert^{2}[/mm]
>  
> haben wir nur die Eigenschaften eines Skalarprodukts
> gezeigt. Wir haben nirgends das euklidische Skalarprodukt
> eingesetzt.

Ja das stimmt zwar, aber nun wird es interessant (und es war gut, dass du die Frage gestellt hast):
Bereits um die erste Gleichung

> [mm]|| x ||_{2}^{2} = \sum\limits_{ i = 1}^{n} \vert \alpha_{i} \vert^{2}[/mm]

zu zeigen, beginnst du mit der Identität [mm] $||x||_2 [/mm] = [mm] (x,x)_2$, [/mm] d.h. du nutzt, dass die Norm von einem Skalarprodukt induziert ist.

Dies gilt aber für eine p-Norm genau dann, wenn $p=2$, d.h. nur die euklidische Norm ist unter allen p-Normen durch ein Skalarprodukt induziert.
Ganz allgemein nennt man so eine Norm []Skalarproduktnorm. Umgekehrt kann man zeigen, dass eine Norm genau dann eine Skalarproduktnorm ist, wenn sie die []Paralellogrammgleichung erfüllt.

Du kannst ja zur Übung mal zeigen, dass im [mm] $\IR^2$ [/mm] unter allen p-Normen dies nur für die 2-Norm gilt.
Der Beweis im [mm] \IR^n [/mm] ist analog und nur mehr Schreibarbeit.

> Du schreibst, dass nur für die [mm]2[/mm] - Norm Gleichheit gilt.
> Müsste man das "nur" nicht weglassen und lieber sagen,
> dass die Gleichheit für die [mm]2[/mm] - Norm gilt?

Formal hast du völlig recht.
  

> Weil es kann z.B. auch sein, dass die Gleichheit für die
> [mm]17[/mm] - Norm gilt. Kann man nicht wissen, oder ?

Ja, nach obigem kann man fuer alle [mm] $p\not=2$ [/mm] keine Aussage machen.
Mehr noch: Man weiß, dass die Gleichheit für alle Skalarproduktnormen gilt.
Und es gibt durchaus mehr als ein Skalarprodukt auf [mm] $\IR^n$ [/mm] und demzufolge auch mehr als eine induzierte Norm, für die die Gleichheit dann gilt.

> > (Daraus folgt übrigens, dass die 2-Norm die kleinste aller
> > Matrixnormen ist, siehst du es?)
>  
>
> Ich denke schon.
>  
> Wir haben für eine beliebige Matrixnorm die Ungleichung
> [mm]\max\limits_{1 \le i \le n } \vert \lambda_{i} \vert \le ||A||[/mm].
>  
>
> Und da [mm]\max\limits_{1 \le i \le n } \vert \lambda_{i} \vert = ||A||_{2}[/mm]
> gilt, gilt logischerweise auch [mm]||A||_{2} \le ||A||[/mm] für
> jede Matrixnnorm.

[ok]

Gruß,
Gono

Bezug
                                                                                                                                                
Bezug
Matrixnorm (Beweis verstehen): Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 01:20 Do 02.01.2020
Autor: teskiro

Okay, ich denke,  ich habe alles verstanden. Ich bedanke mich noch einmal herzlich bei dir. Du warst eine sehr große Hilfe.

Liebe Grüße,

Teskiro

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Numerik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de