Für die Vektornorm ist die L2-Norm oder "Euklidische Distanz" die weit verbreitete und intuitive Definition. Aber warum ist die "meistverwendete" oder "Standard" -Normdefinition für eine Matrix die Spektralnorm , nicht aber die Frobenius-Norm (die der L2-Norm für Vektoren ähnelt)?
Hat das etwas mit iterativen Algorithmen / Matrixleistungen zu tun (wenn der Spektralradius kleiner als 1 ist, konvergiert der Algorithmus)?
Es ist immer für die Wörter wie "am häufigsten verwendet", "Standard" zu argumentieren. Das oben erwähnte Wort "default" kommt von der Standardrückgabetype in
Matlab
functionnorm
. InR
der Standardnorm für Matrix ist L1-Norm. Beide sind für mich "unnatürlich" (für eine Matrix scheint es "natürlicher" zu sein, wie in Vektor). (Danke für die Kommentare von @ usεr11852 und @ whuber und entschuldigen Sie die Verwirrung.)Kann mir die Verwendung der Matrixnorm helfen, mehr zu verstehen?
quelle
norm
Befehl "default" immer dieselbe Norm zurückgibt.R
listet die Hilfeseite für "norm {base}" in meiner Kopie von die -Norm als Standard auf, nicht die Spektralnorm.Antworten:
Im Allgemeinen bin ich mir nicht sicher, ob die Spektralnorm am weitesten verbreitet ist. Zum Beispiel wird die Frobenius-Norm verwendet, um die Lösung einer nicht-negativen Matrixfaktorisierung oder einer Korrelations- / Kovarianzmatrix-Regularisierung anzunähern . Ich denke, ein Teil dieser Frage rührt von dem Terminologie-Vergehen her, das einige Leute (ich selbst eingeschlossen) begehen, wenn sie sich auf die Frobenius-Norm als die euklidische Matrixnorm beziehen . Wir sollten dies nicht tun, da tatsächlich die -Matrixnorm (dh die Spektralnorm) diejenige ist, die bei Verwendung der L 2 -Vektornorm zu Matrizen induziert wird . Die Frobenius-Norm lautet elementweise: | | A | |L2 L2 , während dieL2Matrixnorm (||A||2=√||A||F=∑i,ja2i,j−−−−−−√ L2 ) basiert auf singulären Werten, ist also "universeller". (Zum Glück eines besseren Begriffs?) DieL2-Matrixnorm ist eine euklidische Norm, da sie durch die euklidische Vektornorm induziert wird, wobei| | A| | 2=max | | x | | 2 = 1 | | Ax| | 2. Es ist daher eineinduzierte Normfür Matrizen, weil siedurch ainduziertwird||A||2=λmax(ATA)−−−−−−−−−√) L2 ||A||2=max||x||2=1||Ax||2 Vektornorm , in diesem Fall die -Vektornorm.L2
Wahrscheinlich MATLAB Ziele , die zu schaffen , Norm standardmäßig , wenn Sie den Befehl verwenden ; infolgedessen liefert es die euklidische Vektornorm, aber auch die L 2 -Matrixnorm, d. h. die Spektralmatrixnorm (anstelle der falsch zitierten " Frobenius / Euklidischen Matrixnorm "). Abschließend möchte ich darauf hinweisen, dass die Standardnorm in gewissem Maße Ansichtssache ist : Zum Beispiel enthält JE Gentles "Matrixalgebra - Theorie, Berechnungen und Anwendungen in der Statistik " wörtlich ein Kapitel (3.9.2) mit dem Namen: " Der Frobenius Norm - Die "übliche" NormL2 L2 "; so klar ist die Spektralnorm nicht die Standardnorm für alle in Betracht gezogenen Parteien! :) Wie von @amoeba kommentiert, haben verschiedene Gemeinschaften möglicherweise unterschiedliche Terminologiekonventionen. Es versteht sich von selbst, dass ich das Buch von Gentle für eine unschätzbare Ressource in der Frage von halte Lin. Algebra-Anwendung in der Statistik und ich würde Sie auffordern, es weiter zu suchen!
norm
quelle
Ein Teil der Antwort kann sich auf numerisches Rechnen beziehen.
Wenn Sie das SystemAx=b
mit endlicher Genauigkeit lösen
, erhalten Sie keine genaue Antwort auf dieses Problem. Man erhält eine Näherung x~ aufgrund der Bedingungen der endlichen Arithmetik, so dass Ax~≈b in einem geeigneten Sinne ist. Wofür steht denn Ihre Lösung? Nun, es kann auch eine sein , genaue Lösung zu einem anderen System wie
A~x~=b~
Also für x~ Dienstprogramm haben, das Tilde-System nahe an dem ursprünglichen System sein muss:
A~≈A,b~≈b A~−A b~−b ∥A~−A∥ ∥b~−b∥ l1 l∞ l2 l2 l2
quelle
The answer to this depends on the field you're in. If you're a mathematician, then all norms in finite dimensions are equivalent: for any two norms∥⋅∥a and ∥⋅∥b , there exist constants C1,C2 , which depend only on dimension (and a,b) such that:
This implies that norms in finite dimensions are quite boring and there is essentially no difference between them except in how they scale. This usually means that you can choose the most convenient norm for the problem you're trying to solve. Usually you want to answer questions like "is this operator or procedure bounded" or "does this numerical process converge." With boundedness, you only usually care that something is finite. With convergence, by sacrificing the rate at which you have convergence, you can opt to use a more convenient norm.
For example, in numerical linear algebra, the Frobenius norm is sometimes preferred because it's a lot easier to calculate than the euclidean norm, and also that it naturally connects with a wider class of Hilbert Schmidt operators. Also, like the Euclidean norm, it's submultiplictive:∥AB∥F≤∥A∥F∥B∥F , unlike say, the max norm, so it allows you to easily talk about operator multiplication in whatever space you're working in. People tend to really like both the p=2 norm and the Frobenius norm because they have natural relations to both the eigenvalues and singular values of matrices, along with being submultiplictive.
For practical purposes, the differences between norms become more pronounced because we live in a world of dimensions and it usually matters how big a certain quantity is, and how it's measured. Those constantsC1,C2 above are not exactly tight, so it becomes important just how much more or less a certain norm ∥x∥a is compared to ∥x∥b .
quelle