Descomposición de matrices: Diferenzas entre revisións

Contido eliminado Contido engadido
mSen resumo de edición
Etiqueta: edición de código 2017
mSen resumo de edición
Liña 49:
* Aplicábel a: matriz cadrada <math>A</math> con autovalores linearmente independentes (non necesariamente distintos).
* Descomposición: <math>A=VDV^{-1}</math>, onde <math>D</math> é unha matriz diagonal formada polos autovalores de <math>A</math>, e as columnas de <math>V</math> é son os correspondentes autovectores de <math>A</math>.
* Existencia: Unha matriz <math>A</math> de orde ''n''×''n'' sempre ten ''n'' autovalores (reais ou complexos), que se poden ordenar (de máis dunha maneira) para formar unha matriz <math>D</math> diagonal ''n×n'' e a súa correspondente matriz <math>V</math> de vectores non nulos en columnas que satisfai a ecuación dos autovalores <math>AV=VD</math>. <math>V</math> será invertibleinvertível se e soamente se os autovalores son linearmente independentes (é dicir, cada autovalor ten a [[Valor propio, vector propio e espazo propio|multiplicidade xeométrica]] igual á súa multiplicidade alxebraica). Unha suficiente condición (mais non necesaria) para que sucedese é que todos os autovalores fosen diferentes, e neste caso as multiplicidades xeométricas e alxebraicas serían iguais a 1.
* Comentario: <math>A</math> sempre pode normalizar o autovectores para teñan módulo 1.
* Comentario: Cada matriz normal <math>A</math> (matriz tal que <math>AA^*=A^*A</math>, onde <math>A</math> e unha matriz conxugada) pode ser descomposta en autovalores. Para a matriz normal <math>A</math> (e só para unha matriz normal), os autovectores tamén se poden facer ortonormais (<math>VV^* = I</math>) e a descomposición en autovalores leríase como <math>A=VDV^*</math>. En particular, toda matriz unitaria, hermítica ou antihermítica (no caso real, toda matriz ortogonal, simétrica ou antisimétrica, respectivamente) é normal e polo tanto posúen a propiedade.
Liña 100:
* Aplicable a: matriz complexa cadrada <math>A</math>.
* Descomposición: <math>A = UP</math> (descomposición polar dereita) ou <math>A = P'U</math> (descomposición polar esquerda), onde <math>U</math> é unha matriz unitaria e <math>P</math> e <math>P'</math> son matrices hermíticas semidefinidas positivas.
* Unicidade: <math>P</math> é sempre única e igual a <math>\sqrt{A^*A}</math> (que sempre é hermítica e semidefinida positiva). Se <math>A</math> é invertibleinvertível, entón é única.
* Comentario: Como calquera matriz hermítica admite unha descomposición espectral cunha matriz unitaria, <math>P</math> pódese escribir como <math>P = VDV^*</math>. Como <math>P</math> é semidefinida positiva, todos os elementos en <math>D</math> son non negativos. Xa que o produto de dúas matrices unitarias é unitario, tendo <math>W = UV</math>, pódese escribir <math>A = U(VDV^*) = WDV^*</math> que é a descomposición do valor singular. Así, a existencia da descomposición polar vén dada pola existencia da descomposición do valor singular.
 
Liña 125:
 
* Aplicábel a: matriz cadrada, complexa <math> A </math> co rango numérico contido no sector
* Descomposi<math>A = CZC^*</math><math>Z = \operatorname{diag}\left(e^{i\theta_1},\ldots,e^{i\theta_n}\right)</math>ón<math>Z = \operatorname{diag}\left(e^{i\theta_1},\ldots,e^{i\theta_n}\right)</math>: A=CZC*, ond<math>Z = \operatorname{diag}\left(e^{i\theta_1},\ldots,e^{i\theta_n}\right)</math>e C é unha matriz complexa invertibleinvertível<math>\left|\theta_j\right| \le \alpha </math> Z.<math>A = CZC^*</math><math>Z = \operatorname{diag}\left(e^{i\theta_1},\ldots,e^{i\theta_n}\right)</math><math>\left|\theta_j\right| \le \alpha </math><ref name=Zhang2014 /><ref>{{Cita publicación periódica|apelidos=Drury|nome=S.W.|título=Fischer determinantal inequalities and Highamʼs Conjecture|revista=Linear Algebra and its Applications|data=Novembro de 2013|volume=439|número=10|páxinas=3129–3133|doi=10.1016/j.laa.2013.08.031}}</ref><math>S_\alpha = \left\{r e^{i \theta} \in \mathbb{C} \mid r> 0, |\theta| \le \alpha < \frac{\pi}{2}\right\}</math><math>S_\alpha = \left\{r e^{i \theta} \in \mathbb{C} \mid r> 0, |\theta| \le \alpha < \frac{\pi}{2}\right\}</math>
 
=== Forma normal de Williamson <ref>{{Cita publicación periódica|apelidos=Idel|nome=Martin|apelidos2=Soto Gaona|nome2=Sebastián|apelidos3=Wolf|nome3=Michael M.|data=2017-07-15|título=Perturbation bounds for Williamson's symplectic normal form|url=http://www.sciencedirect.com/science/article/pii/S0024379517301751|revista=Linear Algebra and its Applications|volume=525|páxinas=45–58|doi=10.1016/j.laa.2017.03.013|arxiv=1609.01338}}</ref> ===
Liña 131:
* Aplicábel a: matriz <math> A </math>cadrada, definida positiva, real ''2n''x''2n''.
* Descomposición: <math>A=S^{T}\textrm{diag}(D,D)S</math>, onde <math>S</math> é unha matriz simétrica e <math>D</math> é unha matriz diagonal non negativa.
 
== Xeneralizacións ==
Alí existir equivalentes do SVD, QR, LU e Cholesky factorizations para '''quasimatrices''' e '''cmatrices''' ou '''matrices continuas.'''<ref>{{Cita Harvard sen parénteses|Townsend|Trefethen|2015}}</ref> Un ‘quasimatrix' é, como unha matriz, un rectangular esquema cuxos elementos son indexados, mais un o índice diferenciado é substituído por un índice continuo. Así mesmo, un ‘cmatrix', é continuo en ambos os dous índices. Cando un exemplo dun cmatrix, un pode pensar do kernel dun [[Transformada integral|operador integral]].
 
Estes factorizations é baseado en traballo temperán por Fredholm (1903), Hilbert (1904) e Schmidt (1907). Para unha conta, e unha tradución a inglés dos papeis seminais, ve Stewart (2011).
 
== Notas ==