Diagonalización ortogonal
La diagonalización ortogonal de una matriz -matrix es un caso especial de diagonalización. Entonces hacemos un requisito adicional de que la matriz sea ortogonal de tal manera que:
El último término muestra que para cada matriz ortogonal, su inversa es igual a la transpuesta. También se aplica que una matriz es diagonalizable ortogonalmente si, y solo si, es una matriz simétrica.
Una matriz es diagonalizable ortogonalmente si, y solo si, es simétrica
Para que sea una matriz ortogonal, significa que debemos ser capaces de crear una base ortonormal de vectores propios para la matriz . Esto se hace con la ayuda de Gram-Schmidt para cada base de cada espacio propio, pero es esencial que los espacios propios sean conjuntos ortogonales. Tomemos el siguiente ejemplo explicativo para el razonamiento:
Sea la matriz -matrix diagonalizable y tenga dos valores propios distintos, y . Esto nos da dos espacios propios, una línea y un plano (ya que la matriz es diagonalizable y los valores propios son dos en número, uno de estos debe tener una multiplicidad geométrica de dos). Entonces es claro que podemos crear una base ortonormal para el espacio propio que es un plano, pero para el espacio propio que es una línea, no podemos cambiar la dirección de su vector base sin obtener un espacio completamente nuevo. La línea debe por lo tanto intersectar el plano ortogonalmente para que la matriz sea diagonalizable ortogonalmente, y por lo tanto se aplica análogamente a dimensiones superiores que todos los espacios propios deben ser conjuntos ortogonales.
Para diagonalizar ortogonalmente la matriz , hacemos lo siguiente:
Encontrar los valores propios y los respectivos espacios propios para la matriz .
Crear una base de vectores propios para cada espacio propio.
Aplicar Gram-Schmidt para cada espacio propio.
Formar las matrices y , de modo que los vectores de columna de consistan en los vectores propios ortonormales de , y los elementos diagonales de consistan en el mismo orden de los valores propios de cada vector propio respectivo.
Teorema espectral
Un teorema espectral es el resultado cuando un operador lineal o una matriz puede ser diagonalizada. Esta operación tiene un gran potencial en aplicaciones reales, no menos importante para reducir en gran medida los cálculos para matrices diagonalizables, razón por la cual los científicos de la computación aprecian este teorema. Esto puede no sonar tan emocionante para un estudiante, pero el hecho de que este teorema sentó las bases para digitalizar la música para que pudiéramos pasar de comprar CDs a transmitir música en nuestros teléfonos, suele encender una chispa.
Encuentras el teorema espectral tanto en álgebra lineal como en análisis funcional (este último es un tema para estudios superiores en matemáticas). Típicamente, uno se refiere a la descomposición espectral para una matriz y teorema espectral para un operador lineal.
Para un curso básico de álgebra lineal, el teorema espectral suele referirse simplemente a una diagonalización ortogonal de una matriz cuadrada . Esto requiere que la matriz sea simétrica y entonces se aplica lo siguiente:
El teorema espectral
Sea una matriz cuadrada ortogonalmente diagonalizable. Sean sus valores propios , , ... y sus vectores propios ortonormales , ,... . Entonces tenemos que:
de la cual la última línea se suele referir como la descomposición espectral o descomposición de valores propios.