El vector es un vector propio de la matriz a correspondiente. Valores propios (números) y vectores propios Ejemplos de soluciones.

Un vector propio de una matriz cuadrada es aquel que, multiplicado por una matriz dada, da como resultado un vector colineal. En palabras simples, cuando se multiplica una matriz por un vector propio, este último sigue siendo el mismo, pero multiplicado por un número determinado.

Definición

Un vector propio es un vector V distinto de cero que, cuando se multiplica por una matriz cuadrada M, aumenta en algún número λ. En notación algebraica queda así:

METRO × V = λ × V,

donde λ es el valor propio de la matriz M.

Veamos un ejemplo numérico. Para facilitar la grabación, los números de la matriz estarán separados por un punto y coma. Tengamos una matriz:

  • M = 0; 4;
  • 6; 10.

Multiplíquelo por un vector columna:

  • V = -2;

Cuando multiplicamos una matriz por un vector columna, también obtenemos un vector columna. En lenguaje matemático estricto, la fórmula para multiplicar una matriz de 2 × 2 por un vector columna se verá así:

  • M × V = M11 × V11 + M12 × V21;
  • M21 × V11 + M22 × V21.

M11 significa el elemento de la matriz M ubicado en la primera fila y primera columna, y M22 significa el elemento ubicado en la segunda fila y segunda columna. Para nuestra matriz, estos elementos son iguales a M11 = 0, M12 = 4, M21 = 6, M22 10. Para un vector columna, estos valores son iguales a V11 = –2, V21 = 1. Según esta fórmula, obtenemos el siguiente resultado del producto de una matriz cuadrada por un vector:

  • METRO × V = 0 × (-2) + (4) × (1) = 4;
  • 6 × (-2) + 10 × (1) = -2.

Por conveniencia, escribamos el vector columna en una fila. Entonces, multiplicamos la matriz cuadrada por el vector (-2; 1), lo que da como resultado el vector (4; -2). Obviamente, este es el mismo vector multiplicado por λ = -2. Lambda en este caso denota el valor propio de la matriz.

Un vector propio de una matriz es un vector colineal, es decir, un objeto que no cambia su posición en el espacio cuando se multiplica por una matriz. El concepto de colinealidad en álgebra vectorial es similar al término de paralelismo en geometría. En una interpretación geométrica, los vectores colineales son segmentos dirigidos paralelos de diferentes longitudes. Desde la época de Euclides, sabemos que una recta tiene un número infinito de rectas paralelas a ella, por lo que es lógico suponer que cada matriz tiene un número infinito de vectores propios.

Del ejemplo anterior queda claro que los vectores propios pueden ser (-8; 4), (16; -8) y (32, -16). Todos estos son vectores colineales correspondientes al valor propio λ = -2. Al multiplicar la matriz original por estos vectores, aún obtendremos un vector que difiere del original 2 veces. Por eso, al resolver problemas de encontrar un vector propio, es necesario encontrar solo objetos vectoriales linealmente independientes. Muy a menudo, para una matriz n × n, hay un número n de vectores propios. Nuestra calculadora está diseñada para el análisis de matrices cuadradas de segundo orden, por lo que casi siempre el resultado será dos vectores propios, excepto en los casos en que coincidan.

En el ejemplo anterior, conocíamos de antemano el vector propio de la matriz original y determinamos claramente el número lambda. Sin embargo, en la práctica todo sucede al revés: primero se encuentran los valores propios y solo después los vectores propios.

Algoritmo de solución

Miremos nuevamente la matriz original M e intentemos encontrar sus dos vectores propios. Entonces la matriz queda así:

  • M = 0; 4;
  • 6; 10.

Primero necesitamos determinar el valor propio λ, lo que requiere calcular el determinante de la siguiente matriz:

  • (0 − λ); 4;
  • 6; (10 − λ).

Esta matriz se obtiene restando la incógnita λ de los elementos de la diagonal principal. El determinante se determina mediante la fórmula estándar:

  • detA = M11 × M21 − M12 × M22
  • detA = (0 − λ) × (10 − λ) − 24

Dado que nuestro vector debe ser distinto de cero, aceptamos la ecuación resultante como linealmente dependiente e igualamos nuestro determinante detA a cero.

(0 − λ) × (10 − λ) − 24 = 0

Abramos los paréntesis y obtengamos la ecuación característica de la matriz:

λ 2 − 10 λ − 24 = 0

Esta es una ecuación cuadrática estándar que debe resolverse usando un discriminante.

D = b 2 − 4ac = (-10) × 2 − 4 × (-1) × 24 = 100 + 96 = 196

La raíz del discriminante es sqrt(D) = 14, por lo tanto λ1 = -2, λ2 = 12. Ahora, para cada valor lambda necesitamos encontrar el vector propio. Expresemos los coeficientes del sistema para λ = -2.

  • METRO - λ × mi = 2; 4;
  • 6; 12.

En esta fórmula, E es la matriz identidad. Con base en la matriz resultante, creamos un sistema de ecuaciones lineales:

2x + 4y = 6x + 12y,

donde xey son los elementos del vector propio.

Recopilemos todas las X de la izquierda y todas las Y de la derecha. Obviamente - 4x = 8y. Divida la expresión por - 4 y obtenga x = –2y. Ahora podemos determinar el primer vector propio de la matriz, tomando cualquier valor de las incógnitas (recuerde la infinidad de vectores propios linealmente dependientes). Tomemos y = 1, luego x = –2. Por lo tanto, el primer vector propio parece V1 = (–2; 1). Volver al principio del artículo. Fue este objeto vectorial por el que multiplicamos la matriz para demostrar el concepto de vector propio.

Ahora encontremos el vector propio para λ = 12.

  • METRO - λ × mi = -12; 4
  • 6; -2.

Creemos el mismo sistema de ecuaciones lineales;

  • -12x + 4y = 6x - 2y
  • -18x = -6y
  • 3x = y.

Ahora tomamos x = 1, por lo tanto y = 3. Por tanto, el segundo vector propio parece V2 = (1; 3). Al multiplicar la matriz original por un vector dado, el resultado siempre será el mismo vector multiplicado por 12. Aquí termina el algoritmo de solución. Ahora ya sabes cómo determinar manualmente el vector propio de una matriz.

  • determinante;
  • trazar, es decir, la suma de los elementos de la diagonal principal;
  • rango, es decir, el número máximo de filas/columnas linealmente independientes.

El programa funciona según el algoritmo anterior, reduciendo al máximo el proceso de solución. Es importante señalar que en el programa lambda se designa con la letra “c”. Veamos un ejemplo numérico.

Ejemplo de cómo funciona el programa.

Intentemos determinar los vectores propios de la siguiente matriz:

  • M = 5; 13;
  • 4; 14.

Ingresemos estos valores en las celdas de la calculadora y obtengamos la respuesta de la siguiente forma:

  • Rango de matriz: 2;
  • Determinante de la matriz: 18;
  • Traza matricial: 19;
  • Cálculo del vector propio: c 2 − 19,00c + 18,00 (ecuación característica);
  • Cálculo del vector propio: 18 (primer valor lambda);
  • Cálculo del vector propio: 1 (segundo valor lambda);
  • Sistema de ecuaciones para el vector 1: -13x1 + 13y1 = 4x1 − 4y1;
  • Sistema de ecuaciones para el vector 2: 4x1 + 13y1 = 4x1 + 13y1;
  • Vector propio 1: (1; 1);
  • Vector propio 2: (-3,25; 1).

Así, obtuvimos dos vectores propios linealmente independientes.

Conclusión

El álgebra lineal y la geometría analítica son materias estándar para cualquier estudiante de primer año de ingeniería. La gran cantidad de vectores y matrices es aterradora y es fácil cometer errores en cálculos tan engorrosos. Nuestro programa permitirá a los estudiantes verificar sus cálculos o resolver automáticamente el problema de encontrar un vector propio. Hay otras calculadoras de álgebra lineal en nuestro catálogo; úsalas en tus estudios o trabajo.

Definición 9.3. Vector incógnita llamado vector propio matrices A, si existe tal número λ, que se cumple la igualdad: A incógnita= λ incógnita, es decir, el resultado de aplicar a incógnita transformación lineal especificada por la matriz A, es la multiplicación de este vector por el número λ . El número en sí λ llamado valor propio matrices A.

Sustituyendo en fórmulas (9.3) x` j = λx j , obtenemos un sistema de ecuaciones para determinar las coordenadas del vector propio:

. (9.5)

Este sistema lineal homogéneo tendrá una solución no trivial sólo si su determinante principal es 0 (regla de Cramer). Escribiendo esta condición en la forma:

obtenemos una ecuación para determinar los valores propios λ , llamado ecuación característica. Brevemente se puede representar de la siguiente manera:

| A-λE | = 0, (9.6)

ya que su lado izquierdo contiene el determinante de la matriz A-λE. Relativo polinómico λ | A-λE| llamado polinomio característico matrices a.

Propiedades del polinomio característico:

1) El polinomio característico de una transformación lineal no depende de la elección de la base. Prueba. (ver (9.4)), pero por eso, . Por tanto, no depende de la elección de la base. Esto significa que | A-λE| no cambia al pasar a una nueva base.

2) Si la matriz A la transformación lineal es simétrico(aquellos. y ij =a ji), entonces todas las raíces de la ecuación característica (9.6) son números reales.

Propiedades de valores propios y vectores propios:

1) Si eliges una base de los vectores propios x1, x2, x3 , correspondiente a los valores propios λ 1, λ 2, λ 3 matrices A, entonces en base a esto la transformación lineal A tiene una matriz de forma diagonal:

(9.7) La prueba de esta propiedad se desprende de la definición de vectores propios.

2) Si los valores propios de la transformación A son diferentes, entonces sus correspondientes vectores propios son linealmente independientes.

3) Si el polinomio característico de la matriz A tiene tres raíces diferentes, entonces en alguna base la matriz A tiene una apariencia diagonal.

Encontremos los valores propios y los vectores propios de la matriz. Creemos una ecuación característica: (1- λ )(5 - λ )(1 - λ ) + 6 - 9(5 - λ ) - (1 - λ ) - (1 - λ ) = 0, λ ³ - 7 λ ² + 36 = 0, λ 1 = -2, λ 2 = 3, λ 3 = 6.

Encontremos las coordenadas de los vectores propios correspondientes a cada valor encontrado. λ. De (9.5) se deduce que si incógnita (1) ={x1,x2,x3) – vector propio correspondiente λ 1 = -2, entonces

- un sistema cooperativo pero incierto. Su solución se puede escribir en la forma incógnita (1) ={a,0,-a), donde a es cualquier número. En particular, si requerimos que | incógnita (1) |=1, incógnita (1) =

Sustituyendo en el sistema (9.5) λ 2 =3, obtenemos un sistema para determinar las coordenadas del segundo vector propio - incógnita (2) ={y 1, y 2, y 3}:

, dónde incógnita (2) ={b,-b,b) o, siempre que | incógnita (2) |=1, incógnita (2) =

Para λ 3 = 6 encuentra el vector propio incógnita (3) ={z1, z2, z3}:

, incógnita (3) ={do,2c,c) o en la versión normalizada

x (3) = Se puede notar que incógnita (1) incógnita (2) = ab-ab= 0, incógnita (1) incógnita (3) = ac-ac= 0, incógnita (2) incógnita (3) = antes de Cristo- 2antes de Cristo + antes de Cristo= 0. Por tanto, los vectores propios de esta matriz son ortogonales por pares.

Conferencia 10.

Formas cuadráticas y su conexión con matrices simétricas. Propiedades de vectores propios y valores propios de una matriz simétrica. Reducir una forma cuadrática a forma canónica.

Definición 10.1.forma cuadrática variables reales x 1, x 2,…, x n Se llama polinomio de segundo grado en estas variables que no contiene un término libre y términos de primer grado.

Ejemplos de formas cuadráticas:

(norte = 2),

(norte = 3). (10.1)

Recordemos la definición de matriz simétrica dada en la última conferencia:

Definición 10.2. La matriz cuadrada se llama simétrico, si , es decir, si los elementos de la matriz que son simétricos con respecto a la diagonal principal son iguales.

Propiedades de valores propios y vectores propios de una matriz simétrica:

1) Todos los valores propios de una matriz simétrica son reales.

Prueba (para norte = 2).

Deja que la matriz A tiene la forma: . Creemos una ecuación característica:

(10.2) Encontremos el discriminante:

Por tanto, la ecuación sólo tiene raíces reales.

2) Los vectores propios de una matriz simétrica son ortogonales.

Prueba (para norte= 2).

Las coordenadas de los vectores propios y deben satisfacer las ecuaciones.

Con la matriz A, si existe un número l tal que AX = lX.

En este caso, el número l se llama valor propio operador (matriz A) correspondiente al vector X.

En otras palabras, un vector propio es un vector que, bajo la acción de un operador lineal, se transforma en un vector colineal, es decir simplemente multiplica por algún número. Por el contrario, los vectores impropios son más complejos de transformar.

Anotemos la definición de vector propio en forma de sistema de ecuaciones:

Movamos todos los términos al lado izquierdo:

Este último sistema se puede escribir en forma matricial de la siguiente manera:

(A - lE)X = O

El sistema resultante siempre tiene una solución cero X = O. Los sistemas en los que todos los términos libres son iguales a cero se denominan homogéneo. Si la matriz de dicho sistema es cuadrada y su determinante no es igual a cero, entonces, usando las fórmulas de Cramer, siempre obtendremos una solución única: cero. Se puede demostrar que un sistema tiene soluciones distintas de cero si y solo si el determinante de esta matriz es igual a cero, es decir

|A - lE| = = 0

Esta ecuación con l desconocido se llama ecuación característica (polinomio característico) matriz A (operador lineal).

Se puede demostrar que el polinomio característico de un operador lineal no depende de la elección de la base.

Por ejemplo, encontremos los valores propios y los vectores propios del operador lineal definido por la matriz A =.

Para hacer esto, creemos una ecuación característica |A - lE| = = (1 - l) 2 - 36 = 1 - 2l + l 2 - 36 = l 2 - 2l - 35 = 0; D = 4 + 140 = 144; valores propios l 1 = (2 - 12)/2 = -5; l2 = (2 + 12)/2 = 7.

Para encontrar vectores propios, resolvemos dos sistemas de ecuaciones.

(A + 5E)X = O

(A-7E)X = O

Para el primero de ellos, la matriz expandida toma la forma

,

de donde x 2 = c, x 1 + (2/3)c = 0; x 1 = -(2/3)s, es decir X (1) = (-(2/3)s; s).

Para el segundo de ellos, la matriz expandida toma la forma

,

de donde x 2 = c 1, x 1 - (2/3)c 1 = 0; x 1 = (2/3)s 1, es decir X (2) = ((2/3)s 1; s 1).

Por lo tanto, los vectores propios de este operador lineal son todos los vectores de la forma (-(2/3)с; с) con valor propio (-5) y todos los vectores de la forma ((2/3)с 1 ; с 1) con valor propio 7 .

Se puede demostrar que la matriz del operador A en la base formada por sus vectores propios es diagonal y tiene la forma:

,

donde l i son los valores propios de esta matriz.

Lo contrario también es cierto: si la matriz A en alguna base es diagonal, entonces todos los vectores de esta base serán vectores propios de esta matriz.

También se puede demostrar que si un operador lineal tiene n valores propios distintos por pares, entonces los vectores propios correspondientes son linealmente independientes y la matriz de este operador en la base correspondiente tiene una forma diagonal.


Ilustremos esto con el ejemplo anterior. Tomemos valores arbitrarios distintos de cero c y c 1, pero tales que los vectores X (1) y X (2) sean linealmente independientes, es decir formaría una base. Por ejemplo, sea c = c 1 = 3, luego X (1) = (-2; 3), X (2) = (2; 3).

Verifiquemos la independencia lineal de estos vectores:

12 ≠ 0. En esta nueva base, la matriz A tomará la forma A * = .

Para verificar esto, usemos la fórmula A * = C -1 AC. Primero, encontremos C -1.

C -1 = ;

formas cuadráticas

forma cuadrática f(x 1, x 2, x n) de n variables se llama suma, cada término de la cual es el cuadrado de una de las variables o el producto de dos variables diferentes, tomado con un cierto coeficiente: f(x 1 , x 2, x n) = (a ij = a ji).

La matriz A compuesta por estos coeficientes se llama matriz forma cuadrática. siempre es simétrico matriz (es decir, una matriz simétrica con respecto a la diagonal principal, a ij = a ji).

En notación matricial, la forma cuadrática es f(X) = X T AX, donde

En efecto

Por ejemplo, escribamos la forma cuadrática en forma matricial.

Para ello, encontramos una matriz de forma cuadrática. Sus elementos diagonales son iguales a los coeficientes de las variables al cuadrado, y los elementos restantes son iguales a las mitades de los coeficientes correspondientes de la forma cuadrática. Es por eso

Deje que la columna-matriz de variables X se obtenga mediante una transformación lineal no degenerada de la columna-matriz Y, es decir X = CY, donde C es una matriz no singular de enésimo orden. Entonces la forma cuadrática f(X) = X T AX = (CY) T A(CY) = (Y T C T)A(CY) = Y T (C T AC)Y.

Así, con una transformación lineal no degenerada C, la matriz de forma cuadrática toma la forma: A * = C T AC.

Por ejemplo, encontremos la forma cuadrática f(y 1, y 2), obtenida de la forma cuadrática f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 mediante transformación lineal.

La forma cuadrática se llama canónico(tiene vista canónica), si todos sus coeficientes a ij = 0 para i ≠ j, es decir
f(x 1, x 2, x n) = a 11 x 1 2 + a 22 x 2 2 + a nn x n 2 = .

Su matriz es diagonal.

Teorema(prueba no proporcionada aquí). Cualquier forma cuadrática se puede reducir a una forma canónica mediante una transformación lineal no degenerada.

Por ejemplo, reduzcamos la forma cuadrática a la forma canónica.
f(x 1, x 2, x 3) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 - x 2 x 3.

Para ello, primero selecciona un cuadrado completo con la variable x 1:

f(x 1, x 2, x 3) = 2(x 1 2 + 2x 1 x 2 + x 2 2) - 2x 2 2 - 3x 2 2 - x 2 x 3 = 2(x 1 + x 2) 2 - 5x 2 2 - x 2 x 3.

Ahora seleccionamos un cuadrado completo con la variable x 2:

f(x 1, x 2, x 3) = 2(x 1 + x 2) 2 - 5(x 2 2 + 2* x 2 *(1/10)x 3 + (1/100)x 3 2) + (5/100)x 3 2 =
= 2(x 1 + x 2) 2 - 5(x 2 - (1/10)x 3) 2 + (1/20)x 3 2.

Entonces la transformación lineal no degenerada y 1 = x 1 + x 2, y 2 = x 2 + (1/10)x 3 e y 3 = x 3 lleva esta forma cuadrática a la forma canónica f(y 1, y 2 , y 3) = 2y 1 2 - 5y 2 2 + (1/20)y 3 2 .

Tenga en cuenta que la forma canónica de una forma cuadrática se determina de manera ambigua (la misma forma cuadrática se puede reducir a una forma canónica de diferentes maneras). Sin embargo, las formas canónicas obtenidas mediante diversos métodos tienen una serie de propiedades comunes. En particular, el número de términos con coeficientes positivos (negativos) de forma cuadrática no depende del método para reducir la forma a esta forma (por ejemplo, en el ejemplo considerado siempre habrá dos coeficientes negativos y uno positivo). Esta propiedad se llama ley de inercia de formas cuadráticas.

Verifiquemos esto llevando la misma forma cuadrática a la forma canónica de una manera diferente. Comencemos la transformación con la variable x 2:

f(x 1, x 2, x 3) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 - x 2 x 3 = -3x 2 2 - x 2 x 3 + 4x 1 x 2 + 2x 1 2 = - 3(x 2 2 +
+ 2* x 2 ((1/6) x 3 - (2/3)x 1) + ((1/6) x 3 - (2/3)x 1) 2) + 3((1/6) x 3 - (2/3)x 1) 2 + 2x 1 2 =
= -3(x 2 + (1/6) x 3 - (2/3)x 1) 2 + 3((1/6) x 3 + (2/3)x 1) 2 + 2x 1 2 = f (y 1, y 2, y 3) = -3y 1 2 -
+3y 2 2 + 2y 3 2, donde y 1 = - (2/3)x 1 + x 2 + (1/6) x 3, y 2 = (2/3)x 1 + (1/6) x 3 y y 3 = x 1 . Aquí hay un coeficiente negativo -3 en y 1 y dos coeficientes positivos 3 y 2 en y 2 e y 3 (y usando otro método obtuvimos un coeficiente negativo (-5) en y 2 y dos positivos: 2 en y 1 y 1/20 en y 3).

También cabe señalar que el rango de una matriz de forma cuadrática, llamada rango de forma cuadrática, es igual al número de coeficientes distintos de cero de la forma canónica y no cambia bajo transformaciones lineales.

La forma cuadrática f(X) se llama afirmativamente (negativo) cierto, si para todos los valores de las variables que no son simultáneamente iguales a cero, es positivo, es decir f(X) > 0 (negativo, es decir
f(X)< 0).

Por ejemplo, la forma cuadrática f 1 (X) = x 1 2 + x 2 2 es definida positiva, porque es una suma de cuadrados, y la forma cuadrática f 2 (X) = -x 1 2 + 2x 1 x 2 - x 2 2 es definida negativa, porque representa se puede representar como f 2 (X) = -(x 1 - x 2) 2.

En la mayoría de situaciones prácticas, es algo más difícil establecer el signo definido de una forma cuadrática, por lo que para ello utilizamos uno de los siguientes teoremas (los formularemos sin demostración).

Teorema. Una forma cuadrática es positiva (negativa) definida si y solo si todos los valores propios de su matriz son positivos (negativos).

Teorema(Criterio de Sylvester). Una forma cuadrática es positiva definida si y sólo si todos los menores principales de la matriz de esta forma son positivos.

Principal (esquina) menor La matriz A de k-ésimo orden de enésimo orden se denomina determinante de la matriz, compuesta por las primeras k filas y columnas de la matriz A ().

Tenga en cuenta que para formas cuadráticas definidas negativas los signos de los menores principales se alternan y el menor de primer orden debe ser negativo.

Por ejemplo, examinemos la forma cuadrática f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 + 3x 2 2 para determinar la precisión del signo.

= (2 - 1)*
*(3 - l) - 4 = (6 - 2l - 3l + l 2) - 4 = l 2 - 5l + 2 = 0; D = 25 - 8 = 17;
. Por tanto, la forma cuadrática es definida positiva.

Método 2. Menor principal de primer orden de la matriz A D 1 = a 11 = 2 > 0. Menor principal de segundo orden D 2 = = 6 - 4 = 2 > 0. Por tanto, según el criterio de Sylvester, la forma cuadrática es definido positivo.

Examinamos otra forma cuadrática para determinar la precisión de los signos, f(x 1, x 2) = -2x 1 2 + 4x 1 x 2 - 3x 2 2.

Método 1. Construyamos una matriz de forma cuadrática A = . La ecuación característica tendrá la forma = (-2 - l)*
*(-3 - l) - 4 = (6 + 2l + 3l + l 2) - 4 = l 2 + 5l + 2 = 0; D = 25 - 8 = 17;
. Por tanto, la forma cuadrática es definida negativa.

Método 2. Principal menor de primer orden de la matriz A D 1 = a 11 =
= -2 < 0. Главный минор второго порядка D 2 = = 6 - 4 = 2 >0. En consecuencia, según el criterio de Sylvester, la forma cuadrática es negativa definida (los signos de los menores principales se alternan, comenzando por el menos).

Y como otro ejemplo, examinamos la forma cuadrática determinada por el signo f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 - 3x 2 2.

Método 1. Construyamos una matriz de forma cuadrática A = . La ecuación característica tendrá la forma = (2 - 1)*
*(-3 - l) - 4 = (-6 - 2l + 3l + l 2) - 4 = l 2 + l - 10 = 0; D = 1 + 40 = 41;
.

Uno de estos números es negativo y el otro es positivo. Los signos de los valores propios son diferentes. En consecuencia, la forma cuadrática no puede ser ni negativa ni positivamente definida, es decir esta forma cuadrática no tiene signo definido (puede tomar valores de cualquier signo).

Método 2. Principal menor de primer orden de la matriz A D 1 = a 11 = 2 > 0. Principal menor de segundo orden D 2 = = -6 - 4 = -10< 0. Следовательно, по критерию Сильвестра квадратичная форма не является знакоопределенной (знаки главных миноров разные, при этом первый из них - положителен).

Valores propios (números) y vectores propios.
Ejemplos de soluciones

Se tu mismo


De ambas ecuaciones se deduce que .

Digámoslo entonces: .

Como resultado: – segundo vector propio.

Repitamos los puntos importantes de la decisión:

– el sistema resultante ciertamente tiene una solución general (las ecuaciones son linealmente dependientes);

– seleccionamos la “y” de tal forma que sea entera y la primera coordenada “x” sea entera, positiva y lo más pequeña posible.

– comprobamos que la solución particular satisface cada ecuación del sistema.

Respuesta .

Había suficientes “puntos de control” intermedios, por lo que comprobar la igualdad es, en principio, innecesario.

En diversas fuentes de información, las coordenadas de los vectores propios a menudo no se escriben en columnas, sino en filas, por ejemplo: (y, para ser honesto, yo mismo estoy acostumbrado a escribirlos en líneas). Esta opción es aceptable, pero a la luz del tema. transformaciones lineales técnicamente más conveniente de usar vectores de columna.

Quizás la solución te pareció muy larga, pero esto es sólo porque comenté con mucho detalle el primer ejemplo.

Ejemplo 2

matrices

¡Entrenemos por nuestra cuenta! Un ejemplo aproximado de una tarea final al final de la lección.

A veces es necesario realizar una tarea adicional, a saber:

escribir la descomposición de la matriz canónica

¿Qué es?

Si los vectores propios de la matriz se forman base, entonces se puede representar como:

¿Dónde hay una matriz compuesta por coordenadas de vectores propios? diagonal matriz con sus correspondientes valores propios.

Esta descomposición matricial se llama canónico o diagonal.

Veamos la matriz del primer ejemplo. Sus vectores propios linealmente independiente(no colineal) y forman una base. Creemos una matriz de sus coordenadas:

En diagonal principal matrices en el orden apropiado se ubican los valores propios y los elementos restantes son iguales a cero:
– Una vez más enfatizo la importancia del orden: “dos” corresponde al primer vector y, por lo tanto, se ubica en la primera columna, “tres” – al segundo vector.

Usando el algoritmo habitual para encontrar matriz inversa o Método de Gauss-Jordan encontramos . ¡No, eso no es un error tipográfico! - Ante ti hay un evento raro, como un eclipse solar, cuando el reverso coincidió con la matriz original.

Queda por escribir la descomposición canónica de la matriz:

El sistema se puede resolver mediante transformaciones elementales, y en los siguientes ejemplos recurriremos a este método. Pero aquí el método "escolar" funciona mucho más rápido. De la tercera ecuación expresamos: – sustituimos en la segunda ecuación:

Como la primera coordenada es cero, obtenemos un sistema, de cada ecuación del cual se sigue que .

Y otra vez preste atención a la presencia obligatoria de una relación lineal. Si sólo se obtiene una solución trivial , entonces el valor propio se encontró incorrectamente o el sistema se compiló/resolvió con un error.

Las coordenadas compactas dan el valor.

Vector propio:

Y una vez más comprobamos que la solución encontrada satisface todas las ecuaciones del sistema. En párrafos y tareas posteriores recomiendo tomar este deseo como regla obligatoria.

2) Para el valor propio, utilizando el mismo principio, obtenemos el siguiente sistema:

De la segunda ecuación del sistema expresamos: – sustituimos en la tercera ecuación:

Dado que la coordenada "zeta" es cero, obtenemos un sistema de cada ecuación del cual se sigue una dependencia lineal.

Dejar

Comprobando que la solución satisface todas las ecuaciones del sistema.

Por tanto, el vector propio es: .

3) Y finalmente, el sistema corresponde al valor propio:

La segunda ecuación parece la más simple, así que expresémosla y sustituyémosla en la primera y tercera ecuaciones:

Todo está bien: ha surgido una relación lineal que sustituimos en la expresión:

Como resultado, “x” e “y” se expresaron mediante “z”: . En la práctica, no es necesario lograr precisamente tales relaciones; en algunos casos es más conveniente expresar tanto a través como a través de . O incluso "entrenar", por ejemplo, de "X" a "I" y de "I" a "Z".

Digámoslo entonces:

Comprobamos que la solución encontrada satisface cada ecuación del sistema y escribe el tercer vector propio

Respuesta: vectores propios:

Geométricamente, estos vectores definen tres direcciones espaciales diferentes. ("de aquí para allí"), según el cual transformación lineal transforma vectores distintos de cero (vectores propios) en vectores colineales.

Si la condición requería encontrar la descomposición canónica, entonces esto es posible aquí, porque diferentes valores propios corresponden a diferentes vectores propios linealmente independientes. haciendo una matriz a partir de sus coordenadas, una matriz diagonal de importante valores propios y encontrar matriz inversa .

Si, por condición, necesitas escribir matriz de transformación lineal en base a vectores propios, luego damos la respuesta en el formulario . ¡Hay una diferencia y la diferencia es significativa! Porque esta matriz es la matriz “de”.

Un problema con cálculos más sencillos para que puedas resolverlo por tu cuenta:

Ejemplo 5

Encuentra vectores propios de una transformación lineal dada por una matriz.

Cuando encuentres tus propios números, trata de no llegar hasta un polinomio de tercer grado. Además, las soluciones de su sistema pueden diferir de las mías; no hay certeza aquí; y los vectores que encuentre pueden diferir de los vectores de muestra hasta la proporcionalidad de sus respectivas coordenadas. Por ejemplo, y. Es más agradable desde el punto de vista estético presentar la respuesta en el formulario, pero está bien si te detienes en la segunda opción. Sin embargo, todo tiene límites razonables; la versión ya no tiene muy buena pinta.

Una muestra final aproximada de la tarea al final de la lección.

¿Cómo resolver el problema en el caso de múltiples valores propios?

El algoritmo general sigue siendo el mismo, pero tiene sus propias características y es aconsejable mantener algunas partes de la solución en un estilo académico más estricto:

Ejemplo 6

Encuentra valores propios y vectores propios

Solución

Por supuesto, escribamos con mayúscula la fabulosa primera columna:

Y, después de factorizar el trinomio cuadrático:

Como resultado, se obtienen valores propios, dos de los cuales son múltiplos.

Encontremos los vectores propios:

1) Tratemos con un soldado solitario según un esquema "simplificado":

De las dos últimas ecuaciones se ve claramente una igualdad que, obviamente, debe sustituirse en la primera ecuación del sistema:

No encontrarás una mejor combinación:
Vector propio:

2-3) Ahora eliminamos un par de centinelas. En este caso puede resultar ya sea dos o uno vector propio. Independientemente de la multiplicidad de las raíces, sustituimos el valor en el determinante. lo que nos trae el siguiente sistema homogéneo de ecuaciones lineales:

Los vectores propios son exactamente vectores.
sistema fundamental de soluciones

En realidad, durante toda la lección no hicimos más que encontrar los vectores del sistema fundamental. Lo que pasa es que por el momento este término no era particularmente necesario. Por cierto, esos estudiantes inteligentes que se perdieron el tema con trajes de camuflaje ecuaciones homogéneas, se verá obligado a fumarlo ahora.


La única acción fue eliminar las líneas adicionales. El resultado es una matriz de uno por tres con un “paso” formal en el medio.
– variable básica, – variables libres. Hay dos variables libres, por lo tanto También hay dos vectores del sistema fundamental..

Expresemos la variable básica en términos de variables libres: . El multiplicador cero delante de la "X" le permite tomar absolutamente cualquier valor (lo cual es claramente visible en el sistema de ecuaciones).

En el contexto de este problema, es más conveniente escribir la solución general no en una fila, sino en una columna:

El par corresponde a un vector propio:
El par corresponde a un vector propio:

Nota : los lectores sofisticados pueden seleccionar estos vectores oralmente, simplemente analizando el sistema , pero aquí se necesita algo de conocimiento: hay tres variables, rango de la matriz del sistema- uno, lo que significa sistema de decisión fundamental consta de 3 – 1 = 2 vectores. Sin embargo, los vectores encontrados son claramente visibles incluso sin este conocimiento, de forma puramente intuitiva. En este caso, el tercer vector se escribirá aún más “bellamente”: . Sin embargo, te advierto que en otro ejemplo puede que no sea posible una selección simple, por lo que la cláusula está destinada a personas con experiencia. Además, ¿por qué no tomarlo, digamos, como tercer vector? Después de todo, sus coordenadas también satisfacen cada ecuación del sistema, y ​​​​los vectores linealmente independiente. Esta opción, en principio, es adecuada, pero "torcida", ya que el "otro" vector es una combinación lineal de vectores del sistema fundamental.

Respuesta: valores propios: , vectores propios:

Un ejemplo similar para una solución independiente:

Ejemplo 7

Encuentra valores propios y vectores propios

Una muestra aproximada del diseño final al final de la lección.

Cabe señalar que tanto en el ejemplo 6 como en el 7 se obtiene un triple de vectores propios linealmente independientes y, por lo tanto, la matriz original es representable en la descomposición canónica. Pero este tipo de frambuesas no se encuentran en todos los casos:

Ejemplo 8


Solución: Creemos y resolvamos la ecuación característica:

Ampliemos el determinante en la primera columna:

Realizamos mayores simplificaciones según la metodología considerada, evitando el polinomio de 3er grado:

– valores propios.

Encontremos los vectores propios:

1) No hay dificultades con la raíz:

No se sorprenda, además del kit, también hay variables en uso; aquí no hay diferencia.

De la tercera ecuación la expresamos y la sustituimos en la primera y segunda ecuación:

De ambas ecuaciones se sigue:

Vamos entonces:

2-3) Para múltiples valores obtenemos el sistema .

Escribamos la matriz del sistema y, usando transformaciones elementales, la llevemos a una forma paso a paso:

Las matrices diagonales tienen la estructura más simple. Surge la pregunta de si es posible encontrar una base en la que la matriz del operador lineal tenga forma diagonal. Esa base existe.
Se nos da un espacio lineal R n y un operador lineal A que actúa en él; en este caso, el operador A toma R n en sí mismo, es decir, A:R n → R n .

Definición. Un vector distinto de cero se denomina vector propio del operador A si el operador A se asigna a un vector colineal con él, es decir. El número λ se denomina valor propio o valor propio del operador A, correspondiente al vector propio.
Observemos algunas propiedades de los valores propios y los vectores propios.
1. Cualquier combinación lineal de vectores propios. El operador A correspondiente al mismo valor propio λ es un vector propio con el mismo valor propio.
2. Vectores propios El operador A con valores propios diferentes por pares λ 1 , λ 2 ,…, λ m son linealmente independientes.
3. Si los valores propios λ 1 =λ 2 = λ m = λ, entonces el valor propio λ corresponde a no más de m vectores propios linealmente independientes.

Entonces, si hay n vectores propios linealmente independientes , correspondientes a diferentes valores propios λ 1, λ 2, ..., λ n, entonces son linealmente independientes, por tanto, pueden tomarse como base del espacio R n. Encontremos la forma de la matriz del operador lineal A en base a sus vectores propios, para lo cual actuaremos con el operador A en base a vectores: Entonces .
Por lo tanto, la matriz del operador lineal A sobre la base de sus vectores propios tiene una forma diagonal, y los valores propios del operador A están a lo largo de la diagonal.
¿Existe otra base en la que la matriz tenga forma diagonal? La respuesta a esta pregunta viene dada por el siguiente teorema.

Teorema. La matriz de un operador lineal A en la base (i = 1..n) tiene forma diagonal si y sólo si todos los vectores de la base son vectores propios del operador A.

Regla para encontrar valores propios y vectores propios

Sea un vector dado , donde x 1, x 2,…, x n son las coordenadas del vector con respecto a la base y es el vector propio del operador lineal A correspondiente al valor propio λ, es decir. Esta relación se puede escribir en forma matricial.

. (*)


La ecuación (*) se puede considerar como una ecuación para encontrar , y , es decir, nos interesan soluciones no triviales, ya que el vector propio no puede ser cero. Se sabe que existen soluciones no triviales de un sistema homogéneo de ecuaciones lineales si y sólo si det(A - λE) = 0. Por lo tanto, para que λ sea un valor propio del operador A es necesario y suficiente que det(A - λE ) = 0.
Si la ecuación (*) se escribe detalladamente en forma de coordenadas, obtenemos un sistema de ecuaciones lineales homogéneas:

(1)
Dónde - matriz de operadores lineales.

El sistema (1) tiene solución distinta de cero si su determinante D es igual a cero


Recibimos una ecuación para encontrar valores propios.
Esta ecuación se llama ecuación característica y su lado izquierdo se llama polinomio característico de la matriz (operador) A. Si el polinomio característico no tiene raíces reales, entonces la matriz A no tiene vectores propios y no se puede reducir a forma diagonal.
Sean λ 1, λ 2,…, λ n las raíces reales de la ecuación característica, y entre ellas puede haber múltiplos. Sustituyendo estos valores a su vez en el sistema (1), encontramos los vectores propios.

Ejemplo 12. El operador lineal A actúa en R 3 según la ley, donde x 1, x 2, .., x n son las coordenadas del vector en la base , , . Encuentre los valores propios y vectores propios de este operador.
Solución. Construimos la matriz de este operador:
.
Creamos un sistema para determinar las coordenadas de vectores propios:

Redactamos una ecuación característica y la resolvemos:

.
λ 1,2 = -1, λ 3 = 3.
Sustituyendo λ = -1 en el sistema, tenemos:
o
Porque , entonces hay dos variables dependientes y una variable libre.
Sea x 1 una incógnita libre, entonces Resolvemos este sistema de cualquier forma y encontramos la solución general de este sistema: El sistema fundamental de soluciones consta de una solución, ya que n - r = 3 - 2 = 1.
El conjunto de vectores propios correspondiente al valor propio λ = -1 tiene la forma: , donde x 1 es cualquier número distinto de cero. Elijamos un vector de este conjunto, por ejemplo, poniendo x 1 = 1: .
Razonando de manera similar, encontramos el vector propio correspondiente al valor propio λ = 3: .
En el espacio R 3, la base consta de tres vectores linealmente independientes, pero obtuvimos solo dos vectores propios linealmente independientes, a partir de los cuales no se puede componer la base en R 3. En consecuencia, no podemos reducir la matriz A de un operador lineal a forma diagonal.

Ejemplo 13. Dada una matriz .
1. Demuestre que el vector es un vector propio de la matriz A. Encuentre el valor propio correspondiente a este vector propio.
2. Encuentre una base en la que la matriz A tenga forma diagonal.
Solución.
1. Si , entonces es un vector propio

.
El vector (1, 8, -1) es un vector propio. Valor propio λ = -1.
La matriz tiene forma diagonal en una base que consta de vectores propios. Uno de ellos es famoso. Busquemos el resto.
Buscamos vectores propios del sistema:

Ecuación característica: ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ 2 - 1) = 0
λ 1 = -3, λ 2 = 1, λ 3 = -1.
Encontremos el vector propio correspondiente al valor propio λ = -3:

El rango de la matriz de este sistema es dos e igual al número de incógnitas, por lo que este sistema solo tiene una solución cero x 1 = x 3 = 0. x 2 aquí puede ser cualquier cosa distinta de cero, por ejemplo, x 2 = 1. Por tanto, el vector (0,1,0) es un vector propio correspondiente a λ = -3. Comprobemos:
.
Si λ = 1, entonces obtenemos el sistema
El rango de la matriz es dos. Tachamos la última ecuación.
Sea x 3 una incógnita libre. Entonces x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
Suponiendo x 3 = 1, tenemos (-3,-9,1) - un vector propio correspondiente al valor propio λ = 1. Verifique:

.
Dado que los valores propios son reales y distintos, los vectores correspondientes a ellos son linealmente independientes, por lo que pueden tomarse como base en R 3 . Así, en la base , , la matriz A tiene la forma:
.
No todas las matrices de un operador lineal A:R n → R n se pueden reducir a forma diagonal, ya que para algunos operadores lineales puede haber menos de n vectores propios lineales independientes. Sin embargo, si la matriz es simétrica, entonces la raíz de la ecuación característica de multiplicidad m corresponde exactamente a m vectores linealmente independientes.

Definición. Una matriz simétrica es una matriz cuadrada en la que los elementos simétricos con respecto a la diagonal principal son iguales, es decir, en la que .
Notas. 1. Todos los valores propios de una matriz simétrica son reales.
2. Los vectores propios de una matriz simétrica correspondientes a valores propios diferentes por pares son ortogonales.
Como una de las muchas aplicaciones del aparato estudiado, consideramos el problema de determinar el tipo de curva de segundo orden.



¿Te gustó el artículo? Compártelo
Arriba