asesores tecnicos

418
ASESORES TECNICOS Carlo Federici Casa Doctor en Física y Matemáticas Universidad de Génova, Italia Profesor de Matemáticas Universidad Nacional, Bogotá Enzo R". Gentile Doctor en Matemáticas Universidad Nacional de Cuyo, Argentina Estudios de Postgraduado en la Universidad de Princeton, EE. UU. Ex profesor de Algebra en las Universidades de Rutgers y Northwestern, EE. UU Profesor titular Facultad de Ciencias Exactas Universidad de Buenos Aires ) I Raul Bravo F. Profesor de Matemáticas Uni-versidad de Chile Santiago Jesús María Castaño Profesor de Matemáticas Universidad del Valle Cali, Colombia ASESOR LINGÚISTICO Dr. Carlos Vega Profesor de Filologia española

Upload: others

Post on 03-Oct-2021

18 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: ASESORES TECNICOS

ASESORES TECNICOS

Carlo Federici CasaDoctor en Física y MatemáticasUniversidad de Génova, ItaliaProfesor de MatemáticasUniversidad Nacional, Bogotá

Enzo R". GentileDoctor en MatemáticasUniversidad Nacional de Cuyo, ArgentinaEstudios de Postgraduado en la Universidad de Princeton, EE. UU.Ex profesor de Algebra en las Universidades de Rutgers y Northwestern, EE. UUProfesor titular Facultad de Ciencias ExactasUniversidad de Buenos Aires

) IRaul Bravo F.Profesor de MatemáticasUni-versidad de Chile Santiago

Jesús María CastañoProfesor de MatemáticasUniversidad del ValleCali, Colombia

ASESOR LINGÚISTICODr. Carlos VegaProfesor de Filologia española

Page 2: ASESORES TECNICOS

Algebra LinealÉ. _

II I

EiQf

KENNETH HOFFMANProfessor of MathematicsMassachusetts Institute of Technology

RAY KUNZEProfessor of MathematicsUniversity of California. lrvine

TRADUCCION Y ADAPTACION

HUGO E. FINSTERBUSCHEscuela de Graduados, Courant Institute

of Mathematical Science.Master of Science en Matemáticas de la Universidad de N.Y.Quimico. Instituto Politécnico de la Universidad

Católica de ChileProfesor Asociado, Departamento de Matemáticas Puras

y Aplicadas, Instituto de Matemáticas,Universidad Católica de Chile

(U7*

El

“fi”os PRENTICE-HALL HISPANOAMERICANA, S. A.México n Englewood Cllffs 1 Londres 1 Sydney n Toronto nNueva Delhi n Tokio u Singapur 1 Rio de Janeiro

Page 3: ASESORES TECNICOS

ALGEBRA LINEAL

Prohibida la reproduccion total o parcial de esta obra,por cualquier medio o metodo, sin autorizacion escrita del editor.

DERECHOS RESERVADOS © 1973, respecto a la primera edición en español porPRENTICE-HALL HISPANOAMERICANA, S.A.

Av. San Andrés Atoto 157, Fracc. Industrial San Andres Atoto53500 Naucalpan de Juárez, Edo. de MexicoMiembro de la Cámara Nacional de la Industria Editorial, Reg. Num. 1524

ISBN 968-880-009-0

Traducido de la segunda edicion en ingles deSTATISTICS FOR MANAGEMENT

Copyright@ MCMLXXI, by Prentice Hall, Inc.

ISBN 0-13-022046-9

7890123456 I.P.-84 8712345690

Impreso en Mexico Printed ln Mexico

UÍ MAR V

ESTA OBRA SE TERMINO DE IMPRIMIR ENIMPRESORA AZTECA S.APONIENTE 140 No. 681-IMEXICO, D.F.

É ü

Page 4: ASESORES TECNICOS

PREAMBULO

Mucho nos complace que la segunda edición de :runs-rrr›libro haya sido traducida al español por el prr›ji›.s'urHugo Finsterbusch. Esperamos que esto pueda mn-tribuir de alguna manera a la formación matemáticade los estudiantes del mundo de habla española.

KENNETH HOFFMAN

Page 5: ASESORES TECNICOS
Page 6: ASESORES TECNICOS

Prólogo

Nuestro propósito original al escribir este libro fue proporcionar un texto para el cursouniversitario de álgebra lineal en el Instituto Tecnológico de Massachusetts. Este cursofue diseñado para.. la especialidad de matemática en el nivel medio, aun cuando tres cuartaspartes de los estudiantes eran de otras disciplinas científicas y tecnológicas que iban desdeel primer año universitario hasta estudiantes avanzados. Esta descripción del auditoriodel MIT para el texto se conserva, en general, hasta el presente exacta. Los diez años trans-curridos desde la primera edición han visto la proliferación de cursos de álgebra lineal através del país, y han brindado a uno de los autores la oportunidad de enseñar la materiabásica a una variedad de grupos en la Universidad de Brandeis, Universidad de Washington(St. Louis) y en la Universidad de California (Irvine).

Nuestro principal propósito al revisar el Algebra Lineal ha sido incrementar la variedadde cursos que pueden ser dictados con ella. Por un lado hemos estructurado los capítulos,especialmente los más difíciles, de modo que haya varios puntos terminales a lo largo deldesarrollo, permitiendo al profesor en un curso de un cuatrimestre o de un semestre ejer-citar una cantidad considerable de posibilidades en la elección del tema. Bor otra partehemos aumentado la cantidad de material en el texto, de modo que pueda usarse para uncurso anual intensivo en álgebra lineal e incluso como libro de referencia para matemáticos.

Los mayores cambios se han hecho en el tratamiento de las formas canónicas y de losespacios con producto intemo. En el capítulo 6 ya no se comienza con la teoría generalque fundamenta la teoría de las formas canónicas. Primero se tratan los valores propiosen relación con los teoremas de triangulación y diagonalización, y luego se prepara el ca-mino hacia la teoría general. El capitulo 8 se ha dividido .de modo que el material básicode espacios con producto intemo y diagonalización unitaria sea seguido por el capítulo 9que trata de las formas sesquilineales y de las propiedades más complicadas de los opera-dores normales, incluyendo operadores normales en espacios reales con producto interno.

Se ha hecho también un número de pequeños cambios y perfeeeionamientos de la pri-mera edición. Pero la doctrina básica que la inspira no ha cambiado.

No hemos concedido atención particular al hecho de que la mayoría de los' estudiantesno esten primariamentc interesados en matemática, pues creemos que un curso de estailisciplinzi no debe ulihorrair de téeniezis :il estudiante de ciencia, ingeniería 0 ciencias so-cizilcs, sino pri›eui';i|'lc la cmnpre|isii'›n dc los conceptos inalermìlicos básicos.

Page 7: ASESORES TECNICOS

i›ii`i' Prólogo

Por otro lado. somos conscientes del amplio campo de conocimientos previos que losestudiantes debieran tener y, en particular, del hecho de que los estudiantes han tenidomuy poca experiencia con el razonamiento matemático abstracto. Por esta razón se haevitado introducir demasiadas ideas abstractas muy al comienzo del libro. Además se haañadido un Apéndice que introduce o analiza ideas básicas tales como las de conjunto,funciones y relación de equivalencia. Hallamos de mayor utilidad tratar de estas ideas enforma independiente, pero acoìisejando a los estudiantes leer el Apéndice cuando ellasaparezcan.

A lo largo del libro se ha incluido una gran variedad de ejemplos de los conceptos im-portantes que aparecen. El estudio de todos los ejemplos es de fundamental importanciay tiende a minimizar el número de estudiantes que repiten definiciones, teoremas y demos-traciones en orden lógico sin comprender el significado de los conceptos abstractos. Estelibro contiene también una amplia variedad de ejercicios graduados (alrededor de seis-cientos) que varian desde aplicaciones rutinarias hasta otros dirigidos a los mejores es-tudiantes. Estos ejercicios pretenden ser una parte importante del texto.

[il capítulo 1 se refiere a los sistemas de ecuaciones y sus soluciones mediante operacioneselementales por filas de las matrices. Ha sido nuestra práctica dedicar alrededor de seisclases a esta materia. Ello muestra a los estudiantes un bosquejo de los orígenes del álgebralineal y una técnica de cálculo necesaria para comprender los ejemplos de las ideas abstractasque aparecen en los capítulos posteriores. El capítulo 2 se refiere a los espacios vectoriales,siihcspacios, bases y dimensión. El capítulo 3 trata las transformaciones lineales, su ál-gehra y su representación por medio de matrices, como también, del isomorfismo, de fun-ciones lineales y de espacios duales. El-capítulo 4 define el álgebra de los polinomios sobreun cuerpo. los ideales en tal álgebra y la factorización prima de un polinomio. Tambiéntrata sobre raices, fórmula de Taylor y fórmula de interpelación de Lagrange. El capítulo 5desarrolla los determinantes de matrices cuadradas y el determinante visto como una fun-cion alternada n-lineal de las filas de una matriz, para seguir con las funciones multilinealesen módulos como el anillo de Grassman. Lo referente a módulos coloca el concepto de.leterminantc en un marco más amplio y completo que el que 'usualmente se encuentra entextos elementales. Los capítulos 6 y 7 contienen un estudio de los conceptos que son básicospara el análisis de una transformación lineal en un espacio vectorial de dimensión finita,cl .iualisis de valores propios, las transformaciones triangulabl_es y diagonalizables, losi.-ouceptos de las partes diagonalizables y nilpotentes de una transformación general y lasformas canónicas racional y de Jordan. Los teoremas de descomposición primaria y cíclicaniegan un papel central; a la última se llega a través del estudio de los subespacios admi-sililcs. lil capítulo 7 incluye un análisis de las matrices sobre un dominio polinomial, elcillculo de factores invariantes y divisores elementales de una matriz, y el desarrollo de latorina cimónica dc Smith. El capitulo termina con un estudio sobre los operadores semi-simples. para completar el análisis del caso de un operador. El capitulo 8 trata con algúndetalle los espacios con producto interno de dimensión finita y cubre la geometría básica.relacionando la ortogonalización con la idea de la «mejor aproximación a un vector» ycon los conceptos de proyección ortogonal de un vector sobre un subespacio y el com-plcinento ortogonal de un subespacio. También trata de los operadores unitarios,y i-uliiiina con la diagonalización de operadores autoadjuntos y normales. El capi-tiilo 9 introduce las formas sesquilineales, las relaciona con los operadores positivos yautoadjuntos cn un espacio con- producto intemo, sigue con la teoría espectral de opera-dores normales y Iuego en resultados más complejos relativos a operadores normales enespacios reales o compleios con producto intemo. El capitulo Il) examina las formas bi-luiciilcs. insistiendo en las formas canónicas para las formas simétrica y aiitisimétrica. asicomo en los grupos que prescrvan formas no-degencradas. especialmente los grupos orto»gouiil, unitario, sçudo-iii-togiiiiiil y de l_orent1

Page 8: ASESORES TECNICOS

Prólogo ix

Se estima que cualquier curso que use este texto deberá cubrir completamente los ca-pítulos 1, 2 y 3 con posible excepción de las secciones 3.6 y 3.7 que se refieren al doble dualy a la traspuesta de una trasformación lineal. Los capítulos 4 y 5, sobre polinomios y de-terminantes, pueden tratarse con grados diversos de minuciosidad. En efecto, los idealesde polinomios y las propiedades básicas de los determinantes pueden cubrirse en formabastante esquemática sin afectar el desarrollo lógico del texto; sin embargo, nos inclinamosa tratar estos capítulos cuidadosamente (excepto los resultados referente a módulos), porquela materia ilustra muy bien las ideas básicas del álgebra lineal. Un curso elemental puedeser ahora concluido elegantemente con las cuatro primeras secciones del capítulo 6, juntocon el capítulo 8 (nuevo). Si las formas racional y de Jordan han de ser incluidas, es nece-`-sario abarcar una extensión mayor del capítulo 6.

Quedamos muy reconocidos a todos aquéllos que contribuyeron a la primera edición,especialmente a los profesores señores Harry Furstenberg, Louis Howard, Daniel Kan yEdward Thorp, a las señoras Judith Bowers, Betty Ann (Sargent) Rose y ala señorita PhyllisRuby. Queremos además dar las gracias a los numerosos estudiantes y colegas cuyos pene-trantes comentarios llevaron a esta revision, y al personal de Prentice-Hall por su pacienciapara tratar con dos aut rfs atrapados en los laberintos de la administración académica.Finalmente, gratitud espïcial debemos a la señora Sophia Koulouras por su pericia y ago-tador esfuerzo en escribir tp máquina el manuscrito revisado.

K. HOFFMAN y R. KUNZE

Page 9: ASESORES TECNICOS
Page 10: ASESORES TECNICOS

Capitulo I

Capítulo 2.

Capítulo 3.

Tabla de materias

Prólogo vii

Ecuaciones lineales I

1.1. Cuerpos1.2. Sistemas de ecuaciones lineales1.3. Matrices y operaciones elementales de fila 61.4. Matrices escalón reducidas por filas 111.5. Multiplicación de matrices 161.6. Matrices inversibles 21

'J-Imn

Espacios vectoriales 28

2.1. Espacios vectoriales 282.2. Subespacios 342.3. Bases y dimensión 402.4. Coordenadas 492.5. Resumen de equivalencia por filas 552.6. Cálculos relativos a subespacios 58

Transformaciones lineales 67

3.1. Transformaciones lineales 673-2. Algebra de las transformaciones lineales 743.3. lsomorfismo 843.4. Representación de transformaciones por matrices 863.5. Funciones lineales 963.6. El doble dual 1063.7. Transpuesta de una transformación lineal 111

xi

Page 11: ASESORES TECNICOS

xii Tabla de materias

Capítulo 4. Polinomios

Capítulo 5.

Capitulo 6.

( 'apllulo 7.

('aplful¢› 8.

4.1. Algebras4.2. El álgebra de los polinomios4.3. Interpolación de Lagrange4.4. Ideales de polinomios4.5. Factorización prima de un polinomio

Determinantes '

5.1. Anillos Gonmutativos5.2. Funciones determinantes5.3. Permutaciones y unicidad de los determinantes5.4. Otras propiedades de los determinantes5.5. Módulos5.6. Funciones multilineales5.7. El anillo de Grassman

Formas canónicas elementales

6.1. Introducción6.2. Valores propios6.3. Polinomios anuladores6.4. Subespacios invariantes6.5. Triangulación simultánea; diagonalización simultánea6.6. Descomposiciones en suma directa6.7. Sumas directas invariantes6.8. Teorema de descomposición prima

Las formas racional y de Jordan

7.1. Subespacios cíclicos y anuladores7.2. Descomposiciones ciclicas y forma racional7.3. La forma de Jordan7.4. Cálculo de factores invariantes7.5. Resumen: operadores semisimples

Espacios con producto interno

8.1. Productos internos8.2. Espacios producto interno8.3. Funciones lineales y adjuntas8.4. Operadores unitarios8.5. ()periuIores normales

116

116118122126133

139

139140149155162164172

180

180181189197205207212218

226

226230243250260

268

268274288296II Ill

Page 12: ASESORES TECNICOS

Tabla de materias

Capitulo 9. Operadores sobre espacios producto interno

Capítulo 10.

Apéndice

Bibliografia

Indice

9.1.9.2.9.3.9.4.9.5.9.6.

IntroducciónFormas sobre espacios producto internoFormas positivasMás sobre formasTeoría espectralOtras propiedades de los operadores normales

Fomias bilineales

10.110.210.310.4.

A.l.A.2.A.3.A.4.A.5.A.6.

Formas bilinealesFormas bilineales simétricasFormas bilineales antisimétricasGrupos que preservan las formas bilineales

ConjuntosFuncionesRelaciones de equivalenciaEspacios cocientesRelaciones de equivalencia en Algebra LinealEl axioma de elección

xiit

315

315316321327331344

353

353361369373

379

380381384387390391

393

395

Page 13: ASESORES TECNICOS
Page 14: ASESORES TECNICOS

1. Ecuaciones lineales

1.1 . Cuerpos

Suponemos al lector familiarizado con el álgebra elemental de los númerosreales y complejos. En una gran parte de este libro las propiedades algebraicasde los números que se usarán se deducen fácilmente de la siguiente breve listade propiedades de la adición y de la multiplicación. Se designa por F el con-junto de Ios números reales 0 el conjunto de los números complejos.

1. La adición es conmutativa,

x+y=y+wpara cualquiera x e y de F.

2. La adición es asociativa,

:v+(y+2)=(f¢+y)+zpara cualquiera x, y y z de F.

3. Existe un elemento único O (cero) de F tal que x + 0 = x, para todo\' cn F.

4. A cada x de -F corresponde un elemento único (-x) de F tal que\ F I-er) = 0.

5. La multiplicación es conmutativa,:cy = yx

para cualquiera x e v de F.(›. l.a iniiltiplicación es asociativa,

f(.f/2) = (1ru)2¡mia cualquiera .\, i' y : de I".

Page 15: ASESORES TECNICOS

2 »Ilgclvt il lmml

7. Existe un elemento no nulo único de F tal que xl = x, para todox dc F.

8. A cada elemento no nulo x de F corresponde un único elemento -r '(0 1/x) de F tal que xx" = 1.

9. La multiplicación es distributiva respecto de la adición; esto es, xly +::) = xy + xz, para cualesquiera x, y y z de F.

Supóngase que se tiene un conjunto F de objetos x, y, z, . . . y dos opera-ciones sobre los elementos de F como sigue; la primera operación, llamadaadición, asocia a cada par de elementos x, y de F un elemento (x + y) de F;la segunda operación, llamada multiplicación, asocia a cada par x, _r de F unelemento ,xy de F; y estas dos operaciones satisfacen las anteriores condicio-nes (1)-(9). El conjunto F, junto con estas operaciones, se llama entonces cuerpo.Hablando aproximadamente, un cuerpo es un conjunto, junto con algunas ope-raciones sobre los elementos de éste, que se comportan como la adición. sustrac-ción, multiplicación y división cornentes de los números en el sentido de queobedecen a las nueve reglas del álgebra dadas anteriormente. Con las opera-ciones comunes de adición y multiplicación, el conjunto C de los números com-plejos es un cuerpo, como lo es el conjunto R de los números reales.

En la mayor parte de este libro los «números›› que se usan pueden ser loselementos de cualquier cuerpo F. Para permitir esta generalidad se usará lapalabra «escalar›› en vez de «número››. No perderá mucho el lector si siemprepresupone que el cuerpo de los escalares es un subcuerpo del cuerpo de losnúmeros complejos. Un subcuerpo de un cuerpo C es un conjunto F de númeroscomplejos que es a su vez un cuerpo respecto de las operaciones usuales deadición y multiplicación de números complejos. Esto significa que el 0 y el 1están en el conjunto F, y que si x e y son elementos de F. también lo son(x + y), -x, xy, e x71 (si x #= 0). Un ejemplo de un subcuerpo semejantees el cuerpo R de los números reales; en efecto, si se identifican los númerosreales con los números complejos (a + ib) para los que b = 0, el 0 y el 1 delcuerpo complejo son números reales y si x e y son reales, también lo son (x + _rl.-x, xy y x71 (si x #= O). Daremos otros ejemplos más adelante. Lo peculiarde los subcuerpos en nuestro estudio es esencialmente lo siguiente: Si se estáoperando con escalares que forman un-cierto subcuerpo de C, entonces la eje-cución de las operaciones de adición, sustracción, multiplicación o divisióncon estos escalares no se salen del subcuerpo dado.

Ejemplo 1. El conjunto de los enteros positivos*: I, 2, 3, _ _ _ no es un sub-cuerpo de C por varias razones. Por ejemplo, 0 no es un entero positivo; paraningún entero positivo n, es -n un entero positivo; para ningún entero po-sitivo n, excepto 1, es 1/n un entero positivo.

Ejemplo 2. El conjunto de los enteros: . _ . , -2, -1, 0, 1, 2, . . . , no esun subcuerpo de C, porque para un entero n, 1/n no es entero al menos que

* El autor llama «enteros positivos» los enteros l, 2, 3, . _ _ y excluye el 0. Hoy no es esto asi.pues se incluye el 0 entre los enteros positivos («naturales››).

Page 16: ASESORES TECNICOS

l'.`i°um'lrmi'.\' Ilrimlr-.i .I

n sea l 0 - I. Con las operaciones usuales de adición y multiplicación, el con-juntodc los enteros satisface todas las condiciones (1)-(9), con excepción dela condición (8).

.Ejemplo 3. El conjunto de los números racionales, esto es, números dela forma p/q, donde p y q son enteros y q =/= 0, es un subcuerpo del cuerpo delos complejos. La división que no es posible en el conjunto-'de los enteros esposible en el conjunto de los números racionales. El lector interesado deberíaverificar que cualquier subcuerpo de C debe contener a todo número racional.

Ejemplo 4. El conjunto de todos los números complejos de la forma x+y`/2,donde x e y son racionales, es un subcuerpo de C. Se deja al lector la compro-bación.

En los ejemplos y ejercicios de este libro el lector deberá suponer que elcuerpo considerado es un subcuerpo de los números complejos, a menos queexpresamente se establezca que es un cuerpo más general. No queremos volversobre este punto; sin embargo, se debe indicar por qué se adopta tal supuesto.Si F es un cuerpo, es posible a veces sumar la unidad 1 a si misma un número fini-to de veces v obtener 0 (véase el Ejercicio 5 de la siguiente Sección 1.2):

1-I-1-I-----I-l==0.

Esto no sucede en el cuerpo de los números complejos (ni en ningún subcuerposuyo). Si ello sucede en F, entonces el menor n, tal que la suma de los n unoses 0, se llama característica del cuerpo F. Si ello no sucede en F, entonces (poralguna extraña razón) F se llama un cuerpo de caracteristica cero. A menudo,cuando se supone que F es un subcuerpo de C, lo que se quiere garantizar esque F es un cuerpo de característica cero; pero, en una primera exposicióndel álgebra lineal, es preferible no preocuparse mucho con respecto a carac-terísticas de cuerpos.

1.2. Sistemas de ecuaciones lineales

Supóngase que F es un cuerpo. Se considera el problema de encontrar nescalares (elementos de F) x,, ..., x,, que. satisfagan las condiciones

/1112171 + A12íC2 "I" ' ' ° “I” Ainílïn = Í/1(L1) /121171 -I* /122-"G2 + ' ' ' + Áenílìn = ya

Ami-"C1 “I” Amzüïz “I” ° ' ' 'I' Amnxn = ym

donde yl, ._ _, y,,, y A,-J-, 1 5 ¿S m, 1 Sj 5 n, son elementos de F. A (1-1) sele llama un sistema de m ecuaciones lineales con n incógnitas. Todo n-tunlc(xl, . _ _ , x,,) de elementos de F que satisface cada una de las ecuaciones de (1-1)se llama una solución del sistema. Si yl = yz -= - - - = y,,, = 0, se dice que elsistema es homogéneo, o que cada una de las ecuaciones es homogénea.

Page 17: ASESORES TECNICOS

4 .4 l,|.¦i'ln'rI ÍIm'r|Í

Tal vez, la técnica fundamental para encontrar las soluciones de un siste-ma de ecuaciones lineales, es la técnica de eliminación. Se puede ilustrar estatécnica en el sistema homogéneo

2151- ZE2+ íl?3=O

:i:¡+3:i:2+4:i:3=O.

Si sumamos (-2) veces la segunda ecuación a la primera, se obtiene

“"'7$2 _ 7173 = O

o sea, x2 = -x3. Si se suma tres veces la primera ecuación a la segunda, seobtiene

7121 + 7ílÍ3 = 0

o sea, xl = -x3. Así, se concluye que si (xl, xz, x3) es una solución entoncesx, = x2 == -x3. A la inversa, se puede fácilmente verificar que toda temade esa forma es una solución. Así, el conjunto de soluciones consta de todaslas temas (-a, -a, a).

Se han encontrado las soluciones de este sistema de ecuaciones «eliminan-do incógnitas», esto es, multiplicando las ecuaciones por escalares y sumándo-las luego para producir ecuaciones en las cuales algunas de las x¡ no están pre-sentes. Deseairto§__formali_zar ligeramente este proceso d_e mgc_l_q _que se puedaentender por qué opera y para así poder llevar a cabo los cálculos necesariospara resolver un sistema de manera sistemática.

Para el sistema general (1-1), supóngase que seleccionamos m escalarescl, . _ . , cm, que se multiplica la j-ésima ecuación por c¡ y que luego se suma.Se obtiene la ecuación

(C1/111 “I” ° ' ' + CmAm1)-T1 "I" ' ° ° -I- (C1A1n "I" ' ' ' -I' CmÁf,in)$n= ct;/1+ + cm;/,_.

\ tal ecuación se la llama combinación lineal de las ecuaciones (1-1). Evidente-nente, cualquier solución de todo el sistema de ecuaciones (1-1) será tambiéniolución de esta nueva ecuación. Esta es la idea fundamental del proceso deiliminación. Si se tiene otro sistema de ecuaciones lineales

B11351 + ' ' ° -I- Binïlïn = 21(1-2) É É ' É

Bklxl + ' ° ' + Bknxn = zlr

en que cada una de las K ecuaciones sea combinación lineal de las ecuacionesde (1-1), entonces toda solución de (1-1) es solución de este nuevo sistema.Evidentemente puede suceder que algunas soluciones de (1-2) no sean solucio-ies de (1-1). Esto, claro está, no sucede si cada ecuación en el sistema original›s combinación lineal de lasecuaciones en el nuevo sistema. Se dirá que dosiistemas de ecuaciones lineales son equivalentes si cada ecuación de cada sis-tema es combinación lineal de las ecuaciones del otro sistema. Podemos en-tonces establecer formalmente estas .observaciones como sigue

Page 18: ASESORES TECNICOS

Iii 'NUi'lnIlr'\' llmwlr '.\ 1

'I`i-orenia I. .S'i_rIi'››ui.s' i-quiiiuliwlr-.v dc ci'iuu'i`oncs lim'uI¢'s Ii¢'rii'ri ¢'.\'m'Irinii'ri-lr' las niisniu.\- .w›lircir›m'.s.

Si quiere que el proceso de eliminación para encontrar las solucionesde un sistema eoino ( l-l) sea efectivo, entonces se debe buscar, formando coin-Iiinacioncs lineales de las ecuaciones dadas, cómo se obtiene un sistema equi-valente de ecuaciones que sea más fácil de resolver. En la próxima sección se estu-diará un método para hacerlo.

Ejercicios

I. Verificar que el conjunto de números complejos descritos en el Ejemplo 4 es un sub-cuerpo de C_

2. Sea F el cuerpo de los números complejos. ¿Son equivalentes los dos sistemas de csi- .-ciones lineales siguientes? Si es asi, expresar cada ecuación de cada sistema como coin-binación lineal de las ecuaciones del otro sistema.

O 311 + IC2$1_íl32= =0

2181 + $2 =

3. Examine los siguientes sistemas de ecuaciones como en el Ejercicio 2

-$1 -I* 332 -I* 41732:1 + 31:2 + 82:3

ser + 2:2 + ãxa

0 33i'l-172 M

O $1 _

0

0

333O $2 -I* 3173

__1.-

íí

4. Examine los siguientes sistemas como en el Ejercicio 2.

2x1+(-l+í):i:2 -l- x4=0 <l-l-š):i:¡+8x2-í:i:;- :i:4=O

3IC2_2'l:íC3-I'-5IC4=O %IE¡_-$322-I* íC3+7IC4=O

5. Sea F un conjunto que contiene exactamente dos elementos, 0 y 1. Se define una adicióny multiplicación por las tablas:

+01 -O1

001 O00110 '101

Verificar que el conjunto F, juntamente con estas dos operaciones, es un cuerpo.

6. Demostrar que si dos_sistemas homogéneos de ecuaciones lineales con dos incógni-tas tienen las mismas soluciones, son equivalentes.7. Demostrar que todo subcuerpo del cuerpo de los números complejos contiene a todonúmero racional.

8. Demostrar que todo cuerpo de característica cero contiene una copia del cuerpo delos números racionales

Page 19: ASESORES TECNICOS

O A lg¢'I›m h`m'al

1.3. Matrices y operacioneselementales de fila

No se puede menos de advertir que en la formación de combinaciones linea-les de ecuaciones lineales no hay necesidad de seguir escribiendo las «incógnitas››xl, . . . , x,,, ya que realmente solo se opera con los coeficientes A ¡¡ y los esca-lares yi. El sistema (1-1) se abreviará ahora así:

AX=Y

All "'A1n

A= É ÉA-m1"'Amn

X = lïily rlïìliA se llama matriz de los coeficientes del sistema. Estrictamente hablando. ladisposición rectangular expuesta no es una matriz, smo una representacionde una matriz. Una matriz m x n sobre el cuerpo F es una función A del con-junto de los pares de enteros (i, j), 1 5 i 5 m, 1 5 j 5 n, en el cuerpo F.Los elementos de la matriz A son los escalares A(i, j) = A¡¡, y,. con frecuen-cia, suele ser más conveniente describir la matriz disponiendo sus elemen-tos en un arreglo rectangular con m filas y n columnas, como antes. Así,X (anteriormente) es, o define, una matriz n x 1, e Y una matriz m x 1.Por el momento, AX = Y no es más que una notación abreviada del sistemade ecuaciones lineales. Más adelante, cuando se haya definido una multipli-cación de matrices, querrá decir que Y es el producto de A y X.

Deseamos ahora considerar operaciones sobre las filas-de la matriz A quecorrespondan a la formación de combinaciones lineales de las ecuaciones delsistema AX = Y. Se limitará nuestra atención a tres operaciones elementalesde filas en una matriz m x n, sobre el cuerpo F :

donde

1. Multiplicación de una fila de A por un escalar c no nulo;2. Remplazo de la r-ésima fila de A por la fila r más c veces la fila s, don-

dc c es cualquier escalar y r =;'= s;3. Intercambio de dos filas de A.

Una operación elemental de filas es, pues, un_t1po especial de función (regla)0 que asocia a cada -matriz m x n, A, una matriz m x n, e(A). Se puede des-cribir e en forma precisa en los tres casos como sigue:

1. 1 r, 3 cArj.

2. e(,4),,. = AU. si ¿qe r, e(A),,. = A,,_ + CA”.3. e(A),-¡ = Aü- si i es diferente de r y s, e(A),¡ = As]-, e(A),¡ = A,¡.

I-ln la definición de e(A) no es realmente importante cuántas columnas tenga A,pero el número de filas de A sí Que es decisivo. Por ejemplo, se debe prestar

Page 20: ASESORES TECNICOS

l-'rmn'lmn'.\' ¡Im-nl:-s 7

atención a lo que signilica intercambiar las lilas 5 y 6 dc una matri7 5 x S. Paraevitar esta clase de complicaciones, convcndremos en que una operación ele-mental de filas e esta dclìnida en la clase de todas las matrices m x n sobre F,para algún m lijo, pero para cualquier n. En otras palabras, una e particularesta delìnida en la clase de todas las matrices sobre F que tienen m filas.

Una razón por la que nos limitamos a solo estos tres tipos de operaciones conIllas, es que efectuada una operación e en una matriz A. se puede volver a Aefectuando una operación semejante en e(A ).

Teorema 2. 'A cada operación elemental de filas e corresponde una opera-ción elemental de filas el, del mismo tipo de e, tal que e1(e(A)) = e(e¡(A) = Apara todo A. Es decir, existe la operación (función) inversa de una operaciónelemental de filas y es una operación elemental de filas del mismo tipo.

Demostración. ( 1-) Supóngase que e es la operación que multiplica la r-ésimafila de una matriz por un escalar no nulo c. Sea e, la operación que multiplicala lila r por c" 1. (2) Su_póngase que e sea la operación que remplaza la fila r porla misma fila r a la que se le sumó la fila s multiplicada por c, r qé s. Sea el laoperación que remplaza la fila r por la fila r a la que se le ha sumado la fila smultiplicada por (-c). (3) Si e intercambia las filas r y s, sea el = e. En cadauno de estos casos es claro que e1(e(A)) = e(e1(A)) = A para todo A. I

Definición. Si A y B son dos matrices m x n sobre el cuerpo F, se dice queB es equivalente por filas a A si B se obtiene de A por una sucesión finita de opera-ciones elementales de filas.

Usando el Teorema 2, el lector encontrará fácil verificar lo siguiente: Cadamatriz es equivalente por filas a ella misma; si B es equivalente por filas a A,entonces A es equivalente por filas a B; si B es equivalente por filas a A y C esequivalente por filas a B, entonces C es equivalente por filas a A. O sea, quela equivalencia por filas es una relación de equivalencia (véase Apéndice).

Teorema 3. Si A y B son matrices equivalentes por filas, los sistemas ho-mogeneos de ecuaciones lineales AX = 0 y BX = 0 tienen exactamente las mismassoluciones.

Demostración. Supóngase que se pasa de A a B por una sucesión finitade operaciones elementales de filas:

A -ÍA0'_›AlZ›"°"_'›Ak:-B.

Basta demostrar que los sistemas A¡X = 0 y A¡HX = 0 tienen las mismassoluciones, es decir, que una operación elemental por filas no altera el conjun-to de soluciones.

Así. supóngase que B se obtiene de A por una sola operación elementalde filas. Sin que importe cuál de los tres tipos (1), (2) o (3) de operaciones sea9

Page 21: ASESORES TECNICOS

H

cada ecuación del sistema BX = ll será i-ombinación lineal de las ecuacionesilel sistema AX = 0. Dado que la inversa de una operacion elemental de lìlases una operación elemental de filas, toda ecuación de AX = 0 será tambiéncombinación lineal de las ecuaciones de BX = 0. Luego estos dos sistemas

/l l¡:i'l›m llnml

son equivalentes y, por el Teorema l, tienen las mismas soluciones. I

Ejemplo 5. Supóngase que F es el cuerpo delos números racionales

2-1 3A=l40-

2 6-1

Se efectuará una sucesión finita de operaciones elementales de filas en A, in-

Cai-IN

dicando con números entre paréntesis el tipo de operación realizada.

-1 -94 0 - 46 -i 6

-9 -94 0 - 4

-2 -1 1-9 0

0 - 01 - - 10 _- 00 - 01 _ 1

001---

o›-c>o›-c>o›-oisai-to wn--[01-INI-'l\?0O00G0

._»1-=?o°”l:›-i-›Éo›i>-`i›-›i=-<'.n›-lo °lelelels<=ri-||_-ii-¬iï¬

Qu-iQO›-~OO›-O[\)i-IO

't-I

w|ui°'l~i

“C

010-

La equivalencia por filas de A con la última matriz en la sucesión anterior nosindica en particular que las soluciones de

2121 _ $2 + 3133 + 2124 = 0xl-l~4:i:2 - x4=0

2331+ 6132 _ 333 + 5334 =

Y _$3 _ -IQLQI4 =

2171 -l' -13;?-334:122 -- åxi

soii exactamente Tas mismas. Queda de manifiesto en el segundo sistema que.si asignamos a x4 un valor racional c cualquiera, se obtiene una solución

0

000

30

-i

ul-IQOQ

mk

wi-Içi-Iwi-I[\)GI

4-i

5

t›¦›l~1›-på

:wi-1c'7›'°l3__ _?-

ii“ii

( 4- 'fix 'ï'c, c), con lo que toda solución es de esta forma

/'\ svla

Éle

I" D-I \/

É av1»

Page 22: ASESORES TECNICOS

l'.'i 'mu 'lmlm' Ílm 'ulitt'

I-Ijemplo (›. Supóngase que es F el cuerpo de los números complejos y

-liA= -í3-

12

Al efectuar operaciones con filas es conveniente a menudo combinar variasoperaciones del tipo (2). Teniendo esto presente

-it o2+t 0 1 oi-t3i2l.03+2ti*l,o3+2t.92.0o-12 1 2 1 2 io

Con lo que el sistema de ecuaciones_2U1+¶:¶J2=0

-'l:IlJ1+'3íC2=0

íCi+2fU2=0

tiene solamente la solución trivial xl = x2 = 0.

En los Ejemplos 5 y 6 obviamente no se estaban haciendo operaciones conIilas al azar. La elección de las operaciones con filas estaba motivada por eldeseo de simplificar la matriz coeficiente de una manera análoga a la «elimi-nación de incógnitas» en el sistema de ecuaciones lineales. Daremos ahora unadefinición formal del tipo de matriz a la que estábamos tratando de llegar.

Definición. Una matriz m x n, R, se llama reducida por filas si:(a) el primer elemento no nulo de cada fila no nula de R es igual a l;

(b) cada columna de R que tiene el primer elemento no nulo de alguna fila-tiene todos sus otros elementos 0.

Ejemplo 7. Un ejemplo de matriz reducida por filas es la matriz identidadn x n (cuadrada) 1. Esta es la matriz n x n definida por

1, si i=jI*f"ô"f"lo, si ¿+1.

Esta es la primera de las muchas ocasiones en que se usará la delta deKronecker (6).

En los Ejemplos 5 y 6 las matrices finales obtenidas son matrices reduci-das por filas. Dos ejemplos de matrices no reducidas por 'filas son'

1 0 0 0 0 2 10 1 -1 0 › 1 0 -3 -0 0 1 0 0 0 0

La segunda matriz no satisface la condición (a), porque el primer elemento

Page 23: ASESORES TECNICOS

lll -1 hu-lira llnrnl

no nulo del primer renglón no es l. La primera matriz si satisface la condición(a), pero no la condición (b) en la columna 3.

Demostraremos ahora que se puede pasar de cualquier matriz dada a unamatriz reducida por filas, por medio de un número finito de operaciones ele-mentales de fila. Esto, junto con el Teorema 3, proporcionará un instrumentoefectivo para la resolución de sistemas de ecuaciones lineales.

Teorema 4. Toda matriz m x n sobre el cuerpo F es equivalente por filasa una matriz reducida por filas.

Demostración. Sea A una matriz m x n sobre F. Si todo elemento de laprimera fila de A es 0, la condición (a) se cumple en lo que concierne a la fila 1.Si la fila 1 tiene un elemento no nulo, sea k el menor entero positivo j para elque A1J. =,é 0. Multiplicando la fila 1 por Afkf la condición (a) se cumple conrespecto a esa fila. Luego, para todo i 2 2, se suma (-A¡,,) veces la fila 1 a lafila i. Y ahora el primer elemento no nulo de la fila 1 en la columna k, eseelemento es 1, y todo otro elemento de la columna k es 0.

Considérese ahora la matriz que resultó de lo anterior. Si todo elementode la fila 2 es 0, se deja tal cual. Si algún elemento de la fila 2 es diferente de 0,se multiplica esa fila por un escalar de modoque el primer elemento no nulosea l. En el caso de que la fila 1 haya tenido un primer elemento no nulo en lacolumna k, este primer elemento no nulo de la fila 2 no puede estar en la colum-na k; supóngase que este en la columna k, 9€ ki Sumando múltiplos apropia-dos de la fila 2 a las otras filas, se puede lograr que todos los elementos de lacolumna k, sean 0, excepto el 1 en la fila 2. Lo que 'es importante observar eslo siguiente: Al efectuar estas operaciones, no se alteran los elementos de lafila 1 en las columnas 1, . _ _ , k, ni ningún elemento de la columna k. Es claroque, si la fila 1 era idénticamente nula, las operaciones con la fila 2 no afectanla fila 1.

Si se opera, como se indicó, con una fila cada vez, es evidente que despuésde un número finito de etapas se llegará a una matriz reducida por filas. I

Ejercicios1. Hallar todas las soluciones del sistema de ecuaciones

(l - í)x¡ - ixz = 02.111 + * 1:)I2 = 0.

2. Si3 -1 2

A = [2 1 1]1 -3 0

hallar todas las soluciones de AX = 0 reduciendo A por filas.

3. Si6 _.A=[ 4 _

-1 cio» QJCOmi

Page 24: ASESORES TECNICOS

Erum iiiiws llnmlrs ll

hallar todas las soluciones de AX = 2X y todas las soluciones de AX = 3X (el síinboloi-X representa la matriz , cada elemento de la cual es c veces el correspondiente elemen-to de X).

4. Hallar una matriz reducida por filas que sea equivalente por filas a

t -(1+z') 0A = 1 -2 1 -

1 21' -15. Demostrar que las siguientes dos matrices no son equivalentes por filas

-1 0 › -2 0 -1 -

. bA = " :I[0 d

una matriz 2 x 2 con elementos complejos. Supóngase que A es reducida por filas y tam-bién que a + b + c + d = 0. Demostrar que existen exactamente tres de estas matrices.

)|~iatol ffiO C/OOQ 1-*l-I OQU-I U1[Olg

6. Sea

7. Demostrar que el intercambio de dos filas en una matriz puede hacerse por mediode un número finito de operaciones elementales con filas de los otros dos tipos.

8. Considerar el sistema de ecuaciones AX = 0, donde

a bA " le dl

es una matriz 2 x 2 sobre el cuerpo F. Demostrar lo siguiente:(a) Si todo elemento de A es O, entonces cada par (x,, x2) es una solución de AX = 0.

' _ (b) Si ad - bc =,\'= 0, el sistema AX = O tiene solamente la solución trivial xl = x2 = 0.'(c) Si ad -- bc = 0 y algún elemento de A es diferente de 0, entonces existe una solu-

ción (xf, xg) tal que (x1, x2) es una solución si, y solo si, existe un escalar y tal que xl =yx?, X2 = yx?-

1.4. Matrices escalón reducidas por filas

Hasta el momento, el operar con sistemas_ de ecuaciones estaba motivadopor tratar de encontrar las soluciones de tal sistema. En la Sección 1.3 se esta-bleció un método normal de encontrar esas soluciones. Queremos ahora ad-quirir alguna información algo más teórica, y para tal propósito es convenienteprofundizar un poco más en las matrices reducidas por fila.

Definición. Una matriz m x n, R, se llama matriz escalón reducida porfila si:

(a) R es reducida por filas;(b) toda fila de R que tiene todos sus elementos 0 está debajo de todas las

filas que tienen elementos no nulos;

Page 25: ASESORES TECNICOS

¡Í .-ll_t'vl›ru lineal

(c) si las filas l, . . . , r son las _/ilus no nulas de R. _t' si cl primer clcnimn›no nulo de laƒila ¡está en la columnak,-,i = l, . . _ , r, entocesk, < kz < - - - < k,.

Se puede describir también una matriz escalón R reducida por filas comosigue. Todo elemento de R es 0, o existe un número positivo r, l 5 r S m, yr enteros positivos kl, ..., k, con l 5 k¡ 5 n y

(a)R¡,-=0parai>r,yR¡¡=0sij<k¡.(b)R¿,,j=5¡¡,lSi$r,1SjSr.(c)k1<°"<k¡.

Ejemplo 8. Dos ejemplos de matrices escalón reducidas por filas son lamatriz identidad n x n y la matriz cero m x n, 0'“'", cuyos elementos son todos 0.El lector no tendrá dificultad en hallar otros ejemplos, pero quisiéramos darotro no trivial:

0 1 -3 0%0 0 012-0 0 0 0 0

Teorema 5. Toda matriz m x n, A, es equivalente por filas a una matrizescalón por filas.

Demostración. Sabemos que A es equivalente por filas a una matriz re-ducida por filas. Todo lo que se necesita observar es que, efectuando un nú-mero finito de intercambios de filas en una matriz reducida por filas, se la pue-de llevar a la forma escalón reducida por filas. I

En los Ejemplos 5 y 6 se vio la importancia que tienen las matrices redu-cidas por filas en la resolución de sistemas homogéneos de ecuaciones lineales.Sea ahora examinar brevemente el sistema RX = 0. donde R es una matrizescalón reducida por filas. Sean las filas 1, . . . , r las no nulas de R, y supóngaseque el elemento principal no nulo de la fila i está en la columna ki. El sistemaRX = 0 consta entonces de r ecuaciones no triviales. Además, la incógnita xk, apa-recerá (con coeficiente no nulo) solamente en la i-ésima ecuacion. Si u¡, . _ _ , u,,_,representan las (n ¿ r) incógnitas que son diferentes de xh, . . . . xk', enton-ces las r ecuaciones no triviales de RX = 0 son de la forma

7l._'I'

xki + _El Cljui = 0¡==

(1-3) É ÉíCk,+ E C"u-=0._ r: .1

2=1

Todas las soluciones del sistema de ecuaciones RX = 0 se obtienen dandovalores arbitrarios a u¡, . . . , u,,_,, y calculando entonces los correspondientesvalores de xkl, _ . . , xk, de (1-3). Por ejemplo, si R es la matriz del Ejemplo 8.

Page 26: ASESORES TECNICOS

l'.'i 'mn'lum'.\ lIm'itli'\ I ,l

entonces r = 2, k, = 2. A2 = 4 y las dos ecuaciones no triviales del sistemaRX = 0 son

.U2 _* 3.123 + %.U5 = 0 O 322 = 3IlÍ3 _' åílïf,

324 + 2175 = 0 0 324 = “_2.135.

Así, podemos asignar cualquier valor a x,, x3 y x5, digamos xl = a, x3 = b.x5 = c, y obtener la solución (a, 3b - åc, b, -2c, c).

Observemos una cosa más, en relación con el sistema de ecuaciones RX = 0.Si el número r de filas no nulas de R es menor que n, entonces el sistema RX = 0tiene una solución no trivial, esto es, una solución (xl, . . . , x,,) en que no todoxj es 0. En efecto, como r < n, se puede elegir algún xj que no esté entre lasr incógnitas xh, . . . , xkr, y se puede entonces construir una solución comoantes. en que este xj es l. Esta observación nos lleva a uno de los hechos másfundamentales sobre sistemas homogéneos de ecuaciones lineales.

Teorema 6. Si A es una matriz m x n con m < n, el sistema homogéneode ecuaciones lineales AX = 0 tiene una solución no trivial.

Demostración. Sea R una matriz escalón reducida por fila que sea equiva-lente por fila a A. Entonces los sistemas AX = 0 y RX = 0 tienen las mismassoluciones por el Teorema 3. Si r es el número de filas no nulas de R, entoncesciertamente r 5 m, y como m < n tenemos que r < n. Se sigue inmediatamentede las observaciones anteriores que AX = 0 tiene una solución no trivial. I

Teorema 7. Si A es una matriz n x n (cuadrada), A es equivalente porfilas a la matriz identidad n x n, si, y solo si, el sistema de ecuaciones AX = 0tiene solamente la solución trivial.

Demostración. Si A es equivalente por filas a I, entonces AX = 0 e IX = 0tienen las mismas soluciones. Recíprocamente, supóngase que AX = 0 tienesolamente la solución trivial X = 0. Sea R una matriz escalón reducida porfilas n x n, que es equivalente por filas a A, y sea r el número de filas no nulasde R. Entonces RX = 0 carece de solución no trivial. Con lo que r 2 n. Perocomo R tiene n filas, ciertamente r 5 n. Con lo que r = n. Como esto quieredecir que R tiene un 1 como primer elemento no nulo en cada una de sus n filasy como estos 1 están en las diferentes columnas n, R debe ser la matriz identi-dad n x n. I

Preguntémonos ahora qué operaciones elementales de fila hay que hacer pararesolver un sistema de ecuaciones lineales AX = Y no homogéneo. De entradacabe observar una diferencia básica con el caso homogéneo; y es que mien-tras el sistema homogéneo siempre tiene la solución trivial xl = - - - = x,, = 0,un sistema no homogéneo no tiene necesariamente solución.

Se construye la matriz aumentada A' del sistema AX = Y. Esta es la matrizm x (n + l) cuyas primeras n columnas son las columnas de A y cuya últimacolumna es Y; más precisamente,

I 0 oAU = A,-,-, si _; É nAi(n+i› = yt-

Page 27: ASESORES TECNICOS

I4 Algebra llnvul

Supóngase que se efectúa en A una sucesión de operaciones elementales confilas, para llegar a una matriz escalón reducida por filas R. Si se efectúa estamisma sucesión de operaciones de fila en la matriz aumentada A', se llegaráa una matriz -R' cuyas primeras columnas son las columnas de R y cuya últimacolumna tiene ciertos escalares 2,, _ _ _ , zm. Los escalares zi son los elementosde la matriz m x 1

21Z = 2

-zm

que resulta de la aplicación de la sucesión de operaciones de fila a la matriz Y.Para el lector es claro que, al igual que en la demostración del Teorema 3, lossistemas AX = Y y RX = Z son equivalentes y, como consecuencia, tienenlas mismas soluciones. Es muy fácil determinar cuándo el sistema RX = Ztiene alguna solución y encontrar todas las soluciones si es que existen. En efec-to, si R tiene r filas no nulas, con el primer elemento no nulo en la fila i y enla columna k¡, i = 1, _ _ _ , r, entonces las primeras .r ecuaciones de RX = Zexpresarán efectivamente las xh, _ _ _ , xk, por las (n - r) restantes xj y los es-calares zi, ._ _ , z,. Las últimas (m - r) ecuaciones son

0 = 21'-1-I. Q

Q 0

. O

0. = zm

y, por tanto_ la condición para que el sistema tenga una solución es z, = 0para i > r. Si se cumple esta condición todas las soluciones del sistema se en-coiitrarán, del mismo modo que en el caso homogéneo, dando valores arbi-trarios a (n ~ r) de las xj, calculando luego x,,¡ en la i-ésima ecuación.

Ejemplo 9. Sea F el cuerpo de los números racionales y

1 -2 1A= 2 1 1

0 5 --1

Se ,trata de resolver el sistema AX = Y para ciertos v,, yz e y3. Efectuando unasucesión de operaciones de fila en la matriz aumentada A', que reduzca porfilas a A:

1 -2 1 2/1 1 -*2 1 Z/1

2 1 1 yi E. 0 5 -1 (yt-2;/1)0 5 -1- ya O 5 _] ya

_.le

Qi-Il@ Quit-Il-I /'\'â “$

1 -2 1 'yi 1 _ lll _0 5 -1 (Z/2 _-22/1) [0 '_' %(y2 "' 2!/1)

_0 0 0 (ya _ yz + 22/1) 0 '“ 'l' 2!/1)

“ 'ií(!/i + 2?/2)0 1 - š:(@I2 - 22/1)

(ya "“ 2/2 + 2!/1)Qi-I OO ©0\l›-law

Page 28: ASESORES TECNICOS

lu 'tmi'lt›m'.\' llm'uli'.\' I ,S

la eoiiilicióii para que cl sistema AX == Y tenga una solución es, pues,

2?/i _ Z/2 + ya = 0

v si los escalares dados y, satisfacen esta condición, todas las soluciones se ob-tienen asignando un valor c a x3, y calculando luego

171 = -gc + '.%(Z/i + 21/2)$2 = ic + É@/2 _ 21/1)-

O

Una observación final respecto al sistema AX = Y. Supóngase que los ele-mentos de la matriz A y los escalares yl, _ _ _ , _v,,, pertenecen a un subcuerpo1-', del cuerpo F. Si el sistema de ecuaciones AX = Y tiene una solución con\,_ _ _ _ _ x,, en F, tiene también una solución con xl, _ _ _ _ x,, en F1. En efecto,sobre cualquier cuerpo, la condición para que el sistema tenga una soluciónes que se cumplan ciertas relaciones entre los yl, _ _ _ , y,, en F1 (las relaciones

, 4: 0 para i > r anteriores). Por ejemplo, si AX = Y es un sistema de ecua-ciones lineales, en el cual los escalares yk y AU- son núnieros reales, y si existeuna solución en que xl, _ _ _ _ x,, son números complejos, entonces existe unasolución en que los xl, _. _ , x,, son números reaLes.

lzfierciciosI. Ilallar, mediante reducción por filas de la matriz de coeficientes todas las solucionesdel siguiente sistema de ecuaciones:

åxi + 21:2 - 6x; =_42I1 + 5173 =

_3I1 + 6222 '_ 13123 =

-šxl -l- 2:2 - åxa = OOO@

2. Hallar una matriz escalón reducida por filas que sea equivalente a

1 -'iA= 2 2 -

i l-I-'i

¿Cuáles son las soluciones de AX = 0?

3. Describir explícitamente todas las matrices escalón 2 x 2 reducidas por filas.

4. Considérese el sistema de ecuaciones

$1 “_ $2 -I- 213 = 1

2I1 -I- 2223 = 1

$1 __ 32:2 + 4223 = 2.

¿Tiene este sistema solución? Si es así, determinar todas sus soluciones.

5. Dar un ejemplo de un sistema de dos ecuaciones lineales con dos incógnitas que notenga solución.

Page 29: ASESORES TECNICOS

lb al l_t¦i'llt'u llmïll

6. Mostrar que el sistema

xr-2:@-2+ :ca-l-2:c4=11131+ íC2_ 1173+ íC4=2:t:1-l-7x2-5:c;- :t:4=3

no tiene solución.

7. Hallar todas las soluciones de

21:1-32:2-7:c3+5:c¢+2:c;,= -:c1-2:c2-4a:3+3:z:4-|- :i:5= -

2x1 - 4:c3+ 2:c4-|- 2:5 =xl-5x2-7x;;+6:c.,+2:r;,= -

3 -12A=2 1 1-

1 -30

¿Para cuáles temas (yl, yz, y3) tiene una solución el sistema AX = Y?9. Sea

_~iootctc

8. Sea

H*C>bDCú N>C>à›O> l-it-Ii-Al_@ Qihøgghø

A-.=

¿Para cuál (yl, yz, y3, y4) tiene solución el sistema de ecuaciones AX = Y?

10. Supóngase que R y R' son matrices escalón 2 x 3 reducidas por filas y que los sis-temas RX = 0 y R'X = 0 tienen exactamente las mismas soluciones. Demostrar que R = R'.

I.5_ Multiplicación de matrices

Es evidente (o debería serlo, en todo caso) que el proceso de formar com-binaciones lineales con las filas de una matriz es fundamental. Por esta razónes de provecho introducir un esquema sistemático que indique qué operacionesse han de realizar; más precisamente, supóngase que B es una matriz n x psobre el cuerpo F, con filas B1, _ _ _ , B, y que a partir de B se construye una ma-triz C con filas y¡, _ _ _ , ym, efectuando ciertas combinaciones lineales

(L4) 'Yi = Aafii -l- /11232 + ' ' ' + AMB»-

Las filas de C quedan determinadas por los mn escalares Ai,-, que son los ele-mentos de una matriz m x n, A. Si se desarrolla (1-4)

<0_›_- - -0.-_) = šl <A_-_B_i- - -A.-_B_,_)se ve que los elementos de C vienen dados por

Ctj = š A,-,Bfr=l r

Page 30: ASESORES TECNICOS

l'_`| 'ttm'lnm'.\' llm'uli'.\ I 7

Delìnieión. Seu A una matriz ni x n sobre cl cuerpo I" v .veu B una matrizn x p sobre I". lil producto AB es la matriz m x p, C, cuyos eli-nwntos i, /` son

c_,= ÉA-Bir rj-r-1

Ejemplo 10. He aquí algunos productos de matrices de elementos ra-cionales.

<fl> [3 "ã šl=l_š Ílliš “i ÉlI )onde

'y1=(5 -1 2)=1-(5 -1 2)-l-0-(15 4 8)'y2=(O 72)=-3(5 -12)-I-1-(1548)

06912- -

(b) 1262-" 38-238- t\Doo00›- OU1NJ›-^ i-Ii-l=~0OO

I'_'-'I

O OD I-I

Q

l)onde'y2=(912 -8)=-2(O 6 1)-l~3(3 8 -2)~y3=(l2 62 -3)= 5(0 6 l)+4(3 8 -2)

ts] = ti atala 1;]-[nin 4

Donde

(e) L2 4][_â] = [10]_ 34

=0-_ 0

0 0` 0

-5 1 02 09 O

L3S¢.Ol\Di-'OOO

OO'-'

00

OOO

OOO Qør-1i-10301 OOOC01-l=~l\Dki-1-IL-±n1_±1J

OOONJ

=0-1

Es importante observar que el producto de dos matrices puede no estardcfinido; el producto está definido si, y solo si, el número de columnas de laprimera matriz coincide con el número de filas de la segunda. Así que no tienesentido intercambiar el orden'de los factores en (a), (b) y lc) de los ejemplosanteriores. Frecuentemente se escribirán productos, tales como AB, sin men-cionar explícitamente las dimensiones de los factores, y en tales casos se darápor entendido que el producto está definido. Por (d), (e), (f), (g) se ve que, aun-

Page 31: ASESORES TECNICOS

lll .^l l_|:¢°hru lineal

que los productos AB y BA estén definidos, no es necesariamente AB =- B/1:es decir, la multiplicación de matrices no es conmutativa_

Ejemplo 11.

(a) Si I es la matriz identidad m x m y A es una matriz m x n, IA = A.(b) Si I es la matriz identidad n x n y A es una matriz m x n, Al = A.(c) Si 0'°"" es la matriz nulak x m, O“"' = U“""A. En forma similar. A0""' = 0"-"_

Ejemplo 12. Sea A una matriz m x n sobre F. La representación abre-viada anterior AX_ = Y, para sistemas de ecuaciones lineales, es compatible conla definición de productos de matrices. Así, si

¿Ci

X = $2¿Cn

con x, en F, entonces AX es la matriz m x 1

2/i

Y = 1'?ym

tal que y, = Aüxl + Aux, +. - - - + A¡,,x,,.El uso de matrices columna sugiere una representación que es frecuente-

mente útil. Si B es una matriz n x p, las columnas de B son las matrices n x 1.B1, _ _ _ _ BP, detinidas por

B1, \

B",-La matriz B es la sucesión de estas columnas:

B= |:B1,...,Bp].

El elemento i, j de la matriz producto AB se forma a partir de la i-ésima filade A y de la j-ésima columna de B. Compruebe el lector que la /`-ésima co-lumna de AB es AB¡:

AB = [AB1, _ _ _ , AB,,]_A pesar de que un producto de matrices depende del orden en que los fac-

tores están escritos, es independiente del modo en que están asociados, comclo demuestra el siguiente teorema.

Teorema 8. Si A, B, C son matrices sobre el cuerpo F, tales que los produc-tos BC y A(BC) están definidos, entonces también lo están los productos AB,(AB)C y

A(BC) = (AB)C.

Page 32: ASESORES TECNICOS

l i mn u›r¡i'.\ ltm'ul¢'.\ l 9

Ili-nn›.\'mu'ión. Supóngase que B es una matriz n x p. Como BC está de-Imula. (` es uiia niatri/ con p lìlas, y B(` tiene n lilas. Como A(BC) está definida,Í.- puede suponer que A es una matriz m x n. Así el producto AB existe y esmm uiatri/ m x p, de lo que se sigue que el producto (AB )C existe; Para hacerwi que _-ttB('l = (AB)C se debe demostrar que

t4wC›1.-,- = t(AB›C1_-,-|›.u.i todos los i, /'_ Por definición

[A (BC)]='f = 2 Á.--(BC)f¡

¬M*M¬ uM'Pff*.":WÍ9

= E Braco;

-M ¬L~4 Ef*2°@Í@= 2 Ai:-Brs)Caj

= 2 (AB)iaCaj

= [(ÁB)C]¢ƒ.

Si A es una matriz (cuadrada) n x n, el producto AA está definido. Estaniatri/ se representa por A2. Por el Teorema 8, (AA)/l = A(AA) o AZA = AA2,.lr modo que el producto AAA está definido sin ambigüedad. Este productose representa por A3. En general, el producto AA - - A (k veces) está defini-do sin ambigüedad, y se representará por A'°_

()bsérvese que la relación A(BC) = (AB)C implica, entre otras cosas, quecombinaciones lineales de combinaciones lineales de filas de C son otra vezioiiibinaciones lineales de filas de C_

Si B es una matriz y C se obtiene a partir de B por medio de una operaciónelemental de filas, entonces toda fila de C es combinación lineal de las filas deH, y, por tanto, existe una matriz A tal que AB = C. En general, existen muchasde estas matrices A, y entre todas ellas es conveniente y posible escoger una queit-aga algunas propiedades especiales. Antes de ver esto se necesita introduciruna clase de matrices.

Definición. Una matriz m x m se dice matriz elemental si se puede obtener«lc lu matriz identidad m x m por medio de una sola operación elemental simpleili' /ÍÍUS.

Ejemplo 13. Una matriz elemental 2 x 2 es necesariamente una de lasagu ientes:

[0 1 [1 c] [1 0]i 0 ' 0 1 ' C 1

Page 33: ASESORES TECNICOS

20 A l_ei'l›ru lineal

[3 ï:|› c 7€ 0, 2} c 7! 0.

Teorema 9. Sea e una operación elemental de fila y sea E la matriz ele-mental m x m, E = e(I)_ Entonces, para toda matriz m x n, A

e(A) = EA.Demostración. La clave de la demostración radica en que el elemento

de la i-ésima fila y la j-ésima columna de la matriz producto EA se obtiene dela i-ésima fila de E y de la j-ésima columna de A. Los tres tipos de operacioneselementales de fila deben ser estudiados separadamente. Se dará una demos-tración detallada para una operación del tipo (ii). Los otros dos casos, másfáciles de estudiar, se dejan como ejercicios. Supóngase que r qé s y que e esuna operación que «remplaza la fila r por la fila r más c veces la fila s'››_ Entonces

___ ô-51,,

Etk-{5†1¢+05sk, Í=1`-Luego

_ '" ,_ __ Áçk, T

(EA)*”' _ Ã, b"'°A'" “ l/1,, + ¢A_,-, t = 1-.Es decir, EA = e(A). I

Corolario. Sean A y B dos matrices m x n sobre el cuerpo F. EntoncesB es equivalente por filas a A si, y solo si, B = PA, donde P es un producto dematrices elementales m x m.

Demostración. Supóngase que B = PA, donde P = Es - - - E2E, y los E,son matrices elementales m x m. Entonces EIA es equivalente por filas a A1 yE2(E1A) es equivalente por filas a EIA. Luego E2E,A es equivalente por filas aA, y continuando de este modo se ve_que (Es - - - E1)A es equivalente por filasa A. Sean E1, E2, _ _ _ , Es matrices elementales correspondientes a cierta su-cesión de operaciones elementales de filas que lleva A a B. Entonces B =(Es _ _ . El I

Ejercicios `

A=[Í “â B=[_ï], c=[i -1].

|'1 -i 1 2 -2

3 0 1 4 4

Verificar directamente que A(AB) = A2B_

l. Sean

Calcular ABC y CAB.

2. Sean

Page 34: ASESORES TECNICOS

I :_ mn 'mm'.\ llm'uli'.\ fl

l. I-ncontrai dos matrices 2 x 2. A. dil`e|'entes tales que A2 U, pero .-I =† U.

-I. l'.-ua cada .l del Ejercicio 2, hallar matrices elementales l-.`,_ l:',, _ _ _ _ I:`,, tales que

¡dk ' " E2lç¡A = I.

l -1A = [2 2], B = [ji

l 0

,_l ustc una matriz C tal que CA = B?

4 Sean

t›. Sea A una matriz m x n y B una matriz n x k- Demostrar que las columnas de (' = /IB.im i-omhiiiaciones lineales de las columnas de A. Si al, _ _ _ _ 01,, son las columnas de A y¡',. _ _ _ _ yk son las cdlumnas de C, entonces

'Il

7 Sean A y B matrices 2 x 2 tales que AB = I. Demostrar que BA = I.

C CC = [ai az]una matriz 2 x 2. Se desea saber si es posible encontrar matrices 2 x 2, A y B, tales qiicÉ ' AB - BA. Demostrar que tales matrices pueden hallarse si, y solo si, C1, + C22 = 0.

ll. Sea

I .6_ Matrices inversibles

Supóngase que P es una matriz m x m, que es un producto de matricest-lementales. Para cada matriz m x n, A, la matriz B = PA es equivalente portilas a A; luego A es equivalente por filas a B y existe un producto Q de matri-i-es elementales, tal que A = QB. En particular, esto es verdad cuando A es lamatriz identidad m x m. En otras palabras, existe una matriz m x m, Q, quees ella misma un producto _de matrices elementales, tal que QP = I. Comoveremos, la existencia de una Q con QP = I es equivalente al hecho de queI' es un producto de matrices elementales.

Definición. Sea A una matriz (cuadrada) n x n sobre el cuerpo F. Unamatriz n x n, B, tal que BA = I se llama inversa a la izquierda de A; una matrizn x n, B, tal que AB = I se llama inversa .a la derecha de A. Si AB = BA = I,entonces B se llama inversa bilátera de A, y se dice que A es inversible.

Lema. Si A tiene una inversa a la izquierda, B, y una inversa a la derecha,(`_ entonces B = C.

Demostración. Supóngase que BA = I y que AC '= I. Entonces

B = BI = B(AC) = (BA)C = IC = C. I

Page 35: ASESORES TECNICOS

22 A lgehm lineal

Así, si A es inversa a la izquierda e inversa a la derecha, A es inversible ytiene una inversa bilátera que se representará por A” y sc llamará simplementela inversa de A.

Teorema 10. Sean A y B dos matrices n x n sobre F.

(i) Si A es inversible, también lo es A_' y (A"1)_1 = A.(ii) Si A y B son inversibles, también lo es AB y (AB)"' = B"1A_'_

Demostración. La primera afirmación es evidente por la simetría de ladefinición. La segunda se desprende de las relaciones

(AB)(B_*A“1) = (B_1A“1)(AB) = I. I

Corolario. Un producto de matrices inversibles es inversible.

Teorema 11. Una matriz elemental es inversible.

Demostración. Sea E una matriz fundamental correspondiente a la ope-ración elemental de fila e. Si el es la operación inversa de e (Teorema 2) y E1 =e,(l), entonces

EE¡ = e(E¡) = e(e1(I)) = I

y EIE = e1(E) = e1(e(l)) = I

con lo que E es inversible y E1 = E”. I

Ejemplo -14.

it ¿H? ¿Jtz, fr - ii :fiti '2H-± $1

(d) Cuando c #= 0,

[23 ïl1=[å`* ll Y [Fi 'ìlrlå É--l'Teorema 12. Si A es una matriz n x n, los siguientes enunciados son equi-

valentes_ °

(i) A es inversible.(ii) A es equivalente por filas a la matriz identidad n x n(iii) A es un producto de matrices elementales.

Page 36: ASESORES TECNICOS

I-i mwimn-.s lineales 23

I›enn›.i-trfu-ión. Sea R una matriz escalón reducida por filas, equivalen-te por lilas a A. Por el Teorema 9 (o su corolario),

If = [ik ' ° ° _B'2E¡A

donde 15,, _ _ _, E,, son matrices elementales. Cada Ej es inversible, y asi

A =E1"1---E,Z'R_t omo el producto de matrices inversibles es inversible, se ve que A es inversi-lvlc si, y solo si, R es inversible. Como R es una matriz (cuadrada) escalón re-ducida por filas, R es inversible si, y solo si, toda fila de R contiene un elementono nulo, esto es, si, y solo si, R = I. Hemos visto que A es inversible si, y solo si,R = l, y si R = l entonces A = E,,_1, _ _ _, Ef1_ Se ve ahora que (i), (ii) y (iii)son afirmaciones equivalentes respecto de A. I

Corolario. Si A es una matriz inversible n x n y si una sucesión de opera-«mncs elementales de fila reduce A a la identidad, entonces la misma sucesiónde operaciones, cuando se aplica a I, da A".

Corolario. Sean A y B dos matrices m x n. Entonces B es equivalente por/ilus a A si, y solo si, B = PA. donde P es una matriz m x m inversible.

Teorema 13. Para una matriz n x n, las siguientes afirmaciones son equi-i-ulentes_

(i) A es inversible.tii) El sistema homogéneo AX = 0 tiene solo la solución trivial X = 0.

(iii) El sistema de ecuaciones AX = Y tiene una solución X para cada matrizit X 1, Y.

Demostración. De acuerdo con el Teorema 7, la condición (ii) es equiva-lente al hecho de que A es equivalente por filas a la matriz identidad. Por elleorema 12, (i) y (ii) son, por tanto, equivalentes. Si A es inversible, la solu-ción de AX = Y es X = A_'Y. Recíprocamente, supóngase que AX = Ytiene una solución para cada Y dada. Sea R una matriz reducida por filas que seaequivalente por filas a A. Se debe demostrar que R = l. Esto equivale a demos-trar que la última fila de R no es 0 (idénticamente)_ SeaalSi el sistema RX = E puede resolverse para X, la última fila de R no puedeser 0. Se sabe que R = PA, donde P es inversible. Luego RX = E si, y solo si,/IX = P"'E_ De acuerdo con (iii), el último sistema tiene una solución. I

Corolario. Una matriz cuadrada que tiene una inversa a la izquierda o ala derecha es inversible.

Page 37: ASESORES TECNICOS

24 A lgehru lmeul

Demostración. Sea A una matriz m x n. Supóngase que A tiene una in-versa a la izquierda, es decir, una matriz B tal que BA = I. Entonces AX = 0tiene solo la solución trivial, porque X = IX = B(AX)_ Luego A es inversible.Por otro lado, supóngase que A tiene una inversa a la derecha. es decir. unamatriz C tal que AC = I. Entonces C tiene una inversa a la izquierda y es, portanto, inversible. Se sigue entonces que A = C`1 y así A es inversible con in-versa C. I

Corolario. Sea A = A,A2 - -~A,,, donde A1, _ _ _ , A,, son matrices (cua-dradas) n x n. Entonces A es inversible si, y solo si, cada AJ- es inversible.

Demostración. Se ha visto que el producto de dos matrices inversibleses inversible. De lo cual es fácil deducir que si cada AJ- es inversible entoncesA es inversible.

Supóngase ahora que A es inversible. Se demostrará primero que A,, esinversible. Supóngase que X es una matnz n x 1 y que A,,X = 0. EntoncesAX = (A1, _ _ _ , A,,_¡)A,,X = 0. Como A es inversible se debe tener que X = 0.El sistema deecuaciones A,,X = 0 no tiene, pues, solución no trivial, y así A,, esinversible. Pero ahora A, - - - A,,_1 = AA,,_1 es inversible. Por lo dicho antes,Ah-, es inversible. Continuando en esta fonna se concluye que todo AJ- es in-versible_ I

Quisiéramos hacer ahora un comentario final respecto a la solución de ecua-ciones lineales. Supóngase que A es una matriz m x n y que deseamos resolverel sistema de ecuaciones AX = Y. Si R es una matriz escalón reducida por filas,equivalente por filas a A, entonces R = PA, donde P es una matriz m x minversible. Las soluciones del sistema AX == Y son exactamente las mismasque las soluciones del sistema RX = PY(=Z)_ En la práctica. no es muchomás dificil hallar la matriz P que reducir por filas A a R. En efecto, supóngaseque se forma la matriz aumentada A' del sistema AX = Y, con escalares arbi-trarios y1, _ _ _ , y,,, en su última columna. Si entonces se efectúa sobre A' unasucesión de operaciones elementales de fila que lleve de A a R, se habrá acla-rado qué es la matriz P. (El lector deberá remitirse al Ejemplo 9,_donde se llevóadelante esencialmente este proceso.) En particular si A es una matriz cuadradaeste proceso deja en claro cuándo A es o no inversible, y si A es inversible cuáles la inversa P. Como ya se ha dado la parte principal de un ejemplo de tal cálcu-lo, solo se dará ahora un ejemplo de 2 x 2.

Ejemplo 15. Supóngase que F es el cuerpo de los números racionales y

A-tf *iiAsí[2 -1 y1il_tIì)›[1 3 y2]_(ï)_›[l 3 yg

1 3 ji/2 2 -1 y1 0 _7 2/1-22/2

[1 3 yr 0 4<y_+sy_›]0 1 '1r(22/2- 3/1) 0 1 '1r(22/2 _ 2/1)

Page 38: ASESORES TECNICOS

lim|i'|um'.\ l|m'itlt'\ 25

de lo que resulta claro que A es inversible y

_¬_[_Puede parecer engorroso segtiir escribiendo los escalares arbitrarios y1,

ig. _ _ _ eii el cálculo de las inversas. Algunos encuentran más fácil procederion dos sucesiones de matrices, una que describa la reducción de A a la identi-dad. y otra que registre el efecto de la misma sucesión de operaciones partiendode la identidad. El lector juzgará por sí mismo cuál es la forma que le resultamas cómoda para contabilizar los cálculos.

-Il--'tw -tw-1-

lajcinplo 16. Hallar la inversa de

A=l Si- - 1 0

- - - 0 1- - - 0 0

- - 0rle _ _- 1rie _- __ 0- - 0

rle ' _" 1

l©<:,_.|l©©._.lQQ›-iQ©i-ø©©i-irm-«un-it-I

@,..4¡¢¡..Qi-ini-I©:l"'tci--NHi››-»cm-fui-I

ir-¿__›-__

¡-i©@¡-i©@l-Il-¡cm-1wi-noitcjwi-lun-i›››-wi-I __|'ií||iï||||""_|w›-un-l-I

|-

cåggGäi-Icali-im--t-Icm-im-Ii-Iñuwhlwu

UH-iiht-*wi-I

i-tb-I 00@ON gg@O8OOOHOOHOOHOO

iáïï -1

- - 0- 1230 -180

_ _ 60 _192 -

- 180 1800 -361 -36 -0 _

El lector se habrá percatado que se ha hecho un largo estudio sobre las filasde una matriz y no se ha dicho casi nada de las columnas. Se ha concentradola atención en las filas por parecer ello más natural desde el punto de vista delas ecuaciones lineales. Dado que, obviamente, no hay ningún privilegio conrespecto a las filas, lo tratado en la última sección pudo haberse hecho usandocolumnas en vez de filas. Si se define una operación elemental de columna yequivalencia por columna, es claro que toda matriz m x n será equivalente

Page 39: ASESORES TECNICOS

26 A l_eehm lineal

por columnas a una matriz «escalón reducida por columnas». Así cada opera-ción elemental de columna será de la forma A -›AE, donde E es una matrizelemental n x n, y así sucesivamente.

Ejercicios

1. Sea

1 2 1 0A= -1 0 3 5-

1 -2 1 1

Hallar una matriz escalón reducida por filas R que sea equivalente a A, y una matriz in-versible 3 x 3, P, tal que R = PA.

2. Repetir el Ejercicio l, pero con

2 0 iA = 1 -3 -i -

i 1 1

3. Para cada una de las dos matrices

2 5 -1 1 -1 24 -1 2 › 3 2 46 4 1 0 1 -2

emplear operaciones elementales de fila para detenninar cuándo es inversible y encon-trar la inversa en caso que lo sea.

4. Sea

5 0 0A = 1 5 0 -

0 1 5

¿Para qué X existe un escalar c tal que AX = cX?

A = Ii

es inversible y hallar A" si existe.

5. Determinar si

OOO'-^ OOIOIO OCJOQOQO thu-Ft-Bi-P

6. Supóngase que A es una matriz 2 x 1 y que B es una matriz 1 x 2. Demostrar queC = AB no es inversible.

7. Sea A una matriz (cuadrada) n x n. Demostrar las siguientes dos afirmaciones:(a) Si A es inversible y AB = 0 para alguna matriz n x n, B, entonces B = 0.(b) Si A no es inversible, entonces existe una matriz n x n, B, tal que AB = 0,

pero B 9€ 0.

Page 40: ASESORES TECNICOS

l'.`i'mn lum'.\' llm't|li'.\' 27

tt. Sea

a bA _ [c (lil.

I›emostrar_ usando operaciones elementales de fila, que A es inversible si, y solo si,llul -_ hf) =',¿

0. Una matriz n x n, A, se llama triangular superior si A¡¡ = 0 para i > j; esto es. sitodo elemento por debajo de la diagonal principal es 0. Demostrar que una matriz (cua-drada) triangular superior es inversible si, y solo si, cada elemento de su diagonal principales diferente de 0.

lll. Demostrar la siguiente generalización del Ejercicio 6. Si A es una matriz m x n, Bes una matriz n x m y n < m, entonces AB no es inversible.

Il. Sea A una matriz m x n. Hacer ver que por medio de un número finito de operacio-nes elementales de fila y/o de columna se puede pasar de A a la matriz R que es simultá-neamente «escalón reducida por filas» y «escalón reducida por columnas››; es decir, RU-= 0si i 9€ j, R,-¡ = l, l § i 5 r, Rü = 0 si i> r. Demostrar que R = PAQ, donde P es unaiiiatriz inversible m x m y Q es una matriz inversible n x n.

l2. El resultado del Ejemplo 16 sugiere que tal vez la matriz

1 11 2 n

1 1 _1__A: 2 3 n-I-1

1 ___1 ____12n-1n n -I- 1

es inversible y A" tiene elementos enteros. ¿Se puede demostrar esto?

Page 41: ASESORES TECNICOS

2. Espacios vectoriales

2.1 _ Espacios vectoriales

En varias partes de la matemática se presentan conjuntos donde tiene sentidoy resulta interesante considerar las «combinaciones lineales» de los elementosde dichos conjuntos. Por ejemplo, en los sistemas de ecuaciones lineales, seencontró natural el considerar combinaciones lineales de las filas de una matriz.Es probable que el lector ya haya estudiado cálculo y haya tenido que ver concombinaciones lineales de funciones; sobre todo si ha estudiado ecuacionesdiferenciales. Tal vez el lector haya tenido experiencia con vectores en el es-pacio euclidiano tridimensional, y en particular con combinaciones linealesde tales vectores.

Hablando en forma simple, el álgebra lineal es aquella rama de la matemáti-ca que trata de las propiedades comunes de los sistemas algebraicos, que constande un conjunto más una noción razonable de «combinación lineal» de los ele-mentos del conjunto. En esta sección se definirán los objetos matemáticos quela experiencia ha mostrado ser las más útiles abstracciones de este tipo de sis-temas_a1gebraicos_

Definición. Un espacio vectorial (o espacio lineal) consta de lo siguiente:

1. un cuerpo F de escalares;2. un conjunto V de objetos llamados vectores;3. una regla (u operación) llamada adición, que asocia a cada par de vecto-

res ot, li de V un vector ot + li de V, que se llama suma de ot y Ii, de tal modo que:(a) la adición es conmutativa, oz + [3 = [3 + ot;(b) la adición es asociativa, ot + ([3 + 'y) = (ot + Ii) + y;

28

Page 42: ASESORES TECNICOS

l"\'poem.s vectoriales

(c) e.ri_\-le un único vector 0 de V, llamado vector nulo, tal que oc + 0 = oc,para todo ot (lc V;

(d) puro cada vector ot de V, existe un único vector -ot de V, tal queI. i (_ OC) = 0;

4. una regla (u operación), llamada multiplicación escalar, que asocia a cadaescolar c de F y cada vector ot de V a un vector con en V, llamado producto de c y1. de tal modo que:

(a) lot = ot para todo oz de V;(b) (c1cz)oc = c,(czot);(c) c(ot + Ii) = ca + cfi;(d) (c, + cz)ot = clon + czot_

Es importante observar, como la definición establece, que un espacio vec-iorial es un objeto compuesto que consta de un cuerpo, de un conjunto de «vecto-res» y de dos operaciones con ciertas propiedades especiales. El mismo con-junto de vectores puede ser parte de distintos espacios vectoriales (véase Ejem-plo 5, más adelante). Cuando no hay posibilidad de confusión, se hará refe-rencia simplemente al espacio vectorial V, y cuando se desee especificar el cuerpo,se dirá que V es un espacio vectorial sobre el cuerpo F. El nombre «vector›› seda a los elementos del conjunto V más bien por conveniencia. El origen delnombre se encontrará en el Ejemplo l, pero no se debe dar mucha importanciaal nombre mismo, ya que la variedad de objetos que pueden ser vectores en Vpuede no parecerse gran cosa a algún concepto de vector que el lector ya tenga.Se tratará de ilustrar esta variedad en una serie de ejercicios que será ampliadaconsiderablemente cuando se comience el estudio sistemático de los espaciosvectoriales.

Ejemplo 1. El espacio de n-tuples, F'_ Sea F cualquier cuerpo y sea V elconjunto de todos los n-tuples ot = (xz, xz, _ _ _ , x,,) de escalares x, de F. Si/l = (yl, yz, _ _ _, y,,) con y,- de F, la suma de ot y B se define por

(2-1) a+B=(rvi+y1,:v2+z/2,-..,a:..+z/__).

El producto de un escalar c y el vector ot se define por

(2-2) ca = (cxl, c:i:2, _ _ _ , c:z:,,).

Que esta adición vectorial y multiplicación escalar cumplen las condiciones(3) y (4) es fácil de verificar, usando las propiedades semejantes de la adicióny multiplicación de los elementos de F.

Ejemplo 2. El espacio de matrices m x n, F""”'_ Sea F cualquier cuerpoy sean m y n enteros positivos. Sea F"'“" el conjunto de todas las matricesm x n sobre el cuerpo F. La suma de dos vectores A y B en F'"'*" se define por

(2“3) (A + B).-r = Air + Be'-

Page 43: ASESORES TECNICOS

JO /I Ígvhrcl Í|m°(|Í

El producto de un escalar c y de la matriz A se define por

(CA)¡¡ = CA.¡¡°.

Obsérvese que F1*" = F”.

Ejemplo 3. El espacio de funciones de un conjunto en un cuerpo. Sea F cual-quier cuerpo y sea S cualquier conjunto no vacío. Sea V el conjunto de todaslas funciones de S en F. La suma de dos vectores f y g de V es el vector f + g;es decir, la función de S en F definida por

(2-5) (f + 9)($) = f(S) + 11(8).El producto del escalar c y la función f es la función cf definida por

(2-6) (Cf)(S) = ¢f(S)-Los ejemplos anteriores son un caso particular'de este último. En efecto, unn-tuple de elementos de F puede considerarse como una función del conjuntoS de los enteros 1, _ _ _ , n de F. En forma análoga, una matriz m x n sobre elcuerpo F es una función del conjunto S de los pares de enteros (i, j), 1 5 i -3 m,1 5 j 5 n, en el cuerpo F. Para este tercer ejemplo se indica cómo se puedeverificar que las operaciones definidas satisfacen las condiciones (3) y (4). Parala adición vectorial:

(a) Como la adición en F es conmutativa,

f(s) + 11(8) = 11(8) +f(S)para todo s de S, luego las funciones f + g y g + f son idénticas.

(b) Como la adición en F es asociativa,

¡(8) + [¶(8) + 11(8)] = [f(s) + a(S)] + h(S)para todo s, luego f + (g + h) es la misma función que (f + g) + h,

(c) El único vector nulo es la función cero, que asigna a cada elementode S el escalar 0 de F.

(d) Para todo f de V, (~f) es la función dada por

(-f)(S) = -f(S)-El lector encontrará fácil verificar que la multiplicación escalar satisface

las condiciones de (4), razonando como se hizo para la adición vectorial.

Ejemplo 4. El espacio de las funciones polinomios sobre el cuerpo F. SeaF un cuerpo y sea V el conjunto de todas las funciones f de F en F definidasen la forma

(2-7) f(-v) = co + ca + ~ - - + ca”donde co, c¡, _ _ _ , c,, son escalares fijos de F (independiente de x). Una funciónde este tipo se llama función polinomio sobre F. Sean la adición y la multipli-cación escalar definidas como en el Ejemplo 3. Se debe observar que si f y g

Page 44: ASESORES TECNICOS

l:lv¡›¢:«'|'«›5 m'¢'lnr|ul¢-.s .Í I

son funciones polinomios y c está en F, entonces ƒ + g y cf son también fun-ciones polinomios.

Ejemplo 5. El cuerpo C de los números complejos puede considerarsecomo un espacio vectorial sobre el cuerpo R de los números reales. En formamás general, sea F el cuerpo de los números reales y sea V el conjunto de losn-tuples a = (xl, _ _ . , x,,), donde x,, _ _ _ , x,, son números complejos. Se definela adición vectorial y la multiplicación escalar por (2-l) y (2-2), como en ellfiemplo 1. De este modo se obtiene un espacio vectorial sobre el cuerpo R quees muy diferente del espacio C" y del espacio R".

I-lay unos pocos hechos simples que se desprenden, casi inmediatamente,de la definición de espacio vectorial, y procederemos a derivarlos. Si c es unescalar y 0 es el vector nulo, entonces por 3(c) y 4(c)

cO=c(0+0)=c0+cO_Sumando -(c0) y por 3(d), se obtiene

(2-8) c0 = 0.Análogamente, para el escalar 0 y cualquier vector of se tiene que

(2-9) 0a = 0.i c es un escalar no nulo y oz un vector tal que ca = 0. entonces por (2-8),"(c<x) = 0. PeroQC/1

c_1(ca) = (c`1c)a = la = a

luego, of = 0. Asi se ve que si c es un escalar y of un vector tal que ca = 0, en-tonces c es el escalar cero o oz es el vector nulo.

Si of es cualquier vector de V, entonces0=0a== (1 -1)a= la-I-(-1)a =a-I-(-1)a

de lo que se sigue que

(2-10) (-l)a = -a.

Finalmente, las propiedades asociativa y conmutativa de la adición vectorialimplican que la suma de varios vectores es independiente de cómo se combinenestos vectores y de cómo se asocien_ Por ejemplo, si a1, az, a3, a4 son vectoresde V, entonces i

(011 .+ 012) + (Ga + U4) = [012 + (011 + 013)] + 014

y tal suma puede ser escrita, sin confusión,

0l1+0¿2+0la+0fl4-

Definición. Un vector B de V se dice combinación lineal de los vectoresoq, _ _ , a,, en- V, si existen escalares cl, _ _ _ , c,, de F tales que

n

B = 010114- -I-Onda = É 0:01-1-1

\

Page 45: ASESORES TECNICOS

32 /I Igr-lira lmcul

Otras extensiones de la propiedad asociativa de la adición vectorial y laspropiedades distributivas 4(c) y 4(d) de la multiplicación escalar se aplicana las combinaciones lineales:

_3il Cia; + _ål dia: = _å1 (Ci + d¡)0l¡

fl fl

C 2 0101;' = 2 (00ì')0l¢-¡-1 ¿-1

Ciertas partes del álgebra lineal están íntimamente relacionadas con lageometría. La misma palabra «espacio›› sugiere algo geométrico, como lo haceel vocablo «vector›› para muchos. Cuando se avance en el estudio de los es-pacios vectoriales, el lector observará que mucha de la terminología tiene unaconnotación geométrica. Para concluir esta sección introductoria sobre espaciosvectoriales, se considerará la relación de los espacios vectoriales con la geo-metría, hasta un grado que indicará al menos el origen del nombre «espaciovectorial». Este será un breve análisis intuitivo.

Considérese el espacio vectorial R3. En geometría analítica se identificanlas temas (xl, xz, x3) de números reales con los puntos del espacio euclidianotridimensional. En tal contexto, un vector se suele definir como un segmentodirigido PQ, del punto P del espacio a otro punto Q. Ello equivale a una formu-lación cuidadosa de la idea de «fiecha›› de P a Q. Tal como son usados los vec-tores, se ha tenido en mente que queden definidos por su longitud y dirección.Así, se deben identificar dos segmentos dirigidos si tienen la misma longitudy la misma dirección.

El segmento dirigido PQ, del punto P = (xl, xz, x3) al punto Q = (yz,yz, yz), tiene la misma longitud y dirección que el segmento dirigido del origen0 = (0, 0, 0) al punto (y, - xl, yz - xz, y3 - x¿,). Además, este es el únicosegmento que partiendo del origen tiene la misma longitud y dirección quePQ. Con lo que, si se conviene en operar solo con vectores aplicados al origen,hay exactamente un vectgr asozciado con cada longitud y dirección dadas.

El vector OP, del origen a P = (xl, xz, x¿,) está completamente determi-nado por P, y es por ello posible identificar este vector con el punto P. En ladefinición del espacio vectorial R3, los vectores se definen simplemente comolas ternas (xl, xz, xz).

Dados los puntos P = (xl, xz, x¿,) y Q = (yz, yz, yz), la definición de sumade los vectores OP y OQ puede hacerse geométricamente. Si los vectores noson paralelos, entonces los segmentos OP y OQ determinan un plano y estossegmentos son dos de los lados de un paralelogramo en aquel plano (véaseFigura 1). La diagonal de este paralelogramo, que va de 0 al punto S, definela suma de OP y OQ como el vector OS. Las coordenadas del punto S son(xl + y,, xz + yz, x3.+ yz), con lo que esta definición geométrica de la adi-ción vectorial es equivalente a la definición algebraica del Ejemplo 1.

La multiplicación escalar tiene una interpretación geométrica simple. Sic es un número real, entonces el producto de c por el vector OP es el vectorque parte del origen de longitud |c| veces la longitud de OP y dirección que coin-

Page 46: ASESORES TECNICOS

I' \[Im“h›.\ I'i'i'h›rmÍ¢'.\' .U

SIX; + yr. X2 + yz. X3 + ys)// \

/'

Q(Y1-Y2- Ya) X Pixiixzixa)

, 0 _, _,

FIGURA l

cide con la de OP si c > 0, y que es opuesta a la dirección de OP si c < 0. Estamultiplicación escalar da justamente el vector OT donde T = (cxz, cxz, cxz),y es, por tanto, compatible con la definición algebraica dada en R3.

De vez en cuando el lector encontrará probablemente provechoso «pensargeométricamente» en espacios vectoriales, eso es, trazar gráficos que lo ayudenri ilustrar y motivar alguna de las ideas. Ciertamente, deberá hacerlo. Sin em-bargo, al hacer tales ilustraciones, debe tenerse presente que, por tratar losespacios vectoriales como sistemas algebraicos, todas las demostraciones que

hagan deben ser de naturaleza algebraica.

Ejercicios

I. Si F `es un cuerpo, verificar que F" (como se definió en el Ejemplo l) es un espacio vec-torial sobre el cuerpo F.

2. Si V es un espacio vectorial sobre el cuerpo F, verificar que

(01 + 012) +` (as + 014) = [012 + (Ola + 01)] + 014

para todos los vectores a1, az, az y 0:4 de V.

3. Si C es el cuerpo de los complejos, ¿qué vectores de C3 son combinaciones lineales de(l, 0, -1), (0, 1, 1) y (1, l, 1)?

4. Sea V el conjunto de los pares (x, y) de números reales. y sea F el cuerpo de los nú-meros reales. Se define

(fv, y) + (wi. yr) = tw + 211.1/ + yt)¢(=v, z/) = (cx. :1)-

¿Es V, con estas operaciones, un espacio vectorial sobre el cuerpo de los números reales?

Page 47: ASESORES TECNICOS

34 /Ilg¢'lu'u limwl

5. En R" se definen dos operaciones

«®6=«-5c-a=-ca.

Las operaciones del segundo miembro son las usuales. ¿Qué axiomas de espacio vectorialse cumplen para (R", GB, -)?

6. Sea V el conjunto de todas las funciones que tienen valor complejo sobre el eje real,tales que (para todo t de R)

f(-i) = TÚ)-

La barra indica conjugación compleja. Demostrar que V. con las operaciones

(f + 9)(¢) = f(i) + 9(¢)(fif) (1) = ¢f(¢)

es un espacio vectorial sobre el cuerpo de los números reales. Dar un ejemplo de una fun-ción en V que no toma valores reales.

7. Sea V el conjunto de pares (x, y) de números reales y sea F el cuerpo de los númerosreales. Se define

(xr Í/) + (xl: yl) = (x + xl:

c(x› Él) = (ext 0)-

¿Es V, con estas operaciones, un espacio vectorial?

2.2. Subespacios

En esta sección se introducirán algunos de los conceptos básicos en el es-tudio de los espacios vectoriales.

Definición. Sea V un espacio vectorial sobre el cuerpo F. Un subespaciode V es un subconjunto W de V que, con las operaciones de adición vectorial ymultiplicación escalar sobre V, es el mismo un espacio vectorial sobre F_

Una comprobación directa de losaxiomas para un espacio vectorial, de-muestra que el subconjunto W de V es un subespacio si, para todos los ot y /3de W, el vector a + B está también en W; el vector 0 está en W; para todo ade W, el vector (-ot) está en W; para todo ot de W y todo escalar c, el vector caestá en W. La conmutatividad y asociatividad de la adición vectorial y las pro-piedades (4)(a), (b), (c) y (d) de la multiplicación escalar no necesitan ser com-probadas, ya que éstas son propiedades de las operaciones en V. Se puedensimplificar aún más las cosas.

Teorema 1. Un subconjunto no vacio W de V es un subespacio de V si, ysolo si, para todo par de vectores ot, B de W y todo escalar c de F, el vector ca + Bestá en W.

Demostración. Supóngase que W sea un subconjunto no vacío de V tal

Page 48: ASESORES TECNICOS

Iuptn 'ms t'¢'¢'t¢›rlaI:'.s' 35

qm- «fx + /l pertenezca a W para todos los vectores ot, B de W y todos los esca-lmvs r dc I-'_ Como W no es vacio, existe un vector p en W, y, por tanto, (-1)p +,› U está en W. Ahora bien, si ot es cualquier vector de W y c cualquier escalar,rl vector ca = ca + 0 está en W. En particular, (- l)a = -ot está en W. Final-mcmc, si ot y [3 están en W, entonces ot + B = loz + [3 está en W. Así, W es un'illlicspalciø de V.

Recíprocamente, si W es un subespacio de V, oz y B están en W y c es un es-mlm, ciertamente ca + B está en W. I

Algunos prefieren usar la propiedad ca + B del Teorema 1 como defini-r um de un subespacio, lo que es apenas diferente. Lo importante es que, si W esun subconjunto no vacío de V tal que con + B está en W para todos los ot, B deII y todo c de F, entonces W (con las operaciones heredadas de V) sea un es-¡mcio vectorial. Esto da lugar a muchos nuevos ejemplos de espacios vectoriales.

lijemplo 6.(a) Si V es cualquier espacio vectorial, V es un subespacio de V; el sub-

toujunto que consta solo del vector nulo es un subespacio vectorial de V, lla-mado subespacio nulo de V*.

(b) En F", el conjunto de los n-tuples (xl, _ _ _ , x,,) con xl = 0 es un sub-espacio, pero el conjunto de los n-tuples con x, = l + xz no es un subespa-uo (n 2 2).

(c) El espacio de las funciones polinomios sobre el cuerpo F es un subes-pacio del espacio de todas las funciones de F en F.

td) Una matriz (cuadrada) n x n, sobre el cuerpo F es simétrica si AU- = A¡¡para todo i y j. Las matrices simétricas forman un subespacio del espacio delas matrices n x n sobre F.

(e) Una matriz (cuadrada) n x n, A, sobre el cuerpo C de los númeroscomplejos es hennítica (o autoadjtmta) si

Afg =

para todo j, k, donde la barra indica conjugación compleja. Una matriz 2 x 2es hermítiea si, y solo si, tiene la forma

[ z x-I-'iyïlx--iy, w

donde x, y, z y w son números reales. El conjunto de todas las matrices hermí-ticas no es un subespacio del espacio de todas las matrices n x n sobre C. Enefecto, si A es hermítiea, sus elementos en la diagonal An, Azz, _ _ _ , son nú-meros reales, pero los elementos diagonales de iA, en general, no son reales.Por otro lado, es fácil ver que el conjunto de las matrices hermíticas n x n esun espacio vectorial sobre el cuerpo de los números reales (con las operacionesusuales).

"' Nota del traductor: Estos subespacios se llaman comúnmente los subespacios triviales de V.

Page 49: ASESORES TECNICOS

30 A I_r'cl›ru lincul

Ejemplo 7. El espacio solución de un sistema homogéneo de ecuacioneslineales. Sea A una matriz m x n sobre F. Entonces el conjunto de todas lasmatrices (columna) n x 1, X, sobre F tal que AX = 0 es un subespacio delespacio de todas las matrices n x 1 sobre F. Para demostrar esto se necesitaprobar que A(cX + Y) = 0 si AX = 0, A Y = 0 y c un escalar arbitrario de F.Esto se desprende inmediatamente del siguiente hecho general.

Lema. Si A es una matriz m x n sobre F, y B, C son matrices n x p so-bre F, entonces

(2-11) AMB + C) = d(AB› + ACpara todo escalar d de F_

Demostración. [A(dB + C)],-,- = É A,-¡.(dB + C);,,-

= É (dÁ ¡t=B¡¢¡ + África,-)

= d É Áa=Bt=¡ + E Á¢iCi,'k

= d(AB)='¡ + (ÁC)='¡= [d(AB) + Ácler- I

En forma semejante se puede ver que (dB + C )A = dtBA) + CA, si la sumay el producto de las matrices están definidos.

Teorema 2, Sea V un espacio vectorial sobre cl cuerpo F_ La intersecciónde cualquier colección de subespacios de V es un subespacio dc V.

Demostración. Sea {W,,} una colección de subespacios de V, y sea W =Q Wa su intersección. Recuérdese que W está definido como el conjunto detodos los elementos pertenecientes a cada Wa (véase Apéndice). Dado quetodo Wa es un subespacio, cada uno contiene el vector nulo. Así que el vectornulo está en la intersección W, y W no es vacío. Sean -rx y /3 vectores de W y seac un escalar. Por definición de W ambos, ot y B, pertenecen a cada Wa, y por sercada Wu un subespacio el vector (ca + /›') está en cada Wa. Así (ccx + B) estátambién en W. Por el Teorema 1, W es un subespacio de V. I

Del Teorema 2 se deduce que si S es cualquier colección de vectores de V,entonces existe un subespacio mínimo de V que contiene a S; esto es, un sub-espacio que contiene a S y que está contenido en cada uno de los otros subespa-cios que contienen a S.

Definición. Sea S un conjunto de vectores de un espacio cectorial V. El sub-espacio generado por S se define como intersección W de todos los subespaciosde V que contienen a S. Cuando S es un conjunto finito de rectores, S = {ot1,az, _ _ _ , ot,,} se dice simplemente que W es el subespacio generado por los vectoresoq, otz, ocn.

Page 50: ASESORES TECNICOS

I \¡›m-tm t'¢'ctot'tale.\' 3 7

Teorema 3. El .s'ul›e.s-pacio generado por un subconjunto S no vacío de un«-\¡›a«-io vectorial V es el conjunto de todas las combinaciones lineales de los vec-lurt'.\' tlt' S.

Demostración. Sea W el subespacio generado por S. Entonces toda com-|›||i.ICiÓn lineal

0fi=íl71¢11+í¡72¢12+ "' +37m0¢m

«lc vectores al, az, _ _ _ , oz,,, de S pertenece evidentemente a W. Así que W con-tiene el conjunto L de todas las combinaciones lineales de vectores de S. Elionjunto L, por otra parte, contiene a S y no es, pues, vacío. Si ot, B pertene-.-cn ri L, entonces oz es una combinación lineal,

01 =3710f1†íl720f2+ +25mO¢m

«lc vectores oz, de S, y B es una combinación lineal,

6 = "° +ynBn

«lc vectores BJ- en S. Para cada escalar c,

00! + fl = šl (0ïl7=')¢1¡ + ål Zlƒfii-I- J"

I uego ca + /3 pertenece a L. Con lo que L es un subespacio de V.Se ha demostrado que L es un subespacio de V que contiene a S. y también

que todo subespacio que contiene a S contiene a L. Se sigue que L es la inter-sección de todos los subespacios que contienen a S; es decir. que L es el sub-espacio generado por el conjunto S. I

Definición. Si S1, Sz, _ _ _ , Sk son subconjuntos de un espacio vectorial V,cl conjunto de todas las sumas

a1+a2+°°'+a|¿

«le rectores ot, de S, se llama suma de los subconjuntos S1, Sz, _ _ _ , Sk y se repre-it-uta por __

S1+S2+...+Sk

oportrE SE;

¡=1

Si Wz, Wz, W,, son subespacios de V, entonces la suma

W=Wr+W»+ +W›.

como es fácil ver, es un subespacio de V que contiene cada uno de los subes-pacios W¡. De esto se sigue, como en la demostración del Teorema 3, que Wes el subespacio generado por la unión de Wz, Wz, _ _ _ , W,,.

Page 51: ASESORES TECNICOS

38 A lgebra lineal

Ejemplo 8. Sea F un subcuerpo del cuerpo C de los números complejos.Supóngase que

263? PP.” ..°."*..° ..°..*'.E^°;-,es(21 =

ag =

¢l3=

Por el Teorema 3, un vector ot está en el subespacio W de F5 generado por al,az, az si, y solo si, existen escalares cz, cz, cz en F, tales que

0 = C101 + C202 + Cada-

Así, W consta de todos los vectores de la forma

a = (cl) 2619 02; 361 + 462;

donde cz, cz, cz son escalares arbitrarios de F. En forma alternativa, W puedeser escrito como el conjunto de todos los 5-tuples

Of = ($1, 252, 253, 254, 235)

con x, en F, tal que21: = 2271174 = 331 + 427:-

Así (-3, -6, 1, -5, 2) está en W, mientras que (2, 4, 6, 7, 8) no.

Ejemplo 9. Sea F un subcuerpo del cuerpo de los números complejos,y sea V el espacio vectorial de todas las matrices 2 x 2 sobre F. Sea W1 el sub-conjunto de V que consta de todas las matrices de la forma

r ifz 0

donde x, y, z son escalares arbitrarios de F. Por último, sea Wz el subconjuntode V que consta de todas las matrices de la forma

_ [3 Z] 'donde x e y son escalares arbitrarios de F. Entonces W, y Wz son subespaciosde V. También

V=Wi+Wz

a b a b 0 0[C dj " [C 0] "` [0 dj'

El subespacio W1 H Wz consta de todas las matrices de la forma

[at 0]_0 0

porque

Page 52: ASESORES TECNICOS

l¡.\¡›m^tus mwtorlalrs 39

I-`.jemplo 10. Sea A una matriz m x n sobre el cuerpo F. Los vectores filatlf -1 son los vectores de F' dados por ot, = (An, _ _ _ , A¡,,), i -~= 1, _ _ _ , m. Elmln-spacio de P' generado por los vectores fila se llama el espacio de filas de A.l-l subespacio considerado en el Ejemplo 8 es el espacio de filas de la matriz

12030A=00l40-

00001l-. también el espacio de filas de la matriz

›l=-OOHOON

i-OI-OOm-oo

OI-OO

B=

- -3 -3I-Íjemplo ll. Sea V el espacio de todas las funciones polinomios sobre F.

Si-tu S el subconjunto de V que consta de las funciones polinomios fo, fl, fz, _ _ _tlrliriido por

ƒ,,(x)=:c", n=O,1,2,....I utonces V es el subespacio generado por el conjunto S.

l;'¡'erciei0s

I. ¿Cuáles de los siguientes conjuntos de vectores ot = (a,, _ _ _ , a,,) de R” son subespa-tlns' dC R" (fl 2 3)?

tu) todos los ot tal que a, 2 0;th) todos los ot tal que a, + 3az = az;tc) todos los ot tal que az = az;(d) todos los ot tal que azaz = 0;te) todos los ot tal que az es racional.

2. Sea V el espacio vectorial (real) de todas las funciones f de R en R. ¿Cuál de los si-guientes conjuntos de funciones son subespacios de V?

(a) todas las f tales que f(x2) = f(x)2;tb) todas las f tales que f(0) = f(l);(c) todas las f tales que f(3) = l + f(-5);td) todas las f tales que f(-l) = 0;(e) todas las f que son continuas.

I. ¿Pertenece el vector (3, - l, 0, -1) al subespacio de R5 generado por ros vectorest.'_ -1, 3, 2), (-1, 1, 1, -3) y (1, 1, 9, -5)?

-I. Sea W el conjunto de todos los (xz, xz, xz, x4, x5) de R5 que satisfacen

21:1- x2+§-:z:¡-- x4 =0

271 + šílïa _” $5 = 0

I 9x1 - 32:2 + 62:; - 31:4 - 3x; = 0.

I-ncontrar un conjunto finito de vectores que genera W.

Page 53: ASESORES TECNICOS

40 A Igchra lineal

5. Sean F un cuerpo y n un entero positivo (n 2 2). Sea V el espacio vectorial de todaslas matrices n x n sobre F. ¡Cuáles de los siguientes conjuntos de matrices A de V sonsubespacios de V?

(a) todas las A inversibles;(b) todas las A no inversibles;(c) todas las A para las que AB = BA. donde B es cierta matriz dada de V;(d) todas las A para las que A2 = A.

6. (a) Demostrar que los únicos subespacios de R' son R1 y el subespacio nulo.(b) Demostrar que un subespacio de R2 es R2 0 el subespacio nulo o consta de todos

los múltiplos escalares de algún vector fijo de R2. (El último tipo de subespacio es, intuiti-vamente, una recta por el origen.)

(c) ¿Puede usted describir los subespacios de R3?

7. Sean W, y Wz subespacios de un espacio vectorial V tal que la unión conjuntista deW, y Wz sea también un subespacio. Demostrar que uno de los espacios l/V, está contenidoen el otro.

8. Sea V el espacio vectorial de todas las funciones de R en R; sea VP el subconjunto delas funciones pares, f(~x) = f(x); sea V, el subconjunto de las funciones impares,f(-X) = -f(X)-

(a) Demostrar que VP on subespacios de V.(b) Demostrar que VP = V.

Demostrar que ='B D-l"< _.=:_t<:<

Í/1

Í2(c) V

9. Sea W, y Wz subespacios de un espacio vectorial V tales que W, + Wz = V yW, H Wz = {0}. Demostrar que para todo vector ot de V existen únicos vectores ot, enW, y otz en Wz tales que ot = ot, + az.

OI2.3. Bases y dimension

Pasamos, ahora, a la tarea de dotar de dimensión a ciertos espacios vec-toriales_ Aunque usualmente asociamos «dimensión›› con algo geométrico,debemos encontrar una definición algebraica apropiada para la dimensión deun espacio vectorial. Esto se hará mediante el concepto de base de un espaciovectorial.

Definición. Sea V un espacio vectorial sobre F. Un subconjunto S de V sedice linealmente dependiente (o simplemente, dependiente) si existen vectores distin-tos oil, otz, _ _ _ , ot,, de S y escalares cz, cz, _ _ _ , c,, de F, no todos nulos, tales que

clotz + czotz + + c,,ot,, = 0.

Un conjunto que no es linealmente dependiente se dice lineahnente independiente.Si el conjunto S tiene solo un número finito de vectores az, otz, _ _ _ , ot,, se dice,a veces, que los az, az, _ _ _ , ot, son dependientes (o independientes), en vez de decirque S es dependiente (o independiente).

Page 54: ASESORES TECNICOS

lytucnn |'t't'tmtuli'\ 4/

0

las siguientes son fáciles consecuencias de la definición.

I. Todo conjunto que contiene un conjunto linealmente dependiente eslun-ulmente dependiente.

.2. Todo subconjunto de un conjunto linealmente independiente es lineal-mente independiente.

l. Todo conjunto que contiene el vector 0 es linealmente dependiente;tu electo, l -0 = 0.

fl. Un conjunto S de vectores es linealmente independiente si, y solo si,nulo subconjunto finito de S es linealmente independiente; es decir, si, y solo.i para vectores diferentes cxl, _ _ _ , ot" de S, arbitrariamente elegidos clon, + - - -| ¢-,,ot,, = 0 implica que todo c¡ = 0.

Definición. Sea V un espacio vectorial. Una base de V es un conjunto deutmres linealmente independiente de V que genera el espacio V. El espacio V es.It dimensión finita si tiene una base finita.

lìjemplo 12. Sea F un subcuerpo de los números complejos. En F3 los\t't'l0I'€S

/¬/N/N/` .!°__“>_!'*$-°

Nxv

a1 = -3)

ÍÍ Ã -2)1)(X4:

son linealmente dependientes, pues

2¢11+20f2-0fs+0°0¢4=0.

I os vectores

fl = (lt 0:

52 = (Oi li 0)

fa = (0, 0, 1)mn linealmente independientes.

Ejemplo 13. Sea F un cuerpo, y en F" sea S el subconjunto que constade los vectores ez, ez, _ _ _, en definidos por

/¬f-\ .."'*.°PP ©© \./\.v

€1=

al

e,,=(0,0,0,.._,l).

Sean x¡, xz, _ _ _, x,, escalares de F, y hágase ot = xzot, + xzaz + - - - + x,,a,,_I-ntonces

a = (zh $2: ° ° - 1 $11)-

I-sto muestra que e,, _ _ _, en generan F”. Como oz=0 si, y solo si, x, =xz = _ _ _=\',, = 0, los vectores el, ..., en son linealmente independientes. El conjunto

Page 55: ASESORES TECNICOS

42 A lgehru llm-ul

S = {e1, _ _ _ , e,,} es, por tanto, una base de F". Esta base particular se llamarábase canónìca de F".

Ejemplo 14. Sea P una matriz n x n inversible con elementos en el cuer-po F_ Entonces P,, _ _ _ , P,,, las columnas de P, forman una base del espaciode las matrices columnas F” 1. Eso se verá como sigue. Si X es una matriz co-lumna, entonces

PX=2U1P1+"°+íCflP,¡. `

Como PX : *tienesolo la solución trivial X_= Q, se sigue que {P,, _ _ _ , P,,}es un conjunto linealmente independiente. ¿Por qué generan F” 1'? Sea Y cual-quier matriz columna. Si X = P_ 1 Y, entonces Y = PX, esto es

Y=x1P1+ °'° +xnPn-

Asi, {P1, P,,} es una base de F"“_

Ejemplo 15. Sea A una matriz m x n y sea S el espacio solución del sis-tema homogéneo AX = 0 (Ejemplo 7). Sea R una matriz escalón reducidapor filas que es equivalente por filas a A. Entonces S es también el espacio so-lución del sistema RX = 0. Si R tiene r filas no nulas, entonces el sistema deecuaciones RX = 0 simplemente expresa r de las incógnitas xz, _ _ _ , x,, en tér-minos de las (n - r) incógnitas xj restantes. Supóngase que los elementos prin-cipales, no nulos, de las filas no nulas están en las columnas kz, _ _ _ , k,_ Sea J elconjunto constituido por los n - r índices diferentes de kz, _ _ _ , k,:

J= {1,_..,n} - {k1,___,k,}_

El sistema RX = 0 tiene la forma

¿Uh + ši C159-71 = 0I O I

O I I

I . O

1Uk,+§0ffl›'=0

donde los cü- son ciertos escalares. Todas las soluciones se obtienen asignando(arbitrariamente) valores a aquellos xj con j en J y calculando los correspon-dientes valores de xz,, _ _ _ , xz,. Para cada j de J, sea E¡ la solución obtenida alhacer xj = 1 y x, = 0, para todos los otros i de J. Se afirma que los (n - r)vectores E1-, con j en J, forman una base para el espacio solución.

Como la matriz columna Ej tiene un l en la fila j y ceros en las restantesfilas, las razones dadas en el Ejemplo 13 permiten concluir que el conjuntode estos vectores es linealmente independiente. Por esta razón ese espacio ge-nera el espacio solución. Si la matriz columna T, con elementos t,, _ _ _ , t,,, per-tenece al espacio solución, la matriz

N = É GEJ_:pertenece también al espacio solución, y es una solución tal que x¡ = tj paracada j de J. La solución con esta propiedad es única; luego N = T y T perte-neee al espacio generado por los vectores E¡_

Page 56: ASESORES TECNICOS

Il' tjnlrttøs' l't't'It›rltIlt'.\' 4,)

l-.jemplo 16. Daremos ahora un ejemplo de una base infinita. Sea F unttuhcuerpo de los números complejos y sea V el espacio de las funciones poli-uouuos sobre F. Se recuerda que estas funciones son las de F en F que tienenlu lorma

Ño=w+wa+-~+waflSi-u /,,(x) == x*, k = 0, l, 2, _ _ _ El conjunto (infinito) {_ƒ[,, fl, fz, _ _ es una base«lv I". Es claro que el conjunto genera V, pues la función f anterior es

ƒ=0qƒo+0›fi+ +0,-Ji..l I lector verá que esto es virtualmente una repetición de la definición de la fun-tton polinomio, es decir, una función de F en F es una función polinomio si,v -.olo si, existe un entero n y escalares co, _ _ _ , c,, t.ales que f = czfo + - - ° +t ,,/,,. ¿Por qué son estas funciones independientes? Demostrar que el conjuntoI/,,, /`,, fz, _ _ _} es independiente, es lo mismo que demostrar que todo sub-toujunto finito suyo es independiente. Bastará entonces demostrar que, paratutto n. el conjunto {f0, ___, f,,} es independiente. Supóngase que

c0ƒ0+ "' +c1\ƒn=0-

I-.to dice queco+¢ir¢+ +c._:t:"=0

pura todo x de F; en otras palabras, cada x de F es raíz del polinomio f(x) =t., + czx + ' ° ° + c,,x". Se supone que el lector sabe que un polinomio de grado nron coeficientes complejos puede tener a lo sumo n raices distintas. Se sigueque, c0=c1 = ---=c,,=0_

Se ha visto una base infinita de V. ¿Quiere decir esto que V no es de dimen-non finita? En realidad, es así, pero ello no se deduce de la definición, porque«le todo lo que se sabe V podría tener también una base finita. Esa posibilidadqueda fácilmente deseartada. (Se eliminará en general en el siguiente teorema.)Supóngase que tenemos un número finito de funciones polinomios gl, _ _ _ , g,_llatbrá una mayor potencia de x que aparece (con coeficiente no nulo) en g, (x), _ _ _ ,_r›,(x)_ Si tal potencia es k, es claro que Á, ¡(xl = x*"' no pertenece al subes-pacio generado por los gl, _ _ _ , g,_ Asi, pues, V no es de dimensión finita.

Un comentario final respecto a este ejemplo. Una base infinita no tienenada que ver con «combinaciones lineales infinitas››_ El lector que sienta eldeseo irresistible de introducir series de potencias `

ši Gif'tt-0

en este ejemplo, debe estudiarlo cuidadosamente de nuevo. Si con ello no selc aclara todavía, debe limitar su atención, de ahora en adelante, a espaciosde dimensión finita.

Teorema 4. Sea V un espacio vectorial generado por un conjunto finito devectores ji 1, flz, _ _ _ , Bm. Entonces todo conjunto independiente de vectores deV es finito y no contiene más de m elementos.

Page 57: ASESORES TECNICOS

44 .'Il_ucl›ra lineal

Demostración. Para demostrar este teorema es suficiente ver que todosubconjunto S de V que contiene más de m vectores es linealmente dependiente.Sea S un tal conjunto. En S hay vectores diferentes al, az, _ _ _ , ot", donde n > m.Como liz, _ _ _, Bm generan V, existen escalares AU- en F tales que

fll

Off = É Áfffif-1`==l

Para cualesquiera n escalares xl, xz, _ _ _, x,,, se tienefl

xlal + °° ° + xnan = E xjdjJ--1

= š 23;' 25 Árjfia¡-1 ¿-1

= É _§ (A.-,fea1-1 s-1

= É Át¡$')flt-1 1_ _ -7¡_ ¡=-

Como n > m, el Teorema 6 del Capítulo l implica que existen escalares xl,xz, ___, x,,, no todos 0, tales que

il A.-,wi = 0, 1 s t 5 m.32

Luego xlotl + xzotz + + x,,ot,, = 0. Ello demuestra que S es un conjuntolinealmente dependiente. I

Corolario l. Si V es un espacio vectorial de dimensión finita, entonces dosbases cualesquiera de V tienen el mismo numero (finito) de elementos.

Demostración. Como V es de dimensión finita, tiene una base finita

[611 B2! ' ° ' 1 B"'}°

Por el Teorema 4, toda base de V es finita y contiene no más de m elementos.Así, si {oz¡, az, _ _ _ , a,,} es una base, n 5 m. Por el mismo razonamiento, m 5 n.Luego m = n. I

Este corolario permite definir la dimensión de un espacio vectorial de di-mensión finita como el número de elementos de una base cualquiera de V. Seindicará la dimensión de un espacio V de dimensión finita por dim V. Ello nospermite volver a enunciar el Teorema 4 como sigue.

Corolario 2. Sea V un espacio vectorial de dimensión finita y sea n = dim V.Entonces

(a) cualquier subconjunto de V que contenga más de n vectores es linealmentedependiente ;

Page 58: ASESORES TECNICOS

l' \¡Itu'lu\ t't't'lt›t'tul¢'.\' 45

(li) nitretiu sul›conjtmto «lc V que contenga menos de n vectores puede ge-nerar |'.

ljjemplo l7_ Si F es un cuerpo, la dimensión de F' es n, porque la base.unónica de F" contiene n vectores. El espacio de las matrices F"'*" tiene di-mensión mn. Ello es claro por analogía con el caso de F", ya que las mn matri-t-es que tienen un 1 en el lugar i, j, con ceros en los demás, forman una base de1"" ' ". Si A es una matriz m x n, entonces el espacio solución de A tiene dimen-non n - r, donde r es el número de filas no nulas de una matriz escalón reducidapor filas, que es equivalente por filas a A. Véase el Ejemplo 15.

Si V es cualquier espacio vectorial sobre F, el subespacio nulo de V es ge-nerado por el vector 0, pero {0} es un conjunto linealmente dependiente y nouuu base. Por esta razón se conviene que el subespacio nulo tenga dimensión 0.St- podría llegar también a la misma conclusión pensando que el conjunto vacíoes una base del subespacio nulo. El conjunto vacio genera {0}, pues la intersec-t-ton de todos los subespacios que contiene el conjunto vacío es {0}, y el conjuntovacio es linealmente independiente, porque no contiene vectores.

Lema. Sea S un subconjunto linealmente independiente de un espacio vecto-nal V. Supóngase que ji es un vector de V que no pertenece al subespacio generadopor S. Entonces el conjunto que se obtiene agregando [3 a S, es linealmente inde-ju-ndiente_

Demostración. Supóngase que al, _ _ _ , oz,,, son vectores distintos de S y que

0101+ +C››t¢1-»+55 =0-

Ifutonces b = 0; de otra manera,

B= (-%)¢11+ +(-%')a,..

y /t está en el subespacio generado por S. Así, clon, + - ~ - + c,,,ot,,, = 0, y comoS es un conjunto linealmente independiente, todo ci = 0. I

Teorema 5. Si W es un subespacio de un espacio vectorial de dimensión/mita V, todo subconjunto linealmente independiente de W es finito _v es partede una base (finita) de W.

Demostración. Supóngase que S0 es un conjunto linealmente independientede W. Si S es un subconjunto linealmente independiente de W que contieneat S0, entonces S es también un subconjunto linealmente independiente de V;como V es de dimensión finita, S no tiene más de dim V elementos.

Se extiende S0 a una base de W, como sigue. Si S0 genera W, entonces S0es una base de W y está demostrado. Si S0 no genera W, por el lema anteriorse halla un vector [31 en W tal que el conjunto S, = S0 U {B1) es independiente.Si S1 genera W, está demostrado. Si no, se aplica el lema para obtener un vector [iz

Page 59: ASESORES TECNICOS

46 /Ilgelvra lineal

en W tal que Sz = S, U {Bz} es independiente. Si se continúa de este modo,entonces (y en no más de dim V de etapas) se llega a un conjunto

Sm=S0U{B1›°~°›Bm}

que es una base de W. I

Corolario l. Si W es un subespacio propio de un espacio vectorial de di-mensión finita V, entonces W es de dimensión finita y dim W < dim V.

Demostración. Podemos suponer que W contiene un vector of =;ë 0. Porel Teorema 5 y su demostración existe una base de W que, conteniendo a ot,no contiene más que dim V elementos. Luego W es de dimensión finita ydim W S dim V__ Como es un subespacio propio existe un vector B en V queno está en W. Agregando B a cualquier base de W se obtiene un subconjuntolinealmente independiente de V. Así, dim W < dim V. I

Corolario 2. En un espacio vectorial V de dimensión finita todo conjuntolinealmente independiente de vectores es parte de una base.

Corolario 3. Sea A una matriz n x n sobre el cuerpo F, y supóngase quelos vectores fila de A forman un conjunto linealmente independiente de vectoresde F". Entonces A es inversible.

Demostración. Sean ot,, otz, _ _ _ , ot,, vectores fila de A, y supóngase que W esun subespacio de F" generado por az, otz, _ _ _ , oz,,_ Como los az, az, _ _ _ , ot,, sonlinealmente independientes. la dimensión de W es n. Por el Corolario l se tieneque W = F". Luego existen escalares B¡¡ en F tales que

€¿=šB--a- 1<í<n__ un __ _J-1

donde {e¡, ez, _ _ _ , e,,} es la base canónìca de F”. Así, para la matriz B de ele-mentos Bü se tiene

BA=1_ |Teorema 6. Si W, y Wz son subespacios de dimensión finita de un espacio

vectorial, entonces W, + Wz es de dimensión finita y

dim W, + dim Wz = dim (W, H Wz) + dim (W + Wz)_

Demostracion. Por el Teorema 5 v sus corolarios, W, H Wz tiene unabase finita {ot,, , ot,,} que es parte de la base

lab - ° ° 1 aka pl» - - - a pmi para WI

y parte de la base{ot1, _ _ _ , ak, yz, ___, y,,} para Wz_

El subespacio W, + Wz es generado por los vectoresa1,oon,ah Bbuoø,B¶n, Yl,ooo,Yn

Page 60: ASESORES TECNICOS

Ilíijutclos vei'torlaIc.s- 47

V estos vectores forman un conjunto indepeiidiente_ En efecto, supóngase queE rc.-ai + 25 2/_-fif + 23 zm = 0-

I'ttlonccs

- É 2-1- = É rv.-ai + 2 2/¡Bi

que muestra que E z,y, pertenece a W1. Como E z,y, también pertenece a Wz,tw sigue que

27 zm = 23 cia.-|›iii-ai ciertos escalares cz, _ _ _ , ch. Como el conjunto

{a¡,_..,a¡,, 'y1,._.,'y,,}

es independiente, cada uno de los escalares z, = 0. Así,

E Ita; + E Z/¡fii = 0

y como{a¡,. _ .,a¡,, Bb. _ .,B,,.}

es también un conjunto independiente, cada x, = 0 y cada y, = 0. Así,{a¡,_._,a¡,, B¡,. _ .,B,,,, 71,. _ .,"y,.}

es una base para W, + Wz_ Finalmente,dimW,+dimW2= (k+m)+(k+fl)

=k+(m+k+fl)

Cerremos esta sección con una observación referente a la independenciay dependencia lineal. Se han definido estos conceptos para conjuntos de vec-tores. Es útil haberlos definido para sucesiones finitas (n-tuples ordenados)de vectores: oil, _ _ _, oi,,_ Se dirá que los vectores az, _ _ _ , oi, son linealmenteili-pendientes si existen escalares fijos cz, _ _ _, c,,, no todos nulos, tales quei-jor, + -- - + c,,oi,, = 0. Todo esto es tan natural que el lector podría creerque se ha usado ya esta terminología. ¿Cuál e's la diferencia entre una suce-sión finita az, _ _ _ , oi, y el conjunto {oi,, _ _ _ , oi,,}'? Hay dos diferencias: identidady orden. .

Si se examina el conjunto {ot¡, _ _ _ , oi,,} es corriente suponer que no haydos vectores az, _ _ _ _ oi, que sean idénticos. En una sucesión oil, _ _ _ , oi, todoslos oi, pueden ser el mismo vector. Si oi- = ix-, para algún i =!= j, entonces la su-l Jcesión az, _ _ _ , oi,, es linealmente dependiente:

G; + (_1)a¡' = 0.

Así, si oiz, _ _ _ , oi,, son linealmente independientes, todos son distintos, y se pue-de hablar del conjunto {oi1, _ _ _, oi,,} sabiendo que tiene n vectores. Así, evi-dentemente, ninguna confusión surgirá en el estudio de bases y dimensión.La dimensión de un espacio V de dimensión finita es el mayor n, tal que un

Page 61: ASESORES TECNICOS

43 »I l_r'i'l›ra lineal

n-tuple de vectores de V es linealmente independiente, y así sucesivamente.El lector que crea que este párrafo no es más que palabras, puede preguntarsesi los vectores

al = (ein: 1)

«_ = (\/° 110,1)son linealmente independientes en R2.

Los elementos de una sucesión están enumerados en un orden determina-do. Un conjunto es una colección de objetos con una disposición no determi-nada u ordenada. Claro que al describir el conjunto se deben indicar sus ele-mentos, y ello requiere elegir un orden. Pero el orden no es parte del conjunto.Los conjuntos {1, 2, 3, 4} y {4, 3, 2, 1} son idénticos, mientras que 1, 2, 3, 4 esuna sucesión muy diferente de 4, 3, 2, 1. El aspecto ordinal de las sucesionesno entra en juego en los asuntos de independencia, dependencia, etc., porquela dependencia (como se definió) no está _afectada por el orden. La sucesióna,,, _ _ _ , oi, es dependiente si, y solo si, la sucesión oq, _ _ _ , oi, es dependiente.En la sección siguiente, el orden será importante.

Ejercicios

1. Demostrar que si dos vectores son linealmente dependientes, uno de ellos es un múlti-plo escalar del otro.

2. ¿Son los vectores

al = (li li 2: 4)› a2 = (2› -li _5›

a3 = (li “li _°4› 0); al = (21 lt ls

linealmente independientes en R4?

3. Hallar una base para el subespacio de R4 generado por los cuatro vectores del Ejer-cicio 2.

4. Demostrar que los vectores

al = (1: Oi _'1)› a2 = (li 2; 1); a3 = (O: _3›

forman una base para R3. Expresar cada uno de los vectores de la base canónìca comocombinación lineal de az, az y az.

5. Hallar tres vectores de R3 que sean linealmente dependientes y tales que dos cuales-quiera de ellos sean linealmente independientes.

O

6. Sea V el espacio vectorial de todas las matrices 2 x 2 sobre el cuerpo F. Demostrarque V tiene dimensión 4, encontrando una base de V que tenga cuatro elementos.

7. Sea V el espacio vectorial del Ejercicio 6. Sea W, el conjunto de las matrices de laforma

[“ `“]y z

Page 62: ASESORES TECNICOS

I \¡Iiti'tit.\' |'i'i'lut'titli'.\' 4')

\ si-.i IVz cl conjunto dc las matrices de lu l`oriii:t

a b]_-a c

tail Demostrar que W, y Wz son subespacios de V.(lil llaillar la dimensión de W,, Wz, W, + Wz y W, H Wz_

lt Nuevamente, sea V el espacio de las matrices 2 x 2 sobre F. Hallar una base {A¡, A z,I., I4¦ de V, de modo que AJ? = AJ- para cadaj_

0. Sea V un espacio vectorial sobre el cuerpo F de los números complejos. Supóngaseque «_ B y ¬,- sean vectores linealmente independientes en V. Demostrar que (ot + B). (B + y)Y l“,' t ot) son linealmente independientes.

Ill. Sea V un espacio vectorial sobre el cuerpo F. Supóngase que hay un número finito-,lr vectores 0:1, _ _ _ , oi, en V que generan V. Demostrar que V es de dimensión finita.

ll. Sea V el conjunto de todas las matrices 2 x 2. A, con elementos complejos que sa-tisliicen AU + Azz = 0.

(ii) Hacer ver que V es un espacio vectorial sobre el cuerpo de los números reales, con|.i~ operaciones comunes de adición de matrices y multiplicación de matrices por un escalar.

th) Hallar una base de este espacio vectorial.le) Sea W el conjunto de todas las matrices A de V tales que Azz = -Ãz, (la barra

iiidieii complejo conjugado)_ Demostrar que Wes un subespacio de Vy hallar una base de W.

Il. Demostrar que el espacio de todas las matrices m ›< n sobre el cuerpo F tiene dimen-sioii nin, presentando una base para este espacio.I l. Analizar el Ejercicio 9, cuando V es un espacio vectorial sobre el cuerpo de dos ele-mentos, descrito en el Ejercicio 5, Sección l_l_

H. Sea V el conjunto de los números reales. Considerar V como tin espacio vectorialsobre el cuerpo de los números racionales. con las operaciones usuales. Demostrar que esteesp-.icio vectorial no es de dimensión finita.

2.4. Coordenadas

Una de las características útiles de una base (B en un espacio V de dimensiónn es que permite esencialmente introducir coordenadas en V en forma análo-gii a las «coordenadas naturales», xi, de un vector oi = (xl, _ _ _, x,,) en el es-pacio F". En este esquema, las coordenadas de un vector oi en V, respecto delu base (B, serán los escalares que sirven para expresar oi como combinaciónlineal de los vectores de la base. Así, pues, sería de considerar las coordenadasnaturales de un vector oi en F" como definidas por oi y la base canónìca de F";sin embargo, al adoptar este punto de vista se debe tener mucho cuidado. Si

a= (:t:1.._.,33») =E33r€¢

y (B es la base canónìca de F", ¿cómo quedan determinadas las coordenadasde oi por (B y ot? Una manera de formular la respuesta es la siguiente. Un vectordado, oi, tiene una expresión única como combinación lineal de los vectoresde la base canónìca, y la coordenada i-ésima x, de ot es el coeficiente de ei en

Page 63: ASESORES TECNICOS

50 Algebra lineal

esta expresión. Desde este punto de vista, se puede decir cual es la i-ésima coor-denada, porque se tiene un orden «natural›› de los vectores de la base canónìca,esto es, se tiene una regla para determinar cuál es el «primer›› vector en la base,cuál es el «segundo›› vector, y asi sucesivamente. Si (B es una base arbitrariadel espacio V de dimensión n. no se tendrá probablemente. un orden naturalde los vectores de (B, y, por tanto, será necesario imponer algún orden a estosvectores antes que se pueda definir la «i-ésima coordenada de oz respecto a G3».Para plantearlo de otra forma, se definirán las coordenadas respecto a unasucesión de vectores y no de un conjunto de vectores.

Definición. Si V es un espacio vectorial de dimensión finita, una base or-denada de V es una sucesión finita de vectores linealmente independiente y quegenera V.

Si la sucesión al, . . . , a,, es una base ordenada de V, entonces el conjunto{oz1, . . . , a,,} es una base de V. La base ordenada es el conjunto, juntamentecon el orden dado. Se incurrirá en un pequeño abuso de notación y se escribirá

(B= {a¡,...,a,,}

diciendo que (B es una base ordenada de V.Ahora supóngase que V es un espacio vectorial de dimensión finita sobre

el cuerpo F y que(B= {a¡,...,a,,}.

es una base ordenada de V. Dado oz de V, existe un único n-tuple (xl, . . . , x,,)de escalares tal que

nG = E íligag.

0'-1

Este n-tuple es único, ya que si también se tienefl

a = E 2.-a¡¿-1

entonces11

2:1 ($¡ _ Z,')a¡ = 0

y la independencia lineal de los ai asegura que x, - z¡ = 0, para todo i. Se lla~mará a x¡ la i-ésima coordenada de oz respecto a la base ordenada

(B= {a1,...,a;;}

SiÚ = 2] yaa;

entoncesG + Ú = 311 (Ii + 3/¡)¢1¡

Page 64: ASESORES TECNICOS

I- \¡›m'iu.\ t'¢'¢'l¢›rtult'.\' 5/

-It- modo que la i-ésima coordenada de (oz + B) en esta base ordenada es (x¡ + yi).I u forma análoga, la i-ésima coordenada de (ca) es cx;. Debe observarse tam-Im-n que. cada n-tuple (x,, . . . , x,,) de F" es el n-tuple de coordenadas de algúnnf;-tor de V, a saber, el vector

E ílïiag.¡-1

Resumiendo, cada base ordenada de V determina una correspondenciaIuunivoca

(I"›(2¦1,. . .,2¦n)

uttrt- cl conjunto de todos los vectores de V y el conjunto de todos los n-tuplesth- I-`". Esta correspondencia tiene la propiedad de que el correspondiente det - t li) es la suma en F" de los correspondientes de or y B, y el correspondienteth- (fa) es el producto en F" del escalar c y el correspondiente de or.

(`:tbría preguntarse, en este momento, ¿por que no se elige simplemente.alguna base ordenada de V y se expresa todo V por su correspondiente n-tupletlt- coordenadas, ya que así se tiene la conveniencia de operar solo con n-tuples?I -.to iría contra nuestro propósito por dos razones. Primera, como la defini-t too axiomática de espacios vectoriales indica, se trata de aprender a razonart on espacios vectoriales como sistemas algebraicos abstractos. Segunda, in-timo cn aquellos casos en que se usan coordenadas, los resultados más impor-ttmtcs se obtienen de la capacidad que se tenga de cambiar sistemas de coor-dt-mtdas, es decir, de cambiar la base ordenada.

/\ menudo, será de mayor conveniencia usar la matriz de las coordenadasth- oz respecto a la base ordenada (B:

X = [31]rn vez del n-tuple (xl, . . . , x,,) de coordenadas. Para indicar la dependenciadt- esta matriz de coordenadas respecto de la base se usará el símbolo

[ale|›.1r:t la matriz de coordenadas del vector ot respecto a la base ordenada (B. Estanotación será particularmente útil cuando procedamos ahora a describir quéIt- sucede a las coordenadas de un vector oz cuando se cambia de una base orde-u.tda a otra.

Supóngase, entonces, que V es de dimensión n y que

(B={a1,...,0fi»} y (B'={0¢i,...,0lit}

sean dos bases ordenadas de V. Existen escalares únicos PU tales que

(2-13) a; = ã P--«- 1 <1' < n.U 1; _ ._1'-1

Scan x1, . . . , xj, las coordenadas de un vector dado ot en la base ordenada (BCI'nt0nces

Page 65: ASESORES TECNICOS

52 /fl,g'¢'I›ru lineal

a = wiai -I- +2IÂaå11

Í I= É $1111.i='1

= 33; Ptjüi¡=1 sfil

= 3: $5 (P.-,-x;›a1-li-1

= Pifílïi) Oft-z-1 1-1

Se tiene así la relación

(2-14) .1 = É (ìå P,,-a;;).1.-.¡B1 '-1

Como las coordenadas xl, xz, . _ ., x,, de oz en la base ordenada (B están uní-vocamente determinadas, se sigue de (2-14) que

(2-15) x.- = il P.-,~=«:;, 1 5 t 5 n.,É

Sea P la matriz n x n cuyo i, j elemento es el escalar P¡_,- y sean X y X' las ma-trices de coordenadas del vector oz en las bases ordenadas (B y (B'. Entonces sepuede escribir (2-15) como

(2-16) X = PX'.Como (B y (B' son conjuntos linealmente independientes, X = 0, si, y solo si,X' = 0. Así, de (2-l6) y del Teorema 7 del Capítulo l, se sigue que P es inver-sible. Luego

(2-17) X' = P°1X.

Si se usa la notación introducida anteriormente para la matriz de coordenadasde un vector respecto a una base ordenada, entonces (2-16) y (2-l7) dicen que

[ala = Plala'[ala = P`1[°=]oa-

Con lo que lo anterior puede resumirse así.

Teorema 7. Sea V un espacio vectorial de dimensión n sobre el cuerpo F,y sean (B y (B' bases ordenadas de V. Entonces existe una única matriz n x n,necesariamente inversible, con elementos de F, de modo que

o te = Pm .to t«1§ = P¬f3«1@para todo vector oz de V. Las columnas de P están dadas por

jï1,...,n.

Page 66: ASESORES TECNICOS

l*'\¡uu tu t' |°t't'turiult'.\' 53

I';tr;t completar el análisis anterior, se demostrará también el siguientett'o|v|n:t.

'Il-orcma 8. Supóngase que P es una matriz inversible n x n sobre F. SeaI un espacio vectorial de dimensión n sobre F, y sea (B una base ordenada de V.¡mom-cs existe una base ordenada (B', única, de V tal que

i [oz] = P[oz] ›«iii [ajâf = P-Ifåja,

¡tura todo vector oz en V.

Demostración. Sea (B, que consta de los vectores al, .. . , ot,,. Si (B' =1.11, . . . , oc,',} es una base ordenada de V, para la cual se tiene (i), es claro que

nG; = _E1 P¡¡a¡.

/\~.|, solo se necesita demostrar que los vectores ot}, definidos por estas igual-tt.tttcs, forman una base. Sea Q = P"1. Entonces

Í; Q,-avi; = Qƒkf; Pajflt1 1 I

= -PijQjlc aiJ Í

= Epi; 5 1'?(. Q*)°'= ak.

t'on lo que el subespacio generado por el conjunto

(B' = {ot¶,. . .,af,}

t ontiene a (B y, por tanto, es igual a V. Así que (B' es una base, y por su defini-tton y por el Teorema 7 es claro que (i) es válido y también lo es (ii). I

Ejemplo 18.- Sea F un cuerpo y seaa = (x¡,x2,. . .,x,.)

tm vector de F". Si (B es la base ordenada canónìca de F",(B = {e1,...,e,,}

la matriz de coordenadas del vector oz en la base (B está dada por

$1

[ala =In

Ejemplo 19. Sea R el cuerpo de los números reales y sea 0 un número realdudo. La matriz

P = [cos 6 -senâ]senâ oos6

Page 67: ASESORES TECNICOS

52 /Ilgrltru lineal

of =wiai -I- +22,91;fl

= _Zl=v}<1§JI

fl I fl

= 2 $1 2 Pijfla¡=1 ¡-1

= â É (P¢¡íl7i)€!¿5-1;-1

= 2 (2 Pii35i)C!¡-i=l j-=l

Se tiene así la relación

(2-14) a = É P.--$5) a.-.1 -1I O ,

'1

Como las coordenadas xl, xz, . _ . , x,, de oz en la base ordenada (B están uní-vocamente determinadas, se sigue de (2-14) que

(2-15) 1;, = É P.-,-$5, 1 5 1: 5 n.j-I

Sea P la matriz n x n cuyo i, j elemento es el escalar Pü y sean X y X' las ma-trices de coordenadas del vector ot en las bases ordenadas (B y (B'. Entonces sepuede escribir (2-15) como

(2-16) X = PX'.Como (B y (B' son conjuntos linealmente independientes, X = 0, si, y solo si,X' = 0. Así, de (2-16) y del Teorema 7 del Capítulo 1, se sigue que P es inver-sible. Luego

(2-17) X' = P°1X.

Si se usa la notación introducida anteriormente para la matriz de coordenadasde un vector respecto a una base ordenada, entonces (2-16) y (2-17) dicen que

[ala = P[0=]ai'[a]¢3› = P`1[a]¢g.

Con lo que lo anterior puede resumirse así.

Teorema 7. Sea V un espacio vectorial de dimensión n sobre el cuerpo F,y sean (B y (B' bases ordenadas de V. Entonces existe una única matriz n x n,necesariamente inversible, con elementos de F, de modo que

秛 vi@ = Pins(11) [ot]¿B. = P"'[oz]¿B

para todo vector oz de V. Las columnas de P están dadas por

_]--Í1,...,n.

Page 68: ASESORES TECNICOS

l"\¡mcIt›s t'¢'t°tnriuI¢-s .U

Para completar cl análisis anterior, se demostrará también el siguientetwicnia.

Teorema 8. Supóngase que P es una matriz inversible n x n sobre F. SeaI un espacio vectorial de dimensión n sobre F, y sea (B una base ordenada de V.Intonccs existe una base ordenada (B', única, de V tal que

[oz]¿B = P[oz]¿B.tn) [oz](B. = P`1[oz]¿B

¡uuu Í0d0 U€CIOt' OC €n V.

Demostración. Sea (B, que consta de los vectores al, ..., ot,,. Si (B' =, ot,',} es una base ordenada de V, para la cual se tiene (i), es claro que

fiIay = E P¡,'d.¡.

¡-1

ÍÍ_

í .| 1 0 I

Asi. solo se necesita demostrar que los vectores ot;-, definidos por estas igual-tlatles, forman una base. Sea Q = P”1. Entonces

2 Qfkai = 23 Qfk Z P-'fat'J -7 1

= E E P='ƒQ¡k Off1 .-

= ? (É P*fQf*)= ak.

t'on lo que el subespacio generado por el conjunto

(B' = {a{,.. .,a{.}tontiene a (B y, por tanto, es igual a V. Así que (B' es una base, y por su defini-tion y por el Teorema 7 es claro que (i) es válido y también lo es (ii). I

Ejemplo 18.- Sea F un cuerpo y seaa = ($1,x2,. . .,:t,.)

un vector de F". Si (B es la base ordenada canónìca de F",(B = {e1,...,e,,}

la matriz de coordenadas del vector oz en la base (B está dada por

$1

[ala =xa

Ejemplo 19. Sea R el cuerpo de los números reales y sea 0 un número realt|;ldO. La matriz

P = [eos 0 -sen 0]sen 0 eos 0

Page 69: ASESORES TECNICOS

54 .4 Igchra lineal

es inversible con inversa,P_¡=[ cos0 sen6_

-send cost)

Asi que para cada 0, el conjunto (B' que consta de los vectores (cos 0, sen 9),(sen 0, cos 0) es una base de R2; intuitivamente esta base puede ser descritacomo la obtenida por rotación de ángulo 6 de la base canónìca. Si ot es el vector(xl, X2), entonces

[Q] ' = I: eos 0 sen 0] [sq]'B -send eos 0 xa

= 2v100S0+x2 sen6= -flïrsenâ-I-:c2cos0.

o:ci:vé

Ejemplo 20. Sea F un subcuerpo de los números complejos. La matriz

-1 4 5P = 0 2 -3

0 0 8

es inversible con inversa-1 2 -*U1

P" ={ 0 É fe '0 0 18

Asi los vectoresaf = (--1, 0, 0)aå = ( 4, 2, 0)aå = ( 5, -3, 8)

forman una base (B' de F3. Las coordenadas x1, xå, xf, del vector oz = (xl, xz, x3)en la base (B' vienen dadas por

:ví -:t:¡ + 21:2 + -1311:; -1 2 -131 x1xå = åxg -I- ¬¡§'¡a:; = 0 -}íöá ïiííïïa

En particular(3, 2, -8) = -l0aÍ - åaå - aš.

Í-¿_-'I © © anti-joL_ì.| É?S*|._†_.|

Ejercicios1. Demostrar que los vectores

al = (ls lt Or 0)) a2 = (0: 01 lr

a3 = (lr 0: Or 4): ai = (0› Oi Or 2)

forman una base de R4. Hallar las coordenadas de cada uno de los vectores de la base ca-nónìca respecto de la base ordenada {a¡, az, a3, a4}.

Page 70: ASESORES TECNICOS

l iptti 'ms' t't't°tm'lttlr'.\' 55

1 Ilallar la matril de coordenadas del vector (I, 0, I) en la base de C3 formada por lostutores t2i, I, 0), (2, -I, I). (0, 1 + i, 1 - i), en ese orden.

1 Sea (B = {oz,, az, oz3} la base ordenada de R3 formada por

al = (lp 0; "'l)› a2 = (lr 1; 1): al = (lt 01 0)'

,_t 'nales son las coordenadas del vector (a, b, c) en la base ordenada (B?

-I Sea W el subespacio de C3 generado por ot, = (1, 0, i) y az = (1 + i, 1, -1).ta) Demostrar que al y 0:2 forman una base de W..th) Demostrar que los vectores B, = (1. 1. O) y B2 = (1, i, 1 + i) pertenecen a W

v lorman otra base de W.tel ¿Cuáles son las coordenadas de al y az en la base ordenada {fl,, B2} de W?

1. Sean fx = (x1, x2) y B = (yl, y¡) dos vectores de R2 tales que

rm/1+r›:/2=0, x'ï'+rš=z/i+yš= 1.li.-mostrar que (B = {oz, B} es una base de R2. Hallar las coordenadas del vector (a, b) enla base ordenada (B = {a, fl}. (Las condiciones impuestas a ot y B dicen, geométricamente,que ot y B son perpendiculares y de longitud 1.)

tt. Sea V el espacio vectorial sobre los números complejos de todas las funciones de Ren (`; es decir, el espacio de todas las funciones sobre el eje real a valor complejo. SeaI,t\l = l, f2(x) = e”, f3(x) = e_”'.

ta) Demostrar que fl, fl y f, son linealmente independientes.th) Sea g,(x) = 1, g2(x) = cos x, g3(x) = sen x. Hallar una matriz inversible 3 x 3, P.

htl quea

9:' = 2 Perfi-¡-17. Sea V el espacio vectorial (real) de todas las funciones polinomios de R en R de grado.' o menor; es decir, el espacio de todas las funciones de la forma

f(x) = co + cia: + c¢:t:*.

.St-.t t un número real fijo y definase

a›(w) = 1, a=(=v) = fr +1, a«(2=) = (I + 0'-lh-mostrar que (B = {g,, gz, g3} es una base de V. Si

f(x) = co + clx + czx*

,_t`uales son las coordenadas de f en esta base ordenada (B?

2.5. Resumen de equivalencia por filas

En esta sección se usarán unos hechos elementales referentes a bases y di-mensión en espacios vectoriales de dimensión finita para completar el trata-miento de la equivalencia de matrices por filas. Se recuerda que si A es unamatriz m x n sobre el cuerpo F, los vectores fila de .A son los vectores oq, . . _ , am«le F" definidos por

CI; = (Aa, . - - , AM)-

Page 71: ASESORES TECNICOS

56 /llgelrra lineal

y que el espacio de filas de A es el subespacio de F" generado por estos vecto-res. El rango de fila de A es la dimensión del espacio de filas de A.

Si P es una matriz k x m sobre F, entonces el producto B = PA es una ma-triz k x n cuyos vectores fila B1, . . _. 8,, son combinaciones lineales

fir=P=10f1+'°' +P¢mC!m

de los vectores fila de A. Así el espacio de filas de B es un subespacio del espaciode filas de A. Si P es una matriz inversible m x m, entonces B es equivalentepor filas a A, de modo que la simetría de la equivalencia por filas, o la igualdadA = P_1B, indica que el espacio de filas de A es también un subespacio delespacio de filas de B.

Teorema 9. Las matrices equivalentes por filas tienen el mismo espaciode filas.

De este modo se ha visto que para estudiar el espacio de filas de A se puedeestudiar el espacio de filas de una matriz escalón reducida por filas que es equi-valente por filas a A, como se hará en seguida.

Teorema 10. Sea R una matriz escalón no nula reducida por filas. Enton-ces los vectores fila no nulos de R forman una base del espacio de filas de R.

Demostración. Sean pl, . . . , p, los vectores fila no nulos de R

Ps' = (R51) ' ' - 3 Rin)-

Ciertamente estos vectores generan el espacio de filas de R; se necesita solodemostrar que son linealmente independientes. Como R es una matriz escalónreducida por filas, hay enteros positivos k,, . . . , k, tales que, para i < r

(3) R('¿›.l) = 0 Si < ki

(<=)k1 < <k,.Supóngase que B -= (bl, . . . , b,,) sea un vector del espacio de filas de R:

B = clpl + ' ' ' + cipr-

Se afirma entonces que c¡ = b,,,,. En efecto, por (2-18)

(2-20) b,.,. = É ¢,-Ro', k,-)í=1

1'

= E 01-511;i==l

= Cj.

En particular, si B = 0, es decir, si clpl + '° - + c,p, = 0, entonces c¡ debeser la k-ésima coordenada del vector nulo, con lo que_c¡ = 0, j = 1_ . . . , r.Así, pues, pl, ..., p, son linealmente independientes.

Page 72: ASESORES TECNICOS

I \¡uu'l¢›.\' t't't'h›t titles 57

Teorema Il. Sean tn y n dos enteros ¡›¢›s-:tivos y sea F un cuerpo. Supóngaseqm- II' es un suhcs¡›ucio de F" y que dim W 5 m. Entonces existe exactamentemm .sola matriz escalón tn x n reducida por filas sobre F que tiene a W comotu ¢-.\¡›m'io ¿le filas.

¡tt-nu›.s-tración. Hay al menos una matriz escalón reducida por filam ›< n con espacio de filas W. Como dim W 5 m, se pueden elegir m vectores1,. _ _ _ _ oz", de Wque generan W. Sea Ala matriz m x n con vectores fila oq, _ _ _ ,.__ y sea R la matriz escalón reducida por filas que es equivalente por filas a A.I monces_ el espacio de filas de R es W.

Sea ahora R cualquier matriz escalón reducida por filas que tiene a W como~.u espacio de filas. Sean p,, _ _ _ , p, los vectores fila no nulos de R y supóngaseque el elemento principal no nulo de p, esté en la columna ki, i = 1, _ _ _ , r.I os vectores pl, _ _ _ _ p, forman una base de W. En la demostración del Teore-ma It) se observó que si B = (b,, b,,) pertenece a W, entonces

B=c1P1+ °'° +crPr;

y «_ = bh; en otras palabras, la expresión única de B como combinación lineal111' |t›S p¡, - - - › pr es

Í? Ú = -Él bh,-pi.

/\~.|. pues, cada vector B está determinado si se conocen las coordenadas bh,I I, _ _ _ , r. Por ejemplo, ps es el vector único de W que tiene la k,-ésima coor-«It-nada 1 y las ki-ésimas coordenadas 0 para `i'=/= s.

Supóngase que B pertenece a W y que B =/= 0. Se afirma que la primera coor-tlt-nada no nula de B está en una de las columnas ks_ Como

B = Él bem;

y /J =|= 0 se puede escribir

(2:22) B = É bltipü bh. 7é1'-a

l›e las condiciones (2-18) se tiene R¡¡ = 0 si i > s y j 2 k_,. Con lo que

B=(0,__.,0, b¡,_,._.,b,,), b¡,,;=f0

v la primera coordenada no nula de B está en la columna k,_ Obsérvese tambiénque para cada ks, s = 1, _ _ _ , r, existe un vector en W que tiene su k,-ésimacoordenada no nula, a saber ps. '

Ahora es claro que R está determinada unívocamente por W. La descrip-ción de R en terminos de W es como sigue. Se consideran todos los vectores/t = (bl, _ _ _ , b,,) en W. Si B 7€ 0, entonces la primera coordenada no nula debeestar en alguna columna t:

B=(0,...,0, b,,__.,b,_), b,.¢0_

Sean kl, _ _ _ , k, aquellos enteros positivos t tales que existe algún B 7€ 0 en W,

Page 73: ASESORES TECNICOS

58 A ¡gt-bra lineal

cuya primera coordenada no nula está en la columna t. Se disponen los kl, _ _ _ , k,en el orden kl < kz < < k,_ Para cada uno de los enteros positivos k,habrá un vector ps y solo uno de W tal que la k,-ésima coordenada de p, es 1 yla k,-ésima es 0 para i 3€ s. Entonces R es la matriz m x n que tiene los vecto-res fila pl, ..., p,, 0, __., 0. I

Corolario. Cada matriz m x n, A, es equivalente por filas a una, y sola-mente una, matriz escalón reducida por filas.

Demostración. Sabemos que A es equivalente por filas, al menos, a unamatriz escalón reducida por filas. Si A es equivalente por filas a otra matrizescalón R', entonces R es equivalente por filas a R'; luego, R y R' tienen el mis-mo espacio de filas y deben ser idénticas. I

Corolario. Sean A y B matrices m x n sobre el cuerpo F. Entonces A y Bson equivalentes por filas si, y solo si, tienen el mismo espacio de filas.

Demostración. Se sabe que si A y B son equivalentes por filas, entoncestienen el mismo espacio de filas. Supóngase ahora que A y B tengan el mismoespacio de filas. Ahora A es equivalente por filas a una matriz escalón reducidapor filas R, y B es equivalente por filas a una matriz reducida por filas R'. ComoA y B tienen el mismo espacio de filas, R y R' tienen el mismo espacio de filas.Con lo que R = R' y A es equivalente por filas a B. I

En resumen, si A y B son dos matrices m x n sobre el cuerpo F, las siguien-tes afirmaciones son equivalentes:

wish;~<~< ww Q.”

1. on equivalentes por filas.2. enen el mismo espacio de filas.3. ± PA, donde P es una matriz inversible m x m.

Una cuarta afirmación equivalente es que los sistemas homogéneos AX = 0y BX = 0 tienen las mismas soluciones; sin embargo, aun cuando se sabe quela equivalencia por filas de A y B implica que estos sistemas tienen las mismassoluciones. es más conveniente dejar la demostración del recíproco para másadelante.

2.6. Cálculos relativos a subespacios '

Queremos ahora mostrar cómo las operaciones elementales por filas dan unmétodo normalizado para responder a ciertas preguntas concretas concer-nientes a subespacios de F"_ Ya hemos deducido lo que vamos a necesitar. Elanálisis es válido para cualquier espacio vectorial V de dimensión n sobre elcuerpo F, si se elige una base ordenada (B fija y se expresa cada vector oz de Vpor la n-tuple (xl, _ _ _ , x,,) que da las coordenadas de oz en la base ordenada (B.

Supóngase que se han dado m vectores al, _ _ _ , am pertenecientes a F"_ Con-sideremos las siguientes preguntas:

1. ¿Cómo se determina si los vectores al, _ _ _, oz", son linealmente inde-pendientes? O en términos generales, ¿cómo se determina la dimensión delsubespacio W generado por estos vectores?

Page 74: ASESORES TECNICOS

l \¡nn'ms t-rwturlulcs 59

2. Dado B en F”, ¿cómo se determina si B es una combinación lineal de1,, _. _, am, es decir, si B pertenece al subespacio W?

l. ¿_ Cómo se puede dar una descripción explícita del subespacio W '?I .t tercera pregunta es algo vaga, ya que no se especifica qué se entiende

por una «descripción explícita››; sin embargo, ello se aclarará cuando se derl tipo de descripción que se tiene en mente. Con esta descripción las pregun-tn-_ (I) y (2) pueden contestarse inmediatamente.

Sea A una matriz m x n con vectores fila ot,:

CI; = (Aa, . . . , Ah)

Ilagasc una sucesión de operaciones elementales por fila, empezando con A¡tina terminar con una matriz escalón reducida por fila R. Anteriormente yaur indicó cómo se hace esto; ahora, la dimensión de W (el espacio de filas de A)t|m-«Ia de manifiesto, ya que esta dimensión es simplemente el número de vec-totes lila no nulos de R. Si p,, _ _ _ , p, son los vectores fila no nulos de R, en-tonces (B = {p,, _ _ _ , p,} es una base de W. Si la primera coordenada no nulaitt- B, es la coordenada k¡-ésima, se tiene entonces para i 5 r

tn) R('i, = 0, SÍ < lt?,-Iii) = öfj

11') l€1<°°° <lt7,-_

Il subespacio W consta de todos los vectores

B = clP1+ °°' +cfpr

== É C¡(R¡|, . . . , Rin).¡-1

I a¬- coordenadas bl, _ _ _ _ b,, de tal vector B, son entonces¶'

1'., 23) bj = E C¡R¡¡.:-1

I n particular, bk, = c,-, y así, si B = (bl, _ _ _, b,,) es una combinación linealttt- los pi, debe ser la combinación lineal particular

1'

t_'.! 2-1) B = E biopi-1'-1

I .ts condiciones sobre B que (2-24) ha de tener son

(2-25) b,- = É b,_,R-- j = 1,_..,n_UI¿-1Ahora (2-25) es la descripción explícita del subespacio W generado por1,. _ _ _, am, esto es, el subespacio consta de todos los vectores B de F" cuyastoordenadas satisfacen (2-25). ¿Qué tipo de descripción es (2-25)? En primerlugar describe W como todas las soluciones B = (bl, _ _ _, b,,) del sistema deecuaciones lineales homogéneas (2-25). Este sistema de ecuaciones es de unanaturaleza muy especial, porque expresa (n - r) de las coordenadas comocombinaciones lineales de las r coordenadas señaladas, "bm, _ _ _, b,,r_ Se tiene

Page 75: ASESORES TECNICOS

Ó" fIl_L't°lIru lÍm'ul

completa libertad para elegir las coordenadas b,,; esto es, si cl, _ _ _ , c, son r es-calares cualesquiera, existe un vector B de W y solo uno que tiene c, como suk,--ésima coordenada.

Lo significativo, aquí, es que: dados los vectores oq, la reducción por filaes un método directo para determinar los enteros r, k1, _ _ _ , k, y los escalaresRU- que dan la descripción (2-25) del subespacio generado por al, _ _ _ , ot,,,_ Debe-mos observar, como hicimos en el Teorema ll, que todo subespacio W de F”tiene _una descripción del tipo (2-25). También debemos hacer notar algunosaspectos respecto a la pregunta (2). Se ha determinado, en la Sección 1.4, cómose puede hallar una matriz inversible m x m, P, tal que R = PA. El conoci-miento de P permite encontrar los escalares xl, _ _ _ , x,,, tales que

fi=371Of1+ +$m0fm

cuando ello es posible. En efecto, los vectores fila de R están dados por

Pi = š Paja;j=l

de modo que si B es una combinación lineal de los ai, se tieneI'

B = E bkiflia-1

= bh. Piƒflj1-1 ¡-1

= É É b,,.P--_»_ 1 ¡J JJ-lí=1

f

con lo que 21;' = E btipaf¡-1es una posible elección de los xj (puede haber varias).

La cuestión de si B = (bl, _ _ _, b,,) es una combinación lineal de las ai, yen tal caso cuáles son los escalares x, se puede también considerar preguntán-dose si el sistema de ecuaciones

_š1A¡¡Z¡=b¡, j=1,...,1L

tiene solución y cuáles son las soluciones. La matriz coeficiente de este sistemaes la matriz n x m, B, con vectores columna al, _ _ _ , am. En el Capítulo 1 seestudió el uso de las operaciones elementales por fila para resolver un sistemade ecuaciones BX = Y. Consideremos un ejemplo en el cual adoptamos ambospuntos de vista para responder preguntas respecto a subespacios de F"_

Ejemplo 21. Consideremos el siguiente problema. Sea W el subespaciode R4 generado por los vectores

^_@_¢= $33030 ..°__O,,l°I-¡F-5 \-/\-/

ji OQ Y

a1==

a2==

a3== _' '_

Page 76: ASESORES TECNICOS

l'..\¡un'It›s |'e¢'tm'lale.t M

ta) Demostrar que oq, ozz, oz, forman una base de W, es decir, que estostt-etores son linealmente independientes.

th) Sea B = (b,, bz, bz, b4) un vector de W. ¿Cuáles son las coordenadastle B respecto a la base ordenada {ot1, az, oz3}'?

tc) Seanai = (1, 0 2 0)acá = (0, 2 0, 1)aå = (0 0 0 3).

Q Y

9

Q Q ¶

Iìt-mostrar que ozí, ozz, ozf, forman una base de W.td) Si B pertenece a W, se designa por X la matriz de coordenadas de B

n--.pecto a la base de los oz, y por X' a la_ matriz de coordenadas de B respectott la base de los oz'. Hallar la matriz 3 x 3, P, tal que X = PX' para cada unatlt' l¡I|€S

Para responder estas preguntas por el primer método se forma la matriz At on vectores fila oq, otz, az, se determina la matriz escalón reducida por filas R,t|ne es equivalente por filas a A, y haciendo las mismas operaciones sobre lamatriz identidad se obtiene la matriz inversible Q, tal que R = QA:

12 21] [102002 o1_›R=o1oo

-20-43 0001[100 6-ooo1o_›Q=%-2 5-1ooij 4-42 -

(a) Evidentemente R es de rango 3, con lo que oq, az, az son .indepen-dientes.

tb) ¿Qué vectores B = (bl, bz, bz, b4) pertenecen a W? Se tiene la basede W dada por pl, pz, pz, que son los vectores fila de R. A la vista está que elespacio generado por pl, pz, pz consta de los vectores B para los que bz = 2b1_Para un B tal, se tiene

B = btpr + bzpz + b4P3= |.b1› be, b4]R_= ba b4]QA= 23101 + 172012 + 223013

donde x¡ = [[91 bz b3]Q¡;

$1 = br "' åbz + šb-1$2 = _b1 + -2-bg _ ãbg

Ia = _ tlrbz + šba-

(c) Los vectores ozj, ozz, oz¿Í, son todos de la forma (yz, yz, yz, y4) con yz = 2y,,y, por tanto, pertenecen a W. Es evidente que son linealmente independientes.

Page 77: ASESORES TECNICOS

62 /I let-bra lineal

(d) La matriz P tiene por columnasP; = [dile

donde (B = {ot1, az, ozz}_ Las ecuaciones (2-26 dicen cómo hallar la matriz decoordenadas para ai, ozz, az. Por ejemplo, con B = oz; se tiene bl = 1, bz = O,b3=:2,b4ï0,y

I1 =

332223 =

l - %(0) + %(0)-I + %(0) - š(0)

- %(0) + %(0)

= 1-1

= 0.Con lo que oz; = oz, - az. En forma semejante, se obtiene az = ozz y ozz =2oz1 - 2ozz + az. Luego

P1 0 2

=-11-2-001

Ahora se verá cómo se responden las preguntas por el segundo método des-crito_ Se forma la matriz 4 x 3, B, con vectores columna oil, az, otz:

B

O

2/2 _ 22/4

3/3 _ 2!/1

102o_

Htúw t-O OQ

I-Ä *G co ©

Inquirimos para cuáles yl, yz, yz, y4 el sistema BX = Y tiene una solución.1 0 2 ll/1 0 2 y¡

2 2 0 yz 2 4 2y

3/ 3/4 3/1

-2

-4

O

t-*IO t-*O OQ OOI-^ t-t

2/2'” 1 __›3/3_2?/1

OO'-^Or-«O Ocnøäw

*S

'QIII

*QIII

OO»-I ›-OOO Oi-*O

UIQ

3/1 _ åll/2 + ã?/4%(23l4 ” 1/2)

“U1 + %?/2 * É?/4ya “' 2?/1O O O

Así la condición para que el sistema BX = Y tenga una solución es que yz = 2y, _Así B = (bl, bz, bz, b4) pertenece a W si y, solo si, bz = 2b1. Si B pertenece aW, entonces las coordenadas (xl, xz, xz) en la base ordenada {oz,, az, otz} sepueden leer de _la última matriz anterior. Obtenemos nuevamente las fórmu-las (2-26) para esas coordenadas.

Las preguntas (c) y (d) se responden como antes.Ejemplo 22. Consideremos la matriz 5 x 5

A=

OIOGI-*I-* OtåOt\Dl\D Qt-si-IO

t-›

OO›-P›C» ›-t-OOO

-1 -1

y los siguientes problemas concernientes a A.

Page 78: ASESORES TECNICOS

I \¡uu'lus t~ct-tnriules t'›,i

ta) llallar una matriz inversible P, tal que PA sea una matriz escalóntetlucida por filas R.

tb) Hallar una base para ei espacio de filas W de A.te) Determinar qué vectores (bl, bz, bz, b_.,, bz) están en W.td) Hallar la matriz de coordenadas de cada vector (bl, bz, bz, b4, bz)

de W en la base ordenada elegida en (b).te) Escribir cada vector (bl, bz, bz, b4, bz) de W como una combinación

lnteatl de las filas de A.tf) Dar una descripción explícita del espacio vectorial V de todas las ma-

tnees columnas de 5 x l, X, tales que AX = 0.tg) Hallar una base de V.th) ¿Para qué matriz columna 5 x 1, Y, la ecuación AX = Y tiene so-

luciones X?

Para resolver estos problemas se forma la matriz aumentada A' del sis-tema AX = Y y efectuando una sucesión apropiada de operaciones por filasttulìre A'Z

l 2I - - _ _ _!/1 + yaU __* Í/3 --›

'Z _-21/1 'i' 1/40 ya

OOOONDOwtäclø OOOHO

Oi-ft-tt-O

OOOi-bw t-si-*OOOOEFÄHOO

t--ti-«OOO °$°$*$*$°S

°$

OOOOH OOOOIO Qi-bt-v-*O Othsàttäw t-*F-*OOO

'S

_' 1/1U yt _ I/2

0 -yi+y2+y3 --›0 -31/1 + yo + ytt›

OOOOI-'* OOOON OOOHO OOOt-bw OO›-OO

yr2/1 _ 3/2

ya_!/1 + 2/2 + ya

_3?l1 + ya + ya _ yata) Si

?/13/1 _ 3/2

PY = yr,

_?/1 + ya + ya_3?/1 + ya + ?/4 _ ya

para todo Y, entonces

Cpt-*Qu-si-l Hi-*OHO Oi-OOO t-OOOO t-*Oi-*OO

P=

Page 79: ASESORES TECNICOS

64

luego PA es la matriz escalón reducida por filas

[0 0 0 OjSe debe resaltar que la matriz P no es única. Existen, de hecho, muchas matri-ces inversibles P (que provienen de los diferentes modos de elegir las opera-

12OO

R= 0 00 0 Oct-*Q

OOO

34

00

0

ciones usadas para reducir A') tales que PA =(b) Una base de W se puede tener al tomar las filas no nulas

de R.

P1=ø2=(0ps=(0

(120300

1 40)0)

001)

A l,eel›t-tt lineal

(c) El espacio de filas W consta de todos los vectores de la forma

donde cz, cz, cz son escalares arbitrarios. Así, (bz, bz, bz, b4, bz) pertenece a Wsi y, solo si.

Estas ecuaciones son casos particulares del sistema general (2-25), que se puedeusar para ver- inmediatamente si un vector dado pertenece a W. Así, (-5, -101, -11, 20) es una combinación lineal de las filas de A, pero (1, 2, 3, 4, 5) `no lo es

(d) La matriz de coordenadas del vector (bl, 2b1, bz, 3b1 + 4bz, bz) en

5 = C101 + C202 + Capa= (cl: 261: C2; 361 + 462; C3)

(bt, bz, bs, ba, bs) = (7101 + bath + babalo que es cierto si y, solo st,

bg = 1b4 = 3b1 + 4b3.

la base p, pz, pz es evidentementebilil

(e) Hay varias maneras de escribir los vectores de W como combinaciones lineales de las filas de A. Tal vez el método más fácil es seguir el primer procedimiento del Ejemplo 21 anterior

(bli 2b1› b3› 3b1 + 4b3› bñ)

RB

[bb b3› bb: Oi

[bla b3› bb: Or -PA

= [bli b3› bfit 0!

= Uh + ba, _b3, O, 0, (251

0O›--=O›-›t--

:Lt-tv-*Oi--O

Oi-*OOO t-*CCOO I-*Oi-*OC

Page 80: ASESORES TECNICOS

Ktpttt lt›.\ t't't'lt›t'tttlt'.\

In |›.ntteula|', con B = t-5, - IO, l,

B=(_4›_1›O›O› )N)C

©l\9©t-*'-'

[Q '-3

tt) Las ecuaciones en el sistema RX = 0 sonx1 + 22:2 + 32:4

$3 + 42224 =275=

"-2222 _ 3274

$2X = -4224

t on lo que V consta de todas las columnas de la forma

i 0 jtlontle xz y x4 son arbitrarios.

tv) Las columnas

¿C4

lot man una base para V. Este es un ejemplo de la base descrita en el Ejemploth) La' ecuación AX = Y tiene las soluciones X si y, solo st,

OOO›-*to Oi--Ii-P~O0O

_!/1 +1/2+?/s-31/1 +1/2+:/4-yt

I-.`¡m-cicios

I. Sea s < n y A una matriz s x n con elementos en el cuerpo F. Usando el Teorema 4tno su demostración), demostrar que existe un X no nulo en F"*1 tal que AX = 0

2. Seanal= (111›_2s1)› a2 = (3: Oi 4: "'1)› a3 = (_1› 2

V SOLID

O00

00

-ll, 20) se tiene

O›l>~Otú Or-*t--*CD

t-I

OOt-t=~t-Im ›-It-*OOO

a = (41-51 9› _7): B = 1 -'41 4)› 7 = _

tc) ¿Sugiere esto algún teorema?

_, (1›1ta) ¿Cuál de los vectores ot. B, y pertenece al subespacio R4 generado por los ot,`7tb) ¿Cuáles de los vectores ot, B, y están en el subespacio de C4 generado por los ot,

Page 81: ASESORES TECNICOS

64

luego PA es la matriz escalón reducida por filas1 20 0

R=

Se debe resaltar que la matriz P no es única. Existen, de hecho, muchas matrices inversibles P (que provienen de los diferentes modos de elegir las opera-ciones usadas para reducir A') tales que PA = R.

OOO OOO OOO)-'O OOO

3040J

.4 lgebru linertl

(b) Una base de W se puede tener al tomar las filas no nulas

de R.

P1=

na=(000

(1 2 0 3 0)pz = (0 0)

1)Oi-4 Otb

(c) El espacio de filas W consta de todos los vectores de la forma

donde cz, cz, cz son escalares arbitrarios. Así, (bz, bz, bz, b4, bz) pertenece a Wsi y, solo si,

B:

(blr b2› bli; bd; = blpl + b3p2 + b5p3

lo que es cierto si y, solo st,

Estas ecuaciones son casos particulares del sistema general (2-25), que se puedeusar para ver› inmediatamente si un vector dado-pertenece a W. Así, (-5, -101, - ll, 20) es una combinación lineal de l`as filas de A, pero (1, 2, 3, 4, 5) `no lo es

(d) La matriz de coordenadas del vector (bz, 2bz, bz, 3bz + 4bz, bz) en

crm + Cam + caps= (cz, 201, 02, 31:1 + 41:2, cg)

bg = 2171

bz = 3bz -|- 4b3.

la base pz pz, pz es evidentemente

cedimiento del Ejemplo 21 anterior(bl) 2b1) bli; 3bl + 4b3)

RB

= [bl + b3› _'b3› 0) 0;

[bh b3› bb; 0)

[bb b3› bb; ot

[bh b3› b5› Or

br

batt(e) Hay varias maneras de escribir los vectores de W como combinacio-

nes lineales de las filas de A. Tal vez el método más fácil es seguir el primer pro-

PA

í

í- C9)-\©›-It-I

¿Ãi-ft-Oi-*O

Oi-*OOO t-LOOOO t-Oi-OO

Page 82: ASESORES TECNICOS

It'\¡›m'm.\' t'r't'lm'uIlt'.\

ln particular. con B = (- S, - lt), l, -ll, 20) se tiene

ONJOHI-* Othøtølsb CDH-I-CD

th0:B = (_4› '-1101 0)

j

100

tt) Las ecuaciones en el sistema RX = 0 son:

231 'l' 2332 -l' 32342:3 + 42:4

235

t on lo que V consta de todas las columnas de la forma_22§2 _ 3114

332X = _42D4 C'

1740

donde xz y x4 son arbitrarios.tg) Las columnas

lot man una base para V. Este es un ejemplo de la base descrita en el Ejemploth) La' ecuación AX = Y tiene las soluciones X si y, solo si,

_?/1 +11/2 +1!/3

OOi-N l.__.____| t'__"'“_"l O›-POGQl.__.____|O t-›

O00

_3Z/1 +1!/2 +94 _ ya

líicrcicios

I. Sea s < n y A una matriz s x n con elementos en el cuerpo F. Usando el Teorema 4tno su demostración), demostrar que existe un X no nulo en F"“ tal que AX = 0

2. Sean

al = (1111 -21 1); a2 = (31 0: 4: _1)› a3 = (_1› 2»

y scan

a = (41 _5› gr '_7)› B = (31 1) _4› 4); 'Y = (-1111 › )

ta) ¿Cuál de los vectores ot, B, )› pertenece al subespacio R4 generado por los ot,'7th) ¿Cuáles de los vectores ot, B, y están en el subespacio de C4 generado por los ot,tc) ¿Sugiere esto algún teorema?

00

l-Il

t-tr-*OOO

Page 83: ASESORES TECNICOS

00 A Igrhru littertl

3. Considerar los vectores en R4 definidos por

at = (-1, 0,1, 2), ag = (3, 4, -2, 5), cx; = (1, 4, 0, 9).

Hallar un sistema de ecuaciones lineales homogéneas para las que el espacio de las solu-ciones sea exactamente el subespacio de R4 generado por los tres vectores dados.

4. En C3, sean

al = (1, O, -í), ag = (1 + í, 1 - iz 1), 0:3 = ('tÍ,^í, í).

Demostrar que estos vectores forman una base de C3. ¿Cuáles son las coordenadas delvector (a, b, c) en esta base?

5. Dar una descripción explícita del tipo (2-25) para los vectores

B = (bl: bìr b3r bli

de R5 que son combinaciones lineales de los vectores

al = (lr 01 211: _1)› ai = (_1| 21 -41 29

a3 = (2› _1› 5: 2: 1): ai = (21 la 3: 51 2)'

6. Sea V un espacio vectorial real generado por las filas de la matriz

A=

O¦Nll-'O3 ›-O›-O F-I 00651010 O»-›-O

ta) Hallar una base para V.(b) ¿Qué vectores (xz, xz, xz, x4, xz) son elementos de V?(c) Si (xz, xz, xz, x4, xz) pertenece a V, ¿cuáles son sus coordenadas en la base ele-

gida en la parte ta)?

7. Sea A una matriz m x n sobre el cuerpo F y considerar el sistema de ecuaciones AX= Y.Demostrar que este sistema de ecuaciones tiene una solución si, y solo si, el rango de filade A es igual al rango de fila de la matriz aumentada del sistema.

Page 84: ASESORES TECNICOS

3_ Transƒormaeiones lineales

1. I. Transformaciones lineales

Vamos a introducir ahora las transformaciones lineales, que es de lo quect- trata en la mayor parte de lo que resta del libro. El lector encontrará de utili-«Intl leer (o releer) el estudio sobre funciones en el Apéndice, ya que se harámnplio uso de la terminología pertinente.

Definición. Sean V y W. dos espacios vectoriales sobre el cuerpo F_ Unatransformación lineal de V en W es una función T de V en W tal que

T(ca + 3) = Ctra) + To¡wm todos los vectores ot _v B de V y todos los escalares c de F.

I-.jemplo 1. Si V es cualquier espacio vectorial, la transformación identidadI, tlelinida por Ia = oz, es una transformación lineal de V en V. La transfor-ntneión cero 0, definida por Ooz = 0, es una transformación_lineal de V en V.

I-ijemplo 2. Sea F un cuerpo y sea V el espacio vectorial de las funcionespolinomios f de F en F, dado por

` f(35)=0o+C1íU+"'+C¡¢$".Vil

(Dƒ)(:c) = el + 2c2:t: + - - - + kc¡,:t:'°_1_

I ntonces D es una transformación lineal de V en V: la transformación deri-int-ión.

67

Page 85: ASESORES TECNICOS

68 A I_t-ehru lineal

Ejemplo 3. Sea A una matriz m x n dada, con elementos en el cuerpo F.La función T definida por T(X) = AX es una transformación lineal de F""'en F"'“ '_ La función U definida por U(ot) = ozA es una transformación linealde F"' en F”.

Ejemplo 4. Sea' P una matriz m x m dada, con elementos en el cuerpo F,y sea Q otra matriz n x n dada, sobre F. Se define una función T del espacioF"“”' en sí mismo por T(A) = PAQ_ Entonces T es una transformación linealde F'"“" en F'"”', porque

T(cA + B) = P(¢A + B)Q= (¢P¿1 + PB)Q= CPAQ + PBQ= cT(A) + T(B)_

Ejemplo 5. Sea R el cuerpo de los números reales y sea V el espacio detodas las funciones continuas de R en R. Se define T por

(mm=fimaEntonces T es una transformación lineal de V en V. La función Tf no solo escontinua, sino que también tiene primera derivada continua. La linealidad de laintegración es una de sus propiedades fundamentales.

El lector no tendrá dificultades en verificar que las transformaciones de-finidas en los Ejemplos 1, 2, 3 y 5 son transformaciones lineales. La lista deejemplos se ampliará considerablemente cuando se estudien más aspectos delas transformaciones lineales.

Es importante observar que si T es una transformación lineal de V en W,entonces T(0) = 0: lo que se ve por la misma definición, pues

T(0) = T(0 + 0) = T(0) + T(0)-Este punto es a menudo motivo de confusión para quien estudia álgebra linealpor primera vez. ya que probablemente haya tenido una visión un poco dife-rente del uso del término «función lineal». Un breve comentario al respectopodria aclarar esa confusión. Supóngase que V es el espacio vectorial R'. Unatransformación lineal de V en V es entonces un tipo especial de función realen el eje real. En un curso de cálculo es probable que se diga que tal funciónes función lineal si su grafo es una recta. Una transformación lineal de R1 en R'.de acuerdo con la definición, será una función de R en R cuyo grafo es una rectaque pasa por el origen.

A más de la propiedad T(0) = 0 indiquemos otra propiedad general de latransformación lineal T. Tal transformación «preserva›› las combinaciones linea-les; esto es, si ozz, _ _ _ , oz, son vectores de Vy cz, _ _ _ , c,, son escalares, entonces

T(crar + '- ' + cuan) = cr(Tai) + - - - + C»(T0r._)-Ello resulta directamente en forma en forma directa de la definición. Por ejemplo,

7-'(0101 + Cgag) = C1(TC!1) + T(C2a2)

= C1(T(!1) + C2(T(l2).

Page 86: ASESORES TECNICOS

`IiomIornm¢'ionc.r It`m'ales O9

Teorema I. Sea V un espacio vectorial de dimensión finita sobre el cuerpoI _ teo -¦otz, _ _ _ _ oz,,} una base ordenada de V. Sean W un espacio vectorial sobreel nos-mo cuerpo F y B z, _ _ _ , B, vectores cualesquiera de W_ Entonces existe unaunn-o transjprmación lineal de T de V en W tal que

Totz-=B¡, j=l,.._,n_

I tt-››u›s-tración. Para demostrar que existe una transformación lineal Ttnl que Tozz- = Bz se procede como sigue. Dado ot de V. existe una única n-tuplettz ___, x,,) tal que

d= íl?1(X1'+' +íUnOln.

l'.n.| ese vector ot se defineTa + . . ' + xnfifls

I ntonccs, T es una correspondencia bien definida que asocia a cada vector otde I un vector Tot de W. De la definición queda claro que Totz- = BJ- para cada ¡_I'-tt.: ver que T es lineal, Sea

B = Z/1011+ +2/_n0¢›t

de I' y Sea c cualquier escalar. Ahora

Ca + B = (0101 + 2/0011 + ' ' ' + (Cxn + .l/ft)0¢n

von lo que, por definición,

T(C0l + (3) = (C121 -l- ?/1)t51 + ' ° ° + (Cra + ynlfin-

I'o| otra parte,

c(T«) + To = c Él ao.- + ,Él ye.-

= ill (Cïïi + ?/t)B¿

Y ttstTtca + ti) = c(Ta) + To.

Si U es una transformación lineal de V en W con Uotz- = B¡_ j = 1, _ _ _ _ n,

entonces para el vector a = 2) xfa.- se tienei-=1

Ua = U ( É: ;t_a_~)i=l

fl

= E íU¡(U0la)Í=l

n

= E Itfifi-1

con lo que U es exactamente la misma correspondencia T que se definió antes,lo que demuestra que la transformación lineal T con Taj = B¡_ es única. I

Page 87: ASESORES TECNICOS

70 Algebra lineal

El Teorema 1 es muy elemental, pero por su importancia ha sido presentadoldetalladamente. El concepto de función es muy general. Si V y W son espaciosvectoriales (no nulos), hay una multitud de funciones de V en W. El Teorema 1destaca el hecho de que las funciones que son lineales son muy especiales.

Ejemplo 6. Los vectoresal = (lr

a2 = (3)

son linealmente independientes y, por tanto, forman una base de R2. De acuer-do con el Teorema 1, existe una única transformación lineal de R2 en R2 tal qu

Ta, = (3,2, 1) `TG2 = (6, 5,

De ser así, se debe poder encontrar T(ez). Encontrados los escalares cz, cz talestque ez = czotz + czaz, se sabe entonces que Tez = czTozz + czTotz. Si (1, 0) =†cz(l, 2) + cz(3, 4), entonces cz = -2 y cz = 1. Con lo que

= (0, 1,2).Ejemplo 7. Sea T una transformación lineal del espacio de los m-tuples

F"' en el espacio de los n-tuples F". El Teorema 1 dice que T está unívocamentedeterminado por la sucesión de vectores Bz, _ _ _ _ B,,,, donde

B¡=T6¡, 1:=1,...,m.

Dicho brevemente, T está unívocamente determinado por las imágenes de los.vectores de la base canónìca. Esta determinación es

a: (x1:°--rxm)

Ta=x1fl1+ "' +xmøm-

Si B es la matriz m x n que tiene por filas los vectores Bz, _ _ _ _ B,,,, esto quieredecir que

Tot = otB.

O sea que si Bz = (Bzz, _ _ _ _ Bz,,), entoncesBu . . . B1"

T(xl›°°°›xfl)=[x1°°'xfil E E '

Bml ° ' ° Bmn

Esta es una descripción muy explícita de la transformación lineal. En la Sec-ción 3.4 se hará un estudio detallado de la relación entre las transformacioneslineales y las matrices. No se 'seguirá con la descripción particular Ta = orB,porque tiene la matriz B a la derecha del vector ot y ello -puede inducir a confu-sión. La razón de este ejemplo es hacer ver que se puede dar una descripciónexplícita y razonablemente simple de todas las transformaciones lineales deF'" en F".

Page 88: ASESORES TECNICOS

'Iiuns/ormaclones llmwlcs 71

Si 'I' es una transformación lineal de V en W, entonces la imagen de T notu solo un subconjunto de W, sino un subespacio de W. Sea RT la imagen de T;nto es, el conjunto de todos los vectores B de W tales que B = Ta, para algún›| en l'_ Scan Bz y Bz de RT y sea c un escalar. Existen vectores ozz y az de Vtitles que Totz = Bz y Totz = Bz_ Como T es lineal

T(Ca1 + (12) = CTCI1 + Tag

= CBI + Bb

lo que dice que cBz + Bz pertenece también a RT.t)tro subespacio interesante asociado con la transformación lineal T es el

tontnnto N, que consta de los vectores ot en V tales que Ta = 0: es un subes-pneto de V, pues

ta) T(0) = 0, con lo que N no es vacío.tI›) Si Totz = Totz = 0, entonces

T(Cd1 + ag) = CTG1 + Tag

= c0 + 0= 0

ton lo que cozz + otz pertenece a N.

Definición. Sean V y W dos espacios vectoriales sobre el cuerpo F y sea TIttttt transformación lineal de V en W. El espacio nulo de T es el conjunto de todoslos vectores ot de V tales que Tot = 0.

Si V es de dimensión finita, el rango de T es la dimensión de la imagen de T yla nulidad de T es la dimensión del espacio nulo de T.

lle aquí uno de los resultados más importantes del álgebra lineal.

Teorema 2. Sean V y W espacios vectoriales sobre el cuerpo F y sea T unatmns/ormación lineal de Ven W. Supóngase que V es de dimensión finita. Entonces

rango (T) + nulidad (T) = dim V.Demostración. Sea {otz, _ _ _ , ot,,} una base de N, el espacio nulo de T. Exis-

ten vectores ot,,,_z, _ _ _ _ a,, en Vtales que {otz, _ _ _ _ a,,} es una base de V. Podemosdemostrar ahora que {Tor,,,_z, _ _ _ , Tot,,} es una base para la imagen de T. Losvectores Taz, _ _ _ , Tot,, generan evidentemente la imagen de T, 'y como Tozz- = 0para j < k, se ve que Totzzz, _ _ _ _ Tot,, generan la imagen. Para ver que estosveetores son linealmente independientes, supóngase que se tienen escalarest z tales que

É C,-(Ta,-) = 0.Í-k+1

I-sto dice que

T( É Cgdi) = 0i-lt:-1-l

Page 89: ASESORES TECNICOS

72 ›'| l_g't'l)rtt lineal

_ ~ _ Jy en consecuencia, el vector a = E+1Ct<1a pertenece al espacio nulo de T.)¢=1=Como ozz, _ _ _, az, forman una base de N, deben existir escalares bz, _ _ _ , bz,tales que

1;a = E bidi-

¡-1Con lo que

lo 1; tEbia¡"" 2 Cjd¡=0 *¡-1 5-1=+1 |

y como ozz,- _ _ _ _ ot,, son linealmente independientes, se debe tener lb1:...=-.bk=ck+1-:ø-.=cn=.0. L

Si el rango de T es r, el hecho de que Totzzz, _ _ _ _ Tot,, formen una base de.la imagen de T nos dice que r = n - k. Como k es la nulidad de T y n es la di-mensión de V, se tiene lo afirmado_ I

Teorema 3. Si A es una matriz m x n de elementos en el cuerpo F, entonces

rango de filas (A) = rango de columnas (A)nXl X1Demostración. Sea T una transformación lineal de F en F"' definida

por T(X) = AX. El espacio nulo de T es el espacio de soluciones del sistemaAX = 0, es decir, el conjunto de todas las matrices columna X tales que AX = 0.La imagen de T es el conjunto de todas las matrices columna m x 1, Y, talesque AX = Y tiene una solución para X. Si Az, _ _ _ _ A,, son las columnas de A,entonces

AX=x¡A¡+ +x,,A,_

de modo que la imagen de T es el subespacio generado por las columnas de A.Es decir, que la imagen de T es el espacio de las columnas de A. Por tanto,

rango (T) = rango de columnas (A).

El Teorema 2 dice que si S es el espacio de soluciones del sistema AX = O, en-tonces

dim S + rango de columnas (A) = n.

Sea ahora el Ejemplo 15 del Capítulo 2. Ahí se vio que, si r es la dimensióndel espacio de filas de A, entonces el espacio de soluciones S tiene una baseque consta de n - r vectores:

dim S = n - rango de filas (A).

En consecuenciarango de filas (A) = rango de columnas (A). I

La demostración del Teorema 3 que acaba de darse depende de cálculosexplícitos con sistemas de ecuaciones lineales. Hay una demostración másconceptual que no se basa en tales cálculos. Se dará tal demostración en laSección 3.7.

Page 90: ASESORES TECNICOS

l t om/ornmclom-t ¡tm-alt-s 73

I;}c'rcicios

I. ¿_(`u;'t|es de las siguientes funciones T de R2 en R2 son transformaciones lineales?

(ll) T(2?1› $2) = (1 + $1, 132);(lt) T(171› 932) = ($2, 331);(P) T($1› $2) = (Ii, 312);(ti) T(ïlï1› $2) = (Sen ¿Un 932);(e) T(:t:¡, 3:2) = (x1 - 2:2, 0).

I. llallar la imagen, rango, espacio nulo y nulidad para la transformación cero y la trans-lntrnación identidad en un espacio de dimensión finita V.t. l)eseribir la imagen y el espacio nulo para la transformación derivación del Ejem-¡do 2. Hacer lo mismo para la transformación- integración del Ejemplo 5.

-I. ,_l-xiste una transformación lineal T de R3 en R2 tal que Ttl, -1, 1) = (1, 0) yHI, I, l)= (0, 1)?

QSI

al = (11 _]-)› BI = (lr

a2 = (2: _1)› = (Or 1)

a3 = (-3) 2)› B3 = (l› 1)

,_I uste una transformación lineal T de R2 en R2 tal que Totz = Bz para i = 1, 2, 3?

ti. Describir explícitamente (como en los Ejercicios I y 2) la transformación lineal T deI' en F2 tal que Tez = ta, b), Tez = (c, d).

7. Sea F un subcuerpo de los números complejos y sea T una función de F3 en F3 de-ltuulat por

T(íl7¡, $2, 173) = ($1 _ 172 + 213, 2171 + $2, _íl71 _ 2172 + 2173).

ta) Comprobar que T es una transformación lineal.th) Si (a, b, c) es un vector de F3, ¿cuáles son las condiciones para a, b y c de modo que

tt vector pertenezca a la imagen de T? ¿Cuál es el rango de T?te) ¿Cuáles son las condiciones para a, b y c de modo que (a, b, c) pertenezca al espe-

t to nulo de T? ¿Cuál es la nulidad de T?

It. Describir explícitamente una transformación lineal de R3 en R3 que tiene como ima-¡ten el subespacio generado por (1, 0, -1) y (1, 2, 2).

O. Sea V el espacio vectorial de todas las matrices n x n sobre el cuerpo F y sea B una ma-ttu tt x n dada. Si

T(A) = AB - BA

iomprobar que T es una transformación lineal de V en V.

Ill. Sea V el conjunto de todos los números complejos considerado como un espaciovt-ttorial sobre el cuerpo de los números reales (con las operaciones usuales). Hallar unaInnt-ton de V en V que sea una transformación lineal en dicho espacio vectorial, pero queno sea una transformación lineal en C1; es decir, que no sea lineal compleja.

II. Sea V el espacio de las matrices n x 1 sobre F y sea W el espacio de las matrices m x 1sobre F_ Sea A una matriz m x n dada y sea Tla transformación lineal de V en W, definida

Page 91: ASESORES TECNICOS

74 Algebra lineal

por T(X) = AX. Demostrar que T es la transformación cero si, y solo si, A es la matrizcero.

12. Sea V un espacio vectorial Vde dimensión n sobre el cuerpo Fy sea T una transforma-ción lineal de V en V tal que la imagen y el espacio nulo de T sean idénticos. Demostrarque n es par. (¿.Se puede dar un ejemplo de tal transformación lineal T?)

13. Sea V un espacio vectorial y T una transformación lineal de V en V. Demostrar quelas dos afirmaciones siguientes sobre T son equivalentes.

(a) La intersección de la imagen de T y el espacio nulo de T es el subespacio cero de V.(b) Si T(Tot) = 0, entonces Ta = 0.

3.2. Algebra de las transformaciones lineales

En el estudio de las transformaciones lineales de V en W es de fundamen-tal importancia que el conjunto de estas transformaciones hereda una estruc-tura natural de espacio vectorial. El conjunto de las transformaciones linealesde un espacio V en sí mismo tiene incluso una estructura algebraica mayor,pues la composición ordinaria de funciones da una «multiplicacìón›› de talestransformaciones. Se analizarán estas ideas en esta sección.

Teorema 4. Sean V y W espacios vectoriales sobre el cuerpo F_ Sean T yU transformaciones lineales de V en W_ La función (T + U) definida por

(T + U)(ot) = Tot + Uotes una transformación lineal de V en W_ Si c es cualquier elemento de F, la función(cT) definida por

tcT)(ot) = c(Tot)es una transformación lineal de V en W. El conjunto de todas las transformacioneslineales de V en W, junto con la adición y la multiplicación escalar aquí definidas,es un espacio vectorial sobre el cuerpo F_

Demostración. Supóngase que T y U son transformaciones lineales deV en W, que se define (T + U) como se indicó. Entonces

(T + U)(w +5) = T(w +B) + U(w + B)= c(Ta) + TB + c(Ua) + UB= v(T« † Ua) + (TB + UB)= c(T + U)(«) + (T + U)(t¬2)

que dice que (T + U) es una transformación lineal. En forma análoga,

(0T)(da + B) = c[T(da + 19)]= 0[d(Ta) + TB]= cd(Ta) + c(TB)= d[¢(Ta)l + 0(TB)= d[(¢T)¢l + (0T)B

que dice que (cT) es una transformación lineal.

Page 92: ASESORES TECNICOS

1':ttni/ornm¢'lon¢'s llm'alt's 75

l'a.tra comprobar que el conjunto de transl`ormaciones lineales de V en Wttnnto con estas operaciones) cs un espacio vectorial, se debe verificar directa-mente cada una de las condiciones para la adición vectorial y la multiplica-tton por escalar. Se dejan los detalles de esto al lector, bastando aquí los si-¡ttnrntes comentarios: El vector cero en este espacio será la transformaciónnula. que transforma cada vector de V en el vector cero de W; cada una de laspropiedades de las dos operaciones es consecuencia de la correspondientetnoptedad de las operaciones en el espacio W. I

I-s conveniente mencionar otro modo de ver este teorema. Si se definenln suma y la multiplicación por escalar como se hizo antes, entonces el conjuntodt todas las funciones de V en W es un espacio vectorial sobre el cuerpo F. Estono tiene nada que ver con que V sea un espacio vectorial, solo necesita que Vmi nn conjunto no vacío. Cuando V es un espacio vectorial, se puede definirunn transformación lineal de V en W, y el Teorema 4 dice que las transformacio-nt-›. lineales forman un subespacio del espacio de todas las funciones de V en W.

Se representará el espacio de las transformaciones lineales de V en W porltl _ Wl. Se recuerda al lector que L(V, W) se define solo cuando V y W sonv-tpaeios vectoriales sobre el mismo cuerpo.

Teorema 5. Sea V un subespacio vectorial de dimensión finita n sobre eltunpo F_ _v sea W un espacio vectorial de dimensión finita m sobre F_ Entoncesrl espacio L(V, W) es de dimensión finita y tiene dimensión mn.

Il- -mostración_ Sean

(B={a1!°"!aII} y (B':-"{B1›°-°›Bm}

lot-tes ordenadas de V y W, respectivamente. Para cada par de enteros (p, q)ton l 1; p 5 m y 1 5 q S n se define una transformación lineal EM de VMt lll p0I'

EP›Q(a.) 1- {g, sl Z ¢ q3 rr Si 7: = q

= 6,-zzB,,_

lle neuerdo con-el Teorema 1, existe una transformación lineal única de V enlt' que satisface estas condiciones. Se afirma que las mn transformaciones EP-"lortnan una base de L(V, VV),

Sea T una transformación lineal de V en W. Para cada j, 1 5 i S n_ seantz ,_ _ _ _ _ A,,__,- las coordenadas del vector Totz- en la base ordenada (B', es decir,

tu t) Ta,-= É: A,,o,.p-1

t)nr-remos demostrar que

la-_›) T = ii É A,,,E»-«p-lq-l

Page 93: ASESORES TECNICOS

76 A l_et'l›ra lineal ¿

Sea U la transformación lineal del segundo miembro de (3-2). Entonces paracada i

UOff = mE' '°(¢1¡)

BMBM iebd-:[4¦2›ü-: möiqfir

= gl AMB?p-=l

= Tdj

y en consecuencia U = T_ Pero como (3-2) dice que los EM' generan L(V, W)debemos demostrar que son independientes. Pero esto queda claro con lo ex-puesto anteriormente; en efecto, si la transformación

U = 2 2 A,,,E»-«P 9

es la transformación nula, entonces Uozz = O para cada j, con lo que

2 Arƒflr = 011-1

y la independencia de los Bz, implica que AN- = 0 para todo p y j. I

Teorema 6. Sean V, W y Z espacios vectoriales sobre el cuerpo F_ Sea T unatransformación lineal de V en W y U una transformación lineal de W en Z. Enton-ces la función compuesta UT definida por UT(or) = U( T(oc)) es una transforma-ción lineal de V en Z.

Demostract`ón_

(Ur)(¢« + o) = U[~T(w + 12)]= Utcra + To)= c[U(Ta)] + U(TB)= c(UT)(0f) + (UT)(B)- I

En lo que sigue debemos interesarnos principalmente en transformacioneslineales de un espacio vectorial en sí mismo. Como se tendrá a menudo queescribir «T es una transformación lineal de V en V», se dirá más bien: «T esun operador lineal sobre V».

Definición. Si V es un espacio vectorial sobre el cuerpo F, un operador linealsobre V es una transformación lineal de V en V.

En el caso del Teorema 6, cuando V = W = Z, en que U y T son opera-dores lineales en el espacio V, se ve que la composición UT es también un ope-rador lineal sobre V. Así, el espacio L(V, V) tiene una «multiplicación›› de-finida por composición. En este caso el operador TU también está definido,y debe observarse que en general UT =)é TU, es decir, UT - TU =)é O. Se hade advertir de manera especial que si T es un operador lineal sobre V, entonces

Page 94: ASESORES TECNICOS

'Witt! \ /nt tttm'lnm'_\ ltm't|lt'.\ 77

It- puede componer 'I' con 'I'_ usara para ello la notación T2 = TT, y en ge-twml 1'" 1'- - - 7' tn veces) para n = l, 2, 3, _ __ Se define T0 = I si T =)ë O.

I.t-mn. Sea V un espacio vectorial sobre el cuerpo F; sean U, Tz y Tz opera-dores lineales sobre V; sea c un elemento de F.

(al) IU = UI = U;tb) U(Tz + Tz) = UTz + UTz; (Tz + Tz)U = TzU + TzU;(Cl C(UTr) = (CU)T1 : U(¿`T1)-

Il.-mostración_ (a) Esta propiedad de la función identidad es obvia. Seln lt.t enunciado aquí solo para insistir.

tb) [U(T_ + T2)](a) = U_[(Ti + T2)(«)l= U(T1a + Tga)

= U(T1a) + U(T-ia)= (UT1)(«) + (UT2)(«)

ttttl l/(liz + T2) = UTz + UTZ. También

[tri + T2)U](__) = (T1 + T2)(Ua)= T1(Ua) + T2(Ua)

= (T1U)(«) + (T2U)(«)ton lo que (Tz + Tz)U = TzU + TzU. (El lector observará que las demos-tnntones de estas dos leyes distributivas no han tenido en cuenta que Tz yI z eran lineales, y la demostración de la segunda tampoco considera el que U esltttvttl.)

te) Se deja al lector la demostración de la parte (c). I

ll contenido de este lema, y una parte del Teorema 5, dicen que el espaciomtoiial L(V, V), junto con la operación de composición, es lo que se conocetomo un álgebra lineal con identidad. Se examinará esto en el Capítulo 4.

I jemplo 8. Si A es una matriz m x n con elementos en F, se tiene la trans-Ioimación lineal Tdcfinida por T(X) = AX de F” 1 en Fm* 1. Si B es una matriz¡I ›< m, se tiene la transformación lineal U de F'"“ 1 en FP* 1 definida portft ll = BY. La composición UT se define fácilmente por:

(UT)(X) = U(T(X))= Utftx)= Bt/rx)= (B/r)X.

A-.t t /T es «multiplicación a la izquierda por el producto de matrices BA».

l-jemplo 9. Sea F un cuerpo y V el espacio vectorial de todas las funcionespolinomios de F en F. Sea D el operador de derivación definido en el Ejemplo 2.te sea T el operador lineal «multiplicación por x››:

(Tf)(2=) = 1=f(=v)-

Page 95: ASESORES TECNICOS

78 /l l¡¿t'brtt lineal

Entonces DT aë TD. En efecto. el lector no tendrá dificultad en verificar queDT - TD = 1, el operador identidad.

Aun cuando la «multiplicación›› que se tiene en L(V, V) no es conmutativa,está muy relacionada con las operaciones en el espacio vectorial L(V, V).

Ejemplo 10. Sea G3 = {az, _ _ _, oz,,} una base ordenada de un espaciovectorial V. Se consideran los operadores lineales E""' que se presentaron enla demostración del Teorema 5:

Ep'q(ai) = ôiear-

Estos n2 operadores lineales forman una base del espacio de los operadoreslineales sobre V. ¿Qué es EP-°E"“? Se tiene

(EP-°E'-')(w) = E”-°(ö.-.«f)-; 6'-,EP-Q((xr)

= ô¡¡ô,q0¡,.

Luegof _ __ 0, si r af q

EME le» _ si q_ -° = r.

Sea T un operador lineal sobre V. Se probó en la demostración del Teore-ma 5 que si

Ar = [T0f1'l<BA = |:A1,...,An]

entonces

'GM -=MmT =

siU = 2 2 B,,L~--

es otro operador lineal en V, entonces el lema anterior dice que

TU = AMEP-°)(2) 2 B,,E'-')

BM^ ietd:Ej*IM -M= A,,B__EME†-»_Como observamos, los únicos términos que quedan en esta considerable sumason los términos con q = r, y como E”"E'-S = EM, se tiene

TU = E E A-prBra)Ep'8p a r

= 2 2 (AB)_,_Ef›-«_p s

Así el efecto de componer T y U es el de multiplicar las matrices A y B.En el tratamiento de las operaciones algebraicas con transformaciones

lineales no se ha dicho nada aún sobre inversión. Una pregunta concreta deinterés es la siguiente. ¿Para cuáles operadores lineales T en el espacio V existeun operador lineal T`1 tal que TT" = T"1T = I?

Page 96: ASESORES TECNICOS

lmnslormat'tones lineales 79

Una función T de V en W se dice inversible si existe una función U de W ent tal que UT es la función identidad de V y TU es la función identidad de W.Si I' es inversible, la función U es única y se representa por T"1_ (Véase Apén-dice.) Más aún, T es inversible si y, solo si,

I. T es inyectiva, esto es, Tot = TB implica oz = B.2. T es sobreyectiva, esto es, la imagen de T es (coincide con) W.

Teorema 7. Sean V y W dos espacios vectoriales sobre el cuerpo F y seaI una transformación lineal de Ven W. Si T es inversible, entonces la funciónn-_ :prom T- 1 es una transformación lineal de W sobre V.

Demostración. Volvemos a repetir para aclarar un aspecto. Cuando T esuna l`unción inyectiva y sobreyectiva, existe una única función recíproca T" 1ont- aplica W sobre V, de modo que T` ' Tsea la función identidad de V, y TT" 1wn la función identidad de W. Lo que se ha de demostrar aquí es que si unalnncrón lineal T es inversiblefentonces la recíproca T” también es lineal.

Sean Bz y Bz dos vectores de W y sea c un escalar. Queremos demostrar que

T_¡(Cfl1 'l' ('32) = CT"3flr “l† T_¡B2-

Sea az = T_ ' Bz, i = 1, 2; esto es, sea az el único vector de V, tal que Tozz = Bz_t 'onto T es lineal,

T(Cd1 + G2) = CTQ1 + Tag

= C51 + 32-

Asl, cotz + az es el único vector de V que es aplicado por T en cBz + Bz, y asíT“¡(Cflr 'l' ('32) = C01 + 02

= C(T_3fi1) '+' TTIB2

v ¡T1 es lineal. I

Supóngase que se tiene una transformación lineal inversible T de V sobrelt y una transformación lineal inversible U de W sobre Z. Entonces UT esinversible y (UT)" = T“1U`*_ Esta conclusión no exige la linealidad, nitampoco implica comprobar separadamente que UT es inyectiva y sobreyectiva_lodo lo que se necesita es comprobar que T"U" es inversa a la izquierdar inversa a la derecha de UT.

Si T es lineal, entonces T(ot -- B) = Ta - TB; luego Tot = TB si y, solo si,I 'tot - B) = 0. Esto simplifica mucho la comprobación de que T es inyectiva.Se dice que la transformación lineal T es no singular si Ty = 0 implica y = 0;es decir, si el espacio nulo de T es {0}_ Evidentemente, T es inyectiva si y, solosr, T es no singular. El alcance de esta observación es que las transformacioneslineales no singulares son las que preservan la independencia lineal.

Teorema 8. Sea T una transformación lineal de V en W_ Entonces T es nosingular si, y solo si, T aplica cada subconjunto linealmente independiente de Vsobre un subconjunto linea-lmente independiente de W_

Page 97: ASESORES TECNICOS

80 /1Ig¢'¡›ru lineal

Demostración. Supóngase primero que T es no singular. Sea S un sub-conjunto linealmente independiente de V. Si al, . . . , ak son vectores pertene-cientes a S, entonces los vectores Tal, . . . , Ta* son linealmente independien-tes; en efecto, si

C1(T0f1) + ' ' ' + Ck(T¢-Yk) = 0

entoncesT(C1(11 -I- ' ° ' + Ckak) = 0

y como T es no singular

6101+ +Ck0U.==0

de lo que se sigue con que cada c, = O, pues S es un conjunto independiente.Este razonamiento muestra que la imagen de S por T es independiente.

Supóngase que T aplica subconjuntos independientes sobre subconjuntosindependientes. Sea oz un vector no nulo de V. Entonces el conjunto S que constadel solo vector oz es independiente. La imagen de S es el conjunto que constadel solo vector Ta. Por tanto, Ta =;é 0, pues el conjunto que consta del'solovector nulo es dependiente; lo que muestra que el espacio nulo de T es el sub-espacio cero, es decir, T es no singular.

Ejemplo ll. Sea F un subcuerpo de los números complejos (o un cuerpo decaracterística cero) y sea V el espacio de las funciones polinomios sobre F. Consi-dérese el operador derivación D y el operador de la «multiplicación por x», T,del Ejemplo 9. Como D aplica todas las constantes sobre 0, D es singular; sinembargo, V no es de dimensión finita, la imagen de D es todo V y es posibledefinir una inversa a la derecha de D. Por ejemplo, si E es el operador integra-ción indefinida:

E(0o +0122 + + c»Iv”) = 0<›fiv+šc1:v” + +,T_1ïïc,.:v"+1

entonces E es un operador lineal en V y DE == I. Por otro lado, ED =,é I, puesED aplica las constantes sobre 0. El operador T está, por así decirlo, en la si-tuación contraria. Si xf(x) = 0 para todo x, entonces f = 0. Con lo que T esno singular y es posible hallar una inversa a la izquierda de T. Por ejemplo,si U es la operación «suprimir el término constante y dividir por x››:

U(co+c1:v+ +cn=v")=c1+c2rv+ +cn1v"“1entonces U es un operador lineal en V y UT = I. Pero TU =;é I, ya que cadafunción en la imagen de TU está en la imagen de T, que es el espacio de las fun-ciones polinomios ƒ tales que f(O) = O.

Ejemplo 12. Sea F un cuerpo y sea T el operador lineal sobre F2 definido por

T(331, $2) = (331 + 132, 331)-

Page 98: ASESORES TECNICOS

Í P un s/m'nuu'lum'.s' Hm'ah'.\' 8 I

I umnccs 7' cs no singular, pues si T(x,, xz) = 0 se tiene

íU1+í¡32=0$1=O

nm ln que x1 = x2 = 0. También se ve que T es sobreyectiva, pues si (zl, zz)un umlquier vector de F2, para ver que (zl, zz) pertenece a la imagen de T sehim de encontrar escalares xl y x2 tales que

íl71+í¡32=21$1=Z2

V lu solución obvia es xl = zz, x2 = z, - zz. Este último cálculo da una fórmu-lu explícita para T' 1, a saber,

T"*(2›, 22) = (22, 21 - 22)-Sc ha visto en el Ejemplo 11 que una transformación lineal puede ser no

ulupular sin ser sobreyectiva y que puede ser sobreyectiva sin ser no singular.I I presente ejemplo ilustra un importante caso en que ello no puede suceder.

(II-orema 9. Sean V y W espacios vectoriales- de dimensión finita sobre elim~r¡›o F tal que dim V = dim W. Si T es una transformación lineal de V en W,lu i siguientes a_firmaciones son equivalentes:

( i) T es inversible.(ii) T es no singular.(iii) T es sobreyectiva; eso es, la imagen de T es W.

Demostración. Sea n = dim V = dim W. Por el Teorema 2 se sabe querango de (T) + nulidad (T) = n.

Almra bien, Tes no singular si, y solo si, nulidad (T) = 0, y (como n = dim W)Iii imagen de T es W si, y solo si, rango (T) = n. Como el rango más la nulidadvu n. la nulidad es O precisamente cuando el rango es n. Por tanto, T es no sin-¡pilar si, y solo si, T( V) = W. Así, si rigen las condiciones (ii) o (iii), la otra semmple también y T es inversible. I

Sc previene al lector que no debe aplicar el Teorema 9, excepto si la dimen-nlfiu cs finita y con dim V = dim W. Con las hipótesis del Teorema 9 las con-iliumies (i), (ii) y (iii) son también equivalentes a éstas.

(iv) Si {oz¡, . . . , a,,} es una base de V, entonces {Toz1, . . . , Ta,,} es una base(lr IV.

(v) Existe una base {oc¡, . . . , a,,} de V tal que {Ta¡, . . . , Toz,,} es una basedi- W.

Sc dará una demostración de la equivalencia de las cinco condiciones quer-. diferente a la dada para la equivalencia de (i), (ii) y (iii).

(i)-›(ii)._ Si T es inversible, T es no singular. (ii)-›(iii). Supóngase queI cs no singular. Sea {a¡, . . . , a,,} una base de V. Por el Teorema 8, {Ta,, . . . ,I >›,,¦ es un conjunto linealmente independiente de vectores de W, y como la

Page 99: ASESORES TECNICOS

82 A lgehra lineal

dimensión de W es también n, este conjunto de vectores es una base de W. Ahorasea B cualquier vector de W. Existen escalares cl, . . . , c,, tales que

B = 01(T¢!1) + ' ° ° + C»(T¢1n)= T(c1a1 + - - - + c..a.)

lo que muestra que B pertenece a la imagen de T_ (iii) -› (iv). Se supone ahoraque T es sobreyectiva. Si {.x,, ._ . , oz,,} es cualquier base de V, los vectoresTal, . . . , Toz, generan la imagen de T, que es W por definición. Como la dimen-sión de W es n, estos n vectores deben ser linealmente independientes, esto es,deben constituir una base de W. (iv)-› (v). Esto no requiere comentarios.(v) -› (i). Supóngase que existe alguna base {oz1, . . . , a,,} de V tal que {a¡, _ . . ,Ta,,} es una base de W. Como los Ta, generan W, está claro que la imagen deT es todo W. Si oz = clon, + ' - - + c,,a,, pertenece al espacio nulo de T, entonces

T(¢1a1 + - - - + cuan) = 00

01(T0l1) + ° ' ' + 0»(T¢l-›) = 0

y como los Tor, son independientes, cada c, = 0, y así oz = O. Se ha visto que elrecorrido de T es W, y que T es no singular, luego T es inversible.

El conjunto de operadores lineales inversibles sobre un espacio V con la.operación de composición proporciona un buen ejemplo de lo que se conoceen álgebra como «grupo››. Aunque no se tendrá tiempo para examinar los gru-pos con algún detalle, se dará al menos la definición. `

Definición. Un grupo consta de lo siguiente.

1. Un conjunto G ;2. Una correspondencia (u operación) que asocia a cada par de elementos

x, y de G, un elemento xy _de G de tal modo que(a) x(yz) = (xy)z para todo x, y, z en G (asociatividad);(b) existe un elemento e en G tal que ex = xe = x para todo x de G;(c) a cada elemento x de G le corresponde un elemento x" 1 en G tal que

xx'1 = x_1x = e.

Se ha visto que la composición (U, T)-› UT asocia a cada par de opera-dores lineales inversibles sobre un espacio V otro operador inversible sobre V.La composición es una operación asociativa. El operador identidad I satis-face IT = TI = T para todo T, y para un T inversible existe (por el Teorema 7)un operador lineal inversible T” tal que TT" = T"'T = I. Con lo que elconjunto de los operadores lineales inversibles sobre V, junto con esta opera-ción, es un grupo. El conjunto de las matrices n ›< n inversibles, con la multi-plicación matricial como operación, es otro ejemplo de grupo. Un grupo sedice conmutativo si satisface la condición `xy = yx para cada x e y. Los dosejemplos dados anteriormente no son, en general, grupos conmutativos. A me-nudo se escribe la operación en un grupo conmutativo como (x, y) -› x + y,en vez de (x, y) -› xy, usándose entonces el símbolo 0 para el elemento «neutro›› e.

Page 100: ASESORES TECNICOS

I 'v . m i lnrnmr'lom~.v h'm°uIi's NJ'

I I «unmnto de los vectores en un espacio vectorial, junto con la operación demln mu vectorial, es un grupo conmutativo. Un cuerpo puede ser descrito comomi t-tmjunto con dos operaciones, llamadas adición y multiplicación, que esmi grupo conmutativo para la adición, y en que los elementos no' nulos formanmi ¡.-iupo conmutativo para la multiplicación, teniendose, además, la ley dis-Ittlittma x(y + z) = xy + xz.

Í(Ío't'¢'Í('Í()S

I Si-.in T y U operaciones lineales en R2 definidas por

T(911›-172) = (1'32› 911) Y ' U(931, $2) = (1'31›0)-

mi ¿Cómo se describirán T y U geométricamente?th) l)ar reglas semejantes a las que definieron T y U para cada una de las transforma-

iiuttts (U + T), UT, TU, T2, U2.

I Sea T el (único) operador lineal sobre C3 para el que

Te¡ = (1, 0, í), Tea = (0, 1, 1), Tea. = (i, 1, 0).

,ls I inversible?I 'wa T el operador lineal sobre R2 definido por

T(x1, 1:2, 2:3) = (311, :ct - :t:2,_2x1 + 2:2 -l- 273).¡Iw I inversible? De serlo, hallar una expresión para Ti' como aquella que *define a T_

I I'.u-a el operador lineal T del Ejercicio 3, demostrar que

(T2 -' I)(T - 31) = 0.I .\t~:i C2“2 el espacio vectoriál complejo de las matrices 2 x 2 de elementos comple-lm Sea

1 -1B " [-4 4]

v mi I' el operador lineal sobre C2“2 definido por T(A) = BA. ¿Cuál es el rango de T?, 'av puede describir T2?

to Sea T una transformación lineal de R3 en R2 y sea U una transformación lineal deN' en R3. Demostrar que la transformación UT no es inversible. Generalizar el teorema.

7 I-neontrar dos operad_ores lineales T y U en R2 tales que TU =ï), pero que UT =;é O.

II Sean V un espacio vectorial sobre el cuerpo F y T un operador lineal sobre V. SiI ' 0. ¿qué se puede decir respecto a la relación entre la imagen de T y el espacio nulo

-I- 1"' Dar un ejemplo de un operador lineal T en R2 tal que T2 = 0, pero T =)ë 0.

0. Sea T un operador lineal sobre el espacio V de dimensión finita. Supóngase que existeun operador lineal U en V tal que TU = I. Demostrar que Tes inversible y que U = T”.I mi un ejemplo que muestre que esto es falso cuando V no es de dimensión finita. (Indicación:M-.i F = D el operador derivación en el espacio de las funciones polinomios.)

I0. Sea A una matriz m x n con elementos en F y sea T la transformación lineal de F"*'

Page 101: ASESORES TECNICOS

84 .-I I_i,'el›ru Iinetd

en F""" definida por T(X) = AX. Hacer ver que, si m < n, puede suceder que T sea solbreyectiva sin ser no singular. En forma semejante hacer ver que si m > n puede tomandT no singular, pero no sobreyectiva. ,

ll. Sea V un espacio vectorial de dimensión finita y sea T un operador lineal sobreSupóngase que el rango (T2) = rango (T). Demostrar que la imagen y el espacio nuloT son disjuntos, es decir, tienen solo el vector nulo en común.

12. Sean p. m y n enteros positivos y F un cuerpo. Sean V el espacio de las matrices m xsobre F y W el espacio de las matrices p x n sobre F. Sea B una matriz p x m dada yT la transformación lineal de V en W definida por T(A) = BA. Demostrar que Tes invesible si, y solo si, p = m y B es una matriz m x m inversible.

3.3. lsomorfismo

Si V y W son espacios vectoriales sobre el cuerpo F, toda transformaci'lineal T de V en W sobreyectiva e inyectiva, se dice isomorfismo de V sobreSi existe un isomorfismo de V sobre W, se dice que V es isomorfo a W.

Obsérvese que V es trivialmente isomorfo a V, ya que el operador identides un isomorfismo de V sobre V. También si V es isomorfo a W por un isomofismo T, entonces W es isomorfo a V, pues T” es un isomorfismo de W sobV. El lector podrá demostrar fácilmente que si V es isomorfo a W y W es imorfo a Z, entonces V es isomorfo a Z. En resumen, el isomorfismo es urelación de equivalencia sobre la clase de espacios vectoriales. Si existe un imorfismo de V sobre W, se dirá a veces que V y W son isomorfos, en vezque V es isomorfo a W. Ello no será motivo de confusión porque V es isomorfa W, si, y solo si, W es isomorfo a V.

Teorema 10. Todo espacio vectorial de dimensión n sobre el cuerpo F 4isomorfo al espacio F". i

Demostración. Sea V un espacio vectorial de dimensión n sobre el cuerpo Fy sea (B = {ot,, . . . , ot,,} una base ordenada para V. Se define una función 1de V en F", como sigue: Si ot pertenece a V, sea Tot el n-tuple (x1, . . . , x,,) dtcoordenadas de ot respecto de la base ordenada G3, es decir, el n-tuple tal qui'

a:xlal+ °°° +xnalt-(

1

En nuestro estudio sobre coordenadas en el Capítulo 2, se verificó que T ellineal inyectiva y aplica V sobre F". I {

Para muchos fines es frecuente considerar los espacios vectoriales isomor¡fos como si fueran «el mismo», aunque los vectores y las operaciones en lolespacios sean muy diferentes: es decir, a menudo se identifican espacios isolmorfos. No pretendemos prolongar ahora la discusión de esta idea, sino qwla asimilación de la comprensión del isomorfismo y del sentido en que los espacios isomorfos son «los mismos» se irá haciendo a medida que se continútel estudio de espacios vectoriales.

Page 102: ASESORES TECNICOS

lhmt/nt tmn'lmu'.\' ltm'ul¢'.s HS

Il.ui-1110.-; algunos breves comentarios. Supóngase que T es un isomorfismool- I sobre I-l'. Si S es un subconjunto de V, entonces el Teorema 8 dice que'o tw linealmente independiente si, y solo si. el conjunto T(S) en W es indepen-«lu-nte Así. para decidir si S es independiente no importa si se considera S oI(\| Por lo que se ve que un isomorfismo «preserva la dimensión», esto es,tt-«Io subespacio de dimensión finita de V tiene la misma dimensión que su(nm).-en por T_ He aquí una sencilla ilustración de esta idea. Supóngase quet r-. una matriz m x n sobre el cuerpo F. Ya se han dado en realidad dos de-

Ittm tones del espacio solución de la matriz A. La primera es el conjunto de(ml.-:. los n-tuples (xl, . . . , x,,) de F" que satisfacen a cada una de las ecua-tu-mw del sistema AX = 0. La segunda es el conjunto de todas las matriceswlumnas n x 1, X, tales que AX = 0. El primer espacio solución es así untmlw-.|›acio F" y el segundo es un subespacio del espacio de todas las matricesn - I sobre F. Ahora bien, existe un isomorfismo completamente obvio entreI" w I-'"'“ ', a saber,

171(zh. . Í, E °

:c,,.Por este isomorfismo, el primer espacio solución de A es aplicado sobre el

u~¢m|tlo espacio solución. Estos espacios tienen la misma dimensión, y así,ut ui- quiere demostrar un teorema respecto a la dimensión del espacio solución,tm importa qué espacio se elija para analizar. En realidad, el lector no se sor-¡tn-miei-ú si decidimos identificar F" con el espacio de las matrices n x 1. Estocv I|.tr;'\ cuando sea conveniente, y cuando no sea conveniente no se hará.

IJa'rt'it'i(›s

I .Sra l' el conjunto de los números complejos y sea F el cuerpo de los números reales.0 "tt las operaciones usuales V es un espacio vectorial sobre F. Describir explícitamentemi |«.¢›mor|ismo de este espacio sobre R2.I .Sra V un espacio vectorial sobre el cuerpo de los números complejos y supóngase que»¡~.t«- un isomorfismo T de V sobre C2. Sean oq, az, a3, a4 vectores en V tales que

Tal = (lr 0; 22)) Ta? = (_2› ii 0):

Ta, = (-1,1, 1), Ta, = (x/2,1', 3).(nl ¿ Está ot, en el subespacio generado por al y a3?(lv) Sea W, el subespacio generado por ot, y :x2 y sea W2 el subespacio generado por ot¿,

y -, ¿Cuál es la intersección de W, y W2?(t I llallar una base del subespacio de V generado por los cuatro vectores oz,.

\ Si-a W el conjunto de todas las matrices hermíticas 2 x 2. esto es, el conjunto de las matri-(vn rumplejas 2 x 2, A, tales que AU = A_¡, (la barra indica conjugación compleja). Como seu. n.il.iha en el Ejemplo 6 del Capítulo 2, W es un espacio vectorial sobre el cuerpo de lostmtut-ros reales con las operaciones usuales. Verificar que

t D

(I.y.2,¢)-›|:+“Í É/+22]111 - zz t - a:en un isomorfismo de R4 sobre W.-I Demostrar que F""“' es isomorfo a F""'.

Page 103: ASESORES TECNICOS

86 .-I ¡gr-bra lineal

5. Sea V el conjunto de los números complejos considerados como espacio vectorial sobreel cuerpo de los números reales (Ejercicio l). Se define como sigue una función T de V en.el espacio de las matrices reales 2 x 2. Si z = x + iy, con x e y números reales, entonces

_ :tt-l-7y 52/]T(Z)_i:-10y :z:-71/2

(a) Verificar que T es una transformación lineal (real) inyectiva de V en el espacio delas matrices reales 2 x 2.

(b) Verificar que T(z,z2) = T(z,)T(z2).(c) ¿Cómo se describirá ia imagen de T? *

6. Sean V y W espacios vectoriales de dimensión finita sobre el cuerpo F. Demostrar quV y W son isomorfos si, y solo si, dim V = dim W.

7. Sean Vy W espacios vectoriales sobre el cuerpo F y sea U un isomorfismo de V sobre WDemostrar que T-› UTU`1 es un isomorfismo de L(V, V) sobre L(W. W).

3.4. Representación de transformaciones por matrices

Sea V un espacio vectorial de dimensión n sobre el cuerpo F, y sea W unespacio vectorial de dimensión m sobre F. Sea G3 = {ot,, . . . , a,,} una base or-,denada de V, y G3' = {fi1, . . . , fl,,,} una base ordenada de W. Si Tes cualquiertransformación lineal de V en W, entonces T está determinada por su efectqsobre los vectores ot,-. Cada uno de los n vectores Ta¡ se expresa de manera únicacomo combinación lineal ,

fn

(3-3) T0; = ¿El A1-¡Br

de los /i,-. los escalares AU, . _ _ , AW- son las coordenadas de Tcx, en la base or-denada 03'. Por consiguiente, la transformación T está determinada por losmn escalares AU- mediante la expresión (3-3). La matriz m x n, A, definidapor A(i, 1') = A ,-,- se llama matriz de T respecto al par de bases ordenadas G3 y 63'.La tarea inmediata es comprender claramente cómo la matriz A determina latransformación lineal T.

Si oc = xlcxl + ' ' ° + x,,oc,, es un vector de V, entonces

Ta = 1',-aj)j=l

= El :B-(Ta-)_ 1 1J=-l

= gl 37:' gl Afjfir.í==l ¡-1"I 11= 2 (2 Ai.-,f»,«) ra..r=1 ¡=1

Si X es la matriz'de las coordenadas de cx en la base orden-ada,(B. entonces elcálculo anterior muestra que AX es la matriz de las coordenadas del xectm laen la base ordenada G3', ya que el escalar

Page 104: ASESORES TECNICOS

lhmi/ru mm mm-s lnnwlr-.v R7

fl

2 A-710;'¡-1rw t-I elemento de la i-ésima fila de la matriz columna AX. Obsérvese tambiénqm- -it _-I es cualquier matriz m x n sobre el cuergfo F, entonces

Í" ll I1Í¡'(1_¡)='- il: A¡¡I¡)fl¡¡=1 .'.=1 ¡=1

il.-(mv una transformación lineal T de V en W, la matriz de la cual es A, res-¡wi to a (B, 03'. Resumiendo formalmente se tiene:

lvflrfima ll- Sean V un espacio vectorial de dimensión n sobre el cuerpo F,t It un espacio vectorial de dimensión m sobre F. Sean G3 una base ordenada deI t- 1 ll' una base ordenada de W. Para cada transformación lineal T de V en W,t mu- una matriz m x n, A, cuyos elementos pertenecen a F, tal que

[T0=]o' = Alalo¡mm todo vector oz en V. Además, T-› A es una correspondencia biyectiva entrefl . m:¡:irit(› de todas las transformaciones lineales de V en W y el conjunto de todasIm matrices m x n sobre el cuerpo F.

La matriz A, que está asociada a T en el Teorema ll, se llama la matriz deI n-specto a las bases ordenadas G3, 03'. Obsérvese que la ecuación (3-3) dicequ.- -I es la matriz cuyas columnas A,, . . . , A,, son dadas por

AJ' = i:TaJ':i(B'› = 1: ° - - › "'-

\t U es otra transformación lineal de V en W y B = [B,, . . _ , B,,] es la matriz.lv l' respecto a las bases ordenadas (B, G3', entonces cA + B es la matriz de.I I U respecto a G3, 03'. Esto es claro porque

CA; + Bi = ¢[T0¡]ca' + [Uaƒ]as'= [Cïldj + Uajjfgf

= [(CT + Ulflfflav-

Ieorema 12. Sea V un espacio vectorial de dimensión n sobre el cuerpo F.län.: cada par de bases ordenadas (B, G3' de V y W, respectivamente, la funciónqm asigna a una transformación lineal T su matriz respecto a G3, G3' es un iso-m.-;/ismo entre el espacio L(V, W) y el espacio de todas las matrices m x n sobreal im'r¡›0 F.

Dmnostración. Se observó antes que tal función es lineal y, como se es-tnltlreió en el Teorema ll, esta función es inyectiva y aplica L(V, W) sobre elmnntnto de matrices m x n. I

I-stamos particularmente interesados en la representación por matrices deIm. transformaciones lineales de un espacio en si mismo, es decir, de los opera-.lmt-s lineales sobre un espacio V. En tal caso es más conveniente usar la misma

Page 105: ASESORES TECNICOS

88 .-I l_t'¢-bm lineal

base ordenada. esto es, hacer G3 = G3', y se dirá simplemente que la matrizque la representa es la matriz de T respecto a la base ordenada G3. Como esteconcepto será muy importante para este estudio. repasaremos su definición.Si T es un operador lineal sobre un espacio vectorial V de dimensión finita,y G3 = {a,, _ . . , a,,} es una base ordenada de V, la matriz de T respecto a G3 (0.la matriz de T en la base ordenada G3) es la matriz n x n. A. cuyos elementosA,_,- están definidos por las ecuaciones Í

11

Taj = 2 Áfjai, = 1, . . . , 71. li=l

Se debe recordar siempre que esta matriz que representa a T depende de la basìordenada G3, y que existe una matriz que representa a T en cada base ordenadpara V. (En transformaciones de un espacio en otro la matriz depende de dobases ordenadas, una de V y otra de W.) Para no olvidar esta dependenciausará la notación

[Thpara la matriz del operador lineal T en la base ordenada G3. La manera cómoesta matriz y la base ordenada describen a T, es que para cada ot de V

[Tala = [T]o[«]@-Ejemplo 13. Sea V el espacio de las matrices columnas n x I sobre e

cuerpo F; sea W el espacio de las matrices m x l sobre F y sea A una mat 'm x n dada fija sobre F. Sea T la transformación lineal de V en W definidpor T(X) = AX. Sea (B la base ordenada para V, análoga a la base canónide F": es decir, el i-ésimo vector de G3 en la matriz n x I, X, tiene un l en lfila i y todos los demás elementos 0. Sea G3' la correspondiente base ordenadde W; o sea, el ¡'-ésimo vector de (B' es la matriz rn x l, Y,-, que tiene, un l ela fila j y todos los demás elementos 0. Entonces la matriz de T respecto al paG3, G3' es la misma matriz A. Ello es evidente, pues la matriz AXJ- es la i-ésicolumna de A. L

Ejemplo 14. Sea F un cuerpo y sea T el operador en F2 definido porT(l`1, 332) = (171, 0).

Es fácil ver que T es un operador lineal en F2. Sea (B la base ordenada canó-nìca de F2, G3 = {e,. e2}. Entonces

Tr, = T(1,o) = (1, 0) = 1€, + of, 'Tr, = T(o, 1) = (0, 0) = or, + of, l

con lo que la matriz de Ten la base ordenada G3 es

tm =Ejemplo 15. Sea V el espacio de todas las funciones polinomios de R en

R de la forma

f(x) = co + cn: + c2:z:2 + caxa

Page 106: ASESORES TECNICOS

Inmflmwmnmwshmwks S9

.tito cs, cl espacio ilc las lìiiicioiies poliiioiiiios de grado tres o menor. El opera-iliii ilcrivación, del liicniplo 2, aplica V eii l', ya que I) «decrece el grado». SeaIll I.i base ordenada de V que consta de las cuatro funciones ƒj, fz, f_,,, ƒ,`, de-lliiiiliis por _/,(.\') = .\¬¡ 1. Entonces

(Dfi)(ïU) =(1)f2)(-1?)(Dfsl (I)(Df4)(f'?)

í1-

-_í

-.-í

iiiii lo que la

0, Dfi = Ofi + Ofz + Ofa + Ofa1, Dfz lfi + Ofa + Ufa + Ofi

21?, Dfa Ofi + 2f2 + Ofa + 0f43.222, Dfi Oft + 0f2 + 3fa + Ofa

matriz de D en la base ordenada G3 es

[D]o =OOOO OO›- OOO OwO

0 (2 0]llcmos visto lo que les sucede a las matrices representantes cuando las trans-

liiiiiiaciones se suman. y es que las matrices se suman. Cabe ahora preguntaripii- sucede cuando se componen transformaciones. En forma más precisa,ii-mi I'. W y Z espacios vectoriales sobre el cuerpo F de dimensiones n. m y p,ii-›.pt-ctivamente. Sea T una transformación lineal de V en W y U una transfor-iiiiii ion lineal de W en Z. Supóngase que se tienen las bases ordenadas

(B: {a1,...,an}, (B'= {fl1,...,fim}, (BN: {'Y1,...,")'¡,}

piii.i los respectivos espacios V, W y Z. Sea A la matriz de T respecto al parIll, Hi' y sea B la matriz de U respecto al par G3', G3". Es fácil ver ahora que laiiiiiii i/ C de la transformación UT respecto al par G3, G3" es el producto de B y A;i-ti i-fccto. si 1 es cualquier vector de V

[T0f]cii' = Álfllcs[U(T0f)]cs-- = B[T0=]o'

Y "Sl

[(UT)(<1)]cs~ = BA [alo

i liicgo. por la definición y unicidad de la matriz representante, se debe teneri|iir (_' = BA. Se' puede también ver esto haciendo el cálculo

(UT)(«1,-) = U(Tai)= Í/(Él Átjfik)

lc=l

= É? At=›'(UÚi=)k=l

m r= 2 Akj 2 Buríïi'

k=1 i=1iv m

= 2 (2 Bu=Ak¡) 'Yi'~i=l k=l

Page 107: ASESORES TECNICOS

90 A I,i¦eI›m lineal

con lo que se debe tener

(3-6) Cii = kšl B¿t¢Á¡=¡-

Ya se había motivado la definición (3-6) para la multiplicación de matricespor operaciones sobre las filas de una matriz. Aquí se ha visto que una moti-vación muy convincente para la definición se tiene mediante la composiciónde transformaciones lineales. Resumiendo, tenemos:

TO0I'€m2 13- Sean V, W y Z espacios vectoriales de dimensión finita sobreel cuerpo F; sea T una transformación lineal de V en W y U una transformaciónlineal de W en Z. Si G3, G3' y G3" son las bases ordenadas de los espacios V, W jiZ, respectivamente, y si A es la matriz de T respecto al par G3, G3' y B es la matrizde U respecto al par G3', G3”, entonces la matriz de la composición UT respectaal par G3, G3" es la matriz producto C = BA. l

Obsérvese que el Teorema 13 da una demostración de que la multiplicaciónde matrices es asociativa, demostración que no requiere cálculos y que es inidependiente de la dada en el Capítulo 1. Debe señalarse también que en el Ejem-`plo 12 se ha demostrado un caso particular del Teorema l3.

Es importante hacer notar que si T y U son operadores lineales sobre ur.espacio V y que si se representa por una sola base ordenada G3, entonces el Teore-“ma 13 toma la forma simple [UT](B = [U](B[T](B. Asi, en este caso, la correslpondencia que (B determina entre los operadores y las matrices no es solo urisomorfismo del espacio vectorial, sino que también preserva los productosUna consecuencia inmediata de lo cual es que el operador lineal T es inversibltsi, y solo si, [T](B es una matriz inversible. En efecto, el operador identidadestá representado por la matriz identidad en cualquier base ordenada, y as

UT = TU = Ies equivalente a

[U]ca[T]ca = [T]<s[U]ai = I.

Además, cuando T es inversible

[T`1]<a = [T]cš '-Quisiéramos ahora investigar qué sucede a la matriz representante cuandt

se cambia la base ordenada. Por razón de simplicidad se considerará solo ecaso de operadores lineales sobre un espacio V, de modo que solo se tenga un:base ordenada. Se trata de lo siguiente. Sea T un operador lineal sobre el espacio de dimensión finita V y sean

&ï{a]_,.-.,a¶¡} y &'={a¦)~~-jam

dos bases ordenadas para V. ¿De qué manera están relacionadas las matrice[T](B y [T](B.? Como se observó en el Capítulo 2, existe una matriz (inversiblen x n, P, única tal que

(3-7) [alas = Plain'

Page 108: ASESORES TECNICOS

him i/in n|iti'ii›t|i'.\' lu|i1|li'\ Vl

piiiii cada vector ot eii V. lis la matriz I' |P,, _ _ . , P,,] con P, =_[al] . Por1 (Bili'Iil!|t'tUn

M H) [Tala = [T]o[0=]o-Apliviiiido (3-7) al vector Tot, tenemos

(lt ti) [Ta]¢, == P[Ta]@›.i oiiihiiiando (3-7), (3-8) y (3-9) se obtiene

[T]cBP[°f]cB' = P[T0f]cii'

P_1[T]<sP[0f]ai' = [T0f]cii'ioii lo que se debe tener que

lil W) [Tias = P`l[T]aP-

l-ii.i es la respuesta del problema.r\iites de enunciar este resultado queremos observar lo siguiente. Existe

iiii iiiiieo operador lineal U que aplica G3 sobre G3', definido por

Ua¡=a;, j=1,...,7l.

l -iii- operador U es inversible, ya que aplica una base de V sobre una base deI I ii matriz P (anteriormente citada) es precisamente la del operador U en laliii-iv ordenada G3. En efecto, P está definida por

n.Of; = 2 Paja;

¡-1

i tomo Ua,- = ají, esta ecuación puede escribirsen

Uaj = E Pgjüi.1'-1

Mi I' = [U](B por definición.

feorema 14. Sea V un espacio vectorial de dimensión finita sobre el cuerpoI, i- .sean

G?›={oi,,...,ot,,} y Ú?›'={ot1, ...,ot,',}

il. i_i buses ordenadas de V. Supóngase que T es un operador lineal sobre V. SiI' [P,, . . . , P,,] es la matriz n x n de columnas P¡ = [ot}](B, entonces

[Tias = P`1[T]caP-

¡Ii otra manera, si U es el operador lineal sobre V definido por Uotj = ot;-. 1' =l, . . . , n, entonces

[T]cii' = [U]cš 1[T]cB[U]cs-

Page 109: ASESORES TECNICOS

02 . Iligi-¡im Imml

Ejemplo 16. Sea T el operador lineal sobre R2 definido por T(x,, xz) =(xl, 0). En el Ejemplo 14 se vio que la matriz de T en la base ordenada canó-nìca G3 = {e,, e2} es

ej = (2, 1). Entonces

de modo que P es la matrizP

[Tim =Supóngase que G3' es la base ordenada de R2, que consta de los vectores ej = (1, l),

(H.M.'.'."¬

0 0'l1°l61+¢2

261 + G2

[1 211 1

Después de un breve cálculo se obtiene

Con lo queP

[ii]1

Í il í

-1-ri :ii[Tlof = P*1[T]oPi 1 i-IOlil

I'_ïll"*_l OI'-^OI'-^ ONOOgg

Fil i-i- I'-*NJmi

2 Dl 1 2]Fácilmente se puede comprobar que esto es correcto, pues

Ejemplo 17. Sea V el espacio de las

Tai = (1, 0)

Té = (2, 0)-fi + fi

-2¢í -l- 2¢å.

funciones polinomios de R en R de«grado›› menor o igual que 3. Como en el Ejemplo 17, sea D el operador de-rivación en V y sea

Como la matriz

P

(B = {ƒ1›ƒ21ƒ3›ƒ4}

la base ordenada de V definida por f(x) = x¡"'. Sea t un número real y de-finase g,(x) = (x + t)¡_1, esto es,

giG2ya94

l

fi¿fi +f2¿2f1 + 25]-2 +falafi -lr 3É2f2 + 3¿fa + fi-

©©©l-^ ©©F-*em

¿2 ¿a2t 3t2

1 3t0 1

Page 110: ASESORES TECNICOS

Irun i/inniiirtotti-s lun-iilini 4).!

ni- vc l`;'icilmente que es inversible con1 -t t* -tt0 1 -2t 3t2

-3tP-1 =

ocooløooi-oøci- acci-

$3'-*ei.@$l-'eu

ccioc owoc;-_.--Jña“is

OO

22°*°"oo

“'^'ooo

cooooøoøooi-OH oooi--QQQHcomo ocwcomoomo@

-I-1

cwcc

oo??

oooi- ©©l-'es

F-es

M

22Q.

U

ur --true que G3' = {g,, gl, g3, g4} es una base ordenada de V. En el Ejemplo 15iii i-iirontró que la matriz de D en la base ordenada es

[D]a = uio _o

la iiiatriz de D en la base ordenada G3' es, pues,

_ -zi se 2i 3:2

0 1 0 1- 2: se

_ -2i se

0 1 0

A-.i I) está representada por la misma matriz en las bases ordenadas (B y G3',Por supuesto, que ello puede verse en forma directa, ya que

DQ1 = O

DQ2 = 91DQ3 = 2gg

DQ4 = 3g3.

I iii- ejemplo ilustra algo importante. Si se conoce la matriz de un operadorliiii-:il en cierra base G3 y se desea encontrar la mat-riz en otra base ordenada G3',i--i ii menudo más conveniente efectuar el cambio de coordenadas usando laiii.itriz inversible P; pero puede ser mucho más simple encontrar la matriz re-piiwcntante por una aplicación directa de su definición.

Definición. Sean A y B dos matrices (cuadradas) n x n sobre el cuerpo F_.Sr dice que B es semejante a A sobre F si existe una matriz inversible n x n, P,iullri' F [al qué' B = P_1AP.

l)e acuerdo con el Teorema 14, se tiene lo siguiente: Si V es un espacio vec-toi ial de dimensión n sobre el cuerpo F y G3 y G3' son dos bases ordenadas de V,

Page 111: ASESORES TECNICOS

94 .-I lL'i'lII'it lÍm'(tl

entonces para todo operador lineal T sobre V la matriz B = [T]¿B. es seme-jante a la matriz A = [T]¿B. El razonamiento también es válido a la inversa.Supóngase que A y B son matrices n x n `y que B es semejante a A. Sea V cual-quier espacio de dimensión n sobre F y sea (B una base ordenada de V. Sea T eloperador lineal sobre V que está representado en la base (B por A. Si B = P" 'AP,sea (B' la base ordenada de Y obtenida de (B por P, es decir

TI.

ai = É Prim-i=1Entonces la matriz de T en la base ordenada (B' será B.

Así la afirmación de que B es semejante a A quiere decir que en cada es-pacio de dimensión n sobre F las matrices A y B representan la misma trans-formación lineal en las dos (posibles) bases ordenadas diferentes.

Obsén/ese que toda matriz n x n, A, es semejante a sí misma, tomandoP = I; si B es semejante a A, entonces A es semejante a B, ya que B'= P"APimplica que A = (P*')"'BP"'; si B es semejante a A y C es semejante a B,entonces C es semejante a A, pues B = P“'AP y C = Q"*BQ implica queC = (PQ)"'A(PQ). Así, pues, la semejanza es una relación de equivalenciaen el conjunto de las matrices n x n sobre el cuerpo F. Obsérvese también quela única matriz semejante a la matriz identidad I es I y que la única matriz se-mejante a la matriz nula es la misma matriz nuia.

EjerciciosI. Sea T el operador lineal sobre C2 definido por T(x,, xz) = (x,, 0). Sea (B la base or-denada canónìca de C2 y sea (B' = {a,, ot2} la base ordenada definida por ot, = (l, i),az = (-i, 2).

(a) ¿Cuál es la matriz de T respecto al par (B, (B"?(b) ¿Cuál es la matriz de T respecto al par (B', CB?(c) ¿Cuál es la matriz de T en la base ordenada (B".'(d) ¿Cuál es la matriz de T en la base ordenada {a,, a,¦'?

2. Sea T la transformación lineal de R3 cn R2 definida porT($i, 272, $3) = ($1 -l- 232, 2x; - xi).

(a) Si (B es la base ordenada canónìca de R3 y (B' es la base ordenada canónìca de R2,¿cuál es la matriz de T respecto al par (B, (B"?

(b) Si (B = ¦ot,, az, ot3¦ y G3' = {[i,, /t2}, dondeai = (1,0, -I), 01;» = (l, 1,1), ag = (I,0, 0), fi¡ = (O, 1), (32 = (1, 0)

¿Cuál es la matriz de T respecto al par (B, 03"?

3. Sea T un operador lineal sobre F", sea A la matriz de T en la base ordenada canónìcapara F" y sea W el subespacio de F" generado por los vectores columna de A. ¿Que rela-ción existe entre W y T?

4. Sea V un espacio vectorial bidimensional sobre el cuerpo F y sea (B una base ordenadade V. Si T es un operador lineal en V y

b[Tias = [Í d]

demostrar que T2 --` (a + d)T + (ad - bc)I = 0.

Page 112: ASESORES TECNICOS

Ítiimlm mui Iumti ltmwlizi 95

I, *ini I el opeiatlor lineal sobre R" cuya iiialn/ eii la base canónìca es

1 2 lA = 0 l 1 -

-1 3 4

liiiiiiiiiai una base de la imagen de Ty una base del espacio nulo de T.

li Si-ii I el operador lineal sobre R2 definido por

` T(.r,, 1:2) = (-1:2, xl).

t.il ¿,(`uál es la matriz de T en la base ordenada canónìca de R2?(hi ,'(`uál es la matriz de T en la base ordenada (B = {ot,, cx2}, donde ot, = (1, 2) y

0, ll. -U?

(ir) Demostrar que para cada número real c el operador (T -- cl) es inversible.(il) Demostrar que si (B es cualquier base ordenada para R2 y [T]¿B = A, entonces

I, |,, ± 0.

l Sea Tel operador lineal en R3 definido porT(x¡, $2, T3) = (3111 + 173, _2¦ìÍ1 + $2, "-$1 + 2222 + 4113).

(al ¿Cuál es la matriz de T en la base ordenada canónìca de R3?(Iii ¿Cuál es la matriz de T en la base ordenada

{0f1- 02» Gililillllik' ¶¡ : ii. O. i). 12 1' (-I. 2, y 13 = (2. 1,

ic) Demostrar que T es inversible y dar una expresión de Ti' tal como la que de-lt|i|ii al T.

ll Sea 0 un número real. Demostrar que las dos matrices siguientes son similares sobreil iiierpo de los números complejos:

cos 0 -Scn 0], ei” 0sen 0 cos 0 0 e¬'°

i\iir-ereiiciu: Sea T el operador lineal sobre C2 representado por la primera matriz en la|i.i-.c ordenada canónìca. Encontrar entonces vectores oi, y az tales que Ta, = c¡a,, Tai, =i 'x, y ¦ot,. fx2¦ sea una base.)

'I Sea V un espacio vectorial de dimensión finita sobre el cuerpo F y sean S y T opera-.loics lineales sobre V. Se pregunta: ¿cuándo existen dos bases ordenadas (B y (B' de Vi.iIi-s que [SLR = [T],B.'.' Demostrar que tales bases existen si, y solo si, existe un ope-| iilor lineal inversible U en l tal que T = USU _ '_ (lì`squemu de la demu.i'tract`ón: Si [S]¿B =| I |,,,_ sea U el operador que aplica (B sobre (B' y demostrar que S = UTU _ '_ Recípro-iamcnte. si T = USU _' para algún U inversible, sea (B cualquier base ordenada paraI v sea (B' su imagen por U_ Demostrar entonces que [S](B = [T](B,_)

It). sabe que cl operador lineal T sobre R2 definido por T(x,, xz) = (.\',, U) esta repre-sentado, en la base ordenada canónìca. por la matriz

A-ti siI -le operador cum le T2 = I. Demostrar ue si S es un o rador lineal sobre R2 tal ueP q Pe qS" = S, entoncm S = 0, o S = I, o existe una base ordenada (B de R2 tal que [S](B = A(anteriormente).

Page 113: ASESORES TECNICOS

96 /1 l,L't'l›t'tt linvttl

ll. Sea W el espacio de todas las matrices columna n x l sobre el cuerpo F. Si A es unitmatriz n x n sobre F. entonces A define un operador lineal LA sobre W por la multiplica-ción a la izquierda L_,,(X) = AX. Demostrar que cada operador lineal sobre W es el pro-ducto a la izquierda de alguna matriz n x n; es decir, es LA para algún A.

Ahora supóngase que V es un espacio vectorial de dimensión n sobre el cuerpo F y que(B es una base ordenada de V. Para cada oz de V se define Ua = [a]¿B. Demostrar que U esun isomorfismo de V sobre W. Si T es un operador lineal sobre V, entonces UTU " 1 es unoperador lineal sobre W. Por tanto, UTU "" es el producto a la izquierda por alguna matrizn x n, A. ¿Cuál es A?

12. Sea V un espacio vectorial de dimensión n sobre el cuerpo F y sea (B = ¦ot,, _ _ _ , ot,,}una base ordenada de V.

(a) Conforme al Teorema l existe un operador lineal único T sobre V tal que

Ta,-=a,-+1, _7=1,...,n-1, Ta,,=0. {

¿Cuál es la matriz A de T en la base ordenada (B?(b) Demostrar que T" = 0, pero que T"" =)l= 0.(c) Sea S cualquier operador lineal en V tal que S" = 0, pero con S""" =)é 0. Demos-1

trar que existe una base ordenada (B' de V tal que la matriz de S en la base ordenada (B'\es la matriz A de la ¡'¬rte (a).

(d) Demostrar que si M y N son matrices n x n sobre F tales que M" = N" = 0, coM"_1 =/= 0 =¡l= N"_'. entonces M y N son semejantes. 01

13. Sean V y W espacios vectoriales de dimensión finita sobre el cuerpo F y sea T unaltransformación lineal de V en W. Si I

4<B={a,,...,a,,} y (B'=(fi,,...,B,,.} l

lson bases ordenadas de V y W, respectivamente, definase la transformación lineal EN@como en la demostración del Teorema 5: E"°""(o:,-) = ö,,,/lp. Entonces, los EM, l 5 p 5 m,l 5 q 5 n, forman una base de L(l', W), y así -

mi fl

T = 2 2 APQENIp=lq=l

para ciertos escalares AM (las coordenadas de T en esta base de L( V, W ). Demostrar quela matriz A con elementos A(p, q) = A pq es justamente la matriz de T respecto al par (B, (B'.

3.5. Funcionales lineales

Si V es un espacio vectorial sobre el cuerpo F, una transformación linealf de V en el cuerpo de escalares F se llama también un funcional lineal sobre V.Si se comienza desde el principio, esto quiere decir que f es una función deV en F, tal que

f(w + B) = 0f(0f) +f(B)para todos los vectores oc y /í de V y todos los escalares c de F. El concepto defuncional lineal es importante para el estudio de los espacios vectoriales dedimensión finita, pues ayuda a organizar y clarificar el estudio de los subes-pacios, las ecuaciones lineales y las coordenadas.

Page 114: ASESORES TECNICOS

l mn i/ormui 'iones Iim'uli'.i 07

I-¡cmplo l8. Sea I" un cuerpo y seaii a,, . . . , a,, escalares pertenecientesii I l)el`inase una función f en F" por

_f<ÍlÍ], . . . , 17") = -(11171 + ° ° ° + anxn-

l iitoiices _f es un funcional lineal sobre F". Es el funcional lineal representadopiii la iiiatriz [a,, . . . , a,,] respecto a la base ordenada canónìca de F” y la base¦l¦ ile F:

a¡=f(fJ)› j=1›°'°vn'

Ioilo funcional lineal sobre F" es de esta forma para ciertos escalares al, . . . , a,,.I Ilo se sigue de la definición de funcional lineal, ya que definimos aj = f(e¡)i empleando la linealidad

foi, . . . , wi) -2f x,-,«)= $¡f(¢¡)

= a,-:i:,-.I

l templo 19. He aquí un ejemplo importante de un funcional lineal. Seaii iiii entero positivo y F un cuerpo. Si A es una matriz n x n con elementosI-ii I', la traza de A es el escalar

Í`›I`A = A1i+A22'l" 'l"Ami-I IIXIII ii (tinción traza es un funcional lineal en el espacio de as matrices F , pues

tr (CA + B) = Él (¢A,-, + B,-,)

= C š Ai'¡+ šlBi°¡i'=-1 ¿=-

= ctrA -I-trB.l-Íjemplo 20. Sea V el espacio de todas las funciones polinomios del cuer-

po I" en si mismo. Sea t tin elemento de F. Si se define

Lt(p) = pa)

entonces L, es un funcional lineal en V. Es usual describir esto diciendo que,p.-iia cada t, la «valuación en t›› es un funcional lineal en el espacio de las fun-i iiiiics polinomios. Habría que advertir que el que las funciones sean polino-mios no interviene en el ejemplo. La valuación en t es un funcional lineal en elr--pacio de todas las funciones de F en F.

I-Ljemplo 21. Este puede ser el funcional lineal más importante en mate-iiiiitica. Sea [a, b] un intervalo cerrado del eje real y sea C([a, b]) el espacio deI.i-. funciones reales continuas sobre [a, b]. Entonces

Lo) = [,fg<i›d¢ili-tine tin funcional lineal L en C([a, b]).

Page 115: ASESORES TECNICOS

98 A I_t¦i-bm lineal

Si V es un espacio vectorial, el conjunto de todos los funcionales linealessobre V forman, naturalmente, un espacio vectorial. Es el espacio L(V, F).Se designa este espacio por V* y se le llama espacio dual del V:

V* = L(V, F).Si V es de dimensión finita se puede obtener una descripción muy explícita

del espacio dual V*. Por el Teorema 5 sabemos algo acerca del espacio V*:

dim V* = dim V.Sea (B = {a1, _ _ _ , a,,} una base de V. Conforme al Teorema 1 existe (para cada i)un funcional lineal único jj en V tal que

(3211) fi-(Off) = 5:1'-

De esta forma se obtiene de G3 un conjtinto de n funcionales lineales distintosfl, _ _ _ , f, sobre V. Estos funcionales son también linealmente independientes,pues supóngase que

(3-12› f = _›:`;l cai.Entonces

f<«,~› = Él C.-f.~<«_-›= §; 6,5..11

s'-l

= Cj.

En particular, si f es el ftincional cero. f(a,-) = 0 para cada j y, por tanto, losescalares c, son todos ceros. Entonces los fl, _ _ _ , f, son n funcionales lineal-mente independientes, y como se sabe que V* tiene dimensión n, deben sertales que G3* = {f,, _ _ _, f,} es una base de V*. Esta base se llama basedual de G3.

Teorema IS. Sea V un espacio vectorial de dimensión finita sobre el cuer-po F _v sea G3 = {ot,, _ _ _ , ot,,} una base de V. Entonces existe una única base dualG3* = {f¡, _ _ _ , f,} de V* tal que f,(a¡) = 5,,-_ Para cada funcional lineal fsobreV se tiene

ts-mi f = É _/twi-1

y para cada vector ot de V se tiene

(3-14) ot = 221 fi(ot)rx,-.

Demostración. Se ha visto antes que existe una base única que es «dual››de G3. Si ƒ es un funcional lineal sobre V, entonces _f es una combinación lineal

Page 116: ASESORES TECNICOS

l 1 mii/orn|m'mni'i' l|m'uli'.i 99

H- I2) de los _/,I y, como observamos después de (3-12), los escalares c¡ vienenilailos por e, = _/(ot,-). En forma análoga, si

fl

Gr = É Iwlii=1

i-›. iiii vector de V, entoncesf¡(0=) = å§l$¿fi'(0=›')

fl

= É Iröiƒ1'-l

ile modo que la expresión única para oz, como combinación lineal de los ot,-, es

a = fi(0=)ai- I1-l

I a ecuación (3-14) suministra un buen modo de describir qué es la baseiIii.i|. Dice que. si G3 = {a,, _ _ _ , a,,} es una base ordenada de V yot* = ¦_/j, _ _ _ _ f,} es la base dual, entonces f,- es precisamente la función queii-.it-iia a cada vector 1 en V la i-ésima coordenada de oz respecto a la base orde-iiiiila G3. Asi que también se pueden llamar los f, funciones coordenadas de G3.I.i formula (3-13), cuando se combina con (3-14), «lice que: Si f pertenece al " y si _/(ot,-) = a,-, entonces si

a = 1101+ +I»0fiisi' IÍCIIC

lil 15) f(0f) = 01951 + + 0f›iI1i-

I ii otras palabras, si se elige una base ordenada (B de V y se expresa cada vec-toi cn V por su n-tuple de coordenadas (x,, _ _ _, x,,) respecto a G3, entoncesi .iila ftincional lineal en V tiene la forma (3-15). Esta es la generalización natu-i.iI del Ejemplo 18, que es el caso especial en que V = F" y G3 = {e,, _ _ _ , e,,}_

lìjemplo 22. Sea V el espacio vectorial de todas la_ls funciones polinomiosili- R en R que tienen grado menor o igual que 2. Seati tl, tz, tj tres númerosii~.i|es distintos arbitrarios, v sea

L-(10) = v(t.-)-I iiionces L1. L2 y L3 son funcionales lineales sobre V. Estos funcionales sonlinealmente independientes; en efecto, supóngase que

L = C1L1 + C214 + caLa_

Si I = 0; es decir, si L(p) = 0 para todo p de V, entonces aplicando L a las--Iiiiieiones›› polinomios particulares 1, x, x2, tenemos

C1 “l” C2 + Ca = 0t1C1 + t2C2 + ¿$03 = 0¿ici +1302 + tšci = 0

Page 117: ASESORES TECNICOS

fill) Â l,I¦t'ln'it llflfltl

De aquí se sigue que c, = cz = c¿, = 0, porque (como lo indica un ligero cálcu-lo) la matriz

1 1 151 ¿2 tantšå

es inversible cuando 1,, tz y t¿, son distintos. Entonces los L, son independien-tes, y como V tiene dimensión 3, estos funcionales forman una base de V*.¿Cuál es la base de V de la que ésta es la dual? Tal base {p1, pz, p3} de V debesatisfacer

Li(Pƒ) = ¿iio

Prat) = ¿if-

Estas funciones polinomios son, como se ve bien fácilmente,\

( _ ¿2)( '" ta)“(2) Si (ii 4 iatii - ti)

_ ( _ t1)( _ ta)Mx) (ii -ìi›(fi - ts)

(1 ¬!1)($ '“f2)_.M” m-mm-M

La base {p,, pz, p3} para V es interesante, ya que de acuerdo con (3-14) se tienepara cada p en V

z†==vUòvi+-vüavii-vuavs \Con lo que, si c,, cz y ca son números reales cualesquiera, existe exactamenteuna función polinomio p sobre R que tiene grado alo más 2 y satisface a p(t,) = c,-,j = 1, 2, 3. Esta función polinomio es p = clpl + c,_p2 + capa.

Sea estudiar ahora la relación entre los funcionales lineales y los subespa-cios. Si f es un funcional lineal no nulo, entonces el rango de f es 1, ya que laimagen de f es un subespacio no nulo del cuerpo escalar y debe ser (por tanto)el cuerpo escalar. Si el espacio de referencia V es de dimensión finita, el rangomás la nulidad (Teorema 2) nos dice que el espacio nulo N, tiene dimensión

mmM=dmV-1En un espacio vectorial de dimensión n, un subespacio de dimensión n - 1se llama un hiperespacio. Tales espacios se llaman también a veces hiperplanoso subespacios de codimensión 1. ¿Es todo hiperespacio el espacio nulo de unfuncional lineal? Se ve fácilmente que la respuesta es sí. No es mucho más difi-cil demostrar que todo subespacio de dimensión d es la intersección de los es-pacios nulos de (n - d) funciones lineales (Teorema 16, más adelante).

Definición. Si V es un espacio vectorial sobre el cuerpo F y S es un subconjun-to de V, el anulador de S es el conjunto S° de funcionales lineales f sobre V talesque f(ot) ± 0 para todo ot de S.

l

Page 118: ASESORES TECNICOS

I 'runs'/ornmi'iones lnn'ult's NH

l)ebería ser claro para el lector que S" es un subespacio de V*, sea o noS tin subespacio de V. Si S es el conjunto que consta del solo vector cero, en-toiiees S0 = V*_ Si S = V, entonces S0 es el subespacio cero de V*. (Esto esIàicil de ver cuando V es de dimensión finita.)

Teorema 16. Sea V un espacio vectorial de dimensión finita sobre el cuer-po F y sea W un subespacio de V. Entonces

dim W + dim WO = dim V.

Demostración. Sea k la dimensión de W y {a,, _ _ _ , a,,} una base de W.Se eligen vectores ak, ,, _ _ _, oz, en V, de modo que {a1›, _ _ _, a,,} sea una base para V.Sea {f,, _ _ _ , f,} la base de V* que es dual de esta base de V. Se afirma que¦/¿_ ,, _ _ _ , f,} es una base del anulador WO. Efectivamente. 12 pertenece a W°para iz k + 1, ya que

f¡(011) = 5;;

yö,,-=0sii2k+1yj5k;deestosesigueque,parai2k+ l,_ƒ,`(ot)=0sieinpre queasea una combinación lineal de al, _ _ _ , a,,. Los funcionales j§,+,, _ _ _ ,/,, son independientes, de modo que todo lo que se debe demostrar es que ge-neran W°_ Supóngase que f está en V*. Entonces

f=âmmde modo que si f está en W° se tiene f(a,) = 0 para i S k y

f= É sam.i=k-I-1

Hemos mostrado que si dim W = k y dim V = n, entonces dim W° =it -- k. I

Corolario. Si W es un subespacio de dimensión k de un espacio vectorialI' de dimensión n, entonces W es la intersección de (n - k) hiperespacios en V.

Demostración. Este es un corolario de la demostración del Teorema 16iníis bien que su enunciado. Con la nomenclatura de la demostración, W es|iistamente el conjunto de los vectores ot tales que fi(ot) = 0, i = k + 1, _ _ _ , n.I-'ii caso de que k = n - 1, W es el espacio nulo de f,_ I

Corolario. Si W, y W2 son subespacios de un espacio vectorial de dimen-won finita, entonces W, = W2 si, y solo si, Wi” = W?.

Demostración. Si W, = W2, entonces es claro que WP = Si W, # W2,entonces uno de los dos subespacios contiene un vector que no está en el otro.Supóngase que hay un vector of que está en Wz, pero no en W,. Por el corola-rio anterior (o por la demostración del Teorema 16), existe un funcional lineal/ tal que f(B) = 0 para todo B de WI, pero f(a) # 0. Entonces f está en W?.pero no en W? y WP # I

Page 119: ASESORES TECNICOS

10.2 A Ij¿¢'I›ru lmvrtl

En la sección siguiente se darán demostraciones distintas para estos doscorolarios. El primer corolario dice que, si se elige una base ordenada del es-pacio, cada subespacio de dimensión k puede describirse dando (n - k) con-diciones lineales homogéneas para las coordenadas respecto de esa base.

Obsérvese, ahora, el sistema de ecuaciones lineales homogéneas desde elpunto de vista de los funcionales lineales. Supóngase que se tiene un sistemalineal de ecuaciones

1111331 + 'l-Aiiiílïn = 0

Amlxl + '° ` + Aflmxn = 0

del que se quien: encontrar sus soluciones. Si se designa por _/,Í_ i = l, _ _ _ , mal funcional lineal en F" definido por

ƒ1`(xl; - ° - 1 xn) = Aílxl + ' ' ° + Aínxn

entonces se busca el subespacio de F" para todos los at tales que

fi'(O!)=0, i=1,...,'m.

En otras palabras, se busca el subespacio anulado por fl, _ _ _ _ j,,,. La reduc-ción por filas de la matriz de los coeficientes da un método sistemático paraencontrar este subespacio. El n-tuple (An, , A,,,) da las coordenadas delfuncional lineal j,-` respecto a la base que es dual a la base canónìca de F"_ Elespacio de las filas de la matriz de los coeficientes puede. pues. considerarsecomo el espacio de los funcionales lineales generado por _/,_ _ _ _ _ j/;,,_ El espaciosolución es el subespacio anulado por este espacio de funcionales.

Ahora se puede considerar el sistema de ecuaciones desde el punto de vista«dual››_ Esto es, supóngase que se den m vectores de F"

a.- = (An, - - - › Am)

y que se desea hallar el anulador del subespacio generado por estos vectores.Como un funcional lineal típico sobre F" tiene la forma

ƒ(xl;- - -yxn) = clx1+ '°' +cnxn

la condición de que f esté en este anulador es que

šA¡¡'C¡=0, 2:-`=1,...,7ì'l.j-1

esto es, que (c,_ _ _ _ _ c,,) sea una solución del sistema AX = 0. Desde este puntode vista. la reducción por filas da un método sistemático para hallar el anula-dor del subespacio generado por un conjunto finito de vectores de F".

Ejemplo 23. He aquí tres funcionales lineales sobre R4:

f1(íU1, 332, 333, 334) = 371 'l' 2332 + 2133 'l' $4f2(371› $2, $3, 334) = 2152 + 314f3(íC¡, $2, $3, 324) = "-2231 _ 4223 + 3334.

Page 120: ASESORES TECNICOS

I 'i iiti_i/orniaciorit-s lineales 103

I-I subespacio que anulan puede ser encontrado explícitamente hallando lamatriz. escalón reducida por filas de la matriz

1 2 2 1A = 0 2 0 1 ~

-2 0 -4 3I ln cálculo breve, o una observación del Ejemplo 2] del Capítulo 2, muestra que

1 0 2 0R = 0 1 0 0 -

0 0 0 1Por tanto, los funcionales lineales

g1(:vi, 2:2, wi, ha) = :vi + 22ag2(xl› x2: x3› $4) = $29s($1, 332, illa, 234) = $4

generan el mismo subespacio de (R4)* y anulan el mismo subespacio de R4tomo lo hacen f,, fz, fa. El subespacio anulado consta de los vectores con

rci= -2:0»$C3= I4='0.

Ejemplo 24. Sea W el subespacio de R5 generado por los vectores

al = (2: -22 3: 4› _l)› a3 = (0: 0: _1› _2›

a2 = (-1-› lv 2: 5› 2); a4 = (1: __]-1 2: 3›

,,(`ómo se puede describir W°, anulador de W? Formando la matriz 4 x 5,_ A,con vectores filas oil, az, aa, a4, y se encuentra la matriz escalón reducida porfilas R que es equivalente por filas a A:

A 2 -_ __ _- ]--D R = [ -

-1 2

Si f es un funcional lineal sobre R5:i-«Oi-*NJ

Oi-IN) r-*[000

¢›Dt\'›U\i-l> OOQNJH OOO!-* OOOH OO'-*O OONJH OI-*OO

f($1, - - - › 1%) = jâ 01%'

entonces f está en W° si, y solo si, f(a,) = 0, i = 1, 2, 3, 4; es decir, si, y solo si,

jã}lA,-,~c,- = 0, IS i S-4.

listo es equivalente a

R,,-¢=,=o, tgigs_1=l

oC1'-C2-C4=0

Ca+2C4=0c5=0_

Page 121: ASESORES TECNICOS

¡U4 A lgr-bra lineal

Todos estos funcionales lineales f se obtienen asignando valores arbitrariosa cz y c4, por ejemplo, cz = a y c4 = b, y a continuación hallando los corres-pondientes cl == a + b, c3 = -2b, cs = 0.Con lo que W° consta de los funcionales lineales f de la forma

j-($1, $2, $3, $4, $5) = (0 + b)1l31 + (1132 '_ 2b$3 + (2174.

La dimensión de WO es 2, y una base {f,, j§} para W° puede encontrarse pri-meramente tomando a = 1, b = 0, y entonces a = 0, b -= 1:

ƒ1(íC1, . . . , $5) = $1 + $2

f2(ïU1› - - - › $5) = ¿U1 _ 211:; 'l' ¿U4-

El f anterior general en W° es f = af, + bf2_

Ejercicios

I. En R-3, S63. ot¡ = (1, 0, 1), 0:2 =.(0, 1, -2), 0:3 = (_-1, -1, 0)(a) Si f es un funcional lineal sobre R3 tal que

f(“1) = li f(0f2) = “li f(0fa) = 3»y si oz = (a, b, c), hallar _f(a).

(b) Describir explícitamente un funcional lineal f sobre R3 tal que

f(0fi) = f(¢22) = 0 P¢f0 f(0a) 5* 0-(c) Sea f cualquier funcional lineal tal que

f(0t1) = f(0f2) = 0 Y f(0a) 7¿ 0-

Si cz = (2, 3, -1), demostrar que _f(ot) 9€ 0.

2. Sea (B = {ot,, az, ot¿,} la base para C3 definida por

al = (lt 0: -Di a2 = (1: li 1): a3 = (21 2› 0)'

Hallar la base dual de (B.

3. Si A y B son matrices n x n sobre el cuerpo F, demostrar que traza (A B) = traza (BA).Entonces demostrar que las matrices semejantes tienen la misma traza.

4. Sea V el espacio vectorial de todas las funciones polinomios p de R en R que tienengrado 2 0 menor:

P(I) = ci + ».22 + 021:”.Se definen tres funciones lineales sobre V por

f.<i›› = L' po) dx. fio) = L” i›<=¢› dx, fio) = L" iio) dx.Demostrar que {_f,, fz, f3} es una base de V*, presentando la base de V de la cual éstaes dual.

5. Si A y B son matrices complejas n x n, hacer ver que es imposible que AB - BA = I.

Page 122: ASESORES TECNICOS

I`run.\_'/urnmi'times lineales 10.5

o. Sean ni y n enteros positivos y F un cuerpo. Sean fl, _ _ _ ,f,,, funcionales lineales en F"_Para oz eii F" define

Ta = (ƒ1(a)i - - - ;ƒm(a))-

Demostrar que T es una transformación lineal de F" en F"'. Demostrar luego que todatransformación lineal de F" en F"' es de la forma anterior para ciertos fii . _ _ , _f,,,_7_ Sga al = (1, 0, _ 1, 2) y az = (2, 3, 1, 1) y sea W el subespacio de R4 generado por1, y otz. ¿Qué funcionales lineales fr

f(I1, $2, Ia, $4) = 01211 + 62252 + Caflïa + 04%;

están en el anulador de W?

8. Sea W el subespacio de R5 generado por los vectores

ai=ei+2e2+¢¢, a2=e2+3ei+3¢i+ei0¢z=€1+4€2+6€a+4€4+€s-

llallar una base de WB.9. Sea V el espacio vectorial de todas las matrices 2 x 2 sobre el cuerpo de los númerosreales, y sea

2 -2B ` [-1 1]'

Sea W el subespacio de V que consta de todas las A tales que AB = 0. Sea f un funcionallineal sobre V que está en el anulador de W. Supóngase que f(I) = 0 y f((') = 3, dondeI cs la matriz identidad 2 x 2 y

O OC"B J'

I0. Sea F un subcuerpo de los números complejos. Se definen n funcionales lineales enF" (n 2 2) por

nanrflai

ƒ,,(:i:¡, _ _ _ , :t:,,) = Él (lc - _7):t:,-, 1 S ¡G S fl-,_

¿Cuál es la dimensión del subespacio anulado por fi. _ _ _, _f,,?

II. Sean W, y W2 subespacios de un espacio vectorial V de dimensión finita.(a) Demostrar que (W, + W2)° = WP (j(b) Demostrar que (W, O W2)° = W? + Wf.

l2_ Sea V un espacio vectorial de dimensión finita sobre el cuerpo F y sea W un subespa-cio de V. Si _f es un funcional lineal sobre W, demostrar que existe un funcional lineal gsobre V tal que g(a) = f(a) para todo ot del subespacio W.

I3. Sea F un subcuerpo del cuerpo de los números complejos y sea V cualquier espaciovectorial sobre F. Supóngase que f y g son funcionales lineales sobre V tales que la funciónIi definida por h(a) = f(ot)g(ot) sea también un funcional lineal sobre V. Demostrar que_ƒ=0og=U_

I4_ Sea F un cuerpo de característica cero y sea V un espacio vectorial de dimensión finitasobre F. Si 01,, _ _ _ , fz,, son un número finito de vectores de V, distintos del vector nulo, de-mostrar que existe un funcional lineal f sobre V tal que

ƒ((I¡)_7¿0, 1:=l,...,m.

Page 123: ASESORES TECNICOS

"M Álflrlirtt ltmwl

15. De acuerdo con el Ejercicio 3, las matrices semejantes tienen la inisma traia. lïntoiicesise puede definir la traza de un operador lineal en un espacio de diniensioii linita como Iiitraza de cualquier matriz que represente al operador en una base ordenada. Esta está hietidefinida, ya que todas las matrices que representan un operador son semejantes.

Sea ahora V el espacio de todas las matrices 2 x 2 sobre el cuerpo F y sea P una matrir2 x 2 dada. Sea T el operador lineal sobre V definido por T(A) = PA _ Demostrar quetraza (T) = 2 traza (P).

16. Demostrar que el funcional traza de una matriz n x n es único en el siguieiite sentido.Si W es el espacio de las matrices n x n sobre el cuerpo F y si f es un funcional lineal sobreW tal que f(AB) = f(BA) para todo A y B de W, entonces f es un múltiplo escalar de lafunción traza. Si además f(I) = n, entonces f es la función traza.

17. Sea W el espacio de las matrices n x n sobre el cuerpo F y sea Wo el subespacio ge-nerado por las matrices C de la forma C = AB - BA. Demostrar que WO es exactamenteel subespacio de las matrices que tienen traza cero. (Indicación: ¿Cuál es la dimensión delespacio de las matrices de traza cero? Considerar las matrices «básicas››, es decir, las ma-trices que tienen solo un elemento no nulo, para construir suficientes matrices linealmenteindependientes de la forma AB - BA.)

3.6. El doble dual

Una pregunta respecto a bases duales que no se contestó en la sección an-terior, era si toda base de V* es la dual de alguna base de V. Una posibilidadde contestar esta pregunta es considerar V**, espacio dual de V*.

Si oz es un vector de V, entonces oz induce un funcional lineal L, sobre V*,definido por

L..(f) =f(¢r)› f fifl V*-El hecho de que L, sea lineal no es más que una reformulación de la definiciónde las operaciones lineales en V*:

L_.(¢ƒ + 0) = (cf + a)(«)= (¢_f)(a) + 11(0)= cfta) + a(a)= CL-=-(f) + L.-(al

Si V es de dimensión finita y ot 9€ 0, entonces L, 9€ 0; en otras palabras, existeun funcional lineal f tal que f(ot) 9€ 0. La demostración es muy simple y fuedada en la Sección 3.5: Elíjase una base ordenada (B = {a,, _ _ _ , a,,} de V talque ot, = oz, y sea f el funcional lineal que asigna a cada vector en V su primeracoordenada en la base ordenada (B.

Teorema 17. Sea V un espacio vectorial de dimensión finita sobre el cuer-po F_ Para cada vector ot de V se define

1-..(f)=f(0f), f en V*-La aplicación ot -› La es entonces un isomorfismo de V sobre V**_

Page 124: ASESORES TECNICOS

Iiims/iirmucimtes llm-film ¡U7

I)enu›stración_ Hemos mostrado que para todo oz la función L, es lineal.Siipóngase que oz y lt pertenezcan a V y c a F, y sea y = con + B. Entonces paracada f en V*

L'r(f) = f('Y)= ƒ(e« + B)= ¢ƒ(«) +ƒ(fi)= CI/a(ƒ) +

L1 ”-= CII@ + Lp.

I-sto muestra que la aplicación ot-› L, es una transformación lineal de V enI "“"_ Esta transformación es no singular; en efecto, de acuerdo con las obser-vaciones anteriores L, = 0 si, y solo .si, oz = 0. Entonces oz-› L, es una trans-formación lineal no singular de V en V**, y como

4

dim V** = dim V* = dim Vel Teorema 9 afirma que esta transformación es inversible -y es, por tanto, unisomorfismo de V sobre V**_ I

Y ¿ISI

Corolario. Sea V un espacio vectorial de dimensión finita sobre el cuerpo F_.Si L es un funcional lineal en el espacio dual V* de V, entonces existe un únicorector ot de V tal que

LU) = f(01)para l`0d0 f de V*.

Corolario. Sea V un espacio vectorial de dimensión finita sobre el cuer-po F_ Toda base de V* es dual de alguna base de V.

Demostración. Sea (B* = {f,, _ _ _ , f,} una base de V*. Por el Teorema 15,existe una base {L,, _ _ _ , L,,} de V** tal que

Li(f¡) = 515-Por el corolario anterior, para todo i existe un vector oz, de V tal que

L-=(ƒ) = f(a.-)para todo f de V*; es decir, tal que L, = Lai. Se sigue inmediatamente que{a,, _ _ _, oz,,} es una base de V y que (B* es la dual de esta base. I

En vista del Teorema 17 es corriente identificar oz con L, y decir que V «es››el espacio dual del V*, o que los espacios V, V* están naturalmente en mutuadualidad. Cada uno es el espacio d'ual del otro. En el último corolario se tieneuna ilustración de lo útil que esto puede ser. He aquí otra ilustración.

Si E es un subconjunto de V*, entonces el anulador E0 es (técnicamente)un subconjunto de V**_ Si se decide identificar V y V** como en el Teorema 17,entonces E" es u`n subespacio de V, vale decir el conjunto de todos los ot de Vtales que f(ot) = 0 para todos los f de E. En un corolario del Teorema 16 hemos

Page 125: ASESORES TECNICOS

ION /l l,t¦i'l›ru lltlml

obsen/ado que cada subespacio W está determinado por su anulador W”. ¿Cómoestá determinado? La respuesta es que W es el subespacio anulado por todoslos f de WO; esto es, la intersección de los espacios nulos de todos los _/ en Wo.Con nuestra actual nomenclatura para anuladores, la respuesta puede escri-birse en forma muy simple: W = (W°)°_

Teorema 18. Si S es cualquier subconjunto de un espacio vectorial de di-mensión finita V, entonces (S°)° es el subespacio generado por S.

Demostración. Sea W el subespacio generado por S. Es claro que WO = S”.Por tanto, lo que se debe demostrar es que W = W°°_ Ya se ha dado una de-mostración_ He aquí otra. Por el Teorema 16

dimW+di1nW°=dìmVdim W” + dim W°° = dim V*

y como dim V = dim V*, se tienedim W = dim W°°_

Como W es un subespacio de W°°, se ve que W = W°°_ |

Los resultados de esta sección son válidos para espacios vectoriales arbi-trarios; sin embargo, las demostraciones requieren el uso del llamado axiomade elección. Queremos evitar enredarnos en una larga discusión de ese axioma,de modo que no se abordarán los anuladores en espacios vectoriales generales.Pero hay dos resultados respecto a funcionales lineales en espacios vectorialesarbitrarios, tan fundamentales, que se daran a continuación.

Sea V un espacio vectorial. Queremos definir hiperespacios en V. A menosque V sea de dimensión finita, no se puede hacer eso considerando la dimensióndel hiperespacio. Pero se puede expresar la idea de que un espacio N tiene apenasuna dimensión menos que V, de la siguiente forma:

1. N es un subespacio propio de V;2. si W es un subespacio de V que contiene a N, entonces W = N o

W = V.

Las condiciones (1) y (2) en conjunto dicen que N es un subespacio propio yque no existe un subespacio propio mayor; vale decir, N es un subespacio pro-pio maximal_

Definición. Si V es un espacio vectorial, un hiperespacio en V es un subes-pacio propio maximal de V.

Teorema 19. Si ƒ es un funcional lineal :zo nulo sobre el espacio vectorial V,entonces el espacio nulo de f es un hiperespacio en V. Recíprocamente, todo hi-perespacio de V es el espacio nulo de un (no único) funcional lineal no nulo sobre V.

Demostración. Sea f un funcional linea no nulo sobre V y Nf su espacionulo. Sea ot un vector de V que no esté en Nf; es decir. un vector tal que ƒ(oi) 9€ 0.

Page 126: ASESORES TECNICOS

l 'i «ms/ornti ¡rin ,mm ¡¡m,"¡,,_` mv

5*' *|°'““-`““'irá que todo vector de V está en el subespacio generado por Nƒ y ot.¡W *"h°`f¬`Patcio consta de todos los vectores

'y+cot, yen N¡,cen F.Seu /l cn V/_ Se define

_ aa3° " f<«›*|"*f` tiene Sientido porque f(ot) 9€ 0. Entonces el vector y = ,6 ~ ca perteneceii N¡, ya qlue

flfi=fiB-M)= {)(i6) _ 0ƒ(a)

"W 1° quee B está en el subespacio generado por Nf y ot.Sea ahoara N un hiperespacio en V. Sea ot algún vector que no pertenece

i' N- C0m0› N es un subespacio propio maximal, el subespacio generado por NY 0* es mdfo el espacio V. Por tanto, todo vector B de V tiene la forma

l3=y-l~cot, yenN,cenF_

H Vefìtøf 'Pp y el escalar c están unívocamente determinados por B. Si se tienetambien qtug

B = y' + c'ot, ¬," en N, c' en Fentonces

_ _ (C'-C)<1=v-i"-Í' ¿ti " Cl:-9€ 0, entonces ot estaría en N; luego c' = c y y' == y. Otra maneraW Ofmu air esta conclusión es: Si B pertenece a V, existe un único escalar c'if' que “- ca pertenece a N. Sea g(B) ese escalar. Es fácil ver que g es un fun-“Unai lmeial en V y que N es el espacio nulo de g I

Lema- ' Si ƒ y g son funcionales lineales en el espacio vectorial V, entonces9 es un muìltiplo escalar de f si, y solo si, el espacio nulo de g contiene al espacio"M0 de fï; esto es, si, y solo si, _f(ot) = 0 implica que g(ot) == 0.

'D_em0S'tración_ Si f = 0 entonces también g = 0 y g es trivialmente unmultlplo Fsscalar de jï Supóngase que f 9€ 0 de modo que el espacio nulo N,Sea un hllperespacio en V. Elíjase algún vector ot en V con f(ot) 9€ 0, y sea

= M.° f<«›El funcimial lineal h = g - cf es 0 sobre Nƒ, ya que tanto f como g son ahí 0Y Ma) = êg(ot) - cf(a) = 0. Así h es 0 en el subespacio generado por N, y ot`"Y ese Slubespacio es V. Se concluye que h = 0; es decir, que g = cf.

_T°°"°¡ma 20. Sean g, fl, _ _ _ , jj funcionales lineales sobre un espacio vec-'0"'“¡ V Gon espacios nulos N, N,, _ _ _ , N,, respectivamente. Entonces g es una

Page 127: ASESORES TECNICOS

lll) Algebra lineal

combinación lineal de los fl, _ _ __ f, si, y solo si, N contiene la intersecciónN1 m".'nN,..

Demostración. Si g = c¡ƒ¡ + H - + c,f, y f,.(a) = 0 para todo i, enton-ces evidentemente, g(ot) = 0. Por tanto, N contiene N, O - - - O N,_

Demostraremos el recíproco (Ia parte «si›› del teorema) por inducción so-bre el número r. El lema precedente se refiere al caso en que r = 1. Supóngaseque el resultado sea válido para r = k - 1 y sean fl, _ _ _ , jj, funcionales linealescon espacios nulos Nl, _ _ _ , N,, tales que N, O - - - O N,, está contenido en N, elespacio nulo de g. Sean g', jj', _ _ _ , ƒ§_, las restricciones de g, jj, _ _ _ , fi,_, alsubespacio N,,_ Entonces g', fl', _ _ _ , ƒ,;'_, son funcionales lineales sobre el es-pacio vectorial_N,,_ Además, si ot es un vector de N,, y f'(oz) = 0, i = 1, _ _ _ , k - 1,entonces ot está en N, (W - - - O N,,, con lo que g'(ot) = 0. Por la hipótesis deinducción (el caso r = k - l), existen escalares c, tales que

Q' = C1fi+ ' ' ' + Cr-tfti-L

Sea ahoraii- 1

(3-16) ll = 9 _' ¿Pl Cifr-

Con lo que h es un funcional lineal en V y (3-16) dice que h(ot) = 0 para todooi en N,,. Por el lema anterior h es un múltiplo escalar de /¿_ Si h = c,,j§,, entonces

g = râtciƒi-2 I

Ejercicios

l. Sean un entero positivoy Fun cuerpo. Sea Wel conjunto de todos los vectores (x,, _ _ _ ,x,,)de F" tales que xl +--' +x,,=0_

(a) Demostrar que W° consta de todos los funcionales lineales f de la formafl

ƒ(:t:¡, _ _ _ ,:t:,,) = c 2) x,-_3=l

(b) Hacer ver que el espacio dual W* de W puede identificarse «naturalmente›› conlos funcionales lineales

¢ o u ,x¶¡,) 2 --O + cnxn

sobre F" que satisface cl + + c,, = 0.

2. Usando el Teorema 20, demostrar lo siguiente. Si W es un subespacio de un espaciovectorial de dimensión finita V y si -¦g,, _ _ _ , g,} es cualquier base para Wo, entonces

W == .ñl Nm-

3. Sea S un conjunto, F un cuerpo y V(S ; F) el espacio de todas las funciones de S en F:

(ƒ + g)(=v) = f(x) + g(==)(¢ƒ)(=v) = vf(=v)-

Sea W cualquier subespacio de dimensión n de V(S; F). Demostrar que existen puntosxl, _ , x,, en S y funciones fi. . _ _ , _f,, en W tales que f,-(x,-) = ó,-¡_

Page 128: ASESORES TECNICOS

I'tttus/irrtmn'imtvs ltm'ule.\- l l l

il. 7. Transpuesta de una transformación lineal

Supóngase que se tienen dos espacios vectoriales V y W sobre el cuerpo Fv una transformación lineal T de V en W. Entonces T induce una transfor-mación lineal de W* en V*, como sigue. Supóngase que g es un funcional linealen W, y Sea

tw-17) f<«› = gm)para cada oc en V. Entonces (3-17) define una función f de Ven F, que es la com-posición de T, función de V en W, con g, función de W en F. Como ambas,I' y g, son lineales, el Teorema 6 dice que f es también lineal; vale decir, ƒ esuna función lineal en V. Así T suministra una correspondencia T' que asociaat cada funcional lineal g sobre W un funcional lineal ƒ = T'g sobre V, defini-tln por (3-17). Obsérvese también que T' es igualmente una transformaciónlineal de W*; en efecto¬ si gl y gl están en W* y c es un escalar

[T'(C91 "l" 92)] (Of) = (C91 + 92)(T0f)"= C91(T0f) + Q2(T0fl)= C(T'91)(0I) + (T'92)(¢1)

de modo que T'(cg, + gz) = cT'g¡ + T'g2. Resumamos.

Teorema 21. Sean V y W espacios vectoriales sobre el cuerpo F. Para todatransformación lineal T de V en W. existe una única transformación lineal T' delI'* en V* tal que

lrfllldl = .€(T0llpara todo g de W* y todo oz de V.

A T' se la llama transpuesta de T. Esta transformación T' también se llamaa menudo adjunta de T, pero no usaremos esta terminología.

Teorema 22. Sean V y W espacios vectoriales sobre el cuerpo F y sea T unatransformación lineal de V en W_ El espacio nulo de T' es el anulador de la imagende T. Si V y W son de dimensión finita, entonces

(i) rango (T') = rango (T)(ii) la imagen de T' es el anulador del espacio nulo de T.

Demostración. Si g pertenece a W*. entonces por definición

(T'a)(a) = g(T<›=)para todo rx de V. La afirmación de que g está en el espacio nulo de T' quieredecir que g(Trx) = 0 para todo oc de V. Asi el espacio nulo de T' es, precisa-mente, el anulador de la imagen de T.

Supóngase que V y W son de dimensión finita, por ejemplo, dim V = ny dim W = m. Para (i): Sea r el rango de T, es decir, la dimensión de la imagende T. Por el Teorema 16 el anulador de la imagen de T tiene entonces dimen-

Page 129: ASESORES TECNICOS

l 1.2 A lgvlirit lineal

sión (m - r). Por la primera afirmación de este teorema la nulidad de T' debeser (m «- r). Pero entonces, como T' es una transformación lineal en un espaciode dimensión m, el rango de T' es m - (m _ r) = r, y así Ty T' tienen el mismorango. Para (ii): Sea N el espacio nulo de T. Todo funcional en la imagen deT' está en el anulador de N; en efecto, supóngase que f = T'g para algún gen W*; entonces, si oc está en N

f(0=) = (T'9)(°=) = 9(T0=) = 91(0) = '0-Ahora bien, la imagen de T' es un subespacio del espacio NO, y

dim No = n - dim N = rango (T) = rango (T')con lo que la imagen de T' debe ser, exactamente, N°. I

Teorema 23, Sean V y W espacios vectoriales de dimensión finita sobreel cuerpo F. Sea G3 una base ordenada de V con base dual G3*, y sea G3' una baseordenada de W con base dual G3'*. Sea T una transformación lineal de V en W;sea A la matriz de T respecto a (B, G3' y sea B la matriz de T' respecto a (B'*, G3*.Ent0nce.ç :'- Ají.

Demostración. Sea(B: {a1;---;an}› (B': {Bl›°°'›B1"}r

(B* = {ƒl› ~ ~ - ›ƒfl}› al* = {gl› ~ ° ° › gM}°Por definición,

Taj: ï`¡A.,'¡fl¡, j=l,...,7l¡-1

T'9›' = Bfifo Í = 1, - - - › m-Por otro lado, 'cl

(T'a,-)(a-) = Q,-(Ta.-)

= ¶1'( § Ákifik)it=1

= ini AH!h'(5k)tt-1

= gl Ákiöƒktt-1= Ají.

Para cualquier funcional lineal f sobre V

f.= f<«t›f.».Si se aplica esta fórmula al funcional f = T g_,- y se considera que (T'g¡)(a¡) = A¡,-,se tiene

T'9f = Él A1'-'ff

de donde se desprende en forma inmediata que BU- = A_,-¡_ I

Page 130: ASESORES TECNICOS

I":tms/nmtm'ium-.r lim'alt'.\' I I 3

Definición. Si A es una matriz m ›< n sobre el cuerpo F, la transpuesta deel es la matriz n x m, A', definida por A§¡ = A_}¡.

El Teorema 23 dice, pues, que si T es una transformación lineal de V en W,cuya matriz con respecto a un par de bases es A, entonces la transformacióntranspuesta T' está representada, en el par de bases dual, por la matriz trans-puesta A'.

Teorema 24. Sea A cualquier matriz m ›< n sobre el cuerpo F. Entoncesel rango de filas de A es igual al rango de columnas de A.

Demostración. Sea G3 la base ordenada canónìca de F" y (B' la base ordena-da canónìca de F"'. Sea T la transformación lineal de F" en F"' tal que la matrizde T respecto al par G3, G3' sea A; es decir,

T(xl›---txn) = (Í/lt---:Í/fu)

donden

2/í = E Á¡¡Z¡.ƒI=l

lìl rango de columnas de A es el rango de la transformación T, pues la imagende T consta de todos los m-tuples que son combinaciones lineales de los vec-tores columnas de A.

Respecto a las bases dual 03'* y G3*, la aplicación transpuesta T' está re-presentada por la matriz A'. Como las columnas de A' son las filas de A, se veque por la misma razón que el rango de filas de A (el rango de columnas de A')es igual al rango de T'. Por el Teorema 22, T y T' tienen el mismo rango y, portanto, el rango de filas de A es igual al rango de columnas de A. |

Ahora vemos que si A es una matriz m ›< n sobre F y T es la transformaciónlineal de F" en F'" definida anterior-mente, entonces

rango (T) = rango de filas (A) = rango de columna (A)

y se dirá simplemente que este número es el rango de A.

Ejemplo 25. Este ejemplò será de carácter general; más bien una discu-sión que un ejemplo. Sea V un espacio vectorial de dimensión n sobre el cuer-po F y sea T un operador lineal sobre V. Supóngase que G3 = {a,, .. . , a,,}es una base ordenada de V. La matriz de T en la base ordenada G3 está definidacomo la matriz n x n, A, tal que

Taj: É; A..a._ :J 11-1

o sea, que AU- es la i-ésima coordenada del vector Taj en la base ordenada G3.Si {ƒ1, . . _ , fi,} es la base dual de G3, esto puede enunciarse simplemente

Ai; = f='(T<1f)-

Page 131: ASESORES TECNICOS

I 14 /I lg:-hru Itm-al

Se verá ahora que sucede cuando se cambia de base. Supóngase que(B'= {aÍ,. ..,a,Í}

es otra base ordenada de V con base dual ¦f{. . . . . _/ÄI-. Si B es la matriz de T enla base ordenada (B', entonces

Bo' = fi(T0Ó-)-Sea U el operador lineal inversible, tal que Urxj = 1;-_ Entonces la transpuestade U viene dada por U'ƒ}' = fi. Esto es de fácil verificación. ya que como U esinversible, también lo es U' y (U')" = (U")'. Así,_ƒ§'=(L"')'fi, i= 1,2, . . ., n.Por tanto.

B-'f = [(U“')'ƒ.~](Ta§)= ff(U"¡Ta§)= f¡(U“1TUa,-).

Y ahora, ¿qué dice esto? Bien, fi(U"TUat¡) es el elemento ¡_ i de la matrizU ` 1 TU en la base ordenada G3. Los cálculos anteriores indican que este escalares también el elemento i, j de la matriz de T en la base ordenada (B'. Es decir, que

[T](Q' =-' EUTITUJQ

= [U`1]<BlT]rB[U]m'= [U]<š`[T]a[U]a

lo que, precisamente, es la fórmula para el cambio de base ya conocida.

Ejercicios

l. Sea F un cuerpo y sea I el funcional lineal cn F2 definido por _/'(.\',. tz) = ax, + h_\'¿.Para cada uno de los siguientes operadores T. hágase g = T'/' y hállcse _2(.\',. xz).

(11) T(fin, 12) = (rn. 0);(b) T(331, $2) = (""332› 331);(C) T(I¡, Ig) = ($1 _' $2, $1 + $2).

2. Sea V el espacio vectorial de todas las funciones polinomios sobre cl cuerpo dc los nú-meros reales. Sean a y b dos números reales fijos y sea f el funcional lineal cn I' definido por

t›ƒ(z›) = L z›(r)dr.

Si D es el operador derivación sobre V. ¿qué es Df/"P

3. Sea V el espacio de las matrices n x n sobre el cuerpo F y sea B una matri? n ›< n dada.S1 Tes un operador lineal sobre V definido por T(Al = AB - BA y si _/ es la función tra/a.¿qué es T'j`?

4. Sea V el espacio vectorial de dimensión finita sobre cl cuerpo F y sea T un operadorlineal sobre V. Sea c un escalar y supóngase que existe un xcctor no nulo x cn l` tal queTot = ca. Demostrar que existe un funcional lineal no nulo /' en I' tal que T't = t-/_

5. Sea A una matriz m ›< n de elementos reales. Demostrar que A = 0 si. _\ solo si.traza (A'A) = 0.

Page 132: ASESORES TECNICOS

I tutt.\lm'ntm'lumti ltm-ul:-.i I 1 S

ti. Sea n un entero positivo y sea V el espacio de las funciones polinomios sobre el cuerpo-lt- los números reales que tienen grado n a lo más; es decir, funciones de la forma

f(2=)=¢r›+c1z+ +¢=.2=”.\t-;| I D el operador derivación sobre V. Hallar una base del espacio nulo del operador trans-pitvslo D'.

7. Sea V un espacio vectorial de dimensión finita sobre el cuerpo F. Demostrar que T-› T'es un isomorfismo de L(V, V) sobre L(V*, V*).

H. Sea V el espacio vectorial de las matrices n x n sobre el cuerpo F.la) Si B es una matriz n x n dada, se define una función fa sobre V por fB(A) = tra-

/.: (B'A). Demostrar que f, es un funcional lineal en V.lb) Demostrar que todo funcional lineal sobre V es de la forma anterior, es decir, es

tu para algún B.lc) Demostrar que B-›fB es un isomorfismo de V sobre V*.

Page 133: ASESORES TECNICOS

4. Polinomios

4.1 . Algebras

El propósito de este capitulo es establecer algunas de las propiedades bá-sicas del álgebra de polinomios sobre un cuerpo. El tratamiento se facilitarási se introduce primero el concepto de un álgebra lineal sobre un cuerpo.

Definición. Sea F un cuerpo. Un álgebra lineal sobre el cuerpo F es un es-pacio vectorial @ sobre F con otra operación, llamada multiplicación de vectores,que asocia a cada par de rectores oz, /i de Cì un rector ali en (i llamado el productode oz y li, de tal modo que

(a) la multiplicación es asociativa,

Oil/fïl = lotlllì'(b) la multiplicación es distributira con respecto a la adición,

alfi + 1') = «If + 00' y (fr + If):' = 1:' + /fa'(c) para todo escalar c de F,

c(ozB) = (cot)fl = cxlcƒf).

Si existe un elemento l en G tal que lot == al = ot para todo oz de G. G se llama14.' álgebra lineal con unidad sobre F, y a l se le llama la unidad de (ì. El álgebra(Í se dice conmutativa si afl = /iot, para todo oz y If de G.

Ejemplo 1. El conjunto de las matrices n x n sobre un cuerpo, con lasoperaciones corrientes. es un álgebra lineal con unidad; en particular el cuerpo

Iló

Page 134: ASESORES TECNICOS

['t›Itnuntm.s I I7

mismo es un álgebra lineal con unidad. Este álgebra no es conmutativa si n 2 2.II cuerpo mismo es (evidentemente) conmutativo.

lìjemplo 2. El espacio de todos los operadores lineales sobre un espaciott-ctorial, con la composición como producto, es un álgebra lineal con uni-dad. Es conmutativa si, y solo si, el espacio es unidimensional.

Es posible que el lector tenga alguna experiencia con el producto escalarv cl producto vectorial de vectores de R3. De ser así, debe observar que nin-i-uno de estos productos es del tipo descrito en la definición de álgebra lineal.I-I primer producto es un «producto escalar» en el sentido que asocia a cadapar de vectores un escalar, no siendo por consiguiente del tipo de productoque se discute ahora. El producto vectorial asocia un vector a cada par de vec-tores de R3; pero ésta no es una multiplicación asociativa.

En lo que resta de esta sección nos ocuparemos de la construcción de unalgebra que es significativamente diferente de las álgebras de los ejemplos an-teriores. Sean F un cuerpo y S el conjunto de los enteros no negativos. Por elI-jemplo 3 del Capitulo 2, el conjunto de las funciones de S en F es un espaciovectorial sobre F. Se representará este espacio vectorial por F°°. Los vectoresde F°° son, por tanto, sucesiones infinitas ƒ = (fo, fl, jå, . . .) de escalares j¶ deI-'_ Si g = (go, gl, g2, . . . ) con g, en F, y a, b escalares de F, af + bg es una su-cesión infinita dada porl-l-1) af 'l' by = (Ufo 'l' bye, Gft -l- bgb afz -l' 1792; - - -)-

l)efinimos un producto en F°° asociando a cada par de vectores f y g de F°°el vector ƒg dado por

M-2) (foi = šof.-g,.-.~. n = 0,1,2,. _ . _Mi fa = (fogo, ƒogt + fiat» fuga + ƒrm + fiat» - - -)y COIIIO n n

(yfln = E0 gif»-f = šofffln-f = (f9)»

para n = 0, 1, 2, . . _, se sigue que la multiplicación es conmutativa, ƒg = gƒ.Si h también pertenece a F°°, entonces

t<fg›h1,, = ¿$0 (ft).-fa-,= ã .figi-1`)hn-1'

¡-0 j=0

= ftgi-¡hn-s1-0J=0

n n-j

= ¡go fi ¿E0 gihn-1'-j

= ii f,-(gh) - - tf<gh›1,.. "-1 -.t -0

Page 135: ASESORES TECNICOS

HH .-llgeltru lineal 1

para n = 0,1, 2, ..., de modo que

(4-3) (fg)h = ƒ(ah).Se deja al lector verificar que la multiplicación definida por (4-2) cumple (b)y (c) en la definición de un álgebra lineal y que el vector 1 = (1, 0, 0, . . .) sinfccomo unidad para F°°. Entonces F°°, con las operaciones definidas anterior-mente, es un álgebra lineal conmutativa con unidad sobre el cuerpo F.

El vector (0. I. 0, . . . , 0, . . .) juega un papel destacado en lo que sigue y serepresentará siempre por x. A lo largo de este capítulo nunca se usará x paraindicar un elemento del cuerpo F. El producto de x por si mismo n veces serepresentará por x" y se hará que x° = 1. Entonces

x*=(0,0,l,O,...), x*=(0,0,0,l,O,...)

y, en general, para todo entero k 2 0, (x"),, = 1 y (x"),, = 0 para todo enterono negativo n 7€ k. Para concluir esta sección observamos que el conjuntoformado por 1, x, x2, . . . , es independiente e infinito. Así que el álgebra F°° noes de dimensión finita.

El álgebra F°° se llama también álgebra de las series formales de potenciassobre F. El elemento f = (_fi,, fl, fz, . . .) se suele escribir -

(4-1) f' = É fm.11-0

Esta notación es muy conveniente para manipular las operaciones algebraicas.Cuando se use, debe recordarse que es puramente formal. No existen «sumasinfinitas» en álgebra y la representación en serie de potencias (4-4) no pretendesugerir nada respecto a convergencia, si es que el lector sabe de qué se trata.Usando sucesiones se puede definir rigurosamente un álgebra en que las ope-raciones se comporten en forma semejante a la adición y multiplicación deseries formales de potencias, sin caer en el riesgo de confundirse acerca de cosastales como sumas infinitas.

4.2. El Algebra de los polinomios

Se está ahora en condiciones de definir un polinomio sobre el cuerpo F.

Definición. Sea F[x] el subespacio de F°° generado por los vectores 1, x,xz, . _ . Un elemento de F[x] se llama polinomio sobre F.

Como F[x] consta de todas las combinaciones lineales (finitas) de x y suspotencias, un vector no nulo f de F°° es un polinomio si, y solo si, existe unentero n 2 0 tal que L, 9€ 0 y tal que fi, = 0 para todos los enteros k > n; esteentero (cuando existe) es obviamente único y se llama grado de f. Se represen-tará el grado de un polinomio f por grd f, y no se asignará grado al polinomio 0.Si f es un polinomio no nulo de grado n se tiene que

(4-5) f = few" + fix -I- fer” -I- - - - -I- fax", ƒ,. af 0.

Page 136: ASESORES TECNICOS

I'¢ rlirtotttios I I9

I us escalares j(`,, fl, . . _ , fi, son llamados a veces los coeficientes de ƒ, y se diráque _/' es un polinomio con coeficientes en F. Se llamarán polinomios escalaresu los polinomios de la forma cx° y frecuentemente se escribirá c en vez de cx”.lln polinomio no nulo ƒ de grado n tal que fi, = 1 se dice que es un polinomioIllúnico.

El lector observará que los polinomios no son la misma clase de objetosque las funciones polinomios sobre F que se han estudiado varias veces. SiI-` tiene un número infinito de elementos, existe un isomorfismo natural entreI-lx] y el álgebra de las funciones polinomios sobre F. Ello se verá en la próxi-ma sección. Verifiquemos ahora que F[x] es un álgebra.

Teorema l. Sean f y g polinomios no nulos sobre F. Entonces

(i) fg es un polinomio no nulo;(ii) grd (fs) = grd f + grd g;(iii) ƒg es un polinomio mónico si ambos, f y g, son polinomios mónicos;(iv) fg es un polinomio escalar si, y solo si, ambosfy g son polinomios escalares;(v) Si f + 3 † 0,

grd (f + g) S máx- (grd f, grd glDemostración. Supóngase que ƒ tiene grado m y que g tiene grado n. Si

k es un entero no negativo,m-l-n-l-k

(f¶)m+››+I= = ¡Po f›'9m+n+k-i-

Para que fig,,,,.,,+,,_,- =;ë 0 es necesario que i S m y m + n + k - i 5 n. Luegoes necesario que m + k 5 i 5 m, lo que implica k = 0 e i= m. Así,

(4*6) (fg)m+n = fmšlfl

Y

(4-7) (f9)›››+f=+1= = 0, k > 0-Las afirmaciones (i), (ii), (iii) se desprenden inmediatamente de (4-6) y (4-7),mientras que (iv) es una consecuencia de (i) y (ii). Se deja la comprobación de(v) al lector. I

Corolario 1. El conjunto de todos los polinomios sobre el cuerpo F dadodotado de las operaciones (4-1) y (4-2) es un álgebra lineal conmutativa con uni-dad sobre F.

Demostración. Como las operaciones (4-1) y (4-2) son aquellas definidasen el álgebra F°° y como F[x] es un subespacio de F°°, es suficiente demostrarque el producto de dos polinomios es también un polinomio. Ello es trivialcuando uno de los factores es 0, y en los otros casos se deduce de (i). I

Corolario 2. Supóngase que j§_g y h son polinomios sobre el cuerpo F talesque f =,¬_é 0 y fg = ƒh. Entonces g = h.

Page 137: ASESORES TECNICOS

l 20 A lgrlvru lineal

Demostración. Como fg = ƒlt. f(g - h) = 0 y f =;ë 0, se sigue inmedia-tamente de (i) que g - h = 0. I

Otros hechos más se desprenden fácilmente de la demostración del Teore-ma 1, y de algunos de ellos haremos mención. Supóngase

ƒ = § ft-w* y 9 = E ¿WI¢=o ¡-0Entonces de (4-7) se tiene

(4-8) fa = (iio f-g._,)x'.

El lector deberá comprobar, para el caso particular ƒ = cx"', g = dx" conc, d en F, que (4-8) se reduce a

(4-9) (cm(af) = ww-+~.Ahora, de (4-9) y las leyes distributivas en F[x], se sigue que el producto en(4-8) también está dado por

(4-10) frgjíöifi¡J

donde la suma se extiende sobre todos los pares de enteros i, j tales que0$iSm'y0SjSn.

Definición. Sea G un álgebra lineal con unidad sobre el cuerpo F. Se in-dicará la unidad de (ì por 1 y se conviene que ao = 1 para todo oz de Ci. Entonces

a cada polinomio f == E fixl sobre F y ot de G se asocia un elemento f(a) de G;i=0

por la ley nf(<1) _ 2 f.-<1"-_ ¡=o

Ejemplo 3. Sea C el cuerpo de los números complejos y sea f = x2 + 2.

(a) Si G = C y z pertenece a C, ƒ(z) = zz + 2, en particular ƒ(2) = 6 y

1 + z _f" 1-

(b) Si G, es el álgebra de todas las matrices 2 x 2 sobre C y si1 0

B = [-1 2]

a+t-; si-ts; si(c) Si G es el álgebra de todos los operadores lineales en C3 y T es el ele-

mento de (1 dado por

T(c¡, c2, ca) = (í\/ã ct, cg, ca)

entonces

Page 138: ASESORES TECNICOS

I'ulmutntm IJI

entonces _/(T) es el operador lineal sobre C3 definido por

f(T)(C|› C2, Ca) = (0› 302, 0)-

(dl Si (i es el álgebra de todos los polinomios sobre C y g = x4 + 3i,entonces _/(gl es el polinomio de G, dado por

ƒ(g) = -7 + 6221:* + 2:8.

El lector atento habrá observado, en conexión con este último ejemplo,que si f es un polinomio sobre cualquier cuerpo y x es el polinomio (0, 1, 0, . . _),t-ntonces f = f(x), pero se le aconseja olvidar este hecho.

Teorema 2. Sea F un cuerpo _v G. un álgebra lineal con unidad sobre F. Su-póngase que _/ _t' g son polinomios sobre F, que ot es un elemento de G _v que c per-tenece a F. Entonces

(il (ff/' + .f;')(0<) = ff/'(01) + §(0<);(ii) (falta) = f(0<)x(0<)-Demostración. Como (i) es fácil de probar, se demostrará solamente (ii).

Supóngase que

f= Ef.-w* y g= Earri-i=0 j=0

f9 = ffyƒívifi| ' , "JY uegó Por (1) (ƒgxa) = ƒigjam

= f-“*)gf“f)= f(«›g<«›. I

Por (4- l 0),

lzjercicios

I. Sea F un subcuerpo de los números complejos y sea A la siguiente matriz 2 ›< 2sobre F

2 1A = [-1 3]'

Para cada uno de los siguientes polinomios f sobre F, calcular ƒ`(A).

(a)f=fv”-=v+2;(b) f = I” _ 1;(e) ƒ=x2-5x+7.

2. Sea T el operador lineal T sobre R3 definido por

T(x1, 1:2, 1:3) = (xl, 1:3, -21:2 - 2:3).

Sea _/ el polinomio sobre R definido por f = -x3 + 2. Hallar

Page 139: ASESORES TECNICOS

122 Algebra lineal

3. Sea A una matriz diagonal n x n sobre el cuerpo F, es decir. una matriz para la cualAü- = 0 para i =¡ë j. Sea f el polinomio sobre F definido por

f= UI- An) ($- Am)-¿Cuál es la matriz ƒ(A)?

4. Si f y g son polinomios independientes sobre el cuerpo F y h es un polinomio no nulosobre F. Demostrar que fh y gh son independientes.

5. Si F es un cuerpo, demostrar que el producto de dos elementos no nulos de F°° esno nulo.

6. Sea S un conjunto de polinomios no nulos sobre el cuerpo F. Si no hay dos elementosde S que tengan el mismo grado, demostrar que S es un conjunto independiente de F[x].

7. Si a y b son elementos de un cuerpo F y a =,¿ O, demostrar que los polinomios 1, ax + b.(ax + b)2, (ax -i- b)3, . . . forman una base de F[x].

8. Si F es un cuerpo y h es un polinomio sobre F de grado 21, demostrar que la aplica-ción f-› f(h) es una transformación lineal inyectiva de F[x] en F Demostrar queesta transformación es un isomorfismo de F[x] sobre F[x] si, y solo si, grd h = 1.

9. Sea F un subcuerpo de los números complejos y sean T, D las transformaciones sobreF[x] definidas por

T( š 61.-) š __fi_ xau¿-0 ' ¡-0 1 + 'Í

Y1% _ fl . _

D(2 c,-ra) = Z zc¡:c'“1.¡-0 ¿-1

(a) Demostrar que T es un operador lineal no singular sobre F Demostrar tambiénque T no es inversible.

(b) Demostrar que D es un operador lineal sobre F[x] y determinar su espacio nulo.(c) Demostrar que DT = I y que TD =ƒ= I.(d) Demostrar que T[(Tf)g] = (Tƒ)(Tg) - Tj(Tg) para todo f, g en F[x].(e) Formular y demostrar una ley para D análoga a la dada para T en (d).(f) Supóngase que V es un subespacio no nulo F[x] tal que Tf pertenezca a V para

todo f de V. Demostrar que V no es de dimensión finita.(g) Supóngase que V es un subespacio de dimensión finita de F[x]. Demostrar que

existe un entero m 2 0 tal que D"'f = 0 para todo f en V.

4.3. Interpolación de Lagrange

En esta sección F es un cuerpo fijo y to, tl, . . _ , t,, son n + 1 elementos dis-tintos de F. Sea V el subespacio de F[x] que consta de todos los polinomiosde grado menor o igual a n (junto con el polinomio 0), y sea L,- la función deV en F definida para f en V por

L.-(Í) = f(¢.-); 0 S 2' S tt.Por la parte (i) del Teorema 2, todo L,- es un funcional lineal sobre V, y unade las cosas que interesan es demostrar que el conjunto constituido por los L0,L1, . . . , L,, es una base de V*, el espacio dual de V.

Page 140: ASESORES TECNICOS

I'ulttmmim 123

Por supuesto, que, para que sea así, es suficiente (en referencia al Teorema 15del Capitulo 3) que {L0, L1, . . . , L,,} sea el dual de una base {P0, Pl, . . . , P,,}de V. A lo más existe una de.tales bases y si existe está caracterizada por

(4-ll) L¡(P¢) = Piar) = 5o'-

l.os polinomios

_ se-r»›---tx-tf-›<xc-tf››--~e-ra(442) P' <r.›-tt) a.- - i.-.l›(¢. -rifa) (it-1,.)__ x _"

¡gi (ir _ ti

son de grado n, luego pertenecen a V, y por el Teorema 2 satisfacen (4-11).Si f = c¡P,, entonces para todo j,

(4-13) fat) = 0¢P='(¿¡) = 01'-

Como el polinomio 0 tiene la propiedad que 0(t) = 0 para todo t en F, se siguede (4-13) que los polinomios PO, PI, . . . , P, son linealmente independientes.Los polinomios 1, x, . . . , x" forman una base de V y, por tanto, la dimensiónde V es (n + l). Asi el conjunto independiente {P0, Pl, . . . , P,,} tiene que sertambién una base de V. Con lo que para todo ƒ de V

(4-14) f = _f:of(¢t›Pt.La expresión (4- 14) se llama la fórmula de interpelación de Lagrange. Poniendof = xl en (4-14), se tiene

xr = ã <¢t›fP.-.1'-0

Ahora bien, del Teorema 7 del Capítulo 2, se sigue que la matriz

1 to tg ¿32 C00 n(4-1f›› É É' É' É'

1t..t2---tt:es inversible. La matriz en (4-15) se llama una matriz de Vandermonde; es unejercicio interesante demostrar en forma directa que tal matriz es inversiblecuando to, tl, . . . , t,, son n + l elementos distintos de F.

Si f es cualquier polinomio sobre F, en el presente tratamiento se represen-tará por f" la función polinomio de F en F que aplica todo t de F en f(t). Pordefinición (véase Ejemplo 4, Capítulo 2), toda función polinomio surge de estaforma; sin embargo, puede suceder que f" = g` para dos polinomios f y gtales que f =¡ë g. Afortunadamente, como se verá, esta situación poco placen-tera solo sucede en el caso en que F es un cuerpo que tiene un número finitode elementos distintos. Para describir en forma precisa` la relación entre poli-nomios y funciones polinomios, se necesita definir el producto de dos funcio-

Page 141: ASESORES TECNICOS

I)-I .-llgchru lun-al

nes polinomios. Si ƒ, g son polinomios sobre F, -el producto de _/" y g` es lafunción f`g` de F en F dada por

(4-16) (f"e") (1) = f"(¢)a"(¢), ten F-Por la parte (ii) del Teorema 2, (/g)(t) = f(t)g(t), y entonces

(f¶)"(¢) = ƒ`(t)9"(l)para cada t en F. Asi, ƒ`g` = (fg)`, y es una función polinomio. Ahora yaes inmediato, y se deja al lector, verificar que el espacio vectorial de las funcio-nes polinomios sobre F es un álgebra lineal con unidad sobre F si la multipli-cación está definida por (4-16).

Definición. Sea F un cuerpo y sean G y G ` dos álgebras lineales sobre F.Las álgebras G. y (if se dicen isomor/as si existe una aplicación biyectiva oz -+ ofde G. en (if tal que

(a) (ca + d/i)` = ccx` + d/i`(bl (f1fi)` = 1`lf`

para todo ot, B de G. y todo escalar c, d de F. De la aplicación ot -› of se dice quees un isomorfismo de G sobre GÍ Un isomorfismo de G sobre @` es entoncesun isomorfismo de espacios vectoriales de G, sobre G. ` que tiene, además, la pro-piedad (b) de «preservar›› productos.

Ejemplo 4. Sea V un espacio vectorial de dimensión n sobre el cuerpo F.Por el Teorema 13 del Capitulo 3 y las observaciones subsecuentes, cada baseordenada (B de V determina un isomorfismo T-› [T](B del álgebra de los ope-radores lineales sobre V sobre el álgebra de las matrices n >< n sobre F. Supón-gase ahora que U es un operador lineal fijo y que se ha dado un polinomio

f= šC¡íC¡ _a=ocon coeficientes c,- en F. Entonces

flw=šawe-oy como T-› [T]¿B es una aplicación lineal,

tfwn@ = 55 C.-[Usat-oAhora, del hecho adicional que

[T|T2]m = [T1]<s[T2]mpara todo T1, T2 en L(V, V), se sigue que

[U*]<s = ([U]<s)'} 2 S i S TL-

Como esta relación es válida también para i = 0, 1 se tiene el resultado

(4-17) [ƒ(U)]e = f([U]e)-

Page 142: ASESORES TECNICOS

I'nlt'nm›ttos IIS

I-Ín otras palabras, si U es un operador lineal sobre V, la matriz de un polinomioen U. en una base dada es el mismo polinomio en la matriz de U.

Teorema 3. Si F es un cuerpo que tiene un número infinito de elementosdistintos, la aplicación f -› f" es un isomorfismo del álgebra de polinomios sobreF, sobre el álgebra de las funciones polinomios sobre F.

Demostración. Por definición, la aplicación es sobreyectiva y si f, g perte-uecen a F[x] es evidente que

(Cf + 119)" = df` + dll"para todo escalar c y d. Como ya se ha visto que (fg)" = f`g`, se necesitasolo demostrar que la aplicación es inyectiva. Para ello es suficiente, por lalinealidad, demostrar que f" = 0 implica f = 0. Supóngase, entonces, que fes un polinomio de grado n, 0 menor, tal que f~ = 0. Sean to, t,, . . . , t,,, n + 1elementos distintos cualesquiera de F. Como f` = 0, f(t,-) = 0 para i = 0,I, n, y es una inmediata consecuencia de (4-14) que f = 0. I

De los resultados de la siguiente sección obtendremos una demostracióntotalmente diferente de este teorema.

Ejercicios

l. Usando la fórmula de interpolación de Lagrange, hallar un polinomio f, con coeficien-tes reales, tal que f tenga grado 53 y que f(- l) = -6, f(O) = 2. f(l) = -2, j`(2) = 6.

2. Sean oz, B, y, ô números reales. Se pregunta, ¿cuándo es posible hallar un polinomiofsobre R, de grado no mayor que 2, tal que f(-l) = ot, fll) = Il, _/'(3) = 'y y f(O) = 6'?Demostrar que ello solo es posible si. y solo si

3a + 66 - 'r - 85 = 0~3. Sea F el cuerpo de los números reales,A-l

p = (zi: - 2)(a: - 3)(x -1).

(a) Demostrar que p(A) = 0.(b) Sean Pl, P2, P3 los polinomios de Lagrange para t, = 2, tz = 3, ts = l. Calcular

E, = P¡(A), i= 1, 2, 3.(c) Demostrar que E, + E, + E3 = 1, E¿E¡ = 0 si iqé i, Ef = E,-.(d) Demostrar que A = 2E, + 3E2 + E3.

OOONJ OONJO OCDQO '-*OOO

4. Sea p = (x - 2)(x - 3)(x - I) y sea T cualquier operador lineal sobre R4 tal quep(T) = 0. Sean Pl, P2, P3 los polinomios de Lagrange del Ejercicio 3 y sea E, = P¡(T),i = 1, 2, 3. Demostrar que

E1+E2+E3=I, E¡Eƒ=0 Si

= Ei, y T = 2E1 E3.

Page 143: ASESORES TECNICOS

l26 A hrltru littcttl

5. Sea n un entero positivo y F un cuerpo. Supóngase que A es una matriz n x n sobre I-` yP una matriz n x n inversible sobre F. Si f es cualquier polinomio sobre F, demostrar que

ƒ(P`1AP) = P“1ƒ(A)P.

6. Sea F un cuerpo. Se han considerado ciertos funcionales lineales especiales en F[xlobtenidos por «evaluación en t››: _

LU) = f(t)-Tales funcionales no son solo lineales, sino que también tienen la propiedad _de que L(fg) =L(f)L(g). Demostrar que si L es cualquier funcional lineal sobre F[x] tal que

L(f¶) = L(ƒ)L(0)para todo f y g, entonces L = 0, o existe un t en F tal que L(_ƒ) = f(t) para todo f.

4.4. Ideales de polinomios

En esta sección se tratarán aquellos temas que dependen ante todo de laestructura multiplicativa del álgebra de los polinomios sobre un cuerpo.

Lema. Supóngase que f y d son polinomios no nulos sobre un cuerpo F talque grd d 5 grd f. Entonces existe un polinomio g de F[x] tal que

f-dg=0 0 grd(f-dg)<grdf.

Demostración. Supóngase quern-1

ƒ = a,,.:c"' + 20 a,-xi, a... af 0y que -1

d=b»$"+ E biílïi11'-0

Entonces m 2 n, y

f - (%`):c'“¬'d = 0 o grad [f - (%ï')x"'“"d] <gradƒ.

Así que se puede toma-r g = x"'¬'. I

Usando este lema se puede ver ahora que el proceso familiar de divisiónde polinomios con coeficientes reales o complejos puede hacerse sobre cual-quier cuerpo.

Teorema 4. Si f, d son polinomios sobre. un cuerpo F y d es diferente de 0,entonces existen polinomios q, r en F[x] tales que

(i) f=dq+r.(ii) 0,r=00grdr<grdd.

Los polinomios q, r que satisfacen (i) y (ii) son únicos.

Page 144: ASESORES TECNICOS

I'olimmtius I27

I›enu›stración. Si j' es 0 o de grd f < grd d, se puede tomar q = 0 y r = f.I-n caso de que f =¡ë 0 y grd f 2 grd d, el lema anterior dice que se puede elegirun polinomio g tal que f - dg = 0 0 grd (f - dg) < grdf. Si f - dg =/= 0 yprd (f - dg) < grd d, se elige un polinomio h tal que (f - dg) - dh = 0, o

grd [f- d(g + h)] < grd (f - dg).

Si se sigue este proceso tantas veces como sea necesario se llega a obtenerpolinomios q, r tales que r = 0 o grd r < grd d. y f = dq + r. Ahora supón-gase que también se tenga f - dql + rl, donde r, =-' 0 o grd r, < grd d. Enton-tonces dq + r_= dql + r, y d(q - ql) = r, - r. Si q - ql =/= 0, entonces«/le - qt) vé 0, y

grd d + grd (q - q,) = grd (r, - r).

Pero como el grado de rl - r es menor que el grado de d, esto es imposibley q - ql = 0. Luego también r, - r = 0. I

Definición. Sea d un polinomio no nulo sobre el cuerpo F. Si f pertenecea F el teorema anterior dice que existe, a lo más, un polinomio q en F[x] talque f = dg. Si tal q existe, se dice que d divide a f, que f es divisible por d, que/` es un múltìplo de d y que q es el cociente de f por d. Se escribirá, pues, q= f/d.

Corolario 1. Sea f un polinomio sobre el cuerpo F y sea c un elemento de F.Entonces f es divisible por x - c si, y solo si, f(c) = 0.

Demostración. Por el teorema, f = (x-- c)q + r. donde r es un polinomioescalar. Por el Teorema 2,

f(c) = 09(0) + f(c) = f(c).Luego r = 0 si, y solo si, f(c) = 0. I

Definición. Sea F un cuerpo. Un elemento c de F se dice raiz, o un cero, de unpolinomio dado f sobre F si f(c) = 0.

Corolario 2. Un polinomio f de grado n sobre un cuerpo F tiene a lo másn raíces en F.

Demostración. La tesis es obviamente cierta para los polinomios de gra-do 0 y grado 1. Supóngase que es cierta para polinomios de grado n - 1. Sia es una raíz de f, f = (x - a)q, donde q tiene grado n - 1. Como flb) = 0si, y solo si, a = b o q(b) = 0, se sigue por la hipótesis de inducción que f tienea lo más n raíces. I

El lector debe observar que la etapa principal en la demostración del Teore-ma 3 se desprende inmediatamente de este corolario.

La derivada formal de un polinomio es de gran utilidad en el estudio delas raices múltiples. La derivada de un polinomio

f=Co'l'C1íC+ -l-0-133"

Page 145: ASESORES TECNICOS

¡JH _-llg rbru lun-al

es el polinomioƒ' = ct + 2c2a: + - -- + nc,,:t:"“1.

También se usa la notación Df f'. La derivación es lineal, esto es, D es unoperador lineal sobre F Se tienen las derivadas formales de orden superior,f" = Dzf, fm = D3f, y así sucesivamente.

Teorema 5 (fórmula de Taylor). Sea F un cuerpo de caracteristica cero,c un elemento de Fy n un entero positivo. Sif es un polinomio sobre f con grdfS n,entonces

f = 550 (9,-P (olx - cr.k= -

Demostración. La fórmula de Taylor es una consecuencia del teoremadel binomio y la linealidad de los operadores D, D2, . . . , D". El teorema delbinomio es fácilmente demostrable por inducción y dice que

(a + b)m = g am-lt bh

donde k=°(tn) ml __ m(m - l)_- - - (rn + 1))

lc kl(m-k)l 1-2---lc

son los conocidos coeficientes binomiales que dan el número de combinacio-nes de m objetos tomados de k en k. Por el teorema del binomio

w” = [C + (w - ¢)]"'= É) c"'*"(:c - c)'°

k==0

= c'"+mc'"“1(x -c) + + (x -c)'"

que es la fórmula de Taylor para el caso f = x'". Sifl

ƒ= E a,,,a:"'m=0

CÍIIOIICCS

D'*f(C) = 23 ¢1››»(D'°=v"')(C)Y

.,>§0D'}{§°) (x - 0)* = (oe - crR-M ataea

=z%z9%9we-o*m lr -

= Eamx”118

=f- I

Page 146: ASESORES TECNICOS

Í 'nltmmtln \ 1:9

l)ebc observarse que. puesto que los polinomios l, (x - c), . . . , (x - c)"son linealmente independientes (véase Ejercicio 6, Sección 4.2), la fórmulade `l`aylor da el único método para escribir f como combinación de los poli-nomios (x - c)'“, (0 S k S n).

Aunque no se den mayores detalles, es tal vez de utilidad mencionar aquique, con una apropiada interpretación, la fórmula de Taylor es también válidapara polinomios sobre cuerpos de característica finita. Si el cuerpo tiene carac-tcristica finita (la suma de un número finito de unidades de F es 0), entoncesse puede tener que k! = 0 en F, en cuyo caso la división de (D'*f)(c) por k! notiene sentido. No obstante, se puede dar sentido a la división de D'f/' por k!,porque cada coeficiente de D'f/` es un elemento de F multiplicado por un enterodivisible por kl Si todo esto resultase confuso, se aconseja al lector restringirsu atención a cuerpos de caracteristica 0 o a subcuerpos de los números com-plcjos.

Si c es una raiz del polinomio _f, la multiplicidad de la raiz c de _/` es el mayorentero positivo r tal que (x - c)' divide a f.

La multiplicidad de una raiz es evidentemente menor 0 igual al grado de f.Para polinomios sobre cuerpos de caracteristica cero la multiplicidad de laraír c def está relacionada con el número de derivadas de f que son nulas en e.

Teorema 6. Sea F un cuerpo de caracteristica cero _v f un polinomio sobrel-` con grdf 5 n. Entonces el escalar ces una raiz de ƒ' de multiplicidad r si, y solo si,

(D'f/`)(f') = 0. 0 5 k 5 r - I(D'f)((') =/= 0-

Demostración. Supóngase que r es la multiplicidad de la raíz c def. Enton-ces existe un polinomio g tal que _/' = (x - c)'g y g(c) =;é 0. De otro modo, fseria divisible por (x - c)'+ ', por el Corolario l del Teorema 4. Por la fórmu-la de Taylor aplicada a g

f = (x - c›f["š:' @ <¢› tx - cn]n-r Dm

2 2 Lg). (1: _ C)f+"¡

(`omo hay solo una manera de escribir f como combinación lineal de las po-tencias (x - c)" (0 5 k 5 n), se sigue que

0si0SkSr-1(D'“ƒ)(Q =

la D'°"'g(¢)Fm si r S lc S n.

Por tanto, D'ff(c) = 0 para 0 g k g x - 1, y D'f(c) = g(c) qé 0. Recípro-procamentc, si estas condiciones se cumplen, se sigue de inmediato, por la fórmu-la de Taylor, que existe un polinomio g tal que f = (x - c)'g y g(c) qé 0. Supón-gase ahora que r no sea el mayor entero positivo tal que (x - c)' divida a f.lìntonces existe un polinomio h tal que f = (x - c)'“h. Pero ello implica

Page 147: ASESORES TECNICOS

U0 .-I Hrltru linettl

g = (x - c)h, por el Corolario 2 del Teorema I; luego g(c) = 0. que es unacontradicción. I

Definición. Sea F un cuerpo. Un ideal en F[x] es un subespacio M de Ftal que fg pertenece a M siempre que f esté en F[x], y g en M.

Ejemplo 5. Si F es un cuerpo y d es un polinomio sobre F, efconjuntoM = dF[x], de todos los múltiplos df de d por f arbitrario en F[x], es un ideal.En efecto, M no es vacío, ya que contiene a d. Si f, g pertenecen a F[x] y c esun escalar, entonces

c(df) _ de = d(¢f _ 9)pertenece ai M, con lo que M es un subespacio. Finalmente, también M con-tiene a (df)g = d(fg). El ideal M se llama el ideal principal generado por d.

Ejemplo 6. Sean d¡, . _ . , d,, un número finito de polinomios sobre F. Enton-ces la suma M de todos los subespacios d,F[x] es un subespacio y es tambiénun ideal. Para ello supóngase que p pertenezca a M. Entonces existen poli-nomios _/;, _ . . . f, en F[x] tal que p = dlfl + * - ° +d,,fi,. Si g es un polinomioarbitrario sobre F. entonces

ra = dt(fta) + + d..(f»a)de modo que pq también pertenece a M. Así M es un ideal, y se dirá que M esel ideal generado por los polinomios dl, . . . , d,,.

Ejemplo 7. Sea F un subcuerpo de los números reales y considérese elideal

M = (zi: + 2)F[:r:] + ($2 -I- 8:1: + l6)F[:c].

Se afirma que M = F[x]. En efecto, M contiene a

:c2+8:t:-|-16-:c(:c+2) =6:c+l6y, por tanto, M contiene a 6x + 6(x + 2) = 4. Luego el polinomio escalar 1pertenece a M, como también todos sus múltiplos.

Teorema 7. Si F es un cuerpo y M es un ideal no nulo de F[x], existe unúnico polinomio mónico d en F[x] tal que M es el ideal principal generado por d.

Demostración. Por suposición, M contiene un polinomio no nulo; entretodos los polinomios no nulos en M existe un polinomio d de menor grado.Podemos admitir que d es un polinomio mónico. Pues si no se puede multipli-car d por un escalar para hacerlo mónico. Si f pertenece a M, el Teorema 4dice que f = dq + r, donde r = 0 o grd r < grd d. Como d está en M, dq yf - dq = r también pertenecen a M. Como d es un elemento de M de gradomínimo, no se puede tener grd r < grd d, con lo que r = 0. Asi M = dFSi g es otro polinomio mónico tal que M = gF entonces existen polinomiosno nulos p, q tales que d = gp y g = dq. Con lo que d = dpq, y

grd d = grd d + grd p grd q.

Page 148: ASESORES TECNICOS

l'ollnt›mia.t' Lil

Luego grd p = grd q = 0, y como d, g son mónicos, p = q = 1. Así d = g. I

Es importante observar que en la demostración recién dada se ha usadoel caso especial de un hecho más general y útil; a saber, si p es un polinomiono nulo en un ideal M y' si f es un polinomio 'en M que no es divisible por p,entonces f = pq + r, donde el «resto›› r que pertenece a M, es distinto de 0,y tiene grado menor que p. Ya se habia hecho uso de esta situación en el Ejem-plo 7 para ver que el polinomio escalar 1 es el generador mónico del ideal con-siderado allí. En principio, siempre es posible encontrar el polinomio mónicoque genera un ideal dado no nulo. En efecto, se puede obtener, al final, un poli-nomio en el ideal de grado minimal' por un número finito de divisiones sucesivas.

Corolario. Si p¡, _ _ . , p,, son polinomios sobre el cuerpo F, no todos nulos,existe un único polinomio mónico d en F[x] tal que

(a) d pertenece al ideal generado por pl, . . . , p,,;(b) d divide a cada uno de los polinomios p¡.

Todo polinomio que satisface (a) y (b) necesariamente satisface a(c) d es divisible por todo polinomio que divide cada uno de los polinomios

ph ° ' ° › pu'

Demostración. Sea d el generador mónico del ideal

PiF[:r] + + P-FlxlCada elemento de este ideal es divisible por d; así, pues, cada uno de los poli-nomios p, es divisible por d. Supóngase ahora que f es un polinomio que dividea cada uno de los polinomios p,, . . . , p,,. Entonces existen polinomios g,, . . . , g,,tales que p¡ = fg,-, l 5 i 5 n. Asimismo, como d pertenece al ideal

P1F[=v] + ° ° ' + P»FlI].existen polinomios ¿Io ..., q,, en F[x] tal que

d = piqí+ + paqu-Lïon lo que

d = filllql + ' ` ' + gfiqnl-

Se ha mostrado que d es un polinomio mónico que satisface a (a), (b) y (c). Sid' es cualquier polinomio que satisface (a) y (b) se sigue, de (ja) y de la definiciónde d, que d' es un múltiplo escalar de d y que satisface igualmente a (c). Final-mente, en el caso que d' sea un polinomio mónico. se tiene d' -_= d. I

Definición. Si pj, . . . , p,, son polinomios sobre el cuerpo F, no todos nulos,el generador d del ideal

t›1F[X] + ' °' + t›..F[X]se llama el máximo comim divisor (m.c.d.) de pl, _ . . , p,,. Esta terminología está_/`usttficada por el corolario anterior. Se dice que los polinomios pl, 7, . P, p,, sonprimos relativos si su máximo común divisor es l, o en forma equitialeíde. si elideal que ellos generan es todo F

Page 149: ASESORES TECNICOS

I 3.* .I leelmt lineal

Ejemplo 8. Sea C el cuerpo de los números complejos. Entonces

(a) m.c.d. (x + 2, x2 + 8x + 16) = 1 (véase Ejemplo 7).(b) m.c.d. ((x - 2)2(x + i), (x + 2)(x2 + l)) = (x - 2)(x + i). En efec-

to, el ideal(rv - 2)”(=v + 1-`)F[=v] + (10 - 2)(:c2 + l)F[:c]

contiene a(rv - 2)”(w + 15)- (ft - 2)(=v2 + 1) = (11 - 2)(w + 1-`)(i - 2)-

Luego contiene a (x - 2)(x + i), que es mónico y divide a

(rr - 2)2(=v + i) Y (rv - 2)(=v” + 1)-Ejemplo 9. Sea F el cuerpo de los números racionales y en F[x] sea M el

ideal generado por

(11 - 1)(=v + 2)”. (11 + 2)”(1= _ 3), Y (fiv - 3)-Entonces M contiene a

%(=v + 2)”[(fv - 1) - (w - 3)] = (Iv + 2)*y como

(1:-I-2)2= (ze--3)(x+7) - 17

M contiene al polinomio escalar 1. Asi M = F[x] y los polinomios

(iv _ 1)(1= + 2)2› (11 + 2)”(rv - 3), Y (ff _ 3)son primos relativos.

Ejercicios

l. Sea Q el cuerpo de los números racionales. Determinar cuáles de los siguientes subcon-juntos de Q[x] son ideales. Cuando el conjunto es un ideal, encontrar su generador mónico.

(a) todos los f de grado par;(b) todos los f de grado 25;(c) todos los f tales que f(O) = 0;(d) todos los f tales que f(2) = f(4) = 0;(e) todos los f en la imagen del operador lineal T definido por

fl fl _T( '_ i) = _ C' i+1_

tšo C x tšo 2 + 1 x

2. Encontrar el m.c.d. de cada uno de los siguientes pares de polinomios

(a) 2x°-:c3-3:t:2-6:t:+4,:c*+:c3-:c2-2:1:-2;(b) 3:t:*¬l-81122-3,:c3+2:c2+3:t:+6;(c) :z:*-2:t:3-2:c2-2:1:-3,:c3-l-6:i:2+7:c+1.

3. Sea A una matriz n x n sobre el cuerpo F. Demostrar que el conjunto de todos los poli-nomios f en F[x], tales que f(A) = 0, es un ideal.

Page 150: ASESORES TECNICOS

l 't rltnonttos l 33

4. Sea F un subcuerpo de los números complejos y sea

1 -2A _ [0 3].

I-ncontrar el generador mónico de ideal de todos los polinomios f en F[x] tales que/(A) = 0.

S. PSea F un cuerpo. Demostrar que la intersección de cualquier número de ideales enI-'[x] es un ideal.

ti. Sea F un cuerpo. Demostrar que el ideal generado por un número finito de polinomios/',, _ . . , f, en F[x] es la intersección de todos los ideales que contienen a f,, _ _ _ , jÍ,.

7. Sea K un subcuerpo de un cuerpo F y supóngase que f, g son polinomios en K[x]. Sea.MK el ideal generado por f y g en K[x] y MF el ideal que ellos generan en F[x]. Demos-trar que MK y MF tienen el mismo generador mónico.

-1.5. Factorización prima de un polinomio

En esta sección se demostrará que cada polinomio sobre un cuerpo F puedeescribirse como producto de polinomios «primos››. Esta factorización propor-ciona un instrumento eficaz para encontrar el máximo común divisor de unnúmero finito de polinomios, y en particular suministra un recurso efectivopara decidir cuándo los polinomios son primos relativos.

Definición. Sea F un cuerpo. Un polinomio f de F[x] se dice reducible sobreF si existen polinomios g, h en F[x] de grado 21 tales que f = gh, y si no, se diceque es irreducìble sobre F. Un polinomio no escalar irreducìble sobre F se llamapolinomio primo sobre F y a veces se dice solamente que es primo en F

Ejemplo 10. El polinomio x2 + l es reducible sobre el cuerpo C de los nú-meros complejos. En efecto,

=v2+1=(rv+i)(=v-13)y los polinomios x + i, x - i pertenecen a C[x]. Por otra parte, x2 + 1 esirreducìble sobre el cuerpo R de los números reales. Pues si

1:2 + 1 = (ax + b)(a':i: + b')

con a, a', b, b' en R, entonces

aa' = 1, ab' + ba' = 0, bb' = 1.

Estas relaciones implican que az + bz = 0, lo que es imposible con númerosreales a y b, a menos que a = b = 0.

Teorema 8. Sean p, f y g polinomios sobre el cuerpo F. Supóngase que pes un polinomio primo y que p divide al producto fg. Entonces p divide a f, o p di-ride a g.

Demostración. No se pierde generalidad si se supone que p es un polinomioprimo mónico. El hecho de ser p primo simplemente dice que los únicos divi-

Page 151: ASESORES TECNICOS

134 .~tlgebra lineitll

sores mónicos de p son 1 y p. Sea d el m.c.d. de ƒ y p. Entonces. d = l o d = p,ya que d es un polinomio mónico que divide a p. Si d = p. entonces p dividea f, con lo que se habrá demostrado el teorema. Supóngase entonces que d = l.es decir, supóngase que f y p son primos relativos. Se demostrará que p dividea g. Como (f, p) = l, existen polinomios ƒ(`, y po tales que l = _/¿_/` + pop. Mul-tiplicando por g, se tiene

9 = ƒoƒy + inve= (ƒy)ƒ«› + z›(t›«›a)-

Como p divide a _/g, divide también a l_/.Ql/5 y. ciertamente. p divide p(p0,t:).Con lo que p divide a g. I

Corolario. Si p es un primo _i' divide a un producto f, - - ° ƒ,,_ entonces p dt'-ride a uno de los polinomios fl, _ _ _ _ _/,`,.

° Demostración. La demostración es por inducción. Cuando n = 2, la afirma-ción no es más _|ue el Teorema 6. Supóngase que se ha demostrado el corolariopara n = k y que p divide al producto _/`,_ _ _ _ _ _/¿H de ciertos (k + 1) poli-nomios. Como p divide a (I, - - -f,,)fi,_ ,_ p divide a _fi,,_1, o p divide a fl - - - /¿_Por la hipótesis inductiva_ si p divide a _/`1 - - -_/¿_ entonces p divide a paraalgún ¡_ l S i S k. Con lo que se ve que en cualquier caso p debe dividir algún/j-_l5¡sk+l.|

Teorema 9, Si F es un cuerpo, un polinomio mónico no escalar en Fpuede desi-«imponerse en producto de primos ntóniws en F[x] de una maneraúnica. salto en lo que respecta al orden.

Detnm-traei`ón. Supóngase que _/` sea un polinomio mónico no escalar so-bre F_ (`omo los polinomios de grado uno son irreducihlcs. nada hay que demos-trar si grd _/` = l. Supóngase que _/` tiene grado n > l. Por inducción se suponeque el teorema es válido para todo polinomio mónico no escalar de grado menorque n. Si /` es irreducìble está ya factorizado como un producto de primos mó-nicos, y en caso contrario f = gh, donde g y li son polinomios mónicos noescalares de grado menor que n. Con lo que g y li pueden ser factorizados enproducto de primos mónicos en F y. por tanto_ también _/1 Ahora supón-gase que

ƒ;-_pl..¢pm-gqlnonqn

donde pl, _ _ _ , p,,, y q,, _ _ _ , q,, son primos mónicos de F[x]. Entonces pm divideal producto ql - - - q,,. Por el corolario anterior. p,,, debe dividir a algún q,_ Comoq, y pm son ambos primos mónicos, ello quiere decir que

(4-16) Q@ = P-›~Por (4-l6) se ve que m = n --= l si ni = l o n = l. En efecto,

gfad f = ¿âgrad pt- == ¡ågrad q,-_

Page 152: ASESORES TECNICOS

Poltttontltis U5

l n este caso no hay más que demostrar, así que se puede suponer que m > 1t n .“› I. Rcordenando los q se puede suponer entonces que pm = q,, y que

pl ' ° ' pm-lpm = ql ' ' ' qu-lpnv

Aliora por el Corolario 2 del Teorema 1, se sigue que

Pi"'Pm-1=q1"°¶››-1-

i omo el polinomio pl - - - pm_¡ tiene grado menor que n, nuestra hipótesisuiductiva es válida y muestra que la sucesión q,, _ _ _ , q,,_ 1 es a lo más un reor-tleoamiento de la sucesión p,, _ _ _ , pm_,. Esto, junto con (4-16), muestra quela factorización de f como producto de primos mónicos es única, salvo en lo.pic respecta al orden de los factores. I

I-`_n la antedicha factorización de un polinomio no escalar f dado, algunos.le los factores mónicos pueden estar repetidos. Si pl, pz, _ _ _ , p, son los primosmonicos distintos que aparecen en esta factorización de f, entonces

__ Ili Is 'lr(417) ƒ pipa -~-Pr,siendo el exponente n, el número de veces que el primo p,- aparece en la factoriza-rion. Esta descomposición es tambien, obviamente, única, y se llama la descom-posición priina de f. Es de fácil verificación que cada divisor mónico de f tieneI.i forma

pimp2m ' ° ` pik; 0 S mg S ng.

De (4-18) se sigue con que el m.c.d. de un número finito de polinomios mónicosno escalares fl, _ _ _ , fs se obtiene por combinación de todos aquellos primosmónicos que aparecen simultáneamente en la factorización de fl, _ _ _ _ fs. Elexponente con que debe tomarse cada primo es el mayor al que la correspon-diente potencia prima es factor de cada f¡. Si ninguna potencia prima (no trivial)es factor de cada f¡, los polinomios son primos relativos.

Ejemplo ll. Supóngase que F es un cuerpo y sean a, b, c elementos dis-tintos de F. Entonces los polinomios x - a, x - b, x - c son primos mónicosdistintos en F Si m, n y s son enteros positivos, (x - cf es el m.c.d. de losp0lÍl'lOITlÍOS

(I - b)"(=v - 0)' Y (av - a)"'(=v - 0)'inientras que los tres polinomios

(zi: - b)"(:i: - c)', (zi: - a)"*(:i: - c)'. (x - a)"'(a: - b)"son primos relativos.

Teorema 10. Sea f un polinomio mónico no escalar sobre el cuerpo F y sea

f = pi* - - -prla factorización prima de f. Para todo j, 1 S j S k, sea

f,~ = f/pr = _H_ pr.PH

Page 153: ASESORES TECNICOS

I _I(› .-I ligelmt Imeul

Entonces ƒk, _ _ _ , ƒk son primos relativos.

Demostración. Se deja esta demostración (muy fácil) para el lector. Seha enunciado en detalle este teorema, porque se hará referencia a él más ade-lante. I

Teorema ll. Sea f un polinomio sobre el cuerpo F con derivada f'. Enton-ces f es un producto de polinomios irreducibles distintos sobre F si, y solo si, f _rf' son primos relativos.

Demostración. Supóngase que en la factorización prima de f sobre elcuerpo F algún polinomio primo p (no escalar) está repetido. Entonces f = pzhpara algún h en F Entonces

ƒ' = 10211' + 2i›P'hy p es también un divisor de f'_ Luego f y f' no son primos relativos.

Supóngase ahora que f = P1"'Pi., donde Pi, pk son polinomiosirreducibles no escalares distintos sobre F. Sea = f/pj. Entonces

Í' = Pifl 'l' Páfz + ° ° ° 'l' Fift-

Sea p un polinomio primo que divide a f y a f'. Entonces p = pl para algún i.Ahora como p,- divide a para j =;ë ¡_ y como p,- también divide a

itƒ' = 2 Piff

.7=l

se ve que pk debe dividir pkƒi. Por tanto, p, divide a f o a p,f. Pero p, no dividea fi, pues los p,, _ _ _ , pk son distintos. Así pi divide a p,f. Ello no es posible, puesp,f tiene un grado menor que el grado de p¿. Concluimos que ningún primo di-vide a f y a f', o que f y f' son primos relativos. |

Definicióii. El cuerpo F se llama algebraicamente cerrado si todo polinomioprimo sobre F tiene grado l.

Para decir que F es algebraicamente cerrado, todo polinomio mónico irredu-cìble no escalar sobre F debe ser de la forma (x - c). Ya hemos observadoque todo polinomio de éstos es irreducìble para cualquier F. En consecuencia,una definición equivalente de un cuerpo algebraicamente cerrado es la de cuer-po F tal que cada polinomio no escalar f en F[x] puede ser expresado en laforma

.f = ¢(rv - ¢i)"' (Iv - 00""donde c es un escalar, cl, _ _ _ , ck son elementos distintos de F, y nl, _ _ _ , nk sonenteros positivos. Otra formulación es que si f es un polinomio no escalar sobreF, entonces existe un elemento c en F tal que f(c) = 0.

El cuerpo R de los números reales no es algebraicamente cerrado, pues elpolinomio (x2 + 1) es irreducìble sobre R, pero no es de grado 1, o porqueno existe número real c tal que cz + 1 = 0. El llamado teorema fundamentaldel álgebra dice que el cuerpo C de los números complejos es algebraicamentecerrado. No se demostrará este teorema; sin embargo, se lo usará más adelante

Page 154: ASESORES TECNICOS

l'nlnn›n|h›.s I _! 7

en este libro. La demostración se omite, en parte, por limitacion de espacioy, cn parte, porque la demostración depende de una propiedad «no algebraica»del sistema de los números reales. Para una posible demostración, el lectorinteresado puede consultar el libro de Schreier y Sperner en la bibliografía.

El teorema fundamental del álgebra también explica cuáles son las posibi-lidades de factorización prima de un polinomio con coeficientes reales. Si f esun polinomio con coeficientes reales y c es una raíz compleja de f, entonces lacompleja conjugada E es también una raíz de ƒ Por tanto, aquellas raíces com-plejas que no son reales deben aparecer en pares conjugados y el conjunto en-tero de raíces tiene la forma {t,, . . _, tk, cl, 5,, . . . , c,, ê,}, donde 1,, . . . , tkson reales y cl, . . . , c, son números complejos no reales, Con lo que f se des-compone en la forma

ƒ= c(x-ti) (Iv-MP1 pfdonde p¡ es el polinomio cuadrático

P; = (22 '_' C¡)(I _' Éi).

Estos polinomios pi tienen coeficientes reales. Concluimos que todo polinomioirreducìble sobre el cuerpo de los números reales tiene grado 1 o 2. Todo po-linomio sobre R es el producto de ciertos factores lineales obtenidos de lasraíces reales de f y ciertos polinomios cuadráticos irreducibles.

Ejercicios

1. Sea p un polinomio mónico sobre el cuerpo F y sean f y g polinomios primos relativossobre F. Demostrar que el m.c.d. de pf y pg es p.

2. Suponiendo demostrado el teorema fundamental del álgebra, demostrar lo siguiente.Si f y g son polinomios sobre el cuerpo de los complejos. entonces el m.c.d. (f, g) = l si.y solo si. f y g no tienen raíces en común.

3. Sea D el operador de la derivación en el espacio de los polinomios sobre el cuerpo delos números complejos. Sea f un polinomio mónico sobre el cuerpo de los números com-plejos. Demostrar que

f= (w-ci) (I-ci)donde c,, _ _ . , ch son números complejos distintos si, y solo si, f y Df son primos relativos.En otras palabras, f no tiene raíces repetidas sino si, y solo si, f y Df no tienen raíces co-munes. (Supóngase el teorema fundamental del álgebra.)

4. Demostrar la siguiente generalización de la fórmula de Taylor. Sean f, g y h polinomiossobre un subcuerpo de los números complejos, con grdf 5 n. Entonces

11fa) = 2 l,f<*>(h›<g - W.k=ok.(Aquí f(g) representa «f de g››.)

Para el resto de los ejercicios se necesita la siguiente definición. Si f, g y p son polino-mios sobre el cuerpo F con p qé 0, se dice que f es congruente con g módulo p si (f - g) esdivisible por p. Si f es congruente con g módulo p. se escribe

E 2 mód p.

Page 155: ASESORES TECNICOS

138 A Igrbru llnruf

5. Demostrar que para todo polinomio no nulo p, la congruencia módulo p es una rc-lación de equivalencia. Es decir:

(a) Es reflexiva; f E f mód p.(b) Es simétrica; si f E g mód p, entonces g E f mód p.(c) Es transitiva; si f 2 g mód p y g E h mód p. entonces ƒ 2 h mód p.

6. Supóngase que f 5 g mód p y fl E gl mód p.(a) Demostrar que f + f, _=.. g + g, mód p.(b) Demostrar que _[f¡ E gg, mód p.

7. Usando el Ejercicio 7, demostrar lo que sigue. Si f, g, h y p son polinomios sobre elcuerpo Fy p =¡L 0 y si f E g mód p, entonces h(f) E h(g) mód p.8. Si p es un polinomio irreducìble y fg E 0 mód p, demostrar que f E 0 mód p 0g E 0 mód p. Dar un ejemplo que muestre que esto es falso si p no es irreducìble.

Page 156: ASESORES TECNICOS

5. Determinantes

5.1. Anillos conmutativos

En este capítulo demostraremos lo más esencial sobre determinantes dematrices cuadradas. Haremos esto no solo para matrices sobre un cuerpo,sino también para matrices con elementos que son «escalares›› de un tipo másgeneral. Hay dos razones para esta generalidad. Primera, en algunos puntosdel capítulo siguiente tendremos que usar determinantes de matrices con poli-nomios como elementos. Segunda, en el tratamiento de los determinantes quepresentaremos no interviene el axioma de los cuerpos que garantiza un inversomultiplicativo para cada elemento no nulo. Por estas razones es apropiadodesarrollar la teoría de los determinantes de las matrices cuyos elementos per-tenecen a un anillo conmutativo con unidad.

Definición. Un anillo es un conjunto K, junto con dos operaciones(x, y)-›x + y y (x, y)-›_xy que satisfacen:

(a) K es un grupo conmutativo para la operación (x, y)-› x + y (K es gru-po aditivo conmutativo);

(b) (xy)z = x(yz) (la multiplicación es asociativa);(c) x(y + z) = xy + xz; (y + z)x = yx + zx (se cumplen las dos leyes

distributivas).Si xy = yx para todo x e y de K, se dice que el anillo es conmutativo. Si existe

un elemento 1 en K tal que lx = xl = x para todo x, se dice que K es un anillocon unidad, y 1 es la unidad de K.

Se trata aquí de anillos conmutativos con unidad. Tales anillos puedenser descritos brevemente como un conjunto K, junto con dos operaciones que

I39

Page 157: ASESORES TECNICOS

HU .-I l_rn'Iu-u lmvul

cumplen todos los axiomas de cuerpo dados en el Capítulo 1, excepto posi-blemente el axioma (8) y la condición 1 #= 0. Así, un cuerpo es un anillo con-mutativo con unidad distinta de cero en que a cada x distinto de 0 (cero) lecorresponde un elemento x"1 tal que xx* = 1. El conjunto de los enteros,con las operaciones corrientes, es un anillo conmutativo con unidad que noes un cuerpo. Otro anillo conmutativo con unidad es el conjunto de todos lospolinomios sobre un cuerpo, junto con la adición y multiplicación que se handefinido para los polinomios.

Si K es un anillo conmutativo con unidad, se define una matriz m >< n sobreK como una función A del conjunto de los pares (i, j) de enteros, 1 5 i 5 m,1 5 j 5 n. en K. Como es usual, se representará una tal matriz por una dis-posición rectangular que tiene m filas y n columnas. La suma y el productode matrices sobre K se definen igual que para las matrices sobre un cuerpo

(Á + B)a¡ = Aij + Bei(AB)¢f = É A¢I=BI=f

estando definida la suma cuando A y B tienen el mismo número de filas y elmismo número de columnas, y el producto cuando el número de columnasde A es igual al número de filas de B. Las propiedades algebraicas básicas deestas operaciones son también válidas. Por ejemplo,

A(B + C) = AB + AC, (AB)C = A(BC), etc.

Como en el caso de los cuerpos, nos referiremos a los elementos de K comoescalares. Podemos definir entonces combinaciones lineales de las filas o co-lumnas de la matriz como ya se hizo antes. En general, todo lo que previamentese hizo para las matrices sobre un cuerpo es válido para matrices sobre K, ex-cluyendo aquellos resultados que dependen de' la posibilidad de «dividir›› en K.

5.2. Funciones determinantes

Sea 'K un anillo conmutativo con unidad. Vamos a asignar a cada matrizn x n (cuadrada) sobre K un escalar (elemento de K) llamado determinantede la matriz. Es posible definir el determinante de una matriz cuadrada A es-cribiendo simplemente una fórmula para este determinante en términos de loselementos de A. Se puede entonces deducir las diversas propiedades de los de-terminantes partiendo de esta fórmula. Sin embargo, tal fórmula es bastantecomplicada y, para ganar algunas ventajas técnicas, se procederá como sigue.Se definirá una «función determinante» en K"*" como una función que asignaa cada matriz n x n un escalar sobre K, función que tiene estas propiedadesespeciales: es lineal como función de cada una de las filas de la matriz; su valores 0 sobre toda matriz que tenga dos filas iguales y su valor sobre la matriz iden-tidad n >< n es 1. Se demostrará que tal función existe, y que es única, es decir,que existe exactamente una función así. Cuando demostremos la unicidad,obtendremos una fórmula explícita para el determinante junto con muchasde sus propiedades.

Page 158: ASESORES TECNICOS

I h'lvnttttturtli-.v [4 1

lista sección se dedicará a la definición de la «función determinante» y ala demostración de que existe al menos una función semejante.

Definición. Sea K un anillo conmutativo con unidad, n un entero positivo1' seu D una función que asigna a cada matriz n x n sobre K un escalar 'D(A)vn K. Se dice que D es n-lineal si para cada i, l 5 i -_; n, D es una función lineal«Iv la i-ésima fila cuando las otras (n - 1) filas se dejan fijas.

Esta definición requiere cierta explicación. Si D es una función de K'““"en K, y si oil, . . . , ot,, son las filas de la matriz A, se puede escribir también

D(A) = D(a1, . . . , an)

esto es, se puede también considerar D como la función de las filas de A. Laafirmación de que D es n-lineal quiere decir entonces que

(5-1) D(a¡,...,ca,--I-a§,...,a,.) =CD(a1,...,a,-,...,a,._)-I-D(a1,...,ai,...,a,,).

Si se fijan todas las filas, excepto la fila i, y se considera D como función de lalila i, es a veces conveniente escribir D(oz¡) por D(A). Así (5-1) puede abreviar-se como

D(Ca,- -I- ai) = CD(a,-) -I- D(aÍ)

siempre que quede claro su signìficado.

Ejemplo 1. Sean kl, . . . , k,, enteros positivos, 1 5 k¡ 5 n, y sea a unelemento de K. Para toda matriz n'x n, A, sobre K, se define

(5-2) D(A) = aA(1, kl) A(n, kn).

Entonces la función D definida por (5-2) es n-lineal. En efecto, si se conside-ra D como función de la fila i, dejando fijas las otras, se puede escribir

D(a,) = A(i, lc,-)b

donde b es un elemento fijo de K. Sea ot, = (A,f1, . . . , A,f,,). Entonces se tiene

D(ca,- + aifi) = [CA (fi, lc.-) + A'(í, lc,-)]b= cD(a,-) -I- D(a2).

Con lo que D es una función lineal de cada una de las filas de A.Una función n-lineal particular de este tipo es

D(A) = Á111122 ' ' ' Amt-

Es decir, el «producto de los elementos de la diagonal» es una función n-linealsobre K"“".

Ejemplo 2. Se definen todas las funciones 2-lineales sobre las matrices

Page 159: ASESORES TECNICOS

l42 .1 lg|'lIt'u ltmwl

2 x 2 sobre K. Sea D tal función. Si se representan las lìlas de la' matriz 2 x 2por e¡, ez se tiene

D(A) = D(/11161 'i' /11262, Aziéi + A22¢2)-

Utilizando que D es 2-lineal, por (5-1), se tiene

D(A) = AuD(¢1, /12161 + Ázzfz) + Á12D(€2, A216: -i' Áezfa)= ÁuA21D(61, fi) 'Í' A11A22D(¢1, 62)

'l' A12A2lD(¢2› fl) 'Í' AI2/122-D(¢2› 62)-

Con lo que D está completamente determinado por los cuatro escalares

D(¿1› fl): D(¿1› 92); D(f2› fl): y D(e2; ¿2)-

El lector fácilmente podrá verificar lo que sigue. Si a, b, c, d son cuatro esca-lares cualesquiera de K y si se define

D(A) = ÁnÁ21¢1 + ÁuA22b '+' Á12/1216 + Á12A22d

entonces D es una función 2-lineal de las matrices 2 x 2 sobre K y

D(¢1, 61) = Cl, D(€1, E2) = b

D(f-2, fi) = 0, D(¢2, fi) = d-Lema. Una combinación lineal de funciones n-lineales es n-lineal.

Demostración. Basta demostrar que una combinación lineal de dos fun-ciones n-lineales es n-lineal. Sean D y E funciones n-lineales. Si a y b pertene-cen a K, la combinación lineal aD + bE está definida por

(aD + bE)(A) = aD(A) + bE(A).

Luego si fijamos todas las filas, excepto la fila i,

(GD + ÓE) (Ca,- -l- ai) = aD(Ca,- + ai) -I- bE(Ca,- -I- ai)= t1CD(a,-) -+- aD(a¦) -I- bCE(a,-) -I- bE(a¶)

= ¢(¢1D + bE)(a.-) + (GD + bE)(aí)- ISi K es un cuerpo y V es el conjunto de las matrices n x n, el lema anterior

dice lo siguiente: El conjunto de las funciones n-lineales en V es un subespaciodel espacio de todas las funciones de V en K.

Ejemplo 3. Sea D la función definida sobre las matrices 2 x 2 sobre K por

= Á11A22 _' A12A.21.

Ahora bien, D es la suma de dos funciones del tipo descrito en el Ejemplo 1:D = D; + D2

D1(A) = An/122= -"A12A21.

Por el lema anterior, D es una función 2-lineal. El lector que haya tenido algunaexperiencia con los determinantes, no se sorprenderá de este resultado, ya que

Page 160: ASESORES TECNICOS

I )¢'la'rn|h|unh'.\ I4_!

reconocerá en (5-3) la definición corriente del determinante de la matriz 2 x 2.Claro que la función D que se ha definido no es una función 2-lineal típica. Tienevarias propiedades especiales. Anotemos algunas de ellas. Primero, si I es lamatriz identidad 2 x 2, entonces D(I) = 1, es decir, D(e¡, ez) = 1. Segundo,si dos filas de A son iguales, entonces

= A11A12 _' A12A.11 =

Tercero, si A' es la matriz que se obtiene de la matriz 2 ›< 2, A, intercambiandolìlas, entonces D(A') = -D(A); en efecto,

D(A') = /iii/láz _ Áiz/lil= A21/112 _ A22/111= -D(A).

Definición. Sea D una función n-lineal. Se dice que D es altemada si secumplen las siguientes dos condiciones:

(a) D(A) = 0 cuando dos filas de A son liguales.(b) Si A' es una matriz que se obtiene intercambiando dos filas de A, en-

tonces D(A') = -D(A).

Demostraremos más adelante que toda función n-lineal D que cumple (a),automáticamente cumple (b). Hemos puesto las dos condiciones en la defini-ción n-lineal alternada por razones de conveniencia. El lector probablementeobservará que si D satisface (b) y A es una matriz con dos filas iguales, entoncesD(A) = -D(A). Es tentador concluir que D satisface también la condición (a).Esto es cierto, por ejemplo, si K es un cuerpo en el que 1 + l =,é 0, pero en ge-neral (a) no es consecuencia de (b).

Definición. Sea K un anillo conmutativo con unidad y sea n un entero posi-tivo. Supóngase que D es una función de matrices n x n sobre K en K. Decimosque D es una función determinante si D es n-lineal, alternada, y si D(I) = 1.

Como dijimos antes, mostraremos finalmente que existe exactamente unafunción determinante sobre matrices n x n sobre K. Ello se ve fácilmente paralas matrices l x 1, A = [a], sobre K. La función D dada por D(A) = a es unafunción determinante y, evidentemente, es la única función determinante delas matrices 1 x 1. Estamos, pues, en condiciones de considerar el caso paran = 2. La función

D(A) = A111122 "' Á12/121

es una función determinante, como se vio en el Ejemplo 3. Además, la fórmulaencontrada en el Ejemplo 2 muestra que D es la única función determinantesobre las matrices 2 x 2. En efecto, se vio que para cualquier función 2-lineal D

= A1lAflD(f1› fl) + Al1A22D(51› 52)+ A12/121D(G2, 61) 'l' Á12/122D(€2, G2)-

Page 161: ASESORES TECNICOS

144 A I_ig¢-lira ¡tm-al

Si D es alternada, entonces

D(¢1, G1) = D(€2› G2) = 0

D(e2, q) f -D(e1, eg) = -DU).

Si D satisface también D(I) = 1, entonces

D(A) = Á111122 _ 1112/121-

Ejemplo 4. Sea F un cuerpo y sea D cualquier función 3-lineal y alternadade las matrices 3 x 3 sobre el anillo de polinomios F

Seax 0 -1:2

A = [0 1 01 0 xa

Si designamos las filas de la matriz identidad 3 x 3 por el, ez, e¿,, entonces

D(A) = D(:t2e¡ - x2e3, eg, 61 + íltaeg).

Puesto que D es lineal como función de cada fila,

D(A) = rvD(¢i, fz, fi + rvifa) _ fv2D(fa, fe, fi + wifi)= xD(f1t 52! 61) + x4D(fl› 521 63) __ x2D(¿3! G2) fl) _ x5D(f3› G2; ¿3)-

Puesto que D es alternada, se sigue que

= ($4 + x2)D(¿l› 52!

Lema. Sea D una función 2-lineal con la propiedad de que D(A) = 0 paratodas las matrices 2 x 2, A, sobre K que tienen filas iguales. Entonces D es al-ternada.

Demostración. Lo que hay que demostrar es que si A es una matriz 2 x 2y si A' se obtiene intercambiando las filas de A, entonces D(A') = -D(A).Si las filas de A son oz y B, ello quiere decir que se debe demostrar que D(B, ot) =-D(a, B). Como D es 2-lineal,

D(<1 + B, 01 + B) = D(a, 01) + D(<1,B) + D(B, Of) + D(B, B)-Por la hipótesis, D(a + B, oz + B) = D(oz, or) = D(B, B) = 0. Luego

0 = D(0f› B) + D(B› 01)- I

Lema. Sea D una función n-lineal de las matrices n x n sobre K. Supón-gase que D tiene la propiedad de que D(A) = 0, siempre que dos filas adyacentesde A sean iguales. Entonces D es alternada.

Demostración. Debe demostrarse que D(A) = 0 cuando dos filas cuales-quiera de A son iguales, y que D(A') = -D(A) si A' se obtiene por intercambiode dos filas de A. Primero supóngase que A' se obtiene por intercambio de dosfilas adyacentes de A. El lector verá que el razonamiento dado en la demostra-ción del lema anterior se extiende al presente caso y da D(A') = -D(A).

Page 162: ASESORES TECNICOS

I )cl¢'rnu'tuum-.v l 45

Ahora sea B obtenida por intercambio de dos filas i y j de A, con i < j. Sepuede obtener B de A por medio de una sucesión de intercambios de pares delilas adyacentes. Se comienza intercambiando la fila i con la fila (i + 1) y con-tinuando hasta que las filas queden en el orden

Q q 0 , Q U 0 , 0 Q 0 , ana

listo requiere k = j - i intercambios de filas adyacentes. Se mueve ahora orj ala posición i haciendo (k - 1) intercambios de filas adyacentes. Se obtieneasí B a partir de A por k + (k - 1) = 2k - 1 intercambios de filas adyacen-tes. Con lo que

D(B) = (-1)2'=-*D(A) = -D(A).Supóngase que A es cualquier matriz n x n con dos filas iguales, digamos ot, = ot,-,con i < j. Sij = i + 1, entonces A tiene dos filas adyacentes iguales y D(A) = 0.Si ¡` > i + 1, se intercambian oz,-H y otj y la matriz resultante B tiene dos filasadyacentes iguales, entonces D(B) = 0. Por otro lado, D(B) = -D(A), luegoD(A) = 0. I

Definición. Si n > 1 y A es una matriz n x n sobre K, designemos por A(i|j)lu matriz (n - 1) x (n - 1) que se obtiene eliminando la i-ésima fila y la j-ésimacolumna de A. Si D es- una función (n - 1)-lineal y A es una matriz n x n, sehace DU-(A) = D[A(i|j)].

Teorema 1. Sea n > l y sea D una función (n ~ I)-lineal alternada de lasmatrices (n - 1) x (n - 1) sobre K. Para todo j, 1 5 j 5 n, la función EJ- de-finida por

«S-1› E,~(A› = _§¿ (-1›“fAf,-Dt,-(A)es una función n-lineal alternada de las matrices n x n, A. Si D es una funcióndeterminante, también lo es E¡.

Demostración. Si A es una matriz n x n, DU-(A) es independiente de lalila i de A. Como D es (n - 1)-lineal, es claro que DU- es lineal comoI`unción de cualquier fila, excepto la fila i. Por tanto, Ai]-DU-(A) es una fun-ción n-lineal de A. Una combinación lineal de funciones n-lineal es n-lineal;luego Ej es n-lineal. Para demostrar que Ej es alternada bastará demostrarque EJ-(A) = 0 siempre que A tenga dos filas iguales. Supóngase que ak = ak, 1.Si i 7€ k y i 9€ k + l, la matriz A(i|j) tiene dos filas iguales, y así DU-(A) = 0.Por tanto,

E,-(A) = (-1)'°¬"`AtfDt;(A) + (-1)'°¬"¬`¡A<t+i›fD<t+1›f(A)-Cømo ak = ak+1,

Aki = A(k+1›¡ y A(k|Í) = A(k + lil)-lintonces es claro que EJ-(A) = 0.

Supóngase ahora que D es una función determinante. Si 1"" es la matriz

Page 163: ASESORES TECNICOS

146 Al¢¢'lIm llmwl

identidad n x n, entonces I""(¡`|j) es la matriz identidad (n - l) x (n_- l),I'"`"”- Como Ig-" = «SU-, se sigue de (5-4) que

rs-5) E,-(1<»›) = D(1<~-H).Ahora, D(Il"` 1') = l, de donde E,-(IW) = 1 y Ej es una función determinante. I

Corolario. Sea K un anillo conmutativo con unidad, y sea n un entero posi-tivo. Existe al menos una función determinante sobre K'“"'.

Demostración. Se ha demostrado la existencia de una función determi-nante sobre matrices 1 x 1 sobre K y también sobre matrices 2 x 2 sobre K.El Teorema 1 dice explícitamente cómo construir una función determinantesobre matrices n x n, dada tal función sobre matrices (n - 1) x (n - 1). Elcorolario se demuestra por inducción. I

Ejemplo 5. Si B es una matriz 2 x 2 sobre K, sea

= BUBQQ * BQBQ1.

Entonces |B| = D(B), donde D es la función determinante sobre las matrices2 x 2. Hemos mostrado que esta función sobre K2"2 es única. Sea

All AI2 A-13

A = A-21 A-22 A-23

A3! A-32 A33

una matriz 3 x 3 sobre K. Si se define E1, E2, E3 como en (5-4), entonces

l

i/121AaAti_A31

(5'7) E2(A) = _/112

(5'8) Ea(A) = A13

AiƒAaAaAaA-iiA32

_ A2:

A r+ 22ÍA3l

_' Aaa

Au¡A 32

An

An¿A 31

A-13

AaaA-13

AaAmAa

A + Aa_A32

-I-Aaa

A-12

AaAll

A21

:A 11Am

A-13

/123

Ala'AaA 12.A-22;

Se sigue del Teorema 1 que E1, E2, E3 son funciones determinantes. En reali-dad, como se verá más adelante, E1 = E2 = E3, pero esto no se ve, inclusoen este caso sencillo. Se podria, sin embargo, comprobar en forma directa desarro-llando cada una de las expresiones anteriores. En vez de hacerlo se dan algunosejemplos concretos.

(a) Sea K = R[x], y

Page 164: ASESORES TECNICOS

lìt't¢'t'tninunl¢'.\' Í47

I -' n tonces

E,<A›=e-1›“";2 xì3|=<x-1›(±-2)@-3)E,(A)= -3,-ig xì3|+(;i;-2)xB.1 xï3`

= (w = l)(=v - 2)(=v - 3)y

E3(Á)=x8 _ -xšl É -I-(22-3)xB-1 $232!

= (zz: - 1)(x - 2)(x - 3).(b) SeaK=Ry 010

A=00l-100

1001

I 1 n toncesE1(A) = = 1

0 1'

'o 1«I i

lzjerciciosI. Cada una de las siguientes expresiones define una función D sobre el conjunto de lasmatrices 3 x 3 sobre el cuerpo de los números reales. ¿En qué casos es D una funciónl-lineal?

(3) D(A) = An 'l' Aaa 'l' Aaa;(b) D(A) = (/111)* + 3A¡¡A2-¿;(C) D(A) = AnA12/ist;(Ó) D(A) = At:/122-422 'l' 5/112A22/1:2;(0) D(A) = 0;(f) D(A) = 1.

2. Verificar directamente que las tres funciones E1, E2, E3 definidas por (5-6), (5-7) y (5-8)mn idénticas.

l. Sea K un anillo conmutativo con unidad. Si A es una matriz 2 x 2 sobre K, la adjuntalle A es la matriz 2 x 2, adj A, definida por

. A22 'ïA12

adj A = ii-A21 Auïi.'si det representa la función determinante única de las matrices 2 x 2 sobre K, demos-uar que i

(a) (adj A)A = A(adj A) = (det A)I;(b) det (adj A) = det (A) ;(e) adj (A') = (adj A)'.

( l' denota la transpuesta de A.)

Page 165: ASESORES TECNICOS

I48 A Igrbru lmrul

4. Sea A una matriz 2 x 2 sobre un cuerpo F. Demostrar que A es inversible si, y solo si,det A ql= 0. Si A es inversible, dar una fórmula para A".

5. Sea A una matriz 2 x 2 sobre un cuerpo F y supóngase que A2 = 0. Demostrar quepara todo escalar c, det (cl - A) = cz.

6. Sea K un subcuerpo de los números complejos y n un entero positivo. Sean _¡`,, . . . _ /,,y k 1, . . . , k,, enteros positivos no mayores que n. Para una matriz n x n sobre K se delìne

D(A) = A(J'i. k›)A(1'2,kz) A(1'»,k»)-Demostrar que D es n-lineal si, y solo si, los enteros j,, . . . , j,, son distintos.

7. Sea K un anillo conmutativo con unidad. Demostrar que la función determinantesobre las matrices 2 x 2, A, sobre K es alternada y 2-lineal como función de las colum-nas de A.

8. Sea K un anillo conmutativo con unidad. Se define una función D sobre las matrices3 x 3 sobre K por la regla

A A A A A A1_›<A›=A,,det[Aï Ai]-A.,aa[A:; A:J+A.,da[A§:Demostrar que D es alternada y 3-lineal como función de las columnas de A.

9. Sea K un anillo conmutativo con unidad y D una función alternada y n-lineal sobrelas matrices n x n sobre K. Demostrar que

(a) D(A) = 0 si una de las filas es 0;(b) D(B) = D(A) si B se obtiene de A por adición de un múltiplo escalar de una fila

de A a otra.

10. Sean F un cuerpo, A una matriz 2 x 3 sobre F y (c,, cz, c,) el vector en F3 defini-do por

C _ A12 Ala C __ .Ala An C __ Ali An'1 A22 A23, 2 A23 A21, 3 1121 A22

Demostrar que(a) rango (A) = 2 si, y solo si, (c¡, cz, c3) =# 0;(b) si A tiene rango 2, entonces (c,, cz, c¿,) es una base para el espacio de las solucio-

nes del sistema de ecuaciones AX = 0.

ll. Sea K un anillo conmutativo con unidad y sea D una función altemada 2-lineal sobrelas matrices 2 x 2 sobre K. Demostrar que D(A) = (det A )D(l) para toda A. Usar esteresultado (no son lícitos cálculos con los coeficientes) para demostrar que det (AB) =-(det A)(det B) para cualesquiera matrices 2 x 2, A y B, sobre K.

12. Sea F un cuerpo y D una función sobre las matrices n x n sobre F (con valores en F).Supóngase que D(AB) = D(A)D(B) para todo A, B. Demostrar que D(A) = 0 para todaA, o bien D(l) = l. En este último caso demostrar que D(A) =;ë 0 si A es inversible-

13. Sea R el cuerpo de los números reales y sea D una función sobre las matrices 2 x 2sobre R, con valores en R, tales que D(AB) = D(A)D(B) para cualesquiera A, B. Supón-gase que, además,

O 1 1 OD(|:1 0:i)¢D([0

Page 166: ASESORES TECNICOS

I li 'ti'rntlnmttes 149

I)t-mostrar que(a) I)(0) = 0;th) D(A) = 0 si/12 = 0;(e) D(AB) = -D(A) si B se obtiene por intercambio de las filas (o columnas) de A;(d) D(A) = 0 si una fila (o columna) de A es 0;(e) D(A) = 0 si A es singular.

I-1. Sea A una matriz 2 x 2 sobre el cuerpo F. Entonces el conjunto de todas las matri-ces de la forma f(A), donde f es un polinomio sobre F, es un anillo conmutativo con uni-dad K. Si B es una matriz 2 x 2 sobre K, el determinante de B es entonces una matriz 2 x 2sobre F, de la forma f(A). Supóngase que I es la matriz unidad 2 x 2 sobre F y que B esI.i matriz 2 x 2 sobre K

B = [A - A111 -A121-A211 A - A-¿J

Demostrar que det B = f(A), donde f = x2 - (An + A22)x + det A y también que/(A) = 0.

5.3. Permutaciones y unicidadde los determinantes

En esta sección demostraremos la unicidad de la función determinantesobre matrices n x n sobre K. La demostración conducirá de una manera na-tural a estudiar las permutaciones y algunas de sus propiedades básicas.

Supóngase que D es una funciónalternada n-lineal sobre las matrices n x nsobre K. Sea A una matriz n x n sobre K con filas ak, ak, . . . , oz,,. Si se repre-.sentan las filas de la matriz unidad n x n sobre K por 6,, ek, . . . , en, entonces

ts-9) a, = Él A(i, j)¢,, 1 5 1: 5 n.I uego

D(A) = D A<1.f›«,~, at, . . . , «..)= §_:A(1,j)1>(f,-, a2,. _ . , a,,).

Si ahora se remplaza oz, por §A(2, k)ek, se ve que

D(¿J`› a2› ° ° ° 1 an) = É k)D(fj› fic; - - - ; an)-

Así, pues,D(A) = A(l,j)A(2, k)D(e,-, ek, . . . , an).

2.I-`n D(e,-, ek, . . _ , ak) se remplaza ahora oz, por 2 A(3_, 1)e¡ y asi sucesivamente.Finalmente, se obtiene una expresión complicada, pero teóricamente impor-tante de D(A), a saber,

,./

(5-10) D(A) =E A(l, lc¡)A (2, kg) - - - A('n, lc,,)D(e¡,,, ¢¡,,, . . . , e¡,,,).

ki. ka. . . . . kn

Page 167: ASESORES TECNICOS

¡S0 .-1 l,t.'c'hrn llmïll

En (5-10) la suma se extiende sobre todas las sucesiones (kk. k 2, _ _ _ _ k,,) de en-teros positivos no mayores que n. Esto demuestra que D es una suma linila_de funciones del tipo descrito en (5-2). Debe observarse que (5-10) es una con-secuencia directa de la suposición de que D es n-lineal, y que un caso particularde (5-10) se obtuvo en el Ejemplo 2. Como D es alternada,

D(¢ki› fx» - - - › fx.) = 0

siempre que dos de los índices k, sean iguales. Una sucesión (kk, kk, _ _ _ , kn)de enteros positivos no mayores que n, con la propiedad de que no haya dosde los k¡ iguales, se llama permutación de grado n. En (5-10) necesitamos, portanto, sumar solamente sobre aquellas sucesiones que son permutaciones degrado n.

Como una sucesión finita, o n-tuple, es una función definida sobre los pri-meros n enteros positivos, una permutación de grado n puede definirse comouna función biyectiva del conjunto {1, 2, _ _ _ , n} sobre si mismo. Una tal funcióno corresponde a un n-tuple (al, ak, _ _ _ _ an) y es, por tanto, simplemente unaregla para ordenar l, 2, ..., n en alguna forma bien definida.

Si D es una función alternada n-lineal y A es una matriz n x n sobre K. setiene entonces(5-ll) D(A) = 2 A(l, ol) - - - A(n, o'n)D(e,¡, . . . , e,,,)

donde la suma se extiende sobre las distintas permutaciones a de grado n.A continuación mostraremos que

(5-12) D(e,1, . . . , em) = ±D(e1, . . . , 12,.)

donde el signo ± depende solo de las permutaciones o. La razón de ello es comosigue. La sucesión (al, a2, _ _ _ , an) se puede obtener de la sucesión (1, 2, _ _ _ , n)por un número finito de intercambios de los pares de elementos. Por ejemplo,si al =/= l, se puede transponer 1 y al, obteniéndose (al, _ _ _ , al, _ _ _). Proce-diendo así se puede llegar a la sucesión (al, _ _ _ , an) después de n o menos detales intercambios de pares. Como D es altemada, el signo de su valor cambiacada vez que se intercambian dos de las filas e, y ej-_ Así, si se pasa de (1, 2, _ _ _ , n)a (al, a2, _ _ _, an) por medio de m intercambios de pares (i, j), se tendrá

D(f¢1, - . ¢ , fgn) *Í (_l.)mD(f], . - . , fu).

En particular, si D es una función determinante

(5-13) D(e,1, . . . , em) = (- 1)”

donde m depende solo de a, y no de D. Asi, toda función determinante asignael mismo valor a la matriz de filas cal, _ _ _, ed", y este valor es 1 o -1.

Sea ahora el siguiente hecho básico respecto de las permutaciones. Si a esuna permutación de grado n, se puede pasar de la sucesión (1, 2, _ _ _ , n) a lasucesión (al, 02, _ _ _ _ an) por una sucesión de intercambios de pares, y ellopuede hacerse de diversas maneras; pero sin que importe cómo se haya hecho,el número de intercambios empleados es siempre par o impar. La permutación

Page 168: ASESORES TECNICOS

Iti-ti-rntiruum-s 15 I

se llama entonces par o impar, respectivamente. Se define el signo de una per-imitación por

1, si 0 es parsgn a = . _-1, si o es impar

representando aquí el símbolo «l›› el entero l.Se verá más adelante que esta propiedad básica de las permutacionesse

puede deducir de lo que ya se sabe sobre funciones determinantes. Supóngasepor ahora que ello sea así. Entonces el entero m en (5-13) es siempre par si a esuna permutación par, y es siempre impar si a es una permutación impar. Parauna función alternada n-lineal se tiene entonces que

D(€¢1, . . . , G,-1,) = (Sgn 0')D(G1, . . _ , tn)

y por (5-11)

(5-14) D(A) = [2 (Sgn «)A(1, 01) -- - Am, 0-n)]D(1).lis claro que I representa la matriz identidad n x n.

De (5-14) se ve que existe precisamente una función determinante sobrematrices n x n sobre K. Si se representa esta función por det, viene dada por

(5-15) det (A) = E (sgn a)A(1, al) -_- - A(n, an)

donde la suma se extiende sobre las distintas permutaciones a de grado n. Todoesto se puede resumir formalmente como sigue.

Teorema 2 Sea K un anillo conmutativo con unidad y sea n un entero po-sitivo. Existe exactamente una función determinante sobre el ` conjunto de lasmatrices n x n sobre K, y es la función det definida por (5-15). Si D es cualquierfunción alternada n-lineal sobre K"“", entonces para toda matriz n x n, A,

D(A) = (det A)D(¡).Este es el teorema que habíamos buscado, pero se ha dejado un vacío en

la demostración. Este vacío es la demostración de que -para una permutacióndada o, cuando se pasa de (1, 2, _ _ _ , n) a (ol, 02, _ _ _, an) por intercambiode pares- el número de intercambios es siempre par o impar. Este hecho com-binatorio básico puede ser demostrado sin referencia alguna a los determinantes.Pero quisiéramos indicar cómo se desprende de la existencia de una funcióndeterminante sobre las matrices n x n.

Sea K el anillo de los enteros. Sea D una función determinante sobre lasmatrices n x n sobre K. Sea a una permutación de grado n y supóngase quese pasa de (1, 2, _ _ _ , n) a (ol, 02, _ _ _ , an) por m intercambios de los pares (i,j),i=;¿ j. Como se vio en (5-13)

(-1)" = D(e.,¡, . . _ , em)

esto es, el número (-l)'" debe ser el valor de D sobre la matriz de filas6,1, _ ._ , e,,,,_ Si

D(¿¢l› - - ° t Gm) = la

Page 169: ASESORES TECNICOS

IS2 fi l,l¦t'l›t'u lltwul

entonces m debe ser par. SiD(e,1, . _ _ , em) = -1,

entonces m debe ser impar.Como tenemos una fórmula explícita para el determinante de una matri:

n x n y en esta fórmula intervienen las permutaciones de grado n, concluimotlesta sección haciendo algunas observaciones más respecto a las permutaciones.Primero obsérvese que hay exactamente n! = 1 -2 - - - n permutaciones degrado n. En efecto, si a es tal permutación, existen n elecciones posibles para al;cuando esta elección se ha hecho, existen (n - l) elecciones posibles para02; luego (n - 2) elecciones para a3. y asi sucesivamente. En consecuencia,se tienen

n(n-l)(n-2)---2-l='n!

permutaciones a. La fórmula (5-15) para det (A) da así el det-(A) como sumade n! términos, uno por cada permutación de grado n. Un término dado esun producto

Á(l, ol) - - - A('n, an)

de n elementos de A, un elemento de cada fila y un elemento de cada columnaprecedido de signo «+›› o «-››, según que cr sea permutación par o impar.

Cuando las permutaciones se consideran como biyecciones del conjunto{1, 2, _ _ _ , n} sobre sí mismo, se puede definir un producto de permutaciones.El producto de a y r será simplemente la función compuesta ar definida por

(vr) (15) = <f(†(0)-Si e representa la permutación identidad, e(i) = i, entonces cada a tiene unainversa 0-' tal que

00-1 = 0-10 = e.

Se pueden resumir estas observaciones diciendo que, respecto de la operaciónde composición, el conjunto de las permutaciones de grado n es un grupo. Estegrupo se llama grupo simêtrico de grado n.

Desde el punto de vista de productos de permutaciones, la propiedad bási-ca del signo de una permutación es que

(5-16) sgn (ar) = (sgn a) (sgn -r).

Es decir, ar es una permutación par si a y r son ambas pares o ambas impares,mientras que ar es impar si una de las dos permutaciones es impar y la otraes par; se puede ver esto por la definición del signo mediante los sucesivos in-tercambios de los pares (i, j). Puede ser también instructivo indicar cómosgn (ar) = (sgn a)(sgn 1) se desprende de una propiedad fundamental de losdeterminantes.

Sea K el anillo de los enteros y sean a y r permutaciones de grado n. Seanek, _ _ _, en las filas de la matriz identidad n x n sobre K. Sea A la matriz confilas 6,1, _ _ _ , e,,,_ y sea B la matriz con filas e,,1, _ _ _ , e,,,,. La i-ésima fila de A tiene

Page 170: ASESORES TECNICOS

I le-ti'rn|tmn|t¢-s [53

exactamente un elemento no nulo, a saber, el l en la columna 1,. Por lo que esfácil ver que en, es la i-ésima fila del producto de matrices AB. Ahora

det (A) = sgn r, det (B) = sgn 0, y det (AB) = sgn (or).

Así se tendrá que sgn (ar) = (sgn a)(sgn 1), una vez demostrado el siguienteteorema.

Teorema 3. Sea K un anillo conmutativo con unidad y sean A y B matri-ces n x n sobre K. Entonces

det (AB) = (det A)(det B).

Demostración. Sea B una matriz n x n dada sobre K, y para cada matrizn x n, A, definase D(A) = det (AB). Si se designan las-filas de A por ak, _ _ _ _ ak,entonces

D(C!1, . . . , (In) = (1813 ((!1B, . . . , (1nB).

Aquí oz,-B representa la matriz 1 >< n que es el producto de la matriz 1 x n, oz,-, yla matriz n x n, B. Como

(cai -I- ot¦)B = ca,-B -I- ot¶B

y det es n-lineal; es fácil ver que D es n-lineal. Si oz, = or,-, entonces <x¡B = oz,-B,y como det es alternada

D((11,...,a1¡)=O.

Luego D es alternada. Ahora bien, D es una función alternada n-lineal, y porel Teorema 2

D(A) = (det A)D(I)_

Pero D(I) = det (IB) = det B, con lo que

det (AB) = D(A) = (det A)(det B). I

Que sgn (ar) = (sgn a)(sgn r) es solo uno de los muchos corolarios del Teo-rema 3. Se considerarán algunos de estos corolarios en la siguiente sección.

Ejercicios

I. Si K es un anillo conmutativo con unidad y A es la matriz sobre K dada porO a b

A = -a O c-b -c O

2. Demostrar que el determinante de la matriz de Vandermonde1 a a*[1 _ M]

es (b - a)(c - a)(c - b). 1 C cz

Demostrar que det A = 0.

Page 171: ASESORES TECNICOS

154 A Levitra ltnrall

3. Escribir explícitamente las seis permutaciones de grado 3, decir cuáles son impartay cuáles son pares y usar esto para dar la fórmula completa (5-IS) del determinante de unnmatriz 3 x 3.

4. Sean 0 y 1: las permutaciones de grado 4 definidas por al = 2, 02 = 3, 03 = 4, a4 ¬-¬ I.1:1=3,1:2=1, 1:3=2, 't:4=4_

(a) ¿Es 0 impar o par? ¿Es 1: impar o par?(b) Hallar 01: y 1:0.

5. Si A es una matriz n x n inversible sobre un cuerpo, demostrar que det A 7€ 0.

6. Sea A una matriz 2 x 2 sobre un cuerpo. Demostrar que det (I + Al = 1 + det Asi, y solo si, traza (A) = 0.

7. Una matriz n x n, A, se llama triangular si AU = O, siempre que i > j 0 si A,-¡ =- llsiempre que i < j. Demostrar que el determinante de una matriz triangular es el productoA “An - = - A,,,, de los elementos de su diagonal.

8. Sea A una matriz 3 x 3 sobre el cuerpo de los números complejos. Formamos la matri?xl - A con elementos polinomiales, siendo el elemento i, j de esta matriz el polinomio6,,-x - A,-¡_ Si f = det (xl - A), demostrar que f es un polinomio mónico de grado 3.Si se escribe

f = (15 _ C1)(1? _ 02)@ '_ Ca)con números complejos cl, cz y ek, demostrar que

ck + cz + ca = traza (A) y ckczck = det A.

9. Sea n un entero positivo y F un cuerpo. Si 0 es una permutación de grado n, demos-trar que la función

0 0 0 , í I 0 0 , xfln)

es un operador lineal inversible en F".

10. Sean F un cuerpo, n un entero positivo y S el conjunto de las matrices n x n sobre F.Sea V el espacio vectorial de todas las funciones de S en F. Sea W el conjunto de las fun-ciones alternadas n-lineales sobre S. Demostrar que W es un subespacio de V. ¿Cuál es ladimensión de W?

ll. Sea T un operador lineal sobre F". Defínase

D¡~(a¡, _ _ _ , an) = det (Ton, _ _ _ , Tan).

(a) Demostrar que DT es una función alternada n-lineal.(b) Si

c 1 u 0 0 ,

demostrar que para n vectores ak, _ _ _, ot, arbitrarios se tiene

det (Ton, _ _ _ , Ta,,) = cdet (oq, _ _ _ , an).

(c) Si (B es cualquier base ordenada de F" y A es la matriz de Ten la base ordenada Q,demostrar que det A = c.

(d) ¿Qué nombre apropiado se podría dar a c?

12. Si 0 es una permutación de grado n y A una matriz n x n sobre el cuerpo F con vec-tores fila oq, _ _ _, ot,,, sea o(A) la matriz n x n con vectores fila oral, _ _ _ , ot,,,_

Page 172: ASESORES TECNICOS

l)r'it'rmt`mmtt°.\' U5

(a) Demostrar que o(AB) = o(A)B y, en particular, que o(A) = o(I)A_(b) Si T es el operador lineal del Ejercicio 9, demostrar que la matriz de T en la base

canónìca es o(I)_ _(c) ¿Es o_'(I) la matriz inversa de 10(1)?(d) ¿Es cierto que o(A) es semejante a A?

l3. Demostrar que la función signo de las permutaciones es única en el siguiente sentido:Si I' es cualquier función que asigna a cada permutación de grado n un entero y si f(ar) =/(o)f(1:), entonces f es idénticamente 0 o j' es idénticamente 1 o f es la función signo.

5.4. Otras propiedades de los determinantes

En esta sección mencionaremos algunas de las más importantes propie-dades de la función determinante sobre las matrices n x n. Probablementelo primero que deberíamos señalar es lo siguiente. En el estudio de det 'A, lasfilas de A han jugado un papel privilegiado. Como no existe diferencia funda-mental entre filas y columnas, se puede muy bien esperar que det A sea unafunción alternada n-lineal de las columnas de A. Este es el caso, y para demos-trarlo es suficiente hacer ver que

(5-17) det (A ') = det (A)

donde A' representa la transpuesta de A.Si cr es una permutación de grado n,

A'(i, ai) = A(ai_ z).Por la expresión (5-15) se tiene entonces

det (A ') = E (sgn a)A(a1, 1) - - - A(an, tt).

Si i= cflj, A(ai, i) = A(¡', a"j)_ Con lo que

A(«1, 1; Aun, -1) = A(1,_«-11) --- A(-1,@-tn).Como 00'* es la permutación identidad

(sgn a) (sgn 0-1) = 1 o sgn (a-1) = sgn (a).

Además, como a varía sobre todas las permutaciones de grado n, también lohace 0". Por tanto,

det (A ') = E (sgn a"1)A (1, a-11) - - - A(n, a“*n)

= det Aque demuestra (5-17).

En ciertas ocasiones se necesita calcular determinantes dados. Cuando elloes necesario, suele ser útil aprovechar la siguiente propiedad. Si B se obtienede A por la adición de un múltiplo de una fila de A a otra (o un múltiplo de unacolumna a otra), entonces

(5-is) deis = dem.

Page 173: ASESORES TECNICOS

I50 A lgi-bm ¡tm-al

Se demostrara'| la afirmación para las filas. Sea B la que se obtiene de A por laadición de ca, a ot,, donde i < j. Como det es lineal como función de la i-ésimalila

detB = detA +cdet(a1,___,a,-,.__,a,-,. _ _,a,,)= det A.

Otra propiedad útil es la siguiente. Supóngase que tenemos una matrizn x n en forma de bloque

[A B0 C]donde A es una matriz r x r, C' una matriz s x s, B una matriz r x s y 0 re-presenta la matriz nula s x r. Entonces

(5-19) det [â 2] = (det A)(det 0).Para demostrarlo, se define

D(A, B, c) = det [34Si fijamos A y B, entonces D es alternada y s-lineal como función de las filasde C. Así, por el Teorema 2

D(A, B. C) = (det C)D(A, B, Í)donde I es la matriz identidad s x s. Restando múltiplos de las filas de I delas filas de B y usando la afirmación (5-18), se tiene

D(A, B, I) = D(A, 0, I).

Ahora, D(A, 0, I) es evidentemente alternada y r-lineal como función de lasfilas de A. Así, pues,

D(A, 0, I) = (det A)D(I, 0, I).

Pero D(I, 0, I) = 1. con lo que

D(A, B, C) -= (det C)D(A, B, I)= (det C)D(A, 0, I)= (det C)(det A).

Por un razonamiento del mismo tipo, o tomando transpuestas

(5-20) det [É 2,] = (det A)(det 0).Ejemplo 6. Supóngase que K es el cuerpo de los números racionales y

que se desea calcular el determinante de la matriz 4 x 4

l-*|-P-[OI-I Ñl-*l\')l-I* CAD!-*QKO ©l'-*[\'JC›0

A: __.

Page 174: ASESORES TECNICOS

I)¢-terntinantvs ¡S7

Restando múltiplos adecuados de la fila l, de las filas 2, 3 y 4, obtenemos lamatriz

OOO'-* C»0CJ'tl-Pl-l I-*¢D|-PN)

E5ee- -4

-3que según (5-18) tiene la misma matriz que A. Si se resta É veces la fila 2 de lafila 3 y luego se resta % veces la fila 2 de la fila 4. se tiene

OOO*-\ OOI-lät-I t-l>~t-län-lil@ Own-l>~C«O

B= _

y nuevamente det B = det A. La forma bloque de B dice que

1 -1 -4 -sdetA=detB_|0 ,LH 4 0|_4(a2)_12s_Sea ahora n > 1 y sea A una matriz n x n sobre K. En el Teorema l se vio

cómo construir una función determinante sobre las matrices n x n, dada unade las matrices (n - 1) x (n - 1). Ahora que se ha demostrado la unicidadde la función determinante, la fórmula (5-4) dice lo siguiente. Si se fija cual-quier columna de índice j,

det A = _š1(-1)f+›'A,-,- det A(i|j).El escalar (-1)"*¡ det A(i|j) se suele llamar cofactor i, j de A, o cofactor delelemento i, j de A. La expresión anterior para det A es entonces llamada desarro-llo del det A por cofactores de la j-ésima columna (o, a veces. desarrollo pormenores de la j-ésima columna). Si se hace

C-'i = (“1)i+id0l1A(í|_Í)

entonces la expresión anterior dice que para cada j

detA = É A¡'C¿~J J¡=1

donde el cofactor CU- es (-1)"*" veces el determinante de la matriz (n - 1) x(n - 1) que se obtiene suprimiendo la fila i y la columna j de A.

Si j =¡é k, entonces

aii] Áçkcij =

En efecto, remplazando la columna j de A por su columna k y llamando B lamatriz resultante, entonces B tiene dos columnas iguales y, por tanto,det B = 0. Como B(¡lj) = A(i|j), se tiene

Page 175: ASESORES TECNICOS

153 A lttebru limwl

0 -= detB

= il (- 1)f+f13,-,- det B(t|j)

= il (-1)f+fA_-,_ det A(i|j)

= iii Á¡kCi¡-

listas propiedades de los cofactores pueden resumirse con

É A¡¡¢C¡¡ = dj; det A.í=l

La matriz n x n, adj A, transpuesta de la matriz de los cofactores de A.se llama adjlmta de A. Así

(5-22) (adi A)-f = Ca = (-1)"*" detA(1`l¢)-Las expresiones (5-21) pueden resumirse en la ecuación matricial

(5-23) (adj A)A = (det A)I_

Queremos ver también que A(adj A) = (det A)I. Como A'(i[j) = A(j|i)',se tiene

(--1)*+" det A'(z`|j) = (-1)"+* det A(j|z')que dice simplemente que el cofactor i, j de A' es el cofactorj, i de A. Con lo q.1e

(5~24) adj (A') = (adj A)'

Aplicando (5-23) a A', se tiene

(adj A')A' = (det A')] = (det A)Iy transponiendo _

A(adj A')' = (det A)I_

Usando (5-24) se tiene lo que se deseaba:

(5-25) A(adj A) = (det A)I_Como para las matrices sobre un cuerpo, una matriz n x n, A, sobre K,

se dice inversible sobre K si existe una matriz n x n, A_1, con elementos en K,tal que AA" 1 = A- IA -= I. Si tal matriz existe, es única; en efecto, con el mis-mo razonamiento usado en el Capítulo 1, se ve que cuando BA = AC =_Itenemos que B = C. Las fórmulas (5-23) y (5-25) nos dicen lo siguiente acercade la inversión de matrices sobre K. Si el elemento det A tiene un inverso mul-tiplicativo en K, entonces A es inversible y A" 1 = (det A)"1 adj A es la inversaúnica de A. Recíprocamente, es fácil ver que si A es inversible sobre K. el elemen-to det A es inversible en K. Para ello, si BA = I se tiene

1 = detI = det (AB) = (det A)(det B).Lo demostrado es el siguiente teorema.

Page 176: ASESORES TECNICOS

I)¢'temmtuntes ¡.59

Teorema 4. Sea A una matriz n x n sobre K. Entonces A es inversiblesobre K si, y solo si, det A es inversible en K. Cuando A es inversible, la inversaunica de A es

A_1 = (detA)_1 adj A.

län particular, una matriz n x n sobre un cuerpo es inversible si, y solo si, su de-terminante es distinto de cero.

Debemos señalar que este criterio decisivo para la inversión demuestraque una matriz n x n con una inversa a la izquierda o a la derecha es inver-sible. Esta demostración es completamente independiente de la demostraciónque se dio en el Capítulo 1 para las matrices sobre un cuerpo. Queremos tam-bién indicar que quiere decir la inversión para matrices con elementos polino-mios. Si K es el anillo de los polinomios F[x], los únicos elementos de K queson inversibles son los polinomios escalares no nulos. En efecto, si f y g sonpolinomios y fg = 1, se tiene grd f + grd g = 0, con lo que grd f = grd g = 0;es decir, f y g son polinomios escalares. Así, una matriz n x n sobre el anillode los polinomios F[x] es inversible sobre F[x] si, y solo si, su determinantees un polinomio escalar no nulo.

Ejemplo 7. Sea K = R[x] el anillo de los polinomios sobre el cuerpode los números reales. Sea

A__[:z:2+:c :12+1:| B_[ 2:2-1 :t2+2:|__ :1: - 1 1 ' _ 2:2 - 2x + 3 :1:

Entonces, por un cálculo breve, se tiene que det A = x + l y det B = -6.Con lo que A no es inversible sobre K. Observese que

_ 1 -az-1 _ az -x-2ad'lA_[-:e+1 x2+a:]' ad"B_[-a:2+2a:-3 1:2--1]

y (adj A)A = (x + 1)I, (adj B)B = -61. Es claro que

B'_1 1 x ix -_ 2].

6 -2:2 + 2:1: - 3 1 - 1:2

Ejemplo 8. Sea K el anillo de los enteros y

1 2A"i3 -tj'

_ 4 -2”'d1A”|:-3 1j`

Asi que A no es inversible como matriz sobre el anillo de los enteros; sin em-bargo, se puede también considerar A como matriz sobre el anillo de los nú-meros racionales_ En tal caso A es inversible y

Entonces det A = -2 y

Page 177: ASESORES TECNICOS

MU .-l l_ei-bm lineal

:fi-tf; 11En relación con matrices inversibles queremos mencionar otro hecho ele-

mental. Las matrices semejantes tienen el mismo determinante; esto es, si I' esinversible sobre K y'B = P_1AP, entonces det B = det A. Esto es claro, pues

det (P“1AP) = (det P*1) (det A)(det P) = det A.Esta simple observación permite definir el determinante de un operador linealsobre un espacio vectorial de dimensión finita. Si T es un operador lineal sobreV, se define el determinante de T como el determinante de cualquier matri/ri x n que representa a T en una base ordenada de V. Como todas esas matri-ces son semejantes, todas tienen el mismo determinante y la definición tienesentido. Referente a esto véase el Ejercicio 11 de la Sección 5.3.

Se va a estudiar ahora la regla de Cramer para resolver sistemas de ecua-ciones lineales. Supóngase que A es una matriz n x n sobre el cuerpo F y quese desea resolver el sistema de ecuaciones lineales AX = Y para algún n-tuple(yk, _ , y,,). Si AX = Y, entonces

(adj A)AX = (adj A)Yy asi

(det A)X = (adj A)Y.

Con lo que n(detA)f¢_- = 2 (2-di A)_ 1 '1=l

fl

= ¿E1 (-1)*¬"'z/- det A(i|j)-

Esta última expresión es el determinante de la matriz n x n que se obtiene alremplazar la columna j de A por Y. Si det A = 0, nada de esto tiene sentido;sin embargo, si det A =,¿ 0, se tiene la conocida regla de Cramer. Sea A una ma-triz n x n sobre el cuerpo F tal que det A 9€ 0. Si y,, _ _ _ , y,, son escalares cuales-quiera de F, la solución única X = A_1Y del sistema de ecuaciones AX = Yviene dada por

x- = ---detBis j = 1 n' detA ""'donde B¡ es la matriz n x n que se obtiene de A remplazando la columna j deA por Y.

Al concluir este capítulo deseamos hacer algunos comentarios que sirvanpara ubicar los determinantes en lo que se cree que es la perspectiva adecuada.De vez en cuando es necesario calcular determinantes, y esta sección se dedicó par-cialmente a métodos que facilitan tal trabajo. Pero el papel principal de los deter-minantes en este libro es teórico. No se disputa la belleza de cuestiones comola regla de Cramer. Pero la regla de Cramer es un instrumento ineficaz pararesolver sistemas de ecuaciones lineales, sobre todo porque supone demasia-dos cálculos. Por tanto, uno debe concentrarse en lo que dice la regla de Cramer,

Page 178: ASESORES TECNICOS

I ti-m'ntt'nunta'.r ¡M

mas bien que en cómo calcular con ella. Ciertamente, cuando refl6XÍ0f1am0Ssobre este capitulo, esperamos que el lector insista más en entender qué es laIimción determinante y cómo se comporta que en cómo se calculan delfifmi-nantes de matrices dadas.

lzjercicios

I. Usar la expresión de la adjunta para calcular la inversa de cada una de 125 SÍÉUÍCUWSmatrices 3 x 3.

-2 3 2 eos 0 0 -sen 06 0 3 › 0 1 O4 1 -1 sen 0 0 eos 0

2. Usar la regla de Cramer para resolver los siguientes sistemas de ecuaci0fl¢S 1ÍI1C3|€Ssobre el cuerpo de los racionales.

(a) :z:+ y+ z=l12:z:-6y- z= O3x+4y+2z= O.

(b)3:z:-23,/= 733,/-2z= 632--2:¡:=-1.

3. Una matriz n x n, A, sobre un cuerpo F es antisimétrica si A' = -A. Si Á GS Uflfl ma-triz n x n antisimétrica con elementos complejos y n es impar, demostrar qufi del A = 0.

4. Una matriz n x n, A, sobre el cuerpo F se dice ortogonal si AA' = I. Si A es 0fÍ080f13-1,demostrar que det A = ±l Dar un ejemplo de una matriz ortogonal Paffi ¡H CU211det A = -l.

5. Una matriz n x n, A, sobre el cuerpo de los números complejos se dic@ unitaria siAA* = I (A* denota la transpuesta conjugada de A )_ Si A es unitaria. d€m0SU'3f QUC|det A| = l.

6. Sean T y U dos operadores lineales sobre el espacio vectorial V de dim¢f1SÍÓfl fiflila-Demostrar que

(a) det (TU) = (det T)(dCt U)_(b) T es inversible si, y solo si, det T =/= 0.

7. Sea A una matriz n x n sobre K un anillo conmutativo con unidad. Sllpóflgasfi queA tiene la forma bloque:

Al O ... 0

A=9 *_4:"'90 O Ah

donde las A_¡ son matrices rj x r¡. Demostrar que

det A = Al) A2) ° ° °

8. Sea V el espacio vectorial de las matrices n x n sobre el cuerpo F. Sea 3 UH €|¢m€f1ï0fijo de V y sea TB el operador lineal sobre V definido por TB(A) = AB - BA- DCm0Sll'21f

113 1 O.

un.

Page 179: ASESORES TECNICOS

[62 _-I lgrhru ¡tm-al

9. Sea A una matriz n x n sobre un cuerpo, A =;ë 0. Si r es un entero positivo cualquieraentre l y n, una submatriz r x r de A es cualquier matriz r x r que se obtiene suprimiendo(n - r) filas y (n - r) columnas de A. El rango de A es el mayor entero positivo r tal quealguna submatriz r x r de A tiene determinante no nulo. Demostrar que el rango de A esigual al rango de fila de A (= rango columna de A).

10. Sea A una matriz n x n sobre el cuerpo F. Demostrar que existen a lo más n escala-res c distintos en F tal que det (cl - A) = 0.

ll. Sean A y B matrices n x n sobre el cuerpo F. Demostrar que si A es inversible existena lo más n escalares c en F para los cuales cA + B no es inversible.

12. - Si V es el espacio vectorial de las matrices n x n sobre F y B es una matriz n x n dadasobre F, sean LB y RB los operadores lineales sobre V definidos por LB(A) = BA yRB(A) = AB. Demostrar que

(a) det L3 = (det B)";(b) det RB = (det B)".

13. Sea V el espacio vectorial de todas las matrices n x n sobre el cuerpo de los núme-ros complejos y sea B una matriz n x n dada sobre C. Se define el operador lineal MB enV por MB(A) = BAB*, donde B* = B'_ Demostrar que

det M., = |det B|2~«.Sea ahora H el conjunto de todas las matrices hermíticas en V; A es hermítiea si A = A *_

Entonces H es un espacio vectorial sobre el cuerpo de los números reales. Demostrar quela función TB, definida por TB(A) = BA B*_ es un operador lineal sobre el espacio vectorialreal H, y luego demostrar que TB = |det BP". (Sugerencia: Al calcular det TB. demostrarque V tiene una base que consta de matrices hermíticas y entonces demostrar que det TB =det MB.)14. Sean A, B, C, D matrices n x n, conmutatiras, sobre el cuerpo F. Demostrar que eldeterminante de la matriz 2n x 2n

A BC D]es det (AD - BC).

5.5. Módulos

Si K es un anillo conmutativo con unidad, un módulo sobre K es un sistemaalgebraico que se comporta en forma semejante a un espacio vectorial en queK hace las veces del cuerpo escalar. Para precisar, se dice que V es un módulosobre K (o un K-módulo) si

1. existe una adición (cz, B)-›cz + /3 en V, respecto de la cual V es gru-po conmutativo;

2. existe una multiplicación (c, cz) -› con de elementos cz en V y c en K tal que

(cl -l- c2)a = cia -l- ckaC(a1 + (lg) = CG1 + C02

(cic2)0¢ = Ci(02a)la = a.

Page 180: ASESORES TECNICOS

I)eterminantes I63

Aquí el K-módulo más importante es el de los módulos n-tuples K”. Losmódulos de matrices K'"“" son también importantes. Si V es cualquier módulo,

consideran combinaciones lineales, dependencia lineal e independencia lineal,tal como se hizo en un espacio vectorial. Hay que guardarse de aplicar a V cua-lesquiera resultados sobre un espacio vectorial que dependan de la divisiónpor escalares no nulos, operación de cuerpo que puede no ser lícita en el ani-llo K. Por ejemplo, si ak, _. _, ot, son linealmente dependientes, no se puedeconcluir que algún cz, sea combinación lineal de los otros. Esto-hace más difícilencontrar bases en módulos.

Una base para el módulo V es un subconjunto linealmente independienteque genera el módulo. Esta es la misma definición que se dio para espaciosvectoriales; y la propiedad importante de una base (B es que cada elementode V puede expresarse unívocamente como combinación lineal de (algún nú-mero finito de) elementos de (B. Si se admite en matemática el axioma de elec-ción (véase Apéndice), se puede demostrar que todo espacio vectorial tieneuna base. El lector está bien enterado de que existe una base en todo espaciovectorial generado por un número finito de vectores. Pero este no es el casopara los módulos. Por ello se necesitan nombres especiales para los módulosque tienen base y los que son generados por un número finito de elementos.

Definición. El K-módulo se dice módulo libre si tiene una base. Si V tieneuna base finita de n elementos, entonces V se dice un K-módulo libre con n ge-neradores.

Definición. El módulo V es finitamente generado si tiene un subconjuntofinito que genere V. El rango de un módulo finitamente generado es el menorentero k tal que los k elementos generen V.

Se repite que un módulo puede ser finitamente generado sin tener una basefinita. Si V es un K-módulo libre con n-generadores, entonces V es isomorfoal módulo K". Si {Bk, _ _ _ , B,,} es una base de V, existe un isomorfismo queaplica el vector ckfil + - - - + c,,B,, sobre el n-tuple (cl, _ _ _, c,,) de K”. No esevidente, en forma inmediata, que el mismo módulo V no pueda ser tambiénun módulo libre con k generadores, con k 9€ n. Es decir, no es obvio que dosbases cualesquiera de V'deban tener el mismo número de elementos. La de-mostración de esto es una interesante aplicación de los determinantes.

Teorema 5. Sea K un anillo conmutativo con unidad. Si V es un K-módulolibre con n generadores, entonces el rango de V es n.

Demostración. Se tiene que demostrar que V no puede ser generado pormenos de n de sus elementos. Como V es isomorfo a K", se debe hacer ver que,si m < n, el módulo K" no es generado por los n-tuples al, _ _ _, am. Sea A lamatriz de filas al, _ _ _ , am. Supóngase que cada uno de los vectores de la basecanónìca ek, _ _ _ , 6,, Sea combinación lineal de los ak, Í _ , ot,,,_ Entonces existeuna matriz P en K"“'" tal que

PA=I

Page 181: ASESORES TECNICOS

I64 _-I l_i¦¢'I›ru limwl

II*

donde I es la matriz identidad n x n. Sea A la matriz n x n que sc obtiene aladjuntar n - m filas de 0 a la parte inferior de A y sea P cualquier matriz n x nque tiene las columnas de P como sus primeras n columnas. Entonces

PÃ =I.ì ì

Por consiguiente, det A 9€ 0. Pero como m < n, al menos una fila de A tienetodos los elementos 0. Esta contradicción muestra que al, _ _ _, oc,,, no gene-ran K". I

Es interesante anotar que el Teorema 5 establece la unicidad de la dimensiónde un espacio vectorial (de dimensión finita). La demostración. basada en laexistencia de la función determinante, es bastante diferente de la demostracióndada en el Capítulo 2. Por el Teorema 5, se sabe que «módulo libre de rango n››es lo mismo que el «módulo libre con n generadores».

Si V es un módulo libre sobre K, el módulo dual V* consta de todas las fun-ciones lineales f de V en K. Si V es un módulo libre de rango n, entonces V* estambién un módulo libre de rango n. La demostración es la misma que paraespacios vectoriales. Si {/3,, _ _ _, /ì,,} es una base ordenada de V, existe unabase dual {f,, _. _, ƒ,,} asociada del módulo V*. La función f, asigna a cadaot de V su i-ésima coordenada respecto de { B1, BB)

01 = fi(«)B1 + +f,.(«)B,..Si f es una función lineal sobre V, entonces

f =f(Bi)fi + +f(B._)f__-

5.6. Funciones multilineales

El propósito de esta sección es colocar el estudio de los determinantes enlo que se cree que es la perspectiva adecuada. Se estudiarán las formas miilti-lineales alternantes sobre módulos. Estas formas son la generalización naturalde los determinantes según los presentamos. El lector que no haya leído (o nodesee leer) la breve introducción sobre módulos de la Sección 5.5, puede aúnestudiar con provecho esta sección, leyendo cada vez «espacio vectorial sobreF de dimensión n›› en vez de «módulo libre sobre K de rango n'››_

Sea K un anillo conmutativo con unidad y sea V un módulo sobre K. Sir es un entero positivo. una función L de V" = V x V x x V en K sedice multilineal si L(<x,, _ _ _ , 01,) es lineal como función de cada at,-, cuando losotros ot, se dejan fijos; esto es. si para cada i

L(oz1,._.,coz,--l-B¡,_..,a,)=cL(a1,__.,oz¿,...,oz,-I-L((X1,...,B¡,...,a,-).

Una función multilineal en V' se llama también forma r-lineal sobre V o formamultilineal de grado r sobre V. Tales funciones se llaman r-tensores sobre V.

Page 182: ASESORES TECNICOS

1);-temmnnm-.s ¡(53

l_a colección de todas las funciones multilineales sobre V' se denotará M'(V).Si L y /ll pertenecen a M'(V), entonces la suma L + M:

(L -I- llÍ)(a1, _ _ _ ,a,) = L(a1, _ _ _ ,a,) -I- M(a¡, _ _ _ ,a,)

es también multilineal; y, si c es un elemento de K, el producto cL:

(CL)(a1, _ _ _ , ak) = CL(a1, _ _ _ , af)

es multilineal. Por tanto, M'( V) es un K-módulo -un submódulo del módulode todas las funciones de V' en K.

Si r = 1, se tiene M '(V) = V*, el módulo dual de funciones lineales sobre V.Las funciones lineales pueden ser también usadas para construir ejemplos deformas multilineales de órdenes más elevados. Si fl, _ _ _ , f, son funciones linea-les sobre V, definase

L(al› - - - › af) = fl(a1)f2(a2) ' ` ' fr(ar)-

Evidentemente, L es una forma r-lineal en V.

Ejemplo 9. Si V es un módulo, una fonna 2-lineal sobre V se llama a me-nudo forma bilineal sobre V. Sea A una matriz n x n con elementos en K. En-tonces

L(X, Y) = Y'AX

define una forma bilineal L sobre el módulo K"“'. Análogamente,

M(Of, B) = M16'define una forma bilineal M sobre K".

Ejemplo 10. La función determinante asocia a cada matriz n x n, A,un elemento det A en K. Si det A es considerado como función de las filas de A:

detA = D(a1, _ _ _ , an)

entonces D es una forma n-lineal en K".

Ejemplo ll. Es fácil log'rar una expresión algebraica de la forma r-linealgeneral sobre el módulo K". Si oq, _ _ _, ot, son vectores de V y A es la matrizr x n con filas ak, _ _ _ , ot,, entonces, para cualquier función L de M'(K"),

L(a1, . _ . , Off) = _š1A1j€¡, O52, . . _ , (tf)1=

= _šl A1¡L(€j, O52, _ . . , Off)1€

= š A1¡L(€j, â Agkék, . _ . Oir)1 1 1

_ _ Í2 Í Í

= É É A1¡A2kL(€¡, 61;, O53, _ - _ , af)j=1 k=l

= ã A,,A_,_L(¢,-, __, a3, _ _ _ , a_)._H.3" H

Page 183: ASESORES TECNICOS

166 A lgvbru llmwl

Si se remplazan al, _ _ . , cx, sucesivamente por sus expresiones como combi-naciones lineales de los vectores de la base canónìca y si se escribe A(i, j) porAi,-, se obtiene:(5-26) L(a,, . _ . , a,) = _ É _ 1 A(1, j,) - - - A(†, j,)L(¢,-,, . _ . ¢,~,).

31. . . - ,Jf='

En (5-26) hay un término por cada n-tuple J = (jl, _ . . , j,) de enteros positi-vos entre 1 y n. Hay n' de tales r-tuples. Así, pues, L está completamente deter-minada por (5-26) y los valores particulares

CJ = L(f.1'u - ° ° 2 eiv)

asignados a los n' elementos (e,-1, . . _ , eh). Es también fácil ver que si para cadar-tuple J se elige un elemento c¡ de K, entonces

(5-27) L(a1, . . . , af) = ã A(1,j¡) - - - Á(¶',j,)CJ

define una forma r-lineal sobre K".

Supóngase que L es una función multilineal sobre V' y M es una funciónmultilineal sobre V*. Se define una función L ® M sobre V'*“ por

® MXG1, . . . , (I,-+3) = L(a1, . . . , af)M(af+1, . . . , ag-+1).

Si se piensa de V'*“ como V' x Vs, entonces para oz en V' y B en Vs

(L (X) M)(¢1, B) = L(0=)M(B)-Es claro que L ® M es multilineal sobre V'*s. La función L ® M se llamaproducto tensorial de L y M. El.producto tensorial no es conmutativo. En efec-to, M ® L qé L ® M, a menos que L = 0 o M = 0; sin embargo, el produc-to tensorial se relaciona perfectamente con las operaciones modulares enM' y M”.

Lema. Sean L, L1 formas r-lineales sobre V; sean M, M1 formas s-linealessobre V, y sea c un elemento de K.

(21) (CL+L1)®M=C(L®M)+L1®M;(b) L®(cM+M,)=c(L®M)+L®M1.

Demostración. Se deja como ejercicio.

El producto tensorial es asociativo, es decir, si L, M y N son (respectivamen-te) formas r-, s- y t-lineales sobre V, entonces

(L®M)®N=L®(M®N)-Ello es inmediato por ser la multiplicación en K asociativa. Por tanto, si L1,L2, . . . , L,, son funciones multilineales sobre V", . . _ , V"', entonces el productotensorial

L=L1®"°®L¡¢

Page 184: ASESORES TECNICOS

l)¢'I¢'rtnhun|I¢'.s' I67

está definido, en forma inequívoca, como función multilineal sobre V', donder = rl + - - - + r,,. Se mencionó ya un caso particular al respecto. Si fl, _ . _ , f,son funciones lineales sobre V, entonces el producto tensorial

L = fl ® ' ' ' ®ff

Í/(ax, - - - › af) = f1(0f1) ' ' ' ff(0ff)-viene dado por

Teorema 6. Sea K un anillo conmutativo con unidad. Si V es un K-módulolibre de rango n, entonces M'( V) es un K-módulo libre de rango n' ; en efecto,si {f1› - . . , _fl,} es una base para el módulo dual V*, los n' productos tensoriales

f¡¡®---®j;-r, l_§j,5n,.__,l_§j,_§n

forman una base de M'( V).Demostración. Sea {f¡, __., fi,} una base ordenada`de V* que es dual

de la base {/il, _ _ _ , /ì,,} de V. Para todo vector cx de V se tiene

0 = f1(«)B1 + --- + f»(¢1)B»-Se hacen ahora los cálculos realizados en el Ejemplo 11. Si L es una r-formalineal sobre V y al, _ _ . , oz, son elementos de V, entonces por (5-26)

I/(ab - - - 1 ar) = _ 2 _ jÍ1`i(al) ' ' ' .†;'¢(af)L(Bj1› ° ° ° 1 612)-.ìh - - - »Jr

En otras palabras,

L = _ E _ I/(Bin ° ° ° 1 Bƒflfin ® ' ' ' ®.fÍ¢-Jl» - - - »Jr

Esto muestra que los n' productos tensoriales

(5-30) El = La (X) ° ° ° ®ff.

dados por los r-tuplts J = (j,, _ _ _ , j,) generan el módulo M'( V). Se ve quelas diversas r-formas EJ son independientes como sigue. Supóngase que paracada J tenemos un elemento cj en K y formamos la función multilineal

(5-31) L = ã CJEJ.

Obsérvese que si I = (il, _ _ . , í,), entonces

E.r(13~'»---›fi¡.) ={?'

Por tanto, se ve por (5-31) que

(5-32) cr = L(fl¢., - - - , Ba)-

En particular. si L = 0, entonces c, = 0 para todo r-tuple I. I

Page 185: ASESORES TECNICOS

I68 _-I Ifclvru limwl

Definición. Sea L una forma r-lineal sobre un K-módulo V. Sc diu- qm'L es alternada si L(oz1, ..., oz,) = 0, siempre que or, = al-, con i qé ¡_

Si L es una función multilineal alternada sobre V', entonces

L(al›~--›a1'›°°'›a1`›° °°›af)'= _L(a1›-"›a_i›---›aí›--°›af)-

Es decir, si se transponen dos de los vectores (con indices diferentes) del r-tuple(oq, _ _ _ , a,), el valor asociado de L cambia de signo. Como toda permutacióna es un producto de transposiciones, se ve que L(a,,1, am) = (sgn 0)L(ot¡, _ _ _ , ot,).

Se designa por A'(V) la colección de todas las formas r-lineales sobre V.Es fácil ver que /\'(V) es un submódulo de M'(V)._

Ejemplo 12. Al comienzo de este capítulo se vio que sobre el módulo K"existe precisamente una forma alternada n-lineal D con la propiedad de queD(e1, _ _ _ , e,,) = 1. También se demostró. en el Teorema 2, que si L es cual-quier forma de /\"(K"), entonces

L = L(G1, . . . , €,¡)D.

O sea que /\"(K") es un K-módulo libre de rango I. También se desarrolló unafórmula explicita (5-15) para D. En términos de la notación que ahora esta-mos usando, dicha fórmula se puede escribir

(5-33) D = P (sgn a) fa: ® ' ° ° ® ƒ.,,_

donde fl, _ _ _ , f,, son las funciones coordenadas canónicas sobre K" y la sumase extiende sobre las n! permutaciones diferentes o del conjunto {l, _ _ _, n}.Si escribimos el determinante de una matriz A como

detA = 2).(sgn a) A(al, 1) - - - A(on, n)

entonces se obtiene una expresión diferente de D:

(5-34) D(a1, . - - , an) = El (Sgn 0) f1(a.1) ' ° ° f››(0f«.)

= 2) (sgn a) L(a,1, _ _ _ , am)dondeL=f1®---®j¶,.

Hay un método general para asociar una forma alternada a una forma mul-tilineal. Si L es una forma r-lineal sobre un módulo V y si o es una permutaciónde {l, ___, r}, se tiene otra función r-lineal L, definiendo

L,(a1, _ _ . , 01,) = L(a,1, _ _ _ , an).

Si L resulta alternada, entonces La = (sgn o)L_ Ahora, para cada L en M'(V)se define una función 1t,L en M'(V) por

(5-35) 1r,L = 2) (sgn a)L,

Page 186: ASESORES TECNICOS

l)¢'I¢-rnnnunlm' ¡IW

esto es.(5-36) (1r,L) (a1, _ _ _ , a,) = Z (Sgn 0) L(a.¡, _ _ _ , a,,)_

Lema. n, es una transformación lineal de M'(V) en /\'(V). Si L está en _/\'( V),entonces 1t,L = r!L_

Demostración. Sea I una permutación cualquiera de {l, _ _ _ , r}_ Entonces

(1r,L) (a,1, _ _ _ , a,,) = Z (sgn 0) L(a,,1, _ _ _ , am.)

= (sgn -r) 2 (sgn -ra) L(a,.1, _ _ _ , am).

Como o recorre (una vez) todas las permutaciones de {l, _ _ _ _ r}, también lohace ro. Por tanto,

(1r,L)(a,1, _ _ _ , a,,) = (sgn r)(1r,L)(a1, _ _ _ , a,).

Así, 1t,L es una forma alternada.Si L está en /\'(V), entonces L(oz,,¡, _ _ _, a,,,) = (sgn 0) L(a1, _ _ _, oz,) para

todo 0; luego 1t,L = r!L. I

En (5-33) se demostró que la función determinante D en /\"(K") es

D = 1r._(f1® ®f._)donde f,, _ _ _ , f,, son las funciones coordenadas canónicas sobre K". Hay unaobservación importante que hacer en relación con este último lema. Si K esun cuerpo de característica cero, tal que r! es inversible en K, entonces 1: aplicaM'( V) sobre /\'(V). En realidad, en ese caso es más natural desde cierto puntode vista usar la aplicación rc, = (1/r!)†c en vez de 1:, ya que rc, es una proyecciónde M'(V) sobre A'(V); es decir, una aplicación lineal de M'(V) sobre /\'(V) talque 1c¡(L) = L si, y solo si, L está en /\'(V).

Teorema 7. Sea K un anillo conmutativo con unidad y sea V un K-módulolibre de rango n. Si r > n, entonces /\'(V) = Si 1 5 t 5 n, entonces l\'(V)

es un K-módulo libre de rango

Demostración. Sea {/31, _ _ _, /3,,} una base ordenada de V con base dual{f1, f,,}_ Si L pertenece a M'(V), se tiene

(5-37) L = §L(B_-_.- - . .B,-_)f,-_ ® ®f,-_donde la suma se extiende sobre todos los r-tuples J = (fl, . . . _ in) de ente-ros comprendidos entre 1 y n. Si L es altemada, entonces

L(B;'., - - - , B1.) = 0

siempre que dos de los índices ii sean iguales. Si r > n, entonces en cada r-tuple Jalgún entero debe estar repetido. Con lo cual /\'(V) = {0} si r > n.

Page 187: ASESORES TECNICOS

170 Algrlrra lllwal

Supóngase ahora que l S r 5 n. Si L está en /\'(V), la suma en (5-37) debeextenderse solo sobre los r-tuples J para los que jl, _ _ _ , j, son distintos, ya quetodos los otros términos son 0. Cada r-tuple de enteros distintos entre 1 y nes una permutación de un r-tuple J = (il, _ _ _, j,) tal que j, < - - - < j,_ Estetipo especial de r-tuple se llamará una combinación r-aria de {l, _ _ _ , n}. Hay

(ft) __ nlr r!(n --'r)!

de tales combinaciones.Supóngase que se fije una combinación r-aria J. Sea LJ la suma de todos los

términos en (5-37) que corresponden a las permutaciones de las combinacio-nes J_ Si o es una permutación de { 1, _ _ _ , r}, entonces

L(B,~._, - - - .B,~._) = (Sen 0) L(B,-._ - - - ,Bf_)-Con lo que

(5-38) L., = L(B,-._ . . . _ B,-_)D.fdonde

(5-39) DJ = É? (sgn 0) ff.. ® ®f¡..

= 1ff(f,-_ ® ®f,-_)-Se ve de (5-39) que cada D, es alternada y que

(5-40) L = 2 L(B¡_› - - - › Bf.)D_rcombinación J

para todo L de A'( V). La aserción es que las formas DJ constituyen una-

base de /\'(V). Hemos visto que generan /\'(V) y es fácil ver que son independien-tes. Si I = (il, _ _ _, i,)' y J = (jl, _ _ _ , j,) son combinaciones, entonces

1, 1 = J_DJ(Bíu ° ° ° 7 Bír) = I ;¿ J

Supóngase que se tiene para cada combinación un escalar c¡ y definase

L = ã CJDJ.

De (5-40) y (5-41) se tiene

cf = Ltfie., - - - . Be)-En particular, si L = 0, entonces c, = 0 para cada combinación I. I

Corolario. Si V es un K-módulo libre de rango n, entonces /\"( V) es un K-módulo libre de rango l. Si T es un operador lineal sobre V, existe un único ele-mento c en K tal que

L(Tot1, _ _ _ _ Tot,,) = cL(a¡, _ _ _ , a,,)para cada forma n-lineal alternada de L sobre V.

Page 188: ASESORES TECNICOS

l)¢'t¢'rmlnant¢'.\- I 7!

Demostración. Si L está en /\"(V), entonces evidentementeLT(a¡, . . _ , da) = L(T(I¡, . . . , Tan)

define una forma n-lineal alternada LT. Sea M un generador para el rango 1módulo /\"(V)_ Todo L en /\"(V) es unívocamente expresable como L = aMpara algún a en K. En particular, MT = cM para un cierto c. Para L = aMse tiene

L1' = (aM)r= GM1'

= a(vM)= c(aM)= cL. I

Naturalmente, el elemento c del último corolario es llamado el determinantede T_ De (5-39), para el caso r = n (cuando hay solo una combinación J =(1, _ _ _ _ n)), se ve que el determinante de T es el determinante de la matriz querepresenta T en cualquier base ordenada {B,, _ _ _ , B,,}_ Veamos por qué. Lamatriz representante tiene i, j elementos

Ao' = f¡(TB.~)de modo que

DJ(TB1, _ . . , = E (sgn 0') 01) ° ° 9 A_(n, Un)

= det A.Por otro lado,

DJ(TB1› ° - - › = (det T) 1)-¡(61.1 - ° ° 1 Bu)= det T.

La razón de estas observaciones es que, por medio del Teorema 7 y su corolario,se obtiene una definición del determinante de un operador lineal que no suponeel conocimiento de los determinantes de matrices. Los determinantes de ma-trices pueden ser definidos en términos de determinantes de operadores, en vezde al contrario.

Queremos decir algo más con respecto a las formas especiales r-linealesalternadas D, que se asociaron a una base {f,, _ _ _ , _fl,} de V* en (5-39). Es im-portante entender que D,__(a1, _ _ _ , fz,) es el determinante de cierta matriz r x r. Si

Á¿¡=f_i(0fi)› 1Í'¿Í†›1Í_7-57%esto es, si

0f¢=Á¢1fi1+"'+As'-›5a› 1-<-¿$7

y J es la combinación r-aria (jl, __., j,), entonces

DJ(al› - - › 1 af) = 2 (sgn 0) .l-01) ' ' ' A-(ns jvfl)

Á(1›_Í1) ° ' ' /1(1› ff)= det E E -

A(T› ji) ° ' ` A0.: jr)

Page 189: ASESORES TECNICOS

I 7.' Â lgvln il lmcul

Asi que I)_,(a,_ _ _ _ _ cx,) es el determinante de la matriz r >< r formada por laseoliunuas ¡,, _ _ _ _ 1', de la matriz r ›< n que tiene (los n-tuples coordenados de)al, _ _ _ _ oz, como sus filas. Otra notación que se usa a veces para este determi-nante es

¡, _ __ ô(a¡, _ , a,)_

DJ(al, - . Q , ar) Si ô(B_Íu ° ° ° › BL)

I-Lu esta notación la demostración del Teorema 7 muestra que toda forma r-linealalternada L puede expresarse respecto a una base {[š,, _ _ _ , /3,,} por la igualdad

L(f-ll, - - - ; ar) = j¡<.2_:_ L(B_'¡1› - - - r BJ'f)°

5_ 7. El anillo de Grassman

Muchas de las propiedades importantes de los determinantes y de las for-mas multilineales alternadas se describen mejor mediante una operación demultiplicación sobre formas llamada producto exterior. Si L y M son, respec-tivamente_ formas r- y s-lineales alternadas sobre el módulo V, se tiene un pro-ducto asociado a L y K. el producto tensorial L ® M. Esta no es una formaalternada, a menos que L = 0 o M = 0; sin embargo, se tiene una maneranatural de proyectarlo en /\'“(V). Parecería que

(5-45) L - M = 1r,+.,(L QO M)

fuera la multiplicación «natural›› de las formas altemadas_ Pero ¿lo es?Consideremos un ejemplo concreto. Supóngase que V es el módulo K"

y que fl, _ _ _ , f,, sean las funciones coordenadas canónicas sobre K". Si i 9€ j,entonces

ff ° ff = 1f2(f-' ®f¡)

es la función (determinante)

Du = ff ®ff _ ff ®f.-

dada por (5-39). Supóngase ahora que k es un índice diferente de iy de ¡_ Entonces

Da' ' fk = 1fa[(f¡ ®ff _ fi ®f-') ®fk]= 1fa(f=' ®ff ®fk) _ 1fa(ff ®f«' ®f1=)-

La demostración del lema que sigue a la ecuación (5-36) muestra que para cual-quier forma r-lineal L y para cualquier permutación 0 de {l, _ _ _, r}'

1r,.(L,) = sgn a 1r,(L)

Luego, DU -f,, = 21t3(f¿ ® ® f,,)_ Por un cálculo semejantef, - D,-,, = 21c3(f,- ®j, ® f,,). Con lo que

(ff °f¡) 'fk =f='° (ff 'fkl

Page 190: ASESORES TECNICOS

lìmcrniimnm-s I 73

todo lo cual parece muy prometedor. Pero hay un inconveniente. A pesar delcálculo que se ha hecho, la supuesta multiplicación de (5-45) no es asociativa.En efecto. si l es un índice distinto de los i, j, k, entonces se puede calcular que

Def ° Du = 41f4(f=' ®f¡®fk ®f1)ue

(D-'ƒ 'fkl 'ft = 51f4(f=' ®f¡®fk ®fz)-Con lo que, en general

(ff 'ffl ' (fk 'fz) F* [(ff 'f¡) 'f1=]'fzy se ve que el primer intento de encontrar una multiplicación ha dado una ope-ración no asociativa.

El lector no debe sorprenderse si encuentra más bien fatigoso hacer unaverificación directa para ver que las dos ecuaciones no son asociativas. Ello estipico de la materia, y también es típico que hay un hecho general que simpli-fica considerablemente las operaciones.

Supóngase que L es una forma r-lineal y que M es una forma s-lineal sobreel módulo V. Entonces

1r†+-((1ffL) ® (1f»M)) = 1ff+=(š (SSH 0)(Sgf1 †)L« ® M1)

= E (sgn 0) (sgn T)7rf+a(L¢ ® M1)

donde o varia sobre el grupo simétrico, S,, de todas las permutaciones de { 1, _ _ _ ,r}_ y 1 varía sobre SS. Cada par a, 1 define un elemento (0, 1) de S,+, que permu-ta los primeros r elementos de {l, _ _ _ , r + s} según a, y los últimos s elemen-tos según 1. Es claro que

YQ

San (0, f) = (sgn <†)(Sgn f)

(L ® M)(v.f) = Lv ® L1'-

y que

Por tanto,

7rr+¢[('"`rL) ® (7rsM)] = E sgn (¢7› 7') 7rr+I [(11 ® M)(¢.f)]-

Ahora bien, ya se ha observado que

San (0, †)1ff+«[(L ® M) <«.f›] = 1ff+«(L ® M)-Asi, pues, se sigue que

(5-46) rr,-+«[(1r,L) ® (1r,M = Tlsl 1r,+,(L ® M

Esta fórmula simplifica numerosos cálculos. Por ejemplo, supóngase que setiene una combinación r-aria I = (i,, _ _ _ , i,) y una combinación s-ariaJ = (fl, ._ _ , js). Para simplificar, supóngase, además, que

¿<-~<¿<¿<~-<¿

Page 191: ASESORES TECNICOS

I74 .4l,udIru lineal

Entonces se tienen las funciones determinantes asociadasD; = 1r,(E1)DJ = 7¡'s(-EJ)

donde E, y E, están dados por (5-30). Usando (5-46), se ve inmediatamente que

DI ' DJ = 1ff+-[1ff(EI) (D 'If-(E.r)]= 1'l8l1r,.¡.,(E1 ® EJ).

Como E, ® E, = E,U,, se sigue que

DI ' DJ ='- 118! DIUJ.

Esto sugiere que la ausencia de asociatividad en la multiplicación, (5-45) resultadel hecho de que D, - D, #= D,U,_ Después de todo, el producto de D, y D,debería ser D,U,_ Para remediar esta situación, definiremos un nuevo produc-to, el producto exterior de una forma r-lineal alternada L y una forma s-linealalternada M por

(5.47) L A M = -»_,__(L Q@ M).Se tiene entonces

DI /\ DJ = DI uJ

para las funciones determinantes sobre K", y, si es que hay justicia después detodo, se ha tenido que lograr la multiplicación apropiada de las formas multi-lineales altemadas_ Desafortunadamente, (5-47) deja de tener sentido para elcaso más general en consideración, ya que no es posible dividir por r!s! en elanillo K. Si K es un cuerpo de caracteristica cero, entonces (5-47) tiene sentidoy se puede proceder sin más a demostrar que el producto exterior es asociativo.

Teorema 8. Sea K un cuerpo de característica cero, y V un espacio vectorialsobre K. Entonces el producto exterior es una operación asociativa sobre las for-mas multilineales alternadas sobre V. En otras palabras, si L, M y N son formasmultilineales alternadas sobre V de grados r, s y t, respectivamente, entonces

ÍLAM)AN=LA(MAN)_

Demostración. De (5-47) se sigue que cd(L A M) = cL A dM para cuales-quiera escalares c y d. Luego

r!s!t![(L /\ M) /\ N] = r!s!(L /\ M) /\ t!N

y como 1r,(N) - t!N, se tiene que†!s!u[(L A M) A N] = -›f_+.(L <§)M) A «.(N)

= «__.__t±»__.<L ® M) ® «.<N›1.Por (5-46) se sabe que

†!s!¢[(L A M) A N] = -›f_,___,.(L ® M Q2) N).

Page 192: ASESORES TECNICOS

l)¢'h'rmlnantr.v l 75

Por un cálculo análogo

/\ /\ = 1ff+;+¢(L® M

y, portanto, (LAM)AN=LA(MAN)_ IVolvamos ahora al caso general en el que solo se supone que K es un anillo

conmutativo con unidad. El primer problema es remplazar (5-47) por una de-finición equivalente que opere en general. Si L y M son formas multilinealesalternadas de grado r y s, respectivamente, se construirá una forma canónìcamultilineal alternada L A M de grado r + s tal que

r!s!(L A M) = 1r,+,(L ® M).Recordemos cómo se define 1r,+s(L ® M). A cada permutación o de {l, _ _ _ ,

r + s} se asocia la función multilineal

(5-48) (Sen 0) (L Q) M)_donde

(L ® M)¢(al› ~ ~ - 1 af-H) = ® M)(a¢l› - - ° 1 a0(r-l-0)

y se suman las funciones (5-48) sobre todas las permutaciones a. Hay (r + s)!permutaciones; pero como L y M son altemadas, muchas de las funciones(5-48) son una misma. En realidad, hay a lo más

(r+s)!rlsl

funciones (5-48) distintas. Veamos por qué. Sea SH, el conjunto de las permu-taciones de {l, _ _ _ , r + s}, es decir, sea SH, el grupo simétrico de grado r + s.Como en la demostración de (5-46), se distingue el subconjunto G que constade las permutaciones a que permutan los conjuntos {l, _ _ _ , r} y {r + 1, _ _ _ ,r + s} sobre sí mismos. En otras palabras, 0 pertenece a G si 1 S oi S. r paratodo i entre 1 y r. (Necesariamente se sigue que r + l S oi 5 r + s para todoj entre r + 1 y r + s.) Ahora G es un subgrupo de S,+,, esto es, si a y 1 estánen G, entonces ar” está en G. Evidentemente, G tiene r!s! elementos.

Se tiene una aplicación

s___ i› Mf+-(V)-M0) = (Sen 0) (L O_O M)«.

definida por

Como L y M son alternadas

Mfi=L®M

para todo 'y en G. Luego, como (Na): = Nm para cualquier forma (r + s)-lineal N sobre V, se tiene

'p(T7) '= ¢(7)› 7 en Sr-l-0 7 en G'

Page 193: ASESORES TECNICOS

l7Ó -'Í l_t¦t'Í›I'u llllwll

Esto dice que la aplicación il/ es una constante sobre cada clase lateral (a laizquierda) IG del subgrupo G. Si 1', y 12 están en S,,_S, las clases laterales r,G yr2G son idénticas o disjuntas_ Cada clase lateral tiene r!s! elementos; luego, hay

iii!r!s!

clases laterales distintas. Si S,+,/G representa la colección de todas las claseslaterales, entonces il/ define una función en S,+,/G; es decir, por lo que se havisto, hay una función il/ sobre ese conjunto, de modo que

~P(†) = $(†G)para todo r de S,+s_ _Si H es una clase lateral a la izquierda de G, entoncesi/7(H) = i//(1) para todo I de H.

Se define ahora el producto exterior de las formas multilineales alternadasL y M de grados r y s haciendo

(5-49) L A M = šø (H)donde H varía sobre SH,/G. Otro modo de expresar la definición de L A M esla siguiente. Sea S cualquier conjunto de permutaciones de {l, __., r + s}que contenga exactamente un elemento de cada clase lateral a la izquierda deG. Entonces

(5-50) L A M = 2: (sgn <†)(L QO M).donde o varía sobre S. Claro es que

r!s! L A M = 1r,+,(L ® M)

con lo que la nueva definición es equivalente a (5-47) si K es un cuerpo de ca-racterística cero.

Teorema 9. Sea K un anillo conmutativo con unidad y sea V un módulosobre K. Entonces el producto exterior es una operación asociativa sobre las for-mas multilineales alternadas sobre V. En otras palabras, si L, M y N son formasmultilineales alternadas sobre V de grados r, s y t, respectivamente, entonces

(LAM)AN=LA(MAN)_Demostración. Aunque la demostración del Teorema 8 no se aplica aquí,

sí sugiere cómo tratar el caso general. Sea G(r, s, t) el subgrupo de S,+,+, queconsta de las permutaciones que permutan los conjuntos

{1,___,r}, {r+1,___,r-I-s}, {r+s-I-1,___,r+s+t}

sobre sí mismos. Entonces (sgn u)(L ® M ® N),, es la misma función multi-lineal para todos los u de una clase lateral a la izquierda dada de G(r, s, t). Seescoge' un elemento de cada clase lateral a la izquierda de G(r, s, t) y sea E lasuma de los correspondientes términos (sgn u)(L ® M ® N),,_ Entonces E esindependiente de cómo se hayan elegido los representantes ,u, y

r!s!t! E = 1r,+,+,(L QO M ® N).

Page 194: ASESORES TECNICOS

D|'tcrnu'mmIt'.\° I 77

Se verá, ahora, que (L A M) A N y L A (M A N) son iguales a E.Sea G(r + s, t) el subgrupo de S,,_,+, que permuta los conjuntos

{l,_._,r+s},{r+s+1,___,r+s+t}

sobre si mismos. Sea T cualquier conjunto de permutaciones de {l, _ _ _ , r +s + t} que contenga exactamente un elemento de cada clase lateral de G(r + s, t).Por (5-50)

(L A M) A N = E (sgn †)[(L A M) <§<)N]_donde la suma se extiende sobre las permutaciones r de T. Ahora bien. seaG(r, s) el subgrupo de SH, que permuta los conjuntos

{1,_._,r},{r+l,___,r+s}

sobre sí mismos. Sea S cualquier conjunto de permutaciones de { 1, _ _ _ , r + s}que contenga exactamente un elemento de cada clase lateral a la izquierda deG(r, s). De (5-50) y con lo que se ha visto anteriormente, se sigue que

(L /\ M) /\ N = E (sgn ¢7)(Sgn7)[(L® M)¢®mf

donde la suma se extiende sobre todos los pares 0. t de S >< T. Si se convieneen identificar cada o de S,+s con el elemento de S,+s+, que coincida con o en{l, ___, r+s¦-, y sea la identidad en {r +s +1, ___, r+s+ t}, entoncesse puede escribir

(L A M) A N = E sgn (a-r)[(L(§) M (>_ON).],_0»Pero 7

= (L®M®mra.

Luego(LA M)_ AN= 2sgn(ra)(L()_OM()_ON),,.

Supóngase ahora que se tienefifii = 7202 'Y

con 0,- en S, 1:, en T y y en G(r, s, t). Entonces 1'; ' 1, = -rzyofl y como ozyoflestá en G(r + s, t), se sigue que 11 y tz están en la misma clase lateral a la iz-quierda de G(r + s, t). Por tanto, 1', = 12 y al = 0232 Pero esto implica queo, y oz (considerados como elementos de SHS) pertenecen a la misma claselateral de G(r, s); luego al = oz. Por tanto, los productos to que correspon-den a los

(r+s+t)!(r+s)!(r + s) lt! r!s!

pares (1:, o) de T ›< S son todos distintos y están en distintas clases lateralesde G(r, s, t). Como hay exactamente

U+s+0!rlsltl

Page 195: ASESORES TECNICOS

l78 . Algebra llnml

clases laterales a la izquierda de G(r, s, t) en S,+,+,, se sigue que (L A M) A N = E.Por razonamiento análogo, también L A (M A N) = E. I

Ejemplo 13. El producto exterior está íntimamente relacionado con cier-tas fórmulas para calcular determinantes, conocidas como desarrollos de Laplace.Sea K un anillo conmutativo con unidad y n un entero positivo. Supóngaseque 1 S r S n, y sea L la forma r-lineal alternada sobre K" definida por

All ` ' ° A-lr

L(ã1,...,0!f) =dBt E EAn _ _ _ 11"

Si s = n - r, y M es la forma s-lineal altemada

A-l(r+l) ' ' ' A-lnM(a1,...,a¡)=det E S

Ac(r+1) ° ' ' A-sn

entonces L A M = D, la función determinante sobre K". Esto es inmediato,porque L A M es una forma n-lineal alternada y (como puede verse)

(L /\ M)(€1,. . .,€,¡) = I.

Si ahora se describe L A M en forma apropiada, se obtiene un desarrollo deLaplace de la función determinante de una matriz n x n sobre K.

En el grupo de permutaciones S,,, sea G el subgrupo que permuta l'os con-juntos {l, _ _ _ , r} y {r + 1, _ _ _ ,_ n} sobre si mismos. Cada clase lateral a la iz-quierda de G contiene precisamente una permutación 0 tal que al < 02 < - - -< ar y o_(r + 1) < - - - < on. El signo de estas permutaciones está dado por

0- 1 (_1)¢l+"°+0T+(f(T_l)/2).

El producto exterior L A M está dado por

(L ^ M)(al› ~ - ° › an) = 2 (sgn 0)]/(aUl› - - ~ 1 a¢r)M(a¢(r+1)› ° ° - › ac.)

donde la suma se toma sobre una colección de o, una de cada clase lateral de G.Por tanto,

(L A M›"(«_, _ . _ _ «__› = NQ «_ Le»,-__ . . . _ «_-_›M<«___ . . ._«._.›donde

¿J = (_. 1).i1+ - - - +_i¢+(f(r-1)/2)

kg = t7(T +

En otras palabras,Am ° " As.- Ak__f+1 '° ' Am»

¿gt A _.: : : : :2 CJ' _ _ . < °,"< J A¡._1 ' ' ' Am Á1=__f+1 ' ' ' Aka»

Este es un desarrollo de Laplace. Se pueden obtener otros remplazando los

Page 196: ASESORES TECNICOS

l)i'ti'rml›mnt¢-s l 79

conjuntos {l, _ _ _ _ r} y {r + 1, _ _ _ , n} por dos conjuntos de índices comple-mentarios diferentes.

Si V es un K-módulo, se pueden reunir las diferentes formas de módulosA'(V) y usar el producto exterior para definir un anillo. Por simplificar, se haráesto solo para el caso de un K-módulo libre de rango n. Los módulos A'( V) sonentonces triviales para r > n. Se define

MV) = A°(V) G-)^'(V) G9 ®A"(V)-Esta es una suma directa externa -algo de lo que no se ha tratado previamente.Los elementos de A( V) son los (n + 1)-tuples (L0, _ _ _, L,,) con L, en A'(V).Adición y multiplicación por elementos de K se definen como se hace para los(n + 1)-tuples. Incidentalmente, A°(`V) = K. Si se identifica A'(K) con los(n + 1)-tuples (0, _ _ _ , 0, L, 0, _ _ _ , 0) donde L está en A'(K), entonces A'(K)es un submódulo de A( V) y la descomposición en suma directa

Am = Mtv) ea en'-tv)es válida en el sentido corriente. Como A'(V) es un K-módulo de rango

se ve que A(V) es un K-módulo libre y

rango A(V) = šo

= 2".

El producto exterior define una multiplicación en A(V): Utilícese el productoexterior sobre formas y extiéndasele linealmente a A(V)_ Este producto es dis-tributivo con respecto a la adición de A(V) y da a A(V) estructura de anillo.Este anillo es el anillo de Grassman sobre V*. No es un anillo conmutativo;por ejemplo, si L y M están, respectivamente, en A' y As, entonces

L A M = (-l)"M A L.

El anillo de Grassman es importante en varias partes de la matemática.

Page 197: ASESORES TECNICOS

6. Formas canónicaselementales

6.1 _ Introducción

Se-ha dicho antes que nuestro objetivo principal es el estudio de las trans-formaciones lineales sobre un espacio vectorial de dimensión finita. Hastaahora se han dado ejemplos específicos de transformaciones lineales y se handemostrado algunos teoremas respecto a las transformaciones lineales generales.En el caso de dimensión finita se han empleado bases ordenadas para representartales transformaciones por medio de matrices; y esta representación ha ayu-dado a la comprensión de cómo operan. Se ha explorado el espacio vectorialL( V, W), que consta de las transformaciones lineales de un espacio en otro,y el álgebra lineal L( V, V) que consiste en las transformaciones lineales de unespacio en sí mismo.

En los dos capitulos siguientes se estudiarán los operadores lineales. Nues-tro programa se propone seleccionar un operador lineal T sobre un espaciodedimensión finita V y «separarlo para ver qué es lo que lo hace importante».En esta primera etapa es más sencillo para nuestro propósito usar el lenguajematricial. Vale decir. dado un operador lineal T, encontrar una base ordenadade V en la que la matriz de T tome una forma especialmente simple.

He aquí una ilustración de lo que se intenta. Probablemente las matricesmás sencillas de manejar, fuera de los múltiplos escalares de la matriz unidad,son las diagonales

C1 0 0 °°' 0

O cg O OD= 0 0 C3 ..._0 _

(.)(.)O---c,_

180

Page 198: ASESORES TECNICOS

l*nrnm.\ nuuinnus ¢'Ít'nt¢'nIuh'.\ ¡HI

Sea T un operador lineal sobre un espacio V de dimensión n. Si se puedeencontrar una base ordenada G3 = {oz,, . . _ , oz,,} de V en la que T se pueda ex-presar por medio de una matriz diagonal D (6-1), podrá tenerse más informaciónrespecto a T. Por ejemplo, números simples asociados con T, tales como elrango de T o el detenninante de T, pueden determinarse fácilmente por la ma-triz D. Se pueden expresar explícitamente la imagen y el espacio nulo de T.(`omo [T]¿B = D si. y solo si,

(6-2) Tag = Ckak, IC = 1, . . . , 'n

la imagen será el subespacio generado por aquellos oq, para los que c,, gh 0, yel espacio nulo será generado por los restantes ak. En efecto. parece justo decirque si se conoce una base G3 y una matriz diagonal D para la cual [T](B = D,se podrá responder sin dificultad cualquier pregunta que surja con respecto a T.

¿Se puede representar todo operador lineal T por medio de una matrizdiagonal con respecto a alguna base ordenada? Si no, ¿para qué operadoresF existe una base semejante? ¿Cómo se puede encontrar tal base si existe? Sital base no existe, ¿cuál es el tipo más sencillo de matriz por la cual puede re-presentarse T? Estas son algunas de las preguntas a que se debe responder eneste (y en el siguiente) capítulo. El tratamiento se hará más complicado a medi-da que se vaya viendo cuáles son las dificultades.

6.2. Valores propios

Las observaciones de la introducción sugieren un punto de partida parael análisis del operador lineal general T. Se comienza con (6-2), que sugierese estudien los vectores que son transformados por T en múltiplos de sí mismos.

Definición Sea V un espacio vectorial sobre el cuerpo F y sea T un operadorlineal sobre V. Un valor propio de T es un escalar c de F tal que existe un vectorno nulo ot con Tot = cot. Si c es un valor propio de T, entonces

(a) cualquier ot tal que Tot = con se llama un vector propio de T asociado almlor propio e;

(b) lu colección de todos los oz tales que Tot = coa se llama espacio propioasociado a c.

Los valores propios se llaman también a menudo raíces características,eigenvalores. valores característicos o valores espeetrales. En este libro se usarásolo el nombre de «valores propios».

Si T es cualquier operador y c es cualquier escalar, el conjunto de los vec-tores 1 tales que Tax = con es un subespacio de V. Es el espacio nulo de la trans-I`ormación lineal (T - cl). Se llama a c un valor propio de T si este subespacioes distinto del subespacio nulo, es decir, si (T - cl) no es inyectiva. Si el espaciosoporte I' es de dimensión finita (T - cl), no es inyectiva justamente cuando\u determinante es distinto de 0. En resumen:

Page 199: ASESORES TECNICOS

lllf .-Ilifrlmt llm'ttl

Teorema I. Sea T un operador lineal sobre un espacio V de dimensión finitar sea e un escalar. Las siguientes afirmaciones son equivalentes.

(i) c es un valor propio de T.(ii) El operador (T - cl) es singular (no inversible).

(iii) det (T - cl) = 0.

El criterio del determinante (iii) es muy importante, porque dice cómopueden encontrar los valores propios de T. Como det (T -- cl) es un polinomiode grado n en la variable c, se determinarán los valores propios como las raícesde tal polinomio. Se explica esto con más detalle.

Si (B es cualquier base ordenada de V y A = [T](B, entonces (T - cl) esinversible si, y solo si, la matriz (A - cl) es inversible. En consecuencia; setiene la siguiente definición.

Definición. Si A es una matri: n ›< n sobre el cuerpo F, un valor propiode A en F es un escalar c de F tal que la matriz (A - cl) es singular (no inversible).

Como c es un valor propio de A si, y solo si, det (A - cl) = 0, o en for-ma equivalente, si, y solo si, det (cl - A) = 0, se puede construir la matriz.(xl - A) con elementos polinómicos y considerar el polinomio f = det (xl - A).En tal caso los valores propios de A en F son los escalares c en F tales que f(c) = 0.Por esta razón a f se le llama el polinomio característico de A. Es importanteobservar que f es un polinomio mónico de grado n. Lo cual es fácilmente com-probable por la fórmula para el determinante de una matriz en términos desus elementos.

Lema. Las matrices semejantes tienen el mismo polinomio característico.

Demostración. Si B = P_'AP, entonces

det (xl - B) = det (xl - P_1AP)= det (P"1(:cI - A)P)= det Prl - det (xl - A) - detP= det (xl - A). I

Este lema permite definir el polinomio característico de un operador Tcomo el polinomio característico de cualquier matriz n x n que representaa T en alguna base ordenada de V. Al igual que para las matrices, los valorespropios de T serán las raíces del polinomio característico de T. En particular.esto muestra que T no puede tener más den valores propios distintos. Es im-portante señalar que T puede carecer de valores propios.

Ejemplo 1. Sea T el operador lineal sobre R2 representado, en la basecanónìca, por la matriz

0 --1A ` [1 0]'

Page 200: ASESORES TECNICOS

I-'armas t'am›nt¢'u.\ ¢'lt'nn'ntulr.\ I-V3

El polinomio característico de T (o de A) es

det (xl-A) =|_Í 3: =:t:*+1.

Como este polinomio tiene dos raíces no reales, T no tiene valores propios.Si U es el operador lineal definido sobre C2 y representado por A en la baseordenada canónìca, entonces U sí tiene dos valores propios, i y -i en C.

Ejemplo 2. Sea A la matriz (r.eal) 3 ›< 3

3 1 -12 2 -1 -2 2 0

Entonces el polinomio característico de A es

:c-3 -1 1-2 :i:-2 1=:1:'-5x'-I-8:1:-4=(x-l)(:z:-2)”.-2 -2 x

Con lo que los valores propios de A son 1 y 2..Supóngase que T es el operador lineal sobre R3 representado por A en la

base canónìca. I-Iállense los vectores propios de T asociados a los valores pro-pios 1 y 2. Ahora '

2 1 -1A-I= 2 1 -1-

2 2 -l

Es inmediatamente obvio que A - I tiene rango 2 (y así, pues, T - I tienenulidad 1). Con lo que el espacio de los vectores propios asociado al valor propio1 es unidimensional. El vector al = (1, 0, 2) genera el espacio nulo de T - Í.Así que Tcx = ot si, y solo si, a es un múltiplo escalar de al. Sea ahora

1 1 --1A-2I= 2 0 -1-

2 2 -2

Evidentemente, A - 21 también tiene rango 2, así que el espacio de los vectorespropios asociado al valor propio 2 tiene dimensión l. Es evidente que Tot = 2asi, y solo si, a es un múltiplo escalar de oc, = (1, 1, 2).

Definición Sea T un operador lineal sobre un espacio vectorial de dimensiónfinita V. Se dice que T es diagonalizable si existe una base de V tal que cada vectorsuyo sea vector propio de T.

Page 201: ASESORES TECNICOS

Iñ'-l .-I lgrlmt l lmrrtl

La razón del nombre es clara; en electo, si existe una base ordenada (B Li{ot¡, _ . . , ot,,} de V en la que cada ot, es un vector propio de T, entonces la niatrude T en la base ordenada (B es diagonal. Si Tot, = c¡ot¡, entonces

C1 0 "' 00[T]@= . “E” 9-0 0 cn

Por cierto no se requiere que los escalares cl, . . . , c,, sean distintos, inclusopueden ser todos iguales (cuando T es un múltiplo escalar del operador identidad).

Se podría también definir T como diagonalizable cuando los vectores pro-pios de T generan V. Esto es solo en apariencia distinto a la definición dada.ya que se puede formar una base tomándola de cualquier conjunto generadorde vectores.

En los Ejemplos l y 2 se han elegido a propósito operadores lineales T sobreR" que no son diagonalizables. En el Ejemplo 1 se tiene un operador linealsobre R2 que no es diagonalizable, porque no tiene valores propios. En el Ejem-plo 2 el operador lineal T tiene valores propios; en efecto, el polinomio carac-terístico de T se pudo factorizar completamente sobre el cuerpo de los númerosreales: f = (x - l)(›t - 2)2. Sin embargo, T no es diagonalizable, pues existesolo un espacio unidimensional de vectores propios asociados a cada valorpropio de T. Por tanto, no es posible formar una base de R3 con vectores pro-pios de T.

Supóngase que T es un operador lineal diagonalizable. Sean cl, . . . , ek losvalores propios distintos de T. Entonces existe una base ordenada CB con res-pecto a la cual T está representado por una matriz diagonal; es decir, los ele-mentos de la diagonal son los escalares c,-. cada uno de los cuales se repite uncierto número de veces. Si c,- aparece repetida d,- veces, entonces (se puede dis-poner así) la matriz tiene la forma de bloque

C111 0 ° ° 0

(6-3) [Tia = 9 “2.1” 90 0 c;.,I¡.

donde ll- es la matriz unidad dj ›< dj. De esta matriz se observan dos cosas.Primero, el polinomio característico de T es producto de factores lineales (posi-blemente repetidos):

f = -(I - 01)* (I - 004'-

Si el cuerpo escalar F es algebraicamente cerrado, v.g., el cuerpo de los númeroscomplejos, todo polinomio sobre F puede ser factorizado (véase Sección 4.5);sin embargo, si F no es algebraicamente cerrado, se tendrá una propiedad es-pecial de T cuando se diga que sus polinomios característicos tienen tal facto-

Page 202: ASESORES TECNICOS

l"urtmt.\' t'm|Óni('u.\' t'lt'nlt'fllr|lt'\ l-V5

rización. Lo segundo que se observa de (6-3) es que d,, el número de veces quec, se repite como raíz de f, es igual a la dimensión del espacio de los vectorespropios asociados al valor propio c,. Ello es así porque la nulidad de una matrizdiagonal es igual al número de ceros que tiene en la diagonal principal, y lamatriz [T - c,l](B tiene d, ceros en su diagonal principal. Esta relación entrela dimensión del espacio propio y la multiplicidad de los valores propios. comouna raíz de jfi no parece ser importante al comienzo; sin embargo, proveeráde un medio simple para determinar cuándo un operador dado es diagona-lizable.

Lema. Supóngase que Tot = coa. Si f es cualquier polinomio, entom-esf(TW = f(Cla-

Demostración. Se deja como ejercicio.

Lema. Sea T un operador lineal sobre un espacio vectorial de dimensiónfinita. Sean c,, . _ _ , c,, los valores propios distintos de T, y sea W, el espacio de losvectores propios asociados con el valor característico c,. Si W = W, + ' ' ' + W,,,entonces

Wl +"°+din1Wk.

En efecto, si (B, es una base ordenada de W,, entonces G3 = ((B,, . . ._, (B,,) es unabase ordenada de W.

Demostración. El espacio W = W, + - - ~ + W,, es el subespacio genera-do por todos los vectores propios de T. Normalmente, cuando se forma la sumaW de los subespacios W,, se expresa que dim W < dim W, + ' ' ' + dim W,,,por las relaciones lineales que pueden existir entre los vectores de los diferentesespacios. Este lema afirma que los espacios propios asociados a los diferentesvalores propios son independientes uno de otro.

Supóngase que (para cada i) se tenga un vector li, en W, y supóngase queli', + ' - ~ + B, = 0. Se demostrará que li, = 0 para cada i. Sea f un polinomio.Como TB, = c, 13,, el lema anterior dice que

0 = f(T)0 = f(T)51 + °° - +f(T)Bi.== f(C1)Ú1 + ° ° ' + f(C:¢)Ú:¢-

Eligiendo los polinomios f,, . . . , 11 de modo que

1, '= 'f-'(01) = 5-'ƒ = {0, ¿É-.

Entonces

0 = ff(T)0 = 2 5-'ififJ

= 5;-

Ahora sea (B, una base ordenada de W, y sea (B la sucesión (B = ((B,, . _ _ , (B,,).Entonces (B genera el subespacio W = W, + + W,,. Tambien (B es una

Page 203: ASESORES TECNICOS

180 Algi-bm lineal

sucesión linealmente independiente de vectores, por lo siguiente. Cualquierrelación lineal entre los vectores en (B tendrá la forma B, + ~' - + B, = 0.donde B, es alguna combinación lineal de vectores en (B,. De lo anterior se sabeque B, = O para cada i. Como cada (B, es linealmente independiente, se ve quesolo se tiene la relación lineal trivial entre los vectores en (B. I

Teorema 2. Sea T un operador lineal sobre un espacio vectorial V de di-mensión finita. Sean c,, _ . _ , c,, los valores propios distintos de T y sean W, elespacio nulo de (T - c,I). Lo siguiente es equivalente.

(i) T es diagonalizable.(ii) El polinomio característico de T es

f=<›«-Cir----tx-«..›f~ydimW,= =l,...,k.

(iii) dim + dim W, = dim V.

Demostración. Ya se observó que (i) implica a (ii). Si el polinomio carac-terístico fes producto de factores lineales, como en (ii), entonces d, + - - - + dk =dim V. En efecto, la suma de los d, es el grado del polinomio característico yese grado es dim V. Por tanto, (ii) implica (iii). Supóngase que se tenga (iii).Por el lema, se debe tener que V = W, + - - ~ + W,,, es decir, que los vectorespropios de T generan V. I

És. +_.

El análogo al Teorema 2 para matrices puede formularse en la siguienteforma. Sea A una matriz n x n con elementos en un cuerpo F y sean c,, . . . , c,los valores propios distintos de A en F. Para cada i, sea W, el espacio de las ma-trices columnas X (con elementos en F) tales que

(A. _ C¡I)X = 0,

y sea (B, una base ordenada de W,. Las bases (B,, . . . , (B, se juntan para formarla sucesión de columnas de una matriz P:

P= [P1,P2,...] = ((B1,...,(B¡¢).

La matriz A es semejante sobre F a una matriz diagonal si, y solo si, P es unamatriz cuadrada. Cuando P es cuadrada, P es inversible y P"AP es diagonal.

Ejemplo 3. Sea T un operador lineal sobre R3 representado en la baseordenada canónìca por la matriz

5 -6 -6A = -1 4 2 -

3 -6 -4

Se indica cómo se puede calcular el polinomio característico usando sucesivasoperaciones de fila y columna:

Page 204: ASESORES TECNICOS

I-'armas canónicas eh-nn-ntalt-.r ¡R7

I-5

si

"""°+t~:c»

›t=›

cn

:iz--5 6 6 zz:-5 O1 x-4 -2 = 1 :t:-2 -

-3 6 :t:+4 -3 2-:cx-5

=(:¡:-2) -2-3 - x+4

x-5 O 6=(:z:-2) 1 1 -2

-2 0 :¡:+2

= (zz:-2)(:¡:'-3x+2)= (as-2)*(:c - 1).

¿Cuáles son las dimensiones de los espacios de los vectores propios asociadoscon los dos valores propios? Se tiene

4 -6 --6A -I = --1 3 2

3 -6 -5

3 -6 --6A - 2I = -1 2 2 -

3 -6 -6

Se sabe que A - I es singular y es claro que rango (A - I) 2 2. Por tanto,rango (A - I) = 2. Es evidente que rango (A - 21) = 1.

Sean W, y W, los espacios de los vectores propios asociados con los valorespropios 1 y 2. Se sabe que dim W, = 1 y que dim W, = 2. Por el Teorema 2,T es diagonalizable. Es fácil obtener una base para R3 en que T esté represen-tado por una matriz diagonal. El espacio nulo de (T - I) es generado por elvector ot, = (3, -1, 3), con lo que {a,} es una base para W,. El espacio nulode T - 21 (es decir, el espacio W2) consta de los vectores (x,, xz, x3) conx, = 2x2 + 2x3. Así, un ejemplo de una base de W2 es

ag = (2, 1,a, = (2, 0, 1).

Si (B = {a,, az, ot3}, entonces [T](B es la matriz diagonal

100D=020-

002Que T sea diagonalizable quiere decir que la matriz original A es semejante

(sobre R ) a la matriz diagonal D. La matriz P, que permite cambiar las coorde-nadas de la base G3 a la base canónìca, es (claramente) la matriz que tiene lastranspuestas de a,, az, oz, como vectores columnas:

Page 205: ASESORES TECNICOS

lb'-Y .4 Ig:-Ivra lineal

322P=-11o--

301además, AP = PD, con lo que

P-IAP = D.

Ejercicios

I. En cada uno de los siguientes casos, sea Tel operador lineal sobre R2 representado porla matriz A en la base ordenada canónìca de R2 y sea U el operador lineal en C2 repre-sentado por A en la base ordenada canónìca. Encontrar el polinomio característico deT y de U. hallar los valores propios de cada operador y para cada uno de tales valores pro-pios c hallar una base para el correspondiente espacio de vectores característicos.

A=[å3]› A=[-Íïl A=[ì il'2. Sea V un espacio vectorial de dimensión n sobre F. ¿Cuál es el polinomio caracterís-tico del operador identidad sobre V? ¿Cuál es el polinomio característico para el opera-dor cero?

3. Sea A una matriz triangular n ›< n sobre el cuerpo F. Demostrar que los valores propiosde A son los elementos de la diagonal de A, es decir, los escalares A,,.

4. Sea T un operador lineal sobre R3 representado en la base oidenada canónìca por lamatriz

-9 4 4-8 3 4 -

-16 8 7

Demostrar que T es diagonalizable construyendo una base para R3, cada vector de la cuales un vector propio de T.

5. Sea

6 -3 -2A = 4 -1 -2 -

10 -5 -3

¿Es A semejante, sobre el cuerpo R, a una matriz diagonal? ¿Es A semejante, sobre el cuer-po C, a una matriz diagonal?

6. Sea T el operador lineal sobre R4 representado en la base ordenada canónìca por lamatriz

¿En qué condiciones para a. b y c es T diagonalizable?

GOGO QUO@ GOGO OOO@

Page 206: ASESORES TECNICOS

Forman imltunun a'l¢'m|'ntult'.\' [89

7. Sea 'I' un operador lineal sobre el espacio vectorial V de dimensión n y supóngase queT tiene n valores propios distintos. Demostrar que T es diagonalizable.

8. Sean A y B matrices n ›< n sobre el cuerpo F. Demostrar que si (I - AB) es inversible,entonces I - BA es inversible y que

(1 - BA)-1 = I + Bu - AB)-IA.9. Usar el resultado del Ejercicio 8 para demostrar que si A y B son matrices n ›< n sobreel cuerpo F, entonces AB y BA tienen los mismos valores propios en F.

10. Supóngase que A es una matriz 2 ›< 2 con elementos reales, simétrica (A' = A). Demos-trar que A es semejante, sobre R, a una matriz diagonal.

ll. Sea N una matriz compleja 2 x 2 tal que N2 = 0. Demostrar que N = 0 0 N es se-mejante, sobre C, a

[O O:|_1 O

I2. Usar el resultado del Ejercicio ll para demostrar lo siguiente: Si A es una matriz2 ›< 2 de elementos complejos, entonces A es semejante, sobre C, a una matriz de uno 'delos dos tipos siguientes: r °1 r °1-0 b 1 a

13. Sea V el espacio vectorial de las funciones continuas de R en R; es decir, el espaciode las funciones continuas de valor real en el eje real. Sea Tel operador lineal sobre V de-finido por

(mw=fmaDemostrar que T no tiene valores propios.

I4. Sea A una matriz diagonal n ›< n de polinomio característico(2 _ cl)di. . .(2 _- ck)di,

donde los c,, . . . , c,, son distintos. Sea V°el espacio de las matrices n ›< n, B, tales queAB = BA. Demostrar que la dimensión de V es df + - ~ - + df.

15. Sea V el espacio de las matrices n ›< n sobre F. Sea A una matriz n ›< n dada sobre F_Sea Tel operador lineal «multiplicación a la izquierda por A» en V. ¿Tienen A y T los mis-mos valores propios?.

6.3. Polinomios anuladores

Cuando se procura analizar un operador lineal T, una de las cosas másútiles de conocer es la clase de los polinomios que anulan a T. Para precisar,supóngase que T es un operador lineal sobre V, espacio vectorial sobre el cuer-po F. Si p es un polinomio sobre F, entonces p(T) es también un operador linealsobre V. Si q -es otro polinomio sobre F, entonces

(P + q)(T) = p(T) + q(T)(z›q)(T) = z›(T)q(7U-

Page 207: ASESORES TECNICOS

WO Al;:t'l›ru lineal

Por tanto, la colección de polinomios p que anulan a T. en el sentido de que

p(T) = 0,es un ideal en el álgebra de los polinomios F[x]. Puede ser el ideal cero; es decir.puede ser que T no sea anulado por cualquier polinomio no nulo. Pero ello nopuede suceder si el espacio V es de dimensión finita.

Supóngase que T es un operador lineal sobre el espacio V de dimensión n.Considérense las primeras (nz + 1) potencias de T:

I, T,T*,.. ., T"'.

Esta es una sucesión de nz + 1 operadores en L(V, V), el espacio de los ope-radores lineales sobre V. El espacio L( V, V) tiene dimensión nz. Por tanto,la sucesión de los nz + l operadores debe ser linealmente dependiente, es decir,se debe tener que

C0I+C1T+ °°° +Cn|T"' =O

para los escalares c,, no todos nulos. En consecuencia, el ideal de polinomiosque anulan a T tiene un polinomio no nulo de grado nz o menor.

Conforme al Teorema 5 del Capítulo 4 todo ideal de polinomios constade todos los múltiplos de un cierto" polinomio mónico fijo, el generador delideal. Así, pues, al operador T corresponde un múltiplo mónico p con la si-guiente propiedad: Si f es un polinomio sobre F, entonces f(T) = 0 si, y solo si,f = pg, donde g es algún polinomio sobre F.

Definición. Sea T un operador lineal sobre un espacio vectorial V de di-mensión finita sobre el cuerpo F. El polinomio minimal de T es el polinomio móni-co generador (único) del ideal de polinomios sobre F que anulan a T.

El nombre de «polinomio minimal» procede de que el generador de. unideal de polinomios está caracterizado por ser el polinomio mónico de gradomínimo' en el ideal. Lo cual quiere decir que el polinomio minimal p para eloperador lineal T está unívocamente determinado por estas tres propiedades:

(1) p es un polinomio mónico sobre el cuerpo escalar.(2) p(T) = 0-(3) Ningún polinomio sobre F que anule a T tiene grado menor que el

que tiene p.

Si A es una matriz n x n sobre F, se define el polinomio minimal de A en for-ma análoga, como el único generador mónico del ideal de todos los polinomiossobre F que anulan a A. Si el operador T está representado en cierta base or-denada por la matriz A, entonces T y A tienen el mismo polinomio minimal.Esto es porque f(T) está representado en la base por la matriz f(A), de modoque f(T) = 0 si, y solo si, f(A) = 0.

De la última observación respecto' a operadores y matrices se sigue que las

Page 208: ASESORES TECNICOS

Format mnonu'a\ ele-rnentulri IW

matrices semejantes tienen el mismo polinomio minimal. Ese hecho resultatambién evidente de la definición, ya que

ƒ(P-IAP) = P-1f(A)Ppara todo polinomio f.

Queremos hacer otra observación respecto a los polinomios minimales delas matrices. Supóngase que A es una matriz n x n con elementos en el cuer-po F. Supóngase que F, es un cuerpo que contiene a F como subcuerpo. (Porejemplo, A puede ser una matriz con elementos racionales, mientras que F,es el cuerpo de los números reales. O A puede ser una matriz con elementosreales, mientras que F, es el cuerpo de los números complejos.) Se puede con-siderar A como matriz n x n sobre F o como matriz n x n sobre F,. A pri-mera vista podría creerse que se obtienen dos polinomios minimales distintospara A. Por suerte, ese no es el caso; y debemos ver por qué. ¿Cuál es la defini-ción del polinomio minimal para A, considerándola como una matriz n x nsobre el cuerpo F? Consideramos todos los polinomios mónicos, con coeficien-tes en F, que anulan a A y tomamos el de menor grado. Si f es un polinomiomónico sobre F :

(6-4) f = 2:" + a,-:cf1%

entonces f(A) = 0 dice simplemente que tenemos una relación lineal entrepotencias de A:

(6-5) A* + a,,_1A'°-1 + - - - + a¡A + ao] = O.

El grado del polinomio minimal es el menor entero positivo k tal que existeuna relación lineal de la forma (6-5) entre las potencias de I, A, _ _ _ , A". Másaún. por la unicidad del polinomio minimal, existe para aquel k una, y solo una,relación de la forma (6-5); es decir, una vez que el minimal k está determinado,existen escalares únicos ao, _ _ _ , a,,_, en F para los que es válido (6-5). Son loscoeficientes del polinomio minimal.

Ahora (para cada k) se tiene en (6-5) un sistema de nz ecuaciones linealespara las «incógnitas›› ao, _ _ _ , a,,_,. Como los elementos de A están en F, loscoeficientes del sistema de ecuaciones (6-5) están en F. Por tanto, si el sistematiene una solución con los ao, _ _ . , a,,_ , en F,, tiene una solución con los ao, _ _ _ ,a,,_, en F. (Véase el final de la Sección 1.4.) Está claro ahora que los dos poli-nomios minimales son los mismos.

¿Qué es lo que se sabe hasta ahora con respecto al polinomio minimal deun operador lineal en un espacio de dimensión n? Solo que su grado no excedede 112. Pero ésta es una estimación poco aproximada, ya que el grado no puedeexceder a n. Se demostrará en breve que el operador es anulado por su poli-nomio característico. Pero antes queremos observar algo más elemental.

Teorema 3. Sea T un operador lineal sobre un espacio vectorial V de di-mensión n (0 sea A una matriz n x n). El polinomio característico y el polinomiominimal de T (de A) tienen las mismas raíces, salvo multiplicidades.

Page 209: ASESORES TECNICOS

192 _ .-I I_i¦i-hru ltnml-

Demostración_ Sea p el polinomio minimal de 1'. Sea r nn escalar. I.o quese desea demostrar es que p(c) = 0 si. y solo si, c es un valor propio de 'II

Primero supóngase que p(c) = O. Entonces

v=@-wndonde q es un polinomio. Como grd q < grd p, la definición del polinonnominimal p dice que q(T) 9€ 0. Se elige un vector B tal que q( T)B qé 0. Sea ot = al 'I')/l.Entonces

0 = P(T)(5'= (T _ 01)¶(T)fl= (T - cÍ)a

y así c es un valor propio de T.Supóngase ahora que c es un valor propio de T, o sea Tot = ca, con ot + 0.

Como se observó en el lema anterior,

p(T)a = p(c)a.

Ya que p(T) = O y ot 9€ 0, se tiene que p(c) = 0. I

Sea T un operador lineal diagonalizable y sean c,, _ _ _, c,, ¡os valores pro-pios distintos de T_ Entonces es fácil ver que el polinomio minimal de T es elpolinomio

p= (rc-ci) (x-ct).Si ot es un vector propio, entonces uno de los operadores T - c,1, ,

T - c,,l aplica ot en 0. Por tanto,

(T-c1I)(T-c¡,I)a=0

para todo vector propio ot. Existe una base para el espacio soporte que constade los vectores propios de T; luego

p(T) = (T- c1I)(T.- cil) = 0.

Lo que coneluimos es lo siguiente. Si T es un operador lineal diagonalizable,entonces el polinomio minimal de T es un producto de factores lineales dis-tintos. Como se verá más adelante, esta propiedad caracteriza los operadoresdiagonalizables.

Ejemplo 4. Se desea encontrar el polinomio minimal para los operadoresen los Ejemplos 1, 2 y 3. Se analizarán en orden inverso. El operador del Ejem-plo 3 era diagonalizable con polinomio característico

f = tx - no - 2›2.Por el párrafo anterior se sabe que el polinomio minimal de T es

P=@-D@-$-

Page 210: ASESORES TECNICOS

lmtmtt t'un|inlt't|\ t'l|'mt'nh|li'.\ ¡ru

I I lector podra verilìcar directamente que(A - I)(A - 21) = 0_

¡in Cl ElCmP10 2 el 0P€fad0f T también Íiëne el polinomio característicoÍ = (Y _- Ulx _ 2)2- PCTO ¢Sï€ T U0 es diagmïfllizable, por lo que no se puedesaber que el polinomio minimal sea (x - l)(x _ 2)_ ¿Que es 1o que se sabecon respecto al polinomio minimal en este caso? Por el Teorema 3 sabemosque sus raíces son 1 y 2, permitiendose algunas mu1rip1¡e¡dades_ Luego, p Sedebe buscar entre los polinomios de la forma (X _ 1)*(x _ 2)', k ¿ 1, ¡ ¿ ¡_Probar (x - l)(x - 2);

2 2

2 0 -1= 2 0 -1 _

4 0 -2

(`on lo que el polinomio minimal tiene a lo menos grado 3_ Luego Se puedePmbaf (X _ 1)2(X _ 2) 0 (X -' lllx _ 2)2- C0mo el segundo es el polinomiocaracterístico, parece ser una elección menos el eZar_ Se puede en ¡eafidadCalcular que (A _ ¡ll/4 -' 21 l2 = 0- con ¡O que el polinomio minimal de T essu polinomio característico.

En el Ejemplo 1 se estudió el operador linee| T sobre R2 representado enla base canónìca por la matriz

0 -1A ` [1 0]'

. . I , . 2 . 'El polinomio característico es x + l, que no (rene rarees rea1es_ Para derer-minar el polinomio minimal hay que olvidarse de T y ¿render a A_ Como unamatriz compleja 2 x 2, A tiene los valores propios ¡y _¡_ Ambas raíees debenfigurar en el polinomio minimal. Así el polinomio mm¡ma| es d¡v¡S¡b|e por

2 - - - 2 _ _ _ _ _X + ES Íflvlal VCl`lfiCaI` qu@ A + 1 - 0. C01] lo qu@ gl pohngnfno m¡n¡-

mal es x2 + 1.

21-1 ii-1(A-I)(A-2I)= 2 1 -1 2 0 __,

-1 2 2 -2

Temema 4 (C3)'|e)"Ham¡¡Í0n)- S00 T U" Operador lineal sobre un espaciovectorial V de dimensión finita. Si f es el polinomio eamere,-¡s¿¡e0 de T, e,,¡0n¿¬€Sf(T) = 0; €S d€C¡f› 91 P0¡¡"0m¡0 mfflimfll d¡U¡dP al polinomio característico de T.

Demostración. Más adelante se darán dos demosrraeiones más de esteteorema, independientemente de la que se dará a1~rora_ La presente demostro-ción, aunque breve, puede ser dificil de entender_ Aparte de 1o breve, gene ¡evirtud de dar una clara y nada trivial aplicación de 13 reoría genera] de |os de_terminantes desarrollada en el Capítulo 5.

Sea K el anillo conmutativo con unidad que consta de todos |os pojmomiosen T. Es claro que K es un álgebra conmutativa gon unidad sobre e1 eoerpo

Page 211: ASESORES TECNICOS

IW _4lgel›ra lmeal

escalar. Elijamos una base ordenada {oz,. __ _ _ a,,} para V, y sea A la matri/_que representa a T en esa base dada. Entonces

fl

Tai = _2l Ajidj, I 5 Í S n.1%

Estas ecuaciones pueden-escribirse en la forma equivalentefl

_2l (ö¡¡'T *_ A,'¡I)C!¡' = 0, 1 S S fl.,I

Sea B el elemento de K"“" con elementos

Bi; = ö¡¡T '_ A151.

Cuando n = 2

B_[T-A@ -ma ]" -ma T-Aa'

Ydet B = (T ”“ A11Í)(T '_ A221) -' Á1zA2iÍ

= T2 '_ (An 'l' Án)T 'l' (Á1iA22 _ Ai:/Í2i)I= f(T)

donde f es el polinomio característico:f= x2 - (traza A)x + det A.

Para el caso n > 2, es también claro que

detB = ƒ(T)

ya que f es el determinante de la matriz xl - A cuyos elementos son los po-linomios

(II _ A)¡¡ = ôgjílï _ A¡¡.

Queremos demostrar que f(T) = 0. Para que f(T) sea el operador cero esnecesario y suficiente que (det B)a,, = O para k = l, _ _ _ _ n. Por la definiciónde B. los vectores oq, _ _ _ , ot, satisfacen las ecuaciones

wm Ép%m=0, igtgn.12

Cuando n = 2, se sugiere escribir (6-6) en la forma

[T _ A111 -“A311 ] [C11] _

_A12I T_A22I G2 _ 0

En este caso. la adjunta, adj B, es la matriz

¿=[T-AM mamJ T-A@

Page 212: ASESORES TECNICOS

I-`orma.i nntmm'a.i eli-nientuli-.s 195

Y_ deis o

EB _ [0 det B:j°

M [21] = ea [21]= E (B[::])

e = [SlEn el caso general, sea B = adj B. Entonces por (6'-6)

Luego. se tiene

fl

2 É|=iB¡¡¢1¡ = 0¡-1

para todo par k, i, y sumando sobre i, se tiene

0 = i š É|=iBi¡f1¡¡-if-1

= â ÉHBG) 0,".Í-1 Í=-1

Ahora BB = (det B)I, con lo que

_š1 ÉHBQ = ¿H dflti

Por tanto,

0 = _2l ö¡¡(deÍ› B)d¡31

= (det B)a¡,, l S lc S 'n. I

El teorema de Cayley-Hamilton es útil en este momento, fundamentalmenteporque reduce la búsqueda del polinomio minimal de varios operadores. Sise conoce la matriz A que representa T en cierta base ordenada, entonces sepuede calcular el polinomio característico f. Se sabe que el polinomio minimalp divide a f y que los dos polinomios tienen las mismas raíces. No existe mé-todo para calcular en forma precisa las raíces de un polinomio (a menos quesu grado sea bajo); sin embargo, si f está factorizado como(6-7) f = (x - c,)"' - - - (x - c,,)"", cr, _ _ _ , c,, diferentes, d, 2 1

entonces(6-8) p = (x - cr)'* - - - (x - c,,)"*,- 1 5 r, 5 dj.

Esto es todo lo que se puede decir en general. Si f es el polinomio (6-7) y tienegrado n, entonces para cada polinomio p, como en (6-8), se puede encontraruna matriz n x n que tiene f como un polinomio característico, y p es su poli-nomio minimal. No se demostrará esto ahora. Pero queremos destacar el hecho

Page 213: ASESORES TECNICOS

l90 /1lgt'llr¢t llmwl

de que el conocimiento que el polinomio característico tiene la I`orma (6-7),nos dice que cl polinomio miniinal tiene la l`orina (6-8), y nada más nos dicecon respecto a p.

Ejemplo 5. Sea A la matriz (racional) 4 x 4

A = [

Las potencias de A son fácilmente calculables'-i i-i iAsí, A3 = 4A, es decir, sip = x3 = 4x = x(x + 2)(x - 2), entonces p(A) = 0.El polinomio minimal, obviamente, no es de grado l, ya que ello querría decirque A es un múltiplo escalar de la unidad. Luego los posibles polinomios míni-males son: p, x(x + 2), x(x - 2), xl - 4. Los tres polinomios cuadráticospueden ser eliminados, ya que es inmediatamente obvio que A2 =)é -2A,A2 qé 2A,A2 qé 41. Por tanto, p es el polinomio minimal de A. En particular, 0, 2 y -2son los valores propios de A. Uno de los factores x, x - 2, x + 2, debe repe-tirse dos veces en el polinomio característico. Evidentemente, rango (A) = 2.En consecuencia, existe un espacio de vectores propios de dimensión dos aso-ciado al valor característico 0. Por el Teorema 2 queda ahora claro que el poli-nomio característico es x2(x2 - 4) y que A es semejante a la matriz sobre elcuerpo de los números racionales.

I-*Or-*O OI-*OP-* t-Qi-Q QI'-^©l"'*

t-IÄOI-F~OQt\'JQt\'J OI-l>OrP›t\DOl\DO t-IÄOI-IÄOQNOIO OI-l>Qt-IÄNOIOO

OOO@ OOO@ ONO@ NJOOO

Ejercicios

1. Sea V un espacio vectorial de dimensión finita. ¿Cuál es el polinomio minimal parael operador identidad sobre V? ¿Cuál es el polinomio minimal para el operador cero?2. Sean a. b y c elementos de un cuerpo F y sea A la siguiente matriz 3 x 3 sobre F:

0 0 cA = 1 0 b -

0 1 a

Page 214: ASESORES TECNICOS

l"nrma.\ runónit'u.\ ¢'li°nn'ntuI¢°\ l97

Demostrar que el polinomio característico de A es x3 - axz - bx - c y que éste es tam-bien el polinomio minimal de A.

3. Sea A la matriz real 4 x 4:

i--mi-ii- I-*&I-*I-H i-*NOO Oi-*GO

A___

Demostrar que el polinomio característico de A es x2(x - l)2 y que es al propio tiempoel polinomio minimal.

4. ¿, Es la matriz A del Ejercicio 3 semejante, sobre el cuerpo de los números complejos.a una matriz diagonal? -

5. Sea I' un espacio de dimensión n y sea T un operador lineal sobre V. Supóngase queexiste cierto entero positivo k tal que T* = 0. Demostrar que T" = 0.

6. Hallar una matriz 3 x 3 para la cual el polinomio minimal es x2.

7. Sea n un entero positivo y sea V el espacio vectorial de los polinomios sobre R quetienen a lo más grado n (sin considerar el polinomio 0). Sea D el operador derivación so-bre V. ¿Cuál es el polinomio minimal de D?

8. Sea P el operador en R2 que proyecta cada vector sobre el eje x, paralelamente al ejer: P(_\'_ 1') = (x, 0). Mostrar que P es lineal. ¿Cuál es el polinomio minimal de P?

9. Sea A una matriz n x n. con polinomio característico

ƒ = (x _ c¡)d1. . .(3 _. ck)di_

e,d, + ' ~ - + c,,d,, = traza (A).Demostrar que

IO. Sea V el espacio vectorial de las matrices n x n sobre el cuerpo F. Sea A una matrizn x n fija. Sea T el operador lineal sobre V definido por

T(B) = AB.Demostrar que el polinomio minimal de T es el polinomio minimal de A.

II. Sean A y B matrices n x n sobre el cuerpo F. De acuerdo con el Ejercicio 9 de la Sec-eión 6.1. las matrices AB y BA tienen los mismos valores propios. ¿Tienen también el mismopolinomio característico? ¿Tienen también el mismo polinomio minimal?

6.4. Subespacios invariantes

En esta sección introduciremos algunos conceptos útiles en el estudio deun operador lineal. Usaremos estas ideas para obtener descripciones de losoperadores diagonalizables (y triangulables) en términos de sus polinomiosminimales.

Definición. Sea V un espacio vectorial y T un operador lineal sobre V. SiW es un subespacio de V, se dice que W es invariante por T si para todo vector otde W el vector Ta está en W, es decir, si T(W) está contenido en W_

Page 215: ASESORES TECNICOS

l98 Algebra lmeol

Ejemplo 6. Si T es cualquier operador lineal sobre V, entonces V es inva-riante por T, como también lo es el subespacio nulo. La imagen de T y el espacionulo de T son también invariantes por T.

Ejemplo 7. Sea F un cuerpo y sea D el operador derivación sobre el es-pacio F[x] de los polinomios sobre F. Sea n un entero positivo y sea W el sub-espacio de los polinomios de grado no mayor que n. Entonces W es invariantepor D. Esto no es más que otra manera de decir que D es «decreciente en grado».

Ejemplo 8. He aquí una útil generalización del Ejemplo 6. Sea T un ope-rador lineal sobre V. Sea U cualquier operador lineal sobre V que conmutecon T; es decir, TU = UT. Sea W la imagen de U y sea N el espacio nulo deU. Ambos W y N son invariantes por T. Si ot está en la imagen de U, por ejem-plo, ot = UB, .entonces Tot = T( UB) = U(TB), de modo que Tot está en la imagende U. Si ót está en N, entonces U(Tot) = T(Uot) = T(0) = 0; luego Tot está en N.

Un tipo especial de operador que conmuta con T es un operador U = g(T),donde g es un polinomio. Por ejemplo. podría tenerse U = T - cl, donde ces un valor propio de T. El espacio nulo de U ya nos es familiar. Se ve que esteejemplo incluye el hecho (obvio) de que el espacio de vectores propios de T,asociados al valor propio c, es invariante por T.

Ejemplo 9. Sea T el operador lineal sobre R2 representado en la base or-denada canónica- por la matriz

A = [0 -1]_1 0

Entonces los únicos subespacios de R2 que son invariantes por T son R2, y elsubespacio nulo. Cualquier otro subespacio invariante tendrá necesariamentedimensión 1. Pero si W es el subespacio generado por algún vector no nulo ot,que W es invariante por T quiere decir que ot es un vector propio, pero A notiene valores propios reales.

Cuando el subespacio W es invariante por el operador T, entonces T in-duce un operador lineal TW en el espacio W. El operador lineal TW está definidopor ,Tw(ot) = T(ot), para ot en W; pero TW es un objeto diferente de T, ya quesu dominio es W y no V.

Cuando V es de dimensión finita, la invariancia de W por T tiene una in-terpretación matricial simple que acaso deba mencionarse aqui. Supóngaseque se elige una base ordenada G3 = {ot,, _. _, ot,,} para Vtal que (B' = {ot,, ._ _, ot,,}es una base ordenada de W(r = dim W). Sea A = [T],B de modo que

Ta' = É Agflg.1 _ 11=l

Como Wes invariante por T, el vector Tot, pertenece a Wparaj S r. Esto quieredecir que .

(59) Tai = É Áajda, S 1'.¡-1

Page 216: ASESORES TECNICOS

1-'armas eamlnicas elenuwtalc-s ¡W

En otras palabras, A,, = 0 si/` 5 r e i > r. ' ' "Esquemáticamente, A tiene la forma bloque

(6-10) A = [ff

donde B es una matriz r x r, C es una matriz r x (n - r) y D es una matriz(n - r) x (n - r). El lector deberá observar que, conforme a (6-9), la matrizB es precisamente la matriz del operador inducido TW en la base ordenada 03'.

Muy a menudo se razonará respecto a T y TW sin hacer uso de la formabloque de la matriz A en (6-10). Pero deberá observarse cómo surgen ciertasrelaciones entre TW y T de esa forma bloque.

Lema. Sea W un subespacio invariante para T. El polinomio característicopara el operador restricción TW divide el polinomio característico de T. El poli-nomio minimal de TW divide al polinomio minimal de T.

_ B' 0A ” lo D]

donde A = [T],B y B = [TW]¿s,. Por la forma bloque de la matrizdei (xt - A) = det (xt _- B) dei (xl - D)-

Demostración_ Se tiene

Esto demuestra la afirmación respecto a los polinomios característicos. Obsér-vese que se usó indistintamente I para representar matrices unidad en tres ta-maños diferentes.

La k-ésima potencia de la matriz A tiene la forma bloque

_ 3" ChAk"[o Di]

donde Cr es alguna matriz r x (n - r). Por tanto, cualquier polinomio queanule a A también anula a B (y también a D). Así, el polinomio minimal deB divide al polinomio minimal de A. I

Ejemplo 10. Sea Tcualquier operador lineal en un espacio V de dimensiónfinita. Sea W el subespacio generado por todos los vectores propios de T. Seanc,, _ _ _ , cr los valores propios distintos de T. Para cada i, sea W, el espacio delos vectores característicos asociados con el valor propio c,, y será G3, una baseordenada para W,. El lema anterior al Teorema 2 dice que G3' = ((B,, _ _ _ , (Br)es una base ordenada de W. En particular,

dimW=dimW1-l- +dimW¡,_

Sea G3' = {ot,, _ _ _, ot,} de modo que los primeros ot forman la base (B1, lossiguientes, 032, y así sucesivamente. Entonces

T(1¿=t¿a,', 'l:=1,...,T

Page 217: ASESORES TECNICOS

200 .~l l_i:¢-lira lineal

donde (.',, ._ _ _ 1,)-= .lc,. c,, _ _ _ , tr. . _ , ek. ek. ck) con c, repetidosdim W, veces.

Ahora Wes invariante por T, ya que para cada ot en W tiene

0!=27i¢11"l' +$f0lfT0! = 5117101 + ' ° ' 'l' tfílïfdf-

Eligiendo otros vectores ot,+,, _ _ _, ot,, en V tales que G3 = {ot,, _. _, ot,,¦ seauna base para V. La matriz de T, respecto de (B, tiene la forma bloque (6-lll),y la matriz del operador restricción TW, respecto de la base (B' es

t10 0

B=(.)?"`(.)-0 0 ' ° ' tf

El polinomio característico de B (es decir, de TW) esg = ._ Cl)¢I , , , _. Ck)€l

donde e, = dim W,. Además g divide a f, el polinomio característico de T.Por tanto, la multiplicidad de c,, como raíz de f, es a lo menos dim W,.

Todo esto aclara el Teorema 2; dice solamente que T es diagonalizable si,y solo si, r = n, si, y solo si, e, + ~ ° ~ + ek = n. Esto no ayuda mucho parael caso no diagonalizable, pues no se conocen las matrices C y D de (6-lO).

Definición. Sea W un subespacio invariante para T, y sea ot un vector de V.El T-conductor de ot en W es el- conjunto Sr(ot: W l, que consta de todos los poli-nomios g (sobre el cuerpo escalar) tales que g(T)ot está en W_

Como el operador T se considera fijo a lo largo de la mayor parte de losanálisis, se suprimirá normalmente el subíndice T y se escribirá S(ot; W). Losautores llaman corrientemente a esta colección de polinomios el «relleno››(stufler, en inglés; o das einstopfende Ideal, en alemán). «Conductor›› es el tér-mino más corriente, preferido por aquellos que piensan en un operador g(T)menos agresivo, que suavemente dirige al vector ot en W. En el caso especial«le W = {0}, el conductor se llama T-anulador de ot.

Lema. Si W es un subespacio invariante para T, entonces W es invariantepor todo polinomio de T. Así, pues, para todo ot de V, el conductor S(ot: W) esun ideal en el álgebra de los polinomios F

Demostración. Si B está en W, entonces TB está en W. En consecuencia,T( TB) = T2B está en W. Por inducción, T'“B está en W para cada k. Formandocombinaciones lineales se ve que f(T)B está en W para todo polinomio f.

La definición de S(ot; W) toma sentido si W es un subconjunto de V. Si Wes un subespacio, entonces S(ot; W) es un subespacio de F[x], ya que

(cf + g)(T) = cƒ(T) + g(T)-

Page 218: ASESORES TECNICOS

l'i›rmus canrinicus clernmtuli°\' IU!

Si W es también invariante por T, sea g un polinomio en S(ot; W); es decir,sea g(T)ot en W. Si f es cualquier polinomio entonces f(T)[g(T)ot] estará en W.Como

(f9)(T) = f(T)o(T)fg está en S(ot; W)_ Con lo que el conductor absorbe la multiplicación por cual-quier polinomio. I

El generador mónico único del ideal S(ot; W) es también llamado T-con-ductor de ot en W (el T-anulador en caso de que W = {0}). El T-conductor deot en W es el polinomio mónico g de menor grado tal que g(T)ot está en W. Unpolinomio f está en S(ot; W) si, y solo si, g divide a f. Nótese que el conductorS(ot; W) siempre contiene el polinomio minimal de T; luego cada T-conductordivide al polinomio minimal de T.

Como primera ilustración de cómo usar el conductor S(ot; W), se caracteri-zarán operadores triangulables_ El operador lineal T se llama triangulable siexiste una base ordenada en la cual Testá representado por una matriz triangular.

Lema. Sea V un espacio vectorial de dimensión finita sobre el cuerpo F.Sea T un operador lineal sobre V tal que el polinomio minimal de T sea un pro-ducto de factores lineales

p = (x - c,)" ° - - (x - ck)"*, c, en F.

Sea W un subespacio propio de V (W aë V) invariante por T. Existe un vectorot tal que

(a) ot no pertenece a W.(b) (T - cI)ot está en W, para algún valor propio c del operador T.

Demostración. Lo que dice (a) y (b) es que el T-conductor de ot en W esun polinomio lineal. Sea B cualquier vector en V que no está en W. Se-a g elT-conductor de B en W. Entonces g divide a p, el polinomio minimal de T. ComoB no está en W, el polinomio g no es constante. Luego

9 = (fc - ¢1)"(2= - 00°*donde al menos uno de los enteros e, es positivo. Se elige j de modo que e_, > 0.Entonces (x - c,) divide a g:

g = (27 _ Cj)ll.

Por la definición de g, el vector ot = h(T)B no puede estar en W. Pero

(T - c,-I)a = (T - c,-I)h(T)B= o(T)fl

pertenece a W. I

Teorema 5. Sea V un espacio de dimensión finita sobre el cuerpo F y seaT un operador lineal sobre V. Entonces T es triangulable si, y solo si, el polinomiominimal de T es producto de polinomios lineales sobre F_

Page 219: ASESORES TECNICOS

202 .4 lg:-lira lineal

Demostración. Supóngase que el polinomio minimal está factorizado enla forma:

p = (x - cr)" - - - (zi: - c,,)'*_

Por aplicación repetida del lema anterior se llega a una base ordenada(B = {ot,, _ _ _ , ot,,} en la cual la matriz que representa T es triangular superior

an 012 043 ' ° ° 01»O a22 a^23 °'° a2n

(6-11) [Tjrg = O O 03; 03,, -

ò ò ò a,Ahora (6-ll) solo dice que

(5-12) Tai = 011011 'l' ' ' ° + 0¡›'¢!¡› 1 S .Í S tt

esto es, Tot, está en el subespacio generado por ar, __ _ _ ot,-_ Para determinarlos otk, _. _, ot,,, se comienza aplicando el lema al subespacio W = {0}, paraobtener el vector ot,_ Entonces aplicando el lema a W,, el espacio generado porot,, se obtiene ot2_ A continuación se aplica el lema a W2, el espacio generadopor ot, y ak. Se continúa de este modo. Un punto se merece comentario especial.Después que se hayan determinado los ot,, _ _ _, ot,, son las relaciones del tipotriangular (6-12) para j = 1. _ _ _ , i las que aseguran que el subespacio generadopor ot,, _ _ _ _ ot, es invariante por T.

Si T es triangulable, es evidente que el polinomio característico de T tienela forma

ƒ = (x - cr)¿' - - - (x - c;_)¿*, c,- en F.

Basta observar la matriz triangular (6-ll). Los elementos de la diagonalan, _ _ _, a,,,, son los valores propios, con c, repetidos d, veces. Pero si f puedeser así factorizado, también puede serlo el polinomio minimal, ya que divi-deaf_ I

Corolario. Sea F un cuerpo algebraicamente cerrado, v.g_, el cuerpo de losnúmeros complejos. Cada matriz n x n sobre F es semejante, sobre F, a una ma-triz triangular.

Teorema 6. Sea V un espacio vectorial de dimensión finita sobre el cuer-po F y sea T un operador lineal sobre V. Entonces T es diagonalizable si, y solo si,el polinomio minimal de T tiene la forma

P=(X-C1)"'(-Y-Ci)donde los c 1, _ _ _ , ck son elementos distintos de F_

Demostración. Se ha observado anteriormente que. si T es diagonalizable,su polinomio minimal es producto de factores lineales distintos (véase el análi-sis anterior al Ejemplo 4). Para demostrar el recíproco, sea W el subespaciogenerado por todos los vectores propios de T, y supóngase que W 9€ V. Por

Page 220: ASESORES TECNICOS

l"ormn.\ canónicas elementales 203

el lema empleado en la demostración del Teorema 5, existen un vector ot queno está en W y un valor propio c, de T tal que el vector

B = (T- vi-1)@pertenece a W. Como B está en W

Ú = fil "l" ' ° ° 'l' Bu

donde TB, = c,B,, 1 5 i 5 k y, por tanto, el vector

h(T)B = h(c1)B1 + + h(ci)Brestá en W, para cada polinomio h.

Ahora, p = (x - c,)q, para algún polinomio q. También

q -- q(¢,~) = (rc - ¢,-)h-Se tiene

q(T)« - q(¢,~)« = h(T)(T - C,-1)«1 = h(T)B-Pero h(T)B está en W, y como

0 = p(T)@ = (T - 0,-1)¢1(T)«el vector q(T)a está en W. Por tanto, q(c,)ot está en W. Como ot no está en W,se tiene q(c¡) = 0. Lo cual contradice el hecho de que p tiene raíces distintas. I

Al final de la Sección 6.7 se dará una demostración diferente del Teorema 6.Además de ser un resultado elegante, el Teorema 6 es útil en cuanto al cálculo.Supóngase que se tiene un operador lineal T representado por la matriz A encierta base ordenada, y se desea saber si T es diagonalizable. Se calcula el poli-nomio característico f. Si se puede factorizar f: _

f = tx - oi- --- tx _- «›.›~f-se tienen.dos métodos diferentes para determinar si T es diagonalizable o no.Un método es ver si (para todo i) se pueden hallar d, vectores propios indepen-dientes asociados al valor propio c,. El otro método es comprobar si (T - c,I) - - -(T - ckl) es o no el operador cero.

El Teorema 5 da una demostración diferente para el teorema de Cayley-Hamilton_ Ese teorema es fácil para una matriz triangular. De donde, por mediodel Teorema 5, se tiene el resultado para cualquier matriz sobre un cuerpo al-gebraicamente cerrado. Todo cuerpo es un subcuerpo de un cuerpo algebrai-camente cerrado. Si se conoce ese hecho se puede tener una demostración delteorema de Cayley-Hamilton para las matrices sobre cualquier cuerpo. Si seacepta. por último, el teorema fundamental del álgebra (el cuerpo de los nú-meros complejos es algebraicamente cerrado), entonces el Teorema 5 da unademostración del teorema de Cayley-Hamilton para las matrices complejas,y esa demostración es independiente de la dada anteriormente.

Page 221: ASESORES TECNICOS

204 A lgelira lineal

l;]`ercicios

I. Sea 'I' el operador lineal sobre R2 cuya matri/_ eii la base ordenada canónìca es

1 -1A = -[2 2](a) Demostrar que los únicos subespacios de R2 invariantes por T son R2 y el subes-

pacio nulo.(b) Si U es el operador lineal en C2, cuya matriz en la base ordenada canónìca es _-l.

demostrar que U tiene un subespacio unidimensional invariante.

2. Sea W un subespacio invariante para T. Demostrar, sin referirse a las matrices. queel polinomio minimal para el operador restricción TW divide al polinomio minimal de 7'.

3. San c un valor propio de T y sea W el espacio de los vectores propios asociados al valorpropio c. ¿Cuál es el operador restricción TW?

4. Sea

0 l 0A = 2 -2 2 -

2 -3 2

¿Es A semejante, sobre el cuerpo de los números reales, a una matriz triangular? Si es así,hallar tal matriz triangular.

5. Cada matriz A tal que A2 = A es semejante a una matriz diagonal.

6. Sea T un operador lineal diagonalizable sobre un espacio vectorial V de dimensiónn y sea W un subespacio invariante por T. Demostrar que el operador restricción TW esdiagonalizable.

7. Sei T un operador lineal sobre un espacio vectorial de dimensión finita sobre el cuerpode los números complejos. Demostrar que T es diagonalizable si, y solo si, T es anuladopor algún polinomio sobre C que tiene raíces distintas.

8. Sea T un operador lineal sobre V. Si todo subespacio de V es invariante por T, enton-ces T es un múltiplo escalar del operador identidad.

9. Sea T el 'operador integración indefinida

<mw=fmasobre el espacio de las funciones continuas en el intervalo [0, 1]. ¿Es el espacio de las_fun-ciones polinomios invariantes por T? ¿El espacio de las funciones diferenciables? ¿El es-pacio de las funciones que se anulan para x = %?

10. Sea A una matriz 3 x 3 de elementos reales. Demostrar que si A no es semejante so-bre R a una matriz triangular. entonces A es semejante sobre C a una matriz diagonal.

ll. ¿Es verdadero o falso que si una matriz triangular A es semejante a una matriz dia-gonal, entonces A es diagonal?

l2_ Sea T un operador' lineal sobre un espacio vectorial de dimensión finita sobre un cuer-po F algebraicamente cerrado. Sea f un polinomio sobre F. Demostrar que c es un valorpropio de f(T) si, y solo si, c = _ƒ(t), donde t es un valor propio de T.

Page 222: ASESORES TECNICOS

I-`urn|u.s mnnrnrus rlrnwnlult-.s 205

I3. Sea I' el espacio dc las matrices n x n sobre F. Sea A una matri? n x n dada, sobre F.Sean Ty U los operadores lineales sobre V definidos por

T(B) = ABU(B) = AB - BA.

(al ¿Es verdadero o falso que si A es diagonalizable (sobre F), entonces T es diagona-lizable?

(h) ¿Es verdadero o falso que si A es diagonalizable, entonces U es diagonalizable?

6.5. Triangulación simultánea ;Diagonalizáción simultánea

Sea V un espacio de dimensión finita y sea ïï una familia de operadoreslineales sobre V. Ocurre preguntar si se pueden triangular o diagonalizar si-multáneamente los operadores de 9'. es decir, cuándo se puede encontrar unabase (B tal que todas las matrices [T]¿B, con T en 5, sean triangulares (o diago-nales). En el caso de la diagonalización, es necesario que 9' sea una familia deoperadores que conmuten: UT = TU, para todo T, U en 9'. Esto se desprendedel hecho de que todas las matrices diagonales conmutan. Obviamente es tam-bién necesario que cada operador de 5 sea un operador diagonalizable. Parala triangulación simultánea cada operador en fr' debe ser triangulable. No esnecesario que 5 sea una familia de operadores que conmuten; sin embargo,esa condición es suficiente para la triangulación simultánea (si cada T es trian-gulable individualmente). Estos resultados se desprenden, con ligeras varia-ciones, de las demostraciones de los Teoremas 5 y 6.

El subespacio W es invariante por (Ia familia dc los operadores) ïï si W esinvariante por cualquier operador en 5

Lema. Seu ff una familia de operadores lineales triangulables de V queconmutun. Sea W un subespacio propio de V invariante por ff. Existe un vectoroc en V tal que

(á) oc no pertenece a W;(b) para cada T en fr', el rector Ta está en el subespacio generado por oc y W.

Demostración. No se perderá generalidad si se supone que ïï contiene soloun numero finito de operadores, por la siguiente observación. Sea {T,, _ _ . , T,}un subconjunto linealmente independiente maximal de ir', es decir, una basedel subespacio generado por 9'. Si oz es un vector tal que (b) es válida para todo'l`¿, entonces (b) se cumplirá para todo operador que sea combinación linealde los T1, T,.

Por el lema anterior al Teorema 5 (este lema es para un operador solo),se puede hallar un vector /il (no en W) y un escalar cl tal que (T1 - c¡I)B1esté en W. Sea V, la colección de todos los vectores Ii' en V tales que (T, - c¡I)Besté en W. Entonces V1 es un subespacio de V que es propiamente más extenso

Page 223: ASESORES TECNICOS

206 Algelvm lmeul

que IV. Además, V1 es invariante por fi. por tal razón si 'l' conmuta con l`,,entonces

(Ti _ CJ)('l'B) = T(7'i - ¢J)l3-Si /l está en V,. entonces (T1 - c¡l)B está en W. Como W es invariante por toda7' de ff. se tiene que T(T¡ - ell)/i está en W; es decir. TB en V,. para todo /len V, y todo T en SF.

Ahora W es un subespacio propio de V¡. Sea U2 el operador lineal en V,que se obtiene restringiendo T2 al subespacio V1. El polinomio minimal dcUz divide al polinomio minimal de T2. Por tanto, se puede aplicar el lema am-tcrior al Teorema 5 a tal operador y al subespacio invariante W. Se obtieneun vector /iz en V, (no en W) y un escalar cz tal que (T2 - e2l)fi2 está en W.(_)bsérvese que

ta) B2 no está en W.(b) (T1 - e¡I)fi2 está en W.(c) (T2 - c2I)fi2 está en W.

Sea V2 el conjunto de todos los vectores B en V, tal que (T2 - c2I)/i estácn W. Entonces V2 es invariante por SF. Aplíquese el lema anterior al Teore-ma 5 a U3, restricción de T3 a V2. Si se sigue así se llega a obtenerun vectoroz = /i, (no en W) tal que (T¡ - cl-I)a está en W,j=1, r. I

.,,Teorema 7. Sea V un espacio vectorial de dimensión finita sobre el cuer-

po F. Sea SF una familia conmutativa de operadores lineales triangulables sobreV. Existe una base ordenada de V tal que todo operador de fr' está representadopor una matriz triangular en esa base.

Demostración. Dado el lema recién demostrado, este teorema tiene lamisma demostración que la dada para el Teorema 5, si se remplaza T por SF. I

Corolario. Sea SF una familia conmutativa de matriees n ›< n sobre un cuer-po F algebraicamente cerrado. Existe una matriz P, no singular, n ›< n, con ele-mentos en F, tal que P" *AP es triangular superior, para cada matriz A en SF.

Teorema 8. Sea SF una familia conmutativa de operadores lineales diago-nalizables en el espacio vectorial V de dimensión finita. Existe una base ordenadade V tal que todo operador de 5 está representado en esa base por una matrizdiagonal.

Demostración. Se puede demostrar este teorema usando el lema anterioral Teorema 7 para el caso diagonalizable, de igual modo como se adaptó ellema anterior al Teorema 5 para demostrar el caso diagonalizable para el Teore-ma 6. .Sin embargo, a esta altura es más fácil proceder por inducción sobre ladimensión de V.

Si dim V = 1, no hay nada que demostrar. Supóngase que el teorema esválido para espacios vectoriales de dimensión menor. que n y sea V un espaciovectorial de dimensión n. Elíjase cualquier Ten EF que no sea un múltiplo escalar

Page 224: ASESORES TECNICOS

l"m'nm.\' t'unónt`t'u.\' ¢'l¢'tm°tIlul¢'.ï 207

de la identidad. Sean cl, . . . , ch los valores propios distintos de T, y (para cada i)sea W,- el espacio nulo de (T - c,I). Se fija un índice i. Entonces es invariantepor cada operador que conmuta con T. Sea SF, la familia de operadores linealesen I/V, que se obtiene por la restricción de los operadores de EF al subespacio(invariante) W,. Cada operador de SF, es diagonalizable, porque su polinomiominimal divide al polinomio minimal del correspondiente operador en SF. Comodim W, < dim V, los operadores en SF, pueden diagonalizarse simultáneamente.Esto es, W, tiene una base G3, que consta de vectores que son simultáneamentevectores propios para cada operador en 5,.

Como T es diagonalizable, el lema anterior al Teorema 2 dice que G3 =(031, _ _ . , G3,,) es una base para V. Esa es la base que se buscaba. I

Ejercicios

I. Hallar una matriz real inversible P tal que P`1AP y P`*BP sean ambas diagonales,donde A y B son las matrices reales

(a) A = L1) B = [3 Í]

et: 11» es :1-2. Sea 5 una familia de matrices complejas 3 x 3 que conmutan. ¿Cuántas matriceslinealmente independientes puede tener EF? ¿Qué se puede decir del cason x n?

3. Sea T un operador lineal en un espacio de dimensión n y supóngase que T tiene n valo-res propios distintos. Demostrar que todo operador lineal que conmuta con T es un poli-nomio en T.

4. Sean A, B, C y D matrices complejas n x n que conmutan. Sea E la matriz 2n ›< ZnA BE _ [C D:|.

Demostrar que det E = (AD - BC).

S. Sean F un cuerpo, n un entero positivo y V el espacio de las matrices n ›< n sobre F.Si A es una matriz n ›< n fija sobre F, sea T, el operador lineal sobre V definido por T,,(B) =AB - BA. Considerar la familia de operadores lineales T¿ que se obtiene haciendo variarA sobre todas las matrices diagonales. Demostrar que los operadores de esa familia sonsimultáneamente diagonalizables.

6.6. Descomposiciones en suma directa

Al continuar con el análisis de un operador lineal se deben formular lasideas de un modo algo más refinado - menos en términos de matricesy másen ténninos de subespacios. Cuando comenzamos este capítulo, describimossu propósito del siguiente modo: encontrar una base ordenada en la cual lamatriz de T toma una forma especialmente simple. Ahora describiremos nues-

Page 225: ASESORES TECNICOS

.'08 _.ll_ug¢-lvm lim-al

tro propósito como sigue: descomponer el cspm.-m Imsc V en una suina de sub-espacios invariantes para T tal que los operadores restricción 11 esos subespatciossean simples.

Definición. Sean W1, _. . , Wk subespacios de un espacio recmr:`al V. Sedice que W¡, _ _ _ , WR son independientes si

a1+----+a,,=O, a,enW,implica que cada oc, es 0.

Para k = 2, el sentido de la independencia es la intersección {O}; es decir,W, y W2 son independientes si. y solo si, W, (N W2 = {0}_ Si k > 2, la indepen-dencia de W1, _ _ _ , W,, dice mucho más que W, (N - - - (N W,, = -¦0}. Dice quecada W¡ encuentra la suma de los otros subespacios I/V, solo en el vector nulo.

El significado de independencia es el siguiente. Sea W1 + ~ '~ + W,, elsubespacio generado por WI, . _ _ , Wk. Cada vector oc de W puede ser expre-sado como suma

aïa1+°"+ak, aienpí/vi.

Si WI, _ _ _ , W,, son independientes, entonces esa expresión de oz es única; enefecto, si

0f=B1+"°+fik› Bien"/i

entonces 0= (oz, - B1) + + (ak - fik), luego ai - /i,- = 0,i=1, _. ., k.Asi. si WI, _ . _ , W,, son independientes, se puede operar con los vectores de Wcomo k-tuples (al, . _ _, ak), con ai en W,-, en la misma forma como se operacon los vectores de R* como k-tuples de números.

Lema. Sea V un espacio vectorial de dimensión finita. Sean W,, W,,subespacios de V y sea W = W, + - ° ' + Wk. Las siguientes a/'irnutciones sonequivalentes.

(a) WI, WR son independientes.(b) Para todo _¡`, 2 5 j 5 k, se tiene

W,.n(W,+---+ W,-_,)=(c) Si (B, es una base ordenada de W¡, l 5 i :S k, entonces la sucesión (B =

(031, _ _ _ , Gšk) es una base ordenada para W.

›~\'«O H»-f I

Demostración. Supóngase (a). Sea a un vector de la intersección VI/¡H(W, + ' ' ' + W,-_¡)_ Entonces existen vectores al, _ _ . , ot,-_¡ con oz, en W, talesquea = al + - '° + oz,-_¡. Como

0f1"l""'+01;-1-l'.(“"0!)+0+'°'+0=0

y como W¡, ..., W,, son independientes, debe tenerse que al = 12-- - =aj_l ï a 1 0.

Ahora obsérvese que (b) implica a (a). Supóngase

0=a|+'°°+ak, a¡en VI/¡.

Page 226: ASESORES TECNICOS

I-'m'ma.s ¢-umlnlcm' rlmtmtuli-.v 20')

Sea i cl mayor entero i tal que oc, qé 0. Entonces

0=a,+---+a,-_ f1,-=#0-Así, oc,-= -al -----cx,-_,, es un vector no nulo en W,-(HW, + + W,-_1)_

Ahora que sabemos que (a) y (b) son equivalentes, veamos por qué (a) y (c)son equivalentes. Supóngase (a). Sea Q, una base para Wi, 1 5 i 3 k, y seaQ = (Q`,, _ _ _, Q,,)_ Cualquier relación lineal entre los vectores de Q tendrála forma

B1+"°+Bk=0

donde B, es cierta combinación lineal de los vectores en Q,_ Como WI, _ _ _ , W,,son independientes, cada B, es 0. Como cada Q, es independiente, la relaciónque tenemos entre los vectores en Q es la relación trivial.

Se deja la demostración que (c) implica (a) para los ejercicios (Ejercicio 2)- I

Si cualquiera (y, por tanto, todas) de las condiciones del último lema secumple, se dice que la suma W = W, ,+ ' " + W,, es directa o que W es lasuma directa de Wl, _ _ _, W,,, y se escribe

W: W,@_..@W,_En la literatura pertinente el lector puede encontrar esta suma directa comosuma independiente o suma directa interna de WI, ___, W,,_

Ejemplo 11. Sea V un espacio vectorial de dimensión finita sobre el cuer-po F y sea {a1, _ _ _ , a,,} una base de V. Si W, es el subespacio unidimensionalgenerado por a¡, entonces V = W, ® - - - EB W,,_

Ejemplo 12. Sea n un entero positivo y F un subcuerpo de los númeroscomplejos, y sea V el espacio de todas las matrices n x n sobre F. Sea W, elsubespacio de todas las matrices simétricas, es decir, matrices A tales que A ' = A.Sea W2 el subespacio de todas las matrices antìsimétricas, es decir, matrices Atales que A' = -A. Entonces V = W, EB W2. Si A es cualquier matriz de V,la expresión única para A como suma de matrices, una en W, y la otra en Wz, es

A = A1-I-A2

A1 = %(Á -I- A')A2 = É-(A - A').

Ejemplo 13. Sea T cualquier operador lineal sobre un espacio V de di-mensión finita_ Sean cl, _ _ _ , c,, los valores propios distintos de T, y sea W, elespacio de los vectores propios asociados a los valores propios ci. EntoncesWI, _ _ _ , Wk son independientes. Véase el lema anterior al Teorema 2. En par-ticular, si T es diagonalizable, entonces V = W, EB - - ~ GB W,.

Definición. Si V es un espacio vectorial, una proyección de V es un operadorlineal E sobre V tal que E2 = E.

Page 227: ASESORES TECNICOS

Íla Á lR¢'hI'|t l|m'ul

Supóngase que E sea una proyección. Sea R la imagen de 1;' y sea N el es-pacio nulo de E.

l. El vector B está en la imagen R si, y solo si, EB = B. Si B = Ea, en-tonces EB = Eza = Ea = B. Recíprocamente, si B = EB, entonces (natural-mente) B está en la imagen de E.

2. V = R ® N.3. La expresión única de ot, como suma de vectores en R y en N, es

a=Ea+(a-Ea).

De (1), (2) y (3) es fácil ver lo siguiente. Si R y N son subespacios de V talesque V = R ® N, existe un, y solo un, operador proyección E que tiene porimagen R y por espacio nulo N. Este operador se llama proyección sobre R segúno paralelamente a N.

Cualquier proyección E es (trivialmente) diagonalizable. Si {a,, ___, a,}es una base de R y {a,+,, ..., a,,} es una base de N, entonces la baseQ = {a¡, , oz,,} diagonaliza a E:

[Elm =donde I es la matriz unidad r ›< r. Esto ayudará a explicar parte de la termino-logía relacionada con las proyecciones. El lector deberá ver las diferentes si-tuaciones en el plano R2 (o el espacio tridimensional, R3), para eonvencersede que la proyección en R, según N, aplica todo vector en R por proyecciónparalela a N.

Las proyecciones pueden ser empleadas para describir las descomposició-nes en suma directa del espacio V. En efecto, supóngase que V = W, GB - - - EB W,,.Para todojsedefine un operador Ej sobre V. Seaaen V, v. g., oz = al + - ° ' + ak,con oz, en W,. Defïnase E,-a = oz,-_ Entonces E¡ es una ley bien definida. Es fácilver que Ej es lineal, que la imagen de E¡ es W, y que Ef = E¡_ El espacio nulode EJ- es el subespacio

(W1+°'° +W¡-1+W¡+1+ +Wx)

en efecto, la afirmación de que E¡oz = 0 solo dice que a,- = 0; es decir, que oz esefectivamente una suma directa de vectores de los espacios W,, con i =;ê j. Entérminos de las proyecciones E¡, se tiene

(6-13) a=E1a+ -l-Eka

para todo a de V. Lo que (6-13) dice es que

I =E1-l' +Ee-

Obsérvese también que si i aé j, entonces E,E_,- = 0, ya que la imagen de Ej esel subespacio W¡, contenido en el espacio nulo de E,_ Se resume ahora lo dichoy se enuncia y se demuestra un recíproco. *

Page 228: ASESORES TECNICOS

l"m'nm.\ cuminicus clcntentatli-.\' 2/ I

Teorema 9. Si V = W, G9 ° - - G9 Wk, entonces existen k operadores linea-les E1, __., Eh sobre V tales que

(i) todo E,- es una proyección (Ef = E¡);(il) E¡E¡ = 0 si i(iii)I=E¡ +'°'+E,,;(iv) la imagen de E, es W,.

Recíprocamente, si E1, _ _ _ , E* son los operadores lineales que satisfacen lascondiciones (i), (ii) y (iii) y si se hace que W, sea la imagen de E,, entonces V =W1®...@Wk_

Demostración. Solo se necesita probar el recíproco. Supóngase que E1, _ _ _ , Ehson operadores lineales sobre V que satisfacen las tres primeras condicionesy sea W, la imagen de E,_ Entonces, claramente

V= W1+ +We;

en efecto, por la condición (iii) se tiene

a = E¡a-|- -I-Eka

para todo a de V y E,a está en W,-_ Esta expresión de oz es única, pues si

01 -`= 011 + ' ' ' -l' at

con oz, en Wi, v.g_, ai = E¡B¿, entonces, por (i) y (ii) se tienett

E,-a = E E,-oz;i=1

lt= 2 EƒEal'3.'

i=l

= E335= Effif= a,-_

Esto muestra que V es la suma directa de los W,. I

Ejercicios

I. Sea V un espacio vectorial de dimensión finita y sea W, un subespacio de V. Demos-trar que existe un subespacio W, de V tal que V = W, G3 W,.

2. Sea V un espacio vectorial de dimensión finita y sean W,, _ _ _ , Wk subespacios de Vtales que

V=W1+'°°+Wk y

Demostrar que V = W, GB - - - GB W,.

Page 229: ASESORES TECNICOS

fl.) . _-I Í_\'t'lH'tI Ítmïll

3. IlaII:u una proyeccion I-_' que provccle R3 sobre el subespacio generando por (I, I)segun el subespacio generado por (l, 2).

4. Si la', y l:`¿ son proyecciones sobre subespacios independientes. entonces If, fl I-_', esuna proyeccion. ¿lis verdadero o falso?

5. Si l;` es una proyección y _/' un polino1nio_ entonces /(E) = al + bli. ¿Que son u y lvcn terminos de los coeficientes de /'_'

6. Si un operador diagonalizable tiene solo los valores propios 0 y l es una proyeccion,'_l-._s o no cierto?

7. Demostrar que si E es la proyección de R según N. entonces (I - E) es la proyeccionen V según R.

8. Sean E,, _ _ _ __ E, operadores lineales sobre el espacio Vde modo que E, + ' - ~ + E, = l.la) Demostrar que si E,-E, = 0, para ¡ak ¡_ entonces Ef = E,-_ para cada ¡_(h) En el caso lc = 2. demostrar el recíproco de (a). Esto es, si E, + E2 = l, ademas

l-If = E, y Ef = E2. entonces E,E2 = 0.

9. Sean V un espacio vectorial real y E un operador lineal idempotente en V, es decir,una proyección- Demostrar que (I + E) es inversible. Hallar (I + E)T'.

I0. Sea F un subcuerpo de los numeros complejos (o un cuerpo de caracteristica cero).Sea I' un espacio vectorial de dimensión finita sobre F_ Supóngase que E,_ _ _ _ , E, son pro-yecciones de V y que E, + -' - + E, = I. Demostrar que E,-E, = 0. para iqé ¡`_ (Suge-rencia: Usar la función traza y preguntarse que es la tra7a de una proyección.)

II. Sea I' un espacio sectorial. sean W,. _ _ __ H', subespacios de I' y considérese que

V,-= W1+ + W,-_1+ W,+1 + + Wi.Supóngase que V = H', GB - - - _ Demostrar que el espacio dual l'* tiene la descom-posición en suma directa V* = - GB l',f*_33@ eaE

6.7. Sumas directas invariantes

Estamos interesados especialmente en descomposiciones en suma directaV = W, G9 - - - GB W,,, donde cada uno de los subespacios W, es invariantebajo un operador lineal T dado. Dada tal descomposición de V, T induce unoperador lineal T, sobre cada W, por restricción. El efecto de T es entoncesel siguiente. Si oz es un vector de V, se tienen vectores únicos o<,_ _ _ _ _ ak. conoz, en W,, de modo que

0l=¢11“l“""l“¢1ky entonces

Ta = 71101 + ' ° ' + 71;,-C11,-_

Esta situación se describirá diciendo que T es la suma directa de los operadoresT,, _ _ _ , T,,. Al usar esta terminología, debe recordarse que los T, no son ope-radores lineales sobre el espacio V, pero sí sobre los distintos subespacios W,.El hecho de que V = W, G9 - - - GB W, permite asociar a cada 1 en V un k-tupleúnico (-1,, _ _ _ , fz,) de vectores cx, en W, (por cx = az, + --- + fz,) de modo que

Page 230: ASESORES TECNICOS

lfornms' mnónnus eli-nn-nmli-.s 2l3

podamos efectuar las operaciones lineales en V trabajando en -los subespaciosindividuales W,. El hecho de que cada W, sea invariante por T permite consi-derar el efectc de T como efecto independiente de los operadores T, sobre lossubespacios W,. Nuestro propósito ahora es estudiar T, encontrando la des-composición en suma directa invariante en que los T, son operadores de unanaturaleza elemental. -'

Antes de ver un ejemplo, observemos el análogo matricial de esta situa-ción. Supóngase que seleccionamos una base ordenada Q, para cada W, y seaQ la base ordenada de V constituida por la unión de las Q, dispuestas en elorden Q,_ _ _ _ , 'B,,. de modo que Q sea una base para V. Del estudio referenteal análogo matricial para un subespacio invariante simple, es fácil ver que siA = [T](B y A, = [T,](B,, entonces A tiene la forma bloque

A, 0 O(644) A: 0 A2 0 _

O 0 A1.En (6-14) A, es una matriz d, x d, (d, = dim W,), y los 0 son simbolos para losbloques rectangulares con escalares 0 de varias dimensiones. Es también apro-piado describir (6-l4) diciendo que A es la suma directa de las matricesA,-, _ _ _ , A,,.

Más a menudo describiremos el subespacio W, por medio de las proyec-ciones asociadas E, (Teorema 9). Por tanto, se necesita expresar la invarianzadel subespacio W, en términos de los E,.

Teorema 10. Sea Tun operador lineal sobre el espacio Vy sean W,, _ _ _ , W, yE,, _ _ _ , E, como en el Teorema 9. Entonces una condición necesaria y suficientepara que cada subespacio W, sea invariante por T es que T conmute con cada unade las proyecciones E,-: es decir,

TE,=E,T_ i=l__.__k_Demostración. Supóngase que T conmute con cada E,_ Sea a en W,-_ Enton-

ces E¡oz = oz. y `Ta = T(E_,-oz)

= EÁTOI)que muestra que Ta está en la imagen de E1-, es decir, que W, es invariante por T.

Supóngase ahora que todo W, es invariante por T. Se ha de demostrar queTE, = E,-T. Sea a cualquier vector de V. Entonces

a= E¡a-I- -I-EkaTa = TE1a -I- - -- -I- TE;,a_

Como E,-oc está en W,, que es invariante por T, se debe tener que T(E,a) = E,-B,para cierto vector B,. Entonces

E¡TE¿a = EjE¿fi¿

= {0, si i ;-fjEjfij, Si 1: =

Page 231: ASESORES TECNICOS

214 .il lga-lvru lmcitl

Con lo queE¡Ta = E¡TE1a + ° ° ' + 1!.l¡TÍ'i¡,a

= E1131'= TE¡a.

Esto vale para cada oz de V, o sea E,-T = TE,-_ I

Describiremos ahora un operador diagonalizable T en el lenguaje de lasdescomposiciones en suma directa invariante (proyecciones que conmutan conT). Esto será de gran utilidad para entender después unos teoremas de descom-posición más profundos. El lector puede pensar que la descripción que se hadado es muy complicada, en comparación con la formulación matricial o lasimple afirmación de que los vectores propios de T generan el espacio total.Pero se debe tener presente que esta es la primera experiencia con un métodomuy efectivo por medio del cual varios problemas concernientes a subespacios.bases, matrices y entes similares pueden reducirse a cálculos algebraicos conoperadores lineales. Con un poco de experiencia. la eficacia y elegancia de estemétodo de razonamiento llegarán a ser claras.

Teorema ll. Sea T un operador lineal sobre un espacio de dimensión finitaV. Si T es diagonalizable y si c,, _ _ _ , c,, son los valores propios distintos de T,entonces existen operadores lineales E,, _ _ _, E,, en V tales que

(i) T= c,E, + + c,,E,,;(ii) I: E, +---+E,,;(iii) E,E, = 0. iaë Í;(iv) E,2 = E, (E, es una proyección):(v) la imagen de E, es el espacio propio de T, asociado a c,_

Recíprocamente, si existen k escalares distintos c,, _ _ _ , c,, y k operadoreslineales no nulos E,, _ _ _ , E,, que satisfacen (i), (ii) y (iii), entonces T es diagona-lizable, c,, _ _ _ , c,, son los valores propios distintos de T y las condiciones (iv) y (v)también se cumplen.

Demostración. Supóngase que T es diagonalizable, con valores propiosdistintos c,, __ _, c,,. Sea W, el subespacio de los vectores propios asociadosal valor propio c,_ Como se sabe.

V= W1@"°@Wt_

Sean E,, _ _ _, E,, las proyecciones asociadas con esta descomposición, comoen el Teorema 9. Entonces (ii), (iii), (iv) y (v) se cumplen_ Para verificar (i) seprocede como sigue. Para cada a en V,

G=E1a+ "' "l'I$,¡¢(X

yasí,T0l= TE10l-l' -l-TEka

= C1E1(I+ -I-0kE¡(l.

En otras palabras, T = c,E, + ~ - ~ + c,E,,_

Page 232: ASESORES TECNICOS

Furmm mmmicus elerni-ntulvs 2l5

Ahora supóngase que tenemos un operador lineal T junto con escalaresc, distintos y operadores no nulos E, que satisfacen las condiciones (i), (ii) y (iii).Como E,E, = 0, cuando i =/= j, multiplicando ambos miembros de I == E, + - - -+ E,, por E,, se tiene de inmediato que Ef = E,_ Multiplicando T = c,E, +

' - - + c,,E,, por E, se tiene entonces que TE, = c,E,, lo que muestra que cadavector de la imagen de E, está en el espacio nulo de (T - c,_I)_ Como se ha su-puesto que E, ql- 0, esto demuestra que existe un vector no nulo en el espacionulo de (T - c,I), es decir, que c, es un valor propio de T_ Además, los c, sontodos los valores propios de T; en efecto, si c es otro escalar cualquiera, entonces

T-cI=(c1-c)E,-l---- +(c¡.-c)E;.

con lo que si (T - cI)a = 0, se debe tener que (c, - c)E,a = 0. Si oz no es elvector nulo, entonces E,-oz 9€ 0, para algún i, con lo que para ese i se tiene quec, ~ C = 0.

Ciertamente T es diagonalizable, ya que se ha visto que todo vector no nulo,de la imagen de E,, es un vector propio de T, y el que I = E, + ° ' - + E,, mues-tra que estos vectores propios generan V. Todo lo que queda por demostrares que el espacio nulo de (T - c,T) es exactamente la imagen de E,_ Pero estoes evidente, porque si Ta = c,a entonces

tt_2l (Cj _ C¡)E¡-Oz = 0

3%

luego(C, - ¢;,)_E',-a = 0 para cada j

y entoncesE%a'==0, _f7¿i.

Como oc = E,a + --' + E,,a y E,-a = 0, paraj aé i, se tiene que oz = E,a, loque demuestra que oz está en la imagen de E,_ I

Una parte del Teorema 9 dice que para un operador diagonalizable T losescalares c,, _ _ _ , c,, y los operadores E,, _ _ _ , E,, están unívocamente determi-nados por las condiciones (i), (ii), (iii), por ser los c, distintos y porque los E, sonno nulos. Una de las ventajas más notables de la descomposición T = c,E, +~ ~ - + c,,E,, es que si g es cualquier polinomio sobre el cuerpo F, entonces

¶(T) = ¶(c1)E1 + + 9(ct)Et.Dejamos los detalles de la demostración al lector. Para ver cómo se demuestradebe calcularse T' para cada entero positivo r. Por ejemplo,

lt Í:iT2== 2i¢REh zitäfibt=1 ¡=1

lr lr= C¡C¡E¡E¡

z=l3=]

lr= E ¿Ef

t'=l

I:= E CiEi-

t=1

Page 233: ASESORES TECNICOS

Ílô .-ll_i¦rl›m ltm-ul

I l lector debe comparar esto con gt.-I). donde _-I es una matri/ diagonal; en esecaso gl.-ll es simplemente la matri/ diagonal cuyos elementos de la diagonalson ,el/lil). _ _ _ _ _i,'(A,,,,)_

Querriamos en particular hacer notar que pasa cuando sc aplican los poli-nomios de Lagrangc correspondientes a los escalares c,_ c,,;

s_ = (rc - c.)_pj gr (C1 _' Ci)

Se tiene p,(c,) = o`,,, lo que quiere decir quele

l7J`(T) = _§1 ôijEt

= Ej.

Así las proyecciones E, no solo conmutan con T. sino que también son poli-nomios en T.

lales cálculos con los polinomios en T pueden ser usados para dar otrademostración del Teorema 6 que caracteriza los operadores diagonalizablesen terminos de sus polinomios minimales. La demostración es enteramenteindependiente de la anterior.

Si T es diagonalizable. I' = c,-E, + ' ' ' + c,,E,,_ entonces

9(T) = 9(C1)E1 + ' ° ' "l" 9(C1=)EI=

para todo polinomio g. Así g(T) = 0 si, y solo si, g(c,) = 0. para todo ¡_ En par-ticular, el polinomio minimal de T es

P=(fC-C1)'°'(fC-CI=)-

Ahora supóngase que T sea un operador lineal con polinomio minimal¡› = (x ~ c,) - - - (x - c,,), donde c,, _ _ _ , c,, son elementos distintos del cuer-po escalar_ Se forman los polinomios de Lagrange

___ (17 _ C1)pj gj (C¡' _ Ci)

Recordemos del Capítulo 4 que p,(c,) = 6,, y para cualquier polinomio g degrado menor o igual a (k - I) tenemos

9 = 9(c1)P1 + + 9(vt)P›«-Tomando g como el polinomio escalar l y luego el polinomio x, tenemos

_ 1 =(M5) fc ~ Zi›++ ++pi: p_ , , ,__(El lector advertido notará que la aplicación a x puede no ser válida. pues kpuede ser l. Pero si k = I, T es un múltiplo escalar de la identidad. por tanto_diagonalizable.) Ahora sea E, = p_,-(T). De (6-15) tenemos

=E1+"°+Ek, IT = C1E1 + ' ° ° + Cklflk.

Page 234: ASESORES TECNICOS

l"nrnm.\ mnonn-us' clctm'tmtl¢'.s 217

Obsérvese quest i #= /'_ entonces p,p, es divisible por el polinomio minimal p,pues p,p_, contiene a cada (x - c,) como factor Así,(li-17) EtE¡ = 0, 'i 75

Debemos notar un aspecto más. a saber, que E, 9': 0, para todo i. Esto esporque p es el polinomio minimal de T y así no podemos tener que p,(T) = 0,ya que p, es de grado menor que el grado de p. Este último comentario, juntoCOU (Ó-16), (Ó-17) Y Cl heCh0 de que ¡OS C.- son distintos, permite aplicar el Teo-rema ll para concluir que T es diagonalizable. I

Ejercicios

l. Sea E una proyección de V y sea T un operador lineal sobre V. Demostrar que la ima-gen de E es invariante por T si, y solo si. ETE = TE. Demostrar que ambos, la imageny el espacio nulo de E, son invariantes por T si, 'y solo si, ET = TE.

2. Sea T el operador lineal sobre R2, cuya matriz en la base ordenada canónìca es

[2 1'0 2_ '

Sea W, el subespacio de R2 generado por el vector e, = (1_ 0)_(a) Demostrar que W, es invariante por T,(b) Demostrar que no existe un subespacio W, que es invariante por T y que es

complementario de W,:

R2 = W, Et) W2.(Comparar con el Ejercicio 1 de la Sección 6_5)_

3. Sea T un operador lineal sobre un 'espacio vectorial de dimensión finita. Sea R la ima-gen de Ty sea N el espacio nulo de T. Demostrar que R y N son independientes si, y solosi. V = R EB N.

4. Sea T un operador lineal sobre V. Supóngase que V = W, (9 - - - G9 W,_ donde cadaW, es invariante por T. Sea T, el operador inducido (restricción) sobre W,.

(a) Demostrar que det (T) = det (T,)- - ~ det (T,,)_(b) Demostrar que el polinomio característico de T es producto de los polinomios

característicos de T,, _ _ _ , 7),.(c) Demostrar que el polinomio minimal de T es el mínimo común múltiplo de los

p0lin0miOS minimales de T,, _ _ _ , Th. (sugerettcirrg Demostrar y emplear el hecho correg-pondiente para sumas directas de matrices.)

5. Sea T el operador lineal diagonalizable sobre R2 que se examinó en el Ejemplo 3 dela Sección 6.2. Usar los polinomios de Lagrange para escribir la matriz representante Aen la forma A = E, + 2E2, E, + E2 = I, E,E2 = 0.

6. Sea A la matriz 4 ›< 4 del Ejemplo 6 de la sección 6.3. Hallar las matrices E,, E2, E,dc modo que A = c,E, + ¢-¿E2 + c3E¿,, E, + E2 + E_, = I y E,-E, = 0, i+ ¡_

7. En los Ejercicios 5 y 6, obsérvese que (para todo i) el espacio de vectores propios asocia-dos con el valor propio c, es generado por los vectores columna de las matrices E, con i ql= i.¿_ Es una coincidencia?

Page 235: ASESORES TECNICOS

2 IN Á ¡gi-hm Ilmwl

8. Sea I' un operador lineal sobre V que conmuta con todo operador proyección sobre V.¿Que se puede decir de T?

9. Sea V el espacio vectorial de las funciones reales continuas sobre el intervalo [~ l. I]del eje real. Sea W', el subespacio de las funciones pares, f(-x) = f(x), y sea W, el subes-pacio de las funciones impares, f(-x) = --f(x).

(a) Demostrar que V = W', EB W,.(b) Si T es el operador integración indefinida

<mw=fme¿son WP y W, invariantes por T?

6.8. Teorema de descomposición prima

Estamos tratando de estudiar un operador lineal T sobre el espacio V dedimensión finita, por descomposición de T en suma directa de operadores queson en cierto sentido elementales. Esto se puede hacer, en ciertos casos especiales,por medio de los valores propios y los vectores propios de T; es decir, cuandoel polinomio minimal de T se puede factorizar sobre el cuerpo de los escalaresI-` como producto de polinomios mónicos distintos de grado 1. ¿Qué se puedehacer en el caso del T general? Si se estudia T'usando los valores propios, tene-mos dos problemas. Primero, T puede no tener un valor propio simple; estoes realmente una deficiencia del campo escalar, a saber: que no es algebraicamentecerrado. Segundo, incluso si el polinomio característico se puede factorizarcompletamente sobre F, como producto de polinomios de grado 1, puede serque no haya suficientes vectores propios para T que generen el espacio V; estocs, obviamente, una deficiencia de T. La segunda situación queda ilustrada porel operador T en F3 (F cualquier cuerpo) representado en la base canónìca por

20 OA=l2 O-

OO-1

El polinomio característico para A es (x - 2)2(x + 1) y este es también el po-linomio minimal para A (o para T). Así que T no es diagonalizable. Se ve queesto sucede porque el espacio nulo de (T - 21) tiene solo dimensión 1. Porotro lado, el espacio nulo de (T + I) y el espacio nulo de (T - 2I)2, juntos,generan V, siendo el primero, el subespacio generado por e3 y el último, el sub-espacio generado por el y ez.

Este será más o menos el método general para el segundo problema. Si (re-cuérdese que es una suposición) el polinomio minimal de T se descompone en

p :(1: _ cl)f| . . . (3: _.. ck)1'|›

donde cl, . . . , c,, son elementos distintos de F, entonces se verá que el espacioV es suma directa de los espacios nulos de (T - c,.I)", i = 1, . . . , k. La hipó-

Page 236: ASESORES TECNICOS

I-'ormus mmonirus ¢'l¢'tm'ntul¢'.r -fl"

tesis para p es equivalente al hecho que T es triangulable (Teorema 5); sin em-bargo, ese conocimiento no va a ayudar.

El teorema que se probará es más general de lo que se ha dicho, ya que esaplicable para la descomposición prima del polinomio minimal, sean o no seande primer grado todos los factores primos. Le será de provecho al lector pensaren el caso especial cuando los factores primos son de grado 1, y aún más par-ticularmente pensar en la demostración del tipo proyección del Teorema 6,un caso especial de este teorema.

Teorema 12 (teorema de la descomposición prima). Sea T un operadorlineal sobre el espacio vectorial V de dimensión finita sobre el cuerpo F. Sea pel polinomio minimal de T,

p=pr---prdonde los p¡ son polinomios mónicos irreducibles distintos sobre F, y los ri sonenteros positivos. Sea W, el espacio' nulo de p¡'(T)", i = 1, . . _ , k. Entonces

(Í) V: W1@"'@ Wir;(ii) cada E, es invariante por T;(iii) si T, es el operador inducido sobre W,- por T, entonces el polinomio mini-

mal de T, es p¦-".

Demostración. La idea de la demostración es la siguiente. Si la descom-posición en suma directa (i) es válida, ¿cómo se pueden determinar las pro-yecciones E1, . . . , E,, asociadas a la descomposición? La proyección E, serála identidad sobre W, y cero sobre los otros W,-. Se encontrará un polinomioh, tal que h,(T) es la identidad sobre W, y es cero sobre los otros W,-, con lo queh,(T) + - - - + h,,(T) = I, etc.

Para todo i, sea

fi = = H Pi'-Pz per

Como pl, _ . - , Pi son polinomiales primos distintos, los polinomios fl, . . . , fison primos relativos (Teorema 10, Capítulo 4). Así que existen polinomiosgl, . . . , g,, tales que

11

21 figi = 1.

Nótese también que si i qé j, entonces es divisible por el polinomio p, puescontiene a cada p{,,"' como factor. Se demostrará que los polinomios h¿ =

figi se comportan del mismo modo descrito al comienzo de la demostración.Sea E, = h¿(T) = _fl(T)g¡(T). Como hl + + hk = 1 y p divide a

para i qé j, se tiene_|_Ek=I

E¿E¡= 0, Si

Con lo que E, son proyecciones que corresponden a una descomposición ensuma directa del espacio V. Deseamos ahora hacer ver que la imagen de E, es

Page 237: ASESORES TECNICOS

.'30 .-ll_t¦i-lun lun-ul

exactannente el subespacio ll',-_ lis claro que cada vector de la imagen de I-Q, estácn ll'¡; en efecto. si 1 esta en la imagen de l;`,. entonces oz == l'.`,oi y asi

imWw=pMwma= I'-('1')"f»-('l')s/.-(T)a0

pues p"_/gg, es divisible por el polinomio minimal p. Recíprocamente, supóngaseque fx está en el espacio nulo de p,(T)". Si j = i, entonces _/Q-gj es divisible porpj', con lo que _/,-(T)g¡(T)oi = 0, es decir, E,-cx = 0 para j =# i. Pero entonceses inmediato que E,-cx = cx, es decir, que -cx está en la imagen de E,-_ Esto com-pleta la demostración de la parte (i) de la tesis.

lis claro que los subespacios W, son invariantes por T. Si T, es el operadorinducido en W, por T, entonces evidentemente p¿(T,-)"' = O, ya que, por defini-ción, p,.(T)" = 0 en el subespacio W,-. Esto muestra-que el polinomio minimalde I`,- divide a p{". Recíprocamente, sea g cualquier polinomio tal que g(T,~) = O.I íntonccs g(T)f¿(T) = 0. Con lo que gf¡ es divisible por el polinomio minimal pde 1'; es decir, p{'f divide a gƒi. Es fácil ver que p,ï' divide a g. Luego el polino-mio minimal de T,- es pff. I

Corolario. Si E1 , . _ . , E,, son las proyecciones asociadas a la descomposi-ción prima de T, entonces todo E¡ es un polinomio de T, _t' en eon.s-eeueneiu, si unoperador lineal U conmuta con T. entonces U conmuta con cada uno de los Ei;es decir, cada subespacio W, es invariante por U.

Con la notación de la demostración del Teorema I2, consideremos el casoespecial en que el polinomio minimal de T es un producto de polinomios deprimer grado; es decir, el caso en que cada p,- es de la forma pi = x - e,-. Ahorala imagen de E, es el espacio nulo W,. de (T - c,.I)". Hágase D = c,E, + ° ° ° +r,,E,,. Por el Teorema ll. D es un operador diagonalizable que se llama la partediagonalizable de T. Considérese el operador N = T - D. Ahora

T = Tlfli + -I- TE).D = CIE1-l" -l-CkEk

asiN=(r-anm+~~+¢T-amm.

l-Íl lector debe estar ya lo suficientemente familiarizado con las proyeccionespara ver ahora que

N2 = (T _ C1I)2E1 + ' ' ' + _ Ci-I)2Ek

y. en general, que

N' = (T - ¢i1>†1›u + + (T - aim.Cuando r 2 ri para cada i, se tendrá que N' = 0. ya que el operador (T- e,.l)'será entonces 0 en el recorrido de E,-_

Definición. Sea N un operador lineal sobre el espacio rectoría/ V. Se diceque N es nilpotente si existe un entero positiro r tal que N' = 0.

Page 238: ASESORES TECNICOS

l"m'tmt.\ i'utmIln'u.\' t'lt'tm'tthtli'.\ 22'

Teorema I3. Sea T un operador lineal sobre el espacio vectorial V de di-mensión _/'inita sobre el cuerpo F. Supóngase que el polinomio minimal de T sedescompone sobre F, en producto de polinomios lineales. Entonces existen unoperador diagonalizable D sobre V y un operador N nilpotente sobre V tales que

m)DN==ND.El operador diagonalizable D y el operador nilpotente N están unívocamentedeterminados por (i) y (ii ), y cada uno de ellos es un polinomio de T.

Demostración. Acabamos de observar que se puede escribir T = D + N.donde D es diagonalizable y N nilpotente, y donde D y N no solo conmutan,sino que son polinomios de T. Supóngase ahora que también tenemos T = D' +N ', donde D' es diagonalizable, N' nilpotente y D'N' = N 'D'. Demostrare-mos que D = D' y N= N'.

Como D' y N' conmutan entre sí y T = D' + N', se ve que D' y N' con-mutan con T. Así, D' y N' conmutan con cualquier polinomio de T; luegoconmutan con D y con N. Ahora tenemos

o+N=U+N'0

D-o=M-Ny todos estos cuatro operadores conmutan entre si. Como D y D' son ambosdiagonalizables y conmutan, son simultáneamente diagonalizables, y D - D' esdiagonalizable. Como N y N' son nilpotentes y conmutan, el operador (N' - N)es nilpotente; en efecto, como N y N' conmutan

(N' - Nr = gfço <N'›f¬<-Nroy así. cuando r es suficientemente grande, cada término en esta expresión de(N' - N )' será O. (En realidad un operador nilpotente en un espacio de dimen-sión n debe tener su potencia n-ésima 0; si se hace arriba r = 2n, será suficien-temente grande. Se sigue entonces que r = n es suficientemente grande, peroesto no es obvio en la expresión anterior.) Ahora D - D' es un operador dia-gonalizable y también nilpotente. Un tal_operador es evidentemente el opera-dor cero, pues como es nilpotente, el polinomio minimal de este operador esde la forma x' para algún r 5 m; pero entonces, como el operador es diagona-lizable, el polinomio minimal no puede tener raices repetidas; luego r = 1 yel polinomio minimal es simplemente x, lo que dice que el operador es 0. Conlo que se tiene que D = D' y N = N'. I

Corolario. Sea V un espacio vectorial de dimensión finita sobre un cuerpoF algebra¡camente cerrado, r. g., el cuerpo de los números complejos. Entoncestodo operador lineal T sobre V puede escribirse como suma de un operador diago-nalizable D _t' un operador nilpotente N que conmutan. Estos operadores D _t' Nson únicos _t' cada uno es un polinomio de T.

Page 239: ASESORES TECNICOS

'Jha94 4 l¡,'¢'l›ra lmml

Por estos resultados ve que el estudio de los operadr-res lineales en unespacio vectorial sobre un cuerpo algebrancamentc cerrado queda csencialtnentereducido al estudio de operadores mlpotentes. Para espacios vectoriales sobrecuerpos no algebraicamente cerrados se dehc encontrar todavia un sustituto delos valores y vectores propios. Es un hecho muy interesante que estos dos pioblemas pueden tratarse en forma simultanea, y ello es lo que se hara en el ptoximo capítulo.

Para concluir esta sección queremos dar un ejemplo que ilustre algunasde las ideas del teorema de descomposición prima. Hemos prel`crido darlo .illinal de la sección, ya que se refiere a ecuaciones diferenciales y, por tanto, noes exclusivamente de álgebra lineal.

Ejemplo 14. En el teorema de descomposición prima no es necesario queel espacio vectorial V sea de dimensión finita, ni es necesario para las partes(i) y (ii) que p sea el polinomio minimal de T. Si T es un operador lineal sohreun espacio vectorial arbitrario y si existe un polinomio mónico p, tal que¡›(T) = 0, entonces las partes (i) y (ii) del Teorema 12 son válidas para T conla demostración que se ha dado.

Sea n un entero positivo y sea V el espacio de todas las funciones f n vecescontinuamente derivables sobre el eje real y que satisfacen la ecuación diferencial

n dn--1 dl'(tì-18) %+a,._i-(í¿;;:'-Í-l----+aiå+ai›ƒ=O

donde los ao, _ . _, a,,_1 son constantes dadas. Si C, representa el espacio delas funciones n veces continuamente derivables, entonces el espacio V de las so-luciones de esta ecuación diferencial es un subespacio de C,,. Si D representael operador derivación y p es el polinomio

p=:1:"+a.._1:v"*"+--- +a1;v+aientonces V es el espacio nulo del operador p(D), ya que (6-18) no dice más quep(D)f = 0. Por tanto, V es invariante por D. Considérese ahora D como unoperador lineal sobre el subespacio V. Entonces p(D) = 0.

Si estamos considerando funciones derivables de valores complejos, enton-ces C,, y V son espacios vectoriales complejos, y ao, . . . , a,,_ 1 puede ser cualquiernúmero complejo. Escribimos ahora

P == (Iv - 01)" (21 - co"donde los c,, . . . , c,, son números complejos distintos. Si WI- es el espacio nulode (D - c,-1)", entonces el Teorema 12 dice que

V=W,®---(9W,..Es decir, si f satisface la ecuación diferencial (6-18), entonces f queda unívoca-mente determinado en la forma

ƒ =.-_- _f¡ + . . . .|__fk

donde las f satisfacen la ecuación diferencial (D - c,-I)'1f¡ = 0. Así el estudio

Page 240: ASESORES TECNICOS

l-'armas ramàntrm clrnicntali-s 22.!

de las soluciones de la ecuación (6-18) queda reducido al del espacio de solu-ciones de una ecuación diferencial de la forma(ti-19) (D - cI)'j` = 0.

I-Ésta reducción se ha efectuado por los métodos generales del álgebra lineal,es decir, por el teorema de descomposición prima.

Para describir el espacio de soluciones de (6-19), se debe conocer algo res-pecto a las ecuaciones diferenciales; esto es, se debe conocer algo respecto aD. además del hecho de que es un operador lineal. Es muy fácil demostrar,por inducción sobre r, que si f está en C,, entonces

(D - 0137 = ¢°'D'(0"“f)esto es,

- cf(t) = e°'åi-¿ (e-°'f), ete.

Asi, (D - cl)'f = 0 si, y solo si, D"(e"“ƒ) = 0. Una función g tal que D'g = 0,es decir, d'g/dt' = 0, debe ser una función polinomio de grado (r - 1) o menor

g(Z) = bo 'l' bit “l” ° ° ' + bf_~1É'"1-

Así que f satisface (6-I9) si, y solo si, tiene la forma= €“(b0 + b1Í« + ° ° ' + b,-_1t'_l).

En consecuencia, las «funciones›› ef', te", ..., t"_'e“ generan el espacio desoluciones de (6-19). Como 1, t, . _ . , t" 1 son funciones linealmente indepen-dientes, y la función exponencial no tiene ceros, estas r funciones tie", 0 ;<_ j 3r - l, forman una base del espacio de soluciones.

Volviendo a la ecuación diferencial (6-18), que es

P@M=0P=@-m“~@-M"

se ve que las n funciones t'"e'1", 0 5 m 5 rj - 1, l 5 j S k, forman una base delespacio de soluciones de (6-18). En particular, el espacio de soluciones es dedimensión finita y tiene dimensión igual al grado del polinomio p.

Ejercicios

l. Sea T un operador lineal sobre R2 representado en la base ordenada canónìca por lamatriz

6 -3 --24 -1 -2 -

10 -5 -3

Expresar el polinomio minimal p de Ten la forma p = p¡p2, donde p, y pz son polinomiosmónicos e irreducibles sobre el cuerpo de los números reales. Sea W, el espacio nulo dep,.(T). Hallar las bases (B, para los espacios W, y W,. Si T, es el operador inducido en W,por T, hallar la matriz de T, en la base (B, (anteriormente citada).

Page 241: ASESORES TECNICOS

,U4 ¡I l_i3cl›ra lmi-al

2. Sea I' el operador lineal sobre Ri representado por la matri/

3 1 -l2 2 -l

2 0

en la base ordenada canónìca. Demostrar que existen un operador diagonali/.able D sobreR" y un operador nilpotente N sobre R3 tales que T = D + N y DN = ND. Hallar lasmatrices de D y N en la base canónìca. (No hay más que repetir la demostración del Teore-ma l2 para este caso especial.)

_). Si I' es el espacio de los polinomios de grado menor o igual que n sobre un cuerpo I-`,demostrar que el operador derivación sobre V es nilpotente.

4. Sea T el operador lineal sobre el espacio V de dimensión finita con polinomio carac-tcristico

ƒ =: (x -_ còdl . . . (x _- ck)dk

y polinomio minimalP =_- (x -_ cl)1'1 .. . (x -_ ck)Tb_

Sea W, el espacio nulo de (T- c¡I)".(al Demostrar que I/V, es el conjunto de todos los vectores oi de V tales que (T - c,-I)'"oi = 0

para algún entero positivo m (que dependerá de oz).(h) Demostrar que la dimensión de W,. es d,-_ (Sugerencia: Si 71- es el operador inducido

en W,. por T, entonces T¡ - c¡I es nilpotente; asi el polinomio característico de T,- - c,-Idebe ser x"*, donde e,- es la dimensión de W, (¿demostración'?); así el polinomio caracte-rístico de T, es (x - c¡)**: ahora úsese el hecho de que el polinomio característico de T esel producto de los polinomios característicos de los T¡, para demostrar que ei = d,-_)

5. Sea V un espacio vectorial de dimensión finita sobre el cuerpo de los números comple-jos. Sea T un operador lineal sobre V y sea D la parte diagonalizable de T. Demostrar quesi _e es cualquier polinomio con coeficientes complejos, entonces la parte diagonalizablede g(T) es g(Dl.

6. Sea V un espacio vectorial de dimensión finita sobre el cuerpo F y sea T un operadorlineal sobre T tal que rango (T) = l. Demostrar que o bien T es diagonalizable o bien Tesnilpotente, pero no ambas cosas simultáneamente.

7. Sea V un espacio vectorial de dimensión finita y sea Tun operador lineal sobre V. Supón-gase que T conmuta con cada operador lineal diagonalizable en V. Demostrar que T esun múltiplo escalar del operador identidad.8. Sea V el espacio de las matrices n ›< n sobre el cuerpo F y sea A una matriz dada n ›< nsobre F. Se define un operador lineal Tsobre V por T(B) -= AB = BA. Demostrar que siA es una matriz nilpotente, T es un operador nilpotente.

9. Dar un ejemplo de dos matrices nilpotentes 4 ›< 4 con el mismo polinomio minimal(necesariamente tienen el mismo polinomio característico), pero que no son semejantes.

IO. Sea T un operador lineal sobre el espacio V de dimensión finita, sea p = pi' - - - pj? elpolinomio minimal de T y sea V = W, G9 - - - G9 W,, la descomposición prima de T; esdecir, W¡ es el espacio nulo de pj-(T)'1. Sea W cualquier subespacio de V invariante por T.Demostrar que

W: (WÑW1)®(WmlV2)®"'@(WÑWk).

Page 242: ASESORES TECNICOS

fu '-0 '-Al-`ornm.\ ranonn'a.\ clrnu-nmlrs

ll. ¿Cuál cs el error en la siguiente demostración del Teorema l3'? Supóngase que el po-linomio minimal de 7' sea un producto de factores lineales. Entonces, por el Teorema 5,T es triangulable. Sea CB una base ordenada tal que A = [T](B es triangular superior. SeaD la matriz diagonal con elementos en la diagonal principal a, 1, . . . , a,,,,. Entonces A ==D + N, donde N es estrictamente triangular superior. Evidentemente, N es nilpotente.

12. Si se meditó en el Ejercicio ll, pensar nuevamente en él, después de observar quédice el Teorema 7 respecto a las partes diagonalizable y nilpotente de T.

13. Sea T un operador lineal V con polinomio minimal de la forma p" con p irreducìblesobre el cuerpo de los escalares. Demostrar que existe un vector oi en V tal que el T-anu-lador de oi es p".

A

I4. Usar el teorema de descomposición prima y el resultado del Ejercicio 13 para demos-trar lo siguiente. Si T es cualquier operador lineal sobre un espacio V de dimensión finita.entonces existe un vector cx en V con T-anulador igual al polinomio minimal de T.

IS. Si N es un operador lineal nilpotente sobre un espacio de dimensión n, entonces elpolinomio característico de N es x".

Page 243: ASESORES TECNICOS

7. Las formas racionaly de Jordan

7.1. Subespacios cíclicos y anuladores

Sea nuevamente V un espacio vectorial de dimensión finita sobre un cuer-po F y sea T un operador lineal dado (pero arbitrario) sobre V. Si oc es cualquiervector de V, existe un subespacio mínimo de V que es invariante por T y quecontiene a oc. Este subespacio se puede definir como la intersección de todoslos subespacios invariantes por T que contienen a oc; sin embargo, es más útilpor el momento ver las cosas del siguiente modo. Si W es un subespacio deV invariante por T y que contiene a oz, entonces W debe contener también alvector Toa; luego W debe contener a T(Toz) = Tzoz, T(T2oz) = T3a, etc. Estocs, W debe contener a g(T)a para todo polinomio g sobre F. El conjunto detodos los vectores de la fomia g(T)ot, con g en F[x], cs evidentemente invariantep'or T, y es así el menor subespacio invariante por T que contiene a oz.

Definición. Si oz es cualquier vector de V, el subespacio T-cíclico generadopor 1 es el subespacio Z(oi; T) de los rectores de la forma g(T)ot, g en F SiZ(ag T) -= V entonces se dice que oz es un vector cíclico de T.

Otro modo de describir el subespacio Z(oi; T) es que Z(oz; T) es el subespaciogenerado por los vectores T"oz, k 2 0; y así oi es un vector cíclico de T si, y solo si,estos vectores generan V. Se previene al lector que el operador general T notiene vectores cíclicos.

Ejemplo l. Para cualquier T, el subespacio T-cíclico generado por el vec-tor nulo es el subespacio nulo. El espacio Z(a; T) es de dimensión uno si, y solosi, a es un vector propio de T. Para el operador identidad, todo vector no nulogenera un subespacio cíclico unidimensional; así,. si dim V > 1, el operador

226

Page 244: ASESORES TECNICOS

lot humor nntonol t «li .lonlon JJ'

identidad no tiene vector cíclico. lln ejemplo de operador que tiene un vectorciclico es el operador lineal I sobre lfi que esta representado en la base orde-utda canonica por la matri/

0 01 0

\quí cl xcctor cíclico (un vector cíclico) es e,; en efecto, si /i = (a, b), entoncescon _e = a + /›_\' se tiene /i = _e(T)e¡_ Para este mismo operador el subespaciociclico generado por ez es el espacio unidimensional generado por ez. pues eles un vector propio de T.

Para cualquier T y oz sean las relaciones lineales

Cr›a+CiTa+---+ci-T*a=0

entre los vectores T'1. esto es. se consideran los polinomios g = co + c¡.\' + - - -r c,_.\* que tienen la propiedad de qtte g(T)ot = 0. El conjunto de todos los

n I~`[_\'] tales que _e(T)1 = tl es claramente un ideal en F[x]. Es también unideal no nulo. ya que contiene al polinomio minimal p del operador T(p(T)oi = 0para todo 1 de I ).

/2 C

Definición. Si 1 es cualquier rector de l'. el T-anulador de Oz es el ideal M ('11 T)cn F[x] que consta dc todos los /u›linomios _e sobre F de modo que g(T)ot = 0..ll polinonrio mónico único p, que grcncra este ideal se lc llamará también el T-anulador de 1.

Como sc observo anteriormente. cl T-anulador p, divide al polinomio mi-nimal del operador T. El lector debe observar también que grd (p,) > 0, salvoque 1 sea cl vector cero.

leorcma I. Sea 1 un rector no nulo en I' r sea p, el T-anulador de 1.

til lil grado dc px cs igual a la dintcnsión del .subespacio cíclico Z(9t; T).(ii) Si cl _«¿r(ulo de pl es lr. entonces los rectores ot, T1. T21, . . . _ TR" ¡ai

lo/'tttult una lulsc (lc Zlâti T).(iii) Si L' es el operador lineal en Z(1: T) inducido por T. entonces el poli-

nomio nunima/ de (' es pl-

l)cnzostrac¡on_ Sea g un polinomio sobre cl cuerpo F. Se escribe

g = par; -I- 7'

donde r : 0 o grd tr) < grd tp,) = If. El polinomio p,q esta en el T-anula-dor dc 1. y asi

g(T)ot = r(T)a.

(omo r : ll o grd tr) < lr, el vector r(T)1 es combinación lineal de los vecto-res 1. lu. _ _ _ T* '1_ 3 como _qt7`)7. es un vector tipico en ¿(11 T). esto muestraque cstos k vectores generan Ztai; T). Estos vectores son. en efecto. linealmenteindependientes- ya que cualquier relación lineal no trivial entre ellos dará un

Page 245: ASESORES TECNICOS

,','.'¡' 'I ll!a'IIl U Illlflll

polinomio g no nulo lul que _t'(l`)az . 0 y prd (g) p-_rd (¡›,). que es ;ih.~.urdo.I-.slo demuestra (i) y (ii).

Sea L' el operador lineal en Kia: I`) que sc obtiene por reslricci<'›n de I` alese subespacio. Si g es un polinomio sobre I", entonces

z›..(U)9(T)« = zh-(T)9(T)«= a(T)P«(T)a= 9(T)0= 0.

Así, el operador p,,( U ) aplica cada vector de Z(oz; T) en 0 y es el operador ceroen /I(oz; T). Además, si h es un polinomio de grado menor que k, no se puedetener h(U) = 0; en efecto, entonces h(U)oz = h(T)a = 0, que contradice ladelìnición de pa. Esto demuestra que pa es el polinomio minimal de U. I

Una consecuencia particular de este teorema es la siguiente. Si sucede queoz es un vector cíclico para T, entonces el polinomio minimal de T debe tenerigual grado que la dimensión del espacio V; luego el teorema de Cayley-Hamiltondiee que el polinomio minimal de T es el polinomio característico de T. Se de-mostrará más adelante que para cualquier T existe un vector oc en V que tieneal polinomio minimal de T por anulador. Se deducirá entonces que T tieneun vector cíclico si, y solo si, los polinomios minimal y característico de T sonidénticos. Pero ello tomará algún trabajo antes de poderlo ver.

El plan es estudiar el T general usando operadores que tienen un vector cí-clico. Para ello se considera un operador lineal U. sobre el espacio V de dimen-sión k. que tiene un vector cíclico oz. Por el Teorema 1 los vectores oz, . . _ , Uk- 'ocforman una base del espacio W; y el anulador pa de oc es el polinomio minimalde U (y entonces, también el polinomio característico de U ). Si se hace og = UÍ" loz,i = 1,. _ _ ,k, entonces la acción de Usobre la base ordenada G3 = -{oz¡,. _ _ , oz,,} es

zi]-,oowkíl

Uak = -com - cm - -- ck_1aݢ(7-1)

donde p = co + c¡x + ' ' - + c,,_¡ + xk. La expresión para Uak se desprendedel hecho de que p,,(U)oz = 0, es decir,

Uka 'l' Ck_1Uk_10f + ' ' ' 'l' C1U0f “l” C00! = 0-

Esto dice que la matriz de U, en la base ordenada G3, es

0 0 0 0 -C., `1 0 0 0 -C,

(7-2) 0 1 0 0 -C2 -

ò ò ò 1 -¢,,_La matriz (7-2) se llama la matriz asociada al polinomio mónico pa.

Teorema 2. Si U es un operador lineal sobre un espacio de dimensión fini-ta W, entonces U tiene un vector cíclico si, y solo si, existe una base ordenada

Page 246: ASESORES TECNICOS

l.H\ lflflnm nnmuul r ali- Iouluu .'29

«lc H' cn lu que U este rcprc.s'e¡mulu por lu matri: asociada al polinomio mini-mal de U.

I)en1o.vn-ación. Antes se observó que si U tiene un vector cíclico, entoncesexiste tal base ordenada de W. Recíprocamente_ si se tiene una base ordenada{oi¡, . _ _ _ cx,,} de W en la que U esté representada por la matriz asociada a supolinomio minimal, es obvio que oc, es un vector cíclico de U. I

Corolario. Si A es la matri: asociada u un polinomio mónico p, entonces pes el polinomio minimal y el polinomio característico de A.

Demostración. Una manera de demostrarlo es hacer que U sea el operadorlineal sobre 1-"°, representado por A' en la base ordenada canónìca. y aplicarel Teorema l junto con el teorema de Cayley-Hamilton. Otro método consisteen usar el Teorema l para ver que p es el polinomio minimal de A y verificarpor un cálculo directo que p es el polinomio característico de A. I

Un último comentario: si T es un operador lineal cualquiera sobre el espa-cio V y oi es un vector de V, entonces el operador U que T induce en el subes-pacio cíclico Z(oz; T) tiene un vector cíclico. que es oz. Así. Z(oi; T) tiene una baseordenada en la cual U está representado por la matriz asociada de p,,, T-anu-lador de oz.

Ejercicios

I. Sea T un operador lineal sobre F2. Demostrar que un vector no nulo, que no es unvector propio de T. es un vector cíclico de T. Demostrar luego que o T tiene un vector cí-clico o T es un múltiplo escalar del operador identidad.

2. Sea T el operador lineal sobre R3 representado en la base ordenada canónìca por lamatriz

2 0 00 2 0 -0 0 -1

Demostrar que T no tiene vector cíclico. ¿Cuál es el subespacio T-cíclico generado por elvector (l, -1, 3)?

3. Sea T el operador lineal sobre C3 representado en la base ordenada canónìca por lamatriz

1 í 0-l 2 --i -

0 l 1

Hallar el T-anulador del vector (I, 0, 0). Hallar el T-anulador de (I, 0, i).

4. Demostrar que si T2 tiene un vector cíclico, entonces T tiene un vector cíclico. ¿Esverdadero el recíproco?

5. Sea V un espacio vectorial de dimensión n sobre el cuerpo F y sea N un operador lineal

Page 247: ASESORES TECNICOS

-' ill A lm-Im: lmml

nilpotente sobre I', Supóngase que N" ' ql: 0 y of un vector cualquiera de I' de modoque N" 'oz =¡ë 0. Demostrar que oz es un vector cíclico de N. ¿Cuál es exactamente la matri?dc N en la base ordenada {a, Nor, _ _ . , N""oc}'?

6. Dar una demostración directa de que si A es la matriz asociada al polinomio móni-co p, entonces p es el polinomio característico de A.

7. Sea V un espacio vectorial de dimensión n y sea Tun operador lineal sobre V. Supóngaseque T es diagonalizable.

(al Si T tiene un vector cíclico, demostrar que T tiene n valores propios distintos.(b) Si T tiene n valores propios distintos, y si {oz¡, _ _ _ _ oz,,} es una base de vectores pro-

pios de T. demostrar que oz = or, + ° - - + og, es un vector cíclico de T.

8. Sea T un operador lineal sobre el espacio vectorial V de dimensión finita. Supóngaseque 'I' tiene un vector cíclico. Demostrar que si U es un operador lineal cualquiera que con-mute con T, U es un polinomio de T.

7.2. Descomposiciones cíclicas ~y ƒbrma racional

El objeto de esta sección es demostrar que si T es un operador lineal arbi-trario sobre un espacio V de dimensión finita, entonces existen vectores oil, _ _ _ , oz,en V tales que

'V' = Z(a1; T) G9 ®Z(a.-; T)-

l:`n otras palabras, queremos demostrar que V es una suma directa de subes-pacios T-cíclicos, lo cual mostrará que Tes la suma directa de un número finitode operadores lineales, cada uno de los cuales tiene un vector cíclico. El efectode esto será reducir muchos problemas acerca del operador lineal general aproblemas análogos con un operador que tiene un vector cíclico. El teoremaque se demostrará (Teorema 3) es uno de los resultados más profundos delalgebra lineal y tiene muchos corolarios interesantes.

El teorema de la descomposición cíclica está estrechamente relacionadocon el siguiente problema, ¿Qué subespacios W, invariantes por T, tienen lapropiedad de que existe un subespacio W ', invariante por T, tal que V = WEB W'?Si W es cualquier subespacio de un espacio V de dimensión finita, entoncesexiste un subespacio W' tal que V = W EB W'. En general hay muchos de talessubespacios W' y cada uno de ellos se llama complementario de W. Se pregunta_¿cuándo un subespacio invariante por T tiene un subespacio complementariotambién invariante por T?

Supóngase que V = W GB W', donde W y W' son invariantes por T, y véaseentonces qué se puede descubrir respecto al subespacio W. Cada vector If deV es de la forma /í = ¬,' + ¬,"_ donde 7 está en Wy ¬," en W'. Si f es un polinomiosobre el cuerpo de los escalares, entonces

f(T)B = f(T)^r + f(T)^r'-

Page 248: ASESORES TECNICOS

las _/ormus rm-mmil r dv ,hmlun .lil

Como W y W' son invariantes por T, el vector ƒ(T)y está en W y f(T)'y' estáen W'_ Por tanto, f(T)/i está en W si, y solo si, f(T)¬y' = 0. Lo que interesa esel hecho, aparentemente sin importancia, de que si f(T)B está en W, enton-CCS f(T)/f = f(T)?-

Definición. Sea T un operador lineal sobre un espacio vectorial V y sea W unsubespacio de V. Se dice que W es T-admisible si

(i) W es invariante por T;(ii) si f(T)[3 está en W, existe un vector y en W tal que f(T)[3 = f(T)'y_Como acabamos de mostrar, si W es invariante y tiene un subespacio in-

variante complementario, entonces W es admisible. Una de las consecuenciasdel Teorema 3 será el recíproco, de modo que la admisibilidad caracterizaráaquellos subespacios invariantes que tienen subespacios invariantes comple-mentarios_

Indiquemos cómo la propiedad de la admisibilidad está implicada en laintención de obtener una descomposición

V = z(«1; T) (9 (9z(a,; T).El método básico para llegar a tal descomposición será seleccionar los vec-tores oil, _ _ _ , oz, por inducción. Supóngase que, por un proceso u otro, se hayanseleccionado oq, ___, oc,-, y que

Wf = Z(a1; T) + + Z(a,-; T)sea un subespacio propio. Se desea encontrar un vector no nulo ozj + l tal que

Wi fl Z(¢1¡+1; T) = {9}porque el subespacio I/V,-+1 = EB Z(oi¡,,; T) será entonces al menos unadimensión más cercana al espacio V que se descompone. Pero ¿por qué debeexistir tal vector oi,-+1? Si oil, _ _ _, oi,-, han sido elegidos de modo que WJ- seaun subespacio T-admisible, entonces es relativamente fácil ver que se puedeencontrar un oz,-H adecuado. Esto es lo que hará posible la demostración delTeorema 3, aun cuando no expresemos así el razonamiento fraseado_

Sea W un subespacio propio invariante por T. Se desea encontrar un vec-tor or, no nulo, tal que(7-3) W Ñ Z(a; T) = {0}.Se puede elegir un vector /Í que no está en W. Considérese el T-conductor Si/i; W),que consta de todos los polinomios g tales que g(T)[3 está en W. Se recuerdaque el polinomio mónico f = s([3; W) que genera el ideal S(fi; W) es llamadotambién el T-conductor de /3 en W. El vector f(T)[3 está en W. Ahora, si W esT-admisible, existe un "y en W con f(T)[3 = f(T)¬,'. Sea oz = /i - y y sea g unpolinomio cualquiera. Como /3 - 3» está en W, g(T)[3 estará en W si, y solo si,g(T)ot está en W; en otras palabras, S(ot; W) = S([3; W). Con lo que el poli-nomio f es también el T-conductor de oi en W. Pero f(T)a = 0. Ello dice queg(T)ot está en W si, y solo si, g(T)ot = 0; es decir, los subespacios Z(oz; T) y W sonlinealmente independientes (7-3) y f es el T-anulador de oz.

Page 249: ASESORES TECNICOS

:Ji illtt ln tt ltm ul

iI`t-orema 3 (teorema de descomposición cíclica). Seu I' un t›¡›eru¢lor lineal~i«›I›re tttt espai-io rcetoriul (le tlimensiótt /initu |'_1' sea WO utt suI›es¡utcio propioI-.nlnti.\iI›le de l'. I:`.\'isten rectores no nulos oq, _ _ _ , ot, en V con T-ctnulucloresres¡›ectit`t›s p¡, _ _ _, p,, tales que

li) I' = WO GB Zion; T) EB ' ' ' EB Z(0f,; T):(ii) ph tliride a pk_¡, k = 2, _ _ _ , r.

fllús aún_ el entero r j' los anuladores pl, _ _ _, p, están unívocamente determi-ttmlos por (i), (ii) _r el hecho de que ninguno de los 01,, es O.

Demostración. La demostración es bastante larga, razón por la cual ladividircmos en cuatro partes. Para la primera lectura parece más fácil tomarll',, = {0}, aun cuando no produzca una simplificación sustancial. En todala demostración se abreviará f(T)[ì por _/'/í.

Parte l. Existen rectores no nulos- ,8,, _ _ _ , /3, en V tales que

la) V = WO + Z(/fi; T) + + Z(/3,; T):(b).»-¡ I sk-gry

Wk = WO + Z(/il; T) + + Z(/tk; T)

entonces el conductor pk = s(flk; Wk_ 1) tiene el grado máximo entre todos losI '-conductores en el subespacio Wk_ 1; es decir, para todo /<

grd pk = max grd s(oc: W,,__1)1 en I

Esta parte depende solo del hecho de que WO es un subespacio invariante.Si Mi es un subespacio propio invariante por T, entonces

0 < max grdslot; W) 5 dim V

y .sc puede elegir un vector /1 de modo que grd s(/f; W) alcance tal máximo. Elsubespacio W + Zlƒì; T) es entonces invariante por T y tiene dimensión mayorque dim W. Aplicando este proceso a W = WO se tiene /il. Si W, = WO +¿(/f,; T) es aún propio, entonces aplicando el proceso a W, se obtiene /iz. Secontinúa de esta forma. Como dim Wk > dim W,,_,, se debe alcanzar W, = Vcn no más de dim V etapas.

Parte 2. Sean fil, _ _ _, B, rectores no nulos que satisjfitcen las condiciones(a) y (b) de la parte l. Se fi/'a k, l 5 k 5 r. Sea fl un vector cualquiera de V yseu = S(,8; Wk_¡)_ Si

= llo 'l' 2 gtlliw Bi 0"l$i<A

entonces f divide a cada polinomio g,- _r /io = f¬,-'0, donde "yo está en WO.Si k = 1, ello es justamente la afirmación de que WO es T-admisible. Para

demostrar la afirmación para k > 1, se aplica el algoritmo de la división:

(7-4) g, = fl1,- + r¡, r,- = 0 o grd r,- < grd f

Queremos mostrar que -r,- = 0 para todo ¡_ Sea

Page 250: ASESORES TECNICOS

I .as /ot'nut.\ rmional r de .Ionlun 233

(7-5) 'Y = B _ ,cil lhfii-I

Como 7 - /f está en Wk,

3('Y§ Wk-1) = sm; Wk-1) =

Además.ti-1

(7'6) f"Y = Úo + ã 'refie-

Supóngase que algún r,- es distinto de 0. Se llegará a una contradicción. Sea /' elmayor indice i para el que ri =;é 0. Entonces

J'CH) .H=m+2ms n†0 y wmrqwfl

1

Sea p _- s(¬,': W,-_ , )_ Como W,,_, contiene a W,-_ 1, el conductor _/` = s(y; Wk_ ,)debe dividir a p:

tv = fa-Aplicando g(T) a ambos miembros de (7-7):

(7-8) 227 = 9f'Y = 97331 -l' .(130 +l<2< _ 9'¡'i_5¡-_¡ 2

Por definición_ p¬,' está en W,--_ 1, y los dos últimos términos del segundo miem-bro de (7-8) están en W,-_,_ Por tanto_ grjflj está en W,-_ ¡_ Ahora. por la condi-ción (b) de la parte l:

grd (gr,-l 2 grd -\`(Íi,-â W,--1)= grd p,-2 grd s(}'; W,-_¡)= grd P= grd (fs)-

Con lo que grd r_¡ > grd f, y ello contradice la elección de _¡'. Se sabe ahora quef divide a cada g, y luego que /30 = _ƒ;'_ Como WO es T-admisible, B0 = fyo,donde yo está en WO. De paso notamos que la parte 2 es una reafirmación dela observación de que cada uno de los subespacios Wl, W2, _ _ _ , W, es T-ad-misible_

Parte 3. Existen rectores no nulos oq, _ _ _ _ oc, en V que satisfacen las con-diciones (i) _1' (ii) del Teorema 3.

Se comienza con los vectores [ì,_ ._ _ _ [ì,_ como en la parte l. Fijo k,l 5 k 5 r, se aplica la parte 2 al vector B = /ik y al T-conductor f = pk.Obtenemos _-

(7"9) Pkfik = PIKYO 'l' É Pklì-¿Úsl$í<k

donde yo está en WO y los 11,, lz,,_, son polinomios. Sea

(740) ak = Úk _ 'Yo _ 2 hifii-lSí<k

Page 251: ASESORES TECNICOS

li-l lltgelvt it lntettl

(omo /tk ~- uk esta en llk ¡_

(7-11) S(0fk; W›<~1) = S(5k; Wk-1) = Pt

y como pkazk = 0, se tiene

(7-12) W¡__i fl Z (ak ; T) = {0}.

(omo cada atk satisface (7-ll) y (7-12). se sigue que

W,. = W.,®z(a.; T) (-9 (¬9z(a,,; T)y que pk es el T-anulador de cxk_ En otras palabras, los vectores fz,, _ _ _ _ 1, de-finen la misma sucesión de subespacios W,, Wz, _ _ _ que los vectores /i,_ _ _ _ _ /í, ylos T-conductores pk = s(cxk; Wk k) tienen las mismas propiedades maximales[condición (b) de la parte 1]. Los vectores 1,. _ _ _ _ 1, tienen además la propie-dad de que los subespacios WO, Z(:x,; T). Ztcxz; T), son independientes.Es, por tanto, fácil verificar la condición tii) en el Teorema 3. Como ¡›,.x¡ = 0para todo i, se tiene la relación trivial

pt-at = 0 + ¡nai -I- - - - + ¡›i--rat-_»Aplicando la parte 2 con los ƒìk, _ _ _ , [ik remplazados por los cx,_ _ _ _ _ xk y con/l = :xk se tiene como conclusión que pk divide a cada p,-_ con i < k.

Parte 4. El número r _i' los polinomios pl, _ _ ._ p, estan ttttt'roeamettte de-terminados por las condiciones del Teorema 3.

Supóngase que además de los vectores ak, _ _ _ _ cx, en el Teorema 3, tenganvectores no nulos yk. _ _ _ .^,'_, con los respectivos T-anuladores_s,'k_ . - - _ .E,_ tales que

(M3) v = wicazoi; T) ® ®zo_; T)QA divide Qk-1, lc == 2, _ _ _ , S.

Sc demostrará que r = s y que p,. = gi para todo i.Es fácil ver que pk = g,. El polinomio g, está determinado por (7-13) como

el T-conductor de I' en WO. Sea S(V; Wo) la colección de polinomios f talesque f/3 este en WO para cada /l en V; es decir, los polinomios _ƒ tales que la ima-gen de _ƒ`(T) esté contenida en WO. Entonces SU-'; WO) es un ideal no nulo enel álgebra de los polinomios. El polinomio gk es. por esta razón_ el generadormónico de ese ideal. Todo /f de V tiene la forma

B = Úo+fi'Y1'l- 'l“fs'Y›_~

y asi,yil-3 = ,flifio “l” 217 šliffïi-

Como cada g,- divide a gl, se tiene que gkyk == 0 para todo iy gk/f = .Hi/io estáen WO. Con lo que g, está en S(V: WO). Como g, es el polinomio mónico demenor grado que aplica ',', en WO. se ve que gk es el polinomio mónico de menorgrado en el ideal S( V1 Wo). Por el mismo razonamiento, pk es el generadorde tal ideal, con lo que pk = g,_

Page 252: ASESORES TECNICOS

Ítt\ /tHHht\ titttttttitl I til' .Inti/tttt .i

Si I es un polinomio y W es un subespacio de V. usaremos la expresiónabreviada _/ ll' para cl conjunto de todos los vectores for con 1 en W. Se dejapara los ejercicios la demostración de los siguientes tres hechos:

1. /`Z(1: T) = Zt__/'11 T).2. Si I' = V, GB - - - G9 Vk, donde cada V, es invariante por T, entonces

/1':/T' G9"'€B_/'Vi-_tienen el mismo T-anulador. entonces _/Ex y jj' tienen el mismo

T-anulador (por tanto)_ dim Z(fa; T) = dim Z(ƒ'y; T).

'JJ CI) ÍI R

0.<\<

Ahora se procede por inducción para ver que r = sy p, = g, parai = 2,. _ _ , r.El razonamiento consiste en contar las dimensiones en la forma correcta. Sedara la demostración de que si r 2 2. entonces pz = ez, y con ello la inducciónserá clara. Supóngase que r 2 2. Entonces

dim Wo + dim Z(a1; T) < dim V.

Como se sabe que p, ± ,Q,_ se sabe que Z(fx,: Tl y Z(;',: T) tienen la mismadiniensit'm_ Por tanto_

dim WO -I- dim Z('y1; T) < dim V

lo que muestra que s 2 2. Ahora tiene sentido preguntarse si cabe o no pz = g_-¿_De las dos descomposiciones de V se obtienen dos descomposiciones del subes-pacio p¿l':

pglv : IJQIVO ®

p2l' = p2ll'0® Z(p-¿'y1;T)(-3 --- (-9 Z(p2'Y.<; 7').

Hemos usado los hechos ll) y (2) anteriores y el hecho de que p¿:x,- = O,iz 2. Como se sabe que p, = g.. (3), anteriormente mencionado, dice queZtpzatkç T) ya /(pl-;,_ T) tienen la misma dimensión. Luego se desprende de(7-I4) que

dim Z(p2'y,-; T) = 0, 1,' 2 2.

Concluimos que pkyz = O _v que ez divide a p_-¿_ El razonamiento puede inver-tirse para demostrar que pk divide a gl. Por tanto, pz = g,-¿_ I

Corolario. Si T es un operador lineal sobre un espacio vectorial de dimensiónfinita. entonces todo suhespacm T-admisible tiene un subespacio complementarioque es también inrariante por T.

Demmtracion. Sea WO un subespacio admisible de V. Si WO = V, el com-plemento que se busca es IO 1. Si WO es propio, se aplica el Teorema 3 y se hace

ll'(› = Z(a1; T) (-:§ Q-)Z(a,; T).F.ntonces Wk', es invariante por T y V = WO G) W(',_ I

Corolario. Sea T un operador lineal sobre un espacio rectoría/ I' de dimen-sión _/`in1ta_

Page 253: ASESORES TECNICOS

,'30 -Ilitelita ltm -tl

(a) I;`_\'istc nn rector ot en V tal que el T-anulador de ot es el polinomiotnittitnal de 7'.

(h) T tiene un vector cíclico si, y solo si, los polinomios característico y mi-nimal de T son idénticos.

Demostración. Si V = los resultados son trivialmente verdaderos. SiI' sé sea

(7-15) V = Z(a1; T) CB CBZ(a-; T)donde los T-anuladores pk, _ _ _ , p,_ son tales que pk_k divide apk_ l -3 k 5 r - 1.Como observamos en la demostración del Teorema 3, se sigue fácilmente quepk es el polinomio minimal de T, es decir, el T-conductor de V en {O}. Con ellose ha demostrado (a).

Vimos en la Sección 7.1 que si T tiene un vector cíclico el polinomio mini-mal de T coincide con el polinomio característico. El contenido de (b) está enel recíproco. Se elige un ot cualquiera, como en (a). Si el grado del polinomiominimal es dim V, entonces V = Z(a; T). I

Teorema 4 (teorema de Cayley-Hamilton generalizado). Sea T un opera-dor lineal sobre un espacio vectorial V de dimensión finita. Sean p y f los poli-nomios minimal y característico de T, respectivamente.

(i) p divide a f;(ii) p y f tienen los mismos factores primos, salvo muItt`plicidades_

(iii) Si(746) p : fin _ _ _fl-¡_

es la factorización prima de p, entonces

tv-1v› f = ft- - - -ft*donde dk es la nulidad de f(T)"' diridida por el grado de fk.

Demostración. No se considera el caso trivial V = {0}_ Para demostrar(i) y (ii) se considera una descomposición cíclica (7-15) de V, que se obtienedel Teorema 3. Como observamos en la demostración del segundo corolario,pk = p. Sea Uk la restricción de T a Z(otk; T). Entonces Uk tiene un vector cícli-co, y así pk es el polinomio minimal y el polinomio característico de Uk. Portanto, el polinomio característico f es el producto f = pk, _ _ _ _ p,_ Esto es evi-dente por la forma bloque de (6-14) que la matriz de T toma en una base apro-piada. Evidentemente, pk = p divide a _fi y ello demuestra (i). Es claro que cual-quier divisor primo de p es divisor primo de _ƒ_ Recíprocamente, un divisorprimo de f = pk ~ - - p, debe dividir a uno de los factores pk que a su vez divi-de a pk.

Sea (7-l6) la factorización prima de p. Se emplea el teorema de descompo-sición prima (Teorema 12 del Capítulo 6) que dice que, si V,- es el espacio nulode _ƒk(T)", entonces

(7-18) V=V1(-B---(Bm

Page 254: ASESORES TECNICOS

las /ortttni tttcnntal r de Jorilint 2.77

y _/k" es el polinomio minimal del operador Tk_ obtenido por restricción dc 'I' alsubespacio (invariante) Vi. Se aplica la parte (ii) del presente teorema al opera-dor Tk_ Como su polinomio minimal es una potencia del primo _/,Í_ el polinomiocaracterístico de T, tiene la forma _/ku', donde dk 2 r,-_ Evidentemente

d_ :__ dim Vk

' grd .fiy (casi por definición) dim Vk = nulidad fi(T)'*_ Como T es la suma directa delos operadores Tk, Tk_ el polinomio característico f es el producto

fï-ƒtfloulƒík. I

Corolario. Si T es un operador lineal nilpotente sobre un espacio vecto-rial de dimensión n, entonces el polinomio característico de T es x".

Se desea ver ahora el análogo del teorema de descomposición cíclica paramatrices. Si se tiene el operador T y la descomposición en suma directa delTeorema 3, sea 03,- la «base ordenada cíclica»

{(X¡, Tai, . . . , Tk¡_1a¡}

para Z(ot,-; T). Aquí kk representa la dimensión de Z(ot,-; T), esto es, el gradodel anulador pk. La matriz del operador inducido T,- en la base ordenada 03, esla matriz asociada del polinomio p,-_ Así, si se hace que 03 sea la base ordenadade V que es la unión de las 03,- dispuestas en el orden 03k, _ _ _ _ 03,, entonces lamatriz de T en la base ordenada 03 será

(Hg) A: 0 A2 0ò Ó jkk

donde A ¡ es la kk x kk matriz asociada de pk. De una matriz n >< n, A, que esla suma directa (7-l9) de matrices asociadas de polinomios mónicos no esca-lares pk, _ _ _, p,_ tales que pk-kk divide a pk- para i= 1, _ _ _ _ r - l, se dice queestá en forma racional. El teorema de descomposición cíclica dice lo siguienterespecto a las matrices.

Teorema 5. Sea F un cuerpo _v sea B una matriz n x n sobre F. EntoncesB es semejante sobre el cuerpo F a una, dv solo a una, matriz que está en formaracional. -

Demostración. Sea T el operador lineal sobre F" representado por B enla base ordenada canónìca. 'Como acabamos de observar, existe una base or-denada de F" en que T está representado por una matriz A en forma racional.Entonces B es semejante a esta matriz A. Supóngase que B es semejante sobre F aotra matriz C que está en la forma racional. Esto quiere decir simplementeque existe una cierta base ordenada de F" en la que el operador T está repre-sentado por la matriz C_ Si C es la suma directa de matrices asociadas C, de

Page 255: ASESORES TECNICOS

_' ¡N ._II_i¦el›t o lineal

poliiioiiiios mónicos ek, _ _ _ _ _'¬'_-- tal que _e,, k divide a _i,', para i = I, _ _ _ . s - I,eiitoiiccs es cvideiitc que sc ticiieii vectores /ik, _ _ _, /ik, no nulos, en V con T-aiiuladorcs _ek_ _ _ __ gk. tales que

V = Z(fli; T) C43 ~ -~ C-BZ(B.; T)-Pero por la unicidad del teorema de descomposición cíclica, los polinomiosgk soii idénticos a los polinomios pk que definen la matriz A. Así, C = A. I

Los polinomios pk, _ _ _ _ p, son llamados los factores invariantes de la matrizB. En la Sección 7.4 se describirá un algoritmo para calcular los factores inva-riantes de una matriz dada B. El que sea posible calcular estos polinomios poriiicdio de un número finito de operaciones racionales en los elementos de B,es la razón por la cual la forma racional recibe ese nombre.

Ejemplo 2. Supóngase que V es un espacio vectorial bidimensional sobrecl cuerpo F, y T sea un operador lineal sobre V. Las posibilidades de descom-posición cíelica en subespacios para T son muy limitadas. En efecto, si el poli-nomio minimal de T es de grado 2, es igual al polinomio característico de T.y T tiene un vector cíclico. Así que existe cierta base ordenada de V en la queT está representado por la matriz asociada de su polinomio característico. Si,por otro lado, el polinomio niinimal de Tes de grado l_ Tes un múltiplo escalardel operador identidad. Si T= cl, entonces para dos vectores linealmenteiiidependientes cualesquiera. ock y ak. en V, se tiene

V = Z(<11; T) ®Z(<12; T)pl = [72 = IU _' C.

Para matrices, este análisis dice que toda matriz 2 x 2 sobre el cuerpo F essemejante sobre F exactamente a una matriz de los tipos

r 01 r ni0 C , 1 "'01

Ejemplo 3. Sea T el operador lineal sobre R3 representado por la matriz

5 -~6 -6A = -1 4 2

3 -6 -4

en la base ordenada canonica_ Se ha calculado antes que el polinomio carac-terístico de T es f = (x - l)(x - 2)2_ y que el polinomio minimal de T esp = (x - l)(_\- ~ 2). Así se sabe que en la descomposición cíclica de T el primervector :xk tendrá a p conio T-anulador. Como se ha operado en un espaciotridiiiicnsional_ puede haber solo otro vector. :12, el cual debe generar un sub-espacio cíclico de dimensión I. es decir, debe ser un vector propio de T. Su T-anulador pk debe ser (x - 2), ya que debemos tener que pp, = f. Obsérveseque esto dice inmediatamente que la matriz A es semejante a la matriz

0-20B=1 3 0

0 02

Page 256: ASESORES TECNICOS

Las /ortmts racional i' de .lonlan JW

esto es, que T está representado por B en alguna base ordenada. ¿Cómo sepueden encontrar los vectores adecuados ak y ak? Bien, sabemos que cualquiervector que genera un subespacio T-cíclico de dimensión 2 es un vector ade-cuado xk_ De modo que sea ek. Tenemos

Tel = (5, -1, 3)

que no es un múltiplo escalar de ek; luego Z(ek; T) tiene dimensión 2. Esteespacio consta de todos los vectores aek + b(Tek):

a(l, 0, O) + b(5, -1, 3) = (a + 5b, -b, 3b)

o todos los vectores (xk, xk, xk) que satisfacen x3 = -3x2. Ahora lo que sedesea es un vector ock tal que Tot, = Zozk y Z(ot2; T) es disjunto de Z(ock; T).Como az es un vector característico para T, el espacio Z(ot2; T) será simplementeel espacio unidimensional generado por ak, y así, lo que se requiere es que ockno esté en Z(oik; T). Si oi = (xk, xk, xk), se puede fácilmente calcular queTot = 2a si, y solo si, xk = 2x2 + 2x3. Así, ak = (2, 1, O) satisface Toik = 2oi2y genera un subespacio T-cíclico disjunto de Z(ozk; T). El lector podrá verificardirectamente que la matriz de T en la base ordenada

{(1› 0: 0): (5: _1› (2: 1;

es la matriz B anteriormente mencionada.

Ejemplo 4. Supóngase que T es un operador lineal diagonalizable so-bre V. Es interesante relacionar una descomposición cíclica de T con una baseque diagonaliza la matriz de T. Sean ck, _ _ _, ck los valores propios,distintosde T, y sea Vk el espacio de los vectores propios asociados con el valor carac-terístico ek. Entonces

V= V1@---(+)V,_y si dk = dim Vk, entonces

f=e-oa~e-mees el polinomio característico de T. Si ot es un vector de V, es fácil relacionarel subespacio cíclico Z(a; T) con los subespacios Vk, _ _ _ , Vk. Existen vectoresBk, _ _ _ _ [ik únicos, tales que ,Uk está en Vk, y

01 =l31“l' "l-fite

Como T/tk = ckflk, se tiene

(7-20) f(T)@ = f(01)B1 + - -- +f(0i)B›«

para todo polinomio f Dados escalares arbitrarios tk, _ _ _ _ tk, existe un poli-nomio f tal que _f(ck) = tk, I 5 i 5 k. Por tanto. Z(oi; T) es justamente el sub-espacio generado por los vectores flk, _ _ _ _ flk. ¿Cuál es el anulador de oi? Deacuerdo con (7-20) se tiene f(T)ot = 0 si, y solo si, _/lck)/tk = 0 para cada i. Enotras palabras, f(T)o: = 0 siempre que f(ck) = 0 para cada i tal que /tk sé 0.En consecuencia, el anulador de oc es el producto

Page 257: ASESORES TECNICOS

.'-tu .lligi-Imt lineal

(7~2l) || (.12 _- ek).fi.†o

Ahora, scan 03k = ¦/l"k_ /l¦k__} una base ordeiiada de I',-_ Seafr = max d.-_

7.

Se dcfmen los vectores oik, ot, por

(7-22) ak = 2 133-, 1< 1" <f.-_¿_-zi _ Tlil subespacio cíclico Ztotk; T) es el subespacio generado por los vectores /tf-_cuando i describe los índices para los cuales dk 2 ¡_ El T-anulador de ak es

(7-23) pj = II (11 -' Ci).¿-25

Se tiene

V = Z(a1; T) 0') ' " ÉBZ(0ff; T)pues cada /ik pertenece a uno, y solo a uno, de los subespacios Z(ock; T), _ _ _ _/(fx,; T), y 03 = (03k, _ _ _, 03k) es una base ordenada de V. Por (7-23), pk-kkdivide a pk.

Ejercicios

I. Sea T el operador lineal sobre F2 representado en la base ordenada canónìca por lamatri?

[0 0]1 0

Sea xk = (0, l). Demostrar que F2 #= Z(o:k; T) y que existe un vector cxz, no nulo, en F2coii Z(ot2; T) disjunto de Z(oik; T).

2. Sea T un operador lineal sobre el espacio V de dimensión finita y sea R la imagenpor T.

(a) Demostrar que R tiene un subespacio T-invariante complementario si, y solo si,R es independiente del espacio nulo N de T.

(b) Si R y N son independientes, demostrar que N es el subespacio único T-invariantecomplementario de R.

3. Sea T el operador lineal sobre R3 representado en la base ordenada canónìca por laiiiatriz

2 0 01 2 0 -0 0 3

Sea W el espacio nulo de T - 21. Demostrar que W no tiene subespacio T-invariante com-plementario. (Sugerencia: Sea It = ek y obsérvese que (T - 21)/t está en W. Demostrarque no existe of en W con (T - 21)/i = (T - 21)ot_)

-I. Sea T el operador lineal sobre F4 representado en la base ordenada canónìca por laiiiatriz

Page 258: ASESORES TECNICOS

Im Iortttiti mctottul i' «lc _lonlnn 24l

0

OO'-0 O'-*QC l-46@ GOGO

Sea W el espacio nulo de T - cl.(a) Demostrar que W es el subespacio generado por ek.(b) Hallar el generador mónico de los ideales S(oi,k; W), S(oz¿; W), S(oz2; W) y S(ozk; W).

5. Sea T un operador lineal sobre el espacio vectorial sobre el cuerpo F. Si f es un poli-nomio sobre F y cx está en V, sea fix = f(T)a. Si Vk, _ _ _, Vk son subespacios invariantesbajo T y V = Vk EB - - - EB Vk, demostrar que

ƒV =fVi€)'“ €)fV›_.

6. Sean T, V y F como en el Ejercicio 5. Supóngase que cx y B son vectores en V que tienenel mismo T-anulador. Demostrar que, para cualquier polinomio f, los vectores fa y ffitienen el mismo T-anulador.

7. Hallar los polinomios minimales y las formas racionales de cada una de las siguientesmatrices reales

0-1-1 c0-1io o› oc 1. |ï°°S6S°“0:|.

-1 0 0 -11 C "me °°S68. Sea T el o rador lineal sobre R3 re resentado en la base ordenada canónìca rPe P P0

3 --4 -4-l 3 2 -

2 -4 -3

Hallar los vectores no nulos ozk, _ _ _ _ oz, que satisfacen las condiciones del Teorema 3.

9. Sea A la matriz real

1 3 3A = 3 1 3

-3 -3 -5

Hallar una matriz real 0, inversible, tal que P_1AP esté en la forma racional

10. Sea F un subcuerpo de los números complejos y sea T el operador lineal sobre F4representado en la base ordenada canónìca por la matriz

OQ'-'[0 OQNQO UNO@ NJOOO

Hallar el polinomio característico de T. Considerar los casos a = b = 1, a = b = 0. a = 0,b = l. En cada uno de los casos, hallar el polinomio minimal de Ty los vectores ak _ _ _ _ _ a,,no nulos que satisfacen las condiciones del Teorema 3.

ll. Demostrar que si A y B son matrices 3 x 3 sobre el cuerpo F, una condición nece-saria y suficiente para que A y B sean semejantes sobre F es que tengan el mismo polinomio

Page 259: ASESORES TECNICOS

.'40 _-lliga-lito lineal

(7-ai) ll (-v - «-.)-fi¡r'0

¡\|k0k-¿¡_ Sam (BI. = _ _ _ _ /lfk'¦ una base ordeiiada de Vk. Sea

r = max d,-_í

Se delìnen los vectores ak. 0:, por(7_.›~)) ai = E 1 < j < †_

di 21 _ _

|-jl Sub@-Spaçio ¢í¢1¡¢0 Z(otk; T) es el subespacio generado por los vectores /tk,k;u¿md0 ¡ desçribe 105 indices para los cuales dk 2 /'_ El T-anulador de ock es

(7-23) Pi = H (33 _ Cd- 2¿¢21`

Se üeneV = Z(ai; T)® ®Z(<1f; T)

mms Cada pj pertenem a uno, y solo a uno, de los subespacios Z(oik; T), _ _ _ _¿(0kr¿ T), y (B = (631, __ _, 03k) es una base ordenada de V. Por (7-23), pkkkdivide a pk.

Ejercicios

1, Sea T el Operador lineal sobre F2 representado en la base ordenada canónìca por lamatriz

[0 0:' _1 O

gw ak = (0, 1)_ Demostrar que F2 ql: Z(ak; T) y que existe un vector ak, no nulo, en F2con Z(-112; T) disjunto de Z(0fi; Tl-

2, S@-a T un Operador lineal sobre el espacio V de dimensión finita y sea R la imagenpor T.

(a) Demostrar que R tiene un subespacio T-invariante complementario si. y solo si,R es independiente del esp21CÍ0 111110 N Ó@ T-

(b) Si R y N son independientes, demostrar que N es el subespacio único T-invariantecomplementario de R.3_ Sea T e| Opekakjok |¡n¢al sobre R3 representado en la base ordenada canónìca por lamatriz

2 0 0[_ _ _].0 0 3

Sea W ei espagio nu|0 de T ~ 21. Demostrar que W no tiene subespacio T-invariante com-piekkkekkkk-kk¡0_ kgugekkkkk-¡(,; Sea fi = ek y obsérvese que (T - 21)/ƒ está en W. Demostrarque no existe ot en W con (T _ Zllfi = (T _ 2¡)0f-)

4. Sea T el operador lineal sobre F4 representado en la base ordenada canónica por laiiiatriz

Page 260: ASESORES TECNICOS

Im Inrmm rm-luna! r dr .Innlfm .'41

OO!-*O OI-*OO ›--OOO QOOO

Sea W el espacio nulo de T - cl.(a) Demostrar que W es el subespacio generado por G4.(b) Hallar el generador mónico de los ideales S(ot4; W), S(ot¿; W), S(ot2; W) y S(cx1; W).

5. Sea T un operador lineal sobre el espacio vectorial sobre el cuerpo F. Si f es un poli-nomio sobre F y ot está en V, sea já = ƒ(T)oz. Si V1, . . . , Vk son subespacios invariantesbajo T y V = V1 E9 - - - EB Vk, demostrar que

ƒV=fV1€')"` €')fV¡¢.

6. Sean T, V y _F como en el Ejercicio 5. Supóngase que ot y B son vectores en V que tienenel mismo T-anulador. Demostrar que, para cualquier polinomio fi los vectores fa y _/'Btienen el mismo T-anulador.

7. Hallar los polinomios minimales y las formas racionales de cada una de las siguientesmatrices reales

0 -1 -1 c 0 -11 0 o› oc 1, |:°°S0S°“0:|.

-1 0 0 -1 1 C -Sena “O508. Sea T el operador lineal sobre R3 representado en la base ordenada canónìca por

3 -4 -4-1 3 2 -

2 -4 -3

Hallar los vectores no nulos cx,, . . . , oz, que satisfacen las condiciones del Teorema 3.

1 3 3A = 3 1 3

-3 -3 -5

Hallar una matriz real 0, inversible, tal que P'1AP esté en la forma racional

9. Sea A la matriz real

10. Sea F un subcuerpo de los números complejos y sea T el operador lineal sobre F4representado en la base ordenada canónìca por la matriz

OO'-'[0 OQKOO WIOOO NGC@

Hallar el polinomio característico de T. Considerar los casos a = b = 1, a = b = 0, a = 0,b = l. En cada uno de los casos, hallar el polinomio minimal de Ty los vectores al, . _ . , a,,no nulos que satisfacen las condiciones del Teorema 3-

ll. Demostrar que si A y B son matrices 3 >< 3 sobre el cuerpo F, una condición nece-saria y suficiente para que A y B sean semejantes sobre F es que tengan el mismo polinomio

Page 261: ASESORES TECNICOS

.'-l.' Hifi /Im /mi ul

t'.ii';iriei|stico x el mismo polinomio niiii|m.il. Dai un e|ein|\lo que niuestic que esto es |.iIso|›.n.| msilriccs 4 ›< ~l.

I2. Sea I- nn subcuerpo del cuerpo de los numeros complejos _\ sean I _\ If m.iiiiees n - nsohre la lìeinostrar que si .4 y B soii semejantes sohre el ctierpo de los mmieios eompleios.soii seiiiejaiitcs sobre I-` l.S`ugi-i-mi-iii: Demostrar que la forma racional de I es la mism.isi se considera -I como iiiatri/ sobre I-' o como matri/ sobre (`: lo iiusmo para Bi.

I3. Sea .-I una matri/ n x n de eleinentos complejos. Demostrar que si todo \aIor propiotle .l es real. A es seinejantc a una matriz de elementos reales.

I-I. Sea T tin operador lineal sobre el espacio l'de dimension lìnita. l)emostr;ir que existenn vector 1 eii I' con esta propiedad: Si fes un polinomio y /(Tn = U. entonces /(T1 : 0l l.iI sector 1 se llama un vector separador para el álgebra de los polinoinios en I Il (`uandoI tiene tm vector cielico. dai' una demostración directa de que cualt|uicr sector cíclico cstin vector separador para el algebra de los polinomios en 7'.

IS. Sea Fun subcuerpo del cuerpo de los números complejos 3 sea _-l una matri/ u ›< usolue I-`. Sea ¡› el polinomio minimal para A. Si se considera a .4 coiiio matri/ sobre ( `. enton-ces -I tiene un polinomio ininimal I eonio inatriz n ›< n sobre (Í Usar un teorema sohreeciiaeioiies lineales para demostrar que p =_/1 ¿Se puede ter también como se deduceesto del teorema de descomposición cíclica?

Io. Sea A una niatriz n ›< n con elementos reales tal que .41 + I 1 0 Deniostrar quen es par y. si n = ZA-. entonces A es semejante sobre el cuerpo de los ntimeros reales a unaniatri/ de l`orma bloque

P fi1- 0

I7. Sea Tun operador lineal sobre tm espacio sectorial l' de dimension liniia. Suponga-se que

tal el polinomio minimal de T es una poteiicia de tin polinomio irredueible:th) el polinomio iiiiiiinial es igual al polinomio caracteri.s'tieo.Demostrar que iiinguii subespacio no trivial in\'ariante por T tiene un subespacio coin-

plementario invariante por T.

donde I es la matri/ tinidad Ir ›< lr.

I8. Si' I' es un operador lineal diagoiiali7abIe- eiitoiices cada subespacio imaruinte por Iticiic un subespacio eoniplenientario in\'ai'iante por T.

I9. Sea T un operador lineal sobre el espacio I' de dimension linita. l)emostrar que Itiene tin vector cíclico si. y solo si. es cierto lo siguiente: cada operador lineal ( que coninuta con T es un polinomio en T.

20. Sea I' un espacio vectorial de dimension limia sohre el cuerpo I- s sea I un operado:liiieal eii |`. Se pregunta cuando se verilìca que cada xcctor no nulo de I es tin xector ci~clico para T. Demostrar que este es el caso si. ) solo si_ el polinomio c;ir;icteristieo paraI es irreducìble sobre I-`.

2I. Sea A tiiia matriz n ›< n con elementos rm/vs Sea I' el operador lineal sohre R" ieprescntado por A cn la base ordeiiada canónìca 3 sea ( el operador lineal sohre ('” rcpresentado por A en la base ordenada canonica. l'sai' el resultado del l-.icrcicio IU para demostrar lo siguiente: si los únicos subespacios inxariantcs por I son R" _\ el sul¬esp;ieiocero. entonces L' es diagonalivahle.

Page 262: ASESORES TECNICOS

I.u\ /urnun rmimml i' di- .hirdun 243

7.3. La ƒbrma de Jordan

Supóngase que N es un operador lineal nilpotente en el espacio V de di-mensión finita. Se considera la descomposición cíclica para N que se obtienedel Teorema 3. Se tiene un entero positivo r y r vectores no negativos oc, , _ _ . , oz, enV con N-anuladores pl, . . . , p,, tales que

V = Z(ai;N)G9--- (¬9Z(0ff;N)y p,-H divide a pi para i = 1, . . _ , r - I. Como N es nilpotente, el polinomiomininial es xk para algún k 5 n. Así, todo p, es de la forma p¡ = xk y la condiciónde divisibilidad simplemente dice que

¡fii2k22 Zkf.Por supuesto. k, = k y k, 2 l. La matriz asociada de xk* es la matriz k,- ›< kí.

0 0 0 0I O 0 0

(7“24) Ai = 0 1 Q 0 -I Ó I O

U Q I I

I I Q I

00...1()

Así. el Teorema 3 da una base ordenada para V, en la cual la matriz de N essuma directa de matrices elementales nilpotentes (7-24), cuyas dimensionesdeerecen cuando 1' crece. Por lo que se ve que, asociados con una matriz nilpo-tente n ›< n. hay tin entero positivo r y r enteros positivos k,, _ _ _ , k,. de modoque k, + - - - + k, = n y k,- 2 k,-H, y estos enteros positivos determinan laforma racional de la matriz, es decir, determinan la matriz, salvo semejanza.

He aquí un punto que deseamos destacar respecto al operador nilpotente.El entero positivo r es justamente la nulidad de N; en efecto, el espacio nulotiene como base los r vectores

Nh" lap

Si 1 está en el espacio nulo de N, se puede escribir of en la forma

0fi=fi0li¬l- +ff0!f

donde /,í es un polinomio, cuyo grado se puede suponer menor que ki. Como.V1 = 0. para todo i tenemos

0 = N(f.-af)= N_f¿(N)(X¡

= (IlÍf¡)(I¿.

Asi. -\j/,- es divisible por x'*, y como grd l/,ïl - A',-. ello quiere decir quefl = (.l_¿.k.-i

donde c,- es cierto escalar. Pero entoncesa = c¡(:i:'°'_1a1) -l- - - - -l- cf(;t°'*"”1a,)

Page 263: ASESORES TECNICOS

244 ¡4 Igeliru lineal

que muestra que los vectores (7-25) forman una base para el espacio iiiilo de N.lil lector puede observar que este hecho es taiiibicii claro desde el punto devista inatricial.

Lo que se desea hacer ahora es combinar lo establecido para operadoreso matrices nilpotentes con el teorema de descomposición prima del Capítulo 6.La situación es la siguiente: supóngase que T es un operador lineal sobre I' yque el polinomio característico de T se puede factorizar sobre F como sigue

f = (zi: - c1)d' - -- (zi: - ci)d*

donde los cl, . . . , c,, son elementos distintos de F y dí 2 1. Entonces el poli-nomio minimal de T será

iv = (iv - 01)" (af - Cr-)'*donde l 5 ri 5 di. Si W,- es el espacio nulo de (T - c,-I)"', entonces el teoremade descomposición prima dice que

V=W1®°°'®Wk

y que el operador T, inducido en W,- por T tiene polinomio minimal (x - c¿)"'.Sea N,- el operador lineal en W¿ definido por Ni = T, - c,-I. Entonces N, es nil-potente y tiene un polinomio minimal x". En W¡, T actúa como M más el es-calar c¿ veces el operador identidad. Supóngase que elegimos una base del sub-espacio l/V, que corresponda a la descomposición cíclica del operador nilpo-tente N,-_ Entonces la matriz de T,- en esa base ordenada será la suma directade matrices

c 0 - - - 0 01 c - - - 0 0

(7-26) E E E 2c

'00-~lc

cada cual con c = c,-. Además, las dimensiones de estas matrices decreceránal ir de izquierda a derecha. Una matriz de la forma (7-26) se llama una matrizelemental de Jordan con valor propio c. Ahora, si se consideran en conjuntotodas las bases para W¡, se obtiene una base ordenada de V. Se describirá lamatriz A de T en esta base ordenada.

La matriz A es la suma directaA, 0 0

(7-27) A= 9 Í” 0.0 0 A,

de matrices A,, ..., A,,. Toda A, es de la forma

Jl” 0 0to _A»-=? 1” 9

0 0 - JS?

Page 264: ASESORES TECNICOS

las Iiirmus rm-iiniul i' di' .lunlun 245

donde cada Ji" es la matriz elemental de Jordan con valor propio ci. Tambiénen cada Ai la dimensión de las matrices Ji" decrece cuando j crece. Se dirá queuna matriz n ›< n, A, que satisface todas las condiciones descritas hasta ahora(para escalares distintos ci, -.., cii) está en forma de Jordan.

Hemos observado que si T es un operador lineal cuyo polinomio caracte-rístico se puede factorizar completamente sobre el cuerpo escalar, entoncesexiste una base ordenada de V, en la cual T está en forma de Jordan. Deseamosmostrar ahora que esta matriz es algo unívocamente asociado con T, salvoel orden en que se escriben los valores propios de T. Es decir, si dos matricesestán en forma de Jordan y son semejantes, entonces difieren solo en la orde-nación de los escalares ci.

La unicidad se ve como sigue. Supóngase que existe una base ordenadade V en la cual T está representado por la matriz de Jordan A, descrita ante-riormente. Si Ai es una matriz di ›< di, entonces di es claramente la multiplicidadde ci como raíz de polinomio característico de A o de T. En otras palabras,el polinomio característico de T es

f = (:v - cild' - -- (:v - 00"'-Esto demuestra que ci, _ _ _ , cii y di, . _ _ , dii son únicos, salvo el orden en quese escriben. El que A sea la suma directa de las matrices Ai, nos da una descom-posición en suma directa V = Wi G) ~ - - (B Wii invariante por T. Obsérveseahora que Wi debe ser el espacio nulo de (T - ciI)", donde n = dim V; en efec-to, Ai - cil es evidentemente nilpotente y Ai - cil es no singular para j sé i.Así vemos que los subespacios Wi son únicos. Si Ti es el operador inducidoen Wi por T, entonces la matriz Ai está unívocamente determinada como laforma racional de (Ti - cil).

Queremos ahora hacer algunas observaciones más respecto al operador T yla matriz de Jordan A que representa a T en una base ordenada. Ellas son:

( 1) Cada elemento de A, que no esté en la diagonal principal o inmediata-mente debajo de ésta es 0. En la diagonal de A están los k valores propios dis-tintos ci, _ _ _ , ci de T. También ci está repetido di veces, donde di es la multi-plicidad de ci como raíz del polinomio característico, es decir, di = dim Wi.

(2) Para todo i, la matriz Ai es la suma directa de ni matrices elementalesde Jordan Ji” con valor propio ci. El número ni es precisamente la dimensióndel espacio de vectores propios asociados al valor propio ci. En efecto, ni esel número de bloques elementales nilpotentes en la forma racional de (Ti - cil),y es así igual a la dimensión del espacio nulo de (T - cil). En particular, ob-sérvese que T es diagonalizable si, y solo si, ni = di para todo i.

(3) Para todo i el primer bloque JP en la matriz Ai es una matriz ri ›< ri,donde ri es la multiplicidad de ci como raíz del polinomio minimal de T. Estose desprende de que el polinomio minimal del operador nilpotente (Ti - cil)es x".

Por supuesto, como de costumbre, se tienen resultados semejantes para lasmatrices. Si B es una matriz n ›< n sobre el cuerpo F y si el polinomio caracte-rístico de B se factoriza completamente sobre F, entonces B es semejante sobre

Page 265: ASESORES TECNICOS

240 .-I_I_i:i-lu ii ¡Im-ul

I-` a tiiia matri/ ri x n. A. en la forma de .lordan. y .4 es única salvo el orden delos valores propios. dice que A es la forma de Jordan de B.

Obsérvese también que si F es un ctierpo algebraicamente cerrado, enton-ces las acotaciones anteriores son válidas para todo operador lineal sobre unespacio vectorial de dimensión finita sobre F, o para toda matriz n x n sobre F.Asi. por ejemplo, toda matriz n ›< n sobre el cuerpo de los números complejoses semejante a una matriz, esencialmente única. en forma de Jordan.

Ejemplo 5. Supóngase que Tes un operador lineal sobre C2. El polinomiocaracterístico para T es (x - ci)(x - cz), si los números complejos ci, (-2 sondistintos, o (x - ci )2. En el prinier caso T es diagonalizable y está representadoen una base ordenada por

[C1 00 C2

En el segundo caso el polinomio minimal de_ T puede ser (x - c), y entoncesT = cl, o puede ser (x - c)2, en cuyo caso T está representado en una baseordenada por la inatriz

[0 01 ej.

Así toda matriz 2 x 2 sobre el cuerpo de los complejos es semejante a una ma-triz de alguno de los dos tipos anteriores. posiblemente con ci = cz.

Ejemplo 6. Sea A una matriz compleja 3 x 3:

2 0 0A = a 2 0 ~

b c -1

El polinomio característico de A es evidentemente (x - 2)2(x + l). O este esel polinomio minimal, en cuyo caso A es semejante a

2 0 01 2 00 0 --1

o el polinomio minimal es (x - 2)(x + ll, en cuyo caso A es semejante a

2 0 00 2 0 -

-'\h0l`2l 0 0 _1

0 0 0(A - 2I)(A + I) = 3a 0 0

ac 0 0

y asi A es semejante a una matriz diagonal si. y solo si. u = 0.

Page 266: ASESORES TECNICOS

I_m /iirmus rm ¡mm! t «lc .Iurrlmi 247

-iEl polinomio característico de A es (x - 2)4. Como A es suma directa de dosmatrices 2 >< 2, es claro que el polinomio minimal de A es (x - 2)2. Ahorasi a = 0 o si a = l, entonces la matriz A está en forma de Jordan. Obsérveseque las dos matrices que se obtienen para a = 0 y a = 1 tienen el mismo po-linomio característico, pero no son semejantes. Y no lo son porque para laprimera matriz el espacio solución de (A' - 21) tiene dimensión 3, mientrasque para la segunda matriz tiene dimensión 2.

Ejemplo 7. Sea

OO›--NJ OOMO QMOO MODO

Ejemplo 8 Las ecuaciones diferenciales lineales con coeficientes cons-tantes (Ejemplo 14, Capítulo 6) dan uiia bonita ilustración dela fonna de Jordan.Sean ao. _ _ _ _ a,,_i números complejos y sea V el espacio de todas las funcionesn veces derivables en un intervalo del eje real que satisfacen la ecuación dife-rencial

g.ï+a,__ig1_-lf+ ---+aifi+a«›ƒ=0.ax" d:c"“1 da:

Sea D el operador derivación. Entonces V es invariante por D, ya que V es elespacio nulo de p(D), donde

p=:r"+-~-+ai:v+ai›¿Cuál es la forma de Jordaii para el operador derivación sobre V?

Sean ci, ci las raíces complejas distintas de pz

p = (1: - c1)“ - - - (x c;,)".

Sea Vi el espacio nulo de (D - ciI)"', esto es, el conjunto de las soluciones dela ecuación diferencial

(D '_ C¡I)Tff = 0.

Entonces, como se observó en el Ejemplo 15, Capítulo 6, el teorema de des-composición prima dice que

V= Vi@...(_BVk_

Sea Ni la restricción de D - cil a Vi. La forma de Jordan para el operador D(en V) está entonces determinada por las formas racionales de los operadoresnilpotentes Ni, _ _ _, Nii en los espacios Vi, , Vii.

Así, lo que se debe conocer (para los distintos valores de c) es la forma ra-cional del operador N = (D - cl) en el espacio Vi, que consta de las solucio-nes de la ecuación

(D - cI)'ƒ = 0.

Page 267: ASESORES TECNICOS

:JH .Íh,'¢'[_lI il IINWII

¿(`tu'iiilos bloques elementales nilpotentes Iiabrai en la fornia racional para N'.'Sn iit'iiiicro sera la nulidad dc N; es decir, la dimensión del espacio propio aso-ciado al valor propio c. Esa dimensión es l, pues cualquier función que satis-l`aec la ecuación diferencial

Dƒ=cƒ

es un inúltiplo escalar de la función exponencial h(x) = (fx. Por tanto, el ope-rador N (sobre el espacio Vi) tiene un vector cíclico. Una buena elección paraun vector cíclico es g = x"1h:

g(x) = xr-lec:c_

l"sto daNg = (T - 1):'tt'_2h

Nf-'ig = (-.- - i)ihLo visto en el párrafo anterior muestra que la forma de Jordan para D (en

el espacio V) es suma directa de k matrices elementales de Jordan, una por cadaraíz ci.

lijercicios

I. Sean Ni y N2 matrices 3 x 3 nilpotentes sobre el cuerpo F. Demostrar que Ni y N,soii scinejantes si. y solo si, tienen el mismo polinomio minimal.

2. Usar el resultado del Ejercicio I y la forina de Jordan para demostrar lo siguiente. Sean_-I y B matrices n x n sobre el cuerpo F que tienen el mismo polinomio característico

ƒ = (x _. Codi . . . (I __ ck)d¿

y el mismo polinomio minimal. Si ningún di es mayor que 3, entonces A y B son semejantes.

3. Si A es una matriz compleja 5 x 5 con polinomio característico

f = (11 - 2)“(=v + 7)”

y polinomio minimal p = (x - 2)2(x + 7), ¿cual es la forma de Jordan para A?

4. ¿Cuántas posibles formas de Jordan hay para una matriz compleja 6 x 6 de polino-inio característico (x + 2)4(x - l)2?

5. El operador derivación sobre el espacio de los polinomios de grado menor o igual a 3está representado en la base ordenada «natural›› por la matriz

GOGO OOO'-* CONO OCJOOO

¿Cuál es la forma de Jordan para esta matriz? (F un subespacio de los números complejos.)

6. Sea A la matriz compleja

Page 268: ASESORES TECNICOS

Im /mmm mrmmil r «Ir Jurilun _'-IU

Oi-*Or-ts; Qi--I-O OP-*ONO Or--NO i-¢lO©©© i-*GOGO

0 0 0 0 02 0

llallar la forma de Jordan para A.

7. Si A es una matriz n x n sobre el cuerpo F con polinomio característico

f = tx - cadi tx - «ad-¿euál es la traza de A?

8. Clasificar, por semejanza, todas las matrices complejas 3 x 3, A, tales que A3 = I.

9. Clasificar, por seinejanza, todas las matrices complejas n x n, A, tales que A" = I.

10. Sea n un entero positivo, n 2 2, y sea N una matriz n x n sobre el cuerpo F tal queN" = 0, pero N""' 9€ 0. Demostrar que N no tiene raíz cuadrada; es decir, que no existeuna matriz n x n, A, tal que A2 = N.

ll. Sean Ni y NZ matrices nilpotentes 6 x 6 sobre el cuerpo F. Supóngase que Ni y N,tienen el mismo polinomio minimal y la misma nulidad. Demostrar que N, y N2 son se-mejantes. Demostrar que esto no es cierto para matrices nilpotentes 7 x 7.

12. Usar el resultado del Ejercicio ll y de la forma de Jordan para demostrar lo siguiente.Sean A y B matrices n x n sobre el cuerpo F que tienen el mismo polinomio característico

ƒ = (x _ c¡)di ... (x _ ck)dk

y el mismo polinomio minimal. Supóngase que también para todo i los espacios soluciónde (A - cil) y (B - cil) tienen la misma dimensión. Si ningún di es mayor que 6. entoncesA y B son semejantes.

13. Si N es una matriz nilpotente k x k elemental, es decir, N* = 0, pero N'*" 9€ 0,demostrar que N' es semejante a N. Usar entonces la forma de Jordan para demostrar quetoda matriz compleja n x n es semejante a su transpuesta.

14. ¿Cuál es el error en la siguiente demostración? Si A es una matriz compleja n x ntal que A' = -A, entonces A es 0. (Demostración: Sea J la forma de Jordan de A. Como A' =- A, entonces J' = -J. Pero J es triangular, con lo que J' = -J implica que todo elementoJ es cero. Como J = 0 y A es semejante a J, se desprende que A = 0.) (Dar un ejemplode matriz A no nula tal que A' = -A.)

15. Si N es una matriz nilpotente 3 x 3 sobre C, demostrar que A = I + %N ~ %N2satisface a A 2 = I + N, es decir, que A es la raiz cuadrada de I + N. Usar la serie binómicade (1 + 1)'/2 para obtener una fórmula parecida para una raíz cuadrada de I + N. dondeN es una matriz nilpotente n x n sobre C.

16. Usar el resultado del Ejercicio 15 para demostrar que si c es un número complejo nonulo y N es una matriz compleja nilpotente, entonces (cl + N) tiene una raiz cuadrada.En seguida usar la forma de Jordan para demostrar que toda matriz compleja n x n. nosingular, tiene una raíz cuadrada.

Page 269: ASESORES TECNICOS

250 _-l l_i;¢'I›rn Iim ul

7.4_ Cálculo de factores invariantes

Supóngase que A es una matriz n x n con elementos en el cuerpo F. Sedesea encontrar un método para calcular los factores invariantes pi, _ _ _, p,que definen la forma racional para A. Se comienza con el caso sencillo en que Aes la matriz adjunta (7.2) de un polinomio mónico

p=:c"+c,._ix""+ +cix+c0.En la Sección 7.1 se vio que p es tanto el polinomio minimal como el polinomiocaracterístico para la matriz adjunta A. Ahora queremos hacer un cálculo di-recto que muestre que p es el polinomio característico para A. En este caso

x 0 0 0 co*I IU 0 °" 0 C1

:cf-A= -i 0 C2

0 00--- Á; ¢,`_,0 0 0 -1 x+¢,..i

Se suma x veces la fila n a la fila (n - 1), con lo que se quita x del lugar(n - 1, n - l) sin cambiar el valor del determinante. Después se suma x vecesla nueva fila n - 1 a la fila n _ 2. Se continúa sucesivamente este proceso hastaque todas las x de la diagonal principal hayan desaparecido. El resultado esla matriz

0 0 0 0 x"+---+c1x+c0--1 0 0 -- 0 :c""1+---+c2x+c1

0 -1 0 -- 0 :c""2+---+c3:c+c2Q 0 0 0 oI O 0 O 0Q 0 Q I I

0 0 0 0 :i:2+c,.._1:i:+c,._.20 0 0 -1 x+c»_i

que tiene el mismo determinante que xl - A. El elemento de la parte superiorderecha de esta matriz es el polinomio p. Se puede simplificar la última columnasumando a ella múltiplos de las otras columnas:

000-- 0p-i 00-- 000-10-- 00

000-- 00000----10

Se multiplica cada una de las primeras (n - l) columnas por -l y se efectúanentonces tn -- ljiiitcrcambios de columnas adyacentes con el objeto de llevar

Page 270: ASESORES TECNICOS

Im /ni-nm_\ mi-imuil r «Iv Jin-«lun 25!

la coliniiiia n a la primera posición. El efecto total de los 2n -- 2 cambios designos deja iiialtcrado el valor del determinante. Se obtiene la matriz

1,00---0010---0

(7-9-s) 0 0 1 0.

000---1Es entonces claro que p = det (xl - A).

Vamos a mostrar que, para toda matriz n x n, A, hay una sucesión de ope-raciones de filas y columnas que transforman xl - A en una matriz como (7-28),en la que los factores invariantes de A aparecen en la diagonal principal. Seexplicarán completamente las operaciones que se deben utilizar.

Se operará en F[x]'"*", colección de las matrices n x n con elementos queson polinomios sobre el cuerpo F. Si M es una de tales matrices, una operaciónelemental de fila sobre M es alguna de las siguientes:

1. Multiplicación de una fila de M por un escalar no nulo de F.2. Remplazo de la r-ésima fila por la suma de la fila r más f veces la fila s,

donde f es cualquier polinomio sobre F y r =;ë s.3. Intercambio de dos filas de M.

La operación inversa de una operación elemental de fila es una operaciónelemental de fila del mismo tipo. Obsérvese que no se puede hacer una afirma-ción tal si en (1) se permiten polinomios no escalares. Una matriz elementalm x ni. esto cs. una matriz elemental de F[x]"'“” es aquella que se puede ob-tener de la matriz unidad m x m por medio de una operación elemental defila simple. Es evidente que cada operación elemental de fila sobre M puedeefectuarse multiplicando M a la izquierda por una niatriz elemental m x mapropiada; en efecto, si e es la operación, entonces

e(M) = e(I)M_

Sean M, N matrices de F[x]"'”"_ Se dice que N es equivalente por filas a M siN puede obtenerse a partir de M por una sucesión finita de operaciones elemen-tales dc fila:

M = M0-›M1-›----›M¡,=N.

Evidentemente, N es equivalente por filas a M si, y solo si, M es equivalentepor filas a N, razón por la cual se usará la terminología «M y N son equivalentespor filas». Si N es equivalente por filas a M, entonces

N = PM

donde la matriz m x m, P, es un producto de matrices elemciitales:P = Ei _ _ _ Eb

En particular. P es una matriz inversible, con inversaP-1 = Er' Eïl.

Page 271: ASESORES TECNICOS

JU .-ll_i;rl›m llm-ul

(`laro que la inversa de Iii proviene de la operación elciuciital de lila inversa.l`odo esto es precisamente coiiio eii el caso de las matrices eoii elementos

eii I". Se obtienen restiltados eleiiieiitales paralelos a los del (`apítiilo l. Porlaiito, cl sigtiicnte problcnia que se plantea es introducir uiia l`orma escalónrediieida por lìlas para matrices polinomiales. Aquí se presenta un iiiievo olis-táculo. ¿Cóiiio se reduce por filas una matriz? La primera etapa es aislar elprimer elemento de la fila 1 y dividir cada elemento de la fila 1 por ese elemento.lìllo no se puede hacer (necesariamente) cuando la matriz tiene elementos poli-iioiiiios. Como se verá en el siguiente teorema. se puede soslayar esta dificultadeii algunos casos; sin embargo, no existe una forma reducida por filas comple-tamente apropiada para la matriz general de F[x]"'“"_ Si se introducen tambiénoperaciones de columna y se estudia el tipo de equivalencia que resulta de perini-tir el uso de ambos tipos de operaciones, se puede obtener una forma caiióiiicamuy útil para toda matriz. El instrumento básico es el siguiente.

Lema. Sea M una matriz de F[x]""*" que tiene algunos elementos no ni.ili›.s-cn su primera columna, y sea p el máximo común divisor de los elementos-de lacolumna l de M. Entonces M es equivalente por filas a la matriz N que tiene

llDemostración. Demostraremos algo más de lo que se ha enunciado. Mos-

traremos que existe un algoritmo para encontrar N, es decir, una receta queuna máquina calculadora podría utilizar para calcular N en un número finitode etapas. Ante todo, se necesita cierta notación.

Sea M una matriz m x n con elementos en F que tiene una primeracolumna no nula

fiMi -_: 5 _

fmSe define(7_29) I(Mi) = min grd fi

faro= M.C.d. (f1¬ . . . ,

Sea j un índice tal que grd = I(Mi)_ Para precisar, sea j el menor índicei para el que grd fi = l(Mi ). Para dividir cada ji por fi se hace

como primera columna.

(7-30) fi = fi-gi + ri, ri = 0 o grd ri < grd

Para cada i diferente de_i, se remplaza la fila í de M por la fila i menos gi vecesla fila f. Se multiplica la fila j por el inverso del coeficiente dominante de y

Page 272: ASESORES TECNICOS

Í un /n¡'Imt.\ |'m'n›m|l I' :lr .lmïlull 253

i-ntonces sc inlflcamtbiann las lilas ¡` y I. lil resultado de estas operaciones es una|n.i|n/ /ll' que tiene como primera columna

L-T2

(7-31) Mí = 73'" .T1†f+1

Tm

tlnmlc es el polinomio mónico que se obtiene por normalización de paraque tenga coeficiente dominante 1. Hemos dado un procedimiento bien de-huido para asociar a cada matriz M una matriz M' con las siguientes propie-ilmlcsï

(ai) M' es equivalente por filas a M.(bl P(M1') = P(M1)-

PUW1)

M; = (_) .Ó

(C) 0¬ 1(M1') < ¡(M1) 0

lis fácil comprobar (b) y (c) de (7-30) y (7-31). La propiedad (c) es justa-mente otro modo de establecer que, o existe un i tal que ri =¡ë 0 y grd r¡ < grd fj,o bien ri = 0 para todo i y es (por tanto) el máximo común divisor deli. . . _ , fm.

La demostración del lema es ahora muy simple. Se comienza con la matriz.ll aplicándole el procedimiento anterior para obtener M '. La propiedad (c)dice que M' servirá como la matriz N en el lema, o, I(M1') < l(M,). En el últimouuso se aplica el procedimiento a M' para obtener la matriz Mm = (M ')'.Si Mm no es el N conveniente, se forma MW = (Mm)' y así sucesivamente.I I caso es que las desigualdades estrictas

l(M1) > l(Mí) > l(Mí2)) > - - -

no pueden seguir mucho. Después de no más que l(M,) iteraciones de este pro-culimiento, se debe llegar a una matriz Ml” que tiene las propiedades que sebuscan. I

Teorema 6. Sea P una matriz m x m con elementos en el álgebra de poli-m›nn'ns F Las siguientes afirmaciones son equivalentes:

(i) P es inversible.( ii) El determinante de P es un polinomio escalar no nulo.

Page 273: ASESORES TECNICOS

254 .llgvlvm lmml

(ni) P es eqttimlerztt' por _/'ilus a lu matriz unidad n: x ni.(iv) P es un prmlu.'m de matrices elena-ntulc.s'.

Dmu›.s-lmción. Ciertamente (i) implica (ii), ya que la l`unción determi-nante es multiplicativa y los únicos polinomios inversibles de son los pc-linomios escalares no nulos. En realidad. en el Capítulo 5 se usó el adjuntopara hacer ver que (i) y (ii) son equivalentes. Este razonamiento da una de-mostración diferente de que (i) se desprende de (ii). Se completará el ciclo

(i) -› (ii)T l(iv) 4- (iii).

La única implicación que no es obvia es que (iii) se desprende de (ii).Supóngase (ii) y considérese la primera columna de P. Ella contiene cier-

tos polinomios p,, ..., pm, y

M.c.d. (pl, .. . , pm) = lya que cada común divisor de 171, - . . , pm debe dividir (al escalar) det P. Apli-cando el lema anterior a P se tiene la matriz

I-1 a2 . . . am

(1-32) Q = Í? BO

que es equivalente por filas a P. Una operación elemental de fila altera el de-terminante de una matriz por (a lo más) un factor escalar no nulo. Así, det Qes un polinomio escalar no nulo. Evidentemente, la matriz (m -- 1) >< (m - 1), B,en (7-32) tiene el mismo determinante que Q. Por tanto, se aplica el lema ante-rior a B. Si se continúa de esta manera por m etapas, se obtiene la matriz trian-gular superior

1 az ... am-I

R: 9 % ... (fm

0 0 - - - 1

que es equivalente por filas a R. Obviamente, R es equivalente por filas a lamatriz unidad m x m. I

Corolario. Sean M y N matrices m ›< n con elementos en el álgebra de po-linomios F[x]. Entonces N es equivalente por filas a M si, y solo si,

N = PMdonde P es una matriz inversible m ›< .m con elementos en F

Definimos ahora operaciones elementales de columna y equivalencia porcolumnas de un modo análogo a las operaciones de fila y equivalencia por filas.No se necesitan nuevos tipos de matrices elementales, ya que la clase de matri-

Page 274: ASESORES TECNICOS

l-n /mmm tartamtl r «lr Junlun 255

tr- que se pilctle olitenci :il hacer una operación elemental por columna en lamain/ unitlail es la misma que la clase obtenida al usar una sola operaciónilvliictllall Por lllil.

Iìi-Iiuición. La matriz N es equivalente a la matriz M si se puede pasar dell tt N ¡mr medio de una sucesion de operaciones

M:

talla una dt las cuales es una operación elemental de fila o una operacio'n elemental¡lt ittllllllllll.

It-orema 7. Sean M y N matrices m x n con elementos en el álgebra de›i›ltm›››m›.v F'Ír . Entonces N es et uivalente a M si, v solo si,I |_ -

N = PMQ

.lamlc I' es una matriz inversible de F x """" ' es una matriz inversible deJI I ` Ir. < n

leon-ma 8. Sea A una matriz n x n con elementos en el cuerpo F y sean¡›,. _ . , p, los factores invariantes de A. La matriz xl - A es equivalente a lamatri: diagonal n x n cui-'os elementos en la diagonal son p,, . . . , p,, 1, l, . . . , 1.

Itvnmstración. Existe una matriz inversible n ›< n, P, con elementos enl tal que PAP" está en la forma racional, esto es. tiene la forma bloque

I'/1, 0 0PAP-1= 0 A* " 0

Ó ò 21,tlumlc A, es la matriz asociada al polinomio p¡. De acuerdo con el Teorema 7,I.i tll:|ll'l/

tt' 241%) P(xI -- A)P"1 = xl - PAP-1

t-. equivalente a xl - A. Ahora

xt-A, 0 0it -tu xl-PAP-1= 0 xI`A” ` ` 0

0 O -- xl-A,

«I-mile los varios I representan las distintas matrices unidad de dimensión apro-|›|.nl.i. AI comienzo de esta sección se discutió que xl - A, es equivalente aI.i matriz

.Í unO unG

1---0

O. os 1

Page 275: ASESORES TECNICOS

356 .llgrlvra lineal

l)e (7-33) y (7-34) es elaro que il - .4 es equivalente a una matri/ diagonalque tiene los polinomios pl. y (tt - r) unos eii la diagonal principal. Por unasucesión de intercambios de tìlas y columnas se pueden ordenar los elementosde aquella diagonal en el orden que se desee; por ejemplo,p,, . . . ,p,, I, . . _ , 1. I

El Teorema 8 no da un medio eficaz para calcular los divisores elementalespl, _ _ . , p,, ya que la demostración depende del teorema de descomposicióncíclica. Daremos ahora un algoritmo explícito para reducir una matriz de poli-nomios a forma diagonal. El Teorema 8 sugiere que se pueden disponer tambiénesos elementos sucesivos en la diagonal principal de modo que uno divida al otro.

Definición. Sea N una matriz de F[x]"'”". Se dice que N está en la formanormal (de Smith) si

(a) todo elemento fuera de la diagonal principal de N es 0;(b) en la diagonal principal de N aparecen (en orden) los polinomios f1, . . . , ƒ

de modo tal que ƒ,`, divide a _fi,+1, 1 5 k 5 l- 1.

En la definición el número l es l = min (m, n). Los elementos de la diagonalprincipal son A = Nu, k = 1, . . . , l.

Teorema 9. Sea M una matriz m x n con elementos en el álgebra de po-linomios F Entonces M es equivalente a una matri: N que está en la formanormal.

Demostración. Si M = 0, no hay nada que demostrar. Si M aé 0 se daráun algoritmo para encontrar una matriz M' que sea equivalente a M y que tienela forma

fi o o,_ o(ves) M- , R

0

donde R es una matriz (m - l) x (n - 1) y fl divide cada elemento de R.Con ello se habrá terminado la demostración, ya que se puede aplicar el mismoprocedimiento a R para obtener fz, etc.

Sea l(M) el mínimo de los grados de los elementos no nulos de M. Hállesela primera columna que contenga un elemento de grado l(M) e intercambiaresa columna con la columna l. Se llamará a la matriz resultante M“”. Descri-bimos un procedimiento para hallar una matriz de la forma

g 0 0

(7-36) (Í SO

que es equivalente a M(0). Empezamos por aplicar a la matriz Mm' el proce-dimiento del lema anterior al Teorema 6, procedimiento que se llamará PL6.Resulta una matriz

Page 276: ASESORES TECNICOS

Í-U-Y /Urtttm m|~|`nttttl I' ala' .luttltttt 2.57

p a ... b

(7_37) Mu):

oe---fSi los elementos a, _ _ _ , b son todos nulos, bien. Si no, se usa el análogo de PL6para la primera fila, procedimiento que se llamará PL6'. El resultado es unamatriz

q O O

(7-ss) M<2›= '_' fl *Ébt dt fr

donde q es el máximo común divisor de p. a, _ . . _ b. Para obtener Mal puedehaberse alterado o no la buena forma de la columna 1. Si se ha alterado,,seaplica PL6 otra vez. Y esto es lo que se busca. En no más de l(M) etapas

Ma» É?, Mm PH' Mm PH .. . _, Mm

se debe llegar a una matriz M“' que tiene la forma (7-36), ya que en cada etapasucesiva se tiene que l(M"**") < l(M“"). Se designa el proceso que se acabade definir por P7-36:

Mm) P7-36 Mu).

En (7-36), el polinomio g puede o no dividir cada elemento de S. Si no, hallarla primera columna que tiene un elemento que no sea divisible por g y sumartal columna a la columna 1. La primera nueva columna contiene a g y un ele-mento gh + r donde r =¡é 0 y grd r < grd g. Aplicando el proceso P7-36, elresultado será otra matriz de la forma (7-36), donde el grado del correspon-diente g ha decreeido.

Ahora es obvio que en un número finito de etapas se obtendrá (7-35), esdecir, se llegará a una matriz de la forma (7-36) donde el grado de g no puedereducirse más. I

Queremos hacer ver que la forma normal asociada a una matriz M es única.Se vieron dos cosas que dan la clave de cómo los polinomios f,, _ _ _ , f, en elTeorema 9 están determinados unívocamente por M. Primera, las operacioneselementales de fila y de columna no cambian el valor del determinante de unamatriz cuadrada en más que un factor escalar no nulo. Segunda, las operacioneselementales de fila y de columna no cambian el máximo común divisor de cadaelemento de una matriz.

Definición. Sea M una matriz m x n con elementos en F Si l 5 k 5min (m, n), se define ö,,(M) como el máximo común divisor de los determinantesde todas las submatrices k x k de M.

Page 277: ASESORES TECNICOS

ÍTH -I ltteltra lineal

Recuérdese que una suhtnatri/ lt' ›< lt de M es aquella que se obtiene suprimiendo m - k lil-as y n - k columnas de M. En otras palabras. se eligenciertos k-tuples

1=('il›-°~›'i¡r)›

J=(.7'1›--››.7'k)› 1S.7-1<"'<.7'kÉfly se observa la matriz formada por esas filas y columnas de M. Estamos inte-resados en los determinantes

Íllaf. ' ' ' Miu.(7-39) Dr.J(M) = det- 2 E -

Míuji ° ' ° Illinjb

El polinomio ök(M) es el máximo común divisor de los polinomios D,__,(M ),cuando I y J describen todos los posibles k-tuples.

Teorema 10. Si M y N son matrices m x n equiralentes, con elementosen F[x], entonces

(7-40) ö,,(M) = ö,,(N). l S k S min (m, n).

Demostración. Es suficiente demostrar que una sola operación elementalde fila e no cambia a ök. Como la inversa de e es también una operación ele-mental de fila, basta con demostrar lo siguiente: Si un polinomio f divide atodo D,__,(M), entonces f divide a D,__,(e(M)) para todos los k-tuples I y J.

Como estamos considerando una operación de fila. sean oq. . . . _ otm las filasde M y usemos la notación

DJ(aii› ° ° - 1 aiii) = JDÍ.-KIM)-

Dados I y J, ¿cuál es la relación entre D,__,(M) y D,__,(e(M ))'? Se consideran lostres tipos de operaciones e:

(a) multiplicación de la fila r por un escalar c no nulo;(b) remplazo de la fila r por la fila r más g veces la fila s. r al: s;(c) intercambio de las filas r y s. r # s.

Se deja aun lado por el momento el tipo (c) y se tratará de los tipos Ia) y (b)que solo cambian la fila r. Si r no es uno de los indices i,, _ _ . _ ik, entonces

Dr.J(e(M)) = D¡__,(.lI).

Si r está entre los indices il, _ . _ , ik, entonces para los dos casos tenemos

(3) = I)-Í(0¿íu - - - 1 Can - - - 1 aiii)

3:' . . - , af, . - - ,

= cD¡_¡(M);

D¡'J(6(i1l[)) -'= DJ(0¿¿¡, . . . , 01,- + gas, _ . . , an)

= DI,J(¡1I) "l` gDJ(aii1' ' ° 1 a-S1 ° ° - 1 an)-

Page 278: ASESORES TECNICOS

Las /urmu.s rm-inmtl i' tli- .lurilim 259

Para las operaciones del tipo (a) es claro que cualquier f que divide a D,_,(M )también divide a D,__,(e(M)). Para el caso de la operación del tipo (b) obsér-vese que

D_r(0a-., - - - , 01,, . . . , af.) = 0, si s = il- para algúnjD_r(0f»i.›- - - › Of., _ _ , , añ) -.= ±Dr'._r(-W), si s =# i¡ para todo j.

I.a I' en la última ecuación es el k-tuple (i,, _ _ , s, _ _ _ , ik) ordenado en ordencreciente. Ahora es evidente que, si f divide cada D,__,(M), entonces f dividea cada D,__,(e(M))_

Las operaciones del tipo (c) pueden tratarse más o menos por el mismorazonamiento dado, o usando el hecho de que tal operación puede ser efec-tuada por una sucesión de operaciones de los tipos (a) y (b). I

Corolario. Toda matriz M de F[x]""”' es equivalente precisamente a unamatriz N que está en forma normal. Los polinomios f,, . _ _ , fi, que aparecenen la diagonal principal de N son

5 (M)f=-_-'í-i, lSkSmin(m,n)*mmmdonde, por conveniencia, se define ò`0(M ) = 1.

Demostración. Si N está en forma normal con elementos en la diagonalfl, _ _ _, j,, es muy fácil ver que

mM=m~n.|Por supuesto que la matriz N en este último corolario se llama la forma

normal de M. Los polinomios f¡, _ _ _ , f, son llamados a menudo los factoresinvariantes de M.

Supóngase que A es una matriz n x n con elementos en F, y sean p,, _ _ _ , p,los factores invariantes de A. Se ve ahora que la forma normal de la matrizxl - A tiene en la diagonal los elementos 1, 1, _ _ _, 1, p,, _ _ _, pl. El últimocorolario dice qué son pl, _ _ _, p,, en términos de las submatrices de xI - A.El número n - r es el mayor k tal que ö,_(xI - A) -= l. El polinomio minimalp, es el polinomio característico de A dividido por el máximo común divisorde los determinantes de todas las submatrices (n - 1) x (n - 1) de xl - A, etc.

Ejercicios

I. ¿ Es verdadero o falso que toda matriz de F[x]"”" es equivalente por filas a una matriztriangular superior?

2. Sea T un operador lineal sobre un espacio vectorial de dimensión finita y sea A la matrizdc T en una base ordenada. Entonces Ttiene un vector cíclico si, y solo si, los determinantesde las submatrices (n - 1) x (n - I) de xl - A son pìimos relativos.

3. Sea A una matriz n x n con elementos en el cuerpo F y sean fi» _ _ _ , _f,, los elementosde la diagonal de la forma normal de xl - A. ¿Para qué matrices A es fl #= I?

Page 279: ASESORES TECNICOS

--'UU Ilgrlii-ii litiml

4. Coiistruir un operador lineal I' con poliiioinio iniiiiinal _\'1(.\' - 1)* y polinomio carac-terístico .r-'(.\ - |)'*_ l)escrihir la descoinposición prima del espacio vectorial por Ty hallarlas proyecciones sobre los componentes primos. Hallar una base en la cual la matriz de'I' este en l`orma de Jordan. Hallar también una descomposición explícita en suma directadel espacio subespacios T-cíclicos, como en el Teorema 3 y dar los factores invariantes.

5. Sea T el operador lineal sobre R8 representado en la base canónìca por la matriz

OOOOOOOI-* Qi-¢i-›Qi-›OOi-- ©›-al-I©I-I©©I-I Oi-i-i-^OOO›-^ OI-*I-*I-*OOOI-^ OOHOOOOI-* OHOOOOOP- Qi--i--Oi-li-Ii-Ii-I

A-_=

(a) Hallar el polinomio característico y los factores invariantes.(b) Hallar la descomposición prima de R8 por Ty las proyecciones en los componentes

primos. Hallar la descomposición cíclica de cada componente primo, como en el Teorema 3.(c) Hallar la forma de Jordan de A.(d) Hallar una descomposición en suma directa de R” en subespacios T-cíclicos. como

en el Teorema 3. (Sugerencia: Un modo de hacerlo es usar el resultado en (b) y una apro-piada generalización de las ideas estudiadas en el Ejemplo 4.)

7.5. Resumen: operadores semisimples

En los dos últimos capítulos nos hemos ocupado de un operador linealsimple T sobre un espacio vectorial V de dimensión finita. El programa ha con-sistido en descomponer T en suma directa de operadores lineales de naturalezaelemental, con el objeto de tener información detallada respecto a cómo «opera››T sobre el espacio V. Resumimos lo que se ha hecho hasta ahora.

Comenzamos estudiando T por medio de los valores propios y los vectorespropios. lntrodujimos operadores diagonalizables, operadores que pueden sercompletamente descritos en terminos de los valores y vectores propios. Obser-vamos entonces que T podía no tener un vector propio simple. Aun en el casode un cuerpo escalar algebraicamente cerrado, cuando todo operador linealtiene al menos un vector propio, se observó que los vectores propios de T nogeneraban necesariamente el espacio.

Se demostró luego el teorema de descomposición cíclica, que expresa cual-quier operador lineaì como suma directa de operadores con un vector cíclico,sin hipótesis alguna acerca del cuerpo escalar. Si U es un operador lineal conun vector cíclico, existe una base {ot,, ._ _ _ oz,,¦ con

Uai=aƒ+1› j=l:'~'›n_l

Uan í ._ __ ..' -_ c¶¿_1a¶¡¢

Page 280: ASESORES TECNICOS

l-tt\' /t›t'ttttt.\' t'm'tuttttl I' ali' .lurtlutt QÚÍ

I-` I efecto de U sobre esta base es entonces trasladar cada oz¡ al siguiente vectorfz,,-+1, con excepción de que Uot,, es una combinación lineal preestablecida delos vectores de la base. Como el operador lineal general T es suma directa deun número finito de tales operadores U, se obtuvo una descripción explícitay razonablemente elemental del efecto de T.

A continuación se aplicó el teorema de descomposición cíclica a operadoresnilpotentes. Para el caso de un cuerpo escalar algebraicamente cerrado, se com-binó esto con el teorema de descomposición prima para obtener la forma de.lordan. La forma de Jordan da una base {ot¡, _ _ _ , ot,,} del espacio V tal que,para todo j, o bien Taj es un múltiplo escalar de ot,-, o bien Tot¡ = cot¡ + ay-+1.Tal base describe ciertamente el efecto de T de modo explícito y elemental.

La importancia de la forma racional (o de la forma de Jordan) provienede que existe, más bien que del hecho que se pueda calcular en casos determi-nados. Claro está que si se tiene un operador lineal específico Ty se puede calcu-lar su forma cíclica o de Jordan, es lo que hay que hacer, pues, teniendo ›¿--ziforma, se puede deducir una gran cantidad de información acerca de T. Dostipos diferentes de dificultades surgen en el cálculo de esas formas canónicas.Una es desde luego lo largo de los cálculos. Otra, que puede no haber un me-todo para hacer los cálculos, incluso si se tienen el tiempo y la paciencia ne-cesarios. La segunda dificultad surge, por ejemplo, al tratar de hallar la formade Jordan de una matriz compleja. Sencillamente no hay un método bien de-finido para factorizar el polinomio característico, y asi uno queda detenido alempezar. La forma racional no presenta esta dificultad. Como se vio en la Sec-ción 7.4, hay un método bien definido para hallar la forma racional de unamatriz n x n dada; con todo, los cálculos son por lo general extremadamentelargos.

En el resumen de los resultados de estos dos últimos capítulos no se ha men-cionado aún uno de los teoremas que se demostraron. Es el teorema que diceque si T es un operador lineal sobre un espacio vectorial de dimensión finitasobre un cuerpo algebraicamente cerrado, T se expresa unívocamente comosuma de un operador diagonalizable y de un operador nilpotente que conmutan.Esto se demostró con el teorema de descomposición prima y con cierta infor-mación sobre los operadores diagonalizables. No es este un teorema tan pro-fundo como el de la descomposición cíclica o el de la existencia de la formade Jordan, pero si tiene aplicaciones importantes y útiles en algunas partes dela matemática. Para concluir este capítulo demostraremos un teorema análogosin suponer que el cuerpo escalar es algebraicamente cerrado. Comenzaremosdefiniendo los operadores que desempeñan el papel de los operadores diago-nalizables_

Definición. Sea V un espacio vectorial de dimensión finita sobre el cuerpoFy sea T un operador lineal sobre V. Se dice que T es semisiinple si todo subespacioT-invariante tiene un subespacio complementario T-invariante.

Lo que se va a demostrar es que, con ciertas restricciones sobre el cuerpo F,todo operador lineal T se expresa unívocamente en la forma T = S + N, don-

Page 281: ASESORES TECNICOS

20.' Â lRt'lIt'u llmïtl

de S es semisiinple, N es nilpotente y SN == NS. Primero se han de caractcri/.arlos operadores semisimples por medio de sus polinomios- minimales, y estacaracterización hará ver que, cuando F es algebraicamente cerrado, un ope-rador es semisimple si, y solo si, es diagonalizable.

Lema. Sea T un operador lineal sobre el espacio vectorial de dimensiónfinita V y sea V = W1 EB - - - EB Wk la descomposición prima de T; es decir,si p es el polinomio minimal de T y p = p',' - - - pi* es la factorización prima de p,entonces es el espacio nulo de pJ-(T)'1`. Sea W el subespacio de V que es inva-riante por T. Entonces

W=(WÑW1)€B"'€B(WÑWi_)Demostración. Para la demostración se necesita recordar un corolario de

la demostración del teorema de descomposición prima, en la Sección 6.8. SiE,, _ _ _ , E,, son las proyecciones asociadas a la descomposición V = W¡ G9 - - - EBWk, entonces cada EJ- es un polinomio en T. Esto es, existen polinomios 11,, _ _ _ , hktales que EJ- = h)-(T).

Sea ahora W el subespacio que es invariante por T. Si ot es un vector cual-quiera de W, entonces oz = al + ' '° + ak, con otj en Ahora otj = E141 =h¡(T)ot, y como W es invariante bajo T, cada 1,- está también en W. Así cadavectorotde Wes dela formaot = ot, + - ' ' + ot,,_con otj en la intersección WH W,-_Esta expresión es única, ya que V = W, EB - - - EB Wk. Po; tanto,

W=(Wf)Wi)®---®(WñlVt)› ILema. Sea T un operador lineal sobre V _i° supóngase que el polinomio mi-

nimal de T es irreducìble sobre el cuerpo escalar' F_ Entonces T es semisimple.

Demostración. Sea W un subespacio de V invariante por T. Se debe de-mostrar que W tiene un subespacio complementario T-invariante. De acuerdocon el corolario del Teorema 3, será suficiente demostrar que si f es un poli-nomio y fi es un vector de V tal que f(T)/3 está en W. entonces existe un vectorot en W con ƒ(T)B = f(T)oc. Asi. pues, supóngase que /t está en V y que f es unpolinomio tal que f(T)B está en W. Si f(T)B = 0, se hace oz = 0 y entonces 1es un vector en W con f(T)/i = ƒ(T)ot_ Si f(T)[ì qé 0, el polinomio f no es di-visible por el polinomio minimal p del operador T. Como p es primo, eso quieredecir que f y p son primos relativos y existen polinomios g y li tales que fg +ph = 1. Como p(T) = 0 se tiene entonces que f(T)g(T) == 1. De esto se sigueque el vector [3 debe estar en el subespacio W; en efecto,

B = ¶(T)f(T)B= a(T)(ƒ(T)B)

cuando f(T)B está en W y W es invariante por T. Se hace ot = /t. I

Teorema ll. Sea T un operador lineal sobre un espacio rectorial de di-mensión ƒinita V. Una condición necesaria _r suficiente Para que T sea semisimple

Page 282: ASESORES TECNICOS

Im Inrmm rmvmml i' «lc .Iunlun 263

ri que cl polinomio minimal p de Tsea de la forma p = pk - - - pk, donde pk, _ _ _ , pktan ¡›olim›mio_s~ irreducibles distintos sobre el cuerpo escalar F_

I)¢-nun-tración. Supóngase que T es semisimple. Se demostrará que ningúnpoliiiomio irreducìble está repetido en la factorización prima del polinomiominimal p. Supóngase lo contrario. Entonces existe algún polinomio mónico g,no escalar, tal que gl divide a p. Sea W el espacio nulo del operador g(T). Enton-ces W es invariante por T. Ahora bien, p = gzh para algún polinomio h. Comog no es un polinomio escalar, el operador g(T)h(T) no es el operador cero yhay un vector fi en V tal que g(T)h(T)B =,¿ 0; es decir, (gli)fi =/= 0. Ahora. (gh)/3está en el subespacio W, ya que g(ghfi) = gzhfi = p[i = 0. Pero no existe vectoralguno ot en W tal que ghfi = ghcz; en efecto, si ot está en W

(9h)<r = (h9)a = h(90f) = M0) = 0-/\sí W no puede tener un subespacio complementario T-invariante. contradi-eicndo la hipótesis de que T es semisimple.

Ahora supóngase que la factorización prima de p es p = pk - - - pk, donde¡›,, _ _ _, pk son polinomios mónicos (no escalares) irreducibles distintos. Seall' un subespacio de V invariante por T. Se demostrará que V tiene un subes-pacio complementario T-invariante. Sea V = WI 9 - - - 9 Wk la descompo-sición prima de T, es decir, sea WJ- el espacio nulo de p_¡(T). Sea TJ- el operadorliiieal inducido en I/Vj por T, de modo que el polinomio minimal de sea elprimo pj. Ahora, W Ñ es un subespacio de que es invariante por (opor T). Por el último lema existe un subespacio I/J de W¡ tal que =(W H W,-) 9 VJ-, y VJ- es invariante por TJ- (y, por tanto, por T). Entonces tenemos

V=W,(_9.__(_9Wk=(Wf)W1)CBV1®°"(-:§(Wf)W±)C9V±=(Wf)W1)+"' +(WmWk)®V1C`B"'®V±-

Por el primer lema anterior, W = (WH W1)9 - - - 9 (W H Wk)_ De modoque si W' = V, 9 - - - 9 Vk, entonces V = W9 W' y W' es invariantepOr T. I

Corolario. Si T es un operador lineal sobre un espacio vectorial de dimensión/'inita sobre un cuerpo algebraicamente cerrado, T es semisimple si, y solo si,T es diagonalizable.

Demostración. Si el cuerpo de los escalares es algebraicamente cerrado,los primos mónicos sobre F son los polinomios x - c. En este caso T es semi-simple si, y solo si, el polinomio minimal de T es p = (x - c,)~ ' ' (x - ck),donde los cl, _ _ _ , ck son elementos distintos de F. Esto es precisamente el cri-terio para que T sea diagonalizable, que se estableció en el Capítulo 6. I

Debemos señalar que T es semisimple si, y solo si existe un polinomio _/_que es producto de factores primos distintos, tal que f(T) = 0. Esto es soloen apariencia diferente de la condición de que el polinomio minimal sea unproducto de factores primos distintos.

Page 283: ASESORES TECNICOS

.'64 A l_i,'¢'l›t'u lmml

Sea ahora expresar un operador lineal coino suina de un operador linealsemisimple y de un operador nilpotente que conmutan. Para ello restringiráel cuerpo de los escalares a un subcuerpo de los números complejos. El lectoradvertido verá que lo importante es que el cuerpo F sea un cuerpo de caracte-rística cero, esto es, que para todo entero positivo n, la suma l + - - - + l (n veces)en F no debe ser 0. Para un polinomio f sobre F, se representa por fl” la k-ésimaderivada formal de f En otras palabras, fl” = Dkj”, donde D es el operadorderivación sobre el espacio de los polinomios. Si g es otro polinomio, f(g) re-presenta el resultado de sustituir g en jfi es decir, el polinomio que se obtienepor la aplicación de f al elemento g en el álgebra lineal F

Lema (fórmula de Taylor). Sea F un cuerpo de caracteristica cero __v seang y h polinomios sobre F. Si f es cualquier polinomio sobre F con grd f 5 n,entonces

2 ri)

fe) = fin + flwhirg - hi + ¡ig-'“-l tg - hr + --- + tg - hi".. n.

Demostración. Lo que estamos demostrando es una generalización de lafórmula de Taylor. El lector probablemente estará familiarizado con el casoespecial en que h == c, un polinomio escalar. y g = x. En tal caso, la fórmuladice que

f = f(x) = f(c) + f<1><«››<x - ci+ƒ(2)(C) (x _ c)2 + _ __ (x _ 6),,-

2! n.

La demostración de la fórmula general es nada más que una aplicacióndel teorema del binomio

(a+b)k=ak+k¢-ib+ ak-2b2+ +bi¢_

El lector deberá ver que, como la sustitución y derivación son procesos lineales,solo se necesita demostrar la fórmula cuando f = xk. La fórmula para

f = kg) c,_x" se deduce por combinación lineal. En el caso f = x", con=o

k í n, la fórmula dice que

gh = hit + ¡chi-i(g __ h) _|_ hr-2(g __ h)2 _|_ _ _ _ _|. (g _ hy;

que no es más que el desarrollo binómico de

a"= [h+(ø-h)]'°- ILema. Sea F un subcuerpo de los números complejos, sea f un polinomio

sobre F y sea f' la derivada de f Las siguientes afirmaciones son equivalentes:

(a) f es el producto de polinomios irreducibles distintos sobre F.(b) f y f' son primos relativos.

Page 284: ASESORES TECNICOS

las /nrnnii' i'm'uit|ul i' tlt' .lurilittt 265

(e) (`umo polinoniio de coeficientes complejos, f no tiene raices repetidas.

l)cniostración_ Dcmostremos primero que (a) y (b) son afirmaciones equi-vnlcntes acerca de ƒl Supóngase que en la factorización prima de f sobre elcuerpo F, algún polinomio primo (no escalar) p esté repetido. Entonces f = pzh|›_ir;i algún li en F Entonces

ff = p2h,' +

v p es también un divisor de f'_ Luego f y f' no son primos relativos. Conclui-iiios que (b) implica (a). `

Ahora supóngase que f = pk ---pk, donde pk, ..., pk son polinomiosirreducibles no escalares distintos sobre F. Sea = f/pj. Entonces

f' = pifi “l-Páf2“l' +Pifk-

Sea p un polinomio primo que divide af y a f'_ Entonces p = pk para cierto i.'\hora bien, pk divide a ƒk para j =;ë i, y como pk también divide a

ttf = 2 Pi-ff.1-i

xcinos que pk debe dividir a pkffk. Por tanto, pk divide a fi o a pkf _ Pero pk no divideii I,-_ ya que Pi. . _ _ , pk son distintos. Así pk divide a pj. Esto no es posible, yaque pk' tiene grado menor en una unidad que el grado de pk-_ Concluimos que nin-¡inn primo divide a f y a f', o que (f,f') = 1.

Para ver que la afirmación (c) es equivalente a (a) y (b), se necesita solamenteobservar lo siguiente. Supóngase que f y g son polinomios sobre F, un sub-cuerpo de los números complejos. Se puede considerar también a f y g comopolinomios con coeficientes complejos. La afirmación de que f y g son primosrelativos como polinomios sobre F, es equivalente a la afirmación de que f y gson primos relativos como polinomios sobre el cuerpo de los números com-plcjos. Se deja la demostración como ejercicio. Se usa este hecho con g = f'_Uhsérvese que (c) no es más que (a) cuando f es considerado como polinomiosobre el cuerpo de los números complejos. Así (b) y (c) son equivalentes porel mismo razonamiento que se dio anteriormente. I

Podemos ahora demostrar un teorema que hace más evidente la relaciónentre los operadores semisimples y los operadores diagonalizables.

Teorema 12. Sea F un subcuerpo del cuerpo de los números complejos,ica V un espacio vectorial de dimensión finita sobre el cuerpo F y sea T un ope-rador lineal sobre V. Sea (B una base ordenada de V y sea A la matriz de T en laluise ordenada (B. Entonces T es semisimple si, y solo si. la matriz A es semejante,sobre el cuerpo de los números complejos, a una matri: diagonal.

Demostración. Sea p el polinomio minimal de T. Según el Teorema 11,I ` es semisimple si, y solo si, p = pk - - - pk, donde los pk, _ _ _ , pk son polino-mios irreducibles distintos sobre F. Por el último lema se ve que T es semisimplesi, y solo si, p no tiene raíces complejas repetidas.

Page 285: ASESORES TECNICOS

¿'00 A lgcllra lim-al

Ahora p es también el polinomio minimal de la matriz A. Se sabe que Aes semejante, sobre el cuerpo de los números complejos, a una matriz diagonalsi, y solo si, su polinomio miniinal no tiene raíces complejas repetidas. Estodemuestra el teorema. I

Teorema 13. Sea F un subcuerpo del cuerpo de los numeros complejos,sea V un espacio vectorial de dimensión finita sobre F y sea T un operador linealsobre V. Existen un operador semisimple S en V y un operador nilpotente N enV tal que

(i) T= S + N;(ii) SN = NS.

Además, el S semisimple y el N nilpotente que satisfacen (i) _r (ii ), son únicos ycada uno es un polinomio en T.

Demostración. Sea pk' - - - p"* la factorización prima del polinomio mi-nimal de Ty sea f = pk - - ' pk. Sea r el mayor de los enteros positivos rk, _ _ _ , rk_Entonces el polinomio f es un producto de factores primos distintos, _/* es divi-sible por el polinomio minimal de T. y así

f(T)' = 0-Se construirá una sucesión de polinomios go, gk, gz, tal que

f(a= - 2 Q,-ff)J=U

es divisible por f"*', n = 0, 1, 2, _ _ _ Se toma go =- 0 y entonces f(x -gk,f°)=f(x) = f es divisible por f. Supóngase que se han elegido los go, _ _ _ _ g,,_ k. Sea

n-1h = x - 2 gfƒf

¿-0

de modo que, por suposición, fih) es divisible por f". Se quiere elegir g,, demodo que

f(h - 9»f")sea divisible por ƒ"“_ Aplicando la fórmula general de Taylor se obtiene

_" gflfn) = _ gflfnl-,(h) "l" ƒn+lb

donde b es cierto polinomio. Por hipótesis, f(h) = qf". Así se ve que para ob-tener que f(h - g,,f") sea divisible por f"*' se necesita solo elegir g,, de talmodo que (q - g,,f') sea divisible por f. Esto puede hacerse, ya que _/ no tienefactores primos repetidos, con lo que f y f' son primos relativos. Si a y e sonpolinomios tales que af + ef' = l y si se hace g,, = eq, entonces q - gmf' esdivisible por f.

Se tiene ahora una sucesión go, gk, _ _ _ tal que ƒ"“ divide a

ƒ - g,-fi), Tomemos n = r - 1, y entonces, como f(T)' = 0,J O-í

Page 286: ASESORES TECNICOS

las li›rma_s ruruinal i' de Jordan 267

'r-lf(1' - ,go g,~<'r›f<T›f) = 0.Seu

N = 'il g-<T›f<T››' = E19,-<T›f<T›f.3

t`oino *ZZ g,-ft es divisible por f, se ve que N' = 0 y N es nilpotente. Seaj=1

.S = T- N, entonces f(S) = ƒ(T- iv) = 0. Como f tiene factores primosdistintos, S es semisimple.

Ahora se tiene T = S -!- N, donde S es semisimple, N nilpotente y cadauno es un polinomio en T. Para demostrar la unicidad, se pasará del cuerpode los escalares F al cuerpo de los números complejos. Sea (B una base orde-iiada del espacio V. Se tiene entonces que

[Tica = [Siria + [Nim

iiiicntras que [S]¿B es diagonalizable sobre los números complejos y [N](B esnilpotente. Estas matrices diagonalizables y nilpotentes que conmutan estánunívocamente determinadas, como se vio en el Capítulo 6. I

lzjercicios

I. Si N es un operador nilpotente sobre V, demostrar que para cualquier polinomio f,la parte semisimple de _ƒ(N) es un múltiplo escalar del operador identidad (F. subcuer-po df! C

2. Sean F un subcuerpo de los números complejos, V un espacio vectorial de dimensiónlinita sobre F y T un operador lineal semisimple sobre V. Si f es cualquier polinomio sobreI-'_ demostrar que f(T) es semisimple.

3. Sea T un operador lineal sobre un espacio de dimensión finita sobre un subcuerpode C_ Demostrar que Tes semisimple si, y solo si, es cierto lo siguiente: si f es un polinomioy f(T) es nilpotente, entonces f(T) = 0.

Page 287: ASESORES TECNICOS

8. Espacios con productointerno

8.1. Productos internos

A lo largo de este capítulo se considerarán solo espacios vectoriales realeso complejos, esto es, espacios vectoriales sobre el cuerpo de los números rea-les o el cuerpo de los números complejos. El principal objetivo ahora es el estudiode los espacios vectoriales en los que tiene sentido hablar de «longitud›› de unvector y de «ángulo›› entre dos vectores. Se hará esto mediante el estudio decierto tipo de función de valor escalar sobre parejas de vectores, conocido comoproducto interno. Un ejemplo de producto interno es el producto escalar devectores en R3. El producto escalar de los vectores

(X = (1121, $2, 133) Y B = (Í/1› Í/2; Í/3)

en R3 es el número real

(alli) = 11312/1 + 332?/2 'l' 1132/3-

Geométricamente, este producto escalar es el producto de la longitud de ot,la longitud de B y el coseno del ángulo entre ot y B. Es, por tanto_ posible de-finir los conceptos geométricos de «longitud›› y «ángulo›› en R3 por la defini-ción algebraica de un producto escalar.

Un producto interno sobre un espacio vectorial es una función con pro-piedades similares a las del producto escalar en R3, y en términos de tal productointerno se puede también definir «longitud›› y «ángulo››_ El comentario respectoa la noción general de ángulo se restringirá al concepto de perpendicularidad(u ortogonalidad) de vectores. En esta primera sección se dirá qué es un pro-ducto interno, se considerarán unos ejemplos particulares y se establecerán

268

Page 288: ASESORES TECNICOS

l-\'pm-tus i-mi prmlurui lnti-mu 209

.ilguiias de las propiedades basicas de los productos internos. Entonces se vol-vera a la tarea de discutir longitud y ortogonalidad.

Dt-linición. Sean F el cuerpo de los números reales, o de los complejos, yI un espacio vectorial sobre F. Un producto iiiterno sobre V es una función quemiigiia a cada par ordenado de vectores ot, H de V un escalar (otlfl) de F de tal modoque para cualesquiera cx, B, y de V y todos los escalares c

(11) (of + Blv) = (alv) + (Bl'r);(b) (Galli) = 0(0f|B);(c) (Bla) = (ÉÍE), donde la barra indica conjugación compleja;(il) (ala) > 0 si ot 9€ 0.

l)cbe observarse que las condiciones (a), (b) y (c) implican que

tr) (alcfl + 1) = ¡>'(0f|B) + (air).Utra observación debe hacerse. Si F es el cuerpo R de los números reales, loscomplejos eonjugados que figuran en (c) y (e) están demás; sin embargo, enel caso de los complejos son necesarias para la consistencia de las condiciones.Sin estos complejos eonjugados se tendría la contradicción:

(otlot) > 0 y (iotliot) = - l(ot|ot) > 0.

En los ejemplos que siguen y a lo largo del capítulo, F es el cuerpo de losuuineros reales o de los números complejos.

Ejemplo 1. En F" existe un producto interno que se llama producto intemoraiiónieo. Está definido sobre ot = (xk, _ _ _, xk) y li = (yk, _. _ _ y,,) por

(3-1) (alli) = E $1271'-3

(`uando F = R, esto también puede escribirse

= %¬4x1'?/i-

l-'n el caso real, el producto interno eanónico es el llamado a menudo productoescalar, y se representa por ot - li.

Ejemplo 2. Para ot = (xk, xz) y B = (yk, yz) en R2, sea

(alli) = $13/1 _ $22/i _ $111/2 'l' 43321112-

Como (ot|ot) = (xk - x2)2 + 3x§, se tiene que (ot|ot) > 0 si ot 9€ 0. Las con-diciones (a), (b) y (c) de la definición se pueden verificar fácilmente.

Ejemplo 3. Sean V = F" °`", el espacio de todas las matrices n x n sobre F.Entonces V es isomorfo a F"2 de un modo natural; se sigue, pues, del Ejem-plo 1, que la igualdad

= zA.¡1,B_¡¡,:J:

Page 289: ASESORES TECNICOS

270 /I l_t,'el›rtt lt`m'ul

define un producto interno sobre V. Además, si se introduce la matriz trans-puesta conjugada B"', donde B2; = É,-k. se puede expresar este producto interno

"XIIsobre F en térininos de la función traza:(AIB) = tr (AB"') = tr (B"'A).

En efecto,tr <AB*› - 2 <AB*›,-,-

.7

-M--M a-[4a-MeEP

ã= J`¡<BJ'¡¢°

Ejemplo 4. Sea F"" 1 el espacio de las matrices (columnas) n ›< 1 sobre F,y sea Q una matriz inversible n x n sobre F. Para X, Y en F""' se hace

(XI Y) = Y"'Q*QX-Se identifica la matriz 1 ›< l del segundo miembro con su solo elemento. Cuan-do Q es la matriz unidad, este producto interno es esencialmente el mismo delEjemplo 1; se llama el producto intemo eanónico sobre F'“' '_ El lector deberáobservar que la terminología de «producto intemo eanónico» se usa en doscontextos especiales. Para un espacio vectorial general de dimensión finitasobre F no hay un producto interno obvio que se pueda llamar eanónico.

Ejemplo 5. Sea V el espacio vectorial de las funciones continuas de valorcomplejo en el intervalo unitario, 0 5 t 5 1. Sea

ma=fiflwoaEl lector está probablemente más familiarizado con el espacio de las funcionesde valor real en el intervalo unitario, y para este espacio la conjugación com-pleja puede omitirse.

Ejemplo 6 Este es en realidad un conjunto de eje1nplos_ Por el siguien-te método se pueden construir nuevos productos internos a partir de uno dado.Sean V y W espacios vectoriales sobre F y supóngase que ( | ) es un productointerno sobre W. Si T es una transformación lineal no singular de V en W, en-tonces la igualdad

PT(0f, B) = (TUITB)define un producto interno pk sobre V. El producto interno del Ejemplo 4 esun caso especial de esta situación. También lo son los siguientes:

(a) Sea V un espacio vectorial de dimensión finita y sea(B = {(!1,...,(X,k}

una base ordenada de V. Sean ek, _ _ _ , e,, los vectores de la base canónìca enF" y sea T la transformación lineal de V en F" tal que Totk- = ek, j = 1, _ _ _ , ii.En otras palabras, sea T el isomorfismo «natural›› de V sobre el producto in-terno eanónico sobre F", entonces

cL

Page 290: ASESORES TECNICOS

I-.`\¡nn'tt›.\ nm producto interno 27!

tft@ ¿Gian 2 Z/kai) = Si $1371-; k j == l

A-ki. para cada base para V existe un producto interno sobre V con la propiedadde que (ak-otk) == ök-k; en efecto, es fácil ver que existe exactamente uno solode tales productos internos. Más adelante se verá que cada producto internosohre I" está determinado por alguna base (B en la forma anterior.

(li) Volvamos nuevamente al Ejemplo 5 y tomemos V = W, el espaciodr las funciones continuas en el intervalo unitario. Sea T el operador lineal«multiplicación por t››, esto es, (Tf)(t) = tf(t), 0 5 t 5 1. Es fácil ver queI' es lineal. También Tes no singular; en efecto, supóngase que Tf = 0. Enton-res 1/'(1) = 0 para 0 S t S 1; luego f(t) = 0 para t > 0. Como f es continua,se tiene también que f(O) = 0, o f = 0. Ahora, usando el producto internodel Ejemplo 5, se construye un producto interno nuevo sobre V haciendo

pm, Q) = L' <Tf›<t›"_<Tg›<t› dt= j,1f<i›ãï›'e dt.

Se vuelve ahora a las observaciones generales para los productos internos.Supóngase que V es un espacio vectorial complejo con un producto intemo.I.-ntonces, para todo ot, B en V

(alli) = Re (alfi) + í Im (alli)donde Re (otlfl) e lm (otlfl) son las partes real e imaginaria del número comple-io (ot|/3). Si z es un número complejo, entonces Im (z) = Re (-iz). Se sigue que

Im (alli) = Re l-i(0flB)] = RG (0fliB)-Así, el producto interno está completamente determinado por su «parte real»de acuerdo con

(H-2) (ale) = Re (ale) + 1: Re (alim-Ocasionalmente es muy útil saber que un producto interno sobre un espacio

vectorial, real o complejo, está determinado por otra función, la llamada formacuadrática determinada por el producto interno. Para definirla, primero serepresenta la raiz cuadrada positiva de (ala) por ||ot||; ||a|| es la llamada normade ot respecto al producto interno. Considerando el producto interno eanónicoeii R', C1, R2 y R3, el lector podrá eonvencerse de que es apropiado pensaren la norma de ot como la «longitud›› o «magnitud›› de ot. La forma cuadráticadeterminada por el producto interno es la función que asigna a cada vector azcl escalar ||a||2_ Se sigue de las propiedades del producto interno que

lla ± ell* = llull* ± 2 Re (ale) + Iløll*para todos los vectores ot y B. Así, en el caso real

<~-3› (aim = ku@ + ar - åiia - ar.

Page 291: ASESORES TECNICOS

.'72 _-ll_i.¦t'l›t'u ltmfttl

En el caso complejo se usa (8-2) para obtener la expresión más eoinplieadaO U

(8-i› (aim = ¿1-iia + mr - â iia - mr + 5; iia + wir - åiia - wir.Las igualdades (8-3) y (8-4) son llamadas las identidades de polarización. Obsér-vese que (8-4) puede también ser escrita de la siguiente manera:

4(aim = â 2, fr» iia + reir.Las propiedades obtenidas anteriormente son válidas para cualquier pro-

ducto interno sobre un espacio real o complejo V, independientemente de sudimensión. Se vuelve al caso en que V es de dimensión finita. Como es de pen-sarlo, un producto interno en un espacio de dimensión finita puede ser descritosiempre en términos de una base ordenada por medio de una matriz.

Supóngase que V es de dimensión finita, de modo que(B= {a¡,...,a,,}

es una base ordenada de V y que se tiene dado un producto interno particularsobre V; se verá que el producto interno está completamente determinadopOr los valores(8'5) Gir = (Url01;)

que tienen los pares de vectores en (B. Si ot = Z xkotk y B = Z yk-ak, entoncesk J

(alli) = (gc) Inaklfi)

= É íUi¢(0fiklfi)

= É ¿Uk Ú1'(0fkl0fi')k 1

= 2 Úfiikilïk¡tk

= Y*GX

donde X, Y son las matrices de coordenadas de oz y Ii en la base ordenada (B,y G es la matriz con elementos Gkk = (otklotk-)_ Se llama a G la matriz del productoiiiterno en la base ordenada (B. Se sigue de (8-5) que G es hermítiea, es decir,que G = G*; sin embargo, G es una clase de matriz hermítiea más bien especial.En efecto, G debe satisfacer, además, la condición

(8-6) X*GX > 0, X ¢ 0.En particular, G debe ser inversible. Ya que en caso contrario existe una X =¡é 0tal que GX = 0, y para toda tal X, (8-6) es imposible. En forma más explícita.(8-6) dice que para los escalares xk. _ _ _ , x,,, no todos nulos,

(8'7) iii,-Gjieítïit > 0.J.

Page 292: ASESORES TECNICOS

l-.`\¡›m-mi run pmdm tu tntri-mi 273

t on esto se observa iiiinediatamcntc que cada elemento de la diagonal de Gdt-he ser positivo; sin cinbargo, esta condición para los elementos de la diago-u.il iio es del todo suficiente para asegurar la validez de (8-6). Condiciones su-lu-icntes para la validez de (8-6) se darán más adelante.

I-Ll proceso anterior es reversible; esto es, si G es cualquie' fnatriz n x n-.olire I~` que satisface (8-6) y la condición de que G = G *_ entonces G es la matrizen la base ordenada G3 de un producto interno sobre V. Este producto internoesta dado por

(alfl) = Y*GX

donde X e Y son las matrices de coordenadas de ot y B en la base ordenada (B.

Ejercicios

l Sea V un espacio vectorial y ( | ) un producto interno sobre V.(a) Demostrar que (0|/i) = 0 para todo [2 de V.(h) Demostrar que si (ot|[i) = 0 para todo /i de V, entonces cx = 0.

2. Sea V un espacio vectorial sobre F. Demostrar que la suma de dos productos internos.obre V es un producto interno sobre V. ¿Es la diferencia de dos productos internos un¡uoducto interno? Mostrar que un múltiplo positivo de un producto interno es un pro-ducto interno.

_l. Describir explícitamente todos los productos internos sobre R' y sobre C1.

-I. Comprobar que el producto interno eanónico sobre F" es un producto interno.5. Sea ( | ) el producto interno eanónico sobre R2.

(a) Sean -fx = (1, 2), [3 = (-1, 1). Si 1' es un vector tal que (ot|y) = -1 y (flly) = 3,lt.ill¡lr ')'_

(h) Demostrar que para cada ot en R2 se tiene que ot = (ot|ek)ek + (ot|e2)e2_

ti. Sea ( | ) el producto interno eanónico sobre R2 y sea T el operador lineal T(xk. xz) =l \ ¿_ xk )_ Ahora, Tes la «rotación en 90“›› y tiene la propiedad de que (ot| Tot) = 0 para todo. eii R2. Hallar todos los productos intemos [ | ] en R2 tales que [otlTot] = 0 para cada ot.

7. Sea ( | ) el producto interno eanónico sobre C2. Demostrar que existe un operadorlineal no nulo en C2 tal que (ot|Ta) è 0 para cada ot en C2. Generalizarlo_

tt. Sea A una matriz 2 x 2 con elementos reales. Para X, Y en F2“, sea

ƒ_4(X, Y) = Y'AX.Iii-mostrar que fm es un producto intemo sobre R2“ si, y solo si, A = A', Akk > 0,l_.,_>0ydetA>0_

It. Sea V un espacio vectorial real o complejo con un producto interno. Demostrar queI.i lorma cuadrática determinada por el producto intemo cumple la ley del paralelogramo

lla + BH* + lla - BH” = 2ll0fll2 + 2llBll2-

Ill. Sea ( | ) el producto interno sobre R2 definido en el Ejemplo 2 y sea (B la base or-dt-nada canónìca de R2. Hallar la matriz de este producto interno con respecto a G3.

Page 293: ASESORES TECNICOS

274 ' .-I I_i:¢-bra Ilncul

ll. Mostrar que la fórmula

. i 1; = _0'1`b*<§«n§aw›pšj+k+ldefine un producto interno sobre el espacio R[x] de los polinomios sobre el cuerpo R. SeaW el subespacio de los polinomios de grado menor 0 igual que n. Restringir el productointemo anterior a W y hallar la matriz de este producto intemo sobre W respecto a la baseordenada {l, x, . . . , x"}. (Sugerencia: Para mostrar que la fórmula define un productointerno, obsérvese que

Um=LMwwwy operar con la integral.)

l2. Sea V un espacio vectorial de dimensión finita y sea CB = {a,. . _ . , a,,¦- una base de V.Sea ( | ) un producto interno sobre V. Si c,, _ _ _ , c,, son n escalares arbitrarios, demostrarque existe exactamente un vector oz en V tal que (oz|oz)) = c-J-, ¡' = l, . . ., n.

I3. Sea V un espacio vectorial complejo. Una función J de V en V se llamasi .Ita + B) = Jtoz) + .¡(/i), J(coz) = c.I(oz) y .¡(J(oz)) = oz para todo r y todo oz, [f en V. Si.I es una conjugación, demostrar que

(a) El conjunto W de todos los oz en V tales que .Ia = oz es un espacio vectorial sobreR con respecto a las operaciones definidas en V.

tb) Para cada oz en V existen vectores únicos /3, ¬,~ en W tales que oz = li + i¬,'.

14. Sean V un espacio vectorial complejo y W un subconjunto de V con las siguientespropiedades :

(a) W es un espacio vectorial real con respecto a las operaciones definidas en V.(b) Para cada oz en V existen vectores únicos /i, 3' en W tales que oz = [3 + iy. Demos-

trar que la ecuación .Ia = /3 - ig- define una conjugación en V tal que .loz = oz si, y solo si,cx pertenece a W y mostrar también que J es la única conjugación en V con esta propiedad.

15. Hallar todas las conjugaciones en C' y C2.

16. Sea W un subespacio real de dimensión finita de un espacio vectorial complejo V.Demostrar que W satisface la condición (bl del Ejercicio I4 sii y solo si, cada base de W estambién una base de V.

l7. Sean V un espacio vectorial complejo. J una conjugación sobre V, W el conjuntode los 1 de V tales que .laz = oz y _/` un producto interno sobre W. Demostrar que:

(a) Existe un producto interno único g en V tal que gta, li) = f(oz, /3) para todozx. Ii en W.

(b) g(J:x. JB) = g([ì. oz) para todo oz, Ii en V.¿Qué dice la parte (a) respecto a la relación entre los productos internos canónicos sobreR1 y C' o sobre R" y C`"'?

8.2. Espacios producto interno1

Ahora que se tiene una idea de lo que es un producto interno, se atenderáa lo que se puede decir al respecto de la combinación de un espacio vectorialy un producto interno particular sobre el mismo. Específicamente se estable-

Page 294: ASESORES TECNICOS

.amplia variedad de aplicaciones. La demostració

I-.`\¡m¢ln.\' Nm ¡›rmltu°iu lrtirrttu 275

tt-nui las propiedades básicas de los conceptos de «longitud›› y «ortogonali-«I.ul›› que son impuestos al espacio por el producto interno.

Definición. Un espacio producto interno es un espacio real 0 complejo juntony: un producto interno definido sobre ese espacio.

Un espacio producto interno real de dimensión finita se llama a menudot-~.|›acio euclidiano. Un espacio con producto interno complejo se llama a vecest-~|›acio unitario.

Teorema 1. Si V es un espacio producto interno, entonces para vectoresI. If cualesquiera de V y' cualquier escalar c

U) |¢`°f|| = |C| ||°<l|š(ii) ot|| > 0 para ot ql: 0;um (a|B)| s“W |°f + ¡lll S |°f|| + ||l3||-Demostración. Las afirmaciones (i) y (ii) se desprenden casi inmediatamen-

tc dc las varias defiñiciones vistas. La desigualdad en (iii) es claramente válidapara ot = 0. Si ot 7/= 0, hágase

5'y = fi - - a.

I-ntonces (y|ot) = 0 y

Os ll~†ll2= (B-Í-ftffiaiø-ï¡-¶¡9¡š«)

=elfl›--%§f;@,_ _ lola a“““” l|«l|=

luego |(oz|B)|2 5 ||oc||2||B||2. Ahora usando (c) se tiene que

lla + ell* = ll<›=ll2 + (alt-2) + (fila) + llfill*= l|«ll2 + 2 Re (ale) + lløll*5 ll«ll2 + 2 llall llflll + llflll*= (llull + lløll›2.

con lo que ||a + BII 5 ||a|| + ||/3||. |

La desigualdad en (iii) se llama desigualdad de Cauchy-Schwarz y tiene unan muestra que si (por ejemplo)

1 cs cero, entonces |(oc|fi)| S ||oc|| a menos que

:AidH l|«|l2'

Page 295: ASESORES TECNICOS

Í 7(› .-l /gt 'llïtt llmwl

Asi, la igualdad se tiene en (iii) si, y solo si, ot y B son linealmente dependientes.

Ejemplo 7. Si se aplica la desigualdad de Cauchy-Schwarz al productointerno dado en los Ejemplos 1. 2, 3 y 5 se obtiene lo siguiente

(3) IE ílïkillkl É (E |íUk|2)1/2(z I?/k|2)”2(bl lílïifl/1 _ 11222/1 -' 231?/2 + 42?2y2|

É ((231 -' $B2)2 + 311?-?¢)”2((?/1 _ fl/2)2 + 3?/ä)'/2(c) Itr (AB*)| S (tr (AA*))”2(tr (BB*))V2

«-1) |(,1f<=«=›;;T:E§ dx| s (jj lf<:«=›l2 dx)`” (jj lg<«=›l2 dr)'”-Definiciones. Sean oz y B vectores de un espacio producto interno V. Entonces

of es ortogonal a B si (oc| B) = 0; como esto implica que B es ortogonal a ot, a menu-do solo se dirá que ot y B son ortogonales. Si S es un con/`unto de vectores de V, sedice que S es un conjunto ortogonal siempre que todos los pares de vectores dis-tintos de S sean ortogonales. Un conjimto ortonormal es un conjunto ortogonalS con la propiedad además de que ||a|| = 1 para todo ot de S.

El vector cero es ortogonal a todo vector en V y es el único vector con esapropiedad. Es apropiado pensar un conjunto ortonormal como conjunto devectores mutuamente perpendiculares que tienen longitud 1.

Ejemplo 8. La base canónìca en R" o C" es un conjunto ortonormal conrespecto al producto interno eanónico.

Ejemplo 9. El vector (x, y) de R2 es ortogonal a (-y, x) con respectoal producto interno eanónico; en efecto,

((21, 2/)|(-1/,=v)) = -xv + vw = 0-lSin embargo, si R2 está dotado del producto interno del Ejemplo 2, entonces(x, y) y (-y, x) son ortogonales si, y solo si,

y = å (-3 ± 'V l3)x.

Ejemplo 10. Sea V -= C'”`" el espacio de las matrices complejas n ›< n,y sea E""1 la matriz cuyo único elemento no nulo es un 1 en la fila p y la columna q.Entonces el conjunto de todas las matrices E" es ortonormal con respecto alproducto interno dado en el Ejemplo 3. En efecto,

(EP'-"|E") = tr (EWE°') = öq, tr (EW) = öq,ö,,,.

Ejemplo ll. Sea V el espacio de las funciones continuas de valor complejo(o valor 'real) en el intervalo 0 S x S 1 con el producto interno

O (fly) = (,*f<x›g"<±`§ dx.

Supóngase que ƒ,.(x) = \/ã cos 21m1: y que g,.(x) = \/§ sen Zrcnx. Entonces

Page 296: ASESORES TECNICOS

l'.`\-¡turtos run ¡›rmlm'm nm-rm» 277

¦I. /,_ ig., _/` , g , _ . .' es un eon_iunto inlinito ortonormal. En cl caso com le'o2 2 1se pueden lormar tambien las combinaciones lineales

1 ._@(ƒn+zgn)› n=l,2,....

lle este modo se tiene un nuevo conjunto ortonormal S que consta de todaslas funciones de la forma

h,,(x) = em"-', n = ±l, ±2, . . _

Ill conjunto S' que se obtiene de S adjuntando la función constante 1 es tambiénmtonormal. Se supone aquí que el lector está familiarizado con el cálculo delas integrales en cuestión.

Los conjuntos ortogonales dados en los ejemplos anteriores son todos lineal-mente independientes. Se ve ahora que necesariamente éste es el caso.

Teorema 2. Un conjunto ortogonal de vectores no nulos es linealmentetmlependiente.

Demostración. Sea S un conjunto ortogonal finito 0 infinito de vectoresno nulos en un espacio con producto interno dado. Supóngase que oq, az., . . . , amson vectores distintos en S y que

fl = C101 -l- C202 + '° ° + Cmam-

l~nt0nces(Biar) = (Z Ciaƒlflkl

1

= 0f(0fi¡l°fk)J

= C¡.;((I¡¢l(X¡¢).

(omo (ocklozk) ql: 0, se sigue que

' .;,,=fl“"-%, igkgm.||°f›=|l

Así, cuando B = 0, cada ek = 0, de modo que S es un conjunto independiente. I

Corolario. Si un vector B es combinación lineal de una sucesión ortogonalde vectores no nulos oil, ..., ot,,,, entonces B es igual a la combinación linealparticular

fll (mae)(H-3) 5 = 2 ?-ak.I==1 llaklla

Este corolario se desprende de la demostración del teorema. Hay otro co-rolario que mencionar que es también obvio. Si {oc,, . . _ , ot,,,} es un conjuntoortogonal de vectores no nulos en un espacio con producto interno de dimen-sión finita V, entonces m S dim V. Esto dice que el número de direccionesmutuamente perpendiculares en V no pueden exceder la dimensión algebraica-

Page 297: ASESORES TECNICOS

278 .-llgeltru Inn al

mente definida de V. El máximo número de direcciones mutuamente perpen-diculares en V es lo que intuitivamente se considera como dimensión geomé-trica de V, y se acaba de ver que ésta no es mayor que la dimensión algebraica.El que estas dos dimensiones sean iguales es un corolario particular del siguienteresultado.

Teorema 3. Sea V un espacio con producto interno y sean B1, . . . , B,, vec-tores independientes cualesquiera de V. Entonces se pueden construir vectoresortogonales oil, . . . , og, en V tales que para cada k = 1, 2, . . . , n el conjunto

l{0<l¬ ---,Ollasea una base del subespacio generado por B1, . . . , B,,.

Demostración. Los vectores oq, . . _, a,, se obtendrán por medio de unaconstrucción conocida como proceso de ortogonalización de Gram-Schmidt.Primero, sea ot, = B1. Los otros vectores están entonces dados inductivamentede la siguiente forma: supóngase que oil, . . . , am (1 S m S n) hayan sido ele-gidos de modo que para cada k

{ot1,.._.,a¡¢}, lšlcšm

es una base ortogonal para el subespacio de V que es generado por B1, . . _ , B,,.Para construir el siguiente vector oc,,,+1, sea

m . a(8“9) 0fm+1 = ¡3-m+1 _' 2 íêüllzi) ak.

I==1 llakllEntonces oc,,,+¡ ak 0. En efecto, ya que en caso contrario a,,,+, es una combi-nación lineal de los al, . . . . ot,,, y luego una combinación lineal de los a,, . . _ , a,,,.Además, si l 3 j 5 m. entonces

(«,,+,|«,~› = <ø...+1l«,~› - Él (alla,-›= (B»›+1|01.f) - (l3»›+1l“f)= O.

Por tanto, {a,, . . . , oc,,,+1} es un conjunto ortogonal que consta de m + 1 vec-tores no nulos en el subespacio generado por B ,, . . . , B,,,+¡. Por el Teorema 2,él es una base para este subespacio. Así los vectores a,, . . . , a,, pueden cons-truirse uno tras otro de acuerdo con (8-9). En particular, cuando n = 4, setiene

(11 = fil

(flzlai)012 = B2 _ wz' 011

(8-IO)

B4 (B4l0¢1)al (fi4|0f2) a2 (fitlaâl _ I“*= llallli llaillfi 'ìlï-=lF““

Page 298: ASESORES TECNICOS

I-.`\¡›m'tu.\ con prmltutu mtrmu 270

Corolario. Todo espacio con producto interno de dimensión finita tiene unaImse nrtomwnuil.

Demostración. Sean V un espacio con producto interior de dimensiónImitu y { B1, _ _ _ , B,,} una base para V. Aplicando el proceso de Gram-Schmidt,se construye una base ortogonal {oc1, _ _ _ , ot,,}_ Entonces, para obtener una baseortonormal. se remplaza simplemente cada vector oc,, por og,/||ot,,||_ I

Una de las ventajas principales que tienen las bases ortonormales sobreLas bases arbitrarias es que los cálculos en que entran coordenadas son mássimples. Para indicar en términos generales por qué es así, supóngase que V esnn espacio con producto interior de dimensión finita. Entonces, como en laultima sección, se puede usar (8-5) para asociar la matriz G con cada base orde-nada CB = {oc,, ._ _ , oc,,} de V. Usando esta matriz

Gjk = (ak|aJ`)›

se puede calcular el producto interno en términos de las coordenadas. Si G3 esuna base ortonormal, entonces G es la matriz unidad, y para cualesquieraescalares xj e yk

(2 1010;@ Z/wi) = 2 ¡Billi-J J

(`on lo que, en términos de una base ortonormal. el producto interno en V seasemeja al producto interno eanónico en F".

Aunque es poco útil para los cálculos, es interesante observar que el pro-ceso de Gram-Schmidt puede ser también usado como criterio de independen-cia lineal. En efecto, supóngase que B1, B,, son vectores linealmente de-pendientes en un espacio con producto interno V. Para excluir el caso trivial,supóngase que B, ql: 0. Sea m el mayor entero para el que los B¡, _ _ _ , Bm sonindependientes. Entonces 1 S m S n. Sean oq, _ _ _, am los vectores obtenidospor la aplicación del proceso de ortogonalización a los B1, _ _ _ , Bm. Entoncescl vector rxmfl dado por (8-9) es necesariamente 0. En efecto, ot,,,+¡ está en elsubespacio generado por oc,, _ _ _ _, am y es ortogonal a cada uno de estos vec-tores: luego es.0 por (8-8). Recíprocamente, si al, _ _ _ , am son distintos de 0 yx,,,+, = 0, entonces B1, _ _ _ , B,,,+, son linealmente dependientes.

Ejemplo 12. Se consideran los vectores

B1 = (3, 0, 4)B2 = (-11 O;

Ba = (2, 9» 11)en R3 con el producto interno eanónico. Aplicando el proceso de Gram-Schmidta los B1, B2, B3, se obtienen los siguientes vectores

(11 = (3, 0,

«_ = (-1, o, 7) “-`-1'°' Q-,'(3'0' 4)) (3, o, 4)= (_" _ (3) 07= (_ __›-l>~_)-1 .OPw`l \./\/

Page 299: ASESORES TECNICOS

.'.\'(l

al = (2, 9, 11) “Z 9' 12_l,(3'°'4)) (3, 0. 4)

í-_

-_-

Estos vectores son evidentemente no nulos y mutuamente perpendiculares.Luego {oc¡, az, oc¿} es una base ortogonal para R3. Para expresar un vector ar-bitrario (xl, xz, x3) en R3 como combinación lineal de los oq, az, a3 no es ne-cesario resolver ninguna ecuación lineal. Para ello es suficiente usar (8-8). Así,

($171,332,103): _l_25*i01+-_lï5_"-302+%fla

((2›_9› ot

3:1: +41: -4:1: +32:

como se verifica rápidamente. En particular.

(1, 2, 3) = % (3, 0, 4) + % (~4.0, 3) + % (0,9,0)-

Para ver esto desde otro punto de vista, lo que se tiene es lo siguiente: la baseifi- f2, f3} de (R3)*, que es dual de la base {oc,, ocz, oc3}, está definida explíci-tamente por:

4f1(331› 332; 333) = ¬¶§

-4 3f2(1U1› 1U2›$a) c 32;- xa

fa(33i, 162, 103) = %

25 (

(2› 9; _ 0: _ _4› O:

(O, 9, 0).

4›0. 3)

l lg¢'I›m lmml

y estas ecuaciones pueden ser escritas en forma más general como

f¡(171, 332, 333) ((x1'|a¡).

Finalmente, obsérvese que de og, az, a3 se tiene la base ortonormal

% (3, 0, 4), à- (-4. 0, 3), (0. 1. 0)

Ejemplo 13. Sea A = [3 _ donde a. b. c y d son números comple-

jos. Se hace B, = (a, b), B2 = (c, d) y se supone que B, 7€ 0. Si se aplica el pro-ceso de ortogonalización a B1, B2, usando el producto interno eanónico en C 2,se obtienen los siguientes vectores

(11 = (G,

Page 300: ASESORES TECNICOS

Í \['m un rml ptmlln ltl Nllflmt :dll

aa = ((3 ll) i i (a› bl

= (ed) - <a,b)cblš - döa dãa - cãl)

_ (IGI2 + lblz' lali + IW)dfit A ( 5, ã).

i lar + lbrAlmra la teoría general dice que ot, qé 0 si, y solo si, B1, B2 son linealmenteindependientes. Por otro lado, la fórmula para oc, muestra que este es el casosi, y solo si, det A 7€ 0.

En esencia, el proceso de Gram-Schmidt consiste en la aplicación repetida«le una operación geométrica básica llamada proyección ortogonal, y se le en~tiende mejor desde este punto de vista. El método de la proyección ortogonallnmbién aparece en forma natural en la solución de un importante problema«lc aproximación.

Supóngase que W es un subespacio de un espacio con producto interno V,_v sea B un vector arbitrario en V. El problema consiste en hallar una mejoraproximación posible a B por vectores de W. 'Esto quiere decir que se deseaencontrar un vector ot para el que B-- oc|| sea lo más pequeño posible, sujetoal la restricción de que ot debe pertenecer a W. Precisemos lo dicho.

Una mejor aproximación a B por vectores de W es un vector oc de W tal que

HB - all S IIB - 'illpara todo vector ¬,› en W.

Observando este problema en R2, o en R3, se ve intuitivamente que unamejor aproximación a B por vectores de W debe ser un vector oz de W tal que/í _ oi es perpendicular (ortogonal) a W y que tal oc debe ser único. Estas ideasintuitivas son correctas para subespacios de dimensión finita y para algunos,pero no todos, los subespacios de dimensión infinita. Dado que la situaciónprecisa es demasiado complicada de tratar aquí, se demostrará solo el siguien-tc resultado.

Teorema 4. Sea W un subespacio de un espacio producto interno V _v sea [3un rector de V.

(i) El rector oc en W es una me/'or aproximación a B, por vectores de Wsi, _i- solo si, B - ot es ortogonal a todo vector de W_

(ii) Si existe una mejor aproximación a B por vectores de W es única.(iii) Si W es de dimensión finita y {ot¡, _ _ _ , ot,,} es cualquier base ortomn-_

mal de W, entonces el vectoroc

a 1 2 LB¬|_._'(_) ak

Il@ llzk k

es la (única) mejor aproximación a B por vectores de W.

Page 301: ASESORES TECNICOS

2.1 -te0¢ A lgcllm lt`m'ul

Demostración. Primeramente. obsérvesc que si y es cualquier vector de V.entoncesB - ^,› = (B - oe) + (oi - y), y

HB - “lll” = ¡IB - all* + 2 Re (H - ala - 1) + lla - fill”-Supóngase ahora que B - ot es ortogonal a todo vector de W, que y está en W yque y 9€ oe. Entonces, como oz - 'y está en W, se sigue que

HB - vil* = IIB - all* + lla - vll*> lle - all”-

Reciprocamente, supóngase que ||B - 2 ||B - oi|| para todo y en E.Entonces de la primera ecuación anterior se sigue que

2Re(B- «Ia - 1) + lla- vll” 20para todo y de W. Como todo vector de W puede ser expresado en la formaoi-yeonyen W, seveque

2 Re (B - alf) + H†||2 2 0para todo r en W. En particular, si y está en W y y 5€ oi, se puede tener

____(fi † “le _ W) O, _'c lla-«lr ( '”'Entonces, la desigualdad se reduce a la afimiación

j 2 ala _' 'Y_)_i2 + _ 'Y)i2 2 0.

lla - WII* lla - fill”Lo cual se cumple si, y solo si, (B - a|oz - y) = 0. Por tanto, B - ot es orto-gonal a todo vector en W. Esto completa la demostración de la equivalenciade las dos condiciones para ot dadas en (i). La condición de ortogonalidad esevidentemente satisfecha por, a lo más, un vector de W, lo que demuestra (ii).

Ahora supóngase que W es un subespacio de dimensión finita de V. Enton-ces se sabe, por un corolario del Teorema 3, que W tiene una base ortogonal.Sea {o¢,, _ _ _, ot,,} cualquier base ortogonal para W, y se define ot por (8-ll).Entonces, por el cálculo hecho en la demostración del Teorema 3, B - oi esortogonal a cada uno de los vectores ak (B - oz es el vector obtenido en la últi-ma etapa cuando se aplica el proceso de ortogonalización a oc,, _ _ _, oz,,. B).Así B _ oz es ortogonal a toda combinación lineal de los al, _ _ _ , oc,,, es decir,a todo vector en W. Si 1' está en W y y 7€ ot, se sigue que "B - y|| > ||B - oc||.Por tanto, ot es la mejor aproximación a B que está en W.

Definición. Sea V un espacio producto interno y S cualquier conjunto devectores en V. El complemento ortogonal de S es el conjunto S“L de los vectoresde V ortogonales a todo vector de S.

El complemento ortogonal de V es el subespacio cero y, recíprocamente,{0}J- = V. Si S es cualquier subconjunto de V, su complemento ortogonal S 1(S perp) es siempre tin subespacio de V. En efecto, como Si no es vacío, por

Page 302: ASESORES TECNICOS

Í'.'\'¡un'm_\ um [I|'mlm'm hllrnm 28.'

contener al 0, y toda vez que oc y B están en S* y c es escalar cualquiera, setiene

(Ca + Blv) = 0(0f|'r) + (BH)= 00 -l- 0= 0

para cada y en S, así con + B también está-en Sl. En el Teorema 4,.la propie-dad característica del vector oz es que es el único vector de W tal que B - ot per-lcnece a Wi

Definición. Siempre que exista el vector ot en el Teorema 4 se le llama proyecciónortogonal de B sobre W. Si todo vector de V tiene proyección ortogonal sobre W,lu aplicación que asigna a cada vector de V su proyección ortogonal sobre W, sellama proyección ortogonal de V sobre W.

Por el Teorema 4, la proyección ortogonal de un espacio producto internosohre un subespacio de dimensión finita siempre existe. Pero el Teorema 4 tambiénimplica el siguiente resultado.

Corolario. Sean V un espacio producto interno, W un subespacio de dimen-sión finita y E la proyección ortogonal de V sobre W. Entonces la aplicación

B _* B _ EBes la proyección ortogonal de V sobre Wi.

Demostración. Sea B un vector arbitrario de V. Entonces B - EB estáen W y para cualquier ¬,' en Wi, B f -y = EB + (B - EB - y). Como EB estáen W y B - EB - y está en WL, se sigue que

lle - «IP = IIEBII” + lle - EB - ell*2 lle ~ (B - Emll*

que hace más estricta la desigualdad cuando y =;é B ~ EB. Por tanto, B - EBes la mejor aproximación a B para vectores en WL.

Ejemplo 14. Se da a R3 el producto interno eanónico. Entonces la pro-veeción ortogonal de (- 10, 2, 8) sobre el subespacio W generado por (3, 12, -1)es el vector

“ “ 9 + 144”"+ 1 (3' 12' "D_ -14- É- (3, 12, -1).

la proyección ortogonal de R3 sobre W es la transformación lineal E -defini-ila por

3 '2 -(a,a,«;_)-›( ”*+;5,f” $3) (3,12,-1).

Page 303: ASESORES TECNICOS

.'84 .-l l_t3¢'l›t'u llmwl

La imagen de E es evidentemente I; luego su nulidad cs 2. Por otro lado.

E(x1› x2; $3) = (0: 01

si, y solo si, 3x, + 12x2 = x3 = 0. Este es el caso si. y solo si, (xl, xz, x3) estáen Wi. Por tanto, W* es el espacio nulo de E, y dim (WL) = 2. Calculando

12 - .(xl) 172» 173) El (3xl 15:2 xa) (3) 12; _`1)

se ve que la proyección ortogonal de R3 sobre Wi es la transformación lineal1 - E que aplica el vector (x,, xz, X3) Sobre el vector

1-åz (145x¡ - 36:z:2 -I- 31:3, -36x1 -l- l0.v2 + 12112;, 32:1 + 121122 -I- 153x3)_

Las observaciones hechas en el Ejemplo 14 se generalizan de la siguien-te forma.

Teorema 5. Sea W un subespacio de dimensión finita de un espacio pro-ducto interno V y sea E la proyección ortogonal de V sobre W. Entonces E es unatransformación lineal idempotente de V sobre W, W* es el espacio nulo de E y

V=W€BWi.

Demostración. Sea B un vector arbitrario en V. Entonces EB es la mejoraproximación a B que está en W. En particular, EB = B cuando B está en W.Por tanto, E(EB) = EB para todo B en V; esto es, E es idempotente: E2 = E.Para demostrar que E es una transformación lineal, sean ot y B vectores cuales-quiera de V y c un escalar arbitrario. Entonces, por el Teorema 4, oz - Ea yB - EB son ambos ortogonales a todo vector de W. Luego el vector

0(a ~ Ea) + (B - EB) = (ca + B) - (clfa + EB)también pertenece a Wi. Como cEot + EB es un vector de W, se sigue del Teore-ma 4 que

E(ca -I- B) = cEa -I- EB.

Por cierto que se puede también demostrar la linealidad de E usando (8-ll).Nuevamente, sea B un vector cualquiera de V. Entonces E es el vector únicode W tal que B - EB está en Wi. Así, EB = 0 cuando B está en W*_ Recípro-camente, B estálen Wi cuando EB = 0. Así Wi es el espacio nulo de E. Laecuación

B=EB+B-EB

muestra que V = W + Wi; más aún, WH W1 = En efecto, si ot es unvector de W H Wi, entonces (ot|ot) = 0. Por tanto, = 0 y V es la suma di-recta de W y Wi. I

es

Corolario. Bajo las condiciones del teorema, I - E es la proyección orto-gonal de V en Wi. El es una transformación lineal idempotente de V en WL conespacio nulo W.

Page 304: ASESORES TECNICOS

I-.`.\/mimi «un ¡umlmm um-mn .'85

Ih-nmstraeión. Acabamos de ver que la aplicación B-› B - E¬,~ es la pro-vccción ortogonal de V sobre W*_ Como E es una transformación lineal, estaproyección en Wi es la proyección lineal 1 - E. Por sus propiedades geomé-tricas se ve que I - E es una transformación idempotente de V sobre W. Estotambién se desprende del cálculo

U-mu-m=1-E-E+m1 E1- ±_¢gi .

Además, (I - E)B = 0 si, y solo si, B = EB, y este es el caso si, y solo si, B estáen W. Por tanto, W es el subespacio nulo de I - E. I

El proceso de Gram-Schmidt puede ser ahora descrito geométricamentedel siguiente modo. Dado un espacio producto interno V y los vectores B,. _ _ _ , B,,en V, sea P, (k > I) la proyección ortogonal de V en el complemento ortogonaldel subespacio generado por B,, _ _ _, B,_, y sea P, = I. Entonces, los vectoresque se obtienen por aplicación del proceso de ortogonalización a B,, _ _ _, B,están definidos por las ecuaciones(8-12) ak = P,,B,,., 1 5 lc 5 n.

El Teorema 5 implica otro resultado conocido como desigualdad de Bessel.

Corolario. Sea [ot ,_ _ _ _, oc,, un conjunto ortogonal de rectores no nulosen un espacio producto interno V. Si B es cualquier vector de V, entonces

lifilakllz 22 ~ --_ -_ S BRHMP HHl' la desigualdad vale si, y solo si,

(lijar)= 2 --_ _B k llakllz ak

Demostración. Sea y = Z [(B|o¢,,)/||ot,,||2] ak. Entonces B = 1' + 5, dondek

(¬,›|ö) = 0. Luego

mW=MW+MmEs ahora suficiente demostrar que

l(fl|€!k)|22 = ___.É “ak"2

Este es el cálculo rutinario en el que se usa el hecho de que (oc,-(och) = 0 parai =# k- I

En el caso especial en que {o¢,, _ _ _ , oc,,} es un conjunto ortonormal, la des-igualdad de Bessel dice que

3; lel«)_)r s llølr.

Page 305: ASESORES TECNICOS

286 fllgelvra lineal

El corolario dice también, en este caso, que B está en el subespacio generadopor {a,, oc,,} si, y solo si,

B = 21 (filflk) «It

o si, y solo si, la desigualdad de Bessel es efectivamente una igualdad. Por cier-to que en el caso en que V sea de dimensión finita y {a,, _ _ _ _ oc,,} es una baseortogonal de V, la fórmula anterior rige para todo vector B en V. En otras pa-labras; si {a,, _ _ _ _ oc,,} es una base ortonormal de V, la k-ésima coordenadade B en la base ordenada {oz,, _ _ _ , ot,,} es (B|ot,,)_

Ejemplo 15. Se aplicará el último corolario al conjunto ortogonal des-crìto en el Ejemplo ll. Hallamos que

la) ,G j,' f<¢)ø-M' ati” s j,` lfa)l2 dt

(11) jl $3 cte”'“"\2 dt = 2,5 lvtl”0 lc=-n lt--n

(c) j; (\/'E cos 21a + \/:E sen 41ft)2dt = 1 + 1 -= 2.

Ejercicios

I. Considerar R4, con el producto interno eanónico. Sea W el subespacio de R4 que constade todos los vectores ortogonales a ot = (1, O, - l, l) y B = (2, 3, - l, 2). Hallar una basede W.

2. Aplicar el proceso de Gram-Schmidt a los vectores B, = (l, 0, l), B2 = (l, 0, -I),B3 = (0, 3, 4) para obtener una base ortogonal para R3 con el producto interno eanónico.

3. Considerar C3 con el producto interno eanónico. Hallar una base ortonormal parael subespacio generado por B, = (1, 0, i) y B2 = (2, l, l + i).

4. Sea V un espacio producto interno. La distancia entre los vectores fx y B en V está de-finida por

d(a› = lla _

Demostrar que(al d(°f¬ li) 2 0;(b) d(a, B) = 0 si. y solo si, ot = B;(c) d(a, B) -= d(B, a);td) d(°f. li) S d(0=¬ 1') + d()'. li).

5. Sea V un espacio producto intemo y sean ot, B vectores de V. Demostrar que a = Bsi, y solo si, (a|)') = (B|y) para todo 1' de V.

Page 306: ASESORES TECNICOS

l.'.\¡nn'|ltI.\ (ml /It'mlm'It› Itllrrmt 2.37

ti. Sea ll' el sulwspalcin de R2 generado por el vector (3, 4). Usando el producto internot-,nu'mico, sea I. la proyección ortogonal de R* sobre W. Hallar

la) una fórmula para I:`(.\',, xz);lb) la matri/ de 1:' en la base ordenada canónica;lv) WL:(d) una base ortonormal en que E está representada por la matriz

lá 3]-7. Sea V el espacio producto interno que consta de R2 y el producto intemo cuya formacuadrática está definida por

"(211, $2|l2 = ($1 '“ $2)2 + 323%-

Sea L` la proyección ortogonal de V sobre el subespacio W generado por el vector (3, 4).Responder ahora las cuatro preguntas del Ejercicio 6.

ll. Hallar un producto interno sobre R2 tal que (c,, ez) = 2.

9. Sea V el subespacio de polinomios R[x] con grado a lo más 3. Dótese V con el pro-ducto interno

Imo=jnmwa(a) Hallar el complemento ortogonal del subespacio de polinomios escalares;(b) Aplicar el proceso de Gram-Schmidt a la base {l, x, xl, x3}.

I0. Sea V el espacio vectorial de todas las matrices n ›< n sobre C, con el producto inter-no (A|B) = tr (AB*). Hallar el complemento ortogonal del subespacio de matrices dia-gonales_

II. Sea V un espacio producto interno 'de dimensión finita y sea {a,, . _ _ , a,,} una base or-tonormal de V. Demostrar que para vectores cz, B cualesquiera de V

wm=É¡do@ãtI2. Sea W un subespacio de dimensión finita de un espacio producto interno V y sea Ela proyección ortogonal de V sobre W. Demostrar que (Ea|B)_= (a|EB) para todo ot, B en V.

I3. Sea S un subconjunto de un espacio producto interno V. Demostrar que (SL)* con-tiene al subespacio generado por S. Cuando V es de dimensión finita, mostrar que (S 1)*es el subespacio generado por S.

I4_ Sea V un espacio producto interno de dimensión finita y sea (B = {a,, _ _ _ , a,,} unabase ortonormal de V. Sea T un operador lineal sobre V y A la matriz de T en la base or-denada (B. Demostrar que

Á,-¡ = (T(I¡|(I¡).

I5. Supóngase que V = W, (B W, y que f, y ƒ¡, son productos internos en W, y Wz,respectivamente. Demostrar que existe un producto intemo único ƒ sobre V tal que

(al W, = W,*;(b) f(a, B) = ]¶(a, B), cuando a, B están en W,, k = l, 2.

I6. Sea V un espacio producto intemo y W un subespacio de V de dimensión finita. Exis-ten (en general) muchas proyecciones que tienen a W como imagen. Una de éstas, la pro-

Page 307: ASESORES TECNICOS

,',\'¢\' ¡I lgrltttt lllletll

yeeción ortogonal sobre W, tiene la propiedad de que "Ea" 5 ||a|| para todo ot de V. Dc-mostrar que si E es una proyección con imagen W, tal que S ||a|| para todo a de V,entonces E es la proyección ortogonal sobre W.

17. Sea V el espacio prodiicto interno real que consta del espacio de las funciones conti-nuas de valor real en el intervalo -1 5 t 5 1, con el producto interno.

(fly) = j_1,f<¢)g<¢) dt.Sea W el subespacio de las funciones impares_ es decir. las funciones que satisfacen ƒ( - t) =-f(t). Hallar el complemento ortogonal de W.

8.3. Funciones lineales y adjuntas

La primera parte de esta sección se dedicará a los funcionales lineales sobreun espacio producto interno. El resultado principal es que cualquier funcionallineal f sobre un espacio producto interno de dimensión finita es «un productointerno con un vector fijo en el espacio››; es decir, que tal ƒ tiene la forma ƒ(oc) =(o<| B) para algún B fijo de V. Se usará este resultado para demostrar la existenciadel «adjunto›› de un operador lineal T sobre V, siendo este un operador linealT* tal que (Toz|B) = (ot|T*B) para todo ot y B en V. Por el uso de una base or-tonormal, esta operación adjunta sobre operadores lineales (que pasa de Ta T*) se identifica con la operación de formar la transpuesta conjugada de unamatriz. Exploramos someramente la analogía entre la operación adjunta y laconjugación de números complejos.

Sea V cualquier espacio producto interno y sea B un vector fijo de V. Sedefine una función jj, de V en el cuerpo escalar por

ffi(0f) = (alli)-Esta función f,, es un funcional lineal sobre V, ya que por su propia definición,(a|B) es lineal como función de ot. Si V es de dimensión finita, todo funcionallineal sobre V se puede expresar de esta forma para cierto B.

Teorema 6. Sean V un espacio producto interno de dimensión finita y f unfuncional lineal sobre V. Entonces, existe un único vector B de V tal que f(ot) = (ol|B)para todo tx de V.

Demostración. Sea {o¢,, az, _. _, a,,} una base ortonormal de V. Se haceTI.

(8 13) B _2}1ƒ(a,-)a,-,=

y sea jj, el funcional lineal definido por

fa(¢*) = (¢*|B)-Entonces __

fa(0fk) = (aki §f(¢*ƒ)°¢f) = f(Gt)-

Page 308: ASESORES TECNICOS

I-.`s/tm-nis con ¡nmlm tu tuo-mu 28')

(`omo esto es cierto para todo ocj, se sigue que f = jj. Ahora supóngase quej- es un vector de V para el que (a|B) = (oz ¬,') para todo oz. Entonces (B - y|B -;'l = O y B = y. Así existe exactamente un vector B que determina al funcionallineal f en la forma establecida. I

La demostración de este teorema puede alterarse ligeramente en el caso dela representación de los funcionales lineales en una base. Si se elige una baseortonormal {ol,, ._ _ , a,,} para V, el producto interno de ot = x,ot, + - - ~ +V1» Y ll : }”10f1+ ` ' ` + yaa» Será

= xlgl + ' ' ' + :Cagu-

Si f es un funcional lineal cualquiera sobre V, entonces f tiene la forma

f(0t) = 01331 'l' ' ' ' “li Cnílìn

para escalares fijos c,_ c,, determinados por la base. Ciertamente, c,- =/(fz,). Si se desea encontrar un vector B en V tal que (oc|B) = f(oc) para todo ot, en-tonces es evidente que las coordenadas yj de B deben satisfacer y, = c, o yj =/(ot,-)_ Por consiguiente,

B = ƒ(a1)«-vi + +)Éa,_es el vector que se desea.

Unos comentarios al respecto. La demostración del Teorema 6 que se hadado es muy breve, pero no resalta el hecho geométrico esencial de que B estáen el complemento ortogonal del espacio nulo de f. Sea W el espacio nulo de f.Iintonces V = W + Wi y f está completamente determinado por sus valoresen Wi. En efecto, si P es la proyección ortogonal de V sobre Wi, entonces

f(a) = f(Pa)para todo oc de V. Supóngase que f 0. Entoncesf es el rango 1 y dim (Wi) = 1.Si ¬,› es otro vector no nulo cualquiera de Wi, se sigue que

10-@a _ Hill* 7

para todo ot en V. Así,

= a .lll.l-(U) ( IV) “WIP

Para tOdO Of, Y B = [im/llvllil 1-Ejemplo 16. He aquí un ejemplo que muestra que el Teorema 6 no es cier-

to sin la suposición de que V es de dimensión finita. Sea V el espacio vectorialde los polinomios sobre el cuerpo de los números complejos, con el productointerno

(fly) = jifloãö dt.

Page 309: ASESORES TECNICOS

290 _4I_eehra lineal

Este producto interno también puede ser definido algebraicamente. Sif = Z akx* y g = 22 b,,x", entonces

1(fly) = alba- _

Sea z un número complejo fijo y sea L el funcional lineal «evaluación en z':

L(f) = f(2)-¿Existe un polinomio g tal que (f|g) = L(/) para todo f? La respuesta es no;en efecto, supóngase que tenemos que

fe) = j'f<t)ã<T) dtpara todo f. Sea h = x - z, de modo que para cualquier ƒ se tenga que (hf) = 0.Entonces

0 = ji h<t)f<t)`š<T) dtpara todo f. En particular, esto rige cuando f = hg, con lo que

ji lh<¢)l2lg(l)l* dl = 0y asi hg = 0. Como h =/= 0, debe tenerse que g = 0. Pero L no es el funcionaleero_; luego no existe tal g.

Se puede generalizar algo el ejemplo para el caso donde L sea combinaciónlineal de evaluaciones puntuales. Supóngase que se eligen números complejosfijos z,, ..., 2,, y escalares c,, __., c,,, y sea

L(f) = 01f(21) + + cf.f(2-)-Entonces L es un funcional lineal en V, pero no existe g tal que L(f) = (f|g),al menos que c, = cz = - - - = c,, = 0. Solo debe repetirse el razonamientoanterior con h = (x - 2,) - -- (x - z,,)_

Se vuelve ahora al concepto del adjunto de un operador lineal.

Teorema 7. Para cualquier operador lineal T en un espacio producto in-terno de dimensión finita. existe un único operador lineal T* sobre V tal que

(8-14) (Totlfil = (0t|T*B)

para todo tx, B de V.

Demostración. Sea B un vector cualquiera de V. Entonces oc_› (Toz|B) esun funcional lineal sobre V. Por el Teorema 6 existe un único vector B' en V talque (Toz|B) = (o¢|B') para todo oc en V. Sea T* la aplicación B-› B':

B' = T*ø.Se tiene (8-14), pero se debe verificar también que T* es un operador lineal.Sean B, ¬,' en V y sea c un escalar. Entonces para cualquier oz,

Page 310: ASESORES TECNICOS

l\¡›m tm um ¡multa to mterno .'01

(u|'l""(rt3 + 1)) = (Talctì + 1)= ('1'0flCB) + ('1'<1|'t)= ?>'(TfllB) + (Taly)= ë(¢*lT*B) + (<1|T*'r)= (alcrw) + («lT*~))= (a|cT*B + T*'y).

.»\-.i l""(cB + 7) = cT*B + T*}'_ y T* es lineal.I a unicidad de T* es inmediata. En efecto, para cualquier B en V, el vector

I'/f está unívocamente determinado como el vector B' tal que (To(|B) = (o(|B')|I.||.| todo Ot. I

Teorema 8. Sea V un espacio producto interno de dimensión finita y sealll ¦a,, _ _ _ , o(,,} una base (ordenada) ortonormal de V. Sea T un operadorlun-al sobre V y sea A la matriz de T en la base ordenada (B. Entonces AM- =ll'fl,|1¡,

Demostración. Como G3 es una base ortonormal, se tiene quen

a = 2 (a|oz¡,)a¡,_l¢=l

l.i matriz A está definida por

t¢=1y 001110

fl

Taj = kxl (TCl_,'|a¡¢)(X¡¢

-ie tiene A,,¡ = (TajÍ|o(,,)_ I

Corolario. Sea V un espacio producto interno de dimensión finita y seaI un operador lineal sobre V. En cualquier base ortogonal de V la matriz de T*es la conjugada de la transpuesta de la matriz de T.

I)emostración_ Sea G3 = {o(,, ..., o(,,} una base ortonormal de V, seaI r= [T]¿B y B = [T*]¿B_ De acuerdo con el Teorema 8,

Au = (Tai-Im.)Bkj = (T*(XjI(Xk).

I'(›i definición de T* se tiene que

Bgj = (T*(!¡|Cl¡,)

= (¢YklT*¢*›')= (Tflklaƒ):A1 |

Page 311: ASESORES TECNICOS

.'92 .-ll_i¦el›ra lineal

Ejemplo 17. Sea V un espacio producto interno de dimensión lìnita yE la proyección ortogonal de V sobre un subespacio W. Entonces para los vec-tores oc y 'B cualesquiera en V.

(Eallï) = (ECYIEB + (1 _ E)B)= (E0|EB)= (Ea -l- (1 - E)a|EB)

= (0f|EB)-De la unicidad del operador E* se sigue que E* = E. Ahora considérese laproyección- E descrita en el Ejemplo 14. Entonces

1 9 36 -3A=¬ 36 144 -12

154 -3 -12 1es la matriz de E en la base ortonormal canónìca. Como E = E*, A es tam-bién la matriz de E*, y como A = A* esto no contradice el corolario anterior.Por otro lado, supóngase que

(11 = 0,

cz, = (145, -36, 3)aa = (-36, 10, 12).

Entonces {o(,, ocz, oz3} es una base, yEa, = (9, 36, -3)Ea, = (0, O, 0)Ea, = (0, O, 0).

Como (9, 36, -3) = -(154, 0, O) - (145, -36, 2), la matriz B de E en la base{o(,, az, o(3} está definida por la expresión:

-100B= -100-

000En este caso B 9€ B* y B* no es la matriz de E* = E en la base {o(,, az, o¢3}.Aplicando el corolario, se concluye que {o(,, az, oc3} no es una base ortonormal.Esto es bastante obvio naturalmente.

Definición. Sea T un operador lineal sobre un espacio producto interno V.Entonces se dice que T tiene un adjunto sobre V si existe un operador lineal T*sobre V tal que (To¢|B) = (o(|T*B) para todo ot y B en V.

Por el Teorema 7 todo operador lineal en un espacio con producto internode dimensión finita V tiene un adjunto en V. En el caso de dimensión infinita,esto no es siempre cierto. Pero, en todo caso, existe a lo más un tal operador T*;cuando existe se le llama el adjunto de T_

Dos comentarios respecto al caso de dimensión finita.

1. El adjunto de T depende no solo de T, sino también del productointerno.

Page 312: ASESORES TECNICOS

I-.`s¡›m'n›.\' mn ¡uorlui tn intemo 291

2. Como se vio en el Ejemplo 17, en una base ordenada arbitraria (B, larelación entre [T](B y [T*](B es más complicada que la dada en el corolarioaiiterior.

Ejemplo 18. Sea V = C"“ el espacio de las matrices complejas n >< 1con el producto interno (XI Y) = Y*X_ Si A es una matriz n x n con elemen-tos complejos, el adjunto del operador lineal X -› AX es el operador X-›A*X_Iin efecto,

(AXIY) = Y*AX = (A*Y)*X = (X|A*Y).

lil lector debe eonvencerse por sí mismo de que esto es realmente un caso es-pecial del último corolario.

Ejemplo 19. Este es semejante al Ejemplo 18. Sea V = C"“" con el pro-ducto interno (A|B) = tr (B*A)_ Sea M una matriz n x n dada sobre C. Eladjunto de la multiplicacióna la izquierda por M es multiplicación a la izqaler-da por M*. Naturalmente, «multiplicación a la izquierda por M» es el ope-rador lineal LM definido por LM(A) = MA.

(LM(A)IB) = tr (B*(M-4))= tr (MAB*)= tr (AB*M)= tr (A (M*B)*)= (AILM*(B))-

Así (LM-)* = LM.. En el cálculo anterior se usó dos veces la propiedad carac-terística de la función traza: tr (AB) = tr (BA).

Ejemplo 20._ Sea V el espacio de los polinomios sobre el cuerpo de los nú-meros complejos con el producto interno

(fly) = jif(¢)§(T) dt.Si f es un polinomio ƒ = Z akx", se hace f = 2 ã,,x'°. Esto es, f es el polino-mio cuya función polinomio asociada es la compleja conjugada de la de f:

Í(t) = ƒ_(t), trealSe considera el operador «multiplicación por f», esto es, el operador linealM¡ definido por (M¡)(g) = fg. Entonces este operador tiene un adjunto, asaber, multiplicación por En efecto,

(-Vf(9)lh.) = (fšllhl

= j`f(z)g(¢)s<-mi= j*g(t)liT)T(¢)1d¢= (elfh)= (9|1Vf(h))

y asi (M7)* = Mƒ.

Page 313: ASESORES TECNICOS

294 -I l_t't'l›rtt lineal

Ejemplo 21. En el Ejemplo 20 se vio que algunos operadores cn un espacioproducto interno de dimensión infinita tiene un adjunto. Como se comentóanteriormente, otros no lo tienen. Sea V el espacio con producto interno delEjemplo 20 y sea D el operador derivación en C[x]. Integrando por partesse tiene que

(Dfly) = f(1)9(1) - f(0)9(0) _ (f|D9)-Se considera g fijo y se pregunta: ¿Cuándo existe un polinomio D"'g tal que(Df|g) = (f|D*g) para todo f? Si tal D*g existe, se debe tener que

O (flD*9) = f(1)9(1) -ƒ(0)g(0) ~ (f|Dg)

(flD*9 + De) = f(1)9(1) - f(0)9(0)-Con g fijo, L(f) = f(l)g(l) ~ ƒ(0)g(0) es un funcional lineal del tipo consi-derado en el Ejemplo 16 y no puede ser de la forma L(f) = (fjh) a menos queL = 0. Si D*g existe, entonces con h = D*g + Dg se tiene que L(f) = (f|h);por tanto, g(0) = g(l) = 0. La existencia de un polinomio apropiado D*gimplica g(0) = g(l) = 0. Recíprocamente, si g(0) = g(l) = 0, el polinomioD*g = -Dg satisface (Df|g) = (f|D*g) para todo f. Si se elige cualquier gpara el que g(0) 9€ O o g(l) =;€ 0, no se puede definir propiamente D*g, conlo que se concluye que D no tiene adjunto.

Se espera que estos ejemplos aclaren la comprensión de lo que es el adjun-to de un operador lineal. Se ve que la operación adjunta, que pasa de T a T*,se comporta en forma un tanto semejante a la conjugación de números comple-jos. El siguiente teorema refuerza esta analogía.

Teorema 9- Sea V un espacio producto interno de dimensión finita. Si T yU son operadores lineales sobre V y c es un escalar

(i) (T+ U)*= T*+ U*;(ii) (cT)* = ET*;(iii) (TU)* == U*T*2(iv) (T*)* = T.

Demostración. Para demostrar (i), sean oz y B vectores en V. Entonces

((T + U)0f|B)_ = (Ta + Ualfi)= (Tfllfi) “l” (Ua|B)= (0=lT*B) + (°f|U*B)= («lT*ø + U*B)= (0f|(T* + U*)B)-

De la unicidad del adjunto se tiene que (T + U)* = T* + U*_ Se deja la de-mostración de (ii) al lector. De las relaciones

(TUOIIB) = (U<1lT*B) = (0=|U*T*B)(T*<1l6) = (B|T*a) = (TBÍÍI) = (a|TB)- I

se obtienen (iii) y (iv). I

Page 314: ASESORES TECNICOS

I-.'.\'¡utt'to.\' ctm pr¢›tlui'It› interno 295

I-.I Teorema 9 se enuncia a menudo como sigue: la aplicación T-› T* es:intiisomorfa lineal-conjugada de periodo 2. La analogía con la conjugacióncompleja. que se ha mencionado anteriormente, está por cierto basada en laobservación de que la conjugación compleja tiene las propiedades (É,_Í-_z;) =_', == 22, (:,Íš) = 5,22, É = z. Se debe ser cuidadoso y observar la inversión(lcl orden en el producto que impone la operación adjunta: (UT)* = T*U*.cuando se continúe con el estudio de los operadores lineales en un espacioproducto interno. se ampliará más esta analogía. En estas líneas algo diremosal respecto. Un número complejo z es real si, y solo si, z = 2. Se podría esperarque el operador lineal T tal que T = T* se comporte en forma semejante alos números reales. En efecto, es así. Por ejemplo. si T es un operador linealsobre un espacio complejo producto interno de dimensión finita, entonces(3-15) T = U1 + z`U2donde U, = U1* y U2 = U5". Así, en cierto sentido, T tiene una «parte real»y una «parte imaginaria››_ Los operadores U, y U2 que satisfacen U, = U1*y U2 == U2', -y (8-15) son únicos y están dados por

U1 = 7111:)

1' =l=

Un operador lineal T tal que T = T* se llama autoadjunto (o hermítico).Si G3 es una base ortonormal de V, entonces

[T*]a = [T]('ìiy asi T es autoadjunto si, y solo si, su matriz en toda base ortonormal es unamatriz autoadjunta. Los operadores autoadjuntos son importantes, no sola-mente porque suministran una especie de parte real y parte imaginaria parael operador general, sino también porque: (1) Los operadores autoadjuntostienen muchas propiedades especiales. Por ejemplo. para un operador asi, existeuna base ortonormal de vectores propios. (2) Muchos operadoresque surgenen la práctica son autoadjuntos. Las propiedades especiales de los operadores.iutoadjuntos se considerarán más adelante.

lzjerciciosI. Sea V el espacio C2 dotado del producto intemo eanónico. Sea T el operador linealdelìnido por Te, = (l. 2), Te, = (i. -- I). Si ot = (x,, xz), hallar T*a.

2. Sea T el operador lineal en C2 definido por Te, = (1 + i, 2), Te, = (i, i). Usando elproducto interno eanónico, hallar la matriz de T* en la base ordenada canónìca. ¿ConmutaI' con T*'?

3. Sea V = C3 con el producto interno eanónico. Sea T el operador lineal sobre V cuyamatriz en la base ordenada canónìca está definida por

An = íi+'°› (iz = -1)-ll.-illar una base para el espacio nulo de T*_

Page 315: ASESORES TECNICOS

206 A l,t'eln'u lineal

4. Sean V un espacio producto intemo de dimensión finita y T un operador lineal sobreV. Demostrar que la imagen por T* es el complemento ortogonal del espacio nulo de T.

5. Sean V un espacio producto intemo de dimensión finita y T un operador lineal sobreV. Si T es inversible, demostrar que T* es inversible y que (T*)"i = (T'i)*_

6. Sean V un espacio producto interno y B, 'y vectores dados de V. Demostrar que Ta =(a|B)y define un operador lineal sobre V. Demostrar que T tiene un adjunto y dar explíci-tamente T*_

Supóngase ahora que V = C" con el producto interno eanónico B = (y,, _ _ _, y,,) yy = (x,, _ _ _ , x,,). ¿Cuál es el elemento j, k de la matriz de Ten la base ordenada canónìca?¿Cuál es el rango de esta matriz?

7. Demostrar que el producto de dos operadores autoadjuntos es autoadjunto si, y solo si,los dos operadores conmutan.

8. Sea V el espacio vectorial de los polinomios sobre R de grado menor o igual que 3 conel producto interno

(fly) = j` f(¢)y(¢) dt.Si t es un número real, hallar el polinomio g, de V tal que (f|g,) = f(t) para todo ƒ de V.

9. Sea V el espacio producto interno del Ejercicio 8 y sea D el operador derivación sobreV. Hallar D*.

10. Sea V el espacio de las matrices n >< n sobre los números complejos con el productointerno (A |B) = tr (AB*)_ Sea P una matriz dada en V, inversible, y sea T, el operadorlineal sobre V definido por T,,(A) = P_'AP_ Hallar el adjunto de T,,_

Il. Sea V un espacio producto interno de dimensión finita y sea E un operador linealidempotente sobre V; es decir, E2 = E. Demostrar que E es autoadjunto si, y solo si.EE* = E*E_

12. Sea V un espacio producto interno complejo de dimensión finita y sea T un operadorlineal sobre V. Demostrar que T es autoadjunto si, y solo si, (Tala) es real para todoot de V.

8.4. Operadores unitarios

En esta sección se considerará el concepto de un isomorfismo entre dosespacios producto interno. Si V y W son espaciosvectoriales, un isomorfismode V sobre W es una transformación lineal inyectiva de V sobre W; es decir,una correspondencia biunívoca entre los elementos de V y de W que «preser-van›› las operaciones de espacio vectorial. Ahora bien, un espacio productointerno consiste en un espacio vectorial y un producto-interno definido sobredicho espacio. Así, pues, cuando V y W son espacios producto interno, se exi-girá de un isomorfismo de V sobre W no`solo que preserve las operaciones linea-les, sino que también preserve el producto interno. Un isomorfismo de un es-pacio producto interno sobre si mismo se llama ((operador unitario» sobreese espacio. Se considerarán varios ejemplos de operadores unitarios y se esta-blecerán sus propiedades básicas.

Page 316: ASESORES TECNICOS

l'Í\¡›m'i¢›s cun ¡mulm tu intemo 297

Definición. Scan V y W espacios producto interno sobre el mismo cuerpov sea T una transformación lineal de V en W. Se dice que T preserva productosInternos si (To(|TB) = (oz) B) para todo oz, B de V. Un isomorfismo de V sobre W esun isomorfismo T de espacio vectorial de V sobre W que también preserva pro-ductos internos.

Si T preserva productos internos, entonces ||To(|| = ||oz|| y así T es necesa-riamente no singular. Así que un isomorfismo de V sobre W puede ser definidotambién como una transformación lineal de V sobre W que preserva productosinternos. Si Tes un isomorfismo de V sobre W, entonces T`i es un isomorfismode W sobre V; luego, cuando tal T existe, se dirá simplemente que V y W sonisomorfos. Naturalmente, el isomorfo de espacio producto interno es una re-lación de equivalencia.

T00l'€ma 10- Sean V y W espacios producto interno de dimensión finitasohre el mismo cuerpo y que tienen la misma dimensión. Si T es una transforma-ción lineal de V en W, las siguientes afirmaciones son equivalentes.

(i) T preserva los productos internos.(ii) T es un isomorfismo (en un espacio producto interno).

(iii) T aplica toda base ortonormal de V sobre una base ortonormal de W.(iv) T aplica cierta base ortonormal de V sobre una base ortonormal de W.

Demostración. (i)-› (ii). Si T preserva los productos internos, entonces||To(|| = ||o(|| para todo ot de V. Así, T es no singular, y como dim V = dim W,se sabe que T es un isomorfismo de espacio vectorial.

(ii)-› (iii). Supóngase que T sea un isomorfismo. Sea {o(,, _ _ _ , o(,,} una baseortonormal de V. Como T es un isomorfismo de espacio vectorial y dim W =dim V, se sigue que {To(,, _ _ _ , Toz,,} es una base de W. Como T también pre-serva los productos intemos, (Tot,-|Toc,,) = (ot,-|o(,,) = 6,-,_

(iii)-› (iv). Esta no requiere comentario.(iv)-› (i). Sea {(x,, _ _ _, o(,,} una base ortonormal de Vtal que {To(,, _ _ _, Tot,,}

sea una base ortonormal de W. Entonces '

(TaflT01k) = (aflak) = öjk-

Para cualquier ot = x,o(, + ° ' - + x,,o(,, y B = y,o(, + - - ' + y,,o(,, de V, tenemos

(alli) = 2 ïlïƒlly'_1=1

(Ta|TB) = iv,-Ta,-I É y¡,Ta¡,).7

= É :l2,¶7¡,(Ta,-|Ta¡,).7

n 1= Z 21'?/1':=l

y así, pues, T preserva los productos internos. |

Page 317: ASESORES TECNICOS

298 .4 l_g'c'lu it lineal

Corolario. Sean V y W espacios producto interno de dimensión finita sobreel mismo cuerpo. Entonces V y W son isomorfos si, y solo si. tienen la misma di-mensión_

Demostración. Si {a,, _ _ _ _ a,,} es una base ortonormal de Vy {B,, _ _ _ , B,,}es una base ortonormal de W,. sea T la transformación lineal de V en W defini-da por Taj = B,-_ Entonces T es un isomorfismo de V sobre W. I

Ejemplo 22. Si V es un espacio producto interno de dimensión finita.entonces cada base ordenada ortonormal (B = {a,, a,,} determina unisomorfismo de V sobre F" con el producto interno eanónico. El isomorfismono es más que

T(íC1C!1 + ' ' ' + ílïndn) = (331, . . . , 1131.).

Existe el isomorfismo, aparentemente distinto, que (B determina de V sobreel espacio F"“ con (X| Y) = l'*X como producto interno. El isomorfismo es

of -) [ajaj

es decir, la transformación que aplica a en su matriz de coordenadas en la baseordenada (B. Para cualquier base (B, éste es un isomorfismo del espacio vec-torial; sin embargo, es un isomorfismo de los dos espacios con producto inter-no si_ y solo si, es ortogonal.

Ejemplo 23. Aqui se presenta un isomorfismo algo menos superficial. SeaW el espacio de todas las matrices 3 >< 3, A, sobre R antisimétricas; es decir,A' = -A. Se dota a Wdel producto interno (A|B) = É-tr (AB'): el es por meraconveniencia. Sea V el espacio R3 con el producto interno eanónico. Sea T unatransformación lineal de V en W definida por

0 -2133 232T(í¡31› $2; 13) = iva 0 “$1 '

-1:2 3:1 0 _

Entonces T aplica V sobre W, y haciendo

O _íl33 1132 0 _y3 yg

A = ¿Ca 0 -$1 1 B = ya 0 '-3/1-:C2 231 0 _?,/2 Z/1 0

ÍCÍICIHOS

tr (A B') = xyyy + :vyyy + :vyyy + :ayy -l- :vivi= 2(íI3iy1 *li 132?/2 + 333313)-

Así, pues, (o(| B) = (To(|TB) y T es un isomorfismo de espacio vectorial. Obsér-vese que Taplica la base canónìca {e,, ez, e3} sobre la base ortonormal que constade las tres matrices

00 O OO 1 O -1 0OO -I, OOO, 1 OO-O 1 O -1 00 O O0

Page 318: ASESORES TECNICOS

Iipmnn um ¡nmlmm mu-øm› 20?

I ¡t-mplo 24. No siempre es particularmente conveniente describir un iso-m.~iI|\|ut› en terminos de las bases ortonormales. Por ejemplo, supóngase que1- « I""I'. donde P es una matriz n x n, inversible, con elementos complejos.M-.i I el espacio de las matrices complejas n x 1 con el producto interno| \|l | : Y*GX. Sea W el mismo espacio vectorial, con el producto inter-no t-;|m'›nico (X | Y) = Y*X. Se sabe que V y W son espacios producto interno|-.mimi-l`os. Parecería que el modo más conveniente de dar un isomorfismocutre I' y W es el siguiente: sea T la transformación lineal de V en W definida¡mi l`(X) = PX. Entonces

(TX|TY) = (PX|PY)= (PY)*(PX)= Y*P*1>X= Y*GX= [X|Y]-

l uego T es un isomorfismo.

I-ljemplo 25. Sea V el espacio de todas las funciones continuas de valormil en el intervalo unitario O 5 r 5 1, con el producto interno

[fly] = L'f(¢›y(¢)r*d¢.Sea W el mismo espacio vectorial con el producto interno

mo=fiflmwuSea T la transformación lineal de V en W dada por

(7'f)(i) = ¿f(t)-Intonces (Tf|Tg) = [f|g], y así T preserva los productos internos; sin em-hargo, T no es un isomorfismo de V sobre W, ya que la imagen de Tno es todo W_Por supuesto, esto sucede porque el espacio vectorial básico no es de dimen-sión finita.

Teorema ll. Sean V y W cspacios producto interno sobre el mismo cuerpor seu T una transformación lineal de V cn W. Entonces T preserva productos in-ternos si, y solo si, ||Toc|| = Hoc" para todo oc en V.

Demostración. Si T preserva productos internos., entonces T «preservanormas». Supóngase que ||Ta|¦ = ||a|| para todoa de V. Entonces |¦Ta||2 = ||oc|¦2.Ahora. usando la identidad de polarización apropiada, (8-3) o (8-4), y el hechode que T es lineal, se obtiene facilmente que (oc|fi) = (Toc¦T,6) para todo oc, fien V I

Definición. Un operador tmitario en un espacio producto interno es un iso-mo|_'/'i.s'mo del espacio sobre sí mismo.

El producto de dos operadores unitarios es unitario. En efecto. si U1 y U2

Page 319: ASESORES TECNICOS

.UNI .-1 ¡tft-bra h`m'uI

Á

son unitarios, entonces U¿U, es inversible y ||U2U,oc|| = ||U1a|| = ||<_x||-paracada ot. También el inverso del operador unitario es unitario, ya que Ua|| = Hall,dice que ||U“B|| = HB", donde li = Ua. Dado que el operador unitario esevidentemente unitario, se ve que el conjunto de todos los operadores unitariosen un espacio producto interno es un grupo para la operación de composición.

Si V es un espacio producto interno y U es un operador lineal sobre V, elTeorema 10 dice que U es unitario si, y solo si, (Uoz|UB) = (oz|B) para todooz, B de V; o si, y solo si, para cierta (toda) base ortonormal {a1, _ . . , a,,} es ciertoque-{Ua,, , Ua,,} es una base ortonormal.

Teorema 12. Sea U un operador lineal sobre un espacio producto inter-no V. Entonces U es unitario si, y solo si, el adjunto U* de U existe y UU* =U*U = I.

Demostración. Supóngase que U es unitario. Entonces U es inversible y

(Ualfl) = (Ua|UU`1B) = (a|U`1fl)

para todo oz, tí. Luego U" es el adjunto de U.Recíprocamente, supóngase que existe U* y que UU * = U*U = I. Enton-

ces U es inversible, con U"1 = U*. De modo que solo se necesita demostrarque U preserva productos intemos. Tenemos que.

(UGIUB) = (0f|U*UB)= (HUB)= (am)

para todo oz, B. I

Ejemplo 26. Consideremos C"“ con el producto interno (X |Y) = Y*X.Sea A una matriz n ›< n sobre C. y sea U el operador lineal definido por U(X) =AX. Entonces

(UXIUY) = (AXIAY) = Y*A*AX

para todo X, Y. Luego U es unitario si. y solo si, A*A = I.

Definición. Una matriz compleja n ›< n, A, se llama unitaria si A*A = I.

Teorema l3.' Sea V un espacio producto interno de dimensión finita y seaU un operador lineal sobre V. Entonces U es unitario si, y solo si, la matriz de U enalguna (o toda) base ordenada ortonormal es una matriz unitaria.

Demostración. A esta altura, esto casi no es un teorema, y se formuló másque todo por insistir. Si G3 = {a,, . . . , a,,} es una base ordenada ortonormalde Vy A es la matriz de U respecto de G3, entonces A*A = I si, y solo si, U*U = I.El resultado se desprende ahora del Teorema 12. I

Sea A una matriz n ›< n. La afirmación de que A es unitaria solo quieredecir que

Page 320: ASESORES TECNICOS

l'.`.v¡›m'ius nm prmlm-tu inn-run Mi

(A*AM = ¿ikO

enÉl A.,-_,-A.,-¡¢ - ôjk.

En otras palabras, esto significa que las columnas de A forman un conjuntoortonormal de matrices columna con respecto al producto interno eanónico(X/ Y) = Y*X. Como A*A = 1 si, y solo si, AA* = I, vemos que A es unitariaexactamente cuando las filas de A constituyen un conjunto ortonormal de n-tuplesde C,, (con el producto intemo eanónico). Así, usando los productos intemoscanónicos, A es unitaria si. y solo si, las filas y las columnas de A son conjuntosortonormales. Se ve aquí un ejemplo del poder del teorema que establece queuna inversa lateral (a un lado) para una matriz es inversa a ambos lados. Apli-cando este teorema como se hizo anteriormente, por ejemplo, a matrices reales,tenemos lo siguiente: supóngase que tenemos un arreglo en cuadro de númerosreales tales que la suma de los cuadrados de los elementos de cada fila es 1 y lasfilas distintas son ortogonales. Entonces, la suma de los cuadrados de los ele-mentos de cada columna es 1 y las columnas distintas son ortogonales. Escrí-base la demostración de esto para un arreglo de 3 x 3 sin usar lo que se conocede las matrices y se quedará bastante impresionado.

1)efi¡¡¡¢¡ón_ Una matriz n x n real o compleja, A, se dice ortogonal si A'A = I

Una matriz ortogonal real es unitaria, y una matriz unitaria es ortogonalsi, y solo si, cada uno de sus elementos es real.

Ejemplo 27. Damos algunos ejemplos de matrices un'ita-rias y ortogonales.

(a) A es la matriz 1 x l, c, es ortogonal si, y solo si, c = ± 1, y es unitariasi, y solo si, Ec = 1. La última condición quiere decir (naturalmente) que |c| = 1,0 c = em. donde 6 es real.

(b) Seaa b

A -_ j:c djlj

Entonces A es ortogonal si, y solo si,

_._ 1 d b_At-_Al_ad-bcji-c a]

El determinante de una matriz ortogonal es, como fácilmente se ve, ± I. AsíA es ortogonal si, y solo si,

a bA _ [-b 0]

O

a bA _ [b -0]

Page 321: ASESORES TECNICOS

302 _-I l_L'i'ln'it Íimwl

donde az + bz = l. Los dos casos distinguen por el valor de det A.(c) Las relaciones, bien conocidas. entre l`unciones trigonométricas mues-

tran que la matrizeos 0 sen 0

A0 _ [senti cos 0 J

es ortogonal. Si 9 es un número real, entonces A0 es la matriz en la base orde-nada canónìca de R2 del operador lineal U9, rotación de ángulo 6. La afirmaciónde que A0 es una matriz ortogonal real (por tanto unitaria) solo quiere decirque U9 es un operador unitario, es decir, preserva productos escalares.

(d) Seaa b

A _' [0 diEntonces A es unitaria si, y solo si,

r 1---1td*5 d ad - bc -c a

El determinante de una matriz unitaria tiene valor absoluto I y es, por tanto_un número complejo de la forma e'°, H real. Así A es unitaria si. y solo si,

A =[_iï«; _-'ìã]=[å Ã-ì][-% Z]donde 0 es un número real, y a, b son números complejos tales que |a|2 + |b|2 = I _

Como se observó antes, los operadores unitarios sobre un espacio produc-to intemo forman un grupo. De esto y del Teorema 13 se sigue que el conjuntoU(n) de todas las matrices unitarias n x n es también un grupo. Así la inversade una matriz unitaria y el producto de dos matrices unitarias son tambiénmatrices unitarias. Por cierto. esto es fácil verlo directamente. Una matrizn x n, A, con elementos complejos es unitaria si, y solo si, A” = A*. Así,si A es unitaria, tenemos que (A`1)"1 = A = (A*)"' = (A"')*. Si A y B sonmatrices unitarias n x n, entonces (AB)" == B"A"' = B*A* = (AB)*.

El proceso de Gram-Schmidt en (`" tiene un corolario interesante para lasmatrices en qu_e entra el grupo U(n).

Teorema 14. Para toda matriz compleja n x n, inversible, B, existe una úni-ca matriz triangular inferior M, con elementos positii¬os en la diagonal principal,de modo que MB es unitaria.

Demostración. Las filas B,, ___, B,, de B forman una base de C"_ Seanoq, _ _ _ , fx, los vectores que se obtienen de B1, _ _ _ , B" por el proceso de Gram-Schmidt. Entonces, para 1 5 k 5 n, {a¡, __ _, cx,,} es una base ortogonal delsubespacio generado por {B,, _ _ _ _ B,,}, y

(fiklaƒ_ )“* " B* '

Page 322: ASESORES TECNICOS

I-.spin-uis mn ¡mnlurm nm-nm ill]

luego, para todo k, existen escalares únicos (',,¡ tales que

ak = fik _ 2 Ckffif-i<1¢Sea U la matriz unitaria con filas

al an

l|<›f1I|" ` ` ' l|<1»l|y M la matriz definida por

1 _ _Ch', Sl] <k

Mkj = 1 _ _ __

||«_||' S” " '*0, sij>k.

Entonces M es triangular inferior, ya que sus elementos sobre la diagonal prin-cipal son 0. Los elementos Mu, de M, de la diagonal principal, son todos >0, y

-5"-”'-= šM,.~¡s- 1<k<n_llakll ¡=1 '” _ "

Ahora estas igualdades simplemente dicen queU = MB.

Para demostrar la unicidad de M, sea T* (n) el conjunto de todas las matricescomplejas n x n triangulares, inferiores con elementos positivos en la diagonalprincipal. Supóngase que M 1 y M2 sean elementos de M *(n) tales que M,Bestá en U(n) para i = 1, 2. Entonces, por ser U(n) un grupo

(MQB)-1 = 1

está en U(n). Por otro lado, aun' cuando no es enteramente obvio, T*(n) es tam-bién un grupo para la multiplicación matricial. Un modo de verlo es consi-derar las propiedades geométricas de las transformaciones lineales

X -› MX, (M en T+(n))sobre el espacio de las matrices columnas. Así M; 1, M,M§ ' y (M,M; 1)"están todas en T+(nl. Pero, como M,M¿" está en U(n), (M,M2")`1=(M1M§ ')*. La transpuesta o la conjugada transpuesta de cualquier matriztriangular inferior es una matriz triangular superior. Por tanto, M1M; 1 essimultáneamente triangular superior e inferior, es decir, diagonal. Una matrizdiagonal es unitaria si. y solo si, cada uno de sus elementos de la diagonal prin-cipal tiene valor absoluto I; si los elementos de la diagonal son todos positivos,deben ser iguales a 1. Luego M,M;1 == I, con lo que M, = M2. I

Sea GL(n) el conjunto de todas las matrices complejas n x n e inversibles.Entonces GL(n) -es también un grupo para la multiplicación matricial. Estegrupo. se llama el -grupo lineal generaI.'El Teorema 14 es equivalente al siguien-te resultado.

Page 323: ASESORES TECNICOS

,NH /I l_t_{i'lu'u lineal

Corolario. Para toda B dc (|`l_(n), e.\'isIcn matrices únicas N y U tales queN está en T"`(n), U en U(n), y

B=-N-U.Demostración. Por el teorema existe una matriz única M en T* (n) tal

que MB está en U(n). Sea MB = U y N = M`1. Entonces N está en T+(n)y B = N - U. Por otro lado, si se dan elementos N y U cualesquiera tales queN está en T+(n), Uestá en U(n) y B = N - U, entonces N_1B está en U(n) y N- 1es la única matriz M que está caracterizada por el teorema. Además U es ne-cesariamente N'1B. I

Ejemplo 28. Sean xl y x2 números reales tales que xf + xš = 1 y xl qé 0.Sea

351 352 0B = 0 1 O -

O 0 1

Aplicando el proceso de Gram-Schmidt a las filas de B_ se obtienen los vectores

a1 = (x1, x2, 0)G2 = (0› 1› 0) _ I2(íU1› $2, 0)

= íE1(-1112, $1, 0)

O13 = (0, 0,

Sea U la matriz con filas al, (az/X1), a,_` Entonces U es unitaria. y

$1 $2 0 1 0 0 :cl x2 0

$1 ¿C1

0 0 1 0 0 1 0 0 1

Ahora, multiplicando por la inversa de

100

M= -9-lo$1321

001

:cl :122 0 1 0 0 xl 11:2 00 1 0 = $2 $1 0 _' $2 $1 0

0 0 1 0 0 1 0 0 1

Consideremos ahora brevemente el cambio de coordenadas en un espacioproducto interno. Supóngase que V es un espacio producto interno de dimen-sión finita, y que G3'-= {a¡, _ _ _ , oz,,} y (B' = {a1, _ _ _ , a[,} son dos bases orde-

se tiene que

Page 324: ASESORES TECNICOS

I"\'¡›m-n›.\' nm fmnlnrlu lntrmn .lili

uadas ortonormales de V. Existe una única matriz n x n (necesariamente in-vcrsible), P, tal que

lalo' = P`1[0f]<B›

para todo oz en V. Si U es el operador lineal único sobre V definido por Uaj = a,f,entonces P es la matriz de U en la base ordenada G3;

flrak = -El P¡ka¡_1= -

(`omo (B y G3' son bases ortonormales, U es un operador unitario y P es unamatriz unitaria. Si T es un operador lineal cualquiera sobre V, entonces

[T]a' = P”'[T]aP = P*[TlaP.

Definición. Sean A y B matrices complejas n x n. Se dice que B es unita-riamente equivalente a A si existe una matriz unitaria n x n. P, tal que B = P' 1 AP.Se dice que B es ortogonalmente equivalente a A si existe una matriz ortoeonaln x n, P, tal que B = P`¡AP.

Con esta definición, lo que se observó anteriormente puede enunciarse comosigue: si G3 y G3' son dos bases ordenadas ortonormales para V, entonces, para todooperador lineal T sobre V, la matriz [T](B es unitariamente equivalente a lamatriz [T]¿B. En el caso que V sea un espacio producto interno real, estas ma-trices son ortogonalmente equivalentes a través de una matriz ortogonal real.

Ejercicios

l. Hallar una matriz unitaria que no sea ortogonal y encontrar una matriz ortogonalque no sea unitaria.

2. Sea Vel espacio de las matrices complejas n x ncon producto interno (A|B) = tr (AB*).Para cada M en V, sea TM el operador lineal definido por TM(A) = MA. Demostrar queTM es unitario si, y solo si, M es una matriz unitaria.

3. Sea V el conjunto de los números complejos considerados como espacio vec'torial real.(a) Demostrar que (a|/3) = Re (all) define un producto interno sobre V.(b) Mostrar un isomorfismo (de espacio producto interno) de V sobre R2 con el pro-

ducto interno eanónico.

(c) Para cada 'y de V, sea M, el operador lineal sobre V definido por M,(a) = ya. De-mostrar que (M,)* = M,-_

(d) ¿Para qué números complejos y es M, autoadjunto?(e) ¿Para cuáles ji es M, unitario?(f) ¿Para cuáles y es M, positivo?(g) ¿Cuál es det (M,)?(h) Hallar la matriz de M, en la base {l, i}.(i) Si T es un operador lineal en V, hallar condiciones necesarias y suficientes para T

para que sea un M,.(j ) Encontrar un operador unitario sobre V que no sea un M,.

Page 325: ASESORES TECNICOS

,wn .~l lgclira lineal

4. Sea V = R2 con cl producto intemo eanónico. Si U es un operador unitario sobre l'.demostrar que la matriz de U en la base ordenada canónìca es

[C08 0 -sen 0] 0 [eos 0 sen 0]Sen 0 eos 0 sen 0 -cos 0

para algún real 0. 0 S. 0 S 2. Sea U9 el operador lineal que corresponde a la primera ma-triz; es decir, U, es una rotación de ángulo 0. Ahora observar que todo operador unitariosobre V es una rotación o una simetría en torno al eje Sl seguida de una rotación.

(a) ¿Qué es U,U¢?(b) Demostrar que U2' = U0.(c) Sea çb un número real fijo y sea (B = {a¡, a2} la base ortonornal obtenida por ro-

tación de {e,, e,} en el ángulo gb; es decir. or, = U4,e,-_ Si 6 es otro número real. ¿cuál es lamatriz de U9 en la base ordenada G3?

5. Sea V = R3 con el producto intemo eanónico. Sea W el plano generado por ot = l l. l, l)Y li = (1, 1. -2). Sea U el operador lineal definido geométricamente como sigue: U es larotación de ángulo 6 en torno a la recta que pasa por el origen ortogonal a W. En realidadhay dos de estas rotaciones -*Se elige una. Hallar la matriz de U en la base ordenada canó-nìca. (He aquí un camino que se podría seguir: hallar que al y az forman una base ortonor-mal de W. Sea or, un vector de norma 1 que es ortogonal a W. Hallar la matriz de U en labase {a,, az, a¿,}. Hágase un cambio de base.)

6. Sea V un espacio producto intemo de dimensión finita y sea W un subespacio de V.Entonces V= W9 Wi, esto es, todo a de V se expresa unívocamente en la forma a = /i + y,con Ii en W y y en Wi. Se define un operador lineal U por Ua = 'li - 7-.

(a) Demostrar que U es autoadjunto y unitario.(b) Si V es R*Í, con el producto interno eanónico, y W es el subespacio generado por

(1, 0, 1). hallar la matriz de U en la base ordenada canónìca.

7. Sea V un espacio complejo con producto interno y T un operador lineal autoadjuntosobre V. Demostrar que

(a) ||a + ¡Tall = Ha - ¡Tall para todo (1 en V,(b) ot + ¡Ta = Ii + ¡TB si, y solo Si, 01 = /ƒ,(c) l + ¡T es no singular.(d) I - iT es no singular-(C) Supongamos ahora que V es de dimensión finita y demostremos que

U = (1 - m(1 + tr)-1es un operador unitario; U se llama la transfonnaeión de Cayley de T. En cierto sentidoU = f(T), donde f(x) = (l - ix)/(l + ix).

8. Si 6 es un número real, demostrar que las siguientes matrices son equivalentes uni-tariamente

[eosö - sen 0] [effi Osen 0 eos 6 ' 0 e¬'”

9. Sean V un espacio producto interno de dimensión finita y T un operador lineal posi-tivo sobre V. Sea pT el producto intemo sobre V definido por p†(a, B) = (Ta,B). Sea U unoperador lineal en V y U*_ su adjunto con respecto a ( | ). Demostrar que U es unitariocon respecto al producto interno pf si, y solo si, T = U*TU.

Page 326: ASESORES TECNICOS

I-.`s¡uu'i¢›_s mn ¡›n›dm'tu intemo 307

I0. Sea V un espacio producto interno de dimensión finita. Para cada oi, B en V, sea T,,_ ¡,cl operador lineal en V definido por T,_¡,(^,') = (1-|[ï)a. Demostrar que

(a) T;'f¡, = T¡¡_,,.(b) traza (-7:,_,,) = (alli).(Cl Ta_flTv.ô = Taxfllviø-(d) ¿En qué condiciones es TM, autoadjunto?

II. Sea V un espacio producto interno de dimensión finita sobre el cuerpo F y sea L(V, V)el espacio de los operadores lineales sobre V. Demostrar que existe un producto internounico sobre L(V, V) con la propiedad de que ||T,_¡,||2 = ||a||2||B||2 para todo a, /i de Vtl`,_¡, es el operador definido en el Ejercicio 10). Hallar un isomorfismo entre L(V, V), coneste producto interno, y el espacio de las matrices n x n sobre F, con el producto interno(113) = ir (AB*).I2. Sea V un espacio producto interno de dimensión finita. En el Ejercicio 6 mostramoscomo construir operadores lineales sobre V que son autoadjuntos y unitarios a la vez. De-mostrar ahora que no hay otros, es decir, que todo operador autoadjunto y unitario surgede cierto subespacio W como se describió en el Ejercicio 6.

l3. Sean V y W espacios producto interno de dimensión finita que tienen la misma di-mensión. Sea U un isomorfismo de V sobre W. Demostrar que

(a) La aplicación T-› UTU” es un isomorfismo del espacio vectorial L( V, V) sobreel espacio vectorial L(W, W).

(b) traza (UTU_') = traza (T) para todo T de L(V, V).(c) U7§,_ ,U_1'= TU,_U,, (TM, definido en el Ejercicio lO).(d) (UTU"')* = UT*U"(e) Si se dota L( V. V) del producto interno (T¡|T2) = traza (T1 Tf), y análogamente

para L(W, W), entonces T-› UTU” es un isomorfismo de espacios producto interno.

I4_ Si V es un espacio producto interno, un movimiento rigido es cierta función T de V enI (no necesariamente lineal) tal que ||Ta _ Tfi|| = ||a - para todo a, ll de V. Ejemplode movimiento rígido es un operador lineal unitario. Otro ejemplo es la traslación de vec-tor dado 'yz

T-,(a) = of -l- 'Y

(a) Sea V - R2, con el producto interno eanónico. Supóngase que T es un movimientorígido de V y que T(0) = 0. Demostrar que T es operador lineal y unitario.

(b) Usar el resultado de la parte (a) para demostrar que todo movimiento rígido deR2 está compuesto de una traslación, seguida de un operador unitario.

(c) Demostrar ahora que un movimiento rígido de R2 es una traslación seguida deuna rotación. o una traslación seguida de una simetría seguida de una rotación.

IS. Un operador unitario sobre R4 (dotado del producto interno eanónico) es simplemen-te un operador lineal que preserva la forma cuadrática,

ll(=v, 2/_ 2, Dll” = 21* + yt + 2* +1*

esto es, un operador lineal U tal que ||Ua||2 = ||a||2 para todo ot de R4. En cierta parte dela teoria de la relatividad es de interés hallar los operadores lineales T que preservan laforma

ii(xi ya zi = t2 _ $2 _ ya _ 22°

Pero aquí no proviene de un producto intemo, sino de algo llamado la «métrica de

Page 327: ASESORES TECNICOS

JUN _-l l_t¦t'Í›ru lincul

Lorentz» (en la que no entraremos). Por esa razón un operador lineal T sobre R4 tal que||Ta||f = para todo ot de R4, se llama transformación de Lorentz.

(a) Demostrar que la función U definida por

von/_z, 0 = Í Í, l§Íes un isomorfismo de R4 sobre el espacio vectorial real H de las matrices complejas 2 x 2autoadjuntas.

(b) Demostrar que = det (Uot).(c) Supóngase que T es un operador lineal (real) sobre el espacio H de las matrices

2 x 2 autoadjuntas. Demostrar que L = U"TU es un operador lineal sobre R4.(d) Sea M una matriz compleja 2 x 2 cualquiera. Mostrar que TM(A) = M*AM de-

fine un operador lineal TM sobre H (asegurarse de que TM aplica H en H).(e) Si M es una matriz 2 x 2 tal que |det MI = l, demostrar que LM = U"TMU es

una transformación de Lorentz en R4.(f) Hallar una transformación de Lorentz que no sea un LM.

8.5. Operadores normales

El objetivo principal de esta sección es la solución del siguiente problema.Si T es un operador lineal sobre un espacio producto interno de dimensiónfinita V, ¿en qué condiciones tiene V una base ortonormal formada por vec-tores propios de T? En otras palabras, ¿cuándo existe una base ortonormal G3de V, tal que la matriz de T en la base G3 sea diagonal?

Comenzaremos deduciendo unas condiciones necesarias para T, que másadelante se verá que son suficientes. Supongamos que G3 = (al, ___, a,,} esuna base ortonormal de V con la propiedad

TVCXJ' = Cjaj, = 1, . - - , n-

Esto solo dice que la matriz de T en la base ordenada G3 es la matriz diagonalcon elementos cl, _ _ _, c,, en la diagonal. El operador adjunto T* está repre-sentado en esta misma base ordenada por la matriz transpuesta conjugada;es decir, la matriz diagonal con elementos E,, _ _ _ , E,, en la diagonal. Si V es unespacio producto interno real, los escalares cl, _ _ _, c,, son (claro está) realesy, por tanto, debe tenerse que T = T*. En otras palabras, si V es un espacioproducto interno real de dimensión finita y T es un operador lineal para el queexiste una base ortonormal de vectores propios, entonces T debe ser autoadjunto.Si V es un espacio producto interno complejo, los escalares cl, _ _ _ , c,, no ne-cesitan ser reales; es decir, T no necesita ser autoadjunto. Pero obsérvese queT debe satisfacer(8-17) TT* = T*T_

En efecto, dos matrices diagonales cualesquiera conmutan, y como T y T*están ambos representados por matrices diagonales en la base ordenada G3.se tiene (8-17). Es más bien notable que, en el caso complejo. esta condiciónsea también suficiente para implicar la existencia de una base ortonormal devectores propios.

Page 328: ASESORES TECNICOS

I'\¡utt'n›.\' nm prmllu tu Interno 304)

l)efiniciÓn. Sean V un espacio producto interno de dimensión finita y T un¢›¡›¢-rador lineal sobre V. Se dice que T es normal si conmuta con su adjunto; estl«_r«-ir, TT* = T*T

Todo operador autoadjunto es normal, como también todo operador uni-tario; sin embargo, las sumas y productos de operadores normales no son engeneral normales. Aunque no es necesario, comenzaremos el estudio de losoperadores normales considerando operadores autoadjuntos.

Teorema 15. Sean V un espacio producto interno y T un operador linealautoadjunto sobre V. Entonces todo valor propio de T es real y los vectores propios.lr T, asociados a valores propios distintos. son ortogonales.

Demostración. Supóngase que c es un valor propio de T; es decir, que¡bz = ca para algún vector no nulo ot. Entonces

c(<1l<1) = (Cala)= (Tala)= (a|Ta)

= (alw)= ìJ'(oi|a)_

(`omo (a|a) që 0, debemos tener que c = E. Supóngase que también tenemosque T/3 = d/i con /3 =;é 0. Entonces

v(a|B) = (Telfi)= (a|Tfl)= (pida)= dtalfi)= d(alfl)-

Si c # d, entonces (<X|›3) = 0. I

Debe observarse que el Teorema 15 no dice nada respecto a la existenciade valores propios o de vectores propios.

Teorema 16. En un espacio producto interno de dimensión finita _v positi-ra todo operador autoadjunto tiene un vector propio (no nulo).

Demostración. Sea V un espacio producto interno de dimensión n, dondeu > 0, y sea T un operador autoadjunto en V. Se elige una base ortonormal(ll para V y sea A = [T]¿B. Como T = T*, tenemos que A = A*_ Ahora seaIV el espacio de las matrices n x 1 sobre C, con el producto intemo (X | Y) =l'*X_ Entonces U(X) = AX define un operador lineal autoadjunto U en W.lil polinomio característico, det (xl - A), es un polinomio de grado n sobrelos números complejos; todo polinomio sobre C de grado positivo tiene unaraiz. Así existe un número complejo c tal que det (cl - A) =. 0. Esto quieredecir que A - cl es singular, o que existe un X distinto de cero tal que AX= cX_(`omo el operador U (multiplicación por A) es autoadjunto, se sigue del Teo-rema 15 que c es real. Si V es un espacio vectorial real, se puede elegir X de modo

Page 329: ASESORES TECNICOS

.l IU A l_t!t'lIru lineal

que tenga elementos reales. En efecto, entonces A y A - el tienen elementosreales y como A - cl es singular, el sistema (A - cl)X = 0 tiene soluciónreal X no nula. Se sigue que existe un vector ot, no nulo, en V tal que Ta = ca. I

Varios comentarios se pueden hacer respecto a la demostración.(1) La demostración de la existencia de una X no nula tal que AX = cX

no tiene nada que ver con el hecho de que A fuese hermítiea (autoadjunta)_Ello muestra que cualquier operador lineal sobre un espacio vectorial comple-jo de dimensión finita tiene un vector propio. En el caso de un espacio productointerno real, el ser A autoadjunta se usa fundamentalmente para ver que cadavalor propio de A es real y luego que se puede hallar una X apropiada con ele-mentos reales.

(2) El razonamiento muestra que el polinomio característico de una matrizautoadjunta tiene coeficientes reales a pesar de que la matriz puede no tenerelementos reales.

(3) La suposición de que V es de dimensión finita es necesaria para el teore-ma; un operador autoadjunto en un espacio producto interno de dimen-sión infinita puede no tener un valor propio.

Ejemplo 29. Sea V el espacio vectorial de las funciones continuas de valorcomplejo (o real) en el intervalo unitario, 0 S t 5 1, con el producto intemo

(fio = (,`fu›ãö di.El operador «multiplicación por t», (Tf)(t) = tf(t), es autoadjunto. Supon-gamos que Tƒ = cf. Entonces

(l-0)f(t)=0› Oítšly así f(t) = 0 para t qé c. Como f es continuo, f = 0. Luego T tiene valores(vectores) propios.

Teorema 17 Sea V un espacio producto interno de dimensión finita y seaT un operador lineal sobre V. Supóngase que W es un subespacio de V que es in-variante por T. Entonces el complemento ortogonal de W es invariante por T*_

Demostración. Recuérdese que el que W sea invariante por T no quieredecir que todo vector de W quede fijo por T; quiere decir que si ot está en Wentonces Ta está en W. Sea B en W*_ Debemos mostrar que T*,B está en Wi,esto es, que (a|T*/i) = 0 para todo ot en W. Si oz está en W, entonces Ta estáen W, de modo que (Ta|B) = 0. Pero (Ta|B) = (a|T*B)_ I

Teorema 18, Sea V un espacio producto interno de dimensión finita y seaT un operador lineal autoadjunto sobre V. Entonces existe una base ortonormalde V en la que cada rector es un vector propio de T.

Demostración Se supone que dim V > 0. Por el Teorema 16, T tiene unvector propio oz. Sea ot, = ot/||a|| de modo que oc, es también un vector propiopara T y ||oz¡|| = l. Si dim V = 1, se habrá concluido con la demostración.

Page 330: ASESORES TECNICOS

I'._\pm'm.r con prmlurm mtv: mi JH

Se procede ahora por inducción sobre la dimensión de V. Supóngase que elteorema es válido para espacios producto interno de dimensión menor quedim V. Sea W el espacio unidimensional generado por el vector 01,. La afir-mación de que oq es un vector propio para T quiere decir simplemente que W esinvariante por T. Por el Teorema 17, el complemento ortogonal W* es inva-riante por T* = T_ Ahora W, con el producto interno de V, es un espacio pro-ducto interno de dimensión menor en uno que la dimensión de W. Sea U eloperador lineal inducido en W* por T, esto es, la restricción de T a Wi. Enton-ces U es autoadjunto y, por la hipótesis inductiva, W tiene una base ortonormal¦oz2, _ _ _ , oc,,} que consiste en vectores propios de U. Ahora cada uno de estosvectores es también un vector propio de T, y como V = W EB Wi, conclui-mos que {a¡, ..., a,,} es la deseada base para V. I

Corolario. Sea A la matriz n x -n hermítiea (autoadjunta). Entonces existeuna matriz unitaria P tal que P" ¡AP es diagonal (A es unitariamente equivalentea una matriz diagonal ). Si A es una matriz simétrica real, hay una matriz ortogo-nal real P tal que P" ¡AP es diagonal.

__ n›<1Demostración. Sea V- C , con el producto interno eanónico, y sea T eloperador lineal sobre V representado por A en la base ordenada canónìca.(`omo A == A*, tenemos que T = T*_ Sea (B = {oz,, _ _ _ , a,,} una base orde-iiada ortonormal de V, tal que Tot, = c,-oz,-, j = 1, ___, n. Si D = [T]¿B, en-tonces D es la matriz diagonal con elementos cl, _ _ _ , c,, en esa diagonal. SeaI' la matriz con vectores columna oq, _ _ _ , oc,,_ Entonces D = P" 'AP_

En el caso de que cada elemento de A sea real, se puede tomar V como R",con el producto intemo eanónico, y se repite el razonamiento. En este casoP será una matriz unitaria con elementos reales, es decir, una matriz ortogo-nal real. I

Combinando el Teorema 18 con los comentarios que hicimos al comienzode esta sección, se tiene lo siguiente: si V es un espacio producto intemo real dedimensión finita y T es un operador lineal sobre V, entonces V tiene una baseortonormal de vectores propios para T si, y solo si, T es autoadjunto. A estoequivale decir: si A es una matriz n x n con elementos reales, existe una matrizortogonal real P tal que P'AP es diagonal si, y solo si, A = A'. No existe unresultado semejante para matrices simétricas complejas. En otras palabras, paramatrices complejas hay una diferencia significativa entre las condiciones A =A' y A = A*_

Habiendo visto el caso de los autoadjuntos, volvemos ahora al estudio delos operadores normales en general. Se demostrará el análogo al Teorema 18,para operadores normales, en el caso complejo. Hay una razón para esta res-tricción. Un operador normal sobre un espacio producto interno real puedeno tener un vector propio no nulo. Esto es cierto, por ejemplo. para todas lasrotaciones en R2, a excepción de dos.

Teorema 19. Sean V un espacio producto interno de dimensión finita y T unoperador normal sobre V. Supóngase que ot es un vector de V. Entonces oz es un

Page 331: ASESORES TECNICOS

31.? .-I l_i:i'l›ru limwl

vector propio de T con valor propio c si, y solo si, ot es un vector propio para T-*con valor propio E.

Demostración. Supóngase que U sea un operador normal en V. Entonces|| Ua|| = ||U*a||. En efecto, usando la condición de que UU* = U*U se tiene que

||Ua||2 = (Ua|Ua) = (a|U*Ua)= (a|UU*a) = (U*a|U*a) = ||U*a||2_

Si c es un escalar cualquiera, el operador U = T - cl es normal. En efecto,(T - cI)* = T* - El, con lo que es fácil de verificar que UU* = U*U. Así,

|I(T - cI)all = I|(T* - ¢I)alIde modo que (T- cI)a = 0 si, y solo si, (T* - êI)a = 0. I

Definición. Una matriz compleja n x n, A, se llama nomial si AA* = A*A.

No es muy fácil entender lo que significa normal en matrices u operado-res; sin embargo, con objeto de desarrollar un sentido para tal concepto, ellector podría encontrar de utilidad saber que una matriz triangular es normalsi, y solo si, es diagonal.

Teorema 20. Sean V un espacio producto interno de dimensión finita, T unoperador lineal sobre V y G3 una base ortonormal de V. Supóngase que la matrizA de T en la base G3 es triangular superior. Entonces T es normal si, y solo si, Aes una matriz diagonal.

Demostración. Como G3 es una base ortogonal, A* es la matriz de T* en G3.Si A es diagonal, entonces AA* = A*A, y esto implica que TT* = T*T_ Recí-procamente, supóngase que T sea normal y sea G3 = {a,, _ _ _ , cx,,}_ Entonces,como A_es triangular superior, Tal = Anal. Por el Teorema 19 esto implicaque T*a¡ = Ãnal. Por otro lado

T*0¿1 = (A*)¡10f_¬-J

= Ã1¡aj..7

Por tanto, A1, = 0, para todo ¡` > l. En particular A1, = 0, y como A es trian-gular superior, se sigue que

Tag = 14.2202.

Así, T*ot2 = Ãzzaz y A 2 ,- = 0 para todo j qê 0. Continuando de esta manerase llega a demostrar que A es diagonal. |

Teorema 21, Sea V un espacio producto interno de dimensión finita y seaT un operador lineal sobre V. Entonces existe una base ortonormal de V en laque la matriz de T es triangular superior.

Page 332: ASESORES TECNICOS

I'\¡Im'm.\' run jmulmtn ntlrrmi _lI_l

lDt-nuis-tración. Sea n la dimensión de V. El teorema es cierto cuando n = 1,\ se procede por inducción en n, suponiendo que el resultado es cierto paraoperadores lineales en espacios producto intemo complejos de _dimensiónn I. Como V es un espacio producto intemo de dimensión finita, hay unsector unitario ot en V y un escalar c tales que

T*a = ca.

Sea W el complemento ortogonal del subespacio generado por ot y sea S la res-mceión de Ta W. Por el Teorema 17, Was invariante por T. Asi que S es un ope-rador lineal sobre W. Como W tiene dimensión n - 1, la hipótesis inductivaimplica la existencia de una base ortonormal {ot,, _ _ _ _ a,,_,} de W en la cualI.i matriz S es triangular superior; sea fz,, = ot. Entonces {ot,, _ _ _ _ cx,,} es una|›.ise ortonormal de V en la que la matriz de T es triangular superior. I

Este teorema implica el siguiente resultado para las matrices.

Corolario. Para toda matriz compleja n x n, A, existe una matriz unitariat' tal que U"i1AU es triangular superior.

Ahora, combinando el Teorema 21 con el Teorema 20, se tiene, sin más,cl siguiente análogo al Teorema 18 para operadores normales.

Teorema 22. Sean V un espacio producto interno complejo de dimensión/mira y T un operador normal sobre V. Entonces V tiene una base ortonormalque consiste en vectores propios de T.

También existe una interpretación matricial.

Corolario. Para toda matriz normal A existe una matriz unitaria P tal queI' ii ¡AP es una matriz diagonal.

lzjercicios

I. Para cada una de las siguientes matrices simétricas reales. A. hallar una matriz orto-vonal real P tal que P'AP sea diagonal.

1 1] 1 2] cos0 Sen 0][1 1' 2 1' seno -coso

2. ¿Es una matriz simétrica compleja autoadjunta? ¿Es normal?

123A=234

345

3. Para

Page 333: ASESORES TECNICOS

314 /l /gt-lira lineal

hay una matriz ortogonal real P tal que P 'AP = D sea diagonal. Hallar tal matriz dia-gonal D.

4. Sea V = C2, con el producto interno eanónico. Sea T el operador lineal sobre V re-presentado en la base canónìca por la matriz

1 iA " lt 1]'

Demostrar que T es normal y hallar una base ortogonal de V que consista en vectores pro-pios de T.

S. Dar un ejemplo de una matriz 2 x 2, A, tal que A2 sea normal, pero que A no lo sea.

6. Sea T un operador normal sobre un espacio producto interno complejo de dimensiónfinita. Demostrar que T es autoadjunto, positivo, o unitario según que todos los valorespropios de T sean reales, positivos o de valor absoluto igual a 1. (Usar el Teorema 22 parareducir el problema a uno similar respecto a matrices diagonales.)

7. Sea T un operador lineal sobre el espacio producto interno de dimensión finita V ysupóngase que T es positivo y unitario. Demostrar que T = I. '

8. Demostrar que T es normal si, y solo si, T = T, + iT¡, donde T, y T2 son operado-res autoadjuntos que conmutan.

9. Demostrar que una matriz simétrica real tiene una raiz cúbica simétrica; es decir, siA es simétrica real, existe una simétrica real B tal que B3 = A.

I0. Demostrar que toda matriz positiva es cuadrado de una matriz positiva.

ll. Demostrar que un operador normal y nilpotente es el operador cero.

12. Si T es un operador ngrmal, demostrar que los vectores propios de T, asociados adistintos valores propios, son ortogonales. ` '

13. Sea T un operador normal sobre un espacio producto interno complejo de dimensiónfinita. Demostrar que existe un polinomio _/, con coeficientes complejos, tal que T* = f(T).(Representar T por medio de una matriz diagonal y ver que debe ser f.)

I4. Si dos operadores normales conmutan, demostrar que su producto es normal.

Page 334: ASESORES TECNICOS

9; Operadores sobre espaciosproducto interno

9. I _ Introducción

La mayoría de los temas del Capítulo 8 se consideran fundamentales. Esla materia que todos deben saber. El presente capítulo es para estudiantes másavanzados o para el lector deseoso de ampliar sus conocimientos acerca deoperadores sobre espacios producto interno. Con la excepción del teoremadel eje principal, que esencialmente no es más que otra formulación del Teore-ma 1-8 sobre la diagonalización ortogonal de operadores autoadjuntos, y losotros resultados sobre formas de la Sección 9.2, el material que aquí se pre-senta es más complicado y generalmente implica mayor tecnicismo. Tambiénexigimos más del lector, como se hizo en la parte final de los Capítulos 5 y 7.Los razonamientos y demostraciones están escritos en estilo más condensadoy no se dan casi ejemplos para facilitar el camino; sin embargo, hemos pro-curado que el lector disponga de abundantes conjuntos de ejercicios.

Las tres primeras secciones se dedican a los resultados concernientes a for-mas en espacios producto interno y a la relación entre formas y operadoreslineales. La siguiente sección se ocupa de la teoría espectral, es decir, de lasconsecuencias de los Teoremas 18 y 22 del Capítulo 8 en lo que se refiere a ladiagonalización de operadores autoadjuntos y normales. En la sección finalproseguimos el estudio de los operadores normales tratando en particular elcaso real; al hacerlo se examina lo que dice el teorema de descomposición primadel Capítulo 6 respecto a los operadores normales.

315

Page 335: ASESORES TECNICOS

3 lo .-1 /gt-lira Iim'al

9.2. Formas sobre espacios producto interno

Si T es un operador lineal sobre un espacio producto interno de dimensiónfinita V, la función f definida sobre V x V por

.l-(ai =

puede considerarse como un tipo de sustituto para T. Muchas cuestiones res-pecto de T equivalentes a cuestiones respecto de f. En efecto, es fácil ver queƒ determina a T. Pues si G3 = {a1, _ _ _ , a,,} es una base ortonormal de V, en-tonces los elementos de la matriz de T en G3 vienen dados por

Ai* = ƒ(a¡¢› af)-

Es importante entender por qué ƒ determina a T desde un punto de vista másabstracto. Las propiedades características ,de ƒ están descritas en la siguientedefinición.

Definición. Una forma (sesquilineal) sobre un espacio vectorial real o com-plejo V es una función f sobre V x V con valores en el cuerpo de los escalarestal que _ '-Ñ _ _

ta) f(w, + If. 1') = ffla. ri + ftli r)(b) f(0¢_ CB + r) = C/la. B) + fta_ 1')

para todo oc, B, ¬,' de V y todos los escalares c.

Asi, una forma sesquilineal es una función sobre V x V tal que _/(ot, B)es una función lineal de ot para B fijo y una función lineal-conjugada de B paracx fijo. En el caso real, ƒ(ot, B) es una función lineal de cada argumento; o seaque ƒ es una fonna bilineal. En el caso complejo, la forma sesquilineal ƒ noes bilineal, a menos que ƒ = 0. En el resto de este capitulo se omitirá el adjetivo«sesquilineal››, salvo que sea importante tenerlo en cuenta.

Si ƒ y g son formas sobre V y c es un escalar, es fácil probar que cf + g estambién una forma. De esto se concluye que toda combinación lineal de formassobre V es a su vez una forma. Así, el conjunto de todas las formas sobre Ves un subespacio del espacio vectorial de las funciones escalares sobre V x V.

Teorema 1. Sean V un espacio producto interno de dimensión finita y ƒuna forma sobre V. Entonces existe un operador lineal único sobre V tal que

f(<1, B) = (T0fi|lï)

para cualesquiera ot, B de V, y la aplicación f-› T es un isomorƒismo del espaciode las formas sobre L(V, V).

Demostración. Fijado el vector B en V, entonces ot-› ƒta, B) es una fun-ción lineal sobre V. Por el Teorema 6 existe un vector único B' de V tal quef(a, B) = (a|B') para todo ot. Se define una función U de Ven V haciendo UB = B'.Entonces

Page 336: ASESORES TECNICOS

Um-nulorc.s sobre cijiiii-tos ¡mnlurto interno .U7

f(<1|0B + 1) = (<1|U(0B + 1))= ëf(a› `l".l-(ai 7)

= ïf(<1lUfi) + (<1lU'Y)= (<1lCUfi + U1)

para cualesquiera ot, B, y en V y todos los escalares c. Así, U es un operadorlineal sobre V, y T = U* es un operador tal que ƒ(a, B) = (Tcx|B) para todo1 y B. Si tenemos también que ƒ(a_ B) = (T'u|B), entonces

(Ta - T'a|B) = O

para todo cx y B; con lo que Ta = T'a para todo ot. Así, para cada forma ƒ existeun único operador lineal Tf tal que

f(a, B) = (Tfalfi)para todo ot, B de V. Si ƒ y g son formas y c un escalar, entonces

(Cf `l' 9)(0f›5) = (Tcf+o0fl›5)= cf-(at + g(a1

= 0(Tf01lB) 'Í' (Ta0fl5)= «CTI `l' To)alB)

para todo ot y B de V. Por tanto,

Tcƒ+a : CT! “l” T0

y f -› Tf es una aplicación lineal. Para todo T en L( V, V) la ecuación

f(0f›B) = (Talfi)define una forma tal que T¡ = T, y Tf = 0 si, y solo si, f = 0. Asi, ƒ-› T¡ esun isomorfismo. I

Corolario. La ecuacióntflsl = ff (TfT¿'ì)

define un producto interno sobre el espacio de las formas con la propiedad de que

(flgl = Ec f(0¿t¢› 0l¡i8(0lk› 05;)

para toda base ortonormal {a,, _ _ _ , ot,,}_ de V.

Demostración. Se sigue fácilmente del Ejemplo 3 del Capitulo 8 que (T, U)-›tr (TU*) es un producto interno sobre L(V, V). Como ƒ-› Tƒ es un isomor-fismo, el Ejemplo 6 del Capítulo 8 muestra que

(fly) = tr (TfTã)

es un producto interno. Supongamos ahora que A y B son las matrices de Tf yT9 en la base ortonormal (B -_- {ot¡, _ _ _, a,,}_ Entonces

Ark = (Tfaklaf) = f(w=› Off)

Page 337: ASESORES TECNICOS

J 18 /Ilgt-l›ra lim-ol

y B,-R =-(Tga,,|a,-) = g(a,,, or,-)_ Como AB* es la matriz de T¡T,,* en la base G3,se .sigue que

Íflgl = tf (AB*) = ¡H Aiuãju- Í

,_ Definición. 'Si f es una forma y (B == {oz¡, _ _ _, ot,,} una ¿gases ordenada ar-bitraria de V, la matriz A de elementos

_ Ajh' -= ƒ(ak› dj)

se llama matriz de ƒ en la base ordenada (B.Cuando G3 es una base ortonormal, la matriz de ƒ en (Bes también la matriz

de la transformación lineal Tf, pero 'en general éste no es el caso.Si A es la matriz de f en la base ordenada G3 = {a¡, _ _ _ , oc,,}__.se_si_g_u_e que

(9-1) f(É z'°"› Él 2/fm) T šllfflffl- ' 'H n

para todos los escalares "x, e_ y, (1 5 r, s 5 n). O sea que la matriz A tiene lapropiedad de que. . =

donde X e Y son las respectivas matrices de coordenadas de- a y Ben la baseordenada (B. ` ._ - '

La matriz de f en otra base

ai = _2>lP-_-«.~_ (1 si s n)está dada por la ecuación(9-2) A' =` P*AP.

En efecto, , IAir = f(0fk› ai)

= Pskan 2 Prjar)

= 2 ÉAr:Pak¶',I

= (P*A P) ,-1..

Como para las matrices unitarias es P* = P`1, se sigue-de (9-2-)'que losresultados que conciemen a la equivalencia unitaria pueden aplicarse al estu-dio de las formas.

Teorema 2. Sea ƒ una forma en un espacio producto interno complejo dedimensión finita. Entonces existe una base ortonormal de V en la que la matrizde f es triangular superior.

Demostración. Sea T el operador lineal sobre V tal que ƒ(a, B) = (Tot| B)para todo ot y B. Por el Teorema 21, existe una base ortonormal {a1, _ _ _ _ a,,}en que la matriz de T es triangular superior. Luego,

Page 338: ASESORES TECNICOS

()¡u'rudort'.s solm' c_\'pm'it›.\' priulueto mlvrmi JIU

f(0fk› af) = (Taklaf) = 0si j > k. I

Definición. Una forma f sobre un espacio vectorial real, o complejo, V sellama hemiitica si

ƒ(a› = .,f(B› al

para todo ot y B en V.

Si T es un operador lineal sobre un espacio producto intemo de dimensiónnnita V y f es la forma

ƒ-(ar =

entonces _-ƒ(B, ot) == (a|TB) == (T*a|B); así que_f es hermítiea si, y solo si, T esautoadjunto.

Cuando ƒ es hermítiea, ƒ(a, ot) es real para todo ot, y en los espacios com-plejos esta propiedad caracteriza a las formas hermíticas.

Teorema 3. Sean V un espacio vectorial complejo y f una forma sobre Vtal que f(ot, ot) sea real para todo ot. Entonces f es hermítiea.

Demostración. Sean ot y B vectores de V. Se debe demostrar que ƒ(ot, B) =/(Ba). En efecto,

f(0f -lr 5, 01 + 5) = f(0f› 5) -l' f(0f› 5) +f(t5, Of) +f(B, 5)-

Como f(ot + B, ot + B), ƒ(a, ot) y f(B, B) son reales, el número f(oz, B) + f(B, ot)es real. Por el mismo razonamiento, con ot + iB en vez de ot + B, vemos que-if(a, B) + if(B, cx) es real. Habiendo concluido que esos dos números sonreales, se les hace iguales a sus complejos eonjugados y obtenemos

f(0f› B)+f(fi,<1)=f(0f› 3) +f(fi› G)_í.f(a› + a) = i.f(a› '_ a)

Si multiplicamos la segunda ecuación por i y se suma a la primera ecuación,tenemos

2f(a, '*) = 2f(t3, 0)- ICorolario. Sea T un operador lineal sobre un espacio producto interno com-

plejo de dimensión finita. Entonces T es autoadjunto si, y solo si, (Toda) es realpara todo ot de V.

Teorema 4 (teorema del eje principal). Para toda forma hermítiea f en unespacio producto interno de dimensión finita V, existe una base ortonormal deV en la que ƒ esta representada 1 or una matriz diagonal con elementos reales.

Demostración. Sea T el operador lineal tal que f(o_t, B) = (Tot| B) para todoot y B de V. Entonces, como ƒ(a, B) = f(B,l oz) y (TB, ct) = (a|Tli). se sigue que

(Talfi) = f(B, al = (UITB)

Page 339: ASESORES TECNICOS

J20 .-I /gr-lira lineal

para todo ot y B; luego 'l` = T*_ Por el Teorema 18 del Capitulo 8. existe unabase ortonormal de V formada por los vectores característicos para T. Supón-gase que {a1, oc,,} es una base ortonormal y que

_ Ta; = c,-a,-para 1 515 n. Entonces

f(Ofk› Off) = (TOfklOff) = ökivky por el Teorema 15 del Capítulo 8, todo c,, es real. I

Corolario. En las condiciones anteriores

f(2) XiO¡. ëyuak) = 0¡X¡§'¡-J J

Ejercicios

1. ¿Cuáles de las siguientes funciones ƒ' definidas para los vectores ot = (xl, xz) yB = (yl, yz) de C2 son formas (sesquilineales) sobre C2?

(H) f(Of›B) = 1-(b) f(Of› B) = ($1 _ Ú1)2 + 152%-(0) f(0f› B) = (11 + 171)” "' ($1 _ 1702-(d) f(0f› B) = QIIÚ2 _ ï52Z/1-

2. Sea f la forma sobre R2 definida por

f((I1› yr), (1'32› 112)) = 1111/1 + $21/2~

Hallar la matriz de f en cada una de las siguientes bases:

{(1.0),(0,1)}, {(1, -1),(1.1)}. {(1, 2), (3, 4))-

f*=l_ì- ély sea g la forma (en el espacio de las matrices complejas 2 x I) definida por g(X, Y) =l'*AX_ ¿Es g un producto interior?

3. Sea

4. Sea V un espacio vectorial complejo y sea f una forma (sesquilineal) simletrica sobre V:f(Of- If) = ftlf- Ol- ¿Qué ¢S f75. Sea ƒ la forma sobre R2 dada por

f((11, 112), (ii/1, ii/2)) = Ir?/1 + 49122/2 + 2931?/2 + 2122/1-

Hallar una base ordenada en la que ƒ esté representada por una matriz diagonal.

6. La forma f se llama no degenerada la la izquierda) si 0 es el único vector ot tal quefta, B) = 0 para todo B. Sea f una forma sobre un espacio producto interno V. Demostrarquef es no degenerada si. y solo si, el operador lineal asociado T¡ (Teorema l ) es no singular.

7. Sea _/' una forma en un espacio vectorial de dimensión finita V. Se hace referencia ala definición de la no degeneración a la izquierda dada en el Ejercicio 6. Definir la no de-

Page 340: ASESORES TECNICOS

U¡n'rmlorr.\ sobre es-¡imtm ¡nmlurto imrrmi .LV

,veneración a la derecha y demostrar que la forma ƒ es no degenerada a la izquierda si, y solosi. es no degenerada a la derecha.

8. Sea f una forma no degenerada (Ejercicios 6 y 7) en un espacio V de dimensión finita.Sea L un funcional lineal sobre V. Demostrar que existe un vector B, y solo uno. en V talque Lta) = ƒ(a, B) para todo ot.

9. Sea _/' una forma no degenerada en un espacio V de dimensión finita. Mostrar que cadaoperador lineal S tiene un «adjunto respecto de f». es decir, un operador S' tal que/(Sa, B) = ƒ`(a, S'B) para todo ot, B.

9.3_ Formas positivas

En esta sección se examinarán formas (sesquilineales) no negativas y susrelaciones con un producto interno dado sobre el espacio vectorial principal.

Definiciones. Una forma f en un espacio vectorial real o complejo V es nonegativa si es hermítiea y f(oz, ot) 2 0 para todo ot en V. La forma f es positivasi f es hermítiea y ƒ(oz, ot) > 0 para todo ot gl: 0.

Una forma positiva en V es simplemente un producto interno sobre V. Unaforma no negativa satisface todas las propiedades de un producto interno,con la excepción de que hay vectores no nulos que pueden ser «ortogonales››consigo mismos.

Sea f una forma en un espacio V de dimensión finita. Sea G3 = {oc1, _ _ _ , oc,,}una base ordenada de V y sea A la matriz de ƒ en la base (B, esto es, A ,-,, = f(oz,,, oz,-)_Si ot = x¡ot¡ + ° H + x,,oc,,, entonces

fo, ai = f<z =»_«_›, § wi)J

= tÍk.f(Ofi› Ofk)

gmHMal-[4al-bd

H

= Akjxjlïk.

\

Así, pues, se ve que cf es no negativa si, y solo si,

A = A*Y(9-3) Z Z Ak,-x,-2,, 2 0 para todos los escalares xl, _ , x,,_

j lt

Para que f sea positiva, la desigualdad (9-3) debe ser estricta para todo(xl, _ _ _ _ x,,) 51: 0. Las condiciones deducidas dicen que f es una forma positivaen V si, y solo si, la función

g(X, Y) = Y*AX

es una forma positiva en el espacio de las matrices columnas sobre el cuerpoescalar.

Page 341: ASESORES TECNICOS

122 A l_t¦'t'lIru lt'm'ul

Teorema 5. Sea F el cuerpo de los números reales o el cuerpo de los nú-meros complejos. Sea A una matriz n x n sobre F_ La función g definida por

(9-4) g(X, Y) = Y*AX

es una forma positiva en el espacio F"” 1 si, y solo si, existe una matriz inversi-ble P, con elementos en F, tal que A = P*P_

Demostración. Para cualquier matriz n x n, A, la función g de (9-4) esuna forma en el espacio de las matrices columnas. Se demostrará que g es po-sitiva si, y solo si, A = P*P_ Primeramente, supóngase que A = P*P_ Enton-ces g es hermítiea y

g(X, X) = X*P*PX= (PX)*PX2 0.

Si P es inversible y X qé 0, entonces (PX)*PX > 0. Ahora supóngase que ges una forma positiva en el espacio de las matrices columnas. Entonces es unproducto interno y, por tanto, existen matrices columnas QI, _ _ _ , Q,, tales que

¿ik = 9(Qf› Qi)= QÉ`AQ¡-

Pero esto dice, justamente, que si Q es la matriz con columnas Q,, __ _, Q",entonces Q*AQ = I. Como {Q¡, ___, Q,,} es una base, Q es inversible. ConP = Q” se tiene A = P*P_ I

En la práctica no es tan fácil verificar si una matriz dada, A, satisface elcriterio de positividad que se ha dado hasta ahora. Una consecuencia del últimoteorema es que si g es positiva, entonces det A > 0, ya que det A = det (P*P) =det P* det P = |det P|2. El que det A > 0 no quiere decir que sea suficientepara garantizar que g es positiva; sin embargo, hay n determinantes asociadoscon A que tienen esta propiedad: si A = A* y si cada uno de estos determinanteses positivo, entonces g es una forma positiva.

Definición. Sea A una matriz n x n sobre el cuerpo F_ Los menores principalesde A son los escalares A,,(A) definidos por

Ari Ark

A,,(A)=da 1 : _ 15k-sn.Ari Ara

Lema. Sea A una matriz inversible n x n con elementos en un cuerpo F.Las dos afirmaciones siguientes son equivalentes.

(a) Existe una matriz triangular superior P con PM, = 1 (1 S k S n) talque la matriz B = AP es triangular inferior.

(b) Los menores principales de A son todos distintos de 0.

Page 342: ASESORES TECNICOS

Up¢'rmlor¢'.\' wllri' r.v¡Im'In.\ ¡›m¢lm'to intermi 323

Demostración. Sea P cualquier matriz n x n y hágase B = AP. Entonces

Bjk = E Ajrprk-

Si P es triangular superior y PM, = 1 para todo k, entonceslc-1E A¡,P¶k = Bjk _ Akk, IC > 1.

r=l

Ahora bien, B es triangular inferior siempre que B,-,, = 0 para j < k. Así, pues,B será triangular inferior si, y solo si,

1;-1(9-5) É Affpfk = *Am 1 S .Í S ¡C _ 1

"* agkgaCon lo que vemos que la afirmación (a) del lema es equivalente a la afirmaciónde que existen escalares P,,,, 1 5 r 5 k, 1 ;<_ k 5 n, que satisfacen (9-5) yP,,,,=l,l$kSn_

En (9-5), para todo k > 1 tenemos un sistema de k - 1 ecuaciones linealespara las incógnitas PM, PM, _ _ _ , P,,_ ,_,,. La matriz de coeficientes de ese sis-tema es

An ' ' ' Ara;-1

Ah-1 ° ' ' Ak-l,k-I

y su determinante es el menor principal A,,_,(A). Si cada A,,_¡(A) qè 0, el sis-tema (9-5) tiene soluciones únicas. Hemos demostrado que la afirmación (b)implica la afirmación (a) y que la matriz P es única.

Ahora supóngase que se verifica (a). Entonces, como se verá,A¡,(A) = A¡,(B)

=B11B22"°B¡¢¡¢, k=l,...,n.

Para verificar (9-6), sean A1, _ _ _ , A,, y B1, _ _ _ , B,, las columnas de A y B, res-pectivamente. Entonces

B1=/119-7 f-( ) Bfi_äPMM+A" r>1_

F

(9-6)

Se deja fijo k, 1 5 k 5 n. Por (9-7) se ve que la r-ésima columna de la matriz

Bu ' ' ' Bit

Bu ° ' ' But

se obtiene sumando a la r-ésima columna de

An Ao

Au ° ° ' Akk

Page 343: ASESORES TECNICOS

324 Á ljteltru litwul

una combinación lineal de sus otras columnas. Tales operaciones no alteranlos determinantes. Lo que demuestra (9-6), a excepción de la observación tri-vial de que por ser B triangular, A,,(B) = Bu, _ _ _ , B,,¡,_ Como A y P son in-versibles, B es inversible. Por tanto,

A(B)=B,1---B,,,,;-'$0

yasí A,,(A)qt=0,k=l,___,n_ I

Teorema 6. Sea f una forma en. un espacio vectorial V de dimensión finitay sea A la matriz de f en una base ordenada CB. Entonces f es una forma positivasi, y solo si, A = A* y los menores principales de A son todos positivos.

Demostración. Hagamos la mitad interesante del teorema. Supóngase queA = A* y que A,,(A) > 0, l 5 k 5 n. Por el lema existe una matriz triangularsuperior (única) P con PM, -_- 1 tal que B = AP es triangular inferior. La matrizP* es triangular inferior, con lo que P*'B = P*AP es también triangular in-ferior_ Como A es autoadjunta, la matriz D = P*AP es autoadjunta. Por elmismo razonamiento que llevó a (9-6),

AIÁD) = A|=(P*B)= ÁIÁB)= A,,.(A).

Como D es diagonal, sus menores principales son

A¡(D') = Du - - ° Du.

De A,,(D) > 0-, 1 5 k 1; n, se obtiene que DM, > 0 para todo k.Si A es la matriz de la forma..ƒ en la base ordenada (B = {a,, _ _ _ , a,,}, en-

tonces D ¬-= P*AP es la matriz de f en la base {ot-1, _ _ _, aj,} definida porfl.

Ofi = Z Pirat-1`=l_

Véase (9-2'). Como D es diagonal-'con elementos positivos en su diagonal, esobvio que -

X*DX>0, X;-60de lo que se sigue que f es una forma positiva.

Ahora supóngase que f es una forma positiva. Se sabe que A = A*_ ¿Cómose demuestra que A,,(A) > 0, 1 5 k 5 n? Sea V,, el subespacio generado poroil, _ _ _ , ah y sea 11, la restricción de f a VM x Vk. Evidentemente ¡Q es una formapositiva en V,, y, en la base {ot1, _ _ _, ot,,}, está representada por la matriz

Air Ari

A., A._.__Como consecuencia del Teorema 5 se observó que la positividad de la formaimplica que el determinante de cualq_uier_mat'riz que la represente es positiva. I

Page 344: ASESORES TECNICOS

Up:-rmlort-s sohn- t-ipm tm ¡umlurm um-rno 325

Quedan algunos comentarios por hacer para completar el estudio de larelación entre formas positivas y matrices. ¿Qué es lo que caracteriza las ma-trices que representan a las formas positivas? Si f es una forma en un espaciovectorial complejo y A es la matriz de f en cierta base ordenada, entonces fserá positiva si, y solo si, A = A* y

(9-8) X*AX > 0, para todo X =;é 0 complejo

Se sigue del Teorema 3 que la condición A = A* es redundante, es decir, que(9-8) implica A = A*_ Por otro lado, si se tiene un espacio vectorial real. la forma/` será positiva si, y solo si, A = A* y

(9-9) X'AX > 0, para todo X 51: 0 real.

Hay que recalcar que si una matriz real A satisface (9-9) no se desprende deeso que A = A'_ Lo que sí es cierto es que si se cumplen A = A' y (9-9), enton-ces también se verifica (9-8). Y es porque

(X + r1Y)*A (X + «;Y) = (Xf - tYf)A(X + ty)= Xfxx + WAY + t[X¢AY - ya-rx]

y si A = A', entonces T'AX = X'A Y.Si A es una matriz n x n de elementos complejos y si A satisface (9-9), se

dirá que A es una matriz positiva. Los comentarios que acabamos de hacerpueden resumirse diciendo: en los casos real o complejo, una forma f es posi-tiva si, y solo si, su matriz en cierta base (de hecho, en toda) ordenada es unamatriz positiva.

Supóngase ahora que V es un espacio producto interno de dimensión finita.Sea f una forma no negativa en V. Existe un único operador autoadjunto Tsobre V tal que

(9-10) f(Of› B) = (TOflfi)-

y T tiene, además, la propiedad de que (Tot|ot) 2 0._

¬

Definición. Un operador lineal T sobre un espacio producto interno de di-mensión finita V es no negativo si T = T* _v (Tala) 2 0 para todo ot de V. Unoperador lineal es positivo si T = T* y (Toda) > 0 para todo at 9€ 0.

Si V es un espacio vectorial (real o complejo) de dimensión finita, y si (- | - ) esun producto interno sobre V, hay una clase asociada de operadores linealespositivos sobre V. Mediante (9-10) existe una correspondencia biunívoca entreesta clase de operadores positivos y la colección de todas las formas positivasen V. Se usarán los ejercicios de esta sección para destacar la relación entreoperadores positivos, formas positivas y matrices positivas. El siguiente resu-men puede ser de utilidad.

Si A es una matriz n x n sobre el cuerpo de los números complejos. lassiguientes afirmaciones son equivalentes.

(1) A es positiva, es decir, Z Z A,,,-xjxk > 0 siempre que x,, _ _ _, x,, seanj k

números complejos, no todos 0.\

Page 345: ASESORES TECNICOS

326 A lgehro lineal

(2) (X| Y) = Y*A Y es un producto interno en el espacio de las matri-ces complejas n ›< 1.

(3) Respecto al producto intemo eanónico (X Y) = Y*X de matricesn x l, el operador lineal X -› AX es positivo.

(4) A = P*P para alguna matriz inversible n x n,'P, sobre C.(5) A == A*, y los menores principales de A son positivos.Si todo elemento de A es real, éstas equivalen a las siguientes:(6) A = A*, y )E Ah,-x,-x,, > 0 siempre que x1, _ _ _ , x,, sean números

Jreales no todos nulos.

(7) (XIY) = Y'AX es un producto interno sobre el espacio de las ma-trices n x 1 reales.

(8) Respecto al producto interno eanónico (X| Y) = Y'X, sobre las ma-trices reales n x l, el operador lineal X -› AX es positivo.

(9) Existe una matriz inversible n x n, P, con elementos reales tal queA = P'P.

Ejercicios

1. Sea V = C2. con el producto interno eanónico. ¿Para cuáles vectores oz de V hay unoperador lineal positivo T tal que -at = Te,'?2. Sea V = R2, con el producto interno eanónico. Si 0 es un número real, sea Tel ope-rador lincal «rotación t)››,_

T,,(_\-,_ xz) = tx, cos 0 - _\-2 sen 6, x, sen 0 + xz cos 0).

¿Para qué valores de 0 es T0 un operador positivo?

3. Sea V el espacio de las matrices n x I sobre C, con el producto interno (X | Y) == Y*GX(donde G es una matriz n x n tal que este sea un producto interno). Sean A una matrizn ›: n y T un operador lineal T(X) = AX. Hallar T*. Si Y es un elemento fijo de Y, hallarel elemento Z de V que determina el funcional lineal X -› Y*X. En otras palabras, hallarZ tal que Y*X = (X|Z) para todo X de V.

4. Sea V un espacio producto interno de dimensión finita. Si T y U son operadores linea-les positivos sobre V, demostrar que (T + U) es positivo. Dar un ejemplo que muestreque TU no tiene que ser positivo necesariamente.

5. Sea A =

(a) Demostrar que A es positiva.lb) Sea Vel espacio de las matrices reales 2 x l_ con el producto interno (X | Y) = Y'AX_

Hallar una base ortonormal de V aplicando el proceso de Gram-Schmidt a la base ¦X1, X2}definida por X - ri X - t°1~1 0 7 2 _ 1

(c) Hallar una matriz real inversible 2 x l. P. tal que A = P'P.6. ¿Cuáles de las siguientes matrices son positivas?

1 -1 1 1 1tt 21» t_±_1tt1› lg ; _I-*I-Ú íí *J ¦aÚI'Nll" F"'¦aÚI'Nll" ul"'›l"'

Page 346: ASESORES TECNICOS

Upertulori-s .wltrr t-_v¡uu'to.\ pmducto interno 327

7. Dar un ejemplo de una matriz n x n que tenga todos sus menores principales positi-vos, pero que no sea una matriz positiva.

8. ¿Define ((x,, x2)|(y,, y2)) = xƒ, + 2x,_)7, + 2x,,t72 + xl?, un producto interno so-hre C2?

9. Demostrar que todo elemento de la diagonal principal de una matriz positiva es po-›lliVO_

I0. Sea V un espacio producto interno de dimensión finita. Si T y U son operadores linea-les sobre V, se escribe T < U si U - T es un operador positivo. Demostrar lo siguiente:

(a) T < U y U < T es imposible.(b) Si T< U y U< S, entonces T< S.(c) Si T < U y 0 < S, no es necesariamente ST < SU.

II. Sean V un espacio producto interno de dimensión finita y E la proyección ortogonalde V sobre algún subespacio.

(a) Demostrar que, para cualquier número positivo c, el operador el + E es positivo.(b) Expresar por E un operador lineal autoadjunto T tal que T2 = I + E.

I2. Sea n un entero positivo y A la matriz n x n

1

1A=2

1213

1314

1n

__ _._1__n-l-1

1n n + 1 n + 2 2n - 1

Demostrar que A es positiva.

I3. Sea A una matriz n x n autoadjunta. Demostrar que existe un número real c tal quela matriz cl + A es positiva.

I4_ Demostrar que el producto de los operadores lineales positivos es positivo si, y solo si.conmutan.

I5_ Sean S y T operadores positivos. Demostrar que todo valor propio de ST es positivo.

9.4. Más sobre formas

Esta sección contiene dos resultados que dan información más detalladaacerca de formas (sesquilineales).

Teorema 7. Sean f una forma en un espacio vectorial real, o complejo,V y {<x,, _ _ _ , ot,} una base del subespacio W de V de dimensión finita. Sea M lamatriz r ›< r de elementos

Mjtt = flat» 05;)

Page 347: ASESORES TECNICOS

328 -I let lira lun al

y W' el conjunto de todos los vectores B de V tales que f(a B) = 0 para todo otde W. Entonces W' es un subespacio de V y W H W' = 0¡ st, y solo st, MA esinversible. Si este es el caso, V = W + W'

Demostración. Si B y :y son vectores de W' y c es un escalar, entonces paratodo ot en W

f(Of, CB + 1) = ï>f(Of, B) + f(Of, 1)=0_

Luego, W' es un subespacio de V.T T

Supóngase ahora que a = kxlxtar y que B = _El y,a, Emonçes,Í

Se sigue de esto que W H W' qé {0} si, y solo si, el sistema homogeneo

tiene una solución no trivial (y,, _ _ _, ,v,). Luego WH W = {0} si y solo sr,M* es inversible. Pero ser M* inversible es equivalente a ser M inversible

f(0f› B) = Ú¡M¡kIkt.¡¢

= É ?¡Mfl=)$t=-

fila,-M,-,_ = 0, 1 gkgf,_

Supóngase que M es inversible y seaA = (Mx)-1 = (M-1)#_

Defínase gi sobre V por la ecuación

Entonces

Luego toda gi es una función lineal sobre V. Asi, pues, se puede definir un ope-rador lineal E sobre V haciendo

Como

Q,-tm = Í›: A -›_f__t«›_,B)-1¡¢=l

9t(OB + 7) =' 2 -4fl=f(Or, CB + 'r)k.

= C § A,-tftat, tv + §A_››_f<«.._ 1)=- vs,-(B) + 91(1)-

EB = 9i(5)Of¡-

9¡(O››')

2=1

= É A¡t=f(Ofk› On)

= É A¡k(M*)±»

= 5,.,

Page 348: ASESORES TECNICOS

t)p¢'rudurr_r solm' i-.sjuutm ¡nmlurto intemo _ J29

se sigue que E(ot,,) = fz,, para l 3 n 5 r. Esto implica que Ea = rx para todo»x de W. Por tanto_ E aplica V sobre W y E2 = E. Si B es un vector arbitrariode V, entonces

.l-(am = ƒ (am gi(B)a.t`)

= (amai)

= Ä.t'¡ƒ(ah .l-(am a1`)°

(`omo A* = M- 1, se sigue que

ƒ(afI› = 2 (M_l)kiMin) .l-(akilr 1

= § ö¡¢flƒ(a¡›

= ft@-._ B)-lìsto implica f(a, EB) = f(a, B) para todo ot de W. Luego,

ƒ(a. B - EB) = 0para todo a de W y todo B de V. Asi, I - E aplica V en W'. La igualdad

B = EB + (I - E)Bmuestra que V = W + W'. Es de mencionar un último punto. Como WHW' = {0}, todo vector de V es suma única de un vector de W y un vector deW'_ Si B está en W' se sigue que EB = 0. Luego I - E aplica V sobre W'. I

La proyección E construida en la demostración puede caracterizarse de lasiguiente manera: EB = tx si, y solo si, tx está en W y B - tx pertenece a W'.Asi, E es independiente de la base de W utilizada en su construcción- LuegoE se puede tratar como la proyección de V sobre W que está determinada porla descomposición en suma directa

V = W ® W'.

Obsérvese que E es una proyección ortogonal si, y solo si, W' = Wi.

Teorema 8. Sean f una forma en un espacio vectorial real, o complejo, V yA la matriz de ƒ en la base ordenada {a,, _ _ _ , a,,} de V. Supóngase que los me-nores principales de A son todos distintos de 0- Entonces existe una única matriztriangular superior P con PM, = l (1 5 k 5 n) tal que

P*/ÍPes triangular superior.

Demostración. Como A,,(A*) = Ä,,_(/T) (1 5 k 5 n), los menores principa-les de A* son todos distintos de 0. Luego, por el lema utilizado en la demos-tración del Teorema 6, existe una matriz triangular superior P con PM, = 1

Page 349: ASESORES TECNICOS

J30 Algebra lineal

tal que A*P es triangular inferior. Por tanto, P*A = (A*P)* es triangular su-perior. Como el producto de las matrices triangulares superiores es tambiéntriangular superior, se sigue que P*AP es triangular superior. Esto muestrala existencia, pero no la unicidad de P. Sin embargo, hay otro razonamiento,más geométrico, que puede usarse para demostrar la existencia y unicidad de P.

Sean W, el subespacio generado por fz,, _ _ _ , ot, y W; el conjunto de todoslos B de V tales que f(ot, B) = 0 para todo ot de W,. Como A,,(A) =/= 0, la ma-triz k x k, M, de elementos

Mii = f(Ofƒ› Off) = Ao'

(1 5 i, j 5 k) es inversible. Por el Teorema 7

V = W., Q) Wi.

Sea E,, la proyección de V sobre W, determinada por esta descomposición, ysea E,, = 0. Sea

B; = ai. - E¿_¡a¡,, (1 É lc S n).

Entonces B, = ot, y E,,_,ot,, pertenece a W,.., para k > l. Asi, cuando k > l,existen escalares únicos P,-,, tales que

ti-1Ei;-rat; = _ 211 Pikaf-

1%

-Haciendo PM, = 1 y P,-,, = 0 para j > k, se tiene entonces una matriz n ›< ntriangular superior P con PM, = 1 y

1;fik = _E Pjttflj

1=l

para k = 1, ___, n. Supóngase que 1 5 i 5 k. Entonces B, está en W,. yW, C W,,_,_ Como B, pertenece a W,,_,, se sigue que f(B,, B,,) = 0. Sea B lamatriz de ƒ en la base ordenada {B,, B,,}_ Entonces

Bet = f(l9t, fitt)

con lo que BM = 0 cuando k > i. Asi B es triangular superior. Por otro lado,

B = P*AP.

Recíprocamente, supóngase que P es una matriz triangular superior conPM, = 1 tal que P*AP es triangular superior. Se hace

fi¡¢=2_:PJ`|¢a:'›1

Entonces {B,, _ _ _ , B,,} es evidentemente una base de W,. Supóngase que k > l.Entonces {B,, _ _ _, B,_,} es una base para W,,_,, y como f(B,-, B,,) = 0 cuandoi < k, se ve que B, es un vector de W,{_,_ La ecuación que define B, implica

lt;-I

fltt = "_ (21 Pjttúfƒ) + Bn-,=

Page 350: ASESORES TECNICOS

lìpt-rtuloriis xolirr r.I¡uu'lo.\- ¡irmlin-tu interno JJ]

R-IAhora bien, 2 P,,,a¡ pertenece a W,,_ , y B, está en W,{_,_ Por tanto_ P,,,, _ _ _ , P,,_ ,,,

¡=I= 'son los únicos escalares tales que

I:-1Eh-lab = _ E Pjkaj¡-1

con lo que P es la matriz construida anteriormente. I

9.5. Teoría espectral

En esta sección prosiguen las consecuencias de los Teoremas 18 y 22 delCapítulo 8 referentes a la diagonalización de operadores autoadjuntos y normales.

Teorema 9 (teorema espectral). Sea T un operador normal sobre un espacioproducto interno complejo de dimensión finita V o un operador autoadjunto sobreun espacio producto interno real de dimensión finita V. Sean c,, _ _ _ , c,, los valorespropios distintos de T. Sea el espacio propio asociado a c,- y E,- la proyecciónortogonal de W sobre Entonces es ortogonal a W, si iqè j, V es la sumadirecta de W,, _ _ _ , W,, y

T: CIEI + 2 2 ' + ckEk.

Demostración. Sea a un vector de W,-, B un vector de W, y supóngase quei qé j. Entonces c,-(a|B) = (Ta|B) == (a|T*B) = (a|ê,B). Luego (ej - c,)(a|B)=0y, como c,- - c, 9€ 0, se sigue que (a, B) = 0. Asi W, es ortogonal a W, si t ql: _j_Del hecho de que V tiene una base ortonormal de vectores propios tvéanseTeoremas 18 y 22, del Capitulo 8), se sigue que V = W, + -- - + W,. Si ot,-pertenece a V, (1 si 5 k) y ot, -¦-_ - -- + ak = 0, entonces

0 = (Offilç Off) = (Oftlflf)

= llO¢ll2para todo i, con lo que V es la suma directa de W,, __., W,,. Por tanto,E1+'_-+Ek=Iy

°°°+TE¡

=C1E1'l' 'l'CtiEi=- I

La descomposición (9-1 1) se llama descomposición espectral de T. Esta ter-minología proviene en parte de aplicaciones fisicas que han hecho que se de-lina el espectro de un operador lineal sobre un espacio vectorial de dimensiónfinita como el conjunto de valores propios para el operador. Es importanteobservar que las proyecciones ortogonales E,, _ _ _ , E, están asociadas canóni-camente con T; en realidad, son polinomios en T.

_ _ x - c-* _Corolano. St e¡ = Fl entonces E, = e,-(T) para 1 SJ S k.tan 1' _ -t

Page 351: ASESORES TECNICOS

332 A l;:¢'l›t'u limïtl

Demostración. Como E,E,- = 0 si i qé j, se sigue que

T2 = CiEr'l' 'l'6itE|=

y por un sencillo razonamiento inductivo que

T” = c'1'E1+ +c2E¡,

para todo entero n 2 0. Para un polinomio arbitrariof

f = E a¬.:t=", n=0

Se ÍICHC

fm = guar-bj-i 5° Ma-

= n=0 i=l C?-Ejk f

= 2 (E 0.15-')Ei¡=1 n=0

t= ,lil f(0¡)E¡-

Como e,-(cm) = 6,-,,,, se sigue que e,-(T) = E,-_ I

Por estar E,, _ _ _, E, asociados canónicamente con T y

I = El 'l' ° ' ' 'lr En

La familia de proyecciones {E,, _ _ _ , E,,} se llama descomposición de la identidaddefinida por T.

Cabe hacer un comentario respecto a la demostración del teorema espec-tral. Se derivó el teorema usando los Teoremas 18 y 22 del Capítulo 8 sobrela diagonalización de operadores autoadjuntos y normales. Hay otra demos-tración más algebraica, en la que debe demostrarse primero que el polinomiominimal de un operador normal es un producto de factores primos distintos.Luego se procede como en la demostración del teorema de la descomposiciónprima (Teorema 12, Capitulo 6). Daremos una demostración así en la siguien-te sección.

En diversas aplicaciones es necesario saber si se pueden calcular ciertasfunciones de operadores o matrices, v_gr_`, raíces cuadradas. Esto se puede hacermuy sencillamente para operadores normales diagonalizables.

Definición. Sea T un operador normal diagonalizable sobre un espacio pro-ducto interno de dimensión finita V y sea

ltT = 2 c,E,.11':

su resolución espectral. Supóngase que f es una función cuyo dominio incluve

Page 352: ASESORES TECNICOS

U¡n't'tnlt›t't'.\' .\'0lIH' mpm his [muÍm'l¢› t'Hlt't'm› .U3

ul espectro de 'I', que tenga valores en el cuerpo de los escalares. Entonces el ope-rador lineal f(T) está definido por la igualdad

.»o› an- šfmwa.|=l

Teorema 10. Sea T un operador normal diagonalizable con espectro S enun espacio producto interno de dimensión finita V. Supóngase que f es una funcióncuyo dominio contiene a S y que toma valores en el cuerpo de los escalares. Enton-ces f(T) es un operador normal diagonalizable de espectro f(S )_ Si U es una apli-cación unitaria de V sobre V' y T' = UTU”, entonces S es el espectro de T' y

f(T') = Uf(T)U7'Demostración. La normalidad de f(T) se desprende de un sencillo cálculo

a partir de (9-12) y de quef(T)* =

Además, es evidente que para todo ot en E,-( V)

f(T)Of = f(0¡)Of-Así, el conjunto f(S) de todos los f(c) con c en S está contenido en el espectrode f(T). Recíprocamente, supóngase que ot që 0 y que

f(T)a -=' ba.Entonces ot = E,-ot y

' fin«=zflna«J

= §f(C›')E›'O

= 2 t›E,~a.Luego 2

ll? (f(¢¡) _ b)E›'Ofll2 = lf(C¡) _ bl2llE›'Ofll2

= 0.Por tanto, f(c,-) = b o E¡ot = 0. Por hipótesis, ot qt: 0, asi que existe un índicei para el que E,ot qt: 0. Se sigue que f(c,) = b y por consiguiente que f(S) es elespectro de f(T). Supóngase, en efecto, que

f(S) = {b1› - - - _ bddonde bm =;é b,, si m qé n. Sea X", el conjunto de indices i tales que 1 5 i 5 ky ƒ(c,) = b,,,_ Sea Pm = Z E, la suma extendida a los índices i de X,,,_ Enton-

ces P,,, es la proyección ortogonal de V sobre el espacio de los vectores propiosque corresponden a los valores propios b,,, de f(T), y

no-=åpaues la descomposición espectral de f(T).

Page 353: ASESORES TECNICOS

334 Algebra ¡im-al

Supóngase ahora que U es una transformación unitaria de V sobre V' yque T' = UTU”. Entonces la igualdad

Ta=ca

vale si, y solo si,T'Ua = cUa.

Así que S es el espectro de T', y U aplica todo subespacio propio para T sobreel correspondiente subespacio para T'_ En efecto, por (9-12-), se tiene que

T' = ›_: ¢_-E9, E; = UE,-U-1J

es la descomposición espectral de T'_ Luego

f<T'› = ›;f<«_-›I»';-_= zf(C¡)UE¡U`l

= U (2f(Ct)E¡) U"

= Uf(T)U-*_ |Pensando en el análisis anterior, es importante tener presente que el es-

pectro del operador nonnal T es el conjunto

S= {C1,...,Ck}

de valores propios distintos. Cuando T está representado por una matriz dia-gonal en una base de vectores propios es necesario repetir cada valor c,- tantasveces como la dimensión del correspondiente espacio de vectores propios.Esta es la razón del cambio de notación en el siguiente resultado.

Corolario. Con las hipótesis del Teorema 10, supóngase que T está repre-sentado en la base ordenada CB = {ot,, _ _ _ , ot, por la matriz diagonal D de ele-mentos d,, _ _ _ , d,,. Entonces, en la `base CB, f(T) está representada por la matrizdiagonal f(D) de elementos f(d,), _ _ _ , f(d,,). Si CB' = {ot¶, _ _ _ , a,',} es otra baseordenada cualquiera y P es la matri: tal que

“É = P P-'ta-'entonces P' 1f(D)P es la matri: de f(T) en la base (B'.

Demostración. Para cada índice i existe un único j tal que 1 Sj S k,ot, pertenece a E¡(V) y d, = c_¡_ Luego _/`(T)ot, = f(d,)a,, para todo i, y

f(T)Ofi' = 2 P-'ff(T)Off

= diptjat

= 2 (DP)-'›'Of='

= Z (DPMP Pišilai

= 23 (P_1Dl))k¡a¡2. '

Page 354: ASESORES TECNICOS

()¡›crmlnn'.s' .mlm' t'.\¡uu-tm ¡mulurtu interno .U5

Se sigue de este resultado que pueden formarse ciertas funciones de unamatriz normal. Pues supóngase que A es una matriz normal. Entonces existeuna matriz inversible P, en realidad una matriz unitaria P, tal que PAP_' esdiagonal, sea D con elementos dl, ..., d,,. Sea f una función compleja quese pueda aplicar a dl, . _ . , d,, y sea f(D) la matriz diagonal con elementosf(d,), _ . . , f(d,,). Entonces P"1f(D)P es independiente de D y es una funciónde Á en el siguiente sentido: Si Q es otra matriz inversible tal que QAQ" seauna matriz diagonal D', entonces f puede aplicarse a los elementos de la dia-gonal de D', y

P“*f(D)P = Q_'f(D')Q-Definición. En las condiciones anteriores, f(A) se define como P ` 'f(D )P.

La matriz f(A) puede ser también caracterizada de un modo distinto. Al ha-cerlo se enuncian sin demostración algunos de los resultados sobre matricesnormales que se obtienen al formular los teoremas con matrices análogos delos teoremas anteriores.

Teorema ll. Sean A una matriz normal y cl, . . . , c,, las distintas raícescomplejas' de det (xl - A). Sea

x - c.ei 1- n '”'i"`_¿

Hi Ci _ C1

y E,- = e¡(A) (1 _<_ i 5 k). Entonces E¡E¡ = 0 cuando i.qt= j, Ef = E¡, E¡* = E,-, y

I=E, +"-+E,,.

Si f es una función compleja cuyo dominio fncluye a cl, . . . , c,,, entonces

f(A) = f(f'i)E1 + ' " + f(f'›.)Et;en particular, A = c¡E, -+ - ~ ' -¦- c,¢E¡.

Recordemos que un operador en un espacio producto interior V es no ne-gativo si T es autoadjunto y (Toda) 2 0 para todo oz de V.

Teorema 12. Sea T un operador diagonalizable normal sobre un espacioproducto interno de dimensión finita V. Entonces T es autoadjunto, no negativo.o unitario, según que cada valor característico de T sea real, *no negativo, o devalor absoluto l.

Demostración. Supóngase que T tenga descomposición espectral T =c,E1.+ ~' ' + c,,E,,, entonces T* = (HE, + - - - + ê,,E,,. Decir que T es auto-adjunto es decir que T = T*, o

(C1 _ ¡Í1)E1 + ° ' ' + (Ok _ ë¡¢)E¡¢ = 0.

Valiéndose de que E,-Ej = 0 para i =;é j y de que ningún EJ- es el operador cero,

Page 355: ASESORES TECNICOS

336 .4 lg:-l›ru lim-al

se ve que T es autoadjunto si, y solo si, c¡ = 6,-, .Í = 1, _ . . , k. Para distinguirlos operadores normales que son no negativos, obsérvese que

lc lc(Tap) = ( 'xp-1»',a|_2l1¢,a).Í = Í- :

= Cj(IfjQ|E¿G)`¡ 1

=' E 0f||E›fl|l”-

Hemos usado el hecho de que (EJ-a|E¡a) = 0 para i qe j. De esto resulta quela condición (Toc|a) 2 0 se satisface si, y solo si, c¡ 2 0 para todo j. Para dis-tinguir los operadores unitarios obsérvese que

TT* = C1C1E1 + ' ' ° + CkCkEk

= |C1|2E1 + ' ' ° + |C|¢|2E¡¢-

Si-TT*'= I', entonces I'= |c,|2E¡ + -~ - -¦- |c,,-|2E,,, y operando con Ej,

Ef = |0¡|2E¡-

Como EJ: qé 0, se tiene que |c¡|2 = 1, o |c¡| = 1. Recíprocamente, si |c¡|2 = 1para cada j, es evidente que TT* = I. I

Es importante hacer notar que éste es un teorema sobre operadores norma-les. Si T es un operador lineal general sobre V, que tiene valores propios reales,no se sigue que T sea autoadjunto. El teorema dice que si T tiene valores propiosreales y si T es diagonalizable y normal, entonces T es autoadjunto. Un teoremade este tipo sirve para reforzar la analogía entre la operación de adjunción yel proceso de formar el conjugado de un número complejo. Un número com-plejo z es real o de valor absoluto 1 según que z = E, o zã = l. Un operadorT es autoadjunto o unitario según que T = T* o TT* = I.

Se demostrarán ahora dos teoremas análogos de las dos afirmaciones si-guientes:

(1) Todo número no negativo tiene una única raíz cuadrada no negativa.(2) Todo número complejo se puede expresar en la forma ru, con r no

negativo y |u| = 1. Esta es la descomposición polar z = rei” de los númeroscomplejos.

Teorema 13. Sean V un espacio producto interno de dimensión finita y T unoperador no negativo sobre V. Entonces T tiene una única raiz cuadrada no nega-tiva. esto es, existe un operador no negativo N, y solo uno, de V tal que N2 = T.

Demostración. Sea T = c,E, + ~ - ' + c,,E,, la descomposición espectralde T. Por el Teorema 12. todo c¡ 2 0. Si c es cualquier número real no negativo,sea `/c la raíz cuadrada no negativa de c. Entonces, conforme al Teorema lly a (9-12), N = \/T es un operador diagonalizable normal bien definido sobreV. Es no negativo por el Teorema 12 y, por un cálculo obvio, N2 = T.

Page 356: ASESORES TECNICOS

Opcrruluri-.r .wlnc c's¡›m'tu.\ prmlurtu interno . 337

Ahora sea P un operador no negativo sobre V tal que P2 = T. Sea demos-trar que N = P. Sea

P=d1Fi+ +dfFf

la descomposición espectral de P. Entonces d,- 2 0 para todo j, pues P es nonegativo. De P2 = T se tiene

°'° +dgFf.

Ahora Fl, . _ . , F, cumple las condiciones 1 = F, + - - - + E,, F¡F,- = 0 parai qé j, y ningún F¡ es 0. Los números df, . . . , df son distintos, ya que númerosno negativos distintos tienen raíces cuadradas distintas. Por la unicidad de ladescomposición espectral de T, se tiene r = k y (si acaso por reordenación)F1- = Ej, dj-2 = c¡. Así que P= N. I

Teorema 14., Sea V un espacio producto interno de dimensión finita y seaT un operador lineal ~ cualquiera sobre V. Entonces existen un operador unitarioU sobre V y un operador no negativo N sobre V tales que T = UN. El operador'N no negativo es único. Si T es inversible, el operador U es también único.

Demostración. Supóngase que T = UN, donde U es unitario y N es nonegativo. Entonces T* = (UN)* = N*U* = NU*, Asi T*T = NU*UN=N2.Esto muestra que N está unívocamente determinado como la raíz cuadradano negativa del operador no negativo T* T.

De modo que para comenzar con la demostración de la existencia de U yde N, se usa el Teorema 13 para definir N como I-a única raíz cuadrada no ne-gativa de T*T. Si T es inversible, también lo es N, pues

(Na|Na) = (N2a|a) = (T*Ta|a) = (-Ta'|Ta).

En este caso se define U = TN _ 1 y se demuestra que U es unitario. Ahora bien,U* = (TN-1)* = (N-**)*T* = (N*)¬T* = N¬'T*. Asi que

UU* = TN"1N-IT*= T(N-1)2T›|== T(N2)-1T*

= T(T*T)-IT*= TT-1(T*)-1T*= I

y U es unitario.Si T no es inversible hay que proceder en forma más laboriosa para definir

U. Primeramente se define U sobre la imagen de N. Si ot es un vector de esta ima-gen, por ejemplo, ot = NB. Se define Uoc = TB, motivado por el hecho de quese quiere que UNB = TB; Debe verificarse que U está bien definido sobre laimagen de N; es decir, si NB' = NB; entonces TB' = TB. Se verificó anterior-mente que ||Ny||2 = ||Ty||2 para todo y en V. Así, con -y = [3 - fi' se ve queN(B - B') = 0 si, y solo si, T(B = B')'= 0. Con lo que U está bien definidosobre la imagen de N y es evidentemente lineal donde está definido. Ahorabien, si W es la imagen de N, se definirá U sobre Wi. Para ello se necesita la

Page 357: ASESORES TECNICOS

338 A lgcltru lineal

siguiente observación. Como T y N tienen el mismo espacio nulo, sus imágenestienen la misma dimensión. Así W* tiene la misma dimensión que el comple-mento ortogonal de la imagen de T. Por tanto, existe un isomorfismo (de espacioproducto interno) U0 de W* sobre T(V)*. Ahora se ha definido U sobre W,y se define U sobre W* como U0.

Se repite la definición de U. Como V = W EB Wi, todo a de V está expre-sado unívocamente en la forma a = NB + y, donde NB está en la imagen W deN y -,v está en Wi. Se define

Ua = TB + Uo'Y-Este U es evidentemente lineal, y se verificó anteriormente que está bien de-finido. Así, pues,'

(UGIUOI) = (TB + UOWITB + Un)= (TB|TB) + (Uo"YiUo"Y)= (1\íB|)NB) + ('r|'r)= (oz a

y entonces U es unitario. También tenemos que UNB = TB para todo B. |

T = UN se le llama una descomposición polar de T. Por cierto que no sele puede llamar la descomposición polar, ya que U no es único. Aun cuandoT sea inversible, con lo que U es único, tenemos la dificultad de que U y N puedenno conmutar. Ciertamente, conmutan si, y solo si, T es normal. Por ejemplo,si T = UN = NU, con N no negativo y U unitario, entonces

TT* == (NU)(NU)* = NUU*N = N= = T*T.El operador general T tendrá también una descomposición T = N, U1 con N,no negativo y U, unitario. Aquí N, será la raiz cuadrada no negativa de`TT*.Se puede obtener este resultado aplicando el teorema que se acaba de demostraral operador T*, y tomando luego adjuntos.

Pasamos ahora al problema de qué se puede decir respecto a la diagona-lización simultánea de familias conmutativas de operadores normales. Paraeste propósito es adecuada la siguiente terminología.

Definiciones. Sea EF una familia de operadores sobre un espacio productointerno V. Una función r sobre EF, con valores en el cuerpo F de los escalares, sellamara una raíz de 5 si existe un ot no nulo de V tal que

Tot = r(T)ot

para todo T de SF _ Para cualquier función r de EF en F, sea V(r) el conjunto de todoslos oz de V tales que Ta = r(T)oz para todo T en SF.

Entonces V(r) es un subespacio de Vy r es una raíz de SF si, y solo si, V(r) qé 0.Todo oz no nulo de V(r) es simultáneamente un vector propio para todo Tde 3-'_

Teorema 15. Sea SF una familia conmutativa de operadores normales diago-nalizables en un espacio producto interno de dimensión finita V. Entonces SF tiene

Page 358: ASESORES TECNICOS

U¡›crmlun'\ mlnr .'s¡Imtm ¡trmlmtn mtcrmt .U9

_../o un número finito de raices. Si r,.-. _ _ _ r,, son las raices distintas dc SF, cntoncc.s'

(il I/(r¡) es ortogonal a l/(rj) cuando i ql: j, _vtii) V = li"(r.l EB - - - GB VW).l)emostrución. Supóngase que r y s son raíces distintas de SF. Entonces

existe un operador T en Si tal que i-(T) q= s(T). Como los vectores propios quecorresponden a valores propios distintos de T son necesariamente ortogonales.sc sigue que V(r) es ortogonal a V(s)_ Como V es de dimensión finita. esto im-plica que 5 tiene a lo más un número finito de raíces. Sean r,, _ _ _ , r,, las raícesde EF. Supóngase que ¦T,_ . _ _ , T,,,¦ es un subconjunto maximal de SF lineal-mente independiente y sea

{I§1íl1 I'/1i21 ' ' '}

la descomposición de la identidad definida por T, (1 5 i 5 m). Entonces lasproyecciones E,-¡ forman una familia conmutativa, pues toda E'¡¡ es un polinomiocn T, y T1. T", conmutan entre sí. Como

I = Içlji) Ifišjz) ° ' ° Emjm)Jn J: jm

todo vector oz de V puede escribirse en la forma

(I = _ E _ E1j¡]L¬2j, ' ° ' Em¡md.ji, . . . ,JM

Supóngase que I.. _ _ _ _ Í... Son los índices para los que Ii = EU-,E21-2 - - - Em]-m #= 0.Sea

B1' = Enj.) a-na-fiz

Iìntonces /f = E,-J-/i,.; luego existe un escalar ci tal que

T.-Li = c,-B, 1 S i S m.

Para cada T en EF existen escalares únicos hi tales que

T = É b,-T..I'=-1

\si T5 = 2 b,.T,.p

= b.'Ci) B-1

La función T-› Z b¡c,- es evidentemente una de las raíces, por ejemplo, r, de EF,

\ /t está en V(r,-). Por tanto. cada término no nulo en (9-13) pertenece a unode los espacios V(r, ), . . . , V(r,,l. Se sigue que I' es la suma directa ortogonalde l"(r¡), V(rkl_ I

Corolario. En la liipótesis' del teorema, sea PJ- la proyección ortogonal deI` sobre Hrj), (I S pl' S k). Entonces P,-Pj = 0 Si 1 #= /-

[ïP¡+°"+Pk,

Page 359: ASESORES TECNICOS

l-lll -I ligclrra lntcal

y todo T de SF puede ser escrito en la forma

.l

Definiciones. La familia de las proyecciones ortogonales {P¡. . . . _ P,,} .scllama descomposición dela identidad detenninada por ff _v (9- l 4) es la descomposiciónespectral de T según esta familia.

Aunque las proyecciones P,, . _ . , Pk del corolario anterior están asocia-das canónicamente con la familia 5, no están generalmente en 5. ni son siquieracombinaciones lineales de operadores de ff; sin embargo, veremos que se pue-den obtener por la formación de ciertos productos de polinomios en elemen-tos de 5'.

Para el estudio de una familia de operadores en un espacio producto internosuele ser provechoso considerar el álgebra autoadjunta generada por la familia.

Definición. Un álgebra autoadjunta de operadores sobre un espacio productointerno V es un subálgebra lineal de L(V, V) que contiene el adjunto de cada unodc sus elementos.

Ejemplo de álgebra autoadjunta es el mismo L(V, V). Como la intersec-ción de cualquier colección de álgebras autoadjuntas es a su vez un álgebraautoadjunta, la siguiente terminología tiene sentido.

Definición. Si ff es una familia de operadores lineales sobre un espacio pro-ducto interno de dimensión finita, el álgebra autoadjunta generada por ff es lamenor álgebra autoadjunta que contiene a ET.

Teorema I6. Sea ET una jamilia conmutativa de operadores diagonalizablesnormales sobre un espacio producto interno de dimensión finita V _r sea (Í. cl ál-gebra autoadjunta generada por 5 y el operador identidad. Sea ¦P¡, _ _ _ _ Pkj ladescomposición de la identidad definida por ET. Entonces G, es el conjunto de todoslos operadores sobre V de la forma

lc

(9-15) T = xl ftp;,I

donde cl. . . . , c,, son escalares arbitrarios.

Demostración. Sea G el conjunto de todos los operadores sobre V de laforma (9-15). Entonces G contiene al operador identidad y el adjunto

T* = Í-1 ëfpf.'l

para cada uno de sus elementos. Si T = c¡P_,- y U = dj-PJ-, entonces para

todo escalar a J J

aT+ U= 2(ac+d,-)P,~J

Page 360: ASESORES TECNICOS

U['I'l'llIlUI'I'\ \Ul'H' |\[Imlu\ [Itml|n'ln tItIt't'm› Ml

› TU = ¿_ ad,-P,1>,1.:

= CjdjpjJ

= UT.Asi que G es un álgebra autoadjunta conmutativa que contiene a 5 y al opc-rador identidad. Por tanto, G contiene a (ì.

Ahora sean r,, . . _ _ r,, todas las raíces de 5. Entonces, para todo par deindices (i, n) con i =;é n, existe un operador T¡,, en SF tal que r¡(T¡,,) qé r,,(T,-,,).Sea a¡,, = r,-(T¡,,) - r,,(T¡,,) y bm = r,,(T¿,,)_ Entonces el operador lineal

Qi = atÍtl(T.'a _ bol)

es un elemento del álgebra (i. Se demuestra que Q, = P, (1 5 i 5 k). Paraello, supóngase que j qé i y que oz es un vector arbitrario en V(r¡). Entonces

Tofl = †`›'(T.~.')0f= b-¿ja

de modo que (TU = h,-J-l)oz = 0. Como todos los factores en Q, conmutan, sesigue que Q¿ot = 0. Luego Q, coincide con P, en V(r¡) si j qé i. Supóngase almraque oc es un vector de V(r,-). Entonces T¡,,oz = r,-(7},,)ot, y

01Ítl(T.'n “ b.'1.I)a = 0ftÍ¢1[T,-(Ten) "" ?',,(T,-,,)]a = a.

Así, pues, Q¡a _= oz y Q, coincide con P, en V(r,): por tanto, Q, = P, para iI, k. De lo cual se sigue que G. = G. I

El teorema muestra que el álgebra G, es conmutativa y quie cada elementode G es un operador normal diagonalizable. Se demuestra a continuación que (ftiene un solo generador.

Corolario. Con las hipótesis del teorema existe un operador T en G, tal quetodo elemento de G, es un polinomio en T.

k _ _Demostración. Sea = 2 ¿jpj con t¡, _ _ _ , tk son escalares distintos. Entonces.=lJ k n

T" = E tj Pi_1`_=l

paran: 1, 2, S1

ƒ= E aux"n=l

se sigue que8 a k

f(T) = 2 a,,T" = 2 E a ¿epn=¡ nzljgl nl J

¡F s

= .išl (nšl anal) Pilc

_ 2 J-1=1

Page 361: ASESORES TECNICOS

342 .-I lecltru lmcal

Dado un kU = É GP1'›=1

arbitrario en (i. existe un polinomio f tal que f(t¡) = cj (1 S i 5 k) y, paracualquier tal ƒ, U = f(T). I

Ejercicios

l. Dar una definición razonable de una matriz n ›< n no negativa y demostrar luego quetal matriz tiene una única raiz cuadrada no negativa.

2. Sea A una matriz n ›< n con elementos complejos tal que A* = -A y sea B = e"'.Demostrar que

(a) det B = e"^;lb) B* = e "':te) B es unitaria.

3. Si U y T son operadores normales que conmutan. demostrar que L' + T y UT sonnormales.

4. Sea T un operador lineal sobre un espacio producto interno de dimensión finita V.Demostrar que las diez siguientes afirmaciones respecto a T son equivalentes:

(a) T es normal.tb) ||T:x|| = ||T*1|| para todo 1 en I".lc) T: T, + iT,. donde T, y T, son autoadjuntos y T,T¿ = T¿T,.(d) Si rx es un vector y c un escalar de modo que Ta = crx, entonces T*1 = Ea.te) Existe una base ortonormal de V formada por vectores propios para T.(f) Existe una base ortonormal (B tal que [T](B es diagonal.tg) Existe un polinomio g con coeficientes complejos tal que T* = _t¬'(T)_(h) Todo subespacio invariante por T es también invariante por T*.(il T = NU. donde N es no negativo. U es unitario, y N conmuta con U.(j) T= c¡T, + + c,E,, donde l= El + + E,,. E,-E_¡ = 0 para i=# 1'. y =

Ej = Ef.

5. Usar el Ejercicio 3 para mostrar que cualquier familia conmutativa de operadores nor-males (no necesariamente diagonalizables) en un espacio producto interno de dimensiónfinita genera un álgebra autoadjunta conmutativa de operadores normales.

6. Sean V un espacio producto interno complejo de dimensión finita y L` un operadorunitario sobre l' tal que U1 = 1 implique rx = 0. Sea

fa) =-tgg. 2;-|y demostrar que

ta) _/(L-'l = i(I+ (")(l ~ U) '_(bl _/`(L') es autoadjunto.(cl para todo operador autoadjunto T sobre l'_ el operador

U = (T - il)(T + íI)"1es unitario y tal que T = /IU).

Page 362: ASESORES TECNICOS

()[n't'mlUrt'.\ mlui' i\¡un un ¡Irmltwlu lnlcrmt ,MK

7. Sea I" el espacio de las matrices complejas n ›< ii con el producto interno

(A|B) = tr (AB*).

Si B es un elemento de V. sean LB, RB y TB los operadores lineales sobre V definidos por(a) LB(A) = BA.(b) RB(A) = AB.(c) TB(A) = BA - AB.

(`onsiderar las tres familias de operadores que se obtienen al hacer variar B sobre todaslas matrices diagonales. Demostrar que cada una de estas familias es un álgebra autoadjuntaconmutativa y hallar sus descomposiciones espeetrales.

8. Si B es un elemento del espacio producto interno del Ejercicio 7, hacer ver que IB es equi-valente unitariamente a R,,_

9. Sean V el espacio producto interno del Ejercicio 7 y G el grupo de matrices unitariasde V. Si B esta en G. sea CB el operador lineal sobre V definido por

CB(A) = 3143'*-l)emostrar que

(al CB es un operador unitario en V;(b) (`,,,B2 = (.`,,l(`B,:tc) no existe una transl`ormación unitaria U en V tal que

ULBU"' = CBpara todo B de G.

I0. Sean SF una familia cualquiera de operadores lineales sobre un espacio producto in-terno de dimensión finita V y (i el álgebra autoadjunta generada por SF. Demostrar que

(a) toda raíz de (i define una raiz de SF;(b) toda raíz r de (i es una función lineal multiplicativa sobre A. es decir,

r(TU) = r(T)r(U)r(cT -I- U) = cr(T) -l- r(U)

para todo T y U de (ì y todo escalar c-

II. Sea SF una familia coiiinutativa de operadores diagonalizables normales sobre unespacio producto interno de dimensión finita V y sea (i el álgebra autoadjunta generadapor SF y el operador identidad I. Demostrar que toda raiz de (i es distinta de 0 y que paratoda raíz r de SF existe una raíz única s de (i tal que s(T) = r(T) para todo T de SF.

I2. Sean SF una familia conmutativa de operadores diagonalizables normales en un es-pacio producto interno de dimensión finita V y (io el álgebra autoadjunta generada por SF.Sea (i el álgebra autoadjunta generada por SF y el operador identidad I. Demostrar que

(a) (i es el conjunto de todos los operadores sobre V de la forma cl + T. donde c esnn escalar y T un operador en (io.

(b) Existe a lo más una raíz r de (i tal que r(T) = 0 para todo T de (io.(cl Si una de las raíces de (i es 0 sobre (io, las proyecciones P,, _ _ _ , Ph en la descom-

posición de la identidad definida por SF pueden ser rotuladas mediante índices de tal modoque (io conste de todos los operadores sobre V de la forma

lcT= E c-P-_ 1 1

1=2donde cz, c,, son escalares arbitrarios.

Page 363: ASESORES TECNICOS

344 _-I lei'l›i'ii lineal

(d) (1 = (io si, y solo si, para cada raíz r de (1 existe un operadoi I' eii G., tal quer(T) # 0.

9.6. Otras propiedades de losoperadores normales

En la Sección 8.5 se han expuesto las propiedades básicas de los operadoresautoadjuntos y normales usando el método más simple y directo posible. Enla Sección 9.5 se consideraron varios aspectos de la teoría espectral. Aqui de-mostraremos algunos resultados de naturaleza más técnica y que se refierenprincipalmente a operadores normales sobre espacios reales.

Se comenzará demostrando una versión más precisa del teorema de des-composición prima del Capítulo 6 para operadores normales. Será válido paraambos casos el real y el complejo.

Teorema 17. Sea T un operador normal sobre un espacio producto internode dimensión finita V. Sea p el polinomio minimal para T y pl, . _ . , pk sus dis-tintos factores primos mónicos. Entonces cada pj tiene multiplicidad l en la fac-torización de p J' tiene grado l o 2. Supóngase que es el espacio nulo de pJ-( T).Entonces

(i) WJ- es ortogonal a W,-_ si i 9€ j;(ii) V=Wi€9"'€9Wi.;

(iii) W¡ es inrariante por T _i' pJ- es el polinomio minimal para la restricciónde T a W,-;

(iv) para todo _j existe un polinomio eJ- con coeficientes en el cuerpo de losescalares tal que el-(T) es la proyección ortogonal de V sobre W¡_

En la demostración usaremos ciertos hechos básicos que sentaremos comolemas.

Lema 1. Sea N un operador normal sobre un espacio producto interno W.Entonces el espacio nulo de N es el complemento ortogonal de su imagen.

Demostración. Supóngase que (ot|N/i) = 0 para todo /i de W. Entonces(N*ot\/3) = 0 para todo /3:, luego N*a = 0. Por el Teorema 19 del Capítulo 8esto implica que Na = 0. Recíprocamente, si Na = 0 entonces N*a = 0 y

(N*«|ø) = («|Nfi) = 0para todo /f de W. I

Lema 2. Si N es un operador normal _i' 1 es un rector tal que Nzot = 0,entonces Not = 0.

Page 364: ASESORES TECNICOS

U/›i't'iulm'i'\ tiilni- ¡-ipmtiit ¡n.iiltti'Iu tttli't'm› .l-lfi

l)cniostra¢'ión. Supóngase que N sea normal y que Nzot = ll. EntoncesNx está en la imagen de N y también en el espacio nulo de N. Por el Lema 1,esto implica que Not = 0. I

Lema 3. Sean T un operador normal y f cualquier polinomio con coeficien-tes en el cuerpo de los escalares. Entonces f(T`- es también normal.

Demostración. Supóngase que f = ao + olx + - ' ° + a,,x". Entonces

f(T) = Gol + GiT + + CMT"

f(T)* = ral + ãiT* + + ä._(T*)"-Como T*T= TT*, se sigue que f(T) conmuta con f(T)*. I

Lema 4. Sean T un operador normal y f, g polinomios primos relatiroscon coeficientes en el cuerpo de los escalares. Supóngase que ot y Ii- son rectorestales que ƒ`(T)ot = 0 y g(T)/›' = 0. Entonces (ot|/Í) = 0.

Demostración. Existen polinomios a y b con coeficientes en el cuerpo delos escalares tales que af' + bg = l. Así

a(T)f(T) + b(T)ø(T) = 1y oz = g(T)h(T)ot. Se sigue que

(alô) = (9(T)5(7`)a|B) = (b(T)<1|9(T)*6)-Por suposición. g(T)/3 = 0. Por el Lema 3, g(T) es normal. Por tanto. por elTeorema 19 del Capítulo 8, g(T)*/i = 0; luego (al/3) = 0. I

Demostración del Teorema 17. Se recuerda que el polinomio minimalpara T es el polinomio mónico de grado menor entre todos los polinomios ftales que f(T) = 0. La existencia de tales polinomios se desprende de la supo-sición de que V es de dimensión finita. Supóngase que un factor primo pj de pestá repetido. Entonces p = pfg para algún polinomio g. Como p(T) = 0, sesigue que

(P.~(T))*9(T)a = 0para todo oi de V. Por el Lema 3, pj-(T) es normal. Así, el Lema 2 implica que

Pf(T)9(T)<1 = 0para todo ot de V. Pero esto contradice la suposición de que p tiene el menorgrado entre todos los _/' tales que f(T) = 0. Por taiito, p = pj - - -pk. Si V esun espacio producto interno complejo, todo pj- es necesariamente de la forma

pi = 37 _ CJ'con cj real o complejo. Por otro lado, si V es un espacio producto interno real.entonces pj = xj - cj con ej en R 0

pj = (17 _ c)($ '_ 5)

donde c es un número complejo no real.

Page 365: ASESORES TECNICOS

.ÍJÓ '|lg'i'lPt'u lltlrttl

Sea ahora = p/pj. Entonces. como _/j, _ _ _ _ _/jj soii primos relativos. exis-ten polinomios gj con coeficientes en el cuerpo de los escalares tales que

(9-lo i = sf,-Q..J

lndicamos brevemente cómo se pueden construir estos gj. Si pj = .\' - ej.entonces jj-(ej) =;ë 0, y para gj se toma el polinomio escalar l_,'_/_'j-(cj). Si todopolinomio es de esta forma, los fjgj son la familia de los polinomios de Lagrangeasociados con los ej, _ _ _ , c,,, y (9-16) es claramente válida. Supóngase que algúnpj = (x - c)(x - E) con c un número complejo no real. Entonces V es unespacio producto interno real, y se tiene

x-1': :c-cgi- s + .`§

donde s = (c - c")_/j(c). Entoncesg(s+š):i:- (cs~l-ës)

gjú Si lsš Si

con lo que gj es un polinomio con coeficientes reales. Si p es de grado n. en-tonces

1 _ Efiili.1

es un polinomio con coeficientes reales de grado n - I a lo más; además. seanula en cada una de las n raíces (complejas) de p' y. por tanto_ es idéntica-mente 0.

Sea ahora at tin vector arbitrario de V. Entonces. por (9-16)0 = šìf.-(T)9.'(T)a

y como pj(T)jj-(T) = 0, se sigue que _/j(T)gj(T)fx está en Wj para cada ¡_ Porel Lema 4, es ortogonal a Wj siempre que i q= ¡_ Por tanto_ I' es la suma di-recta ortogonal de W,. _ _ . _ W,,. Si If es cualquier vector en Wj, entonces

iv.-(T)TB = TP.-(T)ti = 0;así que es invariante por T. Sea Tj la restricción de Ta Wj. Entonces pj-(Tj)= 0.con lo que pj es divisible por el polinomio minimal para Tj. Como pj es irredu-cìble sobre el cuerpo de los escalares. se sigue que pj es el polinomio minimalpara Tj.

Sea ahora ej = _/jgj y Ej = ej-(T). Entonces para todo vector 1 de l' Ejfxestá en Wj, y

(1 = E10.1

Asi. a - E,-a = Eja; como Wj es ortogonal a Wj si j == i. esto implica queJ 1

1 - E,-at está en VV,-i. Se deduce ahora. del Teorema 4 del Capítulo 8. que I;j esla proyección ortogonal de V sobre W,-_ I

Definición. Los subespacios Wj ( l 5 j 3 k) se llaman componentes primosde V según T.

Page 366: ASESORES TECNICOS

Upcratlori-.i riilir.- .-i¡›.n-ios ¡irodncto interno J47

Corolario. Sean T un operador normal sobre un espacio producto internode dimensión finita V y Wj, _ _ _ , W,, los componentes primos de V según T. Supón-gase que W es un subespacio de V inrariante por T. Entonces

Í

Demostración. Evidentemente W contiene a Z WH Wj. Por otro lado,1

W, que es invariante por T, es invariante por todo_polinomio de T. En particu-lar, W es invariante por la proyección ortogonal Ej de V sobre Wj. Si ot está enW, se sigue que Eja está en W H y, al mismo tiempo, que oi = Z Eja. Por

itanto, W está contenido en Z WH Wj. I

1

El Teorema 17 muestra que todo operador normal T sobre un espacio pro-ducto interno de dimensión finita está dado canónicamente por un númerofinito de operadores normales definidos sobre los componentes primos deV según T, cada uno de cuyos polinomios minimales es irreducìble sobre elcuerpo de los escalares. Para completar el conocimiento de los operadoresnormales es necesario estudiar operadores normales de este tipo especial.

Un operador normal cuyo polinomio minimal es de grado l es obviamenteapenas un múltiplo escalar de la identidad. Por otro lado. cuando el polinomiominimal es irreducìble y de grado 2, la situación es más complicada.

Ejemplo l. Supóngase que r > 0 y que U sea un número real no múltiploentero de rc. Sea Tel operador lineal sobre R2 cuya matriz en la base ortonormalcanónìca es

A = Tlïcosll -sen 0]_sen 0 cos 0

Entonces T es un múltiplo escalar de una transformación ortogonal y, portanto, normal. Sea p el polinomio propio de T, entonces

p = del. (xl -A)= (zi: - reos 0)* + 1'” sen'*'0= x - 2rcos0:i:~l-ri.

Sea a = rcostl, b = rsenU y c = a + ib. Entonces b sé 0, c = rei”

a --bA _ ib al

y p = (x - c)(x - E). Luego p es irreducìble sobre R. Como p es divisible porel polinomio minimal de T, se sigue que p es el polinomio minimal.

Este ejemplo sugiere el siguiente recíproco.

Teorema 18. Sean T un operador normal sobre un espacio producto internoreal de dimensión finita V _v p su polinomio minimal. Supóngase que

p = (x - a)2 + bz

Page 367: ASESORES TECNICOS

.H-\' .4l_¡:¢-hru Inn-al

donde a y b son reales y b 9€ 0. Entonces existe un entero s > 0 tal que p" es elpolinomio propio de T y existen subespacios V,. _ . . , V, de I-' tales que

(i) VJ- es ortogonal a Vi cuando i † j;un v= me---ea Vs;

(111) cada VJ- tiene una base ortonormal {oz¡, /$1-} con la propiedad de que

Taj -_-= (laj +

En otras palabras, si r = ¬/az + bz y 6 se elige de modo que a = rcos 6y b = r sen 6, entonces V es una suma directa ortonormal de espacios bidi-mensionales VJ- en cada uno de los cuales T actúa como «r veces la rotaciónde ángulo 0».

La demostración del Teorema 18 estará basada en el siguiente resultado.

Lema. Sean V un espacio producto interno real y S un operador normalsobre V tal que S2 + I = 0. Sea oz cualquier vector de V y /f = Sa. Entonces

S*oz = -/f(9-17)

S*[f = fx

(alfi) = 0. ›" |I°f|| = HHH-Demostración. Tenemos que Sa = /3 y S/›' = S201 = -oz. Por tanto,

0 = I|S« ~ fl||** + ||Sfi + «IP = IISQII2 - 2(S«|fi) + ||ø||2+ ||Sfl||* + 2<Sfil«) + llull”-

Como S es normal, se sigue que

0 = |IS*«||2 -- 2(S*ø|«) + ||øH2 + ||S*ø||2 + 2(S*«|fi› + ¡|«||2= ||S*« + BH* + !|S*fi - «IP-

Esto implica (9-17); luego

(043) = (S*fi|fi) = (filsfi) `= (BI-fr)= -(alli)

y (oz|[›') = 0. En forma análoga

Hall* = (S*í3|<1) = (fi|S0f) = ||i3||2- IDemostración del Teorema 18. Sea V1, . _ . , Vs una colección maximal

de subespacios bidimensionales que satisfacen (i`) y (ii) y las condiciones adi-cionales

T*aÍ = aai _' bfiir

(9-18) 1 S j S s.T*5¡ = bai + Gfiƒ

Sea W = V, + + IQ. Entonces W es la suma directa ortogonal de los

Page 368: ASESORES TECNICOS

U¡›¢'rudun-.s .mlur rspmtm ¡›rmlm'tu interna .f-1')

l',. _ . . , V,. Veremos que W = V. Supóngase que éste no sea el caso. Enton-ces W* 9€ -{0}. Más aún, como (iii) y (9-18) implican que W es invariante porTy T*, se sigue que W* es invariante por T* y T = T**. Sea S = b- 1(T- al).Entonces S* = b_1(T* - al). S*S = SS* y Wi es invariante por S y S*.Como (T - al )2 + bz! = 0. se sigue que S2 + I = 0. Sea oz cualquier vectorde norma l en Wi y sea /f = Sa. Entonces /i está en W* y S/f = -oz. ComoT = al = hS, esto implica que

Ta = aa -I- bfiTÚ = -ba -I- (LB.

Por el teorema, S*a = -/f, S*/f = oi. (oz|/f) = O y ||/f|| = l. Ya que T* = al +bS*, se sigue que

T*(1 = aa __"

T*fi = ba + afi.

Pero esto contradice el hecho de que V1, _ . . , Vs es una colección maximal desubespacios que satisfacen (i), (iii) y (9-18). Por tanto, W = V, y como

det [x:ba :C E a] = (:c - a)2 + b2

se sigue de (i), (ii) y (iii) que

det (xl - T) = [(x - a)2 + b2]'. I

Corolario. En las condiciones del teorema, T es inversible y

T* = (az + b2)T_'.Demostracion. Como

lb Jla -b a b]_[a2+b2 0 ]-b a _ 0 a2-†-b2

se sigue de (iii) y (9-18) que TT* = (az + b2)l. Luego T es inversible y T* =((12 + 1›2›T-'. |

Teorema 19. Sea T un operador normal sobre un espacio producto internode dimensión finita V. Entonces cualquier operador lineal que conmuta con Ttambién conmuta con T*. Además, todo subespacio invariante por T es tambiéninvariante por T*.

Demostración. Supóngase que U es un operador lineal sobre V que con-muta con T. Sea Ej la proyección ortogonal de V sobre el componente primoWj (1 5 j 5 k) de V según T. Entonces EJ- es un polinomio en T y, por tanto,conmuta con U. Así que

E¡UE¡ = = UE¡'.

con lo que U(W¡) es un subconjunto de Wj. Sean TJ- y U1- las restricciones deT y U a Supóngase que 11- es el operador identidad sobre Wj. Entonces U,-conmuta con TJ-, y si TJ- = c¡I¡ es claro que también conmuta con Tj.* = êj-I]-.

Page 369: ASESORES TECNICOS

.ÍÃU /I l_\f|'l›t'tt ltm 'ul

Por otro lado, si TJ- no es un múltiplo escalar dc ¡J-_ entonces TJ- es inversible yexisten números reales aJ- y bJ- tales que

T; = (ai + b;**)T;`Como UJ-TJ '= TJUJ- se sigue que TJ-"'UJ- = UJ-TJ-1. Por tanto, UJ- conmuta conTJ-* en ambos casos. Ahora T* también conmuta con EJ- y, por tanto, es in-variante por T*. Además. para todo fx y /i de WJ.

(T,-«Im = (Tale) = («|T*fi) = (aim).Como T*(WJ-) está contenido en WJ-, esto implica que TJ-* es la restricción deT* a WJ-_ Así que

UT*d¡ = T*U(X¡

para todo ocJ- de WJ-_ Como V es la suma de W,, _ _ _ _ Wk, se sigue que

UT*a = T*Ua

para todo oi de V y, por tanto, que U conmuta con T*.Supóngase ahora que W es un subespacio de V invariante por T y sea ZJ- =

WH WJ-_ Por el corolario del Teorema I7, W = Z ZJ-_ Así que es suficienteI

demostrar que todo ZJ- es invariante por Esto es obvio si = cJ-I. Cuandoéste no es el caso, TJ- es inversible y aplica ZJ- en. y en consecuencia sobre, ZJ-_Así, TJ-“'(ZJ-) = Z¡. y como

Ti = (aii -I- bi)Tf_l-

se concluye que T*(ZJ-) está contenido en ZJ-, para todo j. I

Supóngase que T es un operador normal en un espacio producto internode dimensión finita V. Sea W un subespacio invariante por T. Entonces el co-rolario anterior muestra que W es invariante por T*. De esto se sigue que W*es invariante por T** = T (y. en consecuencia, también invariante por T*).Usando este hecho se puede fácilmente demostrar la siguiente versión másreforzada del teorema de descomposición cíclica, dado en el Capítulo 7.

Teorema 20. Sea T un operador lineal normal en un espacio producto in-terno de dimensión finita V (dim V 2 I). Entonces existen r rectores no nulosal, _ _ _ , cx, en V con los respectiros T-anuladores el. _ _ _ _ e, tales que

(i) V = Z(0fi1;T)€B'°'€B Z(<X,; T):(ii) si 1 5 k 5 r - l. entonces e,,+¡ diride a ek;(iii) Z(aJ-; T) es ortogonal a Z(:x,,; T) si j #= k. Además, el entero r y los

anuladores el, _ , e, están unívocamente determinados por las condiciones (i) y(ii) _\' por el hecho de que ningún ak es 0.

Corolario. Si A es una matri: normal de elementos reales (complejos), en-tonces existe una matri: real ortogonal (unitaria) P tal que P- ¡AP está en formacanónìca racional.

Page 370: ASESORES TECNICOS

U¡n't'mlm'¢'.\' xulm- ¢-\¡nm'tm ¡›rmlm'tt› mt:-rm: Ul

Se sigue que dos matrices A y B son equivalentes unitariamente si. y solo si,tienen la misma forma racional; A y B son equivalentes ortogonalmente sitienen elementos reales y la misma forma racional.

Por otro lado, hay un criterio más simple que la equivalencia unitaria delas matrices normales y los operadores normales.

Definiciones. Sean V _v V' espacios producto interno sobre el mismo cuerpo.Una transformación lineal

U Z V -› V'

se dice una transformación unitaria si aplica V sobre V' _v preserra los productosinternos. Si T es un operador lineal sobre V_1' T" un operador lineal sobre V', en-tonces T es unitariamente equivalente a T'_ si existe una trans'/ormación unitariaU de V sobre V' tal que

UTU _' = T'_

Lema. Sean V _t' V' espacios producto interno de dimensión finita sobre elmismo cuerpo. Supóngase que T es un operador lineal sobre V _t' que T' es un ope-rador lineal sobre V'_ Entonces T es unitariamente equiralente a T' si. J' solo si,existen una base ortonormal (B de V _t' una base ortonormal (B' de V' tal que

[T](B = [T"|(B,.

Demostración. Supóngase que hay una transformación unitaria U de Vsobre V' tal que UTU"* = T'_ Sea (B = ¦oz,, oz,,} cualquier base (orde-nada) ortonormal de V. Sea fxJ'- = UozJ- (l S i S n).- Entonces (B' = {oz;_ _ _ _ , oz,',}es una base ortonormal de V y haciendo

Tai = gi Ax,-Crak=1se ve que

T'aj- = UTa,-= š:Ak¡Udk

= E Akjälck

Luego [T](B = A = [Tl]¿B-_Recíprocamente, supóngase que existen una base ortonormal (B de V y una

base ortonormal (B' de V' tales que

[Tica = [T']<B'y sea A = [T]¿B. Supóngase que (B = ¦fx,. _ _ _, fx,,¦ y que (B' = ¦fx§_ _ _ _. 1,,Sea Uuna transformación lineal de Ven V' tal que Uoc_¡ =“xJ- (1 5 _¡ 5 n). Enton-ces U es una transformación unitaria de V sobre V', y

UTU-la; = Um,-= U ã Akjfiïk

= E Akjalií-lt

Page 371: ASESORES TECNICOS

35." llaga-ln n /mr-al

Por tanto, UTU_'ozJ'- = l"aJ (I 5 /` '_<_ n). y esto implica que UTU" == 1". I

Se sigue inmediatamente de este lema que los operadores unitariamenteequivalentes en espacios de dimensión linita tienen el mismo polinomio propio.Para operadores normales el recíproco es válido.

Teorema 21. Sean V y V' espacios producto interno dc dimensión finitasobre el mismo cuerpo. Supóngase que T es un operador normal sobre V J' queT' es un operador normal sobre V'. Entonces T es unitariamente equivalente a T'si, y solo si, T y T' tienen el mismo polinomio propio.

Demostración. Supóngase que T y T' tienen el mismo polinomio propio f.Sean WJ- (1 S j S k) los componentes primos de V según T y TJ- la restricciónde T a WJ-_ Supóngase que ¡J sea el operador identidad sobre WJ-_ Entonces

f = ii det(x1-~ T,-)_f=1 '

Sea pJ- el polinomio minimal de TJ-_ Si pJ- = x - cJ. es evidente que

det (fvïf _ Tr) = (I _ 01)”donde sJ- es la dimensión de WJ-_ Por otro lado. si pJ- = (x - aJ-)¿ + bf con aJ-_ bJ-reales y bJ- qé 0, entonces se sigue del Teorema l8 que

det (1111' '_ Ti) = Pi'

donde en este caso 2sJ- es la dimensión de WJ._ Por consiguiente, ji = Fl

Se puede ahora calcular también f por el mismo método usando los ctimpo-nentes primos de V' según T'_ Como p,, _ _ _ , pk son primos distintos, se siguede la unicidad de la factorización prima de f que hay exactamente k componentesprimos WJ-' (1 S j S k) de V' según T' y que éstos pueden ser rotulados coníndices de tal modo que pJ- sea el polinomio minimal de la restricción de T' aWJ-'_ Si pJ- = x - cJ-, entonces TJ- = cJ-IJ- y TJ-' = cJ-IJ', donde IJf es el operadoridentidad sobre WJ-'_ En este caso es evidente que' TJ- es unitariamente equivalentea Si pJ- = (x - aJ-)2 + bJ3, como anteriormente, entonces por el lema y elTeorema 20, tenemos nuevamente que TJ- es unitariamente equivalente aAsí, pues, para todo j existen bases ortonormales G3J- y ÚSJÍ de WJ- y WJ-', respec-tivamente, tales que

[Tf]<s,- = [T2-]a;,-'-Sea ahora U la transformación lineal de V en V' que aplica cada G3J- sobre ÚSJ'-_Entonces U es una transformación unitaria de V sobre V' tal que UTU“I = T'_ I

Page 372: ASESORES TECNICOS

10. Formas bilineales

10.1. Formas bilineales

En este capitulo se tratará de las formas bilineales sobre espacios vectorialesde dimensión finita. El lector observará probablemente una analogía entrecierto material y el estudio de los determinantes del Capítulo 5 y de los productosinternos y de las formas en los Capítulos 8 y 9. La relación entre formas bili-neales y productos internos es particularmente estrecha; sin embargo, estecapítulo no presupone ningún material de los Capítulos 8 o 9. Al lector queno esté familiarizado con los productos internos le será provechoso leer la pri-mera parte del Capítulo 8 al tiempo que se adentra en el estudio de las formasbilineales.

La primera sección trata del espacio de las formas bilineales sobre un espa-cio veetorial de dimensión n. Se introduce la matriz de una forma bilineal enuna base ordenada y se establece el isomorfismo entre el espacio de las formasy el espacio de las matrices n x n. Se define el rango de una forma bilineal yse introducen las formas bilineales no degeneradas. La segunda sección estudialas formas bilineales simétricas y su diagonalización- La tercera trata las formasbilineales antisimétricas. La cuarta estudia el grupo que preserva una formabilineal no degenerada, con especial atención a los grupos ortogonales, a losgrupos seudoortogonales y a un grupo seudoortogonal particular --el grupode Lorentz.

Definición. Sea V un espacio 'vectorial sobre el cuerpo F. Una forma bilinealsobre V es una función f que asigna a cada par ordenado de vectores ot, li de V unescalar f(ot, /3) de F, y que satisface

353

Page 373: ASESORES TECNICOS

354 .iltgt-lira lt'm^ul

JJ0_JJ _/(cat, -l- 512, ƒl) = tj/'(9t¡, Il) + f(0t¡. [ll_/(ot. c/1', + /iz) = tj/(fx. /f,l + f(ot_ /¡2).

Si l' x V es el conjunto de todos los pares ordenados de vectores de V.esta definición puede expresarse como sigue: una forma bilineal sobre V es unafuncion /' de V x V en F que es lineal como función de uno de sus argumentoscuando el otro se deja fijo. La función cero de V x V en T es obviamente unaforma bilineal. También es cierto que cualquier combinación lineal de formasbilineales sobre V es una forma bilineal. Para demostrarlo es suficiente consi-derar combinaciones lineales del tipo cf + g, donde f y g son formas bilinealessobre V. La demostración de que ef' + g satisface (10-1) es similar a muchasotras que se han dado, y por tal razón se omitirá. Todo esto puede resumirsediciendo que el conjunto de todas las formas bilineales sobre V es un subes-pacio del espacio de todas las funciones de V x V en F (Ejemplo 3, Capítulo 2).Se representará el espacio de las formas bilineales sobre V por L( V, V, F).

Ejemplo l. Sea V un espacio vectorial sobre el cuerpo F y sean L1 y L2formas bilineales en V. Se define f por

f(Of, B) = L1(0f)L2(B)-Si se fija B y se considera a f como función de oi, entonces se tiene simplementeun múltiplo escalar del funcional lineal L,. Con ot fijo. f es un múltiplo escalarde L2. Asi es claro que ƒ es una forma bilineal en V.

Ejemplo 2. Sean m y n enteros positivos y F un cuerpo. Sea V el espaciovectorial de las matrices m x n sobre F. Sea A una matriz m x m dada sobre F.Sc define

ƒA(X, Y) = tr (X'AY).

Entonces /Q, es una forma bilineal sobre V. En efecto. si X_ Y y Z son matricesin x n sobre F

fA(CX -l- Z, Y) = tr [(cX -I- Z)'A Y]= tr (cXtA Y) + tr (Z'A Y)= CfA(X, +f¿(Z, Y).

Desde luego, se ha hecho uso de que la operación transpuesta y la función trazason lineales. Es incluso mas fácil demostrar que f,, es lineal como función desu segundo argumento. En el caso especial n = 1. la matriz X'A Y es 1 x 1.es decir, un escalar, y la forma bilineal es solamente

ƒ,t_(X, Y) = X'AY

= E E Áeƒíöillƒ-i J'

Mostraremos ahora que toda forma bilineal sobre el espacio de las matricesm x I es de este tipo; es decir, es /j, para cierta matriz m x m, A.

Page 374: ASESORES TECNICOS

I-'armas lilllnmlrt 355

Ejemplo 3. Sea F un cuerpo. Queremos hallar todas las formas bilinealessobre el espacio F2. Supóngase que f sea una forma bilineal de este tipo. Sicz = (x¡, x2) y ,B = (yl, yz) son vectores de F2, entonces

f(0f. 5) = f(fiv1e1 + wm, 5)= 21.f(e1, B) + rv2f(¢2, B)= 371f(f1› Zl1€1 + Zlzfi) "Í" íU2f(€2› 21161 + Zlafz)= $1!/1f(f1› fl) + 171?/af(G1, G2) + rvzz/1f(¢2, ei) + 2:21/2f(¢2, ez).

Así f está completamente determinada por los cuatro escalares A¡J- = f(e¡, eJ-) por

f(01, 5) = A11251@/1 + A12271@/2 + Á21-T2?/1 + A22932Zl2= A¡¡27¿y¡.

1.1

Si X e Y son las matrices de coordenadas de oz y ,B y si A es la matriz 2 x 2 conlos elementos A(i, j) = A¡J- = f(e¡, eJ-), entonces

(10-2) ƒ(a, fi) = X'A Y.

Se observó en el Ejemplo 2 que si A es cualquier matriz 2 x 2 sobre F. enton-ces (IO-2) define una forma bilineal sobre F2. Se ve que las formas bilinealessobre F2 son precisamente las que se obtienen de una matriz 2 x 2 comoen (10-2).

El análisis del Ejemplo 3 puede generalizarse para describir todas las formas bi-lineales sobre un espacio vectorial de dimensión finita. Sea V un espacio vec-torial de dimensión finita sobre el cuerpo F y sea G3 = {a1, _ _ _ _ oc,,} una baseordenada de V. Supóngase que f es una forma bilineal en V. Si

a=xla1+`°°+xnan y 6:?/1a1+"'+Z/na"

son vectores en V, entonces

.f(a› = -f xïaír

= 1?¡f(0f¢› 5)

= 1?-tf(f1›'› If/1011")

= xr?/J`ƒ(aí› ai)-Í- 1

Si se hace AJJ- = f(oz¡, ocJ-), entonces

f(Of, B) = 2_3A='1f-'!/f=X'AY

donde X e Y son las matrices de coordenadas de oc y B en la base ordenada (B.Así toda forma bilineal en V es del tipo

me f@m=@mm@

Page 375: ASESORES TECNICOS

,Uh _1I_tgt'I›ra lun-al

para alguna matriz n x n sobre F. Rcciprocamcntc_ si tiene cualquier ma-triz n x n, A, es fácil ver que (IO-3) dclinc ttna forma bilineal _/ sobre l', tal

1

Definición. Sea Van espacio vectorial de dimensión finita y sea 03 = {fx¡, _ _ _ ,oc,,} una base ordenada de V. Si f es una forma bilineal sobre V, la matriz de f enla base ordenada O3 es la matri: n x n, A, con elementos A¡J = f(fx¡, :xJ-)_ A vecesse representará esta matriz por [f](B_

Teorema 1. Sea V un espacio vectorial de dimensión finita sobre el cuer-po F_ Para cada base ordenada 03 de V, la función que asocia a cada forma bi-lineal sobre V su matri: en la base ordenada 03 es un isomorfismo del espacioL( V, V. F) sobre el espacio de las matrices n ›< n sobre el cuerpo F_

Demostración. Se observó anteriormente que f -› [_/](B es una corres-pondencia biunívoca entre el conjunto de las formas bilineales sobre V y elconjunto de todas las matrices n ›< n sobre F. Que es una transformación lineales fácil de ver, ya que

(Cf + Q)(<1='› Off) = Cf(0f¢'› Oh) + 9(0f=› 01)para todo i y _¡. Esto simplemente dice que

[f'f + .f/lo = ff[_flts -lr iflitti- I

Corolario. Si 03 = oq,_ _ _ , oc,,} es una base ordenada de V _t' 03* = ¦L¡_ _ _ _ _L,,} es la base dual de V*, entonces las nz formas bilineales

ji,-(-1-lll = L.-(GOL,-(li), 1 ;<_ i S n, 1 S Í S nforman una base del espacio L(V, V, F)_ En particular. la dimensión deL(V, V, F) es nz.

Demostración. La base dual {L¡, ..., L,,} está esencialmente definidapor el hecho de que L¡(ot) es la i-ésima coordenada de cx en la base ordenada O3(para todo ot de V). Ahora bien, las funciones f¡J- definidas por

fa-(<1,B) = L.-(a)L,-(B)son formas bilineales del tipo considerado en el Ejemplo l. Si

0¿=J310l1¬l"'°"l"J3nOfn Y Ú=_?/1Ol1'¬l-"'+_I/,,(x,,,

entoncesfij(0¿› = -¡fl/r

Sea f cualquier forma bilineal sobre V y sea A la matriz de ƒ' en la base or-denada O3. Entonces

f(a› : A-U'-til/J'1-J

que simplemente dice queƒ : Aiififi

7-1.7

Page 376: ASESORES TECNICOS

I-`m'ma.s lvilnn-oli-s 35 7

Está ahora claro que las nz formas f¿J- constituyen una base de L(V, V, F). I

La demostración anterior se puede expresar de otra manera como sigue.La forma bilineal _/,J tiene por matriz en la base ordenada G3 la matriz «uni-taria›› E”, cuyo único elemento no nulo es un l en la fila i y la columnaj. Comoestas matrices unitarias constituyen una base del espacio de las matrices n x n,las formas ƒ,ïJ- constituyen una base del espacio de las formas bilineales.

El concepto de matriz de una forma bilineal en una base ordenada es análo-go al de matriz de un operador lineal en una base ordenada. Al igual que paralos operadores lineales, estamos interesados en qué le sucede a la matriz re-presentante de una forma bilineal cuando se pasa de una base ordenada a otra.Para ello. supóngase que G3 == {ot,, _ _ _ , ocn] y (B' = {ot1,. _ _ , oz,',} sean dos basesordenadas para V y que f sea una forma bilineal en V. ¿Cómo están relacio-nadas las matrices [_/Í|¿B y L/Í|¿B-'? Sea P la matriz n x n (inversible) tal que

[alo = ¡'[0¢]et'para todo at en V. En otras palabras. se define P por

af = 2 Í),-Ja,-_¿-1

Para vectores fx, /1* cualesquiera en V

f(a, Í3) = iflliitlflmifilm= (¡'[0¢]ttt')'[fl«ttl'll3l<B'= [a]iw(l" [f]ttsl') [Blur-

Por la definición y unicidad de la matriz representante de f en la base orde-nada 03'. debemos tener que

(10-4) [fiar = ¡"[.fl<›il'-

Ejemplo 4. Sea V el espacio vectorial R2. Sea f la forma bilineal definidapor of = (xl, xz) y /3 = (_t'¡_ yz) por

Ahora f(a, B) = _r1_i¡¡ + _t'¡_i¡-_› + _t'-_›_i¡¡ + .r-¿_t¡¿_

l 1 _i/

fm'/3) Z U” "'21 it ti it/-1-iiy asi la matriz de _/` en la base ordenada canónica (B -= {e,_ e2} es

J [fica =

Sea G3' = {ej_ e§,¦ la base ordenada definida por e; = (l. -l), ef, = (1, l).En este caso, la matriz P que cambia las coordenadas de G3' a (B es

1 1P " [-1 1]'

Page 377: ASESORES TECNICOS

358 .-1 lgclrra lim-al

ASÍ

[flow = P'[f]cBl'

=lì ' ll lll_ì 1]=[ì ` [3 šl=[3 'il'

Esto quiere decir que si se expresan los vectores oc y B por medio de sus coorde-nadas en la base (B', por ejemplo,

t-li-Hi-9-1l_.._lL...._-l

a = ïifi + ï'3Éf§› B = Z/iei + 1/Éeåentonces

J-(az =

Una consecuencia de la fórmula (10-4) para el cambio de base es la siguien-te: si A y B son matrices n ›< n que representan la misma forma bilineal sobreV en bases ordenadas (posiblemente) diferentes, entonces A y B tienen el mismorango. En efecto, si P es una matriz n x n inversible y B = P'A P, es evidenteque A y B tienen el mismo rango. Esto hace posible definir el rango de una formabilineal-en V como el rango de cualquier matriz que represente la forma en unabase ordenada para V.

Es deseable dar una definición más intrínseca del rango de una forma bi-lineal. Esto sepuede hacer del siguiente modo. Supóngase que f es una formabilineal sobre el espacio vectorial V. Si se fija un vector cx de' V, entonces f(a, B)es lineal como función de B. De este modo cada oz fijo determina un funcionallineal en VJ-; se representa esta función lineal por LJ-(oz). Repitiendo, si cz es unvector en V, entonces LJ-(oc) es el funcional lineal en V cuyo valor para cualquiervector B es f(ot, B). Esto da una transformación ot-› LJ-(ot) de V en el espaciodual V*. Como

J-(cal + G2; = C]-(al: + J-(a2:

vemos queLf(C¢11 + G2) = CLf(0f1) -lr Lf(0=2)

esto es, LJ- es una transformación lineal de V en V*.De modo semejante, f determina una transformación lineal RJ- de V en V*.

Para cada- B fijo en V, f(oz, B) es lineal como función de oc. Se define R¡(B) comoel funcional lineal sobre V cuyo valor para el vector oz es f(a, B).

Teorema 2. Sea f una forma bilineal sobre el espa-cio vectorial de dimensiónfinita V. Sean L¡ y RJ las transformaciones lineales de V en V* definidas por(L¡ot)(B) = f(oz, B) = (R¡B)(a). Entonces, rango (LJ) = rango (RJ).

Demostración. Se puede dar una demostración de este teorema que nodependa de las coordenadas. Tal demostración es parecida a la demostración

Page 378: ASESORES TECNICOS

Forums l›Ilt'm'ul¢°.\ .LW

de que el rango de fila de una matriz es igual al rango de columna (Sección 3.7).Así que se dará aquí una demostración que consiste en elegir un sistema decoordenadas (base) y entonces usar el teorema de «rango de fila igual a rangode columna».

Para demostrar que rango (LJ-) = rango (RJ-) es suficiente demostrar queLJ- y RJ tienen la misma nulidad. Sea (B una base ordenada para Vy sea A = mm.Si oc y B son vectores en V, con matrices de coordenadas X e Y en la base orde-nada (B, entonces f(oz, B) = XTA Y. Ahora, RJ(B) = 0 quiere decir que f(oz, B)= 0para todo oc en V, es decir, que X'A Y = 0 para toda matriz n x 1, X_ Esta úl-tima condición dice que A Y = 0. La nulidad de RJ es, por tanto, igual a ladimensión del espacio solución de A Y = 0.

Similarmente, L¡(oc) = 0 si, y solo si, X'A Y = 0 para toda matriz n x 1, Y.Así oc está en el espacio nulo de LJ- si, y solo si, X'A = 0 es decir, A'X = 0. Lanulidad de LJ es, por tanto, igual a la dimensión del espacio solución de A'X = 0.Como las matrices A y A' tienen el mismo rango columna, vemos que

nulidad (LJ) = nulidad (RJ). I

Definición. Si f es una forma bilineal sobre un espacio de dimensión finitaV, el rango de f es el entero r = rango (LJ) = rango (RJ).

Corolario 1. El rango de una forma bilineal es igual al rango de la matrizde la forma en cualquier base ordenada.

Corolario 2. Si f es una forma bilineal sobre el espacio vectorial de di-mensión n, lo siguiente es equivalente:

(a) Rango (f) = n. _(b) Para todo oc no nulo de V, existe un B en V tal que f(oz, B) #= 0.(c) Para todo B no nulo de V, existe un ot en V tal que f(ot, B) #= 0.

Demostración. La afirmación (b) no dice más que el espacio nulo de LJ esel subespacio cero. La afirmación (c) dice que el espacio nulo de RJ es el sub-espacio cero. Las transformaciones lineales LJ y RJ tienen nulidad 0 si, y solo si,tienen rango n, es decir, si, y solo si, rango (f) = n. I

Definición. Una forma bilineal f sobre un espacio vectorial V se llama nodegenerada (0 no singular) si satisface las condiciones (b) y (c) del Corolario 2.

Si Ves de dimensión finita, entoncesf es no degenerada siempre que f cumplauna cualquiera de las tres condiciones del Corolario 2. En particular, f es nodegenerada (no singular) si, y solo si, su matriz en alguna (toda) base ordenadapara V es una matriz no singular.

Ejemplo 5. Sea V = R"-y sea f la forma bilineal definida para oc = (x,, _ _ _ ,xn) y fi = (yla ° ° ° 9 yn) por

.f(a› = xlyl + ° ` ° + xnyn-

Page 379: ASESORES TECNICOS

MU -I l_ecI›ru lineal

I-'ntonces / es una forma bilineal no degenerada en R". La matri/ de / en lal'-ase ortlcn;ttl;t canónìca es la matri/ unidad n x n

f(X, Y) == X'Y_

lstc I generalmente se llama producto escalar. El lector estará probablementel_tmiliari7.ado con esta forma bilineal- al menos para el caso n = 3. Geome-tricamentc el número _f(ot, B) es el producto de la longitud de cx, la longitud deB y el coseno del ángulo entre cx y B. En particular f(oz, B) = 0 si. y solo si, losvectores ot y B son ortogonales (perpendiculares).

I::¡'ercici0s

I. ;_C`uáles de las siguientes funciones] definidas para vectores 1 = (x,. xz) y B = (r,. 1:2)dc R2 son formas bilineales?

(11) f(¢1.B) = 1-(l›) f(a, B' = (rr - z/t)'2 + ra/2.(cl .l-(05 = (1't+ ?/1): “(171 __?]i)2-(dl f(0¿› ta) = T1!/2 _ -T2?Ie-

2. Sea _/ la forma bilineal sobre R2 definida por

f((-F1, '_'/1)» (12, 2/2)) = ft!/1 -lr I-:.'/-±-

Hallar la matriz de ƒ en cada una de las siguientes bases

{(l,0),(0.1)¦-, {(t, -1), (1, 1):-, {(1,2), t:;,¬t);.3. Sea V el espacio de todas las matrices 2 x 3 sobre R y sea I la forma hilincal sobreI' definida por _/(X, Y) = traza (X'A Y). donde

l 2A = -

3 4

llallar la matriz de _/ en la base ordenada{E11J E12, E13, E21, E22, E23:

donde El-" es la matriz cuyo único elemento no nulo es un I en la fila i y columna ¡_

4. Describir explícitamente todas las formas bilineales _/ sobre R3 con la propiedad deque f(:x, B) = _/`(B_ oc) para todo 1. B.

5. Describir la forma bilineal sobre R2 que satisface /(oz. B) = -_/(B. xl para todo 1. B.

6. Sea n un entero positivo y sea V el espacio de todas las matrices n ›< n sobre el cuerpode los números complejos. Demostrar que

f(/1, B) = 'n tr (AB) - tr (A) tr (B)define una forma bilineal f sobre V. ¿Es verdad que _/(A, B) = _/(B, A) para toda A. B1'

7. Sea _/` la forma bilineal definida en el Ejercicio 6. Demostrar que _/` es degenerada (queno es no degenerada). Sea V, el subespacio de V que consiste en las tnatrices de tra/a 0. ysea fl la restricción de _/' a V1. Mostrar que _/', es no degenerada.

8. Sea f la forma bilineal definida en el Ejercicio 6 y sea V2 el subespacio de V que consis-

Page 380: ASESORES TECNICOS

I « u mas Inltnml.-t _{(,/

te en todas las matrices A tal que traza (A) = 0 y A* = -A (A* es la transpuesta conju-gada de A)- Desígnese por _/'Z la restricción de f a V2. Mostrar que _/`2 es negativamente de-tìnida: es decir. que _/¿(A_ A) < 0 para cada A no nulo en V2.

9. Sea _/ la forma bilineal definida en el Ejercicio 6. Sea W el conjunto de todas las matri-ces A en V tales que _/(A _ B) = 0 para todo B. Demostrar que W es un subespacio de V.Describir W explícitamente y hallar su dimensión.

I0. Sea /' cualquier forma bilineal sobre un espacio vectorial de dimensión finita V. Seall' el subespacio de todos los B tales que _/(ot, B) = 0 para todo ot. Mostrar que

rango _/' = dim V - dim W.

Usar este resultado y el del Ejercicio 9 para calcular el rango de la fonna bilineal defini-da en el Ejercicio 6.

ll. Sea _/` una forma bilineal sobre un espacio vectorial de dimensión finita V. Supón-gase que V, es un subespacio de V con la propiedad de que la restricción.de I a V, es nodegenerada. Demostrar que rango f 2 dim VJ.

I2. Sean f, g formas bilineales sobre un espacio vectorial de dimensión finita V. Supón-gase que g es no singular. Demostrar que existen operadores lineales únicos T1, T2 sobreI' tales que

f(¢1,B) = 9(T›¢r,t5) = g(a, Tzfi)para todo zx, B.

13. Demostrar que el resultado dado en el Ejercicio 12 no necesita ser cierto si g essingular.

I4_ Sea _/' una forma bilineal sobre un espacio vectorial de dimensión finita V. Demos-trar que f puede expresarse como producto de dos funcionales lineales (es decir, f(a, B) =L¡(a)L¿(B) para L,, L2 en V*) si, y solo si, _/` tiene rango l.

10.2. Formas bilineales simétricas

El propósito principal de esta sección es responder a la siguiente pregunta:si f es una forma bilineal sobre el espacio vectorial de dimensión finita V, ¿cuán-do existe una base ordenada 03 de V en la que f esté representada por una matrizdiagonal? Se demostrará que esto es posible si, y solo si, f es una fonna bilinealsimétrica, es decir. f(oc, B) = f(B, oz). El teorema se demostrará solo cuandoel cuerpo de los escalares tiene característica cero, esto es, que si n es un enteropositivo la suma 1 + l + " ' + l (n sumandos) en F no es 0.

Definición. Sea f una forma bilineal sobre el espacio vectorial V. Se diceque f es simétrica si f(oz, B) = f(B, oc) para todos los vectores oc, B de V.

Si V es de dimensión finita, la forma bilineal f es simétrica si, y solo si, sumatriz A en cierta (o en toda) base ordenada es simétrica, A' = A. Para veresto se requiere saber cuándo la forma bilineal

f(X, Y) = Xf/tr

Page 381: ASESORES TECNICOS

,M2 A l_eel›ra lineal

es simétrica. Esto sucede si, y solo si, X'A Y == Y'AX para todas las matricescolumnas X e Y. Como X'A Y es una matriz 1 x l, se tiene que X'A Y = Y'A'.\'.Así, pues, f es simétrica si, y solo si, Y'A'X = Y'AX para todo X, Y. Evidente-mente esto quiere decir que A = A'. En particular, debe observarse que si existeuna base ordenada para V en la que f está representada por una matriz diago-nal, entonces f es simétrica, ya que ,cualquier matriz diagonal es una matri:simétrica.

Si f es una forma bilineal simétrica, la forma cuadrática asociada con f esla función q de V en F definida por

¶(a) = f(a, «)-Si F es un subconjunto de los números complejos, la forma bilineal simétricaestá completamente determinada por su forma cuadrática asociada. de acuer-do con la identidad de polarización

(10-5) f(a, 6) = %q(a + B) - šq(0= - B)-El establecer (10-5) no es más que una rutina de_cálculo que se omite. Si f es laforma bilineal del Ejemplo 5. el producto escalar, la forma cuadrática aso-ciada es

q(:i:1,_ _ _,x,,) = :i:i-l- -l-xfi.

En otras palabras, q(oz) es el cuadrado de la longitud de ot. Para la forma bilinealf,,(X, Y) = X'A Y, la forma cuadrática asociada es

= = 2)-xtlijllïiílfj.31.7

Una clase importante de formas bilineales simétricas son los productosinternos en los espacios vectoriales reales. estudiados en el Capítulo 8. Si V esun espacio vectorial real, un producto intemo sobre V es una forma bilinealsimétrica f sobre V tal que(10-6) f(oz, oz) > 0 si oc ql-= 0.

Una forma bilineal que cumple (10-6) se llama positivamente definida. Así, unproducto intemo sobre un espacio vectorial real es una forma bilineal simétricay positivamente definida sobre ese espacio. Obsérvese que un producto internoes no degenerado_ Dos vectores oz, B se llaman ortogonales respecto al pro-ducto interno f si f(ot, B) = 0. La forma cuadrática q(:x) = f(oz, oc) toma solovalores no negativos y q(ot) se considera corrientemente como el cuadrado dela longitud de oz. Desde luego, estos conceptos de longitud y ortogonalidadtienen su origen en el más importante ejemplo de un producto interno -elproducto escalar del Ejemplo 5.

Si f es cualquier forma bilineal simétrica sobre un espacio vectorial V, esconveniente aplicar en parte la terminología a los productos internos a jfi Esespecialmente conveniente decir que ot y B son ortogonales con respecto a f. sif(a, B) = 0. No es aconsejable pensar en ƒ(a, oz) como el cuadrado de la longi-tud de oc; por ejemplo, si V es un espacio vectorial complejo, se puede tenerf(oz, ot) = _ / -1, o en un espacio vectorial real, ,/(oc, ot) = -2.

Page 382: ASESORES TECNICOS

I'ornm_s lilltnmln _lt›_l

Se vuelve ahora al teorema básico de esta sección. Al leer la demostración,le será de provecho al lector pensar en el caso especial en que V es un espaciovectorial real y f un producto interno sobre V.

Teorema 3. Sea V un espacio vectorial de dimensión finita sobre un cuerpode caracteristica cero, y sea f una forma bilineal simétrica sobre V. Entoncesexiste una base de V en la que f está representada por una matriz diagonal.

Demostración. Lo que se debe hallar es una base ordenada

(B= {a1,_..,a,,}

tal que f(a1_ ocJ-) = 0 para i 7€ j. Si f = 0 o n = 1, el teorema es evidentementecierto. Por tanto, se puede suponer que f sé 0 y n > 1. Si ƒ(:x, oz) = 0 paratodo oten V, la forma cuadrática asociada q es idénticamente 0 y la identidadde polarización (10-5) muestra que ƒ = 0. Entonces existe un vector ot en V talque f(a, ot) = q(oz) =/= 0. Sea W el subespacio unidimensional de V que es gene-rado por ot y sea Wi el conjunto de todos los vectores B en Vtales que f(ot, B) = 0.Afirmamos que V = W_ EB Wi. Ciertamente, los subespacios W y W* sonindependientes. Un vector típico de W es ca, donde c es un escalar. Si tambiénca está en Wi, entonces f(coz, cal = c2f(ot, oc) = 0. Pero f(ot, ot) =¡é 0, luegoc = 0. Así que cada vector de V es suma de un vector de Wy de un vector de Wi.En efecto, sea ¬,› cualquier vector en V. y se hace

__ _f('v,¢1)a5"” ft ›'a, a

Entonces

ft-_ ø) = ft-_ 1) - ft-_ -1a, a

y como f es simétrica, f(oz, B) = 0. Así B está en el subespacio Wi. La expresión

_ llull*"flao“+”muestra que V = W -1 W*_

La restricción de ƒ a W* es una forma bilineal simétrica. Como W* tienedimensión (n - 1), suponer por inducción que W* tiene una base {ot2, _ _ _ , ot,,}tal que _

.f(aí›ai)=0›

Haciendo al = ot, se obtiene una base {oc1, _ _ _, oc,,} de V tal que f(oc¡, otJ-) = 0para i=,éj_ I

Corolario. Sea F un subcuerpo de los números complejos, y sea A una ma-triz simétrica n x n sobre F_ Entonces existe una matriz n x n inversible P sobreF tal que P'AP es diagonal.

En caso de que F sea el cuerpo de los números reales, la matriz inversibleP de este corolario puede elegirse de modo que sea una matriz ortogonal, es

Page 383: ASESORES TECNICOS

.M4 .'1l_l¦¢'l›t'u ltimïtl

decir, I" = P"'_ En otras palabras, si A es una matriz simétrica real n x n,existe una tnatriz ortogonal real P tal que P'AP es diagonal; sinembargo, estono es del todo evidente en lo que se hizo anteriormente (véase Capitulo 8).

Teorema 4. Sea V un espacio vectorial de dimensión finita sobre el cuerpode los números complejos. Sea f una forma bilineal simétrica sobre V que tienerango r. Entonces existe una base ordenada 03 = { B1, _ _ _ , B,,} de V tal que

(i) la matriz de f en la base ordenada (B es diagonal ;

(ia ftfi,-_ 11,): ((1): .;j§J1¿,.Demostración. Por el Teorema 3, existe una base ordenada {ot,, _ _ _ , oz,,}

de V tal quef(ot¡, oq) = 0 para i=;é j.

Comof tiene rango r_ también lo tendrá su matriz en la base ordenada { oz, , _ _ _ , ot,, }_Entonces debemos tener que ƒ(otJ-, otJ-) =;é 0 para r valores de /` precisamente. Reor-denando los vectores ocJ, se puede suponer que

f(aJ`›a_1')5¿0› Í-:lt-°~›T~

Se usa ahora el hecho de que el cuerpo de los escalares es el cuerpo de los nú-meros complejos. Si _/f(otJ-, ozJ-) representa cualquier raíz cuadrada complejade f(aJ-, ocJ-), y si se hace

---i---oz j-"-1 1'`/”"'“"_" it _' 1--~›B; = f(0=;'› Off)

aii > T

la base {B,, _ _ - , (ini satisface las condiciones (i) y (ii). I

Naturalmente, el Teorema 4 es válido si el cuerpo de los escalares es cual-quier subcuerpo de los números complejos en el que cada elemento tiene unaraíz cuadrada. No cs válido, cuando el cuerpo escalar es el cuerpo de los nú-meros reales_ Sobre el cuerpo de los números reales tenemos el siguiente susti-tuto para el Teorema 4.

Teorema 5. Sea V un espacio de dimensión n sobre el cuerpo de los núme-ros reales y sea f una forma bilineal sime'trica sobre V que tiene rango r. Entoncesexiste una base ordenada {B,, B2, _ _ _ , B,,} de V en la que la matriz de f es dia-gonal y tal que

f(/i,-,I3,-)= ±t_ _¡= 1, r.Además, el número de vectores de base BJ- para los que f(BJ-, BJ.) = 1 es indepen-diente de la elección de base.

Page 384: ASESORES TECNICOS

l-ornmt Ivilnn-ul.-s ¡M

Demostración. Existe una base {ot1_ _ _ _ _ oc,,} de V tal que

.l-(air ai) = Oi

f(0fif›0¢¡)?f0› ÍÉJSTJ-(ah a1) = O1 > T-

Sea

BJ' = |ƒ(aJ'› aJ`)i_l/2aJ'› 1 S S T

fií = aii Í > T-

Entonces {B,, _ _ _ , B,,} es una base con las propiedades establecidas.Sea p el número de vectores de base BJ para los que f(BJ-, BJ-) = 1; se debe

demostrar que el número p es independiente de la base particular que tenemos,que satisface las condiciones establecidas. Sea V ¬` el subespacio de V generadopor los vectores de base BJ- para los que f(BJ-, BJ-) = I y sea V_ el subespaciogenerado por los vectores de base BJ. para los que f(B¡, BJ-) - -1. Ahorap = dim V *_ de modo que es la unicidad de la dimensión de V ¬` la que se debedemostrar. Es fácil ver que si of es un vector no nulo de Vi, entonces ƒ(ot, ot) > 0;en otras palabras, f es positivamente definida sobre el espacio V *_ En formaanáloga, si oc es un vector no nulo de V "T, entonces f(-at, oc) < 0; es decir, f esnegativamente definida en el subespacio V `_ Sea ahora Vi el subespacio genera-do por los vectores de base BJ- para los que j(BJ-, BJ-) = 0. Si oc está en Vi, enton-ces f(ot, B) = 0 para todo B en V.

Como {B,, _ _ _ , B,,} es una base de V, se tiene que

V = V* Q-) V- Q-) Vi.Además, se afirma que si W es cualquier subespacio de V en el que f es posi-tivamente definida, entonces los subespacios W, V“ y Vi son independientes.En efecto, supóngase que ot está en W, B en V_, 3-' en V y que oc + B + 1' = 0.Entonces

0 = f(0=, of + 6 + 1) = f(<1f0=) +f(0=, 6) +f(a, 1)0 = f(B, of + B + 1) =f(B, <1)+f(B,B)+f(B, 1)-

Como ¬,' está en Vi, _/(oz, ¬,›) = f(B, ji) = 0; y como f es simétrica, se obtiene

0 = f(0¢, 0) + f(<1,B)0 = f(B, 6') + f(¢1, B)

Luego f(oz, ot) = f(B, B). Como ƒ(¿1, oc) 2 0 y f(B, B) < 0, se sigue que

f(a, of) = f(B, 6°) = 0-Pero f es positivamente definida sobre W y negativamente definida sobre VSe concluye que ot = B = 0 y luego también que ¬,› = 0. Como

v = v+(¬_->v¬q->v-y W, V T, Vi son independientes, vemos que dim W 5 dim V *_ Esto es, siW es cualquier subespacio de V en el que ƒ es positivamente definida, la di-

Page 385: ASESORES TECNICOS

¡OO A lgchm lineal

mensión de W no puede exceder la dimension de l ' '_ Si (B, es otra base orde-nada dc V que satisface las condiciones del teorema, se tendrán los correspon-dientes subespacios V,i , V," y V,i; y el razonamiento anterior mues_tra quedim V,* 5 dim V *_ lnvirtiéndolo, se obtiene que dim V* 5 dim V,* y, portanto,

dim V* = dim VT. I

Varios comentarios habría que hacer respecto a la base {B,, _ _ . , finl del Teo-rema 5 y de los subespacios asociados V*, V" y Vi. Primero obsén/ese queVi es exactamente el subespacio de los vectores que son «ortogonales›› a todoslos de V. Se observó anteriormente que Vi está contenido en este subespacio; pero

dim Vi = dim V - (dim V* + dim V`) = dim V - rango f

de modo que todo vector oc tal que f(oz, B) = 0 para todo B debe estar en Vi.Así que el subespacio Vi es único. Los subespacios V* y V" no son únicos;sin embargo, sus dimensiones son únicas. La demostración del Teorema 5 mues-tra que V* es la mayor dimensión posible de cualquier subespacio en el que fes positivamente definida. En forma análoga, dim V* es la mayor dimensiónde cualquier subespacio en el que f es negativamente definida. Por cierto

dim V* -l dim V- = rango f.

El númerodim V* - dim V`

es a menudo llamado signatura de f. Se le introduce porque las dimensionesde V* y V" están determinadas fácilmente por el rango de f y la signatura de f.

Debería hacerse tal vez un comentario sobre la relación de las formas bili-neales simétricas sobre espacios vectoriales reales con los productos internos.Supóngase que V es un espacio vectorial real de dimensión finita y que V,, V2,V3 sean subespacios de V tales que

V = V1€-)V2Gl)V3_

Supóngase que f, es un producto interno sobre V, y f2 es un producto internosobre V2. Se puede entonces definir una forma bilineal simétrica f sobre V delsiguiente modo: si oz, B son vectores de V, entonces se puede escribir

0f='11†a2+as Y ll=›61+li2+li3

con otJ, yBJ- en VJ. Sea

f(0f› ll) = f1(0f1› fi1)“' f2(a2› B2)-

El subespacio Vi para f será V3; V, es un adecuado V* para `/2 y V2 es un ade-cuado V__ Una parte de la afirmación del Teorema 5 es que toda forma bilinealsimétrica sobre V surge de este modo. El resto del contenido del teorema esque un producto interno está representado en alguna base ordenada por lamatriz unidad.

Page 386: ASESORES TECNICOS

Forntas l›lltm'aIt's 307

Ejercicios

1. Las siguientes expresiones definen formas cuadráticas q sobre R2. Hallar la formabilineal simétrica f correspondiente a cada q.

(11) ari." (G) wi + 922%-(b) bm» (f) sm, - eg.(0) 017%- (g) 41:2 -I- 6:t1:1:2 - 3:1:å.(d) 23% 2'" šíïtílfz-

2. Hallar la matriz, en la base ordenada canónìca, y el rango de cada una de las formasbilineales determinadas en el Ejercicio 1. lndicar cuáles formas son no degeneradas_

3. Sea q(x,, x2) = axf + bx,x2 + cxš la forma cuadrática asociada con una forma bi-lineal simétrica f sobre R2. Demostrar que ƒ es no degenerada si, y solo si, b2 - 4ac al= 0.

4. Sea V un espacio vectorial de dimensión finita sobre un subcuerpo F de los númeroscomplejos y sea S el conjunto de todas las formas bilineales simétricas sobre V.

(a) Demostrar que S es un subespacio de L(V, V, F)_(b) Hallar dim S.

Sea Q el conjunto de todas las formas cuadrátiCaS S0bf€ V.

(c) Demostrar que Q es un subespacio del espacio de todas las funciones de V en F.(d) Describir explícitamente un isomorfismo T de Q sobre S, sin referencia a una base.(e) Sea U un operador lineal sobre V y q un elemento de Q. Mostrar que la igualdad

(U †q)(cx) = q(Ucx) define una forma cuadrática U iq sobre V.(f) Si 'U es un operador lineal sobre V, demostrar que la función U † definida en la

parte (e) es un operador lineal sobre Q. Demostrar que U † es inversible si, y solo si. U esinversible.

5. Sea q la forma cuadrática sobre R2 dada por

¢l(93t, $2) = aílïi il' 253511132 'l' 033%; 0 9€ 0-

Hallar un operador lineal inversible U sobre R2 tal que

(U†9)(rvt, 2:2) = mi + (0 -%2)1'š-

(Sugerencia: Para hallar U"i (y luego U) completar el cuadrado. Para la definición de U†véase parte (e) del Ejercicio 4.)

6. Sea q la forma cuadrática sobre R2 dada por

q(:t:,, 1:2) = 2b:l'¡:c2_

Hallar un operador lineal inversible U sobre R2 tal que

(U†q)(<›;,, $2) = zbfi - 2bxš.7_ Sea q la forma cuadrática sobre R3 dada por

(](ïl7l› T2, ffs) = 131232 + 2I1$a il' 37%-

Hallar un operador lineal inversible U sobre R2' tal que

(U†q) (xl, 2:2, 2:3) = 1:2 - 122 -l- J:š_

Page 387: ASESORES TECNICOS

3(›H Algebra lineal

(Sugerencia: Expresar U como producto de operadores análogos a los usados en el Ejer-cicio 5 y 6.)

8. Sea A una matriz simétrica n x n sobre R, y sea q la forma cuadrática sobre R" dadapor

(](íl71, . . . , In) = Á¡¡íl7¿íl7¡.1.]

Generalizar el método usado en el Ejercicio 7 para demostrar que existe un operador linealinversible U sobre R" tal que

(U†q)(<›;,, _ _ _ , en = É: cas?t=l

donde c, es 1, -1, 00, i= 1, ___, n.

9. Sea f una forma bilineal simétrica sobre R". Usando el resultado del Ejercicio 8, de-mostrar que existe una base ordenada (B tal que [f]¿B es diagonal.

I0. Sea V el espacio vectorial real de todas las matrices (complejas) hermíticas 2 x 2,esto es, matrices complejas 2 x 2, A, que cumplen A,-J = ÃJ-,_

(a) Demostrar que la igualdad q(A) = det A define una forma cuadrática q sobre V.(b) Sea W el subespacio de V de las matrices de traza 0. Demostrar que la forma bili-

neal f determinada por q es negativamente definida en el espacio W

ll. Sean V un espacio vectorial de dimensión finita y f una forma bilineal simétrica nodegenerada sobre V. Demostrar que, para todo operador lineal T sobre V, existe un únicooperador T' sobre V tal que f(Ta, B) = f(cx, T'B) para todo oz, B de V. Demostrar tam-bién que

(T1T2)' = TÉTÍ(c¡T¡ -I- c2T2)' = c,T{ + c2T§

(T')' = T.

¿Cuánto de lo anterior sigue siendo válido sin la suposición de que T es no degenerada?

12. Sean F un cuerpo y V el espacio de las matrices n x 1 sobre F. Supóngase que A esuna matriz n x n dada sobre Fy que f es la forma bilineal sobre Vdefinida por f(X, Y) =X'A Y. Supóngase que f es simétrica y no degenerada. Sea B una matriz n x n sobre F yT el operador lineal sobre V que aplica X en BX_ Hallar el operador T' del Ejercicio 11.

13. Sean V un espacio vectorial de dimensión finita y f una forma bilineal simétrica nodegenerada sobre V. Asociado a f hay un isomorfismo «natural›› de V sobre el espaciodual V*; este isomorfismo es _la transformación LJ de la Sección 10.1. Usando LJ, demos-trar que para cada base (B = {ot,, _ _ _ , a,,} de V existe una única base (B' = {ot1, _ _ _ , cx,',}de V tal que f(ot,, og) = ö,J-_ Mostrar entonces que para todo vector cx de V se tiene que

Of = §f(¢1,¢1í)a=- = Zf(a-, fllaí-

l4. Sean V, f, (B y (B' como en el Ejercicio 13. Supóngase que T es un operador linealsobre V y que T' es el operador que ƒ asocia a T como en el Ejercicio 11. Demostrar que

(8) [T']<s' = lT]âa-i(b) tf (T) = tr (T') = 2_ìf(T¢r.-, dí)-

Page 388: ASESORES TECNICOS

I-'armas Inlimwlt-.t ,mo

I5_ Scan V, _/, (B y (B' como en el Ejercicio 13. Supóngase que [j]¿B = A. l)emostrar que

Gi = É (A_i)fi'0fi1 = E (A`i)ffa;-2 1

I6. Sean F un cuerpo y V el espacio de las matrices n x 1 sobre F. Supóngase qm; A ,_-__,una matriz n x n inversible y simétrica sobre F y que f es la forma bilineal sobre V d,;_-¡¡n¡-da por f(X, Y) = X'A Y. Sean P una matriz inversible n x n sobre F y (B la base de V queconsiste en las columnas de P. Hacer ver que la base (B' del Ejercicio 13 consta de las eo-lumnas de la matriz A`i(P')"i_

17. Sean V un espacio vectorial de dimensión finita sobre un cuerpo F y f la forma b¡|¡-neal simétrica sobre V. Para cada subespacio W de V, sea Wi el conjunto de todos los vw-tores ot de V de modo que ƒ(ot, B) = 0 para todo B de W. Demostrar que

(a) Wi es un subespacio.(b) V = {0}i_(c) Vi = {0} si, y solo si, f es no degenerada.(d) rango f = dim V - dim Vi(e) Si dim V = n ydim W = m, entonces dim Wi 2 n - m. (Sugerencia: Sea {B,, _ _ _ ,

B,,} una base de W y considérese la aplicación

01 -> (f(a. B1). - - - ,f(¢1.B».))de V en F"').

(f) La restricción de f a W es no degenerada si, y solo si,

W F) Wi = {0}_

(gl V = W E9 Wi si, y solo si, la restriccion de f a W es no degenerada_18. Sean V un espacio vectorial de dimensión finita sobre C y f una forma bilineal sime-trica no degenerada sobre V. Demostrar que existe una base G3 de V tal que (B' = (]3_ (V¿¿,,,,,.Ejercicio 13 para la definición de 03'.)

10.3. Formas bilineales antisimétricas

En toda esta sección, V será un espacio vectorial sobre un subcuerpo F delcuerpo de los números complejos. Una forma bilineal f en V se llama a¡,¡¡5¡_métrica si f(oc, B) = -f(B, oc) para todos los vectores oc, B de V. Se demostraráun teorema que se refiere a la simplificación de la matriz de una fonna bilinealantisimétrica sobre un espacio de dimensión finita V. Primero, se harán algunasobservaciones generales.

Supóngase que f es cualquier forma sobre V. Si se hace

9(a, B) = å[f(0f. B) +f(B.f1)]h(0f. B) = %[f(0f, B) _ f(B› 00]

entonces es fácil verificar que g es una forma bilineal simétrica sobre V y queh es una forma bilineal antisimétrica sobre V. También que f = g + li. Además,esta expresión de V, como suma de una forma simétrica y una antisimétrica,es única. Así el espacio L(V, V, F) es suma directa del subespacio de las formassimétricas y del subespacio de las formas antisimétricas.

Page 389: ASESORES TECNICOS

3 70 .4 l_t:el›ra lineal

Si V es de dimensión finita, la forma bilineal /' es antisimétrica si, y solo si.su .matriz A en alguna (o en toda) base ordenada es antisimétrica, A' = -A.Esto se demuestra del mismo modo que se demostró el correspondiente hechorespecto a las formas bilineales simétricas. Cuando _/ es antisimétrica. la matrizde f en cualquier base ordenada tendrá todos sus elementos en la diagonaliguales a 0. Esto corresponde a la observación de que f(a, ot) =- 0 para todo ade V. ya que f(a, oz) = -f(oz, oc).

Supóngase que f es una forma bilineal antisimétrica no nula sobre V. Comof =)ë 0,, existen vectores ot, B de V tales que f(oz, B) + 0. Multiplicando oz por unescalar apropiado, se puede suponer que f(a, B) = 1. Sea y cualquier vectordel subespacio generado por oc y B, por ejemplo, 7 = ca + dB. Entonces

f('r, 0) = f(Ca + dl?, Of) = df(B, Of) = -df(^r, B) = f(0a + dB. 6) = Cf(a, 6) = 0

y así

(10-7) 'Y = f(1, 6)@ - f(1. a)B-En particular, obsérvese que oc y B son necesariamente independientes: en efecto,si 'y -= 0, entonces f('y, ot) = f(*y, B) = 0.

Sea W el espacio bidimensional generado por cx y B. Sea Wi el conjuntode todos los vectores ô de V tales que f(ö, ot) = f(ö_ B) = 0; esto es, el conjuntode todos los ö tales que f(ö, y) = 0 para todo 'y en el subespacio W. Se afirmaque V = WEB Wi. En efecto, sea e cualquier vector de V y

'Y = f(f› 5)@ _ f(e, a)B5 = e - 7.

Entonces y está en W, y ö está en Wi, para

,f(ô› a) = ƒ(6 _ f(es B)a +ƒ(¿› a)ô› a)

= f('f› Of) -l- f(¢› Ofi)f(B› O)= 0

y en forma análoga, f(ö, B) = 0. Así, pues, todo e de V es de la forma e = 'y + öconyen Wyôen Wi. De (9-7) es claro que WH Wi = {0},yasí V = WEB Wi.

Ahora la restricción de fa Wi es una forma bilineal antisimétrica sobre Wi.Esta restricción puede ser la forma cero. Si no es éste el caso, existen vectores1' y B' en Wi tales que f(ot', B') = l. Si W' es el subespacio bidimensionalgenerado por oz' y B', entonces se tendrá que

V = VVGBI-V'Q-)Wo

donde W,, es el conjunto de todos los vectores ô de Wi tales que f(oz', ö) =f(B', 6) = 0. Si la restricción de f a WO no es la forma cero, se pueden elegirvectores ot", B" en W,, tales que f(oz", B") = 1, y sesigue asi.

En el caso de dimensión finita, se obtiene inmediatamente una sucesiónfinita de parejas de vectores

(al: 61): (a2: 62): - ° ° 1 (alfa BE)

Page 390: ASESORES TECNICOS

I-tu mas Iultnmlcs 17]

con las siguientes propiedades:

1 1, ii il, . . . , k.

(bt ft@-_. «_-› = fui, tf,-› = ft«__ fi,› = 0. 1+ 1.(c) Si WJ- es el subespacio bidimensional generado por ozJ- y BJ-, entonces

V = WJ@ @WJJ@W0donde todo vector de W,, es «ortogonal›› a todos los ozJ- y BJ-, y la restricción dcf a W,, es la forma cero.

Teorema 6. Sea V un espacio vectorial de dimensión n sobre un sul›cu:'rpode los números complejos y sea f una forma bilineal antisimétrica sobre V. Enton-ces el rango r de f es par, y si r = 2k, existe una base ordenada de V en que la ma-triz def es sun-za directa de la matriz cero (n - r) x (n - r) y k matrices 2 x 2iguales a

Ii 0 l]_-1 0

Demostración. Sean ot,, B ,_ _ _ _ , uk, B,, los vectores que satisfacen las con-diciones antcriores (a), (b) y (c). Sea {'y,, _ _ _ , 'ys} cualquier base ordenada delsubespacio WO. Entonces

(B = {a1› 61) a2) 62) ~ ' ° › ab Bb 'Yls - - - 1 78)'

es una base ordenada de V. Por (a), (b) y (c) es inmediato que la matriz de / enla base ordenada 03 es suma directa de la matriz cero (n - 2k) x (n - 2It) yk matrices 2 ›< 2 iguales a

(10-8) L?Además, es claro que el rango de esta matriz y, por tanto, el de f es 2k_ I

Una consecuencia de lo anterior es que si f es una fomia bilineal antistmctrica no degenerada sobre V, entonces la dimensión de V debe ser pat Stdim V = 2k, existirá una base ordenada {oz,, B,, _ _ _ , ak, B,,} de V tal que

f(O='› 51') = {?, Tí_-c

f(a-, af) = f(l3.-, 6,) = 0-La matriz f en esta base ordenada es suma directa de k matrices antisitnetricas2 x 2 como la (10-8). Se obtiene otra forma canónìca para la matriz de unaforma antisimétrica no degenerada si, en vez de la base ordenada dada anterior-mente. se considera la base ordenada

{al;-~-gahfllu--'IB1}'

El lector hallará fácil verificar que la matriz de f en la última base ordenadatiene la forma bloque

Page 391: ASESORES TECNICOS

3 74 .fl lgrlvm hmul

que «prcscrvan›.› f_ El conjunto de todas las matrices [7']w. donde Tes un upc-rador lineal que preserva _/Q será grupo para la multiplicación matricial. Ilztyotra descripción de este grupo de matrices, y es la siguiente. Sea A = [J/"jm,dc modo que si cx y ¡B son vectores de V con las respectivas matrices de coordcsnadas X e Y respecto de G3, se tendrá que

f(a, B) = X'AY-Sea T cualquier operador lineal sobre V y M = [T]¿B. Entonces

f(Ta, TI3) = (MX)'A(MY)= X'(M'AM)Y.

Por tanto, Tpreservaf si, y solo si, M'AM = A. Entonces, en lenguaje matricial,el Teorema 7 dice lo siguiente: si A es una matriz n ›< n inversible, el conjuntode todas las matrices n ›< n, M, tales que M'AM = A es grupo para la multi-plicación matricial. Si A = entonces M está en este grupo de matricessi, y solo si, M = [T]¿B, donde T es un operador lineal que preserva ƒl

Antes de ver algunos ejemplos queremos hacer una observación más. Supón-gase que ƒ es una forma bilineal simétrica. Un operador lineal T preserva fsi, y solo si, T presen/a la forma cuadrática

= ƒ(a› O5)

asociada a.f. Si T preserva f, ciertamente tenemos que

q(Ta) = f(Ta. Ta) = f(a, Of) = 41(0)para todo oz de V. Recíprocamente, como f es simétrica, la identidad de po-larización

f(a, B) = ìq(a + 6) - %<1(fl - 6)muestra que T preserva f con tal que q(T¬,-) = q(¬,') para todo ¬,- dc V. (Se estásuponiendo aquí que el cuerpo escalar es un subcuerpo de los números com-plejos.)

Ejemplo 6. Sea V el espacio R" o C". Sea f la forma bilineal

.f(a¶ = _21 Ijyj,=.

donde oz = (x,, _ _ . , x,,') y ¡B = (yl, . _ . , y,,). El grupo que preserva f es llamadogrupo ortogonal (real o complejo) n-dimensional. El nombre de «grupo orto-gonal» más corrientcmente se aplica al grupo asociado de matrices en la base orde-nada canónìca. Como la matriz def en la base canónìca es I. este grupo consisteen las matrices M que cumplen M'M = I. Una matriz asi se llama matriz ortogonaln x n (real o compleja). Los dos grupos ortogonales n x n se designan co-rrientemente por O(n, R) y O(n, C ). Naturalmente. el grupo ortogonal es tam-bién el grupo que preserva la forma cuadrática

0(:c¡,...,:c,¬,) =fcÍ+ -|-1:2.

Page 392: ASESORES TECNICOS

Fm mus lnlm«'ul¢'\ Í7 5

lijcmplo 7. Sea _/` la forma bilineal simétrica sobre R" con forma cua-tlrzitica

p nq(x1¶ - - ° › 1:11) : E _* 2 -Íš-

.i=1 J'=z›+l

lìntonces f es no degenerada y tiene signatura 2p - n. El grupo de matrices quepreservan una forma de este tipo se llama grupo seudoortogonal. Cuando p = nse tiene el grupo ortogonal O(n, R) como un tipo particular de grupo seudo-ortogonal. Para cada uno de los n + l valores p = 0, 1, 2, . . _ , n se obtienenformas bilineales f diferentes; sin embargo, para p = k y p = n - k las formasson opuestas una de otra y tienen, pues, el mismo grupo asociado. Asi, cuandon es impar, se tienen (n + 1)/2 grupos seudoortogonales de matrices n ›< n,y cuando n es par tenemos (n + 2)/2 de tales grupos.

Teorema 8. Sea V un espacio vectorial de dimensión n sobre el cuerpo delos números complejos y sea f una forma bilineal sime'trica no degenerada sobreV. Entonces el grupo que preserva f es isomorfo ul grupo ortogonal comple-jo O(n, C ).

Demostración. Por supuesto, un isomorfismo entre dos grupos significacorrespondencia biunívoca entre sus elementos que «preservan›› la operaciónde grupo. Sea G el grupo de los operadores lineales sobre V que preservan laforma bilineal f Como f es simétrica y no degenerada, el Teorema 4 dice queexiste una base ordenada G3 de V en la que _f está representada por la matrizidentidad n ›< n. Por tanto, un operador lineal Tpreserva f si, y solo si, su matrizen la base ordenada G3 es una matriz ortogonal compleja. Luego

T-› [T](B

es un isomorfismo de G sobre O(n, C).

Teorema 9. Sea V un espacio vectorial cle dimensión n sobre el cuerpo delos números reales y sea f una forma bilineal simétrica no degenerada sobre V.Entonces el grupo que preserva f es isomorfo a un grupo seudoortogonal n >< n.

Demostración. Repetir la demostración del Teorema 8, usando ahora elTeorema 5 en vez del 4. I

Ejemplo 8. Sea f la forma bilineal simétrica sobre R4 con la forma cua-drática

q(x› Í/› zx t) = tz T «'32 "` Í/2 _ 32-

Un operador lineal T sobre R4 que preserva esta forma bilineal (o cuadrática)particular, se llama transformación de Lorenltz, y el grupo que preserva f sellama grupo de Lorentz. He aquí un método para describir algunas transfor-maciones de Lorentz. '

Sea H el espacio vectorial real de las matrices complejas 2 x 2, A, hermíti-cas, A = A*. Es de facil verificación que

Page 393: ASESORES TECNICOS

3 7(l s|l_t¦t'lII'U lfllflll

<r›e~,y,z,¢›=['+'Í` -"+"^*]y-zz t-.12

define un isomorfismo (D de R4 sobre el espacio H. Por este isomorfismo laforma cuadrática 0 se aplica sobre la función determinante, esto es

_ t+:t: y+-iz]q(x›y›z› t_x

O

q(a) = det <1>(a).

Lo cual sugiere que se pueden estudiar las transformaciones de Lorentz sobreR4 estudiando los operadores lineales sobre H que preservan determinantes.

Sea M una matriz compleja 2 x 2, y para una matriz hermítiea A, definase

UM(A) = MAM*.

Ahora bien, MA M* es también hermítiea. Partiendo de esto es fácil ver queUM es un operador lineal (real) sobre H. Veamos cuándo es cierto que UM «pre-serva›› determinantes; es decir, det UM(A) = det A para toda A de H. Comoel determinante de M* es el complejo conjugado del determinante de M, seve que

(let [(rM(/1)] = |det lll I2 d€l›

Así que UM preserva determinantes precisamente cuando det M tiene valorabsoluto 1.

Así que tomando ahora una matriz compleja 2 x 2, M, para la que|det M| = 1, entonces UM es un operador linea sobre H que preserva deter-minantes. Se define

TM = 4»-1U,,,<1›.Como (D es un isomorfismo, TM es un operador lineal sobre R4. También, TM esuna transformación de Lorentz; en efecto,

<1(TMa) = q(<I>-'UM<I>a)= (IGÍJ (q>(I)_1[¡¡j¡q3(l)

= (let (U,-,¡<I>a)= det ($01)

= q(a)y-de este modo TM preserva la forma cuadrática q. Utilizando matrices 2 x 2, M,específicas, se puede emplear el método anterior para calcular transformacionesde Lorentz especificas. Dos comentarios al respecto, que no son difíciles deverificar.

(1) Si M1 y M2 son matrices 2 x 2, inversibles con elementos comple-jos, entonces UM, =` UM, si, y solo si, M2 es un múltiplo escalar de M ,. Asi,todo lo de las transformaciones de Lorentz vistas anteriormente se puede obte-ner de las matrices unimodulares M, esto es, de matrices M que satisfacen

Page 394: ASESORES TECNICOS

I"nrmu.s l›il:m'uli's 377

det /ll = l. Si M, y M2 son matrices unimodulares tales que M, =# M2 yM1 qé -M2, entonces TM! qé TMZ.

(2) No toda transformación de Lorentz se puede obtener por el méto-do anterior.

EjerciciosI. Sea M un elemento del grupo ortogonal complejo Otn.C l. Mostrar que M'.M y M* = .-fl' también pertenecen a Oln. C).

2. Supóngase que M pertenece a O(n, C ) y que M' es semejante a M. ¿Pertenece .lI` tam-bién a O(n. C )?

3. Seafl

?/1': 2 Íllikílfkk=l

donde M es un elemento de O(n, C ). Demostrar que

2w=Efi-1 1

4. Sea M una matri¿ n x n sobre C" con columnas M ,, M2, . _ _ . M,,. Demostrar que Mpertenece a O(n, C ) si. y solo si,

= ôjk.

5. Sea X una matriz n x l sobre C_ ¿, En que condiciones Oln. (`) contiene una matrizl-I cuya primera columna es X?

6. Hallar una matriz en O(3. C) cuya primera fila es (2i, 2i, 3).7. Scan V el espacio de todas las matrices n x l sobre C y _/' la forma bilineal sobre Vdada por f(X, Y) = X' Y. Sea M perteneciente a O(n, C). ¿Cuál es la matriz de _/` en la basede V formada por las columnas M¡, M2, M,, de M'.'

8. Sean X una matriz n x l sobre C tal que X'X = l e Y_¡ la j-ésima columna de la matrizunidad. Demostrar que existe una matriz M en O(n, C ) tal que MX = I]-. Si X tiene ele-mentos reales, mostrar que hay una M en O(n. C ) con la propiedad de que MX = I_¡.

9. Sean V el espacio de todas las matrices n x 1 sobre C, A una matriz n x n sobre C y/` la forma bilineal sobre V dada por _/IX. Y) = X'A Y. Demostrar que /` es invariante porOtn. Cl; es decir, _/`(MX, MY) = _/'(X, Y) para todo X, Y de lr' y M en O(n, C) si, y solo si,A conmuta con cada elemento de O(n, C ).

I0. Sean S cualquier conjunto de matrices n x n sobre C y S' el conjunto de todas lasmatrices n x n sobre C que conmutan con cada elemento de S. Demostrar que S' es unálgebra sobre C_

ll. Sean F un subcuerpo de C, V un espacio vectorial de dimensión finita sobre F y _/ unaforma bilineal no singular sobre V. Si T es un operador lineal sobre V que preserva _/L de-mostrar que det T = ± l.

I2. Sean F un subcuerpo de C, V el espacio de las matrices n x 1 sobre F, A una matrizn x n inversible sobre Fy /' una forma bilineal sobre Vdada por f(X, Y) = X'A Y. Si M esuna matriz n x n sobre F, demostrar que M preserva f si, y solo si, A" 'M'A = M '_

Page 395: ASESORES TECNICOS

J 'N /I l_|:¢'l›m ltm-ul

I3. Sea g una forma bilineal no singular sobre un espacio vectorial dc dimensión finital`. Supóngase que T es un operador lineal inversible sobre V y que _/ cs. la forma bilinealsobre V dada por f(ot_ li) = g(oz, Tlf). Si U es un operador lineal sobre V, hallar condicio-nes necesarias y suficientes de U para preservar jl

I4_ Sea T un operador lineal sobre C2 que preserva la forma cuadrática xf - xš. Demos-trar que

(a) det (T) = ±l.(bl Si M es la matriz de Ten la base canónìca, entonces M22 = ±M,,, M2, = ±M,2,

I1Iãl`_ 1 1.

(e) Si det M = l, entonces existe un número complejo no nulo c tal que

,+1 ,,_11 c c

1 '

c- c~l-1C C

(d) Si det M = -1, entonces existe un número complejo c tal que

1 c cM = - °2 1 1._¿ + __ _c _

c c

IS. Sea f la forma bilineal sobre C2 definida por

f((331› 172)› (Uh U2» = ;z:¡y2 - 2322/1-

Demostrar que(a) Si T es un operador lineal sobre C2, entonces _/'(_'l`oz, T/f) = (det T)f(ot, ll) para

todo az, /1' en C2.(b) T preserva ƒ si y solo si. det T= ±l.(c) ¿Qué dice (b) respecto al grupo de matrices 2 x 2, M, tales que M'AM = A, donde

0 1 9A _ [_1 0].I6. Sean un entero positivo n, I la matriz unidad n x n sobre C y J la matriz 2n x 2ndada por

0 IJ = ji-I 0]'

Sea M una matriz 2n x 2n sobre C de la forma

A B11 =I [0 D]con A. B, C, D matrices n ›< n sobre C. Hallar condiciones necesarias y suficientes de A,B, C, D para que M'JM = J.

I7. Hallar todas las formas bilineales sobre el espacio de las matrices n x I sobre R queson invariantes por O(n, R).

18. Hallar todas las formas bilineales sobre el espacio de las matrices n ›< l, sobre C queson invariantes por O(n, C).

Page 396: ASESORES TECNICOS

Apéndice

Este apéndice se divide lógicamente en dos partes. La primera, que abarcalas primeras tres secciones, contiene ciertos conceptos fundamentales que apa-recen a lo largo del libro (en realidad, a lo largo de la matemática). Es más bienuna introducción para el libro que un apéndice. La segunda parte es más ge-nuinamente un apéndice al texto.

La Sección 1 contiene un estudio sobre los conjuntos, sus uniones e inter-secciones. La Sección 2 analiza el concepto de función y las ideas relacionadasde imagen, dominio, función recíproca y restricción de una función a un sub-conjunto de su dominio. La Sección 3 trata de las relaciones de equivalencia.La materia en estas tres secciones, especialmente la de las Secciones 1 y 2, estápresentada de modo un tanto conciso. Se trata más bien de un convenio sobreterminología que de una exposición detallada. En estricto sentido lógico, estematerial constituye una parte de los requisitos para la lectura del libro; sinembargo, el lector no debe descorazonarse si no capta completamente el signi-ficado de las ideas en su primera lectura? Estas ideas son importantes, pero allector que no esté del todo familiarizado con ellasile será más fácil absorberlassi revisa la exposición de vez en cuando, mientras lee el texto propiamente.

Las Secciones 4 y 5 se refieren a las relaciones de equivalencia en el contextodel álgebra lineal. La Sección 4 contiene un breve estudio de los espacios co-cientes. Puede ser leído en cualquier oportunidad, después de los primerosdos o tres capítulos del libro. La Sección 5 trata brevemente algunas de las re-laciones de equivalencia que se presentan en el libro y pretende mostrar cómoalgunos de los resultados del libro se pueden interpretar desde el punto de vistade las relaciones de equivalencia. La Sección 6 describe el axioma de eleccióny sus implicaciones para el álgebra lineal.

379

Page 397: ASESORES TECNICOS

f-'1'U .-1 l_i:¢'l›rn linml

A . I . Conjuntos

Usaremos las expresiones «conjunto››, «clase››, «co|ección›› y «t`amilia›› in-distintamente, aunque damos preferencia a «conjunto››_ Si S es un conjuntoy x es un objeto del conjunto S, se dirá que x es un miembro de S, que x es unelemento de S, que x pertenece a S 0 simplemente que x está en S. Si S tienesolo un número finito de elementos, x,, _ _ _ _ x,,. se suele enunciar S disponiendosus elementos entre paréntesis:

S : {.E1, . . . ,.lI,,}.

Así el conjunto S de los enteros positivos de 1 a 5 será

2;!--H 1_. Í 's _ -,1,2, s,-4,

Si S y T son conjuntos, diremos que S es un subconjunto de T o que S estácontenido en T, si todo elemento de S es un elemento de T. Todo conjunto S essubconjunto de sí mismo. Si S es subconjunto de T, pero S y T no son idénticos,diremos que S es subconjunto propio de T. En otras palabras, S es suoconjuntopropio de T siempre que S esté contenido en 'T, pero T no este contenido en S.

Si S y T son conjuntos, la unión de S y T es el conjunto S U T que constade todos los objetos x que son elementos de S o T. La intersección de S y T esel conjunto S O T, que consta de todos los x que son elementos de S y de T.Para dos conjuntos cualesquiera, S y T, la intersección S Ñ T es un subcon-junto de la unión S U T. Esto debe contribuir a aclarar el uso de la palabra «o››que prevalecerá en este libro. Cuando se dice que x está en S 0 en T, no se ex-cluye la posibilidad de que x esté en ambos, S .y T.

Para que la intersección de S y T sea siempre un conjunto es necesario quese introduzca el conjtmto vacío, es decir, el conjunto sin elementos. EntoncesS H T es el conjunto vacio si, y solo si, S y 'I' no tienen elementos en común.

A menudo se necesitará considerar la unión o intersección de varios con-Il

juntos. Si S1, _ _ . , S,, son conjuntos, su unión es el conjunto U S,- que constaj'- l

de todos los x que son elementos de al menos uno de los conjuntos S,, _ . _ , S,,.U

Su intersección es el conjunto (W SJ- que consta de todos los x que son elementosj= 1

de cada uno de los conjuntos S1. . _ . , S,,_ En unas pocas ocasiones tendremosque ver con la unión o intersección de una colección infinita de conjuntos. Deberíaquedar claro cómo tales uniones e intcrsecciones están definidas. El siguienteejemplo aclarará estas definiciones y una notación para ellas.

Ejemplo 1. Sea R el conjunto de todos los números reales (el eje real).Si t está en R, se asocia con t un subconjunto S, de R definido de la siguienteforma: S, consta de todos los números reales x que no son menores que I.

(a) Sn U Su = S,, donde 1 es el menor entre 1, y 12.(b) Su H SU = S,, donde t es el mayor entre 1, y 12.

Page 398: ASESORES TECNICOS

.-I¡›¢"mln'¢- ISI

(c) Sea I el intervalo unidad, esto es, el conjunto de todos los t en Rpara los que 0 5 t 5 l. Entonces

UIS: = S0

Ñ, S, = S1.

A .2. Funciones

Una función consta de lo siguiente:(I) un conjunto X, llamado dominio de la función;(2) un conjunto Y, llamado codominio de la funCiÓI1;(3) una relación (o correspondencia) f, que asocia 21 Cada €lcm€I1I0 X dc

X un solo elemento f(x) de Y.

Si (X, Y, f) es una función, se dice también que _/ es una función de X en Y.Esto no es del todo correcto, ya que no es f quien es la función; f GS la ley C1@la función. Sin embargo, este uso del mismo simbolo para la función y su leyproporciona un medio mucho más manejable para hablar S0lI>f€ fl1nCi0fl€S. ASÍse dirá que _/` es una función de X en Y, que X es el dominio de f y que Yes el codominio de f--todo esto quiere decir que (X, Y, f) cS una función comose definió anteriormente. Existen otras expresiones que comúnmente Sc USaránen lugar de «función››. Algunas de éstas son «transformación››, <<0P€fHd0f>›y «aplicación››. Tales expresiones se usarán en contextos donde sean más apro-piadas en consideración al papel que debe desempeñar una función particular.

Si f es una función de X en Y, el conjunto de imágen0S (0 Ílllagelll de f GSel conjunto de todos los f(x), con x de X_ En otras palabras, la imagen de fconsta de todos los elementos y de Y tales que y = f(x) para algún x de X_ Sila imagen de f es todo Y, se dirá que f es una función de X sobre Y o simple-mente que f es sobreyectiva. La imagen de f se representa a menudo por f(X).

Ejemplo 2. ta) Sea X el conjunto de los números reales y sea Y = X.Sea f la función de X en Y definida por f(x) = xl. La imagen de f es el con-junto de todos los números reales no negativos. Así que f no CS Sobrcycctiva.

(b) Sea X el plano euclidiano, e Y = X. Defínase f como sigue: si P esun punto del plano, entonces f(P) es el punto obtenido por rotación de P en 90(en torno al origen, en la dirección antirreloj). El recorrido de f es todo Y. csdecir, el plano entero. y asi f es sobreyectiva.

(c) Sea otra vez X el plano euclidiano. Se introduce un sistema de coorde-nadas en X, como en geometría analítica, por medio de dos rectas perpendicu-lares para identificar los puntos de X con pares ordenados (xl, xz) de númerosreales. Sea Y el eje xl, esto es, todos los puntos (x1, xz) con x2 = 0. Si P es unpunto de X, sea f(P) el punto obtenido al proyectar P Sobrc cl cjc X1, paralc-lamente al eje x2. Es decir, f(x1, xz) = (xl, 0). La imagen de f es todo Y, porlo que f es sobreyectiva.

¢;_

Page 399: ASESORES TECNICOS

.l.'l.' .-I lgrliru llm ul\

(d) Sea X el conjunto de los números reales y sea Y el conjunto de los nú-meros reales positivos. Se define una función ƒ de X en Y por f(x) = e". Enton-ces f es una función de X sobre Y.

(e) Sean X el conjunto de los números reales positivos e Y el conjuntode los números reales. Sea ƒ la función logaritmo natural, esto es, la funcióndefinida por f(x) = log x = ln x. Aquí también f es sobreyectiva, es decir,todo número real es el logaritmo natural de algún número positivo.

Supóngase que X, Y y Z sean conjuntos, que ƒ sea una función de X en Y yque g sea una función de Y en Z. Existe una función g 0 ƒ de X en Z asociadacon ƒ y g, llamada composición de g y ƒ. Está definida por

(3 ° f)(X) = 3(f(X))-Como un ejemplo simple, sea X = Y = Z el conjunto de los números reales,sean ƒ, g, h las funciones de X en Y definidas por

f(x) = 21”, ytfv) = 2', h(w) = ef'y entonces h =.g 0 f La composición g 0 ƒ se representa a menudo simple-mente por gf; sin embargo, como indica el ejemplo anterior, hay veces en queesto se presta a confusiones.

Un problema de interés es el siguiente. Supóngase que _/' es una funciónde X en Y. ¿_ Cuándo existe una función g de Y en X tal que g(/`(x)) = x para todox de X? Si se representa por I la función identidad en X, esto es, la función de X enX definida por 1(x) = x, se pregunta: ¿cuándo existe una función g de Y enX tal que g 0 ƒ = I? En forma somera, se quiere una función g que «envíe cadaelemento de Y al sitio de donde proviene». Para que tal función g exista, f debeser evidentemente inyectiva, esto es, ƒ debe tener la propiedad de que si x 1 =/= xz,entonces f(x,) =/= f(x2). Si ƒ es inyectiva, tal función g existe. Se la define comosigue: sea y un elemento de Y. Si y está en la imagen de ƒ, entonces existe unelemento x de X ta! que y = f(x); y como ƒ es inyectiva, existe exactamenteun x con esa propiedad. Se define g(y) = x. Si y no está en la imagen de f sedefine g(y) como cualquier elemento de X. Obviamente tenemos entonces ques' 0 f = 1- _,

Sea f una función X en Y. Se dice que ƒ es inversible si existe una funcióng de Y en X tal que -

(1) g 0 f es la función identidad en X,(2) f 0 g es la función identidad en Y. ._

Acabamos de ver que si existe una función g que satisface (1), entonces ƒ esinyectiva. En forma semejante se puede ver que si existe una g que satisface (2),la imagen de ƒ es todo Y, es decir, f es sobreyectiva. Así, si f es inversible, f esinyectiva y sobreyectiva. Recíprocamente, si f es inyectiva y sobreyectiva, existeuna función g de Y en X que satisface (1) y (2). Además, esta g es única. Es lafunción de Y en X definida por esta ley; si y está en Y, entonces g(y) es el únicoelemento x en X para el que f(x) = y.

Page 400: ASESORES TECNICOS

.dptlmlh 1' .ml

Si f es inversible (inyectiva y sobreyectiva), la recíproca de ƒ es la funciónúnica f 1 de Y en X que cumple:

(l') f“'(f(x)) = x para cada x en X,(2') f(ƒ_1(y)) = y para cada y en Y.

Ejemplo 3. Considérense las funciones del Ejemplo 2.

(a) Si X = Y. el conjunto de los números reales, y f(x) = x2, entoncesf no es inversible. En efecto. f no es inyectiva ni sobreyectiva.

(b) Si X = Y, el plano euclidiano, y f es la «rotación de 90°», entoncesf es inyectiva y sobreyectiva_ La función recíproca ƒ`"1 es la «rotación de -90“"››o la «rotación de 270"'››.

(c) Si X es el plano, Y el eje xl, y f(x1, xz) = (x,, 0), entonces ƒ no es in-versible. En efecto, f es sobreyectiva, pero _/` no es inyectiva.

(d) Si X es el conjunto de los números reales, Y el conjunto de los núme-ros reales positivos y f(x) = e*, entonces f es inversible. La función ƒ-1 esla función logaritmo natural de la parte (e): log e' = x, e'°“' = y.

(e) La recíproca de esta función logaritmo natural es la función expo-nencial de la parte (d).

Sea f una función de X en Y y sea fo una función de X0 en YO. Se dice quefo es una restricción de f (o una restricción de f a X0) si

(l) X0 es un subconjunto de X,(2) f0(x) = f(x) para todo x de X0.

Por supuesto, que cuando fo es una restricción de f, se sigue que Yo es un sub-conjunto de Y. El nombre de «restricción›› viene del hecho de que f y f, tienenla misma ley, y difieren principalmente porque se ha restringido el dominiode definición de la ley a un subconjunto X0 de X_

Si hemos dado la función _/'y cualquier subconjunto X0 de X_ hay una formaobvia para construir una restricción de f a X0. Definimos una función fo deX0 en Y por _ƒ¿,(x) = f(x) para todo x de X0. Podríamos preguntarnos por quéno decimos que esta es la restricción de f a X0. La razón es que cuando se dis-cuten las restricciones de f se desea tener libertad para cambiar el codominioY. al igual que el dominio X_

Ejemplo 4- (a) Sea X el conjunto de los números reales y f la funciónde X en X definida por f(x) = x2. Entonces f no es una función inversible,pero lo es si se restringe su dominio al de los números reales no negativos. SeaX0 el conjunto de los números reales no negativos y sea fo la función de X0en X0 definida por f0(x) = x2. Entonces fo es una restricción de f a X0. Pero/` no es inyectiva ni sobreyectiva_ mientras que fo es inyectiva y sobreyectiva.La última afirmación solo dice que todo número no negativo es raíz cuadradade un número no negativo precisamente. La función recíproca fo” es la funciónde X0 en X0 definida por f0_'(x) =

(b) Sea X el conjunto de los números reales y sea f la función de X en Xdefinida por f(x) = x3 + x2 + 1. La imagen de f es todo X y f es sobreyectiva.

Page 401: ASESORES TECNICOS

f-W -I lt-1-lu'u lun-ul

l.a l`unción _/` obviaincnte no es inyectiva. vgr., lt- l) = _/'(0). Pero _/ es inyectiva en X0, conjunto de los números reales no negativos, ya que la derivadade _/` es positiva para x > 0. Cuando x recorre todos los números no negativos.f(x) recorre todos los números reales _r tales que _r 2 1. Si se hace que Y,, seacl conjunto de todos los __r 2 I y que jj, sea la función de X0 en YO. delìnidapor _ƒ¿,(x) = f(x), entonces fo es una función inyectiva dc X0 sobre YO. Con-secuentemente, _/Q, tiene una función recíproca _/¿,' de YO en X0. Cualquierfórmula para f0"'(_v) es bastante complicada.

(c) Sea otra vez X el conjunto de los números reales y sea ƒ la funciónseno, esto es, la función de X en X definida por f(x) = sen x. La imagen def es el conjunto de todos los y tales que -l 5 _r S I: luego f no es sobreyec-tiva. Como _/'tx + 21:) = f(x), vemos que _/` no es inyectiva. Si se hace que X,,sea el intervalo *ir/2 5 x S rc/2. entonces _/` es inyectiva en X0. Sea YO el in-tervalo -l 5 j' S l y sea _/0 la función de X0 en YO definida por ƒ¿(x) = sen -\'.Entonces _/¿ es una restricción de _ƒ' en el intervalo X0 y jj, es inyectiva y sobre-yectiva. Esta es otra forma de decir que. en el intervalo de -rc/2 a n 2, la funciónseno toma todo valor entre -l y l exactamente una vez. `La función _/Q' esla función recíproca del seno:

_ƒ¿_1(y) = sen" 1' = arc sen _r.

(d) Este es un ejemplo general de restricción de una función. Es un ejem-plo mucho más característico de los tipos de restricciones que se usarán en estelibro, que los anteriores ejemplos (b) y (c). El ejemplo (a) es 'un caso especialde éste. Sea X un conjunto y _/' una función de X en si mismo. Sea X0 un sub-conjunto de X_ Se dice que X0 es invariante por _/` si para todo x de X0 el elementof(x) está en X0. Si X0 es invariante por _/, entonces _/` induce una función _/Q, deX0 en sí mismo, por restricción del dominio de su definición a X0. La impor-tancia de la invariancia es que por restricción de f a X0 se puede obtener unafunción de X0 en si mismo, más bien que simplemente una función deX0 en X_

A .3. Relaciones de equivalencia

Una relación de equivalencia es un tipo específico de relación entre paresordenados de elementos en un conjunto. Para definir una relación de equivalen-cia debemos ver primero qué se entiende por «relación››_

Ciertamente, una definición formal de «relación›› debería comprender re-laciones familiares como «x = y», «x < _r››. «x es la madre de _r›› y «x es demás edad que _i~››_ Si X es un conjunto. ¿qué es lo que determina una relaciónentre los pares de elementos de X? Lo que se necesita, evidentemente, es unaley para determinar si. para dos elementos dados cualesquiera x e _i~ de X. xestá o no en la correspondencia dada con _r. Esa ley R se la llama una relación(binaria) en X. Si queremos ser más precisos se puede proceder como sigue.Sea X x X el conjunto de todos los pares ordenados (x, _r) de elementos en X.

Page 402: ASESORES TECNICOS

-I¡u'-mln 'c .l-\' i

Una relación binaria en .\' es una función R de X x X en el conjunto ¦0, |¦.Esto cs, R asigna a cada par ordenado tx, _r) el valor I o 0. La idea es que siR(x, y) = l. entonces x está en la correspondencia dada con y, y si Rtx, _v) = 0,no lo está.

Si R es una relación binaria en el conjunto X es conveniente escribir xRvcuando R(x, _r) = 1. Una relación binaria R se dice

(I) reflexiva, si xR.\' para todo x de X ;(2) simétrica, si _vR_\' toda vez que xR_t';(3) transitiva, si xR: toda vez que xR_r y j'R.:.

Una relación de equivalencia en X es una relación binaria en X que es reflexiva,simétrica y transitiva.

Ejemplo 5. (a) En cualquier conjunto la igualdad es una relación de equi-valencia. En otras palabras, si xR_i' quiere decir x = _v, entonces R es una re-lación de equivalencia- En efecto, x = x, si x = y entonces y = x, si x = J'e _v = z entonces x = :_ La relación «x ak _v›› es simétrica, pero no es reflexivani transitiva.

(b) Sea X el conjunto de los números reales y supóngase que xRy quieredecir x < y. Entonces R no es una relación de equivalencia: es transitiva. perono es reflexiva ni simétrica. La relación «x 5 y›› es reflexiva y transitiva, pero

_ ¡ 1no es simetr1ca_(c) Sea E el plano euclidiano y sea X el conjunto de todos-los triángulos

del plano E. Entonces la congruencia es una relación de equivalencia en X;esto es, «T1 2 T2» (T, es congruente con T2) es una relación de equivalenciaen el conjunto de todos los triángulos en el plano.

(d) Sea X el conjunto de todos los enteros

_,-2,-1,0,1,2,.__.Sea n un entero positivo fijo. Se define una relación R,, en X por: xR,,y si, y solo si(x - y) es divisible por n. La relación R,, se llama congruencia módulo n. Envez de xR,,_r es corriente escribir

x E _r. mód n (x es congruente a _v módulo n)

cuando (-\~ - _i') es divisible por n. Para cada entero positivo n. la congruenciamódulo n es una relación de equivalencia en el conjunto de los enteros.

(e) Sean X e Y conjuntos y _ƒ` una función de X en Y. Se define una rela-ción R en X por: x¡Rx2 si, y solo si, _/`(x,) = _/(xz). Es fácil verificar que R esuna relación de equivalencia en el conjunto X_ Como se verá, este ejemplo par-ticular comprende en realidad todas las relaciones de equivalencia.

Supóngase que R es una relación de equivalencia en el conjunto X. Si xes el elemento de X. Etx; R) representa el conjunto de todos los elementos yde X tales que xR_r. Este conjunto E(x; R) se llama la clase de equivalencia dex (para la relación de equivalencia R). Como R es una relación de equivalencia,las clases de equivalencia tienen las siguientes propiedades:

1

Page 403: ASESORES TECNICOS

“Ó :Í lj{t'lN'tl llllful

(I) Todo l;`(x; R) es no vacío; en cI`ccto, como \°R \', el elemento x perte-nece a E(x; R).

(2) Sean x e y elementos de X_ Como R es simétrica, y pertenece a E(x: R)si. y solo si, x pertenece a E(y; R).

(3) Si x e y son elementos de X, las clases de equivalencia E(x; R) y E(y; R)o son idénticas o no tienen elementos en común. Primero supóngase que xRy_Sea z cualquier elemento de E(x; R), es decir, un elemento de X tal que xR:.Como R es simétrica, se tiene que zRx. Por hipótesis, xRy, y puesto que R estransitiva, se tiene zRy o yRz. Esto muestra que todo elemento de E(x; R) eselemento de E(y; R). Por la simetría de R, del mismo modo podemos ver quetodo elemento de E(y; R) es elemento de E(x; R): luego E(x: R) = E(_v: R).Ahora bien, se afirma que si la relación xRy no es válida, entonces E(x; R) (WE(y; R) es vacío. En efecto, si z está en ambas de estas clases de equivalenciatenemos que xRz e _vRz, o sea xRz y zR__v_ luego xR_v.

Si ff representa una familia de clases de equivalencia para la relación deequivalencia R, vemos que: (1) todo conjunto de la familia SF es no vacio, (2) todoelemento x de X pertenece a uno, y solo uno, de los conjuntos de la familia SF,(3) xRy si, y solo si, x e y pertenecen al mismo conjunto en la familia ff. En re-sumen, la relación de equivalencia R subdivide a X en la unión de una familiade subconjuntos (no vacios) que no se solapan_ El razonamiento es tambiénválido a la inversa. Supóngase que SF es una familia de subconjuntos de X quesatisfacen las condiciones (1) y (2) anteriores. Si se define una relación R por (3),entonces R es una relación de equivalencia sobre X y SF es la familia de clases deequivalencia segun R.

Ejemplo 6. Veamos cuáles son las clases de equivalencia según las rela-ciones de equivalencia en el Ejemplo 5.

(a) Si R es la igualdad en el conjunto X- entonces la clase de equivalenciadel elemento x es simplemente el conjunto {x}, cuyo único elemento es x.~ (b) Si X es el conjunto de todos los triángulos en el plano y R es la relaciónde congruencia, todo lo que se puede decir en principio es que la clase de equiva-lencia del triángulo Tconsta de todos los triángulos que son congruentes con T.Uno de los objetivos de la geometría plana es dar otras descripciones de estasclases de equivalencia.

(c) Si X es el conjunto de los enteros y R,, es la relación «congruencia mó-dulo n››, entonces hay precisamente n clases de equivalencia. Cada entero x sepuede expresar unívocamente en la forma x = qn + r, donde q y r son enterosy 0 5 r S n - l. Esto muestra que cada x es congruente módulo n a uno pre-cisamente de los n enteros 0, 1, 2, _ _ _ , n - I. Las clases de equivalencia son

E0= {__.,-211, -11,0, n, 2n,__.}E1= {...,1-2n,l-n,1-I-n,1-I-2n,...}

E,,_,={_._,n-1-2n,n-1-n,n-1,n-1+n,n-1+2n,_..}.

Page 404: ASESORES TECNICOS

.~I¡n'mll¢ 't' -M' 7

(d) Supóngase que X e Y son conjuntos, f una función de X en Y y R esla relación de equivalencia definida por x¡Rx2 si, y solo si f(x,) = ƒ(x2). Lasclases de equivalencia según R son los mayores subconjuntos de X en los que fes «constante››. Otra descripción de las clases de equivalencia es ésta: están encorrespondencia biunívoca con los elementos de la imagen de f. Si y está en laimagen dc f@ el conjunto de todos los x de X tales que f(x) = y es una clase deequivalencia según R; y esto define una correspondencia biunívoca entre loselementos de la imagen de f y las clases de equivalencia de R.

Un comentario más respecto a las relaciones de equivalencia. Dada unarelación de equivalencia en X, sea EF la familia de las clases de equivalenciasegún R. La asociación de la clase de equivalencia E(x; R) con el elemento xdefine una función ƒ de X en SF (en realidad, sobre ET):

/txt = Elx; R).Esto muestra que R es la relación de equivalencia asociada a una función cuyodominio es X, como en el Ejemplo 5(e). Lo que esto indica es que toda relaciónde equivalencia en el conjunto X está determinada como sigue: Se tiene unaley (función) f que asocia a cada elemento x de X un objeto f(x), y xRy si, y solosi f(x) = _/'(_v). Ahora debe pensarse en f(x) como una propiedad de x, de modoque lo que la relación de equivalencia hace (someramente hablando) es reunira todos aquellos elementos de X que tienen esta propiedad en común. Si el ob-jeto ƒ(x) es la clase de equivalencia de x, entonces todo lo qu" se ha dicho esque la propiedad común de los elementos de una clase de equivalencia es quepertenecen a la misma clase. Claro es que esto no dice mucho. Por lo general,hay muchas funciones diferentes, få que determinan, cómo se hace antes,la relación de equivalencia dada, y un objetivo en el estudio de las relacionesde equivalencia es hallar una f tal que dé una descripción elemental y con sen-tido derla relación de equivalencia. En la Sección A.5 veremos cómo se haceesto para algunas relaciones de equivalencia especiales que aparecen en el álge-bra lineal.

A .4. Espacios cocientes

Sea V un espacio vectorial sobre el cuerpo F y sea W un subespacio de V.Hay en general muchos subespacios W' que son complementarios de W, esdecir, subespacios con la propiedad de que V = WGB W'. .Si tenemos un pro-ducto interior sobre V, y W es de dimensión finita, hay un subespacio particularque se podria llamar, probablemente, subespacio complementario «natural››de W. Este es el complemento ortogonal de W. Pero si V no tiene otra estructurafuera de su estructura de espacio vectorial, no hay modo de seleccionar un sub-espacio W' que se pudiera llamar subespacio complementario natural de W.Sin embargo, se puede construir a partir de V y W un espacio vectorial V/ W,llamado «cociente›› de V y W, que hará de complemento natural de WÍ Esteespacio cociente no es un subespacio de V y, por tanto, no puede ser un subes-pacio complementario de W; pero es un espacio vectorial definido solo en tér-

Page 405: ASESORES TECNICOS

.lllfi Algebra llneul

minos de V y W y tiene la propiedad de que es isomorfo a cualquier subespacioW' que sea complementario de W. '

Sea W un subespacio de un espacio vectorial V. Si ot y B son vectores en V,se dice que ot es congruente con B módulo W si el vector (ot - B) está en el subes-pacio W. Si ot es congruente con B módulo W, se escribirá

ot E B, mód W.

Ahora bien, la congruencia módulo W es una relación de equivalencia sobre V.

(1) ot E ot, mód W, pues oz - ot = 0 está en W.(2) Si ot E B, mód W, entonces B E ot, mód W. En efecto, como W es

un subespacio de V, el vector (ot - B) está en W si, y solo si, (B - ot) está en W.(3) Si ot E B, mód W y B E y, mód W, entonces ot 5 y, mód W. En efec-

to, si (ot - B) y (B - y) están en W, entonces ot - y = (ot - B) + (B - y)está en W.

Las clases de equivalencia de esta relación de equivalencia se llaman claseslaterales de W. ¿Cuál es la clase de equivalencia (clase lateral) de un vector ot?Consta de todos los vectores B de V tales que (B - ot) está en W; esto es, todoslos vectores B de la forma B = ot + y, con y en W. Por esta razón la clase lateraldel vector oz se representa por

ot+W.

Es apropiado pensar que la clase lateral de ot con respecto a W es el conjuntode los vectores que se obtienen por traslación del subespacio W por el vector ot.Para ilustrar estas clases laterales, el lector podría pensar en el siguiente casoespecial. Sea V el espacio R2 y sea W un subespacio unidimensional de V. Sise considera V como un plano euclidiano, W es una recta por el origen. Si ot =(xl, xz) es un vector en V, la clase lateral ot + W es la recta que pasa por el punto(xl, xz) y es paralela a W.

La colección de todas las clases laterales de W se representará por V/W.Definimos ahora una adición vectorial y una multiplicación por un escalaren V/W como sigue:

(<1+W)+(B+W)=(a+B)+Waa + W) = tea) + W.

En otras palabras, la suma de la clase lateral de ot y la clase lateral de B es la claselateral de (ot + B) y el producto del escalar c y de la clase lateral de ot es la claselateral del vector ca. Ahora bien, muchos vectores diferentes de V tendrán lamisma clase lateral con respecto a W y, por tanto, se debe verificar que la sumay el producto anterior dependen solo de las clases laterales que intervienen.Lo que esto quiere decir es que debemos demostrar lo siguiente: `

(a) Si ot E ot', mód W y B E B', mód W, entonces

ot+/iša'+B', mód W.

Page 406: ASESORES TECNICOS

.4¡n"mll`¢1' .WW

(2) Si oz E oz', mód W, entonces ca E coa', mód W.

Estos hechos son fáciles de verificar. (1) Si oz - oz' está en W y B - B' estáen W, entonces como (oz + B) - (oc' + B') = (oz - oc') + (B - B'), vemos que1 + B es congruente con oc' + B' módulo W. (2) Si oz - oz' está en W y c cual-quier escalar, entonces ca - ca' = c(a - oz') está en W.

Es ahora fácil de verificar que V/ W, con la adición vectorial y la multipli-cación por escalares definidos anteriormente, es un espacio vectorial sobre elcuerpo F. Debemos comprobar directamente cada uno de los axiomas para unespacio vectorial. Cada una de las propiedades de la adición vectorial y de lamultiplicación por escalares se desprenden de la correspondiente propiedadde las operaciones en V. Habría que decir que el vector nulo de V/W será laclase lateral del vector nulo de V. Es decir, W es el vector nulo de V/ W.

El espacio vectorial V/W se llama cociente (o diferencia) de V y W. Hayuna transformación lineal natural Q de V sobre V/ W. Está definida por Q(a) =oz + W. Debemos notar que se han definido las operaciones en V/W justamentepara que esta transformación Q sea lineal. Obsérvese que el espacio nulo de Qes exactamente el subespacio W. Se llama a Q la transfonnación cociente (0aplicación cociente) de V sobre V/ W.

La relación entre el espacio cociente V/W y los subespacios de V que šoncomplementarios de W puede ser ahora establecida como sigue.* /

Teorema. Sea W un subespacio del espacio vectorial V y sea Q la ransfor-mación cociente de V sobre V/ W. Supóngase que W' es un subespacio de V. Enton-ces V = W G3 W' si, y solo si, la restricción de Q a W' es un isomorfismo de W'sobre V/ W. `

Demostración. Supóngase que V = W G9 W'. Esto quiere decir que cadavector oz de V está unívocamente expresado en la forma oz = y + 1", con y en Wy -y' en W'. Entonces Qa = Qy + Qy' = Qy', esto es, oz + W = y' + W. Estomuestra que Q aplica W' sobre V/W, es decir, que Q(W') = V/ W. TambiénQ es inyectiva en W'; en efecto, supóngase que yi y 'yå sean vectores en W' yque Qyí = Qyå. Entonces Q(y¶ - yå) = 0, con lo que y; - 'yå están en W.Este vector está también en W', que es disjunto de W,, luego y; - yí = 0. Larestricción de Q-a W' es, por tanto, una transformación lineal inyectiva de W'sobre V/ W. _ '

Supóngase que W' es un subespacio de V tal que Q sea inyectiva_en W' yque Q( W) = V/ W. Sea oc un vector de V. Entonces existe un vector y' de W'tal que Qy' = Qa; es decir, y' + W -= oz + W. Esto quiere decir que oz =-= y + 'y'para algún vector 'y en W. Por tanto, V = W + W'. Para ver que W y W' sondisjuntos, supóngase que y está en Wy W'. Como y está en W, se tiene Qy = 0.Pero Q es inyectiva en W', y entonces debemos tener que 'y = 0 Por tanto,tenemos que V = WEB W'. I

Lo que realmente dice este teorema es que W' es complementario de W si,y solo si, W' es un subespacio que contiene exactamente un elemento de cadaclase lateral de W. Muestra que cuando V = W G9 W', la transformación

Page 407: ASESORES TECNICOS

300 A lgvbru lmcul

cociente Q «identifica›› W' con V/W. En resumen, (W G9 W ')/W es isomorfode W' de un modo «natural››.

Otro hecho obvio debemos notar. Si W es un subespacio del espacio vec-torial de dimensión finita V, entonces

dim W + dim (V/W) = dim V.

Se puede ver esto del teorema anterior. Tal vez es- más fácil observar que lo queesta fórmula dimensional dice es que

nulidad (Q) + rango (Q) = dim V.

No es nuestro propósito hacer aquí un tratamiento detallado de los espa-cios cocientes. Pero hay un resultado fundamental que se demostrará.

Teorema. Sean V _r Z espacios vectoriales sobre el cuerpo F_ Supóngaseque T es una transformación lineal de V sobre Z. Si W es el espai-io nulo de T,entonces Z es isomorfo a V/ W.

Demostración. Definimos una transformación U de V/ W en Z porU(oz + W) = Ta. Debemos verificar que U está bien definida, es decir, quesi oz + W = B + W, entonces Toz = TB. Esto se desprende del hecho de queW es el espacio nulo de T; en efecto, oz + W = B + W quiere decir que oz - Bestá en W, y esto sucede si, y solo si, T(oc - B) = 0. Esto muestra no solo queU está definida, sino que también U es inyectiva.

Es ahora fácil comprobar que U es lineal y aplica V/W sobre Z, pues T esuna transformación lineal de V sobre Z. I

A.5. Relaciones de equivalenciaen Algebra Lineal

Consideraremos algunas de las relaciones de equivalencia que aparecenen el texto de este libro. Este es apenas una muestra de tales relaciones.

(1) Sean m y n enteros positivos y F un cuerpo. Sea X el conjunto de todaslas matrices m ›< n sobre F. Entonces la equivalencia por filas es una relaciónde equivalencia en el conjunto X. La afirmación «A es equivalente por filasa B» quiere decir que A se puede obtener de B por una sucesión finita de ope-raciones elementales por filas. Si escribimos .A ~ B por «A es equivalente porfila a B», entonces no es dificil comprobar las propiedades (i) A ~ A; (ii) siA ~ B, entonces B ~ A; (iii) si A ~ B y B ~ C, entonces A ~ C. ¿Qué sesabe de esta relación de equivalencia? En realidad se sabe mucho. Por ejem-plo, se sabe que A ~ B si, y solo si, A = PB para cierta matriz inversible m ›< m, P _;o A ~ B si, y solo si, el sistema homogéneo de ecuaciones lineales AX ¿ 0y BX = 0 tienen las mismas soluciones. También se tiene información explícitarespecto a las clases de equivalencia para esta relacion. Cada matriz m ›< n, A,es equivalente por filas a una, y solamente una, matriz escalón reducida pornlas. Lo que esto dice es que cada clase de equivalencia, según esta relación,

Page 408: ASESORES TECNICOS

Apiindic1' -WI

contiene precisamente una matriz escalón reducida por filas, R; la clase deequivalencia determinada por R consta de todas las matrices A = PR dondeP es una matriz inversible m x m. También se puede pensar en esta descripciónde las clases de equivalencia del siguiente modo. Dada una matriz m x n, A,tenemos una ley (función) f que asocia con A la matriz escalón reducida porfilas f(A) que es equivalente por filas a A. La equivalencia por filas está comple-tamente determinada por f. En efecto, A ~ B si, y solo si, f(A) = f(B), esdecir, si, y solo si, A y B tienen la misma forma escalón reducida por filas.

(2) Sea n un entero positivo y F un cuerpo. Sea X el conjunto de todas lasmatrices n x n sobre F. Entonces la semejanza es una relación de equivalenciaen X; toda matriz. n. x n, A, es semejante a sí misma; si A es semejante a B,entonces B es semejante a A; si A es semejante a B y B es semejante a C, enton-ces A es semejante a C. Sabemos también bastante de esta relación de equi-valencia. Por ejemplo, A es semejante a B si, y solo si, A y B representan el mismooperador lineal sobre F" en (posiblemente) diferentes bases ordenadas. Perose sabe algo más profundo que esto. Toda matriz n x n, A, sobre F es semejante(sobre F) a una, y solo a una, matriz que está en la forma racional (Capítulo 7).En otras palabras, cada clase de equivalencia, según la relación de semejanza,contiene precisamente una matriz que está en la forma racional. Una matrizen la forma racional está determinada por un k-tuple (pl, . . . , p,,) de polino-mios 'mónicos que tienen la propiedad de que pH 1 divide a pj, j = 1, . . . , k - I.Así, se tiene una función f que asocia a cada matriz n x n, A, un k-tuple f(A) -=(pl, . . . , p,,) que satisface la condición de divisibilidad de que p,-+1 divide a pj.Y, A y B son semejantes si, y solo si, f(A) = f(B), _

(3) He aquí un caso especial del anterior Ejemplo 2. Sea X el conjuntode las matrices 3 x 3 sobre el cuerpo F. Se considera la relación de semejanzaen X_ Si A y B son matrices 3 x 3 sobre F, entonces A y B son semejantes si, ysolo si, tienen el mismo polinomio característico y el mismo polinomio minimal.Asociado a cada matriz 3 x 3, A, se tiene un par de polinomios mónicos (p, q)que satisfacen

(H) gfdf = 3;(bl p divide f;

siendo _/` el polinomio característico para A y p el polinomio minimal para A.Dados los polinomios mónicos f y p sobre F, que cumplen (a) y (b), es fácilencontrar una matriz 3 x 3 sobre F que tiene a f y a p como sus polinomioscaracterístico y minimal, respectivamente. Lo que todo esto significa es que:Si se considera la relación de semejanza en el conjunto/ de las matrices 3 x 3sobre F, las clases de equivalencia están en correspondencia biunívoca con lospares ordenados (f, p) de polinomios mónicos sobre F que satisfacen (a) y (b).

A.6. El axioma de elección

Someramente hablando, el axioma de elección es una regla (o principio)del pensamiento que dice que, dada una familia de conjuntos no vacíos, se

Page 409: ASESORES TECNICOS

J92 A lg¢'l›ru lmcul

puede elegir un elemento de cada conjunto. Para ser más precisos, supóngaseque se tenga un conjunto de índices A y que para cada oz de A se tenga un conjuntoasociado Sa no vacío. El «elegir›› o «seleccionar›› un elemento de cada Sa quieredecir dar una regla f que asocie a cada oz un elemento f(oz) en el conjunto Sa.El axioma de elección dice que esto es posible; es decir, dada la familia de con-juntos {S,,}, existe una función f de A en

S U S..tal que f(a) está en Sa para todo oz. Este principio es aceptado por la mayoríade los matemáticos, pese a que surgen muchas situaciones en las que está lejosde ser claro cómo se pueda hallar una función explícita f.

El axioma de elección tiene consecuencias sorprendentes. La mayoría delas cuales tienen poca o ninguna influencia en el material de este libro; sin em-bargo, es digna de mencionar una: todo espacio vectorial tiene una base. Porejemplo, el cuerpo de los números reales tiene una base, considerado comoespacio vectorial sobre el cuerpo de los racionales. Es decir, existe un subconjun-to S de R que es linealmente independiente sobre el cuerpo de los racionalesy tiene la propiedad de que cada número real es una combinación lineal racionalde un número finito de elementos de S. No nos detendremos aquí a derivareste espacio vectorial que resulta de la aplicación del axioma de elección. Parauna demostración, el lector puede consultar el libro de Kelley citado en la bi-bliografía.

Page 410: ASESORES TECNICOS

Bibliografía

Ó

Halmos, P., Finite-Dimensional Vector Spaces, D. Van Nostrand Co., Princeton,1958.

Jacobson, N., Lectures in Abstract Algebra, II, D. Van Nostrand Co., Princeton,1953.

Kelley, John L., General Topology, D. Van Nostrand Co., Princeton, 1955.

MacLane, S. and Birkhoff, G., Algebra, The Macmillan Co., New York, 1967.

Schreier, O. and Sperner, E., Introduction to Modern Algebra and Matrix Theory,2nd Ed., Chelsea Publishing Co., New York, 1955.

Van der 'Waerden, B. L., Modern Algebra (dos volúmenes), Rev. Ed., FrederickUngar Publishing Co.. New York, 1969.

393

Page 411: ASESORES TECNICOS
Page 412: ASESORES TECNICOS

Adjunta:de una matriz, 147, 158de una transformación, 292

Admisible, subespacio, 231Algebra, 116

autoadjunta, 340de series de potencias formales, 136lineal. 116teorema fundamental del, 136

Algebraicamente cerrado, cuerpo, 136Alternada. función n-lineal, 143, 168Anillo, 139

Grassman, 179Antisimétrica:

forma bilineal, 369matriz (Ej. 3). 163. 209

Anulador:de subconjuntos. 100de suma e intersección (Ej. 11), 105de un vector (T-anulador), 200, 201, 227

Aproximación, 281Asociativa, 1

de la adición vectorial, 28de la multiplicación matricial, 18, 90

Aumentada, matriz, 13Axioma de elección, 391

Base, 40cambio de, 91dual, 98, 164canónìca para F", 41ordenada, 91ortonormal, 279de módulos, 163

Indice

Bessel, desigualdad de, 285Bilineal, forma, 165. 316, 353

antisimétrica, 369diagonalización de, 364grupo que preserva, 373matriz de la, 356no-degeneradaflno-singular), 359positivamente definida, 362rango de, 359signatura de, 366simétrica, 361

Canónica, base de F", 42producto interno, 269

Característica de un cuerpo, 3Propio:

espacio, 181valor, 181, 182vector, 181

Característico, polinomio, 182Cauchy-Schwarz, desigualdad de, 275Cayley-Hamilton, teorema de, 193, 236Cayley, transformación de (Ej. 7), 306Cíclica. teorema de la descomposición, 232Cíclico:

subespacio, 226vector, 226

Clase dc equivalencia, 386Cociente:

espacio, 390transformación, 389

Coeficiente de un polinomio, 119Cofactor, 157

395

Page 413: ASESORES TECNICOS

.Wo lmlire'

Columna: Directa, suma, 209equivalencia por, 254 invariante, 212matriz (Ej. 14), 42, 51, 72 de matrices, 212operaciones por, 26, 255 de operadores, 212rango de, 72, 113 Disjuntos, subespacios (véase Independiente:

Combinación, 170 subespacios)Combinación lineal: DÍSÍHHCÍH (E_ì- 4). 236

de ecuaciones, 4 División con resto, 126de vectores, 31 Dual, base, 98, 164

Complementario, subespacio, 230 espacio, 98ortogonal, 283 módulo, 164

Composición, 382Congruencia, 137, 385, 389 Ecuaciones lineales (véase Sistema de ecuacio-Conjugación (Ej. 13), 274 nes lineales)Conjugada, 269 Eigenvalor (véase Propio: valor)

11-anspimsta, 270 Eigenvector (véase Propio: vector)Conjunto: Elemental:

elemento de un (miembro de un), 381 matriz, 19, 251vacío, 381 matriz de Jordan, 244

Conmutativa: operación de columna, 25, 254álgebra, 116 operación de fila, 6, 251anillo, 139 Elementos de una matriz. 6grupo, 82 Entero, 2

Coordenadas, 49 positivo, 2matriz de, 51 Equivalencia:

(Clase lateral, 176, 388 Clase de, 385Cramer, regla de, 160 relación de, 385Cuadrática, forma, 271, 362 Equivalentes, sistema de ecuaciones, 4Cuerpo, 2 Espacio vectorial, 28

algebraicamente cerrado, 136 base del, 41subcuerpo, 137 de dimensión finita, 41

° de las funciones polinomios, 30Dfilïfi d¢ KF0fl¢¢1<¢f, 9 de las soluciones de las ecuaciones linea-Dependencia lineal, 40, 47 |¢s, 36Derivada de polinomio, 127, 264 de los n-tuples, 29Descomposición polar, 338 dimensión, 44Determinante, función, 143 isomorfismo de, 84

existencia de la, 146 subespacio, 34de transformaciones lineales, 172 Espacios:unicidad de la, 151 cociente, 390

Determinante, rango (Ej. 9), 162 solugión, 36Diagonalizable: Espectral:

de un operador lineal, parte, 220 descomposición, 331Operador. 184 teorema, 331simultáneamente, 207 Espmtro, 331

Diagonalización, 205 Euclidiano, espacio, 275de formas bilineales simétricas, 364 Extfl-¡on p¡-o¿uc¡0, 174, ¡76de formas hermíticas, 319de matrices autoadjuntas (operadores), 311de matrices normales (operadores), 313 F"' * ”, 29simultánea, 205 F”, 29unitaria, 313 Factores, invariantes, 238, 259

Diferencial, ecuación (Ej. 14) (Ej. 8), 222, 247 Factorizaciónde polinomios, 135Dimensión, 44 Fila:

finita, 44 equivalente por, 7, 58, 251fórmula, 46 espacio, 39

Page 414: ASESORES TECNICOS

Imlicr'

Fila:matriz escalón reducida por, 11, 56matriz reducida por, 9operaciones de, 6, 251rango de, 56, 72, 113vector, 38

Forma:alternada, 168bilineal, 165, 316, 353cuadrática, 271, 362hermítiea, 319matriz de la, 318multilineal, 164no-degenerada (Ej. 6), 320no negativa, 321normal, 257, 261positiva, 321, 324racional, 237sesquilineal, 316

Fórmula de Taylor, 128, 264Función, 382

determinante, 143identidad, 382imagen de la, 381inversible, 382lineal, 67, 96, 288multilineal, 164n-lineal, 141polinomio, 30recíproca, 383-84restricción de una, 384

Función lineal, 96

Grado:de las formas multilineales, 164de los polinomios, 118

Gram-Schmidt, proceso de, 278, 285Grassman, anillo de, 172-79Grupo, 82

conmutativo, 82de Lorentz, 375lineal general, 303ortogonal, 374que preserva una forma, 373seudoortogonal, 375simétrico, 153

I-Iermíticaforma, 319

1-liperespacio, 100, 108I-lomogéneo, sistema de ecuaciones lineales, 3

Ideal, 130principal, 130

ldempotente, transformación (véase Proyec-ción)

307

Identidad:de polarización, 272, 362elemento, 16, 139función, 382matriz, 9resolución de la, 332, 340

Imagen, 71Independencia lineal, 40, 47Independiente:

linealmente, 40, 47subespacio, 208

Interpolación, 122Intersección, 380

de subespacios, 36Invariante:

factores, de una matriz, 238, 259subconjunto, 384subespacios, 197, 205, 310suma directa, 213

Inversa:a la derecha, 21a la izquierda, 21de una matriz, 21, 158por ambos lados, 21

Inversible:función, 383transformación lineal, 79matriz, 21, 158

Irreducible, polinomio, 133lsomorfismo:

de espacios producto interno, 296de espacios vectoriales, 84

Jordan, forma de, 245

Kronecker, delta de. 9

Lagrange, fórmula de interpolación de, 123Laplace, desarrollos de, 178Lineal, álgebra, 116Lineal, combinación:

de ecuaciones, 4de vectores, 31

Lineales, ecuaciones (véase Sistema de ecua-ciones lineales)

Lineal, funcional, 96Linealmente dependiente (independiente),

40, 47Lorentz:

grupo de, 375transformación de (Ej. 15), 308, 375

Matriz adjunta, 228Matriz, 6

adjunta de una, 147, 158antisimétrica (Ej. 3), 163, 209

Page 415: ASESORES TECNICOS

.WR

Matriz:aumentada, 14autoadjunta (hermítiea), 35, 319coeficiente, 6cofactores de, 157coordenadas, 51de la forma bilineal, 356de la transformación lineal, 86, 87de una forma, 318de Vandermonde, 123del producto intemo, 272elemental. 19, 251elemental de Jordan, 244escalón reducida por filas, 11, 56factores invariantes de la, 238, 259forma de Jordan de la, 245forma racional de la, 237inversa de la, 21, 158inversible, 21, 158nilpotente, 243nonnal, 312nula, 12ortogonal (Ej. 4), 161, 374polinomio minimal de la, 190positiva, 325producto de, 17, 89rango de la, 113rango de fila de la, 56, 72, 113reducida por filas, 9semejante, 93simétrica, 35, 209transpuesta de la, 113traza de la, 97 _triangular, 154triangular superior, 27unidad, 9unitaria (Ej. 5), 161, 300

Máximo común divisor (m.c.d.), 132Minimal, polinomio, 190Módulo, 162

base para el, 163dual, 164finitamente generado, 163libre. 163rango del, 163

Mónico, polinomio, 119Movimiento rígido (Ej. 14), 307Multilineal, función (forma). 164-65

grado de la, 164Multiplicidad, 129

Nilpotente:matriz, 243operador, 221

n-lineal, función, 141alternada, 143, 168

No degenerada:forma (Ej. 6), 320forma bilineal, 359

No negativa:forma, 321operador, 325, 337

No singular:forma (véase No degenerada)transformación lineal, 79

Norma, 271Normal:

forma, 256, 259matriz, 312operador, 309

n-tuple, 29Nulidad de la transformación lineal, 71Nulo, espacio, 71Números:

complejos, 2racionales, 3reales, 2

Operador semisimple, 260Operador lineal, 76Ordenada, base, 50Ortogonal:

complemento, 282conjunto, 276equivalencia, 305grupo, 374matriz (Ej. 4), 161, 374proyección, 283transformación lineal, 301

Ortogonales, vectores, 276. 362Ortonormal:

base. 279conjunto, 276

Paralelogramo, ley del (Ej. 9), 273Permutación, 150

impar, par, 151producto de, 152signo de una, 151

Polar, descomposición, 338Polarización, identidad de, 272, 362Polinomio, 116

característico, 182cero del, 127coeficientes del, 119derivado del ,_ 127, 264descomposición prima del, 135escalar, 119factorización prima del, 135función, 30grado del. 118ineducible (primo), 133

lmiirc'

Page 416: ASESORES TECNICOS

lmlit 't'

Polinomio:minimal, 190 °mónico, 119primo (irreducìble), 133raíz del, 127reducible, 133

Positiva, matriz, 325Positivo:

entcro, 2forma, 321, 324operador, 325

Positivamente definido, 362Potencias formales, serie de, 118Prima, descomposición:

de polinomios, 135teorema de la, 219

Prima, factorización de polinomios, 135Primo:

polinomio, 133relativo, 131

Primos, componentes, 346Principal:

ideal, 130teorema del eje, 319

Principales, menores, 322Proceso de ortogonalización, 278. 285Producto:

de transformaciones lineales, 75de matrices, 14, 89de permutaciones, 155exterior, 174, 176tensorial, 166

Producto exterior, 174, 176Producto interno, 269

canónico, 269, 270espacio con, 274forma cuadrática del, 271matriz del, 272

Propio, subespacio, 381Proyección, 209

ortogonal, 283

Racional, forma, 237Raíz:

de polinomios, 127de una familia de operadores, 338

Raíz cuadrada,_ 336Rango:

de fila, 56, 72, 113de columna, 72, 113de la forma bilineal, 359de la matriz, 113de la transformación lineal, 71del módulo, 163.determinante (Ej. 9), 162

-I 01.

. 0

__Ó QQQ

Ó ¡Q'I. _

I

Rcaueihie, poliñdmio. 133 ' 'Relación, 385Resolución:

de la identidad, 332, 339espectral, 331, 340

Restricción:de una función. 383operador, 198

Rotación (Ej. 4), 54, 306

Semejantes. matrices, 93Semisimple, operador, 260Separador, vector (Ej. 14), 242Serie de potencia, 118Sesquilineal, forma, 316Signatura, 366Signo de una permutación, 151Simétrica:

forma bilineal, 361grupo, 152matriz, 35, 209

Simultánea,diagonalización, 205triangulización, 205

Sistema de ecuaciones lineales, 3homogéneas, 3

Subconjunto, 381invariante, 385propio, 381

Subcuerpo, 2Subespacio, 34

anulador de un, 100cíclico, 226cociente, 390complementario, 230complementario ortogonal, 282generado, 36independiente, 208invariante, 197, 205, 310iiulo, 35T-admisible, 231

Subespacios, suma de, 37Sucesión de vectores, 47Submatriz (Ej. 9), 162Suma:

de subespacios, 37directa, 209

T-admisible, subespacio, 231T-anulador, 200, 201, 227T-conductor, 200, 201, 231Taylor, fórmula de, 128, 264Tensorial, producto, 166Teorema fundamental del álgebra, 136Transformación:

cero, 67

JW)

QD

Ó

UU

Page 417: ASESORES TECNICOS

400

Transformación: ' Transformación lineal,de derivación, 67 traza de la (Ej. 15), 106

Transformación (operador) lineal, 67, 76 unitaria, 299adjunta, 292 Transpuesta:autoadjunta, 295, 310 conjugada, 270cociente, 389-90 de la matriz, 113descomposición cíclica de la, 232 de la transformación lineal, 111descomposición polar de la, 338 Traza: ' -determinante de la, 171 de la matriz, 97

Indice

diagonalizable, 183 de la transformación lineal (Ej. 15), 106imagen por la, 71 Triangulable, transformación lineal, 201 , 312invertible, 79 Triangular, matriz (Ej. 7), 154matriz de la, 87, 88 Triangulación, 205matriz de la, en la base normal, 291nilpotente, 220 Unión, 334no negativa, 325, 336 Unitaria:no singular, 79 diagonalización, 313normal, 309 equivalencia, 305, 351nulidad de la, 71 matriz (Ej. 5), 161, 300ortogonal, 301 transformación, 351parte diagonalizable de la, 220 Unitario:polinomio minimal de la, 190 espacio, 275positiva, 324 operador, 299rango de la, 71semisimple, 261 Vandermonde, matriz de, 123transpuesta de la, 111 Valor propio, 181, 182triangulable, 201, 312 Vector propio, 181

Page 418: ASESORES TECNICOS