SlideShare une entreprise Scribd logo
1  sur  9
Télécharger pour lire hors ligne
Carrera: UAX
                                             Asignatura: Matemáticas
                                                     Fecha:
                                                                                     Página 1 de 9


                       Álgebra para ingenieros de la
                          Universidad Alfonso X
            1-Matrices y sistemas de ecuaciones lineales

Operaciones con matrices:

    a 11   a 12   L      a1n       b11          b12   L b 1q 
                                                             
                                 B=  21
                                                         L b2q 
A=  a 21   a 22   L      a 2n       b           b 22
    M        M    M        M       M             M    M  M 
                                                             
   a              L      a mn      b p1               L b pq 
    m1     a m2                                b p2          

Suma:
- Las matrices a sumar tienen que tener la misma dimensión (m=p, n=q).

       a 11 + b11       a 12 + b12      L        a 1n + b1 n 
                                                             
A+B =  a 21 + b 21     a 22 + b 22      L        a 2n + b 2n 
            M                M          M             M      
                                                             
      a + b            a m 2 + bm 2     L        a mn + b mn 
       m1       m1                                           

Producto por un número (λ):


        λ a 11       λ a 12     L     λ a1n 
                                             
λA=Aλ=  λa 21        λa 22      L     λa 2 n 
        M              M        M        M 
                                             
        λa           λa m2      L     λ a mn 
        m1                                   

Producto de matrices:

    -   El producto de matrices no es conmutativo (en ocasiones AB≠BA).
    -   Si multiplicamos AB, A tiene que tener la misma cantidad de columnas que B de filas
        (n=p).
    -   La matriz resultante de la multiplicación tiene la misma cantidad de filas que A y de
        columnas que B (dimensión de AB es igual a m×q).




DELTA-MASTER                   c/ General Ampudia 16, 28003 MADRID     ( 915351932 915333842
Carrera: UAX
                                                  Asignatura: Matemáticas
                                                          Fecha:
                                                                                                                  Página 2 de 9

AB=
 a 11 b11 + a 12 b 21 + L + a 1n b n 1         a 11 b12 + a 12 b 22 + L + a1 n b n 2    L    a 11 b1 q + a 12 b 2 q + L + a 1n b nq 
                                                                                                                                     
 a 21 b11 + a 22 b 21 + L + a 2 n b n 1       a 21 b12 + a 22 b 22 + L + a 2 n b n 2    L   a 21 b1 q + a 22 b 2 q + L + a 2 n b nq 
                     M                                           M                      M                         M                  
                                                                                                                                     
 a m1 b 11 + a m 2 b 21 + L + a mn b n 1      a m 1 b12 + a m 2 b 22 + L + a mn b n 2   L   a m 1 b1 q + a m 2 b 2 q + L + a mn b nq 
                                                                                                                                     




Traza de una matriz:

-La matriz a la que se halla la traza tiene que ser cuadrada (n=m).
-La traza es la suma de los elementos de la diagonal.

traza(A)= a11 + a 22 L a nn


Transposición de matrices:

-La transposición es el simple cambio de filas por columnas.

          a 11        a 21    L      a n1 
                                          
     A =  a 12
      T                a 22    L      a n2 
          M            M      M       M 
                                          
         a                    L      a nn 
          1n          a 2n                




Tipos de matrices

Matriz fila: matriz con una sola columna (m×1).
Matriz columna: matriz con una sola fila (1×n):
Matriz cuadrada: matriz con la misma cantidad de filas que de columnas (n=m).
Matriz rectangular: matriz con un número diferente de filas que de columnas (n≠m).
Matriz nula: Matriz en la que todos sus elementos son ceros.
Matriz triangular superior (inferior): matriz cuadrada en la cual todos los elementos que
están por debajo (arriba) de la diagonal son ceros.
Matriz diagonal: matriz cuadrada en la cual son nulos los elementos por debajo y por arriba
de la diagonal.
Matriz regular: matriz que se puede invertir.
Matriz identidad: matriz diagonal en la que los elementos de la diagonal son unos.
Matriz simétrica: matriz que es igual a su transpuesta (A= AT ).


DELTA-MASTER                   c/ General Ampudia 16, 28003 MADRID                       ( 915351932 915333842
Carrera: UAX
                                           Asignatura: Matemáticas
                                                   Fecha:
                                                                                                      Página 3 de 9

Matriz antisimétrica: A=- AT .
Matriz ortogonal: AT = A −1 .
Matriz idempotente: A 2 = A.
Matriz nilpotente: si existe un n tal que A n = O (O matriz nula).

Propiedades de los distintos tipos de matrices

    -      (A + B )T = A T + BT
    -      (AB )T = B T A T
    -      (AB) −1 = B −1 A −1
    -      IA=AI=A (I es la matriz identidad)
    -      OA=AO=O (O es la matriz nula)



Determinantes

- El determinante solo se le halla a una matriz cuadrada.


Determinantes de matrices de dimensión 2:

   a b        a b
A=      ,|A|=
   c d            = ad − cb
              c d

Determinantes de matrices de dimensión 3:

    a1      b1   c1 
                     
A=  a 2     b2   c 2  ,|A|= a1b 2 c3 + a 3b1c 2 + a 2 b3 c1 − (a 3b 2 c1 + a 2 b1c 3 + a1b3 c 2 )
   a             c3 
    3       b3       

Determinantes de orden mayor que tres:

    Menor correspondiente al elemento ai j ,M i j: es el determinate                           formado al eliminar
    la fila i y la columna j.

    Adjunto       al elemento aij : (-1)i+j M ij .

    Determinante: cogemos cada elemento de una fila o columnas lo multiplicamos por su
    adjunto y lo sumamos.




DELTA-MASTER                c/ General Ampudia 16, 28003 MADRID                  ( 915351932 915333842
Carrera: UAX
                                             Asignatura: Matemáticas
                                                     Fecha:
                                                                                        Página 4 de 9

Propiedades de los determinantes:

•    |AT |=|A|
•    |AB|=|BA|
•    |A-1 |=1/|A|
•    |A|=-|B|, siendo B la matriz formada al intercambiar dos filas o columnas
•    |A|=0, si A tiene dos filas o columnas iguales, proporcionales o que una dependa
     linealmente de las otras.
•    |B|=k|A|, si todos los elementos de B son iguales a los de A menos una fila o columna
     que se a multiplicado por k.




Matriz inversa

                     −1
     -    La matriz A es la matriz inversa de A si AA -1 = A -1 A = I
     -    La matriz A tiene inversa si y sólo si su determinante es distinto de cero.

Matrices semejantes
 - Dos matrices A y B cuadradas de orden n son semejantes si existe una matriz P regular tal
que B=PAP -1 .

Calculo de la matriz inversa

               (adjA)t
              -1
     - A =              , donde la matriz adjA es la matriz formada por los elementos adjuntos
                 |A|
         de A.
     - Otra manera de calcular la inversa de A es utilizando el método de Gauss- Jordan


Sistemas de ecuaciones lineales

Se denomina sistema de ecuaciones lineales de m ecuaciones con n incógnitas a:

a11x1 + a12 x1 + ... + a1n x1 = b1
a21x1 + a22 x1 + ... + a2 n x1 = b2
..........................................
am1x1 + am 2 x1 + ... + amn x1 = bm

Forma matricial Ax=b, donde




DELTA-MASTER                    c/ General Ampudia 16, 28003 MADRID    ( 915351932 915333842
Carrera: UAX
                                        Asignatura: Matemáticas
                                                Fecha:
                                                                                     Página 5 de 9

    a11 a12    .... a1n         x1        b1 
                                          
     a   a22    .... a2 n        x2  , b=  b2 
A=  21                     , x=
    M   ....   .... M          M          M 
   
   a                     
                                 
                                 x          
                                             b 
    m1 am 2    .... amn         n         m

Clasificación de los sistemas


   -   Sistema compatible determinado: son los que tienen solución y es única.
   -   Sistema compatible indeterminado: son los que tienen infinitas soluciones.
   -   Sistema incompatible: son los que no tienen ninguna solución.



Rango de una matriz: orden del mayor determinante no nulo que se puede formar apartir de
la matriz.

Teorema de Rouché -Frobenius


                            a11 a12 .... a1n b1 
                                                 
                       %
Sea la matriz ampliada A =  a21 a22 .... a2 n b2 
                            M   .... .... M M 
                           
                           a                     
                                                  
                            m1 am 2 .... amn bm 
                         %
    - Si rang A ≠ rang A entonces el sistema es incompatible.
                         %
    - Si rang A = rang A =n entonces el sistema es compatible determinado.
                         %
    - Si rang A = rang A < n entonces el sistema es compatible indeterminado.


   Resolución de sistemas de ecuaciones

   -   Sistema de Cramer (compatible determinado) x = A -1b .

                                 a11    ... a1i −1 b1 a1i +1   ... a1n 
                                a       ... a2i −1 b2 a2i +1   ... a2 n 
                                 21                                     
                                 M      ... M       M   M      ... M 
                                
                                a                                       
                                 n1     ... ani− 1 bn ani+ 1   ... ann 
   -   Regla de Cramer xi =
                                                    |A|

   -   Otro método es el de eliminación de Gauss-Jordan.




DELTA-MASTER           c/ General Ampudia 16, 28003 MADRID             ( 915351932 915333842
Carrera: UAX
                                       Asignatura: Matemáticas
                                               Fecha:
                                                                                               Página 6 de 9

                                      2-Espacios vectoriales

Definición

Diremos que un conjunto V es un espacio vectorial sobre un cuerpo K si hay definidas dos
operaciones:
1- una ley interna, V×V→V, (x , y) →x+y, que denominamos suma de vectores
2- una ley externa K ×V→V, (α ,y) →α y, que denominamos producto por un escalar
de manera que verifican las siguientes propiedades:


1-   x+y=y+x (conmutativa)
2-   (x+y)+z=x+(y+z) (asociativa)
3-   ∃0 ∈ V / x+ 0= x ∀ x∈ V (elemento neutro)
                       ,
4-   ∀x ∈ V, ∃ - x ∈ V / x + ( - x ) = 0 (elemento opuesto)
5-   (α+β)x=αx+βx
6-   α (x+y)= αx+αy
7-   (αβ)x=α(β x)
8-   1x=x

∀α , β ∈ ¡ , x,y ∈ V

Combinación lineal: Sea {x 1 , x 2 ,..., x n } ∈ V y {a 1 , a 2 ,..., a n }∈ K se dice que la operación
α 1x 1 + α 2 x 2 + ... + α n x n forma una combinación lineal de dichos vectores.

Dependencia lineal: Se dice que {x 1 , x 2 ,..., x n } ∈ V es un conjunto linealmente dependiente
si ∃ {a 1 , a 2 ,..., a n }∈ K con al menos α i ≠ 0 , en el que α 1x 1 + α 2 x 2 + ... + α n x n =0.

Independencia lineal: Se dice que {x 1 , x 2 ,..., x n } ∈ V es un conjunto linealmente
dependiente de V si al ser α 1x 1 + α 2 x 2 + ... + α n x n =0 es necesario que a 1 = a 2 = ... = a n = 0 .

Sistema generador: Se dice que {x 1 , x 2 ,..., x n } ∈ V , forma un sistema generador de V si
∀x ∈ V , ∃ {a 1 , a 2 ,..., a n }∈ K /x = α 1x 1 + α 2 x 2 + ... + α n x n .

Base de un sistema generador: Se dice que B = {x 1 , x 2 ,..., x n } forma una base de V si se
cumple, que es un sistema generador de V y un conjunto linealmente independiente.

Coordenadas de un vector en una base dada: Sea B = {x 1 , x 2 ,..., x n } una base de V, y sea
x ∈ V ; se dice que ( a 1 , a 2 ,..., a n ) ∈ K n son las coordenadas de x en la base B si se cumple: x
= α 1x 1 + α 2 x 2 + ... + α n x n .

Cambio de base: Sean B = {x 1 , x 2 ,..., x n } y B1 = {y 1 , y 2 ,..., y n } dos bases de un espacio
vectorial V. Se dice ecuaciones del cambio de base a las que surgen de hacer


DELTA-MASTER             c/ General Ampudia 16, 28003 MADRID             ( 915351932 915333842
Carrera: UAX
                                            Asignatura: Matemáticas
                                                    Fecha:
                                                                                                         Página 7 de 9

α 1x 1 + α 2 x 2 + ... + α n x n = α 1 y 1 + α 2 y 2 + ... + α 1n y n siendo ( a 1 , a 2 ,..., a n ) y
                                     1          1


( a 11 , a 12 ,..., a 1n ) las coordenadas de x en las bases B y B1 respectivamente.

Dimensión de V: numero de vectores que forman una base V.

Subespacio vectorial: Sea S un subconjunto de vectores de V, se dice que forma un
subespacio vectorial de V si en él se verifican: ∀x, y ∈ S y αx + βy ∈ S (el elemento neutro
siempre tiene que pertenecer a S).

Operaciones entre subespacio: Sean S1 y S2 dos subespacio de V, se dice:

    -    Suma. S1 + S2 = S1 ∪ S2 , es un subespacio de V, donde una base de S1 + S2 esta
         formada por una cantidad maximal de vectores linealmente independiente del conjunto
         de vectores formado al unir una base de cada uno de los subespacio.
    -    Intersección. S1 ∩ S2 , es un subespacio de V en el que si x ∈ S1 ∩ S2 entonces x ∈ S1
         y x ∈ S2 .
    -    Suma directa. S1 ⊕ S2 , se dice si dim(S1 ∩S2 )=0
    -    dim(S1 + S2 )+dim(S1 ∩ S2 )=dim(S1 )+dim(S2 ).

                                 3-Espacios vectoriales euclídeos


Producto interior: a cada par de vectores se le asigna un número real <u,v> que satisface:
 1- < au1 + bu2 , v >= a < u1 , v > +b < u 2 , v > (linealidad)
 2- <u,v>=<v,u>(simetría)
3- <u,v>≥0, <u,u>=0⇔u=0 (definida positiva)


Espacio euclideo: todo espacio vectorial en el que se le defina un producto escalar.

Longitud de un vector u: ||u||= < u, u > .
Desigualdad de Cauchy – Schawarz: < u , v > ≤ || u || ⋅ || v || .
                                      < u,v >
Relación trigonométrica: cos(θ ) =                   , donde θ es el ángulo entre los vectores.
                                   || u || ⋅ || v ||
Ortogonalidad: dos vectores son ortogonales si su producto interno es igual a cero.

Complemento ortogonal: sea S un conjunto del espacio vectorial V, definimos complemento
ortogonal de S a:
S ⊥ = {v ∈ V :< u,v >= 0∀u ∈ S} , S ⊥ es un subespacio vectorial de V.
-Si S es un subespacio de V,V =S⊕ S ⊥ .
Conjuntos ortogonal: un conjunto es ortogonal si todos los elementos son ortogonales entre
si.
Conjuntos ortonormal: un conjunto es ortonormal si todos los elementos son ortogonales
entre si y la longitud de cada uno de ellos es uno.


DELTA-MASTER                 c/ General Ampudia 16, 28003 MADRID                   ( 915351932 915333842
Carrera: UAX
                                                Asignatura: Matemáticas
                                                        Fecha:
                                                                                                   Página 8 de 9

-Todo conjunto ortogonal es linealmente independiente.

                                                                               < V, W >
Proyección: la proyección del vector V en W es cW donde c =                               (c es llamado
                                                                                || W || 2
coeficiente de Fourier).

Proceso de ortonalización (Gram-Schmidt): Sea el conjunto de vectores {V1 ,V2 ,...,Vn } que
queremos ortogonalizar, el proceso de ortogonalización es el siguiente:
W1 = V1
                   < V2 , W1 >
W2 = V2 −                              W1
                       || W1 || 2
                   < V3 , W1 >                  < V3 , W2 >
 W3 = V3 −                       2
                                       W1 −                       W2
                       || W1 ||                    || W2 || 2
.................... ............................................
                   < Vn , W1 >                         < Vn , Wn−1 >
 Wn = Vn −                       2
                                       W1 − ... −                       Wn−1
                        || W1 ||                          || Wn −1 || 2

Representación del producto interno en una base {V1 ,V2 ,....Vn }:
 < V1 , V1 > < V1 , V2 > ... < V1 ,V n > 
                                          
 < V2 , V1 > < V2 , V2 > ... < V 2 ,V n > 
      M           M      ...       M      
                                          
 < V , V > < V , V > ... < V ,V > 
 n 1            n    2          n     n   



                                             4-Aplicaciones lineales
Aplicación lineal: sean V y W dos espacios vectoriales, decimos que la aplicación
f : V → W ∀x ∈ V, ∃ y ∈ W tal que y = f ( x) es lineal si
f (x + y) = f (x ) + f (y )
f (α x) = α f (x )

-A toda aplicación lineal se le puede asociar una matriz y esta depende de las bases a escoger
en los espacios V y W.

Endomorfismo: W=V.

Núcleo: se dice núcleo o Ker de f a: Ker(f)={ x ∈ V : f (x ) = 0 }.
Imagen: se dice que imagen de f :Im(f) {y ∈ W : ∃x ∈ V / f (x ) = y} .
-dim(Ker(f))+dim(Im(f))=dim(V).
Inyectiva: Ker(f)=0.(f es un monomorfismo)
Sobreyectiva: Im(f)=W . ( f es epimorfismo)


DELTA-MASTER                   c/ General Ampudia 16, 28003 MADRID             ( 915351932 915333842
Carrera: UAX
                                   Asignatura: Matemáticas
                                           Fecha:
                                                                                   Página 9 de 9

Biyectiva: aplicación inyectiva y sobreyectiva. (f es un isomorfismo)



                                      5-Diagonalización

   Autovector: Sea f : V → V un endomorfismo, se dice que x es un autovector de f si se
   cumple f(x)=λx.
   Autovalor: es el valor λ de la definición de autovector.

   Calculo de Autovalores y autovectores

   Autovalores: son las soluciones del polinomio det(A-λI)=0 (polinomio característico),
   siendo A una matriz asociada a la aplicación lineal f.

   Autovectores: son los vectores que conforman las bases de cada subespacio (subespacio
   propio) formado por las soluciones de los sistemas (A- λi I)x=0, i=1..r, donde λi son los
   autovalores y r es la número de valores propios distintos.
   - Una aplicación es diagonalizable si la multiplicidad de sus autovalores es igual a la
   dimensión del subespacio propio.



   Matriz diagonal asociada a la aplicación f, D: es la matriz diagonal en la cual su
   diagonal está formada por los autovalores de f. Además D= P −1 AP, donde P es una matriz
   cuyas columnas están formada por los autovectores.

   Propiedades:
   - A y A⊥ tienen los mismos autovalores.
   - Si λ es autovalor de A, kλ es autovalor de kA (los autovectores son los mismos).
   - Si λ es autovalor de A, λ −1 es autovalor de A−1 (los autovectores son los mismos).
   - Si λ es autovalor de A, λ n es autovalor de An (los autovectores son los mismos).
   - Si λ es autovalor de A, Ker(f)≠0.
   - Si p(x) es el polinomio característico de A entonces p(A)=0, Teorema de Cyley-
      Hamilton.
   - Si A es simétrica es siempre diagonalizable y sus autovectores forman un conjunto
      ortogonal.




DELTA-MASTER           c/ General Ampudia 16, 28003 MADRID        ( 915351932 915333842

Contenu connexe

Tendances (20)

Ejercicios de matrices
Ejercicios de matricesEjercicios de matrices
Ejercicios de matrices
 
Matrices 2011
Matrices 2011Matrices 2011
Matrices 2011
 
Matrices (teoría)
Matrices (teoría)Matrices (teoría)
Matrices (teoría)
 
Unidad 2 matrices
Unidad 2 matricesUnidad 2 matrices
Unidad 2 matrices
 
ALGEBRA DE MATRICES
ALGEBRA DE MATRICESALGEBRA DE MATRICES
ALGEBRA DE MATRICES
 
Matrices algebra-lineal
Matrices algebra-linealMatrices algebra-lineal
Matrices algebra-lineal
 
Libro psu danny_perich
Libro psu danny_perichLibro psu danny_perich
Libro psu danny_perich
 
T06
T06T06
T06
 
Matrices
MatricesMatrices
Matrices
 
Ejercicios Mate Aplic II PAU País Vasco
Ejercicios Mate Aplic II PAU País VascoEjercicios Mate Aplic II PAU País Vasco
Ejercicios Mate Aplic II PAU País Vasco
 
Matrices+y+determinantes 1
Matrices+y+determinantes 1Matrices+y+determinantes 1
Matrices+y+determinantes 1
 
Operaciones con matrices
Operaciones con matricesOperaciones con matrices
Operaciones con matrices
 
Matrices y determinantes
Matrices y determinantes Matrices y determinantes
Matrices y determinantes
 
Cap 01 1 matrices
Cap 01 1 matricesCap 01 1 matrices
Cap 01 1 matrices
 
Mate II
Mate IIMate II
Mate II
 
Matrices matematica
Matrices matematicaMatrices matematica
Matrices matematica
 
Matrices
MatricesMatrices
Matrices
 
Funcion lineal ultima
Funcion lineal ultimaFuncion lineal ultima
Funcion lineal ultima
 
Mod matrices y determinantes
Mod matrices y determinantesMod matrices y determinantes
Mod matrices y determinantes
 
Introduccion al Calculo Matricial Ccesa007.pdf
Introduccion al Calculo Matricial Ccesa007.pdfIntroduccion al Calculo Matricial Ccesa007.pdf
Introduccion al Calculo Matricial Ccesa007.pdf
 

Similaire à Algebra Lineal (20)

E:\Mimidocumentos\EconomíA MatemáTica
E:\Mimidocumentos\EconomíA MatemáTicaE:\Mimidocumentos\EconomíA MatemáTica
E:\Mimidocumentos\EconomíA MatemáTica
 
EconomíA MatemáTica
EconomíA MatemáTicaEconomíA MatemáTica
EconomíA MatemáTica
 
Fundamentos matrices y determinantes
Fundamentos matrices y determinantes     Fundamentos matrices y determinantes
Fundamentos matrices y determinantes
 
GUIA 1 MATRICES CESAR VALLEJO
GUIA 1 MATRICES CESAR VALLEJOGUIA 1 MATRICES CESAR VALLEJO
GUIA 1 MATRICES CESAR VALLEJO
 
Matrices
MatricesMatrices
Matrices
 
Matrices
Matrices Matrices
Matrices
 
Clase1.pdf
Clase1.pdfClase1.pdf
Clase1.pdf
 
Sesión 7. matrices
Sesión 7. matricesSesión 7. matrices
Sesión 7. matrices
 
2 matrices
2 matrices2 matrices
2 matrices
 
matrices
matricesmatrices
matrices
 
2 matrices
2 matrices2 matrices
2 matrices
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 
3. 2 matrices
3. 2 matrices3. 2 matrices
3. 2 matrices
 
Repaso matrices
Repaso matricesRepaso matrices
Repaso matrices
 
8 valores y vectores propios, diagonalizacion y formas cuadraticas
8 valores y vectores propios, diagonalizacion y formas cuadraticas8 valores y vectores propios, diagonalizacion y formas cuadraticas
8 valores y vectores propios, diagonalizacion y formas cuadraticas
 
ALGEBRA Y FUNCIONES
ALGEBRA Y FUNCIONESALGEBRA Y FUNCIONES
ALGEBRA Y FUNCIONES
 
Matrices Melendez
Matrices MelendezMatrices Melendez
Matrices Melendez
 
Las Matrices
Las MatricesLas Matrices
Las Matrices
 
Las Matrices
Las MatricesLas Matrices
Las Matrices
 
Matrices y determinantes
Matrices y determinantesMatrices y determinantes
Matrices y determinantes
 

Plus de Fernando Antonio (20)

Superficies
SuperficiesSuperficies
Superficies
 
Cálculo y Transformadas de Laplace
Cálculo y Transformadas de LaplaceCálculo y Transformadas de Laplace
Cálculo y Transformadas de Laplace
 
Formulario de Matemáticas
Formulario de MatemáticasFormulario de Matemáticas
Formulario de Matemáticas
 
Formulario de Física
Formulario de FísicaFormulario de Física
Formulario de Física
 
Formulario de Química
Formulario de QuímicaFormulario de Química
Formulario de Química
 
Tabla de Unidades de presión
Tabla de Unidades de presiónTabla de Unidades de presión
Tabla de Unidades de presión
 
Formulario de Termodinámica
Formulario de TermodinámicaFormulario de Termodinámica
Formulario de Termodinámica
 
Tabla de iones más comunes
Tabla de iones más comunesTabla de iones más comunes
Tabla de iones más comunes
 
Compuestos y Usos
Compuestos y UsosCompuestos y Usos
Compuestos y Usos
 
Formulario Cálculo
Formulario CálculoFormulario Cálculo
Formulario Cálculo
 
Formulario Cálculo
Formulario CálculoFormulario Cálculo
Formulario Cálculo
 
Pesos Atómicos
Pesos AtómicosPesos Atómicos
Pesos Atómicos
 
Funciones Orgánicas
Funciones OrgánicasFunciones Orgánicas
Funciones Orgánicas
 
Administración Diapositivas II
Administración Diapositivas IIAdministración Diapositivas II
Administración Diapositivas II
 
Desarrollo Administrativo
Desarrollo AdministrativoDesarrollo Administrativo
Desarrollo Administrativo
 
Analítica formulario
Analítica formularioAnalítica formulario
Analítica formulario
 
Meiosis
MeiosisMeiosis
Meiosis
 
Constantes
ConstantesConstantes
Constantes
 
Alcoholes fenoles éteres y tioles
Alcoholes fenoles éteres y tiolesAlcoholes fenoles éteres y tioles
Alcoholes fenoles éteres y tioles
 
Aminas
AminasAminas
Aminas
 

Dernier

119672964-Place-de-Infeccion-de-Vias-Urinarias.doc
119672964-Place-de-Infeccion-de-Vias-Urinarias.doc119672964-Place-de-Infeccion-de-Vias-Urinarias.doc
119672964-Place-de-Infeccion-de-Vias-Urinarias.docMarbellaLedsma
 
Descubre el boletín del 12 de Abril de 2024
Descubre el boletín del 12 de Abril de 2024Descubre el boletín del 12 de Abril de 2024
Descubre el boletín del 12 de Abril de 2024Yes Europa
 
COMPETENCIAS PROFESIONALES para el empleo.pptx
COMPETENCIAS PROFESIONALES para el empleo.pptxCOMPETENCIAS PROFESIONALES para el empleo.pptx
COMPETENCIAS PROFESIONALES para el empleo.pptxespaciorientatriguer
 
Explora el boletin del 10 de abril de 2024
Explora el boletin del 10 de abril de 2024Explora el boletin del 10 de abril de 2024
Explora el boletin del 10 de abril de 2024Yes Europa
 
PROYECTO CAFETERÍA ÁRBOL DE PROBLEMAS.pdf
PROYECTO CAFETERÍA ÁRBOL DE PROBLEMAS.pdfPROYECTO CAFETERÍA ÁRBOL DE PROBLEMAS.pdf
PROYECTO CAFETERÍA ÁRBOL DE PROBLEMAS.pdfenritov17
 
Cirugía Oral…………………………………………………..……..pdf
Cirugía Oral…………………………………………………..……..pdfCirugía Oral…………………………………………………..……..pdf
Cirugía Oral…………………………………………………..……..pdfginpao14
 
PREVENCION AL RIESGO LOCATIVO EN LOS LUGARES DE TRABAJO.ppt
PREVENCION AL RIESGO LOCATIVO EN LOS LUGARES DE TRABAJO.pptPREVENCION AL RIESGO LOCATIVO EN LOS LUGARES DE TRABAJO.ppt
PREVENCION AL RIESGO LOCATIVO EN LOS LUGARES DE TRABAJO.pptMontoyaCruzSofia
 

Dernier (7)

119672964-Place-de-Infeccion-de-Vias-Urinarias.doc
119672964-Place-de-Infeccion-de-Vias-Urinarias.doc119672964-Place-de-Infeccion-de-Vias-Urinarias.doc
119672964-Place-de-Infeccion-de-Vias-Urinarias.doc
 
Descubre el boletín del 12 de Abril de 2024
Descubre el boletín del 12 de Abril de 2024Descubre el boletín del 12 de Abril de 2024
Descubre el boletín del 12 de Abril de 2024
 
COMPETENCIAS PROFESIONALES para el empleo.pptx
COMPETENCIAS PROFESIONALES para el empleo.pptxCOMPETENCIAS PROFESIONALES para el empleo.pptx
COMPETENCIAS PROFESIONALES para el empleo.pptx
 
Explora el boletin del 10 de abril de 2024
Explora el boletin del 10 de abril de 2024Explora el boletin del 10 de abril de 2024
Explora el boletin del 10 de abril de 2024
 
PROYECTO CAFETERÍA ÁRBOL DE PROBLEMAS.pdf
PROYECTO CAFETERÍA ÁRBOL DE PROBLEMAS.pdfPROYECTO CAFETERÍA ÁRBOL DE PROBLEMAS.pdf
PROYECTO CAFETERÍA ÁRBOL DE PROBLEMAS.pdf
 
Cirugía Oral…………………………………………………..……..pdf
Cirugía Oral…………………………………………………..……..pdfCirugía Oral…………………………………………………..……..pdf
Cirugía Oral…………………………………………………..……..pdf
 
PREVENCION AL RIESGO LOCATIVO EN LOS LUGARES DE TRABAJO.ppt
PREVENCION AL RIESGO LOCATIVO EN LOS LUGARES DE TRABAJO.pptPREVENCION AL RIESGO LOCATIVO EN LOS LUGARES DE TRABAJO.ppt
PREVENCION AL RIESGO LOCATIVO EN LOS LUGARES DE TRABAJO.ppt
 

Algebra Lineal

  • 1. Carrera: UAX Asignatura: Matemáticas Fecha: Página 1 de 9 Álgebra para ingenieros de la Universidad Alfonso X 1-Matrices y sistemas de ecuaciones lineales Operaciones con matrices:  a 11 a 12 L a1n   b11 b12 L b 1q      B=  21 L b2q  A=  a 21 a 22 L a 2n  b b 22  M M M M   M M M M      a L a mn   b p1 L b pq   m1 a m2   b p2  Suma: - Las matrices a sumar tienen que tener la misma dimensión (m=p, n=q).  a 11 + b11 a 12 + b12 L a 1n + b1 n    A+B =  a 21 + b 21 a 22 + b 22 L a 2n + b 2n   M M M M    a + b a m 2 + bm 2 L a mn + b mn   m1 m1  Producto por un número (λ):  λ a 11 λ a 12 L λ a1n    λA=Aλ=  λa 21 λa 22 L λa 2 n   M M M M     λa λa m2 L λ a mn   m1  Producto de matrices: - El producto de matrices no es conmutativo (en ocasiones AB≠BA). - Si multiplicamos AB, A tiene que tener la misma cantidad de columnas que B de filas (n=p). - La matriz resultante de la multiplicación tiene la misma cantidad de filas que A y de columnas que B (dimensión de AB es igual a m×q). DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
  • 2. Carrera: UAX Asignatura: Matemáticas Fecha: Página 2 de 9 AB=  a 11 b11 + a 12 b 21 + L + a 1n b n 1 a 11 b12 + a 12 b 22 + L + a1 n b n 2 L a 11 b1 q + a 12 b 2 q + L + a 1n b nq     a 21 b11 + a 22 b 21 + L + a 2 n b n 1 a 21 b12 + a 22 b 22 + L + a 2 n b n 2 L a 21 b1 q + a 22 b 2 q + L + a 2 n b nq   M M M M     a m1 b 11 + a m 2 b 21 + L + a mn b n 1 a m 1 b12 + a m 2 b 22 + L + a mn b n 2 L a m 1 b1 q + a m 2 b 2 q + L + a mn b nq    Traza de una matriz: -La matriz a la que se halla la traza tiene que ser cuadrada (n=m). -La traza es la suma de los elementos de la diagonal. traza(A)= a11 + a 22 L a nn Transposición de matrices: -La transposición es el simple cambio de filas por columnas.  a 11 a 21 L a n1    A =  a 12 T a 22 L a n2   M M M M    a L a nn   1n a 2n  Tipos de matrices Matriz fila: matriz con una sola columna (m×1). Matriz columna: matriz con una sola fila (1×n): Matriz cuadrada: matriz con la misma cantidad de filas que de columnas (n=m). Matriz rectangular: matriz con un número diferente de filas que de columnas (n≠m). Matriz nula: Matriz en la que todos sus elementos son ceros. Matriz triangular superior (inferior): matriz cuadrada en la cual todos los elementos que están por debajo (arriba) de la diagonal son ceros. Matriz diagonal: matriz cuadrada en la cual son nulos los elementos por debajo y por arriba de la diagonal. Matriz regular: matriz que se puede invertir. Matriz identidad: matriz diagonal en la que los elementos de la diagonal son unos. Matriz simétrica: matriz que es igual a su transpuesta (A= AT ). DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
  • 3. Carrera: UAX Asignatura: Matemáticas Fecha: Página 3 de 9 Matriz antisimétrica: A=- AT . Matriz ortogonal: AT = A −1 . Matriz idempotente: A 2 = A. Matriz nilpotente: si existe un n tal que A n = O (O matriz nula). Propiedades de los distintos tipos de matrices - (A + B )T = A T + BT - (AB )T = B T A T - (AB) −1 = B −1 A −1 - IA=AI=A (I es la matriz identidad) - OA=AO=O (O es la matriz nula) Determinantes - El determinante solo se le halla a una matriz cuadrada. Determinantes de matrices de dimensión 2: a b a b A=   ,|A|= c d  = ad − cb   c d Determinantes de matrices de dimensión 3:  a1 b1 c1    A=  a 2 b2 c 2  ,|A|= a1b 2 c3 + a 3b1c 2 + a 2 b3 c1 − (a 3b 2 c1 + a 2 b1c 3 + a1b3 c 2 ) a c3   3 b3  Determinantes de orden mayor que tres: Menor correspondiente al elemento ai j ,M i j: es el determinate formado al eliminar la fila i y la columna j. Adjunto al elemento aij : (-1)i+j M ij . Determinante: cogemos cada elemento de una fila o columnas lo multiplicamos por su adjunto y lo sumamos. DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
  • 4. Carrera: UAX Asignatura: Matemáticas Fecha: Página 4 de 9 Propiedades de los determinantes: • |AT |=|A| • |AB|=|BA| • |A-1 |=1/|A| • |A|=-|B|, siendo B la matriz formada al intercambiar dos filas o columnas • |A|=0, si A tiene dos filas o columnas iguales, proporcionales o que una dependa linealmente de las otras. • |B|=k|A|, si todos los elementos de B son iguales a los de A menos una fila o columna que se a multiplicado por k. Matriz inversa −1 - La matriz A es la matriz inversa de A si AA -1 = A -1 A = I - La matriz A tiene inversa si y sólo si su determinante es distinto de cero. Matrices semejantes - Dos matrices A y B cuadradas de orden n son semejantes si existe una matriz P regular tal que B=PAP -1 . Calculo de la matriz inversa (adjA)t -1 - A = , donde la matriz adjA es la matriz formada por los elementos adjuntos |A| de A. - Otra manera de calcular la inversa de A es utilizando el método de Gauss- Jordan Sistemas de ecuaciones lineales Se denomina sistema de ecuaciones lineales de m ecuaciones con n incógnitas a: a11x1 + a12 x1 + ... + a1n x1 = b1 a21x1 + a22 x1 + ... + a2 n x1 = b2 .......................................... am1x1 + am 2 x1 + ... + amn x1 = bm Forma matricial Ax=b, donde DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
  • 5. Carrera: UAX Asignatura: Matemáticas Fecha: Página 5 de 9  a11 a12 .... a1n   x1   b1        a a22 .... a2 n   x2  , b=  b2  A=  21 , x=  M .... .... M  M   M   a     x    b   m1 am 2 .... amn   n  m Clasificación de los sistemas - Sistema compatible determinado: son los que tienen solución y es única. - Sistema compatible indeterminado: son los que tienen infinitas soluciones. - Sistema incompatible: son los que no tienen ninguna solución. Rango de una matriz: orden del mayor determinante no nulo que se puede formar apartir de la matriz. Teorema de Rouché -Frobenius  a11 a12 .... a1n b1    % Sea la matriz ampliada A =  a21 a22 .... a2 n b2   M .... .... M M   a    m1 am 2 .... amn bm  % - Si rang A ≠ rang A entonces el sistema es incompatible. % - Si rang A = rang A =n entonces el sistema es compatible determinado. % - Si rang A = rang A < n entonces el sistema es compatible indeterminado. Resolución de sistemas de ecuaciones - Sistema de Cramer (compatible determinado) x = A -1b .  a11 ... a1i −1 b1 a1i +1 ... a1n  a ... a2i −1 b2 a2i +1 ... a2 n   21   M ... M M M ... M   a   n1 ... ani− 1 bn ani+ 1 ... ann  - Regla de Cramer xi = |A| - Otro método es el de eliminación de Gauss-Jordan. DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
  • 6. Carrera: UAX Asignatura: Matemáticas Fecha: Página 6 de 9 2-Espacios vectoriales Definición Diremos que un conjunto V es un espacio vectorial sobre un cuerpo K si hay definidas dos operaciones: 1- una ley interna, V×V→V, (x , y) →x+y, que denominamos suma de vectores 2- una ley externa K ×V→V, (α ,y) →α y, que denominamos producto por un escalar de manera que verifican las siguientes propiedades: 1- x+y=y+x (conmutativa) 2- (x+y)+z=x+(y+z) (asociativa) 3- ∃0 ∈ V / x+ 0= x ∀ x∈ V (elemento neutro) , 4- ∀x ∈ V, ∃ - x ∈ V / x + ( - x ) = 0 (elemento opuesto) 5- (α+β)x=αx+βx 6- α (x+y)= αx+αy 7- (αβ)x=α(β x) 8- 1x=x ∀α , β ∈ ¡ , x,y ∈ V Combinación lineal: Sea {x 1 , x 2 ,..., x n } ∈ V y {a 1 , a 2 ,..., a n }∈ K se dice que la operación α 1x 1 + α 2 x 2 + ... + α n x n forma una combinación lineal de dichos vectores. Dependencia lineal: Se dice que {x 1 , x 2 ,..., x n } ∈ V es un conjunto linealmente dependiente si ∃ {a 1 , a 2 ,..., a n }∈ K con al menos α i ≠ 0 , en el que α 1x 1 + α 2 x 2 + ... + α n x n =0. Independencia lineal: Se dice que {x 1 , x 2 ,..., x n } ∈ V es un conjunto linealmente dependiente de V si al ser α 1x 1 + α 2 x 2 + ... + α n x n =0 es necesario que a 1 = a 2 = ... = a n = 0 . Sistema generador: Se dice que {x 1 , x 2 ,..., x n } ∈ V , forma un sistema generador de V si ∀x ∈ V , ∃ {a 1 , a 2 ,..., a n }∈ K /x = α 1x 1 + α 2 x 2 + ... + α n x n . Base de un sistema generador: Se dice que B = {x 1 , x 2 ,..., x n } forma una base de V si se cumple, que es un sistema generador de V y un conjunto linealmente independiente. Coordenadas de un vector en una base dada: Sea B = {x 1 , x 2 ,..., x n } una base de V, y sea x ∈ V ; se dice que ( a 1 , a 2 ,..., a n ) ∈ K n son las coordenadas de x en la base B si se cumple: x = α 1x 1 + α 2 x 2 + ... + α n x n . Cambio de base: Sean B = {x 1 , x 2 ,..., x n } y B1 = {y 1 , y 2 ,..., y n } dos bases de un espacio vectorial V. Se dice ecuaciones del cambio de base a las que surgen de hacer DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
  • 7. Carrera: UAX Asignatura: Matemáticas Fecha: Página 7 de 9 α 1x 1 + α 2 x 2 + ... + α n x n = α 1 y 1 + α 2 y 2 + ... + α 1n y n siendo ( a 1 , a 2 ,..., a n ) y 1 1 ( a 11 , a 12 ,..., a 1n ) las coordenadas de x en las bases B y B1 respectivamente. Dimensión de V: numero de vectores que forman una base V. Subespacio vectorial: Sea S un subconjunto de vectores de V, se dice que forma un subespacio vectorial de V si en él se verifican: ∀x, y ∈ S y αx + βy ∈ S (el elemento neutro siempre tiene que pertenecer a S). Operaciones entre subespacio: Sean S1 y S2 dos subespacio de V, se dice: - Suma. S1 + S2 = S1 ∪ S2 , es un subespacio de V, donde una base de S1 + S2 esta formada por una cantidad maximal de vectores linealmente independiente del conjunto de vectores formado al unir una base de cada uno de los subespacio. - Intersección. S1 ∩ S2 , es un subespacio de V en el que si x ∈ S1 ∩ S2 entonces x ∈ S1 y x ∈ S2 . - Suma directa. S1 ⊕ S2 , se dice si dim(S1 ∩S2 )=0 - dim(S1 + S2 )+dim(S1 ∩ S2 )=dim(S1 )+dim(S2 ). 3-Espacios vectoriales euclídeos Producto interior: a cada par de vectores se le asigna un número real <u,v> que satisface: 1- < au1 + bu2 , v >= a < u1 , v > +b < u 2 , v > (linealidad) 2- <u,v>=<v,u>(simetría) 3- <u,v>≥0, <u,u>=0⇔u=0 (definida positiva) Espacio euclideo: todo espacio vectorial en el que se le defina un producto escalar. Longitud de un vector u: ||u||= < u, u > . Desigualdad de Cauchy – Schawarz: < u , v > ≤ || u || ⋅ || v || . < u,v > Relación trigonométrica: cos(θ ) = , donde θ es el ángulo entre los vectores. || u || ⋅ || v || Ortogonalidad: dos vectores son ortogonales si su producto interno es igual a cero. Complemento ortogonal: sea S un conjunto del espacio vectorial V, definimos complemento ortogonal de S a: S ⊥ = {v ∈ V :< u,v >= 0∀u ∈ S} , S ⊥ es un subespacio vectorial de V. -Si S es un subespacio de V,V =S⊕ S ⊥ . Conjuntos ortogonal: un conjunto es ortogonal si todos los elementos son ortogonales entre si. Conjuntos ortonormal: un conjunto es ortonormal si todos los elementos son ortogonales entre si y la longitud de cada uno de ellos es uno. DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
  • 8. Carrera: UAX Asignatura: Matemáticas Fecha: Página 8 de 9 -Todo conjunto ortogonal es linealmente independiente. < V, W > Proyección: la proyección del vector V en W es cW donde c = (c es llamado || W || 2 coeficiente de Fourier). Proceso de ortonalización (Gram-Schmidt): Sea el conjunto de vectores {V1 ,V2 ,...,Vn } que queremos ortogonalizar, el proceso de ortogonalización es el siguiente: W1 = V1 < V2 , W1 > W2 = V2 − W1 || W1 || 2 < V3 , W1 > < V3 , W2 > W3 = V3 − 2 W1 − W2 || W1 || || W2 || 2 .................... ............................................ < Vn , W1 > < Vn , Wn−1 > Wn = Vn − 2 W1 − ... − Wn−1 || W1 || || Wn −1 || 2 Representación del producto interno en una base {V1 ,V2 ,....Vn }:  < V1 , V1 > < V1 , V2 > ... < V1 ,V n >     < V2 , V1 > < V2 , V2 > ... < V 2 ,V n >   M M ... M     < V , V > < V , V > ... < V ,V >   n 1 n 2 n n  4-Aplicaciones lineales Aplicación lineal: sean V y W dos espacios vectoriales, decimos que la aplicación f : V → W ∀x ∈ V, ∃ y ∈ W tal que y = f ( x) es lineal si f (x + y) = f (x ) + f (y ) f (α x) = α f (x ) -A toda aplicación lineal se le puede asociar una matriz y esta depende de las bases a escoger en los espacios V y W. Endomorfismo: W=V. Núcleo: se dice núcleo o Ker de f a: Ker(f)={ x ∈ V : f (x ) = 0 }. Imagen: se dice que imagen de f :Im(f) {y ∈ W : ∃x ∈ V / f (x ) = y} . -dim(Ker(f))+dim(Im(f))=dim(V). Inyectiva: Ker(f)=0.(f es un monomorfismo) Sobreyectiva: Im(f)=W . ( f es epimorfismo) DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
  • 9. Carrera: UAX Asignatura: Matemáticas Fecha: Página 9 de 9 Biyectiva: aplicación inyectiva y sobreyectiva. (f es un isomorfismo) 5-Diagonalización Autovector: Sea f : V → V un endomorfismo, se dice que x es un autovector de f si se cumple f(x)=λx. Autovalor: es el valor λ de la definición de autovector. Calculo de Autovalores y autovectores Autovalores: son las soluciones del polinomio det(A-λI)=0 (polinomio característico), siendo A una matriz asociada a la aplicación lineal f. Autovectores: son los vectores que conforman las bases de cada subespacio (subespacio propio) formado por las soluciones de los sistemas (A- λi I)x=0, i=1..r, donde λi son los autovalores y r es la número de valores propios distintos. - Una aplicación es diagonalizable si la multiplicidad de sus autovalores es igual a la dimensión del subespacio propio. Matriz diagonal asociada a la aplicación f, D: es la matriz diagonal en la cual su diagonal está formada por los autovalores de f. Además D= P −1 AP, donde P es una matriz cuyas columnas están formada por los autovectores. Propiedades: - A y A⊥ tienen los mismos autovalores. - Si λ es autovalor de A, kλ es autovalor de kA (los autovectores son los mismos). - Si λ es autovalor de A, λ −1 es autovalor de A−1 (los autovectores son los mismos). - Si λ es autovalor de A, λ n es autovalor de An (los autovectores son los mismos). - Si λ es autovalor de A, Ker(f)≠0. - Si p(x) es el polinomio característico de A entonces p(A)=0, Teorema de Cyley- Hamilton. - Si A es simétrica es siempre diagonalizable y sus autovectores forman un conjunto ortogonal. DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842