5.1.-Definición de transformación lineal y sus propiedades.
Transformación lineal.
Definición. Sean V y W espacios vectoriales. Una transformación lineal T de V en W es una función que asigna a cada vector v ∈ V un único vector Tv ∈ W y que satisface para cada u y v en V y cada escalar α,
T(u + v) = Tu + Tv (1)
T(αv) = αTv (2)
Notación. Escribimos T: V → W para indicar que T transforma V en W.
Terminología. Las transformaciones lineales se llaman, con frecuencia, operadores lineales. También, las funciones que satisfacen (1) y (2) se denominan funciones lineales.
Propiedades básicas de las transformaciones lineales.
Teorema 1. Sea T: V → W una transformación lineal. Entonces para todos los vectores u, v, v1, v2, ..., vn en V y todos los escalares α1, α2, ..., αn:
i. T(0) = 0
ii. T(u - v) = Tu - Tv
iii. T(α1v1, α2v2, ..., αnvn) = α1Tv1+ α2Tv2+ ... + αnTvn
Nota. En la parte (i) el 0 de la izquierda, es el vector cero en V mientras que el 0 del lado derecho, es el vector cero en W.
Teorema 2. Sea V un espacio vectorial de dimensión finita con base B={v1, v2, ..., vn}. Sean w1, w2, ..., wn n vectores en W. Suponga que T1 y T2 son dos transformaciones lineales de V en W tales que T1vi= T2vi = wi para i = 1, 2, ..., n.
Entonces para cualquier vector v ∈ V, T1v = T2v. Es decir T1 = T2.
Teorema 3. Sea V un espacio vectorial de dimensión finita con base B = {v1, v2, ..., vn}. Sea también W un espacio vectorial que contiene a los n vectores w1, w2, ..., wn. Entonces existe una única transformación lineal T: V → W tal que Tvi = wi para i = 1, 2, ..., n.
5.2.- Ejemplos de transformaciones lineales (reflexión, dilatación, contracción, rotación).
Rotación Sea 0 ≤ θ < v1 =" T" v2 =" T" u1 =" ū" u2 =" ū" v1 =" u1" v2 =" u2">
5.3.-Definición de núcleo o kernel, e imagen de una transformación lineal.
Transformación de Reflexión: La Transformación de T : R2 ―› R2 que a cada vector ū = (u1, u2) lo refleja sobre el eje x, para obtener un vector T (ū) = (v1, v2). En este caso, la situación es más sencilla ya que claramente tenemos dos triángulos rectángulos que son congruentes, de donde T queda definida como sigue: T (u1, u2) = (u1, -u2) Esta transformación se llama la reflexión sobre el eje x, y es lineal, ya que: T [(u1, u2) + γ(v1, v2)] = T (u1 + γv1, u2 + γv2) = (u1 + γv1, -u2 -γv2) = (u1, -u2) + γ(v1, -v2) = T (u1, u2) + γT (v1, v2) En este caso, la situación es más sencilla ya que claramente tenemos dos triángulos rectángulos que son congruentes, de donde T queda definida como sigue: T (u1, u2) = (u1, -u2) Esta transformación se llama la reflexión sobre el eje x, y es lineal, ya que: T [(u1, u2) + γ(v1, v2)] = T (u1 + γv1, u2 + γv2) = (u1 + γv1, -u2 -γv2) = (u1, -u2) + γ(v1, -v2) = T (u1, u2) + γT (v1, v2)
5.3.-Definición de núcleo o kernel, e imagen de una transformación lineal.
Kernel
Definición. Sean V y W espacios vectoriales y sea T : V → W una transformación lineal. Entonces:
El kernel (o núcleo) de T, denotado como ker T, está dado por
ker T = {v ∈ V: Tv = 0}
Obervación. Note que ker T es no vacío ya que por el Teorema 1 de las Transformaciones lineales, T(0) = 0 de manera que 0 ∈ ker T para toda transformación lineal T. Será interesante encontrar otros vectores en V que sean "mapeados al cero". De nuevo, nótese que cuando escribimos T(0) = 0, el 0 de la izquierda está en V, y el 0 de la derecha está en W.
Definición. Sean V y W espacios vectoriales y sea T : V → W una transformación lineal. Entonces:
El kernel (o núcleo) de T, denotado como ker T, está dado por
ker T = {v ∈ V: Tv = 0}
Obervación. Note que ker T es no vacío ya que por el Teorema 1 de las Transformaciones lineales, T(0) = 0 de manera que 0 ∈ ker T para toda transformación lineal T. Será interesante encontrar otros vectores en V que sean "mapeados al cero". De nuevo, nótese que cuando escribimos T(0) = 0, el 0 de la izquierda está en V, y el 0 de la derecha está en W.
Imagen de una transformación lineal.
Definición. Sean V y W espacios vectoriales y sea T : V → W una transformación lineal. Entonces:
imag V = { w ∈ W: w = Tv para alguna v ∈V}
Observación. El concepto imag T es simplemente el conjunto de "imágenes" de vectores en V bajo la transformación T. De hecho, si w = Tv, diremos que w es también la imagen de v bajo T.
Teorema. Si T : V → W es una transformación lineal, entonces:
i. ker T es un subespacio de V.
ii. imag T es un subespacio de W.
Demostración.
i. Sean u y v en ker T; entonces T(u + v) = Tu + Tv = 0 + 0 = 0 y T(αu) = αTu = α0 = 0 de modo que u + v y αu están en ker T.
ii. Sean w y x en imag T. Entonces w = Tu y x = Tv para dos vectores u y v en V. Esto significa que T(u + v) = Tu + Tv = w + x y T(αu) = αTu = αw. De esta manera w + x y αw están en imag T.
Ejemplo.
Sea Tv = 0 para todo v ∈ V. (T es la transformación cero.) Entonces ker T = V e imag T = {0}
imag V = { w ∈ W: w = Tv para alguna v ∈V}
Observación. El concepto imag T es simplemente el conjunto de "imágenes" de vectores en V bajo la transformación T. De hecho, si w = Tv, diremos que w es también la imagen de v bajo T.
Teorema. Si T : V → W es una transformación lineal, entonces:
i. ker T es un subespacio de V.
ii. imag T es un subespacio de W.
Demostración.
i. Sean u y v en ker T; entonces T(u + v) = Tu + Tv = 0 + 0 = 0 y T(αu) = αTu = α0 = 0 de modo que u + v y αu están en ker T.
ii. Sean w y x en imag T. Entonces w = Tu y x = Tv para dos vectores u y v en V. Esto significa que T(u + v) = Tu + Tv = w + x y T(αu) = αTu = αw. De esta manera w + x y αw están en imag T.
Ejemplo.
Sea Tv = 0 para todo v ∈ V. (T es la transformación cero.) Entonces ker T = V e imag T = {0}
grasias es exactamente lo que estaba buscando graxx
ResponderEliminar