Espacios vectoriales
2.1. Definiciones básicas
Introducción
En este apunte veremos la estructura algebraica denominada espacio vectorial. Dentro de esta unidad es importante poder definir los conceptos de dependencia e independencia lineal y cuándo un subconjunto de un espacio vectorial será un subespacio vectorial del espacio donde se está trabajando.
Los espacios vectoriales que se utilizarán en esta unidad son vectores en $\mathbb{R}^n$, polinomios de grado menor o igual a $n$ y matrices en el conjunto $M_{n \times m}$.
2.1 Definiciones Básicas
Espacios Vectoriales
Sean $V$ un conjunto cualesquiera y $K$ un cuerpo arbitrario. Entonces se dirá que $V(K)$ o $V_K$ es un espacio vectorial sobre $K$ o es un $K$-espacio vectorial si y solo si se cumplen las siguientes condiciones:
- $\forall v, u \in V$ se tiene que $v + u \in V$.
- $\forall u, v, w \in V$ se tiene que $(u + v) + w = u + (v + w)$.
- $\forall u \in V$ existe $0_v \in V$ tal que $u + 0_v = 0_v + u = u$.
- $\forall u \in V$ existe $v \in V$ tal que $u + v = v + u = 0_v$.
- $\forall u, v \in V$ se tiene que $u + v = v + u$.
- $\forall \beta \in K$, $\forall u \in V$ se tiene que $\beta \cdot u \in V$.
- $\forall \beta, \alpha \in K$, $\forall u \in V$ se tiene que $(\alpha + \beta) \cdot u = \alpha \cdot u + \beta \cdot u$.
- $\forall \beta, \alpha \in K$, $\forall u \in V$ se tiene que $(\alpha \cdot \beta) \cdot u = \alpha (\beta \cdot u) = \beta (\alpha \cdot u) = (\beta \alpha) \cdot u$.
- $\forall \beta \in K$, $\forall u, v \in V$ se tiene que $\beta (u + v) = \beta \cdot u + \beta \cdot v$.
Observaciones:
- Si $K = \mathbb{R}$, entonces se dirá que $V$ es un espacio vectorial real o $V$ es un $\mathbb{R}$-Espacio vectorial.
- Si $V = \{0_v\}$ se dirá que $V$ es un espacio vectorial trivial.
Ejemplos de espacios vectoriales básicos:
1. Vectores en $\mathbb{R}^n$
$V = \mathbb{R}^n$, $K = \mathbb{R}$ tal que $u, v \in \mathbb{R}^n$, $\beta \in \mathbb{R}$.
2. Polinomios $P_n(x)$
$V = P_n(x)$, $K = \mathbb{R}$ tal que $p(x), q(x) \in P_n(x)$, $\beta \in \mathbb{R}$.
3. Matrices $M_{n \times m}$
$V = M_{n \times m}$ y $K = \mathbb{R}$, tal que $A, B \in M_{n \times m}$, $\beta \in \mathbb{R}$.
Definición de Subespacios Vectoriales
Consideremos que $V$ sea un $K$-espacio vectorial, $V \neq \emptyset$. Sea $W \subset V$, será un Subespacio Vectorial de $V$ si se cumple que:
- $W \neq \emptyset$ (Usualmente se prueba que el vector nulo $0_v \in W$)
- $\forall u, v \in W$ se tiene que $(u + v) \in W$ (Cerradura bajo la suma)
- $\forall u \in W$ y $\forall \beta \in K$ se tiene que $\beta \cdot u \in W$ (Cerradura bajo la ponderación)
En tal caso se denota como $W \le V$.
Ejemplos: Determine si el conjunto dado es un subespacio.
1. $W = \{(x,y,z) \in \mathbb{R}^3 / x+y=z\}$
▷ Ver la Solución Paso a Paso
Verificando si cumple las condiciones:
Condición 1: Vector nulo
Como $0_v = (0,0,0)$, verificamos si cumple la restricción $x+y=z$.
$0 + 0 = 0 \Rightarrow 0 = 0$. Se cumple. Entonces $0_v \in W$, esto indica que $W \neq \emptyset$.
Condición 2: Cerradura para la suma
Considere los vectores $u, v \in W$:
- $u = (u_1, u_2, u_3) \in W \Rightarrow u_1 + u_2 = u_3$
- $v = (v_1, v_2, v_3) \in W \Rightarrow v_1 + v_2 = v_3$
Por demostrar que $(u+v) \in W$. Sumando los vectores:
Verificando si este nuevo vector cumple la condición de $W$ ($X + Y = Z$):
$\therefore (u+v) \in W$
Condición 3: Cerradura para la ponderación
Considere el vector $u = (u_1, u_2, u_3) \in W \Rightarrow u_1 + u_2 = u_3$ y el escalar $k \in \mathbb{R}$.
Por demostrar que $ku \in W$. Ponderando el vector:
Verificando si cumple la condición de $W$ ($X + Y = Z$):
$\therefore ku \in W$
Con esto tenemos que $W$ es subespacio vectorial de $\mathbb{R}^3$.
2. $V = \left\{ \begin{pmatrix} a & b \\ c & d \end{pmatrix} \in M_2(\mathbb{R}) : ab=0 \right\}$
▷ Ver la Solución Paso a Paso
Condición 1: Vector nulo
Como $0_v = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$, se cumple que $0 \cdot 0 = 0$, esto indica que $V \neq \emptyset$.
Condición 2: Cerradura para la suma
Considere los vectores (matrices):
- $A = \begin{pmatrix} a_1 & b_1 \\ c_1 & d_1 \end{pmatrix} \in V \Rightarrow a_1 \cdot b_1 = 0$
- $B = \begin{pmatrix} a_2 & b_2 \\ c_2 & d_2 \end{pmatrix} \in V \Rightarrow a_2 \cdot b_2 = 0$
Por demostrar que $(A+B) \in V$. Usando la suma habitual:
Verificando las condiciones de $V$ (el producto de la primera fila debe ser $0$):
Esta última igualdad no se puede afirmar que se cumpla para cualquier elección de $A$ y $B$. (Ej: $a_1=1, b_1=0$ y $a_2=0, b_2=1$. Ambas pertenecen a $V$, pero su suma no).
$\therefore V$ NO es subespacio vectorial de $M_2(\mathbb{R})$.
Combinación Lineal
Sea $S = \{u_1, u_2, \dots, u_n\}$, se dirá que $u \in V$ está en combinación lineal de los elementos de $S$ si y solo si existen escalares $\beta_i \in K$ para todo $i \in \{1, 2, \dots, n\}$ tal que:
Ejemplo: Sea $V$ un subespacio vectorial en $\mathbb{R}^3$, determine el valor de $k \in \mathbb{R}$ tal que el vector $u = (2, k, 3)$ sea combinación lineal del conjunto:
▷ Ver la Solución Paso a Paso
Por definición de combinación lineal deben existir escalares $\alpha$ y $\beta$ tal que:
Luego:
Esto forma el sistema de ecuaciones:
En matriz ampliada y escalonando para resolver para $\alpha$ y $\beta$ (usando la ec. 1 y 3 primero):
Tomando la última ecuación:
Reemplazando en la primera ecuación para hallar $\alpha$:
Con esto podemos obtener $k$ evaluando en la fila 2 ($-7\beta = k-6$):
Independencia Lineal
Sea $V$ un espacio vectorial y $\alpha = \{u_1, u_2, \dots, u_n\} \subset V$. Diremos que $\alpha$ es un conjunto linealmente independiente (L.I.) en $V$ si el vector nulo $0_v$ se escribe de una única forma como combinación lineal de los elementos de $\alpha$.
En caso contrario, diremos que $\alpha$ es un conjunto linealmente dependiente (L.D.). Es decir, $\alpha$ es L.I. si:
Ejemplos:
1. Determine si el conjunto en $P_2(x)$ es L.I. o L.D.
▷ Ver la Solución Paso a Paso
Igualamos al polinomio nulo:
Agrupando términos y aplicando Gauss sobre la matriz ampliada (ordenando por coeficientes $c_1, c_2, c_3$):
Como el sistema escalonado no tiene variables libres, $c_1 = c_2 = c_3 = 0$. Por lo tanto, $\alpha$ es L.I.
2. Determine si el conjunto en $\mathbb{R}^4$ es L.I. o L.D.
▷ Ver la Solución Paso a Paso
Igualamos al vector nulo:
Por Gauss sobre las columnas de vectores:
El sistema tiene infinitas soluciones (filas nulas y variables libres). Por lo tanto, $\alpha$ es L.D.
3. Determine si el conjunto de matrices es L.I. o L.D.
▷ Ver la Solución Paso a Paso
Para dar respuesta a este problema, una forma alternativa consiste en escribir los vectores dados (matrices desenrolladas) como filas de una matriz, escalonar, y si ninguna fila se anula el conjunto es L.I. Si se anula una o más filas, el conjunto es L.D.
La matriz escalonada tiene una fila nula, por lo que el conjunto original es L.D.
Eliminando el vector de $W$ que produjo la fila nula (el último), podemos obtener un subconjunto que sí es linealmente independiente:
Conclusión
Un espacio vectorial es toda estructura que se compone de vectores ($n$-uplas, matrices, polinomios) que cumplen las propiedades indicadas, lo que conlleva a formar una estructura de grupo.
Es fundamental unir los conceptos de sistemas de ecuaciones y rango de matrices con los temas vistos en esta unidad, para así poder obtener la información necesaria para describir un subespacio vectorial. También es importante el establecer si un conjunto de vectores es linealmente independiente, dado que esto se aplicará en la búsqueda de bases de subespacios en la subunidad siguiente.