Archivo de la categoría: Cursos

Curso EVT. Lectura 9. Las nociones de base y dimensión (3)

Vamos a probar que todas las bases de un determinado espacio vectorial tienen el mismo número de elementos. Para ello, necesitaremos de algunos resultados previos. Comenzaremos con el caso en el que el espacio vectorial tiene una base formada por un número finito de vectores.

(1) Sea n un entero positivo y (x_i)_{i=1}^{n} una familia de vectores no nulos de un espacio vectorial E. Son equivalentes:
(i) La familia es linealmente dependiente.
(ii) Existe un índice j>1, tal que x_{j} que es combinación lineal de la familia (x_i)_{i=1}^{j}.
Prueba:  (i) implica (ii). Supongamos que la familia es linealmente dependiente. Hallaremos entonces que existe una subfamilia (x_k)_{k \in K} que verifica
\sum_{k \in K} \lambda_k x_k =0,
siendo no todos los \lambda_k nulos. Sea j = \max \{k \in K : \lambda_k \neq 0 \}. Entonces
\sum_{k=1}^{j} \lambda_k x_k = 0.
Si j=1, entonces \lambda_1 x_k =0, con \lambda_1 \neq 0. Pero esto no es posible pues entonces x_1 = 0 y la familia (x_i)_{i=1}^{n} contiene un vector nulo en contra de lo supuesto. Por tanto, j>1 y podemos escribir
x_j = -\sum_{k=1}^{j-1} (\lambda_{j}^{-1} \lambda_k) x_k.

(ii) implica (i). Es evidente.

(2) Supongamos que la familia (x_i)_{i=1}^{n} genera el espacio vectorial E. Entonces:

(a) Si w \in E, entonces (x_i)_{i=1}^{n} \cup (w) es linealmente dependiente.

(b) Si uno de los vectores x_j de la familia es combinación lineal del resto de los vectores de dicha familia, entonces (x_i)_{i =1, i \neq j}^{n} genera E.

Prueba. (a). Como w depende de (x_i)_{i=1}^{n} se sigue que (x_i)_{i=1}^{n} \cup (w) es linealmente dependiente (ver lectura 5).

(b). Supongamos que x_j depende linealmente de (x_i)_{i=1,i \neq j}^{n}. Entonces

x_j = \sum_{i=1, i \neq j} \lambda_i x_i .

Si consideramos un vector w \in E, entonces dicho vector es una combinación lineal de la familia (x_i)_{i =1}^{n}, por lo que si en la combinación lineal interviene x_j podemos sustituir su expresión por la combinación anterior y obtendremos que w depende linealmente de (x_i)_{i=1,i \neq j}^{n}. Esto prueba que dicha familia genera E.

(3). Supongamos que (x_i)_{i=1}^{n} genera el vectorial no trivial E. Entonces si (w_k)_{k=1}^{m} es una familia linealmente independiente de elementos de E, se tiene que m \leq n.

Prueba. Sea la familia

(w_1, x_1, \ldots, x_n).

Entonces por (2), dicha familia es linealmente dependiente y por (1) hallaremos que un vector x_{j_{1}} depende linealmente de los vectores w_1, x_1, \ldots, x_{j_{1}-1}. Ahora bien, por (2) podemos eliminar el vector x_{j_{1}} y conseguiremos que la familia también genere E. Repitiendo el argumento para el vector w_2 tenemos que

(x_i)_{i =1, \neq j_1} \cup (w_1, w_2),

es una familia linealmente dependiente por lo que existe x_{j_{2}} que depende linealmente de los vectores anteriores a él (no puede tratarse de w_2 pues la familia (w_k)_{k=1}^{n} es linealmente independiente. Prescindiendo de dicho vector tenemos que

(x_i)_{i =1, \neq j_1,j_2} \cup (w_1, w_2)

es una familia que genera E. Si fuera m >n, entonces tras n pasos llegaríamos a la familia

(w_1, w_2, \ldots, w_n),

la cual al ser un sistema generador permitiría obtener w_{n+1} y, en consecuencia (w_k)_{k=1}^{m} sería linealmente dependiente en contra de lo supuesto. Por ello, m \leq n.

Teorema. Sea E un espacio vectorial no trivial y sea B =(x_i)_{i=1}^{n} una base de Hamel de E, entonces si C es otra base de Hamel de E se tiene que el cardinal (número de elementos) de C es igual a n.

Prueba. Supongamos que C tiene más de n vectores. Entonces por (3) concluimos que es linealmente dependiente. Pero esto contradice su carácter de base por lo que C tendrá n o menos vectores. Recíprocamente, si C contiene menos de n vectores, entonces por (3) B ha de ser linealmente dependiente en contra de lo supuesto. En consecuencia, C contiene exactamente n vectores.

Este resultado justifica la definición de dimensión para un espacio vectorial con una base de cardinal finito. La dimensión de dicho espacio es el número de vectores de una cualquiera de sus bases.

Anuncios

Curso EVT. Lectura 8. Notas aclaratorias (2)

Vamos enunciar el lema de Zorn, el cual hemos utilizado para los resultados de la lectura 7. Hemos de señalar que, en realidad, el lema de Zorn, es equivalente al axioma de elección y aunque no demostraremos tal equivalencia (el lector interesado puede ver una prueba en el texto “Naive Set Theory” de Halmos) daremos sus definiciones y otras equivalencias.

El axioma de elección se suele incluir en la mayoría de las teorías axiomáticas de conjuntos. Es de enorme importancia en la matemática moderna para la deducción de resultados en gran cantidad de sus ramas. Sin embargo, está sujeto a una gran controversia pues su aplicación permite algunas paradojas físicas como la de Banach-Tarski (es una afirmación, publicada en 1924, en la que una esfera puede ser dividida en 5 conjuntos no medibles de puntos los cuales se pueden reacomodar en dos esferas del mismo volumen). Para clarificar su naturaleza empezaremos con una definición.

Definición: Función de elección.
Sea X un conjunto no vacío. Dada una familia no vacía (A_{i})_{i \in I} de subconjuntos no vacíos de X, se define una función de elección como una función f de I en X tal que para cada i de I es f(i) un elemento de A_{i}.

Es decir, una función de elección “escoge” un elemento de cada conjunto de una familia no vacía cualesquiera de conjuntos no vacíos.

Definición. Producto cartesiano.
Sea (A_{i})_{i \in I} una familia no vacía de conjuntos no vacíos. El producto cartesiano de la familia es el conjunto de todas las funciones de elección definidas sobre dicha familia. Se notará por \times_{i \in I} A_{i}.

La existencia de funciones de elección (y en consecuencia de productos cartesianos cualesquiera) no se puede garantizar sin más. Esto es lo que pretende el axioma de elección.

Axioma de elección.El producto cartesiano de una familia no vacía de conjuntos no vacíos es no vacío.

De acuerdo con nuestras definiciones este axioma es equivalente al siguiente.

Primer axioma equivalente: Para cada familia no vacía de conjuntos no vacíos existe una función de elección.

En efecto, si (A_{i})_{i \in I} es una familia no vacía de conjuntos no vacíos, el conjunto X = \cup_{i \in I} A_{i} existe en virtud del axioma de la unión. Es obvio que cada A_{i} es un subconjunto de X. Cada función f:I \rightarrow X que cumpla que para todo i \in I es f(i) \in A_{i} es una función de elección. La no vacuidad del producto cartesiano equivale a la existencia de al menos de una de estas funciones.

Existen otros enunciados equivalentes al axioma de elección, uno de los más conocidos es el siguiente.

Postulado de Zermelo. Sea (A_{i})_{i \in I} una familia no vacía de conjuntos disjuntos no vacíos. Existe entonces un subconjunto S de \cup_{i \in I} A_{i} cuyo intersección con cada A_{i} de la familia consta de un sólo elemento.

Pasemos a demostrar la equivalencia.

Teorema. El axioma de elección es equivalente al postulado de Zermelo.
Prueba. Sea (A_{i})_{i \in I} una familia disjunta no vacía de conjuntos no vacíos y sea X= \cup_{i \in I} A_{i} la unión de los elementos de dicha familia. Si suponemos que existe una función de elección f:I \rightarrow X, podemos formar el subconjunto S de X dado por

S = \{f(i) : i \in I \},

el cual será no vacío y cumplirá S \cap A_{i} = \{f(i) \} para cada i \in I. Esto prueba el postulado de Zermelo a partir del axioma de elección. Veamos el recíproco. Sea cierto el postulado de Zermelo y sea (A_{i})_{i \in I} una familia no vacía de conjuntos no vacíos (no necesariamente disjuntos). Para cada i de I, definimos el conjunto B_{i} = A_{i} \times \{i \} y la familia (B_{i})_{i \in I} resultará no vacía y formada por conjuntos no vacíos y disjuntos. Podemos pues aplicar el postulado de Zermelo para obtener un subconjunto S de la unión \cup_{i \in I} B_{i} tal que para cada i de I, la intersección

S \cap(\cup_{i \in I} B_i)

consta de un sólo elemento. Ahora bien, por definición de los B_{i}, la intersección será de la forma (a_{i}, i), con a_{i} \in A_{i} para cada i \in I. Esto nos permite definir una función de elección f sobre la familia (A_{i})_{i \in I}, mediante f(i) = a_{i} para cada i \in I. Por tanto, el postulado de Zermelo implica el axioma de elección y esto termina nuestra demostración.

Como ya hemos indicado otro de los enunciados equivalentes al axioma de elección es el Lema de Zorn. Para definirlo damos antes una serie de nociones básicas sobre orden. Consideremos un conjunto X, no vacío. Sabemos que una relación \preceq definida en X es un orden parcial si es reflexiva, antisimétrica y transitiva. Un conjunto dotado de una relación de orden parcial se dice parcialmente ordenado y escribimos x \preceq y para indicar que los elementos x e y de X están relacionados mediante el orden, leyéndose x es menor o igual que y. Si x e y son dos elementos de X, se dice que son comparables si x \preceq y o bien y \preceq x. Un conjunto parcialmente ordenado donde todos sus elementos son comparables se dice que está totalmente ordenado.

En un conjunto parcialmente ordenado hay una serie de elementos distinguidos: minimales, maximales, cotas superiores e inferiores y máximos y mínimos. Ya hemos dado la definición de algunos de ellos (minimal y maximal) veremos las de los otros.

Se dice que un elemento u de un conjunto parcialmente ordenado (X, \preceq) es cota superior de un subconjunto M \subset X si para todo m de M es m \preceq u. En el caso de que l \in X verifique l \preceq m, para todo m \in M, se dice que l es una cota inferior de M. La existencia de cotas no está garantizada sin más. Si un conjunto tiene cotas superiores e inferiores se dice que está acotado superior e inferiormente o simplemente que está acotado.  Si una cota superior pertenece al conjunto que acota se dice entonces que es un máximo y si una cota inferior pertenece al conjunto que acota se dice entonces que es un mínimo.

Lema de Zorn.
Sea X un subconjunto no vacío parcialmente ordenado. Si toda parte de X totalmente ordenada tiene una cota superior en X, entonces X posee al menos un maximal.

Curso EVT. Lectura 7. Las nociones de base y dimensión (2)

En la lectura 5 hemos dado la noción de base de Hamel para un espacio vectorial. En el caso de que el espacio vectorial sea trivial, nuestros convenios conducen de forma natural a considerar que el conjunto vacío es la única base posible para dicho espacio. En efecto, hemos supuesto que el vacío es linealmente independendiente  y que su envoltura lineal es el conjunto \{0 \} y cualquier otro conjunto linealmente independiente y no vacío no podría contener al cero por lo que contendría a un elemento no nulo y su envoltura lineal sería diferente del espacio trivial. Pero si E es un espacio vectorial no trivial no hemos garantizado que tenga base. Eso se consigue mediante la aplicación del lema de Zorn y una serie de resultados previos.

Teorema 1: Sea E un espacio vectorial y supongamos que A es un subconjunto linealmente independiente y no vacío de E. Entonces existe al menos una base de Hamel B de E que incluye a A.

Prueba: Formamos la familia \mathcal{S} de todos los subconjuntos de E que son linealmente independientes y contienen a A. Dicha familia es no vacía pues A \in \mathcal{S}. Establecemos un orden parcial en \mathcal{S} mediante la inclusión. Si \mathcal{H} es una subfamilia de \mathcal{S} que está totalmente ordenada, veremos que el conjunto

M= \cup_{H \in \mathcal{H}} H

es una cota superior de \mathcal{H} que se halla en \mathcal{S}.  En efecto, sea (z_i)_{i \in I} una familia finita de elementos de M. Como M es la unión de los elementos de una familia totalmente ordenada, habrá un H' de dicha familia que contendrá a todos los z_i de dicha familia finita de vectores y, en consecuencia, si planteamos \sum_{i \in I} \lambda_i z_i = 0, sólo obtendremos la solución trivial pues H' es linealmente independiente por definición. En consecuencia, M es también linealmente independiente. Además como A \subset H para todo H \in \mathcal{H}, se sigue que A \subset M y como queríamos probar es M \in \mathcal{S}. Llegados a este punto podemos aplicar el lema de Zorn para afirmar que existe un elemento maximal en el conjunto \mathcal{S}. Esto es, que existe un subconjunto B de E que incluye a A, es linealmente independiente y maximal con estas propiedades. Por ello, B es una base (ver lectura 5).

Ahora podemos dar el resultado central de esta lectura:

Teorema 2: Todo espacio vectorial tiene una base.

Prueba: Si E es un espacio vectorial trivial entonces su única base, como hemos visto, es el conjunto vacío. Si E es no trivial, existe al menos un x \in E tal que x \neq 0. En consecuencia, el conjunto A=\{x\} es linealmente independiente y aplicando el teorema 1, hallaremos una base de Hamel B de E con A \subset B.

 

Curso EVT. Lectura 6. Notas aclaratorias (1)

En la lectura anterior hemos efectuado una serie de demostraciones de gran importancia y hemos utilizando definiciones y hechos que pueden parecer oscuros al lector. Intentaremos aclararlos. En primer lugar, consideremos una familia no vacía A= (x_i)_{i \in I} de vectores de un espacio E. Sea un vector x combinación lineal de una subfamilia finita y no vacía (x_j)_{j \in J} de A:

x = \sum_{j \in J} \lambda_j x_j.

Definimos el soporte de x como el conjunto.

S = \{ j \in J : \lambda_j \neq 0 \}. (1)

Es decir, se trata del conjunto de índices de J que tienen asociados escalares no nulos. Evidentemente, si el soporte es vacío todos los escalares serán nulos y x=0. En el caso de que el soporte sea no vacío, también es evidente que

x = \sum_{j \in J} \lambda_j x_j = \sum_{j \in S} \lambda_j x_j, (2)

pues los escalares nulos no aportan nada a la combinación lineal. El lector también debe advertir que aunque el soporte sea no vacío es posible que el resultado de la combinación lineal sea cero. Lo que es claro es que si el vector x es no nulo entonces el soporte es no vacío y podemos utilizar la igualdad (2) para expresarlo.

Consideremos ahora un conjunto X parcial o totalmente ordenado. Si \prec es la relación de orden presente en dicho conjunto, decimos que dos elementos x,y \in X son comparables si x \prec y o y \prec x. Un elemento m \in X es un minimal (puede haber más de uno) si x \prec m implica m=x. Es decir, si m no es comparable con ningún elemento anterior (o menor, según se prefiera) que él. Análogamente, un elemento M \in X es un maximal (también puede haber varios) si M \prec x implica x=M.

En el conjunto de las partes (o subconjuntos) de un conjunto dado X podemos dar una relación de orden parcial de forma inmediata. Bastará considerar la inclusión como tal relación. Es fácil comprobar que si A,B,C son subconjuntos de X:

(a) A \subset A.

(b) A \subset B y B \subset A, implican A = B.

(c) A \subset B y B \subset C, implican A \subset C.

Un subconjunto T es minimal respecto de una propiedad P si es minimal respecto a esta propiedad en la relación de orden dada por la inclusión. Es decir, si dado S con S \subset T, se tiene que S no cumple esa propiedad P. Análogamente, será maximal respecto a esta propiedad si dado R con T \subset R, el conjunto R no cumple P.

Curso EVT. Lectura 5. Las nociones de base y dimensión (1)

Uno de los conceptos más importantes del álgebra lineal es el de dimensión, el cual va ligado directamente con la idea de base. Para fundamentar estas nociones vamos a seguir dando resultados lo más generales posibles que nos llevarán de manera natural a estas ideas centrales.

(1) Consideremos un K-espacio vectorial E y sea A un subconjunto de E con al menos dos elementos. Son equivalentes:

a) El conjunto A es linealmente independiente.

b) Cada vector x, no nulo, de la envoltura lineal de A se expresa de forma única como combinación lineal, con coeficientes no nulos, de elementos de A.

c) Ningún x \in A depende linealmente de A- \{x \}.

La demostración de (1) la podéis ver aquí. Ahora definimos el concepto de base (base de Hamel).

Definición: Un subconjunto B de un K-espacio vectorial E es una base de Hamel o base algebrica de E si es linealmente independiente y su envoltura lineal coincide con E.

Utilizaremos los resultados de (1) para obtener condiciones equivalentes a la definición de base. Así tenemos que

(2) Si E es un espacio vectorial no trivial sobre un cuerpo K, son equivalentes:

(i) El subconjunto B de E es una base de Hamel de E.

(ii) Todo vector x \in E, no nulo, se expresa de forma única como combinación lineal de elementos de B con coeficientes no nulos.

(iii) El subconjunto B es minimal respecto a la propiedad de generar E.

(iv) El subconjunto B es maximal respecto a la propiedad de ser linealmente independiente.

Demostración. (i) implica (ii). Si B es una base entonces, por definición, es un conjunto linealmente independiente y su envoltura lineal es E. Si B = \emptyset, entonces E = L(B) = \{0 \} (recordemos que el cero es el único vector de la envoltura lineal del vacío). Pero esto no es posible pues hemos supuesto que el espacio E es no trivial. De esta manera, B es no vacío. Si constara de un sólo elemento éste no sería el cero (pues B es linealmente independiente). Así pues, existe x \in E con x \neq 0 y B = \{x \}. Sea y un elemento no nulo de E y supongamos que existen escalares \lambda, \mu, tales que y= \lambda x = \mu x. Entonces, (\lambda- \mu)x = 0 y de aquí \lambda = \mu. Esto prueba que la expresión de cada vector no nulo de E como combinación de elementos de B es única. Si B tiene más de dos elementos,  como B es linealmente independiente, aplicamos (1) y concluimos el mismo hecho.

(ii) implica (iii).  Sean B un subconjunto de E tal que L(B)=E y C un subconjunto de B tal que L(C) =E. Si existe x \in B, no nulo, tal que x \notin C, trivialmente es x = 1x y también x = \sum_{j \in J} \lambda_{j} x_{j}, donde (x_{j})_{j \in J} es una subfamilia finita de elementos de C y \lambda_{j} \neq 0 para todo j \in J. Estas dos representaciones, utilizando elementos de B, son diferentes por lo que obtenemos una contradicción. Para evitarla, nuestra hipótesis de que existe un elemento de B que no está en C ha de ser falsa y B=C. Esto prueba que B es minimal con respecto a la propiedad de generar E.

(iii) implica (iv). Supongamos que el conjunto B cumple L(B)=E y que B es minimal respecto a esta propiedad. Si B constara de un sólo elemento y fuera linealmente dependiente, entonces dicho elemento sería el cero y B no podría generar un espacio no trivial. Por tanto, esta posibilidad se descarta. Es decir, si B fuera linealmente dependiente constaría de dos elementos o más y entonces, en virtud de (1) hallaríamos un x \in B tal que x depende linealmente de B- \{x \}. Ahora bien, esto significaría que L(B)= L(B-\{x\}) y B dejaría de ser minimal respecto a la propiedad de generar E. En consecuencia, B es linealmente independiente. Una vez probado este punto veremos que es maximal respecto la propiedad de independencia lineal.
En efecto, sea C un subconjunto linealmente independiente de E tal que B \subset C y supongamos que existe x \in C tal que x \notin B. Como L(B)=E se tiene que

x = \sum_{i \in J} \lambda_j x_j,

donde J es finito y x_{j} \in B, \lambda_{j} \in K, para todo j \in J. Por tanto, se da la igualdad

x-\sum_{i \in J} \lambda_j x_j = 0,

la cual es una combinación lineal no trivial de una familia finita de elementos de C. En consecuencia, C ha de ser linealmente dependiente y obtenemos una contradicción lo que nos lleva a que nuestra hipótesis de que existe x \in C tal que x \notin B es falsa y B=C. Esto prueba que B es maximal con respecto a la independencia lineal

(iv) implica (i). Si fuera L(B) \neq E, hallaríamos x \in E tal que x no depende linealmente de B. Por tanto, por (1), C= B \cup \{x \} sería un subconjunto linealmente independiente de E que incluye a B y es distinto de B. Esto contradice el carácter maximal como independiente de B por lo que nuestra suposición es falsa y es L(B)=E.

Para el lector interesado, daré una serie de notas aclaratorias sobre algunos puntos de estos desarrollos.

Curso EVT. Lectura 4. Más sobre dependencia e independencia lineales.

Consideremos un espacio vectorial E sobre un cuerpo K. Probaremos que

a) Toda familia A de vectores de E que incluye al cero es linealmente dependiente.

b) Si x es un elemento no nulo de E, entonces el conjunto \{x\} es linealmente independiente.

c) Si A y B son subconjuntos de E con A \subset B, entonces si A es linealmente dependiente también lo es B y si B es linealmente independiente, también lo es A.

d) Sea x un elemento de E y sea A un subconjunto linealmente independiente de E. Si x no depende linealmente de A, entonces el conjunto B = A \cup \{x\} es linealmente independiente.

Demostración.

a) Sea A= (x_i)_{i \in I} y supongamos que para algún j \in I es x_j = 0, entonces tomando la subfamilia (x_j) = (0) podemos ver que la combinación lineal 1 0 = 0 no es trivial y produce el vector cero. Así pues A es linealmente dependiente.

b) Supongamos que el conjunto A = \{x \}, con x \neq 0 es linealmente dependiente. Entonces, la única familia finita que podemos formar es (x) (aparte de la vacía que por convenio es linealmente independiente). La combinación \lambda x = 0, sólo será posible si \lambda = 0 (ver propiedades del espacio vectorial en lectura 2). Esto prueba que A es linealmente independiente.

c) Este hecho se deduce de forma inmediata de la definición de dependencia e independencia lineal.

d) Supongamos que A es linealmente independiente. Si fuera vacío, tendríamos que su envoltura lineal es el vector cero por lo que si x no depende linealmente de A, resulta no nulo y por b), el conjunto B = A \cup \{x\} = \{x\} es linealmente independiente. Supongamos ahora que A es no vacío. Si B = A \cup \{x\} fuera linealmente dependiente hallaríamos una familia finita (x_i)_{i \in I} de elementos de B que dan lugar al cero de forma no trivial. Es claro que si todos los elementos de dicha familia fueran de A, entonces A sería linealmente dependiente en contra de lo supuesto. Por ello, ha de existir al menos un i_{0} \in I, tal que x = x_{i_{0}}. Además, el escalar correspondiente en esta combinación lineal no trivial \lambda_{i_{0}} no puede ser nulo pues entonces la contribución de x desaparece y volvemos a tener una combinación lineal nula no trivial de elementos de A. En definitiva,

\sum_{i \in I} \lambda_{i} x_{i} = 0, con \lambda_{i_{0}} \neq 0 y x_{i_{0}} = x.

Esto permite expresar x en la forma

x = -\sum_{i \in I- \{i_{0}\}} \lambda_{i_{0}}^{-1} \lambda_{i} x_{i}.

Así pues x depende linealmente de A. Para evitar esta contradicción, B ha de ser linealmente independiente.

Curso EVT. Lectura 3. Dependencia e independencia lineal

En esta lectura vamos a intentar exponer los conceptos de dependencia e independencia lineales. Lo haremos en el contexto más general posible y para ello vamos a emplear la noción de familia.

Sean I y X conjuntos no vacíos. Una aplicación f:I \rightarrow X se denomina familia de elementos de X indexada (o indizada) por I. Decimos que I es el conjunto de índices y para cada i \in I escribimos x_{i} =f(i). La familia se nota (x_{i})_{i \in I}.

Si tomamos un subconjunto no vacío J de I, la restricción de f a J da lugar a una subfamilia (x_{i})_{i \in J} de la familia (x_{i})_{i \in I}. Para unificar conceptos admitimos también la existencia de la familia vacía, que es única y no tiene elementos. De esta manera, convenimos en que si I es vacío la familia obtenida es la familia vacía. Si la aplicación f no es inyectiva entonces podemos tener elementos repetidos en la familia. Es decir, hallaremos índices i,j de I tales que i \neq j pero x_{i} = x_{j}. El rango de la familia (x_{i})_{i \in I} es el recorrido de la aplicación f y resulta por tanto un subconjunto de X. En el caso de que la aplicación f sea inyectiva podemos identificar la familia con su rango. Esto nos lleva a plantearnos la situación contraria. En particular, si X es un conjunto no vacío, podemos también considerarlo como una familia mediante la aplicación identidad. Es decir, el conjunto de índices coincide con X.
En la práctica, se suele tomar un conjunto I equipotente a X y así la notación queda en la forma usual: X=(x_{i})_{i \in I}. Siguiendo estos convenios, un subconjunto no vacío de un conjunto X puede considerarse como una subfamilia no vacía de X. Paralelamente, si X es vacío consideramos que está representado por la familia vacía. De esta forma, todas las definiciones que se aplican a familias también se aplican a conjuntos y así se entenderá en lo sucesivo.

Definición 2. Combinación lineal finita.
Sea A=(x_{i})_{i \in I} una familia no vacía de vectores de E. Una combinación lineal finita de elementos de la familia es todo vector x de E, obtenido mediante una subfamilia finita no vacía B=(x_{i})_{i \in J} de A y una familia (\lambda_{i})_{i \in J} de escalares, operados en la forma
x=\sum_{i \in J} \lambda_{i} x_{i}.

Los escalares \lambda_i de la combinación lineal se llaman coeficientes de dicha combinación. Por convenio, consideramos que el cero es la única combinación lineal de la familia vacía. Esto se puede simbolizar en la forma

\sum_{i \in \emptyset} x_i = 0.

Obsérvese también que en esta definición de combinación lineal finita puede aparecer varias veces el mismo vector. Por ejemplo, si la familia no vacía es (x,x,y), tenemos que una combinación lineal es
\lambda_1 x + \lambda_2 x + \lambda_3 y.
El lector puede deducir fácilmente que esta combinación equivale a
(\lambda_1 + \lambda_2) x + \lambda_3 y,
por lo que, en la práctica, el hecho de considerar familias en lugar de conjuntos es una cuestión de generalidad y notación.

Definición 3. Envoltura lineal.
Sea A=(x_{i})_{i \in I} una familia no vacía de vectores de E. Al conjunto de todas las combinaciones lineales finitas de sus elementos se le denomina envoltura lineal de dicha familia y se notará mediante L((x_{i})_{i \in I}) o bien L(A).
Definición 4. Dependencia lineal de un elemento.
Un vector x depende linealmente de la familia (x_{i})_{i \in I} si pertenece a su envoltura lineal.
Vamos ahora a la definición central de esta lectura.

Definición 5: Dependencia e independencia lineal de una familia o conjunto,
Sea (x_{i})_{i \in I} una familia de vectores no vacía de un espacio vectorial E sobre K. Decimos que dicha familia es linealmente independiente si para cada subfamilia finita y no vacía (x_{i})_{i \in J} se tiene que la combinación lineal
\sum_{i \in J} \lambda_{i} x_{i} = 0
implica que los escalares \lambda_{i} de K verifican \lambda_{i} =0 para todo i \in J. En caso contrario, diremos que la familia es linealmente dependiente.

Referencias: Wikipedia, “Advanced Linear Algebra” (Steven Roman, Ed. Springer)