Estructuras de Dynkin

Consideremos un conjunto no vacío X y sea \mathcal{D} una familia no vacía de subconjuntos de X. Decimos que \mathcal{D} es un \lambda-sistema o un sistema de Dynkin si verifica:

(a) X pertenece a \mathcal{D}.
(b) Si A es un elemento de \mathcal{D}, su complementario X-A también pertenece a \mathcal{D}.
(c) \mathcal{D} es cerrado para la unión numerable disjunta de sus elementos.

Precisemos un poco más la condición (c). Si A_1, A_2, \ldots, A_n, \ldots es una sucesión de elementos pertenecientes a \mathcal{D} y tales que A_i \cap A_j = \emptyset para cada i \neq j, su unión \cup_{i=1}^{\infty} A_i es lo que llamamos una unión disjunta.

Si \mathcal{D} es un sistema de Dynkin sobre X, se tiene que \emptyset = X-X \in \mathcal{D}. Por lo tanto, todo sistema de Dynkin contiene al conjunto vacío y es fácil ver que obtenemos una definición equivalente si cambiamos X por \emptyset en la condición (a).

También podemos probar que todo sistema de Dynkin es cerrado para la diferencia propia. Esto es, si A y B son elementos de un sistema de Dynkin \mathcal{D} y tales que A \subset B, entonces B-A también es un elemento del mismo sistema. En efecto, el conjunto B^{c} \cup A pertenece a \mathcal{D} (pues es unión disjunta de elementos de \mathcal{D}) por lo que su complementario

(B^{c} \cup A)^{c} = B \cap A^{c} = B-A

pertenece a \mathcal{D}. Es sencillo comprobar que si sustituimos la condición (b) por la condición de cierre para diferencias propias obtenemos una definición equivalente de sistema de Dynkin.

La importancia de los sistemas de Dynkin estriba en que son una forma relativamente sencilla de obtener sigma-álgebras. Esto lo veremos en próximas entradas.

Anuncios

Estructuras de conjuntos pi-estables (2)

En una entrada anterior, hablamos de la \pi-estabilidad de las clases de conjuntos. Mencionamos que una clase no vacía \mathcal{R} de partes de un conjunto X con una estructura determinada por las conocidas operaciones de intersección, unión y diferencia, resulta ser \pi-estable respecto a dicha estructura si la intersección de cualquier familia de clases (\mathcal{R}_{i})_{i \in I} con dicha estructura da lugar a una familia con la misma estructura. Esto es muy deseable pues permite garantizar que dada una clase cualquiera no vacía (sin estructura previa) podemos encontrar una clase \pi-estable que la contiene.

Las estructuras de \pi-sistema, semianillo y semiálgebra no son \pi-estables. Como todo semianillo y semiálgebra son \pi-sistemas, bastará probarlo para este caso. Pero antes recordemos que una clase no vacía de partes de un conjunto X es un \pi-sistema si y sólo si es cerrada para la intersección finita. Si tenemos una familia (\mathcal{S}_{i})_{i \in I} de \pi-sistemas sobre un mismo conjunto X no podemos garantizar que \cap_{i \in I} S_{i} sea no vacío. En efecto, bastará dar un contraejemplo. Sean A,B,C,D subconjuntos de X tales que A \cap B \neq \emptyset, C \cap D \neq \emptyset y A \cup B y C \cup D son disjuntos. Entonces las familias \{A,B, A \cap B \}, \{C,D, C \cap D \} son \pi-sistemas disjuntos. Su intersección es obviamente vacía.

Sumas según leyes de Pascal y el infinito

Consideremos una sucesión finita de n+1 números naturales:

d_{0}, d_{1}, d_{2}, \cdots, d_{n}

Podemos formar una nueva sucesión finita mediante la siguiente regla:

s_{0} =d_{0}
s_{k} =d_{k}+d_{k-1}, para k=1,2, \cdots, n
s_{n+1} = d_{n}

Es decir, si partimos de n+1 números obtendremos un total de n+2 números en la siguiente sucesión. Si representamos por P(d_{n}) a la sucesión que se obtiene de aplicar la regla anterior, diremos que s_{n} = P(d_{n}) es la sucesión suma según ley de Pascal de d_{n}. Es evidente que el operador P se puede reiterar indefinidamente. Es decir, podemos obtener

P(P(d_{n})), P(P(P(d_{n}))), P(P(P(P(d_{n})))), \cdots

Cada nueva sucesión tiene un elemento más que la anterior (pero todas son finitas). Un ejemplo de este tipo de proceso lo tenemos en el conocido triángulo de Pascal (o de Tartaglia). Para construirlo partimos de una sucesión d_{n} con un sólo elemento:
d_{0}=1,
aplicamos el operador P
s_{0}=d_{0}=1, s_{1}=d_{0}=1,
de nuevo aplicamos P
t_{0} = s_{0}=1, t_{1} = s_{0}+s_{1} = 1 +1 =2, t_{2}=s_{1}=1,
y así sucesivamente. Para facilitar los cálculos se suelen disponer los números al “tresbolillo”. Es decir
Triángulo de Pascal
Como el lector seguramente conoce, estos números del triángulo de Pascal son los coeficientes del binomio de Newton y además pueden expresarse en forma de números combinatorios. Existen muchísimas más propiedades en este aparantemente sencillo triángulo (ver aquí) pero no las mencionaremos de momento. Sólo nos interesa ver una curiosidad de las sucesiones obtenidas según esta ley de Pascal. Supongamos que tenemos una sucesión infinita de números naturales formada por un número finito de valores diferentes de cero. Esto es, todos los términos de la sucesión son ceros menos un número finito. Por ejemplo, la sucesión formada sólo por ceros:

0, 0, 0, 0, \cdots, 0, 0, \cdots

o la sucesión

0, 1, 1, 0, 0, 0, \cdots, 0, 0, \cdots

donde el segundo y el tercer término son unos, son sucesiones de este tipo. ¿Qué ocurre si aplicamos el operador P a este tipo de sucesiones? En primer lugar, habrá que modificar la ley en la forma

s_{0} =d_{0}

s_{k} =d_{k}+d_{k-1} para k=1,2, \cdots,

para considerar sucesiones infinitas (pues no tienen un último término). Veamos ahora un ejemplo. Sea la sucesión d_{n} dada por

0, 0, 0, 1, 0, 0, \cdots

Entonces

P(d_{n})=0, 0, 0, 1, 1, 0, 0 , \cdots

P^{2}(d_{n})=P(P(d_{n}))= 0, 0, 0, 1, 2, 1, 0, 0, 0, \cdots

Si seguimos reiterando y colocamos las distintas sucesiones al “tresbolillo”, obtenemos el triángulo de Pascal “inmerso” en una matriz infinita. ¿Qué ocurrirá con otras sucesiones de este tipo? Claramente, la existencia de cualquier valor no nulo hará que esta “anomalía” se propague en la siguiente sucesión y dé lugar a sucesiones cada vez menos enrarecidas. Sin embargo, todas ellas seguirán teniendo una infinidad de ceros y un número finito de valores no nulos. La prueba de esta afirmación es sencilla y la dejamos al cuidado del lector.

Curso EVT. Lectura 29. Aclaración sobre combinaciones lineales

El concepto clásico de combinación lineal involucra a un número finito de vectores de un espacio vectorial (o módulo). Esto es, si E es un espacio vectorial sobre un cuerpo K y A=\{x_{1}, x_{2}, \cdots, x_{r} \} es un subconjunto finito de E, decimos que x es combinación lineal de elementos de A, si existen escalares (elementos de K): \alpha_{1}, \alpha_{2}, \cdots, \alpha_{r}, tales que

x= \sum_{i=1}^{r} \alpha_{i} x_{i}

Utilizando este concepto de combinación lineal finita podemos explicar la dependencia lineal. Así, decimos que un vector x depende linealmente de un subconjunto B \subset E si y sólo si existe un subconjunto finito A de B tal que x es combinación lineal de los elementos de A. Pero, ¿cómo extender estas ideas a familias (x_{i})_{i \in I} infinitas de vectores?. Pues es razonable suponer que sólo se puede hacer cuando la combinación lineal se puede considerar finita. Para ello, haremos uso de la conocida propiedad 0 x = 0 para todo x \in E, donde 0 es el neutro aditivo del cuerpo K. En efecto, diremos que una familia de escalares (\alpha_{i})_{i \in I} es casi toda nula si el conjunto de los i \in I tales que \alpha_{i} \neq 0 es finito. Es decir, sólo hay un número finito de escalares no nulos. Diremos entonces que un vector x es combinación lineal de elementos de la familia (x_{i})_{i \in I} si existe una familia de escalares (\alpha_{i})_{i \in I} casi toda nula, tal que

x=\sum_{i \in I} \alpha_{i} x_{i}

Esto nos permite ahora hablar de la dependencia lineal de una manera “más amplia”. Diremos que un vector x depende linealmente de un conjunto B si existe una familia (b_{j})_{j \in J} de elementos de B tal que x es combinación lineal de elementos de (b_{j})_{j \in J}. También podemos generalizar la independencia lineal y con ello el concepto de base. En este sentido, diremos que una relación lineal entre los elementos de una familia (x_{i})_{i \in I} es cualquier familia de escalares (\beta_{i})_{i \in I}, casi todos nulos, tales que

\sum_{i \in I} \beta_{i} x_{i} = 0

Si la única relación lineal posible entre los elementos de la famlia (x_{i})_{i \in I} es la formada por los escalares \beta_{i} = 0 para todo i \in I, diremos entonces que la familia es libre. Una base de E es una familia libre que además tiene la propiedad de que todo x \in E es combinación lineal de elementos de dicha familia.

La insoportable levedad del infinito

El concepto del infinito está presente en la matemática casi desde su comienzo. Pero no hemos de equivocarnos, no se trata de el “infinito” en un sentido filosófico pleno, sino de “un” o “unos” infinitos perfectamente delimitados y “domesticados”. De nada vale hacer disquisiciones sobre el infinito en matemáticas si no se entiende qué son y cómo se definen estos “infinitos”. Seguramente, el lector pensará en el conjunto de los números naturales como primer ejemplo de conjunto infinito. Esto es casi cierto. En realidad, el conjunto de los números naturales es el ejemplo más claro de conjunto inductivo y es justamente la existencia de conjuntos inductivos algo que no podemos probar sino creer, es decir, se establece como axioma. Veamos con detalle cómo se hace dentro de la teoría de NBG (Neumann-Bernays-Gödel). Sea \mathcal{A} una clase, se dice que la clase S(\mathcal{A})=\mathcal{A} \cup \{ \mathcal{A} \} es la clase siguiente de \mathcal{A}. Los diversos axiomas de esta teoría nos permiten garantizar que la clase siguiente de un conjunto es también un conjunto. Esto nos da pie a otra definición:

Una clase \mathcal{C} es inductiva si contiene al conjunto vacío y para todo conjunto x \in \mathcal{C} el conjunto siguiente s(x) también un elemento de \mathcal{C}.

Veamos con detalle esta definición. Estamos diciendo que una clase es inductiva si el conjunto vacío es uno de sus elementos y siempre que otro conjunto x sea elemento suyo, podemos asegurar que S(x) también lo es. Aquí está el “germen” del infinito, en el hecho de tener “siempre” (si nos ponemos a pensar esta palabra es muy especial) la posibilidad de añadir elemento tras elemento sin nunca terminar. Si tomamos la clase
\mathcal{S} =\{ \mathcal{C} : \mathcal{C} \quad \text{es inductivo} \quad \}
de todos los conjuntos inductivos, ¿es o no vacía? Es decir, ¿existe algún conjunto inductivo? Pues bien, no lo podemos asegurar, hemos de dar un axioma:

Existe al menos un conjunto inductivo

El lector se preguntará…¿dónde están los naturales? Pues es bien sencillo. Una vez hemos considerado no vacía la clase de todos los conjuntos inductivos, definimos el conjunto de los naturales como la intersección de todos los conjuntos de dicha clase. Esto es:
\mathbb{N} = \cap_{\mathcal{C} \in \mathcal{S}} \mathcal{C}. Esta intersección (o gran intersección) existe en virtud de otro axioma de NBG. Ahora, hacemos lo siguiente, identificamos el 0 con \emptyset, el 1 con el siguiente de \emptyset (1 = \emptyset \cup \{ \emptyset \}) y así sucesivamente y ya tenemos los naturales \{0, 1,2 ,3, \cdots  \}, (he incluido el cero dentro de los naturales siguiendo un consenso establecido pero lo mismo podría haber empezado por 1 o por el que hubiera querido, al fin y al cabo, lo que los distingue es su carácter inductivo y eso no depende del símbolo usado). Los puntos suspensivos aquí tienen el carácter de indicarnos que esto no acaba, que al ser inductivo hay un siguiente al 3 y un siguiente al siguiente al 3 y así sucesivamente. Reflexionemos un poco. Ya tenemos un conjunto que es infinito en un sentido determinado y que además nos parece bastante “razonable”. Pero, ¿realmente existe este conjunto? No puedo dar una respuesta. Para mí, existe en el universo de las matemáticas y esa existencia está justificada en él. Para el lector quizás no existe nada más que en la mente de los matemáticos..pero ¿qué hay algo fuera de nuestra mente? Eso es otra gran pregunta.

Notaciones de Landau

Recuerdo que en análisis matemático elemental es muy socorrido el cálculo de límites de funciones reales de variable real mediante sustituciones asintóticas. Esto es algo así como sustituir una cantidad por otra si sabemos que en el límite ambas son “casi” lo mismo. En realidad, se trata de hacer comparaciones en el paso al límite y tales comparaciones pueden arrojar los más diversos resultados (no solo la equivalencia). Vamos pues a dar una visión de lo que se entiende por notaciones de Landau o notaciones “o pequeña” y “O grande”, pues estas notaciones nos permiten una visión amplia de estas comparaciones.

Consideremos dos funciones reales de variable real f y g, ambas definidas sobre dominios D y E, respectivamente, y sea p un punto tal que existe una bola abierta B(p;r), centrada en p y de radio r > 0, tal que p \in B(p:r) \subset D \cap E. Es decir, que es posible encontrar un abierto común a los dominios de ambas que incluye al punto p. Diremos entonces que g es “o pequeña de f“, o “infinitamente pequeña en comparación con f” si y sólo si, podemos hallar una función \phi(x), definida en al menos la bola perforada B(p;r)-\{ p \} y tal que

g(x) = \phi(x) f(x), \quad \forall x \in B(p;r)-\{ p \}
\lim_{x \rightarrow p} \phi(x) = 0

Escribimos entonces g = o(f) cuando x tiende a p. Si además la función f(x) es no nula en la bola perforada, podemos reescribir las condiciones anteriores en la forma:

\lim_{x \rightarrow p} \frac{g(x)}{f(x)} = 0

Entendiendo entonces que \phi(x) =  \frac{g(x)}{f(x)} (esto nos permite obviar la búsqueda de una tal función \phi). Un caso especialmente interesante es cuando f(x)=1 (la función constante igual a 1. Entonces, afirmar que g=o(1) cuando x \rightarrow p equivale a

\lim_{x \rightarrow p} \frac{g(x)}{1} = \lim_{x \rightarrow p}g(x) = 0

y decimos que g es “infinitamente pequeña”. La notación “o pequeña” todavía da más de sí. En efecto, diremos que dos funciones f y g son equivalentes cuando x tiende a p si y sólo si g(x) = f(x) + o(f(x)). El lector puede comprobar que esta definición es equivalente a la corriente basada en:

\lim_{x \rightarrow p} \frac{g(x)}{f(x)} = 1

Para acabar, diremos que una función g está acotada en comparación con otra f si x tiende a p, cuando existen una bola perforada B(p:r)- \{p \} y una constante C, tales que

|g(x)| \leq C |f(x)|, x \in B(p:r)- \{p \}

Escribimos entonces g=O(f), x \rightarrow p. Si g=O(f), x \rightarrow p y también f=O(g), x \rightarrow p, decimos entonces que f y g son del mismo grado. Sugerimos al lector que compruebe que cuando g=O(1), x \rightarrow p, entonces existe un entorno de p donde g está acotada.