Los seguidores de Manolo

Entropia y topología.

In Dinámica topológica on Sábado 7, febrero, 2009 at 9:26 am

por Rafael Potrie

La idea es dar la prueba de un teorema de Manning que relaciona la entropía de un homeomorfismo en una variedad con la acción de este en la homología de la variedad, o en el grupo fundamental. Obviamente, antes es necesario definir estos conceptos, y en la medida de lo posible motivar la “importancia” del resultado.

ENTROPIA

Voy a empezar por introducir el concepto de entropía de un homeomorfismo. No pretendo ser exhaustivo, sino simplemente introducir una de las posibles definiciones (que es la que voy a utilizar) y en lo posible motivarla un poco.

La idea es dar una “medida” de cuan compleja es la dinámica de un homeomorfismo. En general, fijado un \varepsilon>0, si queremos conocer la dinamica de los primeros n iterados de todos los puntos (modulo \varepsilon, es decir, admitiendo un error de ese valor), nos basta con conocer los primeros n iterados de un cierto conjunto finito de puntos (esto es una consecuencia directa de la continuidad uniforme de los primeros n iterados del homeomorfismo). La entropia medira entonces, el crecimiento exponencial de dichos conjuntos, lo cual parece una medida razonable de la complejidad.

Formalmente, definamos primero una distancia que nos asegure que si dos puntos se encuentran a menos de \varepsilon entonces, conociendo los primeros n iterados de uno, conoceremos tambien los del otro (modulo \varepsilon). Fijemos entonces de ahora en mas un homeomorfismo f:M \to M en M variedad compacta.

Definimos entonces d_n: M\times M \to \mathbb{R}^+ \cup{0} la distancia dada por

d_n(x,y) = \max \{ d(x,y), d(f(x),f(y)), \ldots, d(f^n(x), f^n(y))\}

donde d es una distancia fijada en M.

Dado que f es un homeomorfismo en una variedad compacta, sabemos que d_n es una distancia equivalente a d con lo cual es claro que dado \varepsilon>0 podremos siempre considerar un conjunto \varepsilon -denso en M con respecto a d_n (es decir, un conjunto \{x_1, \ldots x_K \} tal que para todo y \in M se cumple que d_n(x_i, y) < \varepsilon para algun 1\leq i \leq K).

Ahora, definimos un conjunto (n,\varepsilon)generador como un conjunto \varepsilon-denso para d_n. Es claro que existen conjuntos (n,\varepsilon)-generadores finitos (por la compacidad) con lo cual habra por lo menos uno que tenga menos o igual elementos que cualquier otro conjunto (n,\varepsilon)-generador. Llamaremos r(n,\varepsilon) al cardinal de dicho conjunto.

Fijado \varepsilon>0, podemos medir el crecimiento de r(n,\varepsilon) a medida que n crece a infinito. Vamos a medir el crecimiento exponencial es decir, el numero

h(\varepsilon) = \overline{\lim}_n \frac{1}{n} \log (r(n,\varepsilon))

Tomamos limite superior pues nada asegura la existencia del limite, pero no afecta la definicion de entropia (no voy a probarlo, ver por ejemplo el libro de Katok-Hasselblatt).

Es claro ahora que el numero h(\varepsilon) crece a medida que \varepsilon \to 0 con lo cual si sabemos que existira su limite al hacer \varepsilon tender a cero, dicho limite es el que lleva el nombre de entropia topologica de f.

h_{top}(f) = \lim_{\varepsilon\to 0} h(\varepsilon)

No voy a hacer muchos comentarios sobre las propiedades de este numero, lo que me interesa que quede claro a este punto es que si este numero es positivo tenemos una indicacion de sensibilidad a las condiciones iniciales. En particular, me interesa comentar un resultado de Katok que asegura (entre otras cosas) que si un difeomorfismo de clase C^2 de una superficie tiene entropia positiva, entonces, hay infinitos puntos periodicos de periodos arbitrariamente grandes!

A pesar de ser muy dificil de calcular (pareceria como que para computarla necesitaras mas informacion de la dinamica que la que realmente te da!, como pasa con muchas cosas de la matematica), veremos en lo siguiente (de hecho es la idea de la nota) que hay formas no tan terribles de dar estimaciones, o al menos cotas inferiores para la entropia.

La dificultad para el calculo tiene algunas excepciones, por ejemplo, es muy facil ver que para una isometria, la entropia es necesariamente nula. Basta observar que d_n = d \ \forall n\geq 0, con lo cual el cardinal de un conjunto generador no dependera de n. Con un poco mas de cuidado, no es dificil observar que si se tiene un homeomorfismo que es Lipchitz (es decir, existe una constante K>0 tal que d(f(x),f(y))<Kd(x,y)) entonces la entropia es necesariamente finita (de hecho esta acotada por K\dim M si no me equivoco, lo cual es probable). En particular, un difeomorfismo, tiene entropia finita.

Una aplicacion interesante de la entropia (por lo menos para mi, que estuve pensando mucho tiempo en el problema)  viene dada por el hecho de que es un invariante topologico (es decir, si dos homeomorfismos son conjugados, tienen igual entropia, lo cual es directo de ver, dado que la conjugacion es un homeomorfismo con lo cual es uniformemente continuo). En particular, uno podria preguntarse: Sera que todo homeomorfismo es conjugado a un difeomorfismo? Y la respuesta es que no, y para eso basta construir un homeomorfismo con entropia infinita, ejercicio no muy dificil, pero que se escapa de el objetivo de esta nota.

MEDIDAS TOPOLOGICAS DE CRECIMIENTO

La entropia es una buena medida de la complejidad de un sistema, pero lamentablemente no resulta nada facil de calcular (por ejemplo, no es nada facil probar a mano que la entropia del norte sur en la esfera es cero!). Entonces, resulta natural buscar otras formas de medir la complejidad, y en particular, algo interesante seria encontrar una forma de asegurar que la entropia de un homeomorfismo es positiva.

Hay de hecho una conjetura, conocida como la conjetura de la entropia que propone que la entropia de un difeomorfismo de clase C^1 es minorada por el radio espectral de la accion en homologia del difeomorfismo (no voy a entrar en definiciones). Esta conjetura esta probada para difeomorfismos de clase C^\infty (Yomdin).

No vamos a meternos en eso que requeriria dar muchas definiciones, nos contentaremos con estudiar la relacion entre la entropia y el grupo fundamental y hacer algunos comentarios tambien sobre la relacion con el primer grupo de homologia (que se puede definir como el abelianizado del grupo fundamental, con lo cual no requiere mucha maquinaria). Eso si, asumiremos que se conoce que es el grupo fundamental.

La idea es la siguiente, mediremos el crecimiento exponencial en el grupo de los iterados de representantes del grupo fundamental.

Que significa esto?, consideremos un conjunto finito \Gamma= \{\gamma_1, \ldots, \gamma_K\} de generadores del \pi_1(M). Sea entonces \gamma \in \Gamma, se cumple que f^n(\gamma)) se escribe como producto de elementos de \Gamma, es decir, f^n(\gamma)= \gamma_{i_1(n)}\ldots \gamma_{i_{L(n)}(n)}. Podemos suponer que L(n, \gamma) es la minima cantidad de elementos del grupo que realizan dicho producto y estudiar el crecimiento de L(n) a medida que n crece.

Definimos entonces:

h_{\pi}(f)= \sup_{\gamma \in \Gamma} \overline{\lim}_{n} \frac 1 n \log (L(n,\gamma)).

Puede parecer que no es tan facil de calcular tampoco, pero en ejemplos concretos podemos ver que al menos encontrar una cota inferior de este numero no es algo sumamente descabellado. Hay que observar que este numero esta bien definido, fijados dos generadores del \pi_1 uno se escribe como combinaciones del primero, por lo tanto, el crecimiento exponencial no se vera afectado.

Por ejemplo, consideremos un mapa del toro dado por una matriz de coeficientes enteros y determinante 1 (observar que el mapa definido  en \mathbb{R}^2 deja invariante \mathbb{Z}^2 por lo tanto baja al cociente, el toro, y por tener determinante uno, lo mismo ocurre con su inversa).  Un conjunto de generadores del \pi_1 es por ejemplo la proyeccion de las curvas que unen (0,0) con (0,1) y (1,0) respectivamente. Iterando la matriz y viendo las imagenes de estas curvas, no es dificil ver que si la matriz tiene algun valor propio mayor que uno, entonces el crecimiento sera exponencial.

En particular, se tiene lo siguiente. Sea H_1 el grupo que se obtiene al cocientar \pi_1 por su conmutador, es decir, el abelianizado de \pi_1. Uno puede pensar en $H_1$ como tomar generadores del \pi_1 y considerar sumas formales de ellos, el cociente, en lugar de por homotopia, es por lo que se llama bordismo es decir, por ser la imagen de la restriccion al borde de un mapa de una superficie con borde en M.

Una vez “definido” el H_1 consideramos al mapa f_\ast : H_1 \to H_1 dado por f_\ast ([\gamma]) = [f(\gamma)] (esta bien definido, etc, etc).

Como usualmente H_1 va a ser una suma directa de copias de \mathbb{Z}, tenemos que f_\ast va a ser una matriz de coeficientes enteros. Llamamos entropia algebraica que notamos como h_\ast (f) al radio espectral de dicha matriz (se pueden dar definiciones mucho mas precisas y generales).

Lo interesante, es que no es dificil ver como la entropia algebraica es una cota inferior de el crecimiento exponencial del grupo fundamental por el homeomorfismo (escencialmente es la idea del ejemplo mostrado en el toro).

El resto de la nota pretende probar que h_{\pi}(f) \leq h_{top}(f) y en lo posible dar alguna aplicacion de ello.

Para muchas variedades, por ejemplo las esferas, este resultado no dice absolutamente nada, pero hay muchas otras variedades donde puede ser util. El caso de la esfera S^2, puede ser considerado una excepcion, en particular, en general, veremos que la prueba del teorema se aplica tambien si tomamos un homeomorfismo de una superficie compacta, le sacamos los puntos fijos y estudiamos la accion de f en el grupo fundamental de la variedad resultante, que si bien no es compacta, los argumentos funcionaran perfectamente ya que escencialmente lo que utilizamos es el diametro finito y la continuidad uniforme del homeomorfismo.

EL TEOREMA

Teorema: Para un homeomorfismo f:M\to M de una variedad compacta se cumple que h_{\pi}(f) \leq h_{top}(f).

La prueba de este teorema es escencialmente a mano, es decir, no utiliza ningun resultado misterioso, pero hay que remangarse para hacerla. Eso implica muchos subindices, y alguna que otra estimacion, calculo, etc. Espero poder dar, ademas de la prueba, una idea que conforme a quien no desee seguir la prueba al detalle (lo cual requiere minimamente hacerlo con lapiz y papel a mano haciendo algun que otro dibujito). La prueba esta basada completamente en la prueba que se presenta en el libro de Katok y Hasselblatt.

La idea es la siguiente, lo primero que tenemos que hacer, es considerar un conjunto de generadores del \pi_1(M) apropiado. El conjunto que vamos a considerar es sumamente redundante, pero nos permitira estar medianamente cerca de todos los puntos. Por otro lado, tenemos que considerar una curva cerrada y estudiar como se empiezan a escribir sus iterados en terminos de nuestro generador, pero eso no va a ser tan complicado, ya que podemos considerar tambien un conjunto (n,\varepsilon)-generador, y este va a acompañar a los iterados de la curva, en particular, nos va a permitir acotar la longitud en terminos de generadores del grupo fundamental de los iterados de la curva cerrada a partir de el crecimiento del cardinal de los conjuntos (n,\varepsilon)-generadores, en particular, si obtenemos una cota cuyo crecimiento exponencial sea el mismo, tendremos probado el teorema.

Sea entonces \lambda>0 de forma tal que toda bola de radio 4\lambda en M sea homeomorfa a una bola euclidea, y por lo tanto, de forma tal que dadas dos curvas con los mismos extremos en una tal bola estas sean homotopicas mediante una homotopia que fija los extremos.

Sea \{ w_i\}_{i\in I} un conjunto finito \lambda denso. Definimos curvas c_{ij} que unan los puntos w_i y w_j en B_\lambda (w_i) \cup B_\lambda (w_j), obviamente, siempre y cuando dichas bolas se intersecten.  A su vez, fijamos un punto p \in M y consideramos curvas c_i uniendo p con w_i.

Las curvas c_i c_{ij} c_j^{-1} (cuando tengan sentido) seran lazos basados en p. Estamos considerando que si \alpha y \beta son curvas tal que \alpha(1)=\beta(0) entonces \alpha\beta es la curva concatenada, es decir \alpha\beta(t) = \alpha(2t) si 0\leq t\leq 1/2 y \alpha\beta(t) = \beta(2t-1) si 1/2\leq t\leq 1, como esta operacion es asociativa modulo homotopia, tiene sentido considerar la concatenacion de mas curvas. Tambien tiene sentido considerar las curvas a la menos uno, que es considerarlas recorridas en sentido inverso.

Lema: Cualquiera sea un conjunto \{ w_i\}_{i\in I} que sea \lambda denso.  \Gamma = \{ c_ic_{ij}c_j\}_{i,j\in I} es un generador del grupo fundamental de M.

Mi reaccion frente a este lema fue que inicialmente me parecio razonable, pero luego, me dio la impresion como que las curvas de \Gamma son todas homotopicamente triviales!. El lema es cierto, asi que ese no es el caso, pero si es cierto que posiblemente la mayoria de las curvas en \Gamma sean triviales en homotopia, pero siempre tiene que haber alguna que de la vuelta. Voy a dejar la prueba del lema para el final de la nota, pero recomiendo como ejercicio para creerselo intentar ver como funciona en el circulo que es un ejemplo bastante sencillo y muestra que no “hay escapatoria”, siempre tiene que haber una de esas curvas que de una vuelta!.

Con este lema en mano vamos a la prueba del Teorema, ya tenemos un generador del grupo fundamental y ahora lo unico que tenemos que hacer es considerar un loop, iterarlo y ver como crece su longitud en el generador en funcion de los iterados que tenemos. La idea es entonces comparar este crecimiento con el crecimiento de los conjuntos (n,\varepsilon)-generadores para tenerlo acotado.

Un problema tecnico aparece, como no necesariamente tenemos un punto fijo para f los loops que consideremos van a estar basados en puntos diferentes y por lo tanto tenemos que considerar curvas que los hagan estar soportados en el mismo punto. La prueba la voy a hacer entonces asumiendo la existencia de un punto fijo, la idea es exactamente la misma si no existe, pero requiere definir mas curvas y mas subindices (y ya son muchos!) con lo cual me lo voy a ahorrar. De todas maneras, hay variedades (como por ejemplo superficies de genero mayor que uno) donde siempre hay puntos fijos y la suposicion no es una restriccion.

Consideremos entonces un lazo \gamma \in \Gamma basado en el punto fijo p de f. Vamos a estimar entonces la longitud en palabras de \Gamma de f^n(\gamma). Para probar el Teorema, basta con acotarlo por J(n)r(n,\varepsilon) donde J(n) tenga crecimiento subexponencial (por ejemplo, un polinomio) y r(n,\varepsilon) es la cota inferior del tamaño de los (n,\varepsilon)-generadores con \varepsilon fijo.

Como f es uniformemente continua, existe \mu \in (0,\lambda) tal que para todo x\in M se tiene f(B_\mu(x)) \subset B_{4\lambda}(f(x)). Consideremos entonces \varepsilon \in (0,\mu/4).

Tenemos que es posible subdividir \gamma en N segmentos \{\sigma_1, \ldots, \sigma_N \}=\Sigma contenidos completamente en una bola de radio 2\lambda.

Sea S_n un conjunto (n,\varepsilon)-generador con r(n,\varepsilon) elementos.  Entonces, fijado \sigma \in \Sigma, podemos encontrar puntos z_1, \ldots , z_m \in \sigma y puntos x_1, \ldots x_m \in S_n de forma tal que d_n(x_i,z_i)< \varepsilon y que el segmento en \sigma que une z_i con $\latex z_{i+1}$ (lo notaremos \left[z_i,z_{i+1}\right]) este contenido en una bola de radio 2\varepsilon para d_n.

Conectamos z_i con x_i mediante arcos \left[ z_i , x_i \right] contenidos en bolas de radio \varepsilon para d_n. Notaremos \left[ y , x \right] al arco \left[ x , y\right] recorrido en sentido inverso.

Sea entonces \sigma' dado por

\left[z_0,x_0\right] \left [x_0,z_0\right] \left [z_0,z_1\right]\left [z_1,x_1\right]\left [x_1,z_1\right]\ldots \left[z_{m-1},z_m\right] \left[z_m,x_m\right] \left[x_m,z_m\right]

Se cumple claramente que \sigma' es homotopica a \sigma mediante una homotopia que fija extremos (escencialmente lo que hicimos fue agregarle “pelos” a la curva \sigma). Y como la curva \sigma' esta contenida en una 4\lambda bola, es homotopica a una curva \sigma'' obtenida de \sigma' mediante el quitado de loops generados por la posible coincidencia entre puntos x_i y x_j (en el siguiente parrafo explico un poco mas este paso, pero en una primera lectura puede valer la pena asumir que no habia coincidencia alguna entre los puntos x_i).

Voy a explicar el ultimo parrafo un poco mas.  A priori, la cantidad de puntos x_i utilizada podria ser muy grande, pues nada impide las repeticiones. Lo que es cierto, es que las repeticiones implican que la curva \sigma esta dando “muchas vueltas” adentro de una bola de radio 4\varepsilon es decir, vueltas que son homotopicamente triviales. Este proceso que hicimos, en definitiva, lo que hace es “alisar” un poco la curvita. El argumento que permite hacer eso es el siguiente, supongamos que x_i=x_j,  entonces, se cumple que z_i y z_j se encuentran en la misma bola de radio \varepsilon para d_n. Por lo tanto, considerando una curva \left[z_i,z_j\right] contenida en dicha bola, se cumple que \left[z_i, z_j\right]\left[z_j,z_{j+1}\right] se encuentra en una union de bolas de radio \varepsilon para d_n. Esto implica que podemos olvidarnos de todos los puntos z_{i+1}, \ldots z_j y sus respectivos x y reemplazar la curva \left[z_i, z_{i+1}\right]\ldots \left[z_j, z_{j+1}\right] por \left[z_i,z_j\right]\left[z_j,z_{j+1}\right]. De esta manera, podemos suponer que los x_i no son repetidos y asumimos que reindexamos todo asi no tenemos problemas de notacion (si se desea, pensar que este paso no fue necesario porque de primera no habia x_i repetidos).

Tenemos entonces una cota del numero de arcos del tipo \left[x_i,z_i\right], \left[z_i,x_i\right] y \left[z_i, z_{i+1}\right] dada por 3r(n,\varepsilon).

Todos estos arcos satisfacen que estan contenidos en una bola de radio 4\varepsilon para d_n alrededor de algun punto de S_n (los arcos de la forma \left[x_i,z_i\right] o \left[z_i,x_i\right] estan en bolas de radio \varepsilon directamente y los otros, estar contenidos en union de dos bolas de radio \varepsilon tambien verifican la propiedad).

Sea \left[x,y\right] un tal segmento.  Esta claro que d(f(x),f(y))< 4\varepsilon por la definicion de d_n, y por como elegimos $latex  \mu>4\varepsilon$ tenemos tambien que f([x,y]) esta contenido en una bola de radio 4\lambda. Entonces, f([x,y]) es homotopico fijando extremos a un arco \left[f(x),f(y)\right] contenido en B_{4\varepsilon}(f(x)) que conecta f(x) con f(y).

Argumentando por induccion, obtenemos que (dado que d(f^i(x),f^i(y))< 4\varepsilon para todo 0\geq i \geq n) f^n ([x,y]) es homotopico fijando extremos a un arco contenido en B_{4\varepsilon}(f^n(x)) que une f^n(x) con f^n(y).

Entonces, f^n(\gamma) es homotopico a la concatenacion de a lo sumo 3Nr(n,\varepsilon) arcos de ese tipo.

Ahora, cada uno de esos arcos es de la forma \left[f^n(x), f^n(y)\right] con lo cual, si los cambiamos por \left[f^n(x),f^n(y)\right] \sim \left[f^n(x), p\right]\left[p,f^n(x)\right]\left[f^n(x),w_i\right]c_{ij}\left[w_j,f^n(y)\right]\left[f^n(y),p\right]\left[p,f^n(y)\right] podremos escribir f^n(\gamma) como la concatenacion de a lo sumo 3Nr(n,\varepsilon) generadores del grupo fundamental de M. Esto concluye la prueba.

\Box

Lo unico que queda es dar la prueba del Lema que utilizamos.

Demostracion del Lema: Sea \gamma un loop basado en p. Lo subdividimos en pedazos $latex  \sigma_r$ contenidos en B_\lambda(w_i) \cup B_\lambda(w_j) para algunos i,j.

Consideramos curvas \eta_0^r que conecta \sigma_r(0) con w_i y \eta_1^r que conecta \sigma_r(1) con w_j y contenidos en bolas de radio 4\lambda.

Podemos elegirlos de forma tal que \eta_0^r = \eta_1^{r-1}.

Tenemos que \sigma_r \sim \eta_0^r c_{ij} \eta_1^r fijando extremos. Pero obviamente estos arcos cumplen que \eta_0^r c_{ij} \eta_1^r \sim \eta_0^r c_i^{-1} c_i c_{ij} c_j^{-1} c_j \eta_1^r y por lo tanto, podemos escribir \gamma como concatenacion de elementos en \Gamma.

\Box

Antes de terminar la nota, me gustaria observar que la compacidad de M fue utilizada unicamenta para conseguir conjuntos \lambda-densos y para tener la continuidad uniforme de f. Por lo tanto, es inmediato extender el resultado al siguiente. Tampoco utilizamos que tengan o no borde las variedades.

Corolario: (de la prueba) Sea M superficie compacta y f un homeomorfismo que fija los puntos p_1,\ldots p_n. Entonces, h_{top}(f) \geq h_{\pi}(f|_{M\backslash \{p_1,\ldots, p_n \} }.

  1. Che Gordo,

    ¿Será tan dificil conseguir calcular la entropía del norte sur en la esfera?

    Fijado \epsilon > 0 podemos conseguir un montón de meridianos que distan menos de \epsilon en su punto más lejano (en el ecuador). Está claro que toda órbita es acompañada por algúna órbita en el meridiano más cercano.

    Lo que hace falta ahora es conseguir un conjunto generador dentro de cada meridiano y pronto.

    Me parece que no complica mucho calcular cuantos elementos encajamos y por lo tanto conseguir una cota superior para la entropía.

    Recemos al señor que dicha cota sea 0… Amen.

  2. Me quedé pensando también lo del homeo con entropía infinita.

    No veo super claro que la entropía sea invariante por homeos (aunque me tengo fe si le dedico el tiempo… pero no debería hacerlo ya que tengo que estudiar probabilidad). Pero está buenísimo que demuestres que no todo homeo es conjugado a un difeo.

    Supongo que lo que haría yo para construir un homeo así de feo es meterle infinitas herraduras cada vez más chiquitas (por ejemplo pensar un mapa del plano con infinitas herraduras que se extienda a la esfera). Formalmente no se bien si esto cumple el cometido ¿Cuanta entropía te da cada herradura?

    Ah, por cierto… Tremendo artículo!

  3. Sobre el Norte Sur, es posible que tengas razon y ese calculo de. La verdad no lo hice, pero incluso en el caso que el calculo asi como esta de, creo que es mas dificil de lo que uno le gustaria cuando se supone que la entropia es lo que mide la complejidad y ese ejemplo es el menos complejo que se me pueda ocurrir (o uno de los). Lo que si no es para nada facil hacer a mano (pero tb se puede hacer) es mostrar que la entropia es cero cuando el no errante es finito (que es similar lo unico que no podes controlar tan facilmente como son las orbitas como en el caso del Norte Sur).

    Lo que quiero decir, en resumen, es que lo que seguro no es facil (al menos para mi fue un huevo), sin introducir definiciones, es dar una prueba sin “usar” demasiado que es el Norte Sur (en resumen, lo que quiero decir es una idiotez! je).

    Sobre el homeo de entropia infinita, primero, lo de que es invariante por conjugacion no es dificil, con esta definicion y usando la continuidad uniforme es una cuenta razonablemente hacible. La idea que decis para construir el ejemplo esta perfecta pero tiene una cosita que me parece que esta bueno aclarar…

    Si tenes dinamicas “independientes”, por ejemplo dos cerrados invariantes, la entropia del homeomorfismo es el maximo de las entropias restrictas a cada cerrado (en definitiva eso es porque estas tomando logaritmo, y tener dinamicas separadas simplemente te suma la complejidad, al tomar logaritmo y dividir entre n eso queda despreciable), entonces tu ejemplo tendira simplemente la entropia de la herradura. Sin embargo, podes hacer herraduras un poquito mas complicadas con entropia arbitrariamente grande (por ejemplo una herradura que queden en vez de dos “palitos” en la interseccion del rectangulo con la imagen, que queden N “palitos”) y ahi si, lo que decis funciona.

    Gracias por los comentarios, si me dan las bolas intento dps mejorar un poco para aclarar lo que decis en el articulo.

    Salu

  4. Antes pensaba que la entropía de la union disjunta de dos sistemas era la suma, pero ahora entiendo lo que decis (al final te queda el logaritmo de la suma de los r(n,\epsilon) lo cual acotas por \log(2) sumado al logaritmo del máximo de los dos).

    Y hacer una herradura que sea conjugada al shift en \{0,1,\ldots,n-1\}^\mathbb{N} (que tiene entropía \log(n)) no es dificil.

    Che, ¿esto no muestra que los shifts de distinta cantidad de símbolos no son conjugados topológicamente?

    Algo que me confunde: ¿De que manera es intuitivo que un expansivo minimiza la entropía en su clase de isotopía (parecen de lo más complicado posible)?

  5. Je… no paramos.

    Si, una de las aplicaciones de la entropia es mostrar que los shifts no son conjugados. Hay un reciproco que es el Teorema de Ornstein (no conozco mucho, pero hay una entrada en Scholarpedia, http://www.scholarpedia.org/article/Ornstein_theorem ).

    La otra pregunta me parece que esta buenisima… Nunca lo pense, pero de hecho te diria que no se sabe si es cierto eso. En particular, si se supiese, dado que un expansivo tiene entropia positiva saldria como corolario que no hay expansivos en S^2.

    En dimension dos se sabe que es cierto el resultado que decis, y tiene que ver con la clasificacion de Lewowicz (para los Anosov y Pseudo-Anosov se sabia el resultado por Thurston). En este caso el resultado vale por lo siguiente, si bien los expansivos son complicados, al perturbarlos “persisten”, que no es exactamente que sean semiconjugados a las perturbaciones, pero algo tiene que ver, entonces, los homeos isotopicos van a “contenter” la dinamica del expansivo, y probablemente mas cosas y por lo tanto tener mas entropia o igual.

    Ahora que tiras el tema, creo que estaria bueno hablarlo con Lewowicz porque hace poco saco un trabajo donde estudiaba la persistencia de homeomorfismos expansivos, cpaz por ese lado puede pintar algo sobre la respuesta a tu pregunta, estaria buenisimo!!! en particular, que yo sepa no se sabe si hay expansivos isotopicos a la identidad, y probar que no, no estaria nada mal!.

  6. Cuando dije que me parecía que los expansivos eran de lo más complicado posible, no estaba pensando en que tuvieran entropía positiva… pero ahora que lo decís, me parece que sería de lo más lógico que fuera cierto.

    ¿Que tipo de herramientas se podría usar para probar algo así?

    ¡¿El teorema de Manning?!

  7. A… creo que te entendí al revés y lo que no se sabe es si minimizan…

    Estuve leyendo un poquito lo Ornstein, resulta que, en el contexto de transformaciones que preservan la medida en algún espacio de probabilidad, se tiene un nocion recontra flexible de “factor” (es simplemente tomar cualquier función medible y utilizar el codominio con la medida “push-forward” como nuevo sistema). Y en cualquier sistema con entropía positiva conseguis un factor bernoulli que es responsable de la totalidad de la entropía.

    ¿Será posible imitar esas ideas en el caso de homeomorfismos o endomorfismos de espacios métricos compactos?

  8. Una forma de “imitar eso” sale del Teorema de Katok. Dice que si tenes un difeo C^{1+\alpha} en una superficie, con entropia positiva, entonces tenes subconjuntos invariantes conjugados a shifts con entropia arbitrariamente cercana a la entropia del propio difeomorfismo.

    No se que herramientas se podrian usar para probar ese tipo de cosas sobre los homeomorfismos expansivos. Ni siquiera se si son ciertas!, pero una idea, que fue la que tire el otro dia es la de usar un resultado de Lewowicz que dice que si perturbas C^0 un expansivo, entonces toda orbita futura del expansivo es sombreada por una orbita del perturbado… Creo que eso daria como que es un minimo local, cpaz puede servir.

  9. Me preocupé un poco porque creo que ese teorema de Katok trata de entropía en el sentido de la medida, no entropía topológica.

    Sin embargo al final para sistemas expansivos existe una medida en la cual son iguales.

    http://www.scholarpedia.org/article/Bowen-Margulis_measure

    Está interesante lo de Lewowicz que decís. Pero creo que tienen hipótesis adicionales para que una órbita sea sombreada (que tiene que ver con las variedades estables e inestables a lo largo de la órbita).

    Lo pude ver y todo porque ahora con el portal Timbó tenemos acceso a pila de articulos (todos los de springer por ejemplo, entre los cuales esta Journal of Dynamics…).

    Che, ¿Como se prueba que los expansivos tienen entropía positiva?

  10. se usa una definicion equivalente de entropia, que usa \epsilon,n-separadores en vez de generadores. La idea es muy simple entonces,
    basta observar que la distancia d_n es creciente respecto de n. En un espacio X continuo=compacto+conexo (si no el resultado es falso, ejerc. buscar contraej), siempre hay un conexo estable o un conexo inestable no trivial para algun punto. Ese conexo generara entropia, de la siguiente manera. Por expansividad hay un N tal que si d(x,y) mayor que a/4 entonces d_N(x,y) mayor que a, eso produce la existencia de 4 puntos a/4-separados respecto de d_N en ese continuo inestable, pero entonces la d_{2N} distancia de esos 4 puntos sera mayor que a, lo que producira 16 puntos a/4 separados, es facil ver que esto producira entropia positiva. saluditos

  11. […] que necesariamente vamos a utilizar, es la entropía. La entropía topológica es tratada en este post. La entropía métrica tiene (al igual que la topológica) una definición bastante involucrada, […]

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: