A Godfrey Harold Hardy se le considera, sin duda, uno de los grandes matemáticos ingleses. Nacido en 1877 vivió uno de los periodos más fructíferos de las matemáticas y como él mismo dijo, dedicó todos sus esfuerzos a esta disciplina. Era una persona un poco excéntrica y permaneció toda su vida soltero, por lo que se le asoció la condición de homosexual. En realidad nadie lo sabe y no hay indicios en absoluto de ello. Las personas que han dicho eso de él, sin duda lo han juzgado desde una perspectiva actual, pero pensemos que toda su vida estuvo vinculado al Trinity College de Cambridge, salvo un año de estancia en Princeton y sus primeros 12 años de estudios en Oxford, y que esas instituciones eran absolutamente masculinas con un rancio aroma misógino entre cuyos miembros más selectos no se veía bien el estar casado. Algo parecido al sacerdocio, pero por la ciencia.
Hardy fue mentor de grandes matemáticos como el indio Srinivasa Ramanujan (sobre el que se realizó la película "El hombre que conocía el infinito", si no la has visto, deja de leer esto ahora mismo, búscala y ponte a verla) o John E. Littlewood del que hablaremos ahora mismo.

Hardy y Littelword, en cierta manera, se obsesionaron con la Hipótesis de Riemann y su demostración. Realmente, no hay matemático en este mundo que no le haya dado alguna vuelta al tema. Hardy en 1914 obtuvo un resultado impresionante en su artículo titulado "Sur les zéros de la fonction 𝜁(s) de Riemann" que publicó en la revista "Comptes Rendus" de la Academia de Ciencias de París; probó que infinitos ceros de la función 𝜁(s) (zeta de Riemann) satisfacían la Hipótesis de Riemann. Dicho así de pronto, parece que demostró la hipótesis, y aunque se acercó mucho, no se trata de una demostración completa. Dicho de otro modo, demostró lo que enuncia la hipótesis pero deja sueltos algunos flecos que deberían ser demostrados todavía:
- Puede ser que haya además infinitos ceros no triviales cuya parte real sea distinta de 1/2.
- Puede ser que haya algunos ceros no triviales cuya parte real sea distinta de 1/2.
- No se puede asegurar que no haya ceros no triviales cuya parte real sea distinta de 1/2.
El avance de esa demostración es impresionante y aunque no la pondremos aquí, sí podemos decir que se basa en la idea de que si una función f(x) ∈ C1 [a,b], es decir si sus derivadas son continuas, y además f(x)≠ 0 en a ≤ x ≤b; entonces se cumple:
pero si esta relación se incumpliera para algún x, podríamos decir que f(x) tiene un cero en el intervalo [a,b]. Vemos por tanto que la demostración se basa en una contradicción, pero lo genial de Hardy en este caso fue encontrar unos buenos límites para la integral que condujesen a la contradicción deseada.
Vayamos ahora con la contribución de John E. Littlewood. Antes de nada podemos decir que aunque discípulo y buen amigo de Hardy, era totalmente diferente en su vida personal. Sirvió como artillero del ejército británico durante la I Guerra Mundial, era deportista en diversas disciplinas, le encantaba bailar y las relaciones públicas no se le daban nada mal. Comulgó con la vieja idea de los miembros del Trinity, ya que nunca se casó, y ocupó durante 65 años las mismas habitaciones del mencionado College. Se piensa que tuvo dos hijos.
Si dibujábamos las curvas veíamos que
Li(x) (línea roja) siempre quedaba por encima de
𝜋(x), acercándose cada vez más, por lo que el error relativo cada vez era menor.
Si ponemos en una tabla los errores absolutos y relativos teniendo en cuenta que:
Nos queda (Una tabla más completa puede encontrarse en Wikipedia
PNM):
Ha de decirse que los matemáticos, en lo que a esta hipótesis se refiere, fijan tanto su atención en los términos de error no es por otra cosa que porque Riemann en su famoso artículo relacionó estos términos con los ceros no triviales.
Observamos que el error absoluto aumenta, no lo hace tan increíblemente rápido como lo hace 𝜋(x), pero lo más importante es que el error relativo sí que parece tender a cero, aunque no tan rápido como esperaríamos. La cuestión aquí, es ¿realmente estos números siguen esa tendencia o por alguna razón para cantidades muy, muy, muy altas de x cambia la tendencia? En principio parece que no, pero para estar seguros hemos de demostrarlo matemáticamente.
Una buena manera de comenzar sería quitar la primera y cuarta columnas de la tabla y tratar las dos columnas que quedan como si fuera una función (argumento y valor). ¿Podríamos encontrar alguna fórmula que relacionara 𝜋(x) y Error Absoluto? Dicho de otra manera: ¿Podríamos encontrar algún resultado para el término Error Absoluto (Li(x)-𝜋(x))?
Como podemos observar el Error Absoluto Li(x)-𝜋(x) parece que siempre es positivo, así aparece en la tabla que llega hasta el trillón y en la gráfica superior donde la curva de color rojo siempre está por encima de la de color negro. ¡Eso mismo pensaba Gauss, el príncipe de las matemáticas! Todo esto se reveló falso cuando Littlewood con un resultado impactante en su artículo de 1914 "Sur la distribución des nombres premiers" para "Comptes Rendus", la misma revista en la que Hardy había publicado unos meses antes su famosa demostración, probó que esto no era así. Algunas veces Li(x) era mayor que 𝜋(x) y otra veces ocurría lo contrario. Es decir que el Error Absoluto (Li(x)-𝜋(x)) muchas veces era positivo y otras muchas negativo, o sea, que las líneas roja y negra de la gráfica se cruzaban muchas veces.
¿Cuántas veces..?
Infinitas.
¡Pero qué cosa más increíble! El Resultado de Littlewood decía lo siguiente:
Li(x)-𝜋(x) cambia de positivo a negativo y viceversa infinitas veces
¿Cómo puede ser eso? Todos los matemáticos se pusieron a calcular dónde se producía este primer cruce de positivo a negativo, ni con los ordenadores más potentes del mundo pudieron comprobarlo. ¡Pero la demostración era correcta!
Si miramos en la tabla, la columna del Error Absoluto parece crecer sin parar, ¿Como es posible que en algún momento empiece a decrecer hasta hacerse negativo? ¡Toda la lógica parecía estar resquebrajándose!
Una especie de alivio llegó de la mano de Samuel Skewes, estudiante de Littlewood que pudo demostrar con la condición de que la Hipótesis de Riemann fuera verdadera que el primer punto donde Li(x) y 𝜋(x) se cruzarían (límite superior) sería antes de:
Este es un número es tremendamente grande, no lo podemos ni siquiera imaginar:
A esta monstruosidad se le denominó el número de Skewes, y hasta ahora es el número más alto conocido que sale de manera natural de una demostración matemática. Con el tiempo, se ha ido refinando esta búsqueda donde se cruzan ambas gráficas y se ha llegado a una conclusión más modesta. En el año 2000, por ejemplo, Carter Bays y Richard Hudson llegaron a las conclusiones:
Para concluir podemos decir que la gráfica del Error Absoluto siempre está por debajo de un valor. El matemático sueco Helge von Koch en 1901 probó el siguiente resultado:
Y que entendemos perfectamente su significado puesto que en la
entrada anterior del blog vimos lo que era la función "Big Oh". Lo que choca de la conclusión de
von Koch es: "Si la Hipótesis de Riemann es cierta". Puede parecer un contrasentido, pues estamos intentando demostrarla, pero no lo es pues la prueba no se fundamenta en esta expresión, que lo que hace únicamente es ayudarnos a entender bien el comportamiento de la función
𝜁(s) . Existen otras expresiones que no dependen de si la hipótesis de Riemann es verdadera o no, pero son fórmulas mucho más complicadas como por ejemplo:
y que lo único que hacen es complicarlo todo un poco más. Tenemos que ir a lo simple e intentar entender qué es lo que realmente está pasando ahí. Por lo tanto nos quedamos con la conclusión de
von Koch, pues la función dentro de la "Big Oh" es bastante sencilla de manipular matemáticamente y representar gráficamente:
En la próxima entrada al blog recapitularemos, descansaremos un poco de tanta matemática y veremos que es lo que se ha conseguido con ayuda de los ordenadores.
No hay comentarios:
Publicar un comentario