La Academia de las Ciencias y las Letras de Noruega otorgó en Oslo el premio Abel, considerado el Nobel de las Matemáticas, al ruso nacionalizado francés Mikhail Leonidovich Gromov, responsable de la mayoría de los avances registrados por la geometría en el último medio siglo. Gromov, de 65 años y considerado uno de los matemáticos más importantes en la actualidad, fue premiado por sus contribuciones "revolucionarias" a la geometría, aunque sus ideas generales, "profundamente originales"
Entre los siglos XIX y XX la teoría de grupos se ramificó, formando el núcleo del álgebra actual, compuesto por una serie de teorías como: los grupos finitos, los grupos discretos infinitos, los grupos continuos, entre ellos los grupos de Lie. Durante los años 1870 y 1920, la teoría de grupos fue menos dominante que en la época de Poincaré. Los métodos teóricos de grupos se aplicaron a otras disciplinas, aportando en los descubrimientos relacionados con la teoría de la estructura de la materia, la física moderna, como los estudios realizados por De Broglie, Schrödinger, Dirac y otros.
Otro hito importante en el siglo XX fue la obra lógica de Gödel1, que hay que relacionar desde el principio con el programa formalista de Hilbert. En su tesis doctoral "La completitud de los axiomas del cálculo funcional de primer orden", resolvía un problema pendiente, que David Hilbert y Wilhelm Ackermann habían planteado en un libro que escribieron conjuntamente en 1928, Grundzüge der theoretischen Logik (Fundamentos de la Lógica Teórica). La cuestión consistía en si las reglas del uso, enunciadas en el libro, para la manipulación de expresiones que contengan conectivos lógicas ("y", "o", y similares) y cuantificadores ("para todo" y "existe", aplicadas a variables que recorren números o conjuntos) permitirían, adjuntados a los axiomas de una teoría matemática, la deducción de todas y sólo todas las proposiciones que fueran verdaderas en cada estructura que cumpliera los axiomas. En lenguaje llano, ¿sería realmente posible demostrar todo cuanto fuera verdadero para todas las interpretaciones válidas de los símbolos?
Se esperaba que la respuesta fuese afirmativa, y Gödel confirmó que así era. Su disertación estableció que los principios de lógica desarrollados hasta aquel momento eran adecuados para el propósito al que estaban destinados, que consistía en demostrar todo cuanto fuera verdadero basándose en un sistema dado de axiomas. No demostraba, sin embargo, que todo enunciado verdadero referente a los números naturales pudiera demostrarse a partir de los axiomas aceptados de la teoría de los números.
El teorema de completitud de Gödel enuncia que es posible demostrar todos aquellos enunciados que se siguen de los axiomas. Existe, sin embargo, una dificultad: si algún enunciado fuese verdadero para los números naturales, pero no lo fuese para otro sistema de entidades que también satisface los axiomas, entonces no podría ser demostrado. Ello no parece constituir un problema serio, porque los matemáticos confiaban en que no existieran entidades que se disfrazasen de números para diferir de ellos en aspectos esenciales. Por este motivo, el teorema de Gödel que vino a continuación provocó auténtica conmoción.
4En su artículo de 1931, Gödel demostraba que ha de existir algún enunciado concerniente a los números naturales que es verdadero, pero no puede ser demostrado. (Es decir, que existen objetos que obedecen a los axiomas de la teoría de números y, no obstante, en otros aspectos dejan de comportarse como números). Se podría eludir este "teorema de incompletitud" si todos los enunciados verdaderos fueran tomados como axiomas. Sin embargo, en ese caso, la decisión de si ciertos enunciados son verdaderos o no se torna problemática a priori. Gödel demostró que siempre que los axiomas puedan ser caracterizados por un sistema de reglas mecánicas, resultan indiferente cuáles sean los enunciados tomados como axiomas. Si son verdaderos para los números naturales, algunos otros enunciados verdaderos acerca de los números naturales seguirán siendo indemostrables.
En particular, si los axiomas no se contradicen entre sí, entonces, ese hecho mismo, codificado en enunciado numérico, será "formalmente indecidible" -esto es, ni demostrable ni refutable- a partir de dichos axiomas. Cualquier demostración de consistencia habrá de apelar a principios más fuertes que los propios axiomas.
Este último resultado apenó muchísimo a Hilbert, quien había contemplado un programa para fijar los fundamentos de las matemáticas por medio de un proceso "autoconstructivo", mediante el cual la consistencia de teorías matemáticas complejas pudiera deducirse de la consistencia de más sencillas y evidentes. Gödel, por otra parte, no consideraba que sus teoremas de incompletitud demostrasen la inadecuación del método axiomático, sino que hacían ver que la deducción de teoremas no puede mecanizarse. A su modo de ver, justificaban el papel de la intuición en la investigación matemática.
Los conceptos y los métodos introducidos por Gödel en su artículo sobre la incompletitud desempeñan un papel central en la teoría de recursión, que subyace a toda la informática moderna.
Los resultados de Gödel en teoría de conjuntos resolvieron una de las cuestiones que Hilbert había planteado en 1900 en una alocución célebre pronunciada en el Congreso Internacional de Matemáticas.
Durante los años 40 quedó superado el aislamiento de las ideas sobre funciones de variable compleja, merced sobre todo a los trabajos de B. Riemann2 en los cuales aparecían amplias analogías que vinculaban esta teoría con otros campos de las matemáticas. Fue a finales de siglo XIX y a comienzos del siglo XX cuando se unificaron conceptos, creando una concepción única general de la teoría de funciones de variable compleja.
La geometría pasó de las ideas de geometría analítica del siglo XVII, a la proyectiva del siglo XIX, hasta llegar a la geometría diferencial del siglo XX. La geometría diferencial es la aplicación del análisis a las curvas y superficies. Tuvo su desarrollo casi definitivo con Gastón Darboux, a comienzos del siglo XX.
La geometría integral combinatoria puede ser considerada como una generalización del problema primitivo de las agujas de Bufón, extendiéndolo al caso de varias agujas fijas en el plano, en posición arbitraria, y calculando las medidas de las rectas que cortan o separan a algunas de estas agujas.
En la década de los sesenta, la geometría integral volvió a interesar a las probabilidades, debido principalmente a una serie de importantes trabajos de R.E. Miles. Se volvió a las probabilidades geométricas, pero no en su sentido clásico, sino en el marco de los modernos desarrollos de la teoría de las probabilidades, sobre todo dentro de los procesos estocásticos. Se conocían los procesos de puntos -los procesos de Poisson, por ejemplo- y se trató de extender el concepto de procesos de rectas y a otros elementos geométricos. De esta forma nació la geometría estocástica.3
Los problemas que señalan en principio la aparición de este nuevo espíritu son los de funciones continuas y los teoremas de existencia. En particular, se creía que toda función continua era derivable en todos sus puntos, aparte quizá de un número finito o infinito de puntos excepcionales. Cauchy4 fue el primero, a comienzos del siglo XX, que se entregó a la tarea de dar una definición precisa de "función continua".
Respecto de los avances más significativos del análisis del siglo XX podría decirse que fueron, entre otros: el teorema de Carleson sobre la convergencia de las series trigonométricas, que puede ser considerado como una culminación del proyecto de análisis armónico delineado por Fourier, y el teorema de De Giorgi-Nash sobre la regularidad de las soluciones de ecuaciones elípticas, que inauguró la teoría no lineal y resolvió uno de los problemas planteados por Hilbert.
El siglo XX ha sido fértil en cuanto a la resolución de antiguos problemas abiertos, y en él se han logrado importantes avances. Vamos tan sólo a describir dos de los logros más interesantes: ambos son soluciones a problemas de más de trescientos años, que se obtuvieron al final de este siglo y en los que se logró el éxito gracias a desarrollos matemáticos previos.
Entre las soluciones de la ecuación pitagórica son de particular interés aquellas que consisten de números enteros, tales como la del hermoso triángulo rectángulo 3, 4, 5.
Fermat observó que, para cualquier exponente mayor que 2, la ecuación no debería tener soluciones con números enteros, y escribió en el margen, en latín, que había descubierto una prueba maravillosa de este hecho pero que ese margen era demasiado estrecho para que cupiera. Fermat escribió muchas anotaciones como esta en los márgenes de los libros que leía, y a lo largo de los años se fueron confirmando todas y cada una de ellas salvo el último teorema de Fermat.
Andrew Wiles se interesó en Fermat a los 19 años cuando conoció su teorema al leer una publicación en una biblioteca de Cambridge. Y fue ya entonces cuando decidió que algún día lo demostraría. Sin embargo, en 1986 supo de un gran avance: un colega, Ken Ribet, de la Universidad de California en Berkeley, había logrado relacionar el último teorema de Fermat con otro problema abierto, la conjetura de Taniyama-Shimura, una formulación sorprendente y brillante en geometría algebraica, que había sido propuesta en 1955. Para resumir una línea de razonamiento muy compleja, digamos que la relación descubierta por Ribet demostraba que de una solución (afirmativa) de la conjetura de Taniyama-Shimura se concluía una demostración del último teorema de Fermat, construyendo así un puente entre los intrincados mundos de las curvas elípticas y de las formas modulares, una suerte de diccionario que permite traducir preguntas e intuiciones entre los dos mundos. Todo esto significó para Wiles que su trabajo previo en teoría algebraica de números podía ser útil para resolver Fermat, y que tanto si lo lograba como si no, el intentarlo podría ser fuente de nuevos problemas interesantes.
Uno de estos es, desde luego, la resolución del último teorema de Fermat. Otro es la solución de la conjetura de Mordell, que afirma que cualquier ecuación polinómica de grado 4 o mayor con coeficientes racionales puede tener a lo sumo un número finito de soluciones racionales (la ecuación de Fermat no tiene ninguna solución de este tipo). Y un tercero es la solución de las conjeturas de Weil, que son los análogos de la hipótesis de Riemann para los cuerpos finitos. Todos estos éxitos reflejan la habilidad de los matemáticos para, a la vez, incorporar ideas de distintas y variadas subdisciplinas y para percibir a su disciplina como un todo.
Las colaboraciones entre la matemática y las otras ciencias pueden ser descritas a través de varios casos, pero tomemos sólo algunos de ellos: el estudio de la dinámica de fluidos. Era prácticamente imposible describir los complejos movimientos de los fluidos, como el flujo sanguíneo a través del corazón, entre otros, antes de que se descubriera la teoría de ecuaciones de Navier-Stokes, cuya aplicación permite describirlo. Otro ejemplo es la teoría de control, una rama de la teoría de sistemas dinámicos, que permite poner a prueba los diseños de aviones avanzados mediante simulaciones por ordenador.
Dice Phillip Griffiths en “Las matemáticas ante el nuevo milenio”5:
“A pesar de los tremendos logros de las matemáticas del siglo
XX, docenas de problemas notables todavía esperan solución. La mayoría
de nosotros estaremos de acuerdo en que los tres que comento a
continuación se encuentran entre los más estimulantes e interesantes.
La hipótesis de Riemann. El primero de todos es la hipótesis de
Riemann, que ha atormentado a los matemáticos durante 150 años. La
hipótesis de Riemann tiene que ver con el concepto de número primo, que
es la pieza básica de la aritmética. Un número primo es un número
entero positivo mayor que 1 que no puede dividirse por ningún número
positivo excepto por 1 y por sí mismo. La serie de los números primos
comienza con 2, 3, 5, 7, 11, 13, y continúa sin límite. Nada menos
que en el siglo III antes de Cristo, Euclides ya había demostrado que no
se podía hallar un número primo que fuera el más grande de todos ellos;
en otras palabras, que había infinitos números primos.
Pero, ¿siguen alguna pauta? En primera inspección uno podría
creer que los números primos van surgiendo aleatoriamente. Pero en el siglo XIX, el matemático alemán Bernhard Riemann
extendió la observación de Euclides y afirmó que no sólo había
infinitos números primos sino que se iban sucediendo según una pauta muy
sutil y precisa. Demostrar que esto es así (o que no lo es) es quizás
el problema más profundo que existe en la matemática pura.
El objetivo de los topólogos es identificar todas las variedades posibles, incluyendo la forma del universo, que es el tema de la conjetura de Poincaré. Esto es relativamente fácil en 2 dimensiones, y se consiguió al final del siglo XIX. El
criterio para comprobar si una variedad es una 2-esfera es muy simple.
Imagine el lector que coloca una goma elástica en la superficie de un
balón de fútbol. Si la goma se puede comprimir (sin salirse de la
superficie) hasta ocupar un solo punto, y esto en cualquier parte de la
superficie, el balón es una 2-esfera y decimos que es simplemente
conexa.
En 1904, Poincaré conjeturó que lo que es válido en 2
dimensiones lo sería también en 3 y que cualquier variedad de dimensión 3
que sea simplemente conexa (como el universo en que habitamos) ha de
ser una 3-esfera. Esto parece obvio, pero nadie ha sido capaz hasta
ahora de demostrar que no hay 3-esferas espurias, de manera que la
conjetura no ha sido resuelta. Por sorprendente que pueda parecer, la
conjetura análoga para dimensiones mayores que 3 sí ha sido comprobada,
pero la dimensión tres se resiste.
¿P=NP? Este problema, el tercero en nuestra lista, está
íntimamente ligado al problema filosófico de discriminar lo que se puede
llegar a conocer y lo que no. En 1931 el lógico Kurt Gödel (1906-1978), austríaco de nacimiento,
estableció que no se podía alcanzar la certeza absoluta en la
aritmética, suponiendo que la aritmética se fundamente en ciertas
propiedades de los números enteros.”
No sólo Griffiths, como mencionamos antes, se replanteó la lista de Hilbert. Como estamos en los inicios de un nuevo siglo, VI Arnold, en nombre de la Unión Matemática Internacional, solicitó a varios matemáticos que describieran algunos de los grandes problemas que podrían considerarse para el nuevo siglo. Steve Smale, medalla Fields en 1964 por probar la conjetura de Poincaré para dimensión mayor o igual que cinco, publicó un artículo donde plantea 18 problemas elegidos, con el deseo de que la cuestión, la búsqueda de su solución, o de los resultados parciales o totales, tengan importancia para el desarrollo de la matemática del este nuevo siglo. Entre ellos figuran la hipótesis de Riemann, la conjetura de Poincaré y la conjetura del Jacobiano.
Comentando un poco todos los esfuerzos realizados por los matemáticos para lograr demostrar la conjetura de Poincaré (1854-1912), diremos que, en 1904, él mismo enunció que el resultado obtenido para la esfera n=2 del espacio de dimensión 3 tenía un análogo para la esfera n=3 del espacio de dimensión 4. En otras palabras: en el espacio de dimensión 4, toda variedad de dimensión n=3, cerrada y simplemente conexa, sería homeomorfa a la esfera de dimensión n=3. Pero Poincaré no consiguió probar su conjetura. Tampoco ninguno de sus contemporáneos ni sucesores. Para n=1 la conjetura es trivial y para n=2 ya fue demostrada en el siglo XIX. Para n=5, hubo de esperar hasta 1961, a que lo hiciera Erik Christopher Zeeman. Ese mismo año Stephen Smale lo consiguió para n igual o mayor que 7 y, en 1962, John R. Stallings para el caso n=6. Los casos n=3 y n=4 se resistían y hubo que esperar a 1986 cuando, en lo que se consideró una hazaña matemática del estadounidense Michael Hartley Freedman, se consiguió demostrar el caso n=4. Pero aún hoy, a pesar de haberse resuelto con éxito para todas las demás dimensiones, el caso original n=3, planteado por Poincaré, no tiene solución. Con el tiempo, se convirtió en el problema abierto más notable de la topología geométrica, con destacables implicaciones para la física.
Existen algunos premios que incentivan a los matemáticos a pensar soluciones a los nuevos desafíos planteados para este nuevo siglo. Por ejemplo, en el año 2000, que fue declarado el año internacional de la matemática, y dentro de los actos celebrados por el Collège de France, en París, el Instituto de Matemáticas Clay, con sede en Cambridge (Massachussets), una fundación privada, sin ánimo de lucro, dedicada a estimular y divulgar el conocimiento de la matemática, ofreció un millón de dólares a cada uno de quienes resuelvan cualquiera de los nuevos enigmas fundamentales de una nueva lista de problemas. En este Millennium Prize Problem, una de las reglas del premio especifica que la solución propuesta deberá estar expuesta previamente, por un período de al menos dos años, al escrutinio de la comunidad matemática internacional. A los matemáticos que los resuelvan les proporcionará no sólo una considerable cantidad de dinero sino además un lugar sobresaliente en la historia de la matemática.Esto nos lleva a concluir que la generación de conocimientos matemáticos es continua y presenta constantemente nuevos desafíos y creaciones, propios de una ciencia en constante evolución y crecimiento.
1Kurt Gödel (1906-1976), lógico matemático norteamericano de origen alemán.
2Riemann, Bernhard (1826-1866) matemático alemán.
3Luis Santaló (1994), La matemática: una filosofía y una técnica, Ed Ariel.
4Augustin Cauchy (1789-1857), matemático francés. Realizó importantes estudios sobre las ecuaciones, la cuestión de la convergencia, el cálculo diferencial, la teoría de las probabilidades.
5Phillip Griffiths, del Institute for Advanced Study Princeton, N.J., USA: “Las matemáticas ante el cambio de milenio”, publicado en La Gaceta de la Real Sociedad Matemática Española, vol. 3, nº 1, enero-abril 2000, pp. 23-41.
No hay comentarios:
Publicar un comentario