Feeds:
Entradas
Comentarios

Posts Tagged ‘David Hilbert’

En el programa de Hilbert estaba implícita la esperanza de que la noción sintáctica de la demostración captara la noción semántica de la verdad. Kurt Gödel se topó con el sorprendente descubrimiento de que este no era el caso de la teoría de tipos y lenguas relacionadas adecuadas para la aritmética, siempre que se insistan en las siguientes suposiciones:

  1. El conjunto de teoremas (enunciados probables) es efectivamente enumerable, en virtud de la noción de la prueba que es decidible.
  2. El conjunto de afirmaciones verdaderas de la matemática es ω-completo en el siguiente sentido: dada cualquier fórmula φ(x), que contiene una variable libre x de tipo N, la sentencia universal ∀x ε N, φ(x) será verdadera si φ(n) Es verdadera para cada número n.
  3. El lenguaje es consistente.

En realidad, Gödel también hizo una suposición algo más fuerte, que, como el matemático estadounidense John Barkley Rosser más tarde mostró, podía ser reemplazada asumiendo la consistencia. El ingenioso argumento de Gödel se basó en la observación de que las declaraciones sintácticas sobre el lenguaje de la matemática pueden traducirse en declaraciones de la aritmética, por lo tanto, en el lenguaje de la matemática. Fue inspirado en parte por un argumento que supuestamente se remonta a los antiguos griegos y que fue algo como esto: Epiménides dice que todos los cretenses son mentirosos; Epiménides es un cretense; por lo tanto Epiménides es un mentiroso. Bajo los supuestos 1 y 2, Gödel construyó una declaración matemática g que es verdadera pero no demostrable. Si se supone que todos los teoremas son verdaderos, se deduce que ni g ni ¬g es un teorema.

Ningún matemático duda de la suposición 1. Al mirar una supuesta prueba de un teorema, adecuadamente formalizado, es posible para un matemático, o incluso para un ordenador, decir si es una prueba. Al enumerar todas las pruebas en, digamos, orden alfabético, se obtiene una enumeración efectiva de todos los teoremas. Los matemáticos clásicos también aceptan la suposición 2 y, por tanto, de mala gana acuerdan con Gödel que, contrariamente a la expectativa de Hilbert, hay verdaderas declaraciones matemáticas que no son demostrables.

Sin embargo, los intuicionistas moderados podrían sacar una conclusión diferente, porque no están comprometidos con la suposición 2. Para ellos, la verdad de la afirmación universal ∀x ε N, φ(x) sólo puede conocerse si se conoce la verdad de φ(n) para cada número natural n, de manera uniforme. Este no sería el caso, por ejemplo, si la prueba de φ(n) aumenta en dificultad, por lo tanto en longitud, con n. Por lo tanto, los intuicionistas moderados podrían identificar la verdad con la probabilidad y no sentirse molestados por el hecho de que ni g ni ¬g sean verdaderos, ya que en primer lugar no creerían en el principio del tercero excluido.

Los intuicionistas siempre han creído que, para que una declaración sea verdadera, su verdad debe ser cognoscible. Por otra parte, los intuicionistas moderados podrían conceder a los formalistas que decir que una afirmación se sabe que es verdadera es decir que se ha demostrado. Sin embargo, algunos intuicionistas no aceptan el argumento anterior. Al afirmar que la matemática es independiente del lenguaje, los intuicionistas afirmarían que en la demostración metamatemática de Gödel de su teorema de la incompletitud, citar la ω-completitud para establecer la verdad de una declaración universal produce después de todo una prueba uniforme de ésta última.

Gödel se consideraba un platónico, en la medida en que creía en una noción de verdad absoluta. Él tomó por hecho, como hacen muchos matemáticos, que el conjunto de afirmaciones verdaderas es ω-completo. Otros lógicos son más escépticos y quieren reemplazar la noción de verdad por la de la verdad en un modelo. De hecho, el propio Gödel, en su teoría de la integridad, había demostrado que para que un enunciado matemático fuera demostrable es necesario y suficiente que sea cierto en cada modelo. Su teorema de la incompletitud demostró ahora que la verdad en cada modelo ω-completo no es suficiente para la demostración.

Read Full Post »

Quizás la contribución más importante a los fundamentos de la matemática hecha por los antiguos griegos fue el método axiomático y la noción de demostración. Esto fue enfatizado en la Academia de Platón y alcanzó su punto más alto en Alejandría alrededor del año 300 a.C. con los Elementos de Euclides. Esta noción sobrevive hoy, excepto por algunos cambios cosméticos.

La idea es ésta: hay una serie de verdades matemáticas básicas, llamadas axiomas o postulados, de las cuales se pueden derivar otras afirmaciones verdaderas en un número finito de pasos. Puede ser necesario un considerable ingenio para descubrir una demostración. Pero ahora se sostiene que debe ser posible comprobar mecánicamente, paso a paso, si una pretendida prueba es realmente correcta, y hoy en día una computadora debe ser capaz de hacer esto. Los enunciados matemáticos que se pueden probar son llamados teoremas, y se deduce que, en principio, un dispositivo mecánico, como un ordenador moderno, puede generar todos los teoremas.

Dos preguntas sobre el método axiomático fueron dejadas sin respuesta por los antiguos: ¿son todas las verdades matemáticas axiomas o teoremas? (esto se conoce como completitud), y ¿se puede determinar mecánicamente si una determinada afirmación es un teorema? (esto se llama decibilidad). Estas preguntas fueron planteadas implícitamente por David Hilbert (1862-1943) alrededor del 1900 y fueron resueltas más tarde por la negativa: la completitud en manos del lógico austro-americano Kurt Gödel (1906-1978) y la decibilidad en manos del lógico estadounidense Alonzo Church (1903-95) .

El trabajo de Euclides se ocupaba de teoría de números y geometría, esencialmente toda la matemática entonces conocida. Desde mediados del siglo XX, un grupo gradualmente cambiante de matemáticos en su mayoría franceses bajo el seudónimo de Nicolas Bourbaki ha tratado de emular a Euclides en la escritura de un nuevo Elementos de Matemática basado en su teoría de las estructuras. Desafortunadamente, apenas esbozaron las nuevas ideas de la teoría de la categoría.

Read Full Post »

El interés en los sistemas axiomáticos a principios de siglo derivó en sistemas de axiomas para las estructuras algebraicas conocidas, que, por ejemplo, para la teoría de cuerpos fue desarrollado por el matemático alemán Ernst Steinitz en 1910. La teoría de anillos (estructuras en las que es posible sumar, restar y multiplicar pero no necesariamente dividir) fue mucho más difícil de formalizar. Es importante por dos razones: la teoría de los enteros algebraicos forma parte de ella, porque los enteros algebraicos se forman naturalmente en anillos; y (como habían argumentado Kronecker y Hilbert) la geometría algebraica forma otra parte. Los anillos que surgen allí son anillos de funciones definibles sobre curvas, superficies o variedades, o son definibles en partes específicas de las mismas.

Los problemas de la teoría de números y de la geometría algebraica son a menudo muy difíciles, y era la esperanza de matemáticos como Noether, que trabajó para producir una teoría formal y axiomática de los anillos, que trabajando en un nivel más enrarecido la esencia de problemas concretos se mantendría mientras que las características especiales problemáticas se alejarían. Esto haría la teoría formal tanto más general como más fácil, y en cierta sorprendente medida estos matemáticos tuvieron éxito.

Otro giro en el desarrollo vino con el trabajo del matemático estadounidense Óscar Zariski, que había estudiado con la escuela italiana de geómetras algebraicos, pero llegó a sentir que su método de trabajo era impreciso. Él elaboró un programa detallado por el cual cada tipo de configuración geométrica podía redescribirse en términos algebraicos. Su trabajo logró producir una teoría rigurosa, aunque algunos, en particular Lefschetz, sintieron que se había perdido de vista la geometría en el proceso.

El estudio de la geometría algebraica era susceptible a los métodos topológicos de Poincaré y Lefschetz siempre y cuando las variedades estuvieran definidas por ecuaciones cuyos coeficientes fueran números complejos. Pero, con la creación de una teoría abstracta de cuerpos, era natural querer una teoría de variedades definida por ecuaciones con coeficientes en un cuerpo arbitrario. Esto fue proporcionado por primera vez por el matemático francés André Weil, en su obra “Foundations of Algebraic Geometry” (1946), de una manera que dibujó en la obra de Zariski sin suprimir la apelación intuitiva de conceptos geométricos. La teoría de Weil de las ecuaciones polinómicas es el lugar apropiado para cualquier investigación que intente determinar qué propiedades de un objeto geométrico se pueden derivar solamente por medios algebraicos. Pero queda atormentadamente corta en un tema de importancia: la solución de ecuaciones polinómicas en números enteros. Este fue el tema que Weil abordó a continuación.

La dificultad central es que en un cuerpo es posible dividir pero en un anillo no. Los números enteros forman un anillo pero no un cuerpo (dividir 1 por 2 no produce un número entero). Pero Weil demostró que versiones simplificadas (planteadas sobre un cuerpo) de cualquier pregunta sobre soluciones enteras para polinomios podían ser provechosamente hechas. Esto transfirió las preguntas al dominio de la geometría algebraica. Para contar el número de soluciones, Weil propuso que, puesto que las preguntas eran ahora geométricas, deberían ser susceptibles a las técnicas de la topología algebraica. Este fue un movimiento audaz, ya que no estaba disponible una teoría adecuada de la topología algebraica, pero Weil conjeturaba los resultados que debería producir. La dificultad de las conjeturas de Weil puede juzgarse por el hecho de que la última de ellas fue una generalización a este escenario de la famosa hipótesis de Riemann sobre la función zeta, y rápidamente se convirtieron en el foco de atención internacional.

Weil, junto con Claude Chevalley, Henri Cartan, Jean Dieudonné y otros, crearon un grupo de jóvenes matemáticos franceses que comenzaron a publicar prácticamente una enciclopedia de matemática bajo el nombre de Nicolas Bourbaki, tomado por Weil de un obscuro general de la guerra franco-alemana. Bourbaki se convirtió en un grupo auto-seleccionable de jóvenes matemáticos que eran fuertes en álgebra, y los miembros de Bourbaki estaban interesados en las conjeturas de Weil. Al final tuvieron éxito. Se desarrolló un nuevo tipo de topología algebraica y se probaron las conjeturas de Weil. La hipótesis generalizada de Riemann fue la última en rendirse, establecida por el belga Pierre Deligne a principios de los años setenta. Curiosamente, su resolución todavía deja sin resolver la hipótesis original de Riemann.

Bourbaki fue una figura clave en el replanteamiento de la matemática estructural. La topología algebraica fue axiomatizada por Samuel Eilenberg, matemático estadounidense de origen polaco y miembro de Bourbaki, y el matemático estadounidense Norman Steenrod. Saunders Mac Lane, también de Estados Unidos, y Eilenberg extendieron este enfoque axiomático hasta que muchos tipos de estructuras matemáticas se presentaron en familias, llamadas categorías. Por lo tanto, había una categoría que consistía de todos los grupos y todos los mapeos entre ellos que preservan la multiplicación, y había otra categoría de todos los espacios topológicos y todos los mapeos continuos entre ellos. Hacer topología algebraica era transferir un problema planteado en una categoría (la de los espacios topológicos) a otra (usualmente la de los grupos o anillos conmutativos). Cuando se creó la topología algebraica correcta para las conjeturas de Weil, el matemático francés nacido en Alemania Alexandre Grothendieck, un Bourbaki de enorme energía, produjo una nueva descripción de la geometría algebraica. En sus manos se infundió el lenguaje de la teoría de categorías. La ruta de la geometría algebraica se convirtió en la más empinada de todos los tiempos, pero las vistas desde la cumbre tienen una naturalidad y una profundidad que han llevado a muchos expertos a preferirla a las formulaciones anteriores, incluyendo a la de Weil.

La formulación de Grothendieck hace de la geometría algebraica el estudio de las ecuaciones definidas sobre anillos en lugar de cuerpos. En consecuencia, plantea la posibilidad de que preguntas sobre los enteros se puedan responder directamente. Basándose en el trabajo de los matemáticos de Estados Unidos, Francia y Rusia, el alemán Gerd Faltings reivindicó triunfalmente este enfoque cuando resolvió la conjetura del inglés Louis Mordell en 1983. Esta conjetura afirma que casi todas las ecuaciones polinomiales que definen curvas tienen a lo sumo una cantidad finita de soluciones racionales.

Mientras tanto, Gerhard Frey, de Alemania, había señalado que, si el último teorema de Fermat es falso, de modo que hay números enteros u, v, w tales que u^{p}+v^{p}=w^{p} con p mayor que 5), entonces para estos valores de u, v, p la curva

y^{2}=x(x-u^{p})(x+v^{p})

tiene propiedades que contradicen las conjeturas mayores de los matemáticos japoneses Taniyama Yutaka y Shimura Goro sobre curvas elípticas. La observación de Frey, refinada por Jean-Pierre Serre de Francia y probada por el americano Ken Ribet, significó que para 1990 las conjeturas no probadas de Taniyama fueran conocidas por implicar el último teorema de Fermat.

En 1993, el matemático inglés Andrew Wiles estableció las conjeturas de Shimura-Taniyama en una amplia gama de casos que incluían la curva de Frey y, por tanto, el último teorema de Fermat, una hazaña importante incluso sin la conexión con Fermat. Pronto quedó claro que el argumento tenía un serio defecto. Pero en mayo de 1995 Wiles, asistido por otro matemático inglés, Richard Taylor, publicó un enfoque diferente y válido. Al hacerlo, Wiles no sólo resolvió las conjeturas más famosas en matemática, sino que también triunfantemente reivindicó los sofisticados y difíciles métodos de la moderna teoría de números.

Read Full Post »

Older Posts »