Feeds:
Entradas
Comentarios

Posts Tagged ‘Andrey Kolmogorov’

La teoría de la probabilidad, que se fundó en los estudios del siglo XVII de Blaise Pascal  y Pierre de Fermat, se convirtió en uno de los temas matemáticos más importantes e influyentes del siglo XX. El trabajo de Andrei Markov aportó algunos conceptos fundamentales a la disciplina de la probabilidad, y las llamadas cadenas de Markov han sido uno de los conceptos probabilísticos más utilizados en la ciencia y la estadística.

Andrei Markov nació el 14 de junio de 1856 en Ryazan, Rusia. Se graduó de la Universidad de San Petersburgo en 1878 y se convirtió en profesor de matemática en 1886. Sus primeros esfuerzos de investigación se centraron en la teoría de números y el análisis, y abordaron temas como las fracciones continuas y la convergencia de series infinitas. 

Después de 1900, Markov recurrió cada vez más a la teoría de la probabilidad, en la que lograría su mejor trabajo. Siguiendo los pasos de su maestro Pafnuty Lvovich Chebyshev, Markov aplicó su conocimiento de fracciones continuas a la probabilidad. Comenzó el estudio de las relaciones entre variables aleatorias dependientes, lo que sería muy importante para trabajar posteriormente en procesos estocásticos. Por ejemplo, Markov pudo probar el teorema del límite central, el resultado más importante de la estadística matemática, bajo supuestos más generales sobre la estructura de dependencia de las variables aleatorias que se están sumando. 

Estos resultados son de fundamental importancia para el estudio de series de tiempo, o datos ordenados cronológicamente, donde los valores futuros dependen, de manera estocástica, de los datos presentes y pasados. En particular, Markov inventó y estudió las cadenas de Markov, que son esencialmente secuencias de variables aleatorias en las que la estructura probabilística de un valor futuro solo depende de su predecesora inmediata. Desde entonces, esta estructura simple ha demostrado ser aplicable a una variedad de problemas científicos, al mismo tiempo que es matemáticamente manejable. La invención de las cadenas de Markov constituye un primer paso en el estudio de los procesos estocásticos, por lo que Markov es posiblemente el fundador de esta importante rama de la probabilidad. Más tarde, a principios del siglo XX, Norbert Wiener y Andrei Kolmogorov generalizarían los primeros trabajos de Markov sobre procesos estocásticos.

Markov murió el 20 de julio de 1922 en San Petersburgo, Rusia. Representa un vínculo importante en la secuencia de los grandes probabilistas rusos, incluidos Chebyshev y Kolmogorov. El trabajo de Markov está citado en gran medida en la teoría de la probabilidad y ahora es clásico por su importancia e influencia.

 


Fuente bibliográfica:

  • McElroy, Tucker (2005) A to Z of Mathematicians. Facts On File, Inc.

 

Read Full Post »

En 1859 murió Dirichlet y Riemann se convirtió en profesor titular, pero ya estaba enfermo de tuberculosis, y en 1862 su salud se quebrantó. Murió en 1866. Sin embargo, su obra ejerció una creciente influencia sobre sus sucesores. Su trabajo sobre series trigonométricas, por ejemplo, condujo a una investigación más profunda de la cuestión de cuándo una función es integrable. La atención se concentró en la naturaleza de los conjuntos de puntos en los que las funciones y sus integrales (cuando éstas existían) tenían propiedades inesperadas. Las conclusiones que surgieron fueron al principio oscuras, pero quedó claro que algunas propiedades de los conjuntos de puntos eran importantes en la teoría de la integración, mientras que otras no. (Estas otras propiedades resultaron ser una parte vital del tema emergente de la topología.) Las propiedades de los conjuntos de puntos que importan en la integración tienen que ver con el tamaño del conjunto. Si uno puede cambiar los valores de una función en un conjunto de puntos sin cambiar su integral, se dice que el conjunto es de tamaño despreciable. La idea ingenua es que la integración es una generalización del proceso de conteo: conjuntos insignificantes no necesitan ser contados. El matemático francés Henri-Léon Lebesgue logró sistematizar esta ingenua idea en una nueva teoría sobre el tamaño de los conjuntos, que incluía la integración como un caso especial. En esta teoría, llamada teoría de la medida, hay conjuntos que pueden medirse, o bien tienen una medida positiva o son insignificantes (tienen medida cero), y hay conjuntos que no pueden medirse en absoluto.

El primer éxito de la teoría de Lebesgue fue que, a diferencia de la integral de Cauchy-Riemann, obedecía la regla de que si una sucesión de funciones f_{n}(x) tiende adecuadamente a una función f(x), entonces la sucesión de integrales \int f_{n}(x)\ dx tiende a la integral \int f(x)\ dx. Esto la ha convertido en la teoría natural de la integral cuando se trata de preguntas sobre series trigonométricas. Otra ventaja es que es muy general. Por ejemplo, en la teoría de la probabilidad es deseable estimar la probabilidad de ciertos resultados de un experimento. Mediante la imposición de una medida en el espacio de todos los resultados posibles, el matemático ruso Andrey Kolmogorov fue el primero en poner la teoría de la probabilidad en un riguroso fundamento matemático.

Otro ejemplo es proporcionado por un notable resultado descubierto por el matemático americano del siglo XX, Norbert Wiener: en el conjunto de todas las funciones continuas en un intervalo, el conjunto de funciones diferenciables tiene medida cero. En términos probabilísticos, por lo tanto, la probabilidad de que una función tomada al azar sea diferenciable tiene probabilidad cero. En términos físicos, esto significa que, por ejemplo, una partícula moviéndose bajo movimiento browniano casi con seguridad se está moviendo en un camino no-diferenciable. Este descubrimiento aclaró las ideas fundamentales de Albert Einstein sobre el movimiento browniano (exhibido por el movimiento continuo de partículas de polvo en un fluido bajo el bombardeo constante de las moléculas circundantes). La esperanza de los físicos es que la teoría de la electrodinámica cuántica de Richard Feynman cederá a un tratamiento similar a la teoría de la medida, porque tiene el aspecto perturbador de una teoría que no se ha hecho rigurosamente matemática, sino que coincide excelentemente con la observación.

Wiener

Wiener

Feynman

Feynman

Otro escenario para las ideas de Lebesgue fue el de la teoría de los grupos de Lie. El matemático húngaro Alfréd Haar mostró cómo definir el concepto de medida para que las funciones definidas en los grupos de Lie pudieran ser integradas. Esto se convirtió en una parte crucial de la manera de Hermann Weyl de representar un grupo de Lie actuando linealmente en el espacio de todas las funciones (adecuadas) en el grupo (por razones técnicas, significa que el cuadrado de la función es integrable con respecto a una medida de Haar en el grupo).

Alfréd Haar

Alfréd Haar

Hermann Weyl

Hermann Weyl

 

Read Full Post »