ANÁLISIS NUMÉRICO. Influencia de errores.

Estándar

ANÁLISIS NUMÉRICO . Sistemas Numéricos.

Actividad 3 .Influencia de errores. 

  Introducción.

El desarrollo de la ciencia a partir del siglo XVIII, en particular en la Física y dentro de ésta en la Mecánica, llevaron lo que hoy se conoce como determinismo. El determinismo es una doctrina filosófica que sostienen que todo acontecimiento está casualmente determinado de manera que es posible determinar el estado de un sistema cualquiera siempre y cuando conozcamos su estado en un momento dado ya que considera que no hay azar. La visión del universo de esta doctrina es la del universo como un reloj en que los engranajes funcionan de manera ideal y sin ninguna irregularidad.

a)  Determinismo y el demonio de Laplace.

Uno de los conceptos representativos de esta doctrina filosófica, es el del demonio de Laplace. Pierre- Simon Laplace, fué un matemático y físico francés, que ha sido una de las figuras icónicas del determinismo y de predictibilidad, ya que sostenía que debemos considerar el estado actual del universo, como efecto de su estado anterior y como la causa del que debe seguirlo y que una inteligencia que en un instante dado conociera todas las fuerzas que animan a la naturaleza y la situación respectiva de los seres que la componen y que, por otra parte, fuera suficientemente amplia como para someter datos al análisis, abarcaría en la misma fórmula, los movimientos de los cuerpos más grandes del universo y la de los átomos más ligeros; nada sería incierto y tanto el futuro como el pasado, estarían presentes ante ella, es a esta inteligencia, a la que se llama, el demonio de Laplace.

La ciencia seguiría por este camino, pese a que se encontraban fenómenos que no se podían describir de manera determinista, se creía que en algún momento se tendrían los conocimientos necesarios para llegar a la solución, pero se encontraría un problema en particular para el que no se podía hallar una solución de este tipo, este problema es el de N cuerpo, el cual consiste en que dado un sistema formado

por N partículas con fuerzas de interacción conocidas, y dadas las condiciones iniciales de posición y velocidad, determinar la posición y velocidad de las partículas para cualquier instante de tiempo. Sería

Henri Poincaré, quien demostraría que no es posible hallar una solución con esas características y sería el primero en descubrir las primeras manifestaciones del comportamiento caótico de ciertos sistemas, lo que implica que el determinismo no implica predictibilidad de largo plazo, es decir, no conlleva el poder hacer predicciones precisas para el futuro distante.

b)El principio de incertidumbre de Heissenberg.

heisenberg

 http://www.astromia.com/biografias/heisenberg.htm

El principio de indeterminación, constituye uno de los puntales de la teoría cuántica. El principio formulado por el alemán Werner Heisenberg, demuestra que a nivel cuántico no es posible conocer de forma exacta el momento lineal y la posición de una partícula. O de forma más correcta, que es imposible conocer dichos valores más allá de cierto grado de certidumbre.

Heisenberg, uno de los primeros físicos teóricos del mundo, realizó sus aportaciones más importantes en la teoría de la estructura atómica. En 1925, comenzó a desarrollar un sistema de mecánica cuántica, denominado mecánica matricial, en el que la formulación matemática se basaba en las frecuencias y amplitudes de las radiaciones absorbidas y emitidas por el átomo y en los niveles de energía del sistema atómico.

El principio de incertidumbre desempeñó un importante papel en el desarrollo de la mecánica cuántica y en el progreso del pensamiento filosófico moderno. En 1932, Heisenberg fué galardonado con el Premio Nobel de Física. Entre sus numerosos escritos se encuentran Los principios físicos de la teoría cuántica, Radiación cósmica, Física y filosofía e Introducción a la teoría unificada de las partículas elementales. El principio de incertidumbre tiene además consecuencias curiosas, tales como el efecto túnel, y es también la causa de que se hayan desarrollado conceptos tales como los orbitales atómicos.

Este principio también afectaría la filosofía ya que pone en duda la concepción determinista del universo que suele estar unida, el concepto de predictibilidad como el que sostenía Laplace.

c)   Edward N. Lorenz,  la Teoría del Caos.

lorenz

  http://www.eoearth.org/view/article/154293/

En 1963, Edward Lorenz, matemático y meteorólogo estadounidense, estudia el proceso de conducción de calor en la atmósfera y después de un conjunto de aproximaciones a las ecuaciones de la hidrodinámica propone, por primera vez, un sistema de tres ecuaciones diferenciales que es autónomo y exhibe comportamiento caótico. Lorenz, resuelve por integración numérica, el sistema de ecuaciones y encuentra que el sistema que estudia, presenta sensibilidad a condiciones iniciales. Este trabajo sería fundamental para la aplicación de la computadoras en el estudio de sistemas caóticos y el desarrollo de la teoría del caos que tiene como objeto de estudio sistemas dinámicos muy sensibles a variaciones en las condiciones iniciales.El modelo atmosférico de Lorenz, es lo que los físicos llaman un modelo de juguete: aunque probablemente no corresponda con la realidad, Lorenz no tardó mucho en darse cuenta que era un modelo matemático muy interesante. Las ecuaciones de Lorenz dependen de tres números x, y y z, de manera que cada punto del espacio (x,y,z) representa un estado de la atmósfera y para estudiar su evolución hay que seguir un campo de vectores.

cubo

Si consideramos dos atmósferas casi idénticas, que están representadas por los centros de dos bolas pequeñas y extremadamente cercanas, en poco tiempo las dos evoluciones se separan de forma significativa: las dos atmósferas se convierten en dos atmósferas completamente diferentes. Lorenz constató en su modelo la dependencia sensible a las condiciones iniciales, el caos. Aún más interesante: empezando con un gran número de atmósferas virtuales, aunque un poco locas y poco previsibles, parece que las trayectorias se acumulan en un sólo objeto en forma de mariposa. Conocido como el atractor de Lorenz, es un atractor bastante extraño…

atractor

Se le llama Teoría del Caos, a la rama de las ciencias exactas, principalmente, Física y Matemáticas, que trata sobre comportamientos impredecibles en sistemas dinámicos (sistemas complejos que cambian o evolucionan con el estado del tiempo). La Teoría del Caos plantea que el mundo no sigue un patrón fijo y previsible, sino que se comporta de manera caótica y que sus procesos y comportamiento dependen, en gran manera, de circunstancias inciertas. Esto plantea que una pequeña variación en el sistema o en un punto del mismo puede provocar que en un lapso de tiempo a futuro éste presente un comportamiento completamente diferente e impredecible. No es propiamente una teoría, sino un gran campo de investigación abierto que abarca numerosas líneas de pensamiento. Con la teoría de caos se empezaron a estudiar otros tipos de estabilidad, además de la lineal, como la asintótica de trayectorias y la estabilidad de familias de trayectorias (atractores).

Un atractor,  es el conjunto al que el sistema evoluciona después de un tiempo suficientemente largo. Para que un conjunto sea un atractor, las trayectorias que le sean suficientemente próximas, han de permanecer próximas, incluso si son ligeramente perturbadas. En términos geométricos, un atractor, puede ser un punto, una curva o un conjunto complicado de estructura fractal conocido como atractor extraño.

d)Hilbert , sus 23 problemas y el Teorema de Incompletitud de Gödel.

Hilbert

http://www.biografiasyvidas.com/biografia/h/hilbert.htm

En la matemática pura, también se darían cambios que llevarían a cambios sobre la concepción del universo y de la matemática en sí misma. Uno de estos cambios, surgiría con el intento del matemático alemán David Hilbert de formalizar por completo la matemática y de hallar una prueba elemental de su consistencia. En 1900, Hilbert propondría 23 problemas; el segundo de ellos, trata de investigar la consistencia de los axiomas de la aritmética, al principio parecía que era posible alcanzar el objetivo de Hilbert mediante la formalización del lenguaje matemático, trabajo que ya había sido hecho en parte por los logicistas como Russell y Whitehead, pero al final se descubriría que no es posible alcanzar por completo los objetivos que Hilbert había propuesto. El que demostraría la imposibilidad de hacerlo  sería,  Kurt Gödel.

godel

http://thales.cica.es/rd/Recursos/rd97/Biografias/08-1-b-godel.html

En 1931, Gödel obtuvo dos resultados que serían concluyentes no sólo para la matemática, sino en disciplinas tan distantes como la filosofía de la mente o la teoría de la elección racional. En un breve artículo de menos de 25 páginas se demostrarían dos hechos:

1) Como quiera que se formalice la matemática clásica, si la formalización es consistente, siempre habrá en ella, proposiciones indecibles, es decir, proposiciones de la forma A y ¬A que no son deducibles en el sistema. Este es el primer teorema de incompletitud de Gödel.

2) En todo formalismo de esta índole, digamos SF, siempre es posible construir una fórmula aritmética a que expresa la propiedad de que SF es consistente. El segundo teorema de incompletitud de Gödel afirma que la fórmula a no es deducible en SF en caso de que SF sea consistente. Además Gödel demuestra que en ningún sistema formal consistente se puede demostrar la fórmula a que afirma su consistencia.

Gödel nos descubrió que la verdad es una categoría superior a la demostrabilidad, y que suargumento nos dá la posibilidad, mediante intuición directa, de ir más allá de las limitaciones de cualquier sistema matemático formalizado. Penrose, utiliza el argumento de Gödel para demostrar el funcionamiento no algorítmico de la mente. El sistema matemático más perfecto que podamos conseguir, con un número finito de axiomas y reglas de inferencia, es incapaz por principio de probar la verdad/falsedad de enunciados que nosotros, desde fuera del sistema, advertimos sin demasiada dificultad. Un ordenador basado en la programación automática que conocemos, a base de algoritmos matemáticos, tiene una limitación fundamental independiente de que el programa sea mejor o peor, o que su memoria y capacidad de cálculo, sean de mayor o menor potencia.

Fuentes consultadas:

Torres Alcaraz, Carlos(1999). El segundo problema de Hilbert sobre la compatibilidad de los axiomas de la aritmética. Departamento de Matemáticas, Facultad de Ciencias Universidad Nacional Autónoma de México.

Campos, Diógenes.(2002) Determinismo, caos e impredictibilidad. Rev. Acad. Colombia. Cienc.23(98)85-103.

http://www.ciencia-ficcion.com/glosario/p/prinince.htm

http://www.chaos-math.org/es/caos-vii-atractores-extranos

http://influenciaderrores.wordpress.com/2013/03/25/el-problema-no 2-de-hilbert-y-el-teorema-de-incompletitud-de-godel/

http://es.wikipedia.org/wiki/Plantilla:Cita_enciclopedia.

 

 

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s