lunes, 27 de febrero de 2012

TEORIA DE ERROR

ERROR

Introduccion

A lo largo de la historia, los métodos numéricos  han sido desarrollados con el objeto de resolver problemas matemáticos cuya soluciónes difícil o imposible de obtener por medio de los procedimientos tradicionales.

Las soluciones que ofrecen los métodos numéricos son aproximaciones de los valores reales, por lo que con esto se tendra un grado de error que se tendra que determinar.


El resultado de toda medición siempre tiene cierto grado de incertidumbre. Esto se debe a las limitaciones de los instrumentos de medida, a las condiciones en que se realiza la medición, así como también, a las capacidades del experimentador. Es por ello que para tener una idea correcta de la magnitud con la que se está trabajando, es indispensable establecer los límites entre los cuales se encuentra el valor real de dicha magnitud. La teoría de errores establece estos límites.
Tipos de errores
Error de escala:
Todo instrumento de medida tiene un límite de sensibilidad. El error de escala corresponde al mínimo valor que puede discriminar el instrumento de medida.
Error sistemático :
Se caracteriza por su reproducibilidad cuando la medición se realiza bajo condiciones iguales, es decir siempre actúa en el mismo sentido y tiene el mismo valor. El error sistemático se puede eliminar si se conoce su causa.
Error accidental o aleatorio :
Tiene carácter variable, es decir que al repetir un experimento en condiciones idénticas, los resultados obtenidos no son iguales en todos los casos.


























EXACTIRUD Y PRECICION 

Los errores asociados con los cálculos y medidas se pueden caracterizar observando su precisión y exactitud.

Exactitud: grado de concordancia entre un valor medido y el valor verdadero.

Precicion:capacidad de un instrumento de dar el mismo resultado en mediciones diferentes, realizadas en las mismas condiciones.