Error: Diferencia entre el valor medido y el valor real. El error puede ser negativo o positivo, pero cuanto menor sea su valor absoluto, mejor.
Incertidumbre: El grado de confianza que podemos tener en un valor medido. La incertidumbre indica cuánto puede variar el resultado de una medición. Cuanto menor es la incertidumbre, más confianza podemos tener en el valor medido.
Precisión: Al repetir un experimento, cuanto más cercanos sean los valores, mayor será la precisión del experimento. En otras palabras, la precisión describe la coherencia de los resultados experimentales.
Precisión: La diferencia entre el valor medio del experimento y el valor real. Cuanto mayor es la precisión, más se aproximan los resultados experimentales al valor verdadero.
Desviación: La diferencia entre la media medida y el valor verdadero. La desviación puede ser negativa o positiva.
Varianza: mide el grado de dispersión de la distribución de los datos. Cuanto mayor sea la varianza, menos concentrada estará la distribución de los datos, y viceversa.
Tanto el error como la desviación se refieren a la diferencia entre el valor medido y el valor real, pero tienen clasificaciones y causas diferentes. Los errores suelen dividirse en errores sistemáticos y errores aleatorios, mientras que las desviaciones se dividen en desviaciones excesivas y desviaciones demasiado pequeñas. Los errores sistemáticos están causados por deficiencias en el sistema de medición, como errores de los instrumentos, errores de lectura, etc., mientras que los errores aleatorios están causados por algunos factores aleatorios, como la temperatura ambiente, la humedad, etc. La desviación excesiva y la desviación demasiado pequeña se refieren a la situación en la que el valor medido se desvía demasiado o demasiado poco del valor real, respectivamente.
La incertidumbre se refiere al grado de confianza que tenemos en el valor medido, que es un concepto distinto del de error. La magnitud de la incertidumbre depende de nuestro conocimiento de las condiciones experimentales, los sistemas de medición, los errores aleatorios, etc. Si es necesario aumentar la confianza de la incertidumbre para un fin específico, es necesario multiplicar la incertidumbre combinada por un factor (es decir, el factor de confianza) para obtener la incertidumbre total. Normalmente, debe indicarse el factor de multiplicación. Dado que la incertidumbre incluye la parte del resultado de la medición que no puede corregirse, refleja el rango de valores indeterminados en el resultado de la medición.
La precisión y la exactitud son dos conceptos relacionados pero no idénticos. La precisión se refiere a la coherencia de los resultados experimentales, es decir, cuanto más se aproximen los valores obtenidos cuando el experimento se repite muchas veces, mejor. La exactitud se refiere a la diferencia entre los resultados experimentales y el valor real, es decir, cuanto más se acerque el valor medido al valor real, mejor. Por lo tanto, una alta precisión no significa necesariamente una alta exactitud, pero una alta exactitud suele requerir una alta precisión como base.
La varianza se refiere al grado de dispersión de la distribución de los datos, es decir, al tamaño de la diferencia entre los datos. Cuanto menor sea la varianza, más concentrada será la distribución de los datos; cuanto mayor sea la varianza, más discreta será la distribución de los datos. La varianza es muy importante en el análisis de datos porque puede utilizarse para evaluar el rendimiento y la estabilidad de un modelo de predicción. Por ejemplo, si los resultados de predicción de un modelo son muy discretos, la varianza del modelo es grande, lo que significa que su rendimiento no es suficientemente estable; por el contrario, si los resultados de predicción están relativamente concentrados, la varianza del modelo es pequeña, lo que indica que su rendimiento es relativamente estable.