Estadística y probabilidad

El origen de la estadística se pierde en la noche de los tiempos. Hay evidencias de que los asirios empleaban rudimentarios recursos de esta disciplina y, quizá, aún antes de ellos, ya había sido utilizada. Algunos restos arqueológicos encontrados en la isla de Cerdeña han sido interpretados por los expertos como expresiones estadísticas de la cuantificación de las poblaciones y de las cabañas animales, de las piezas cazadas y de otros aspectos que ellos consideraban de interés.

Se sabe que el monarca asirio Sargón II fundó en Nínive una biblioteca con los censos realizados en su imperio y que los egipcios llevaban prolijas y cuidadosas cuentas, con la supervisión directa del Faraón, sobre sus movimientos demográficos.

En el mundo romano, la estadística fue usada abundantemente. Augusto ordenó la realización de un estudio sobre la riqueza, recursos naturales, ejército, navíos, etc, con que contaba el Imperio Romano, estudio que debía renovarse cada cinco años.

En Europa, los censos se inician con Carlomagno y son rápidamente asumidos por la Iglesia para sus registros de bautizos, bodas, etc. Ya en el siglo XVII, Achenwall sistematiza todos los conocimientos habidos hasta la época, configurándose la Estadística como disciplina científica. Su progreso hasta nuestros días ha sido imparable.

Aunque hay diversos criterios para clasificar las distintas ramas de esta ciencia, es muy frecuente considerar en ella la siguiente división:

  • Estadística descriptiva: considera diversos fenómenos, numéricos o de atributos, estableciendo en ellos un conjunto de medidas que sirven para caracterizarlos y valorarlos.

  • Estadística inductiva: permite hacer predicciones sobre un determinado proceso del que se conocen algunas características en el momento de hacer dichas predicciones.

Hoy día, la Estadística es una herramienta de enorme valía para un gran número de ciencias. La Economía, la Medicina, la Biología, la Sociología, la Historia, etc, no podrían haberse desarrollado de la manera en que lo han hecho sin esta disciplina y lo mismo puede decirse de múltiples actividades mercantiles.

El cálculo de probabilidades nació en el siglo XVII como consecuencia de las observaciones que un aristócrata, el caballero De Merè, hizo sobre las apuestas que se realizaban en torno a los juegos que se practicaban en los círculos de la nobleza. Las consultas que en este sentido hizo al matemático Blaise Pascal sentaron las bases del moderno Cálculo de Probabilidades, el cual fue ampliamente desarrollado después por Bernouilli, Lorenz, Gauss, Poisson, etc.

Su importancia en la sociedad actual es muy notable. Por sólo citar algunos ejemplos, la actividad de las compañías aseguradoras se basa, en gran parte, en el concepto de probabilidad, y en Economía el establecimiento de predicciones y de modelos econométricos no sería factible sin dicho concepto.

Estadística y probabilidad

Estadística

Estadística unidimensiona

Propiedades del símbolo sumatorio ( ):

Medidas de centralización:

Media aritmética (datos dispersos):

Media aritmética (datos agrupados):

Media aritmética (datos en intervalos):

(mi = marca de clase)

Media geométrica:

Media armónica:

Relación entre medias:

Mediana (datos dispersos): Valor que divide a los datos en dos partes, de manera que queden por encima de ella tantos valores como por debajo de la misma

Mediana (datos agrupados):

(li = límite inferior del intervalo correspondiente a la primera frecuencia absoluta acumulada superior a N/2;ni = frecuencia absoluta de ese intervalo; Ni - 1 = frecuencia absoluta acumulada del intervalo anterior y ai = amplitud del intervalo)

Moda (datos dispersos):Valor de mayor frecuencia absoluta

Moda (datos agrupados):

( = mayor densidad, li = límite inferior del intervalo de mayor densidad, di-1 y di+1 = densidades inmediatamente anterior y posterior a la densidad máxima y ai = amplitud del intervalo que corresponde a la densidad máxima)

Medidas no centrales:

Cuartiles:

Recorrido: Diferencia entre los datos de mayor y menor valor, respectivamente.

Desviación del dato xi:

Desviación media (datos dispersos):

Desviación media (datos agrupados):

Varianza (datos dispersos):

( = Varianza o variancia)

Varianza (datos agrupados):

Desviación típica ( ):Es la raíz cuadrada de la varianza

Momento estadístico de orden r respecto a un origen, O:

Coeficiente de asimetría (Pearson):

Índice de Gini:

Estadística bidimensiona

Recta de regresión de y sobre x:

( = Covarianza = o bien )

Recta de regresión de x sobre y:

Probabilidad

Definición:

Probabilidad de A condicionado a B:

Probabilidad de la unión de A y B:

Probabilidad de A y B, compuestos e independientes:

p(A y B) = p(A) · p(B)

Probabilidad de A y B, compuestos y dependientes:

p(A y B) = P(A) · p(B/A)

Teorema de Bayes:

Probabilidad binomial (fórmula de Bernouilli):

(p = P(A); q = probabilidad del suceso contrario al A = 1 – p)