Experimentos aleatorios

    La parte de las matemáticas que se ocupa del estudio de los sucesos aleatorios, que serán definidos en el epígrafe siguiente, es conocida con el nombre de cálculo de probabilidades, teoría de las probabilidades o análisis probabilístico.

    Su origen se remonta al siglo XVII, época en la que en muchos países de Europa, Francia e Italia principalmente, los juegos de azar, en los que se arriesgaban grandes sumas, eran entretenimiento frecuente, sobre todo en círculos nobiliarios. Un aristócrata jugador, el caballero de Méré, llegó a la conclusión, a través de su práctica en el juego, de que en determinados juegos de azar, sobre todo en los que se daba una cierta regularidad, algunas apuestas eran más ventajosas que otras, por lo que se le ocurrió la idea de aplicar el aparato matemático a esos juegos, intentando descubrir alguna manera de obtener seguras ganancias.

    Movido por esta idea, se puso en contacto con Pascal y Fermat, dos grandes científicos de su tiempo que ya gozaban de merecida reputación, realizando con ellos un intercambio epistolar que constituyó la base de la moderna teoría de las probabilidades. Atraídos por las cuestiones que se planteaban en dicha teoría, otros matemáticos, como Bernoulli y Moivre, publicaron otros trabajos que presentaban mayor base y rigor científico que los de Pascal y Fermat, ya que, mientras que éstos se limitaban a solucionar los problemas que les planteaba su amigo, el caballero de Méré, aquéllos buscaban la abstracción y la consiguiente generalización.

    Sin embargo, no fue hasta el siglo XVIII cuando la teoría de probabilidades alcanzó su máximo esplendor, al intentar diversos científicos aplicarla a problemas desligados de los juegos y entroncados con otras disciplinas como la medicina, la sociología, la economía, etc. Las preguntas del tipo «¿qué probabilidad hay de que al lanzar un dado salga un 6?» se vieron sustituidas por otros interrogantes, como, por ejemplo, «¿qué probabilidad hay de que la población de un país se duplique en 30 años?».

    Esta evolución y el consiguiente giro de ciento ochenta grados en las aplicaciones de la teoría de probabilidades quedaron reflejados en una obra de absoluto rigor científico publicada a principios del siglo XIX por el matemático francés Laplace, titulada Teoría analítica de la probabilidad. A finales del mismo siglo, Bayes, Bertrand y Poincaré, entre otros, realizaron una revisión de la axiomática del cálculo de probabilidades, llevando a cabo una estructuración completa del mismo desde sus mismos principios. Hoy en día, un gran número de actividades humanas serían imposibles sin el apoyo que les brinda el análisis probabilístico.

    Los sucesos y sus tipos

    Imaginemos una urna que contiene 30 bolas blancas, 20 negras y 12 rojas. Si se saca una bola y se anota su color, se devuelve a la urna, se saca otra y se repite este proceso 40 veces, los resultados obtenidos no permiten enunciar con certeza qué color de bola se va a lograr en la 41 extracción. Estos experimentos que, al ser repetidos en condiciones análogas, pueden presentar resultados diferentes, se denominan aleatorios.

    Cuando se lanza una moneda al aire, se pueden obtener los resultados cara y cruz. Si se considera el conjunto S formado por todos los resultados posibles del experimento aleatorio, conjunto al que llamaremos espacio muestral, es decir:

    S = {cara, cruz}

    y se considera también el conjunto de las partes de S, o sea:

    (S) = { , {cara}, {cruz}, {cara, cruz}}

    se llama suceso aleatorio o estocástico a cada uno de los elementos de (S). El concepto antitético de experimento aleatorio es el de experimento determinista, designando éste como aquél en el que podemos predecir el resultado.

    En resumen, un suceso es simplemente la aparición de un hecho. Cuando éste es impredecible, como, por ejemplo, ¿qué carta obtendré al extraer una cualquiera de la baraja?, se denomina aleatorio. Cuando sí se puede saber de antemano el resultado, como es el caso de ¿qué sucederá si abandono un cuerpo en el seno del aire?, recibe el nombre de determinista. Lógicamente el cálculo de probabilidades se ocupa solamente de los sucesos aleatorios.

    Los sucesos aleatorios, a los que de ahora en adelante llamaremos simplemente sucesos, deben ser equiprobables, es decir, deben tener todos las mismas oportunidades de llevarse a cabo. Por ejemplo, no incluyen los resultados que pueden aparecer en un dado lastrado. Los sucesos estocásticos pueden clasificarse en:

    • Imposibles. Son aquellos que se dan cuando la realización nunca se puede llevar a cabo. Por ejemplo, un suceso imposible es obtener el río Nilo al elegir al azar un río del conjunto de los ríos sudamericanos.

    • Seguros. Los sucesos seguros son aquellos que se dan cuando hay certeza de que se van a verificar. Por ejemplo, si al lanzar una moneda sirve tanto que salga cara como que salga cruz, el suceso seguro coincide con el espacio muestral.

    • Elementales. Son aquellos que están formados por un único elemento. Al lanzar una moneda los sucesos elementales son {cara} y {cruz}.

    • Complementarios. También son conocidos como contrarios. El suceso complementario del A, que se suele designar por , es el que tiene lugar cuando no se verifica el primero. Así pues, si A = {cara}, entonces = no salir cara = {cruz}.

    • Compatibles. Dos o más sucesos son compatibles cuando pueden darse a la vez. Por ejemplo, si se lanza simultáneamente al aire una moneda y un dado, los sucesos A = {cara} y B = {salir un 6} son compatibles.

    • Incompatibles. Es el caso contrario a los compatibles. Al extraer una carta de una baraja, los sucesos A = {ser un as} y B = {ser un dos} son incompatibles, ya que, evidentemente, una carta no puede ser a la vez ambos casos.

    • Independientes. Dos o más sucesos son independientes cuando la producción de uno de ellos, cualquiera que éste sea, no influye en la realización de los demás. En el sistema moderno de lotería, en el que se extrae un elemento de cada uno de los bombos que contienen bolas numeradas del 0 al 9, los resultados de cada extracción son sucesos independientes, ya que, por ejemplo, el número que aparece en la bola procedente del primer bombo no influye en absoluto en los resultados de las posteriores extracciones.

    • Dependientes. Son el caso contrario de los sucesos independientes. Si se extrae una carta de una baraja y, a continuación y sin restituir la primera al mazo, se saca una segunda, este suceso es dependiente del anterior, ya que la composición de la baraja en la segunda operación depende del resultado que se haya logrado en la primera.

    Operaciones con sucesos

    Los sucesos pueden relacionarse entre ellos según modelos de unión e intersección, conceptos que son de importancia para el manejo matemático de ellos.

    Unión de dos sucesos. Dados dos sucesos A y B, se llama unión de ellos y se representa por A B al suceso que se verifica cuando al menos aparece uno de los dos. Es decir, que A B se realiza cuando aparece A, cuando aparece B o cuando aparecen A y B. Por ejemplo, si se considera A = {rey} y B = {carta de corazones}, el suceso A B tendrá lugar cuando, al extraer una carta, se logre un rey, una carta de corazones o bien cuando aparezca el rey de corazones, naipe que reúne las condiciones de los sucesos A y B.

    Intersección de sucesos. Dados dos sucesos A y B, recibe el nombre de intersección de ellos y se simboliza por A B al suceso que se realiza cuando se verifican simultáneamente el A y el B. En el ejemplo anterior, A B sólo se da si se obtiene el rey de corazones. Lógicamente, la intersección de dos sucesos incompatibles es el conjunto vacío.

    Teniendo en cuenta estos dos tipos de relaciones, es posible operar con sucesos de acuerdo a algunas leyes matemáticas. Un ejemplo de ello es el álgebra de Boole.

    Sea un experimento aleatorio, S, y el conjunto de todas las partes de S, (S). Si en este último conjunto se toma en consideración las operaciones de unión e intersección de sucesos, entonces (S), es un álgebra de Boole ya que, indudablemente, es un retículo, al poseer las propiedades que se describen en la tabla 1:

    Tabla 1. Propiedades booleanas para un conjunto (S) en el que se consideran las operaciones de unión e intersección.

    Además, este retículo es:

    • Distributivo. Para tres elementos cualquiera de (S) , A, B y C, se cumple que:

    A (B C) = (A B) (A C) y A (B C) = (A B) (A C)

    • Complementario. De la definición anteriormente dada de sucesos complementarios se deduce que:

    Como es conocido, en toda álgebra de Boole se verifican las leyes de Morgan. Cuando se aplican éstas al caso concreto del álgebra booleana de los sucesos estocásticos, se obtiene que:

    Recordemos que el espacio muestral es el conjunto de todos los resultados posibles de un determinado experimento aleatorio y se le suele representar por Ω. Por ejemplo, el experimento consistente en lanzar dos monedas al aire, llamando C a la aparición del suceso «cara» y designando por X el suceso «cruz» sería:

    Ω = {(C,C), (C,X), (X,C), (X,X)}

    Probabilidad

    La definición clásica de probabilidad fue dada por el matemático francés Laplace y se enuncia diciendo que la probabilidad de que se verifique un suceso A, P(A), es el cociente entre el número de sucesos elementales favorables y el número de sucesos posibles. O sea:

    Por ejemplo, la probabilidad de obtener un rey, al extraer una carta de una baraja es:

    Efectivamente, el número de sucesos elementales favorables a «ser rey» es 4 (ya que hay 4 naipes de rey) y el número de sucesos elementales posibles es 52, puesto que puede obtenerse cualquiera de las 52 cartas de la baraja.

    Análogamente, la probabilidad de lograr una puntuación par al lanzar un dado sería:

    ya que en un dado hay tres puntuaciones que son números pares (2, 4 y 6) y 6 sucesos posibles.

    En cualquier caso, hay que tener en cuenta que existen dos casos límite:

    • Probabilidad de sucesos seguros. Es siempre igual a 1, ya que coincidirá el número de sucesos favorables con el de sucesos posibles. Por ejemplo, la probabilidad de obtener cara o cruz al lanzar una moneda sería, al haber dos casos favorables (vale tanto la cara como la cruz) y los dos mismos casos posibles:

    • Probabilidad de sucesos imposibles. Su valor es siempre nulo, ya que los sucesos favorables serán siempre inexistentes y, en consecuencia, su número será siempre cero. Por ejemplo, la probabilidad de obtener un rey de corazones al lanzar una moneda sería:

    En general, al calcular la probabilidad de que se efectúe un suceso estocástico, A, el número de sucesos favorables es menor que el de sucesos posibles, por lo que:

    0 P(A) 1

    También es evidente que la suma de las probabilidades de que se verifique un suceso y de que se verifique su complementario es igual a la unidad. Es decir:

    P(A) + P( ) = 1

    Por ejemplo, la probabilidad de obtener un rey al sacar una carta de una baraja es 4/52 (4 sucesos favorables y 52 posibles), mientras que la probabilidad de no obtener rey es 48/52 (hay 48 cartas que no son rey, que es lo favorable ahora y 52 naipes en total). Así pues:

    Frecuencia de un suceso estocástico

    Para cualquier suceso aleatorio, pueden definirse dos magnitudes directamente ligadas a él: su frecuencia absoluta y su frecuencia relativa.

    Si un experimento aleatorio se lleva a cabo N veces, siempre en las mismas condiciones, y dentro de él el suceso A aparece en n ocasiones, esta magnitud recibe el nombre de frecuencia absoluta de A. Se suele representar por F(A). En resumen, la frecuencia absoluta de un suceso, dentro de un experimento estocástico, es el número de veces que se presenta dicho suceso. Del mismo modo, se denomina frecuencia relativa del suceso A al cociente:

    Evidentemente, en la frecuencia de un suceso estocástico siempre se dará la relación n < N.

    En general, el concepto de frecuencia relativa es más expresivo que el de frecuencia absoluta, ya que indica cuántas veces se da el suceso A dentro del total de pruebas realizadas, con lo que se pueden establecer comparaciones. Así, por ejemplo, si se lanza al aire una moneda 180 veces y en 70 ocasiones se ha producido el suceso «cara», se tendría que:

    con lo que esta última expresión nos informaría de que de 18 veces que se ha lanzado la moneda, en 7 se ha obtenido el suceso cara o, lo que es lo mismo, éste se ha dado en, aproximadamente, el 39% de los casos. Lógicamente, el suceso cruz, complementario del anterior, tendrá por frecuencia relativa:

    lo que indica que se ha verificado en, aproximadamente, el 61% de los casos. Generalizando, en todo suceso A se cumple que:

    fr(A) + fr( ) = 1

    Por otra parte, hay que tener en cuenta que la frecuencia relativa de un suceso tiene las siguientes propiedades:

    • Está siempre comprendida entre 0 y 1. Es decir:

    0 fr 1

    • La frecuencia relativa del suceso seguro es 1, ya que en él n = N.

    • La frecuencia relativa del proceso imposible es 0, puesto que en dicho suceso será n = 0.

    • Si se consideran dos sucesos A y B de un experimento aleatorio, la frecuencia relativa del suceso unión de los dos anteriores es:

    fr(A B) = fr(A) + fr(B) – fr(A B)

    Lógicamente, si A y B son incompatibles, fr(A B) = 0, con lo que la expresión anterior quedará reducida a:

    fr(A B) = fr(A) + fr(B)

    Definición axiomática de probabilidad

    En el siglo XIX, dos matemáticos rusos, Lvóvich Chebishev y Andrei Markov, conocedores de la definición clásica de probabilidad anteriormente enunciada y debida a Laplace, hicieron notar la estrecha relación existente entre la probabilidad de un suceso y su correspondiente frecuencia relativa, cuando el experimento aleatorio se compone de un elevado número de pruebas. Hicieron además énfasis en que dicha relación es tanto más íntima, cuanto más se eleve la cantidad de las pruebas efectuadas.

    Así por ejemplo, si se lanza un dado, la probabilidad de obtener la puntuación 3 es 1/6, lo que significa que, teóricamente, de cada seis veces que lancemos el dado, en una ocasión saldrá 3 y, lógicamente, en las otras cinco, puntuaciones diferentes. Sin embargo, en la práctica, es muy fácil que esto no suceda. Lo que afirman Chebishev y Markov es que si el número de lanzamientos del dado es muy elevado, la probabilidad de obtener un 3 cada vez se irá acercando más al valor 1/6. A la vez, la frecuencia relativa del suceso «aparecer un 3», también tenderá al valor 1/6, aproximándose cada vez más a él a medida que aumente el número de lanzamientos. Gracias a ello, se puede llegar al concepto de probabilidad de un suceso a partir de la idea de frecuencia relativa del mismo. En realidad, según lo dicho, se verifica que:

    De esta manera, si se considera una aplicación P establecida entre los sucesos de un experimento y el cuerpo de los números reales, a cada suceso le corresponderá una imagen, a la que se le llamará probabilidad de A y que se representará por P(A), poseedora de las propiedades siguientes:

    • En todo suceso A: 0 P(A) 1.

    • La probabilidad del suceso seguro es 1.

    • Para dos sucesos incompatibles del mismo experimento, A y B, se cumple que: P(A B) = P(A) + P(B).

    De estos axiomas se deduce que dado un suceso A y su complementario : P(A) = 1 – P( ). Además, si A y B son dos sucesos aleatorios cualesquiera, entonces:

    P(A B) = P(A) + P(B) – P(A B)

    Naturalmente, si A y B son incompatibles:

    P(A B) = P(A) + P(B)

    Finalmente, si, dados dos sucesos aleatorios, A y B, se cumple que A, B, lo cual significa que siempre que se da A, tiene lugar B, entonces:

    P(A) P(B)

    Un ejemplo de inclusión de sucesos lo tenemos si consideramos, al tirar un dado, que A sea «obtener puntuación mayor que 5» y B sea «obtener puntuación mayor que 3».

    Como puede observarse, tanto a través de la definición clásica de probabilidad, como de la definición axiomática de la misma se llega a las mismas conclusiones, lo cual era lógicamente esperable. El gran interés de la definición axiomática es que liga al concepto de probabilidad el de frecuencia relativa, el cual, como se ha visto anteriormente, es de amplia aplicación en el campo de la estadística.

    Probabilidad condicionada

    Se llama probabilidad condicionada de un suceso A a otro suceso B, y se expresa como P(A/B), a la probabilidad de que se verifique A, con la condición de que previamente se haya cumplido B. Por ejemplo, si A = «ser rey» y B = «ser naipe del palo de picas», entonces P(rey/pica) es la probabilidad de que, al extraer una carta, si ésta es del palos de picas, se haya obtenido un rey. La probabilidad condicionada se calcula mediante la fórmula:

    Así, en el ejemplo anterior, tendríamos que:

    P(A B) = probabilidad de obtener el rey de picas = 1/52

    P(B) = probabilidad de obtener una carta del palo de picas = 13/52

    Por consiguiente:

    Probabilidad de la unión de dos sucesos

    Dados dos sucesos, A y B, la probabilidad de que se verifique el suceso A Bque, como se ha dicho, tendrá lugar cuando aparezca al menos uno de los dos, es:

    P(A B) = P(A) + P(B) – P(A B)

    Si se desea averiguar qué probabilidad hay de, al extraer una carta de una baraja, obtener un diamante o un rey, dicha probabilidad será:

    P(diamante rey) = P(diamante) + P(rey) – – P(diamante rey)

    Es decir:

    Lógicamente, la expresión general anterior, en el caso de que A y B sean incompatibles, quedará reducida a:

    P(A B) = P(A) + P(B)

    Si se desea hallar la probabilidad de que, al extraer una carta, se obtenga una dama o un rey, ésta será:

    ya que un naipe no puede ser a la vez dama y rey, con lo que P(dama rey) = 0.

    Probabilidad de un suceso compuesto

    Un experimento aleatorio se denomina compuesto cuando está formado por varios experimentos estocásticos simples. Recibe el nombre de espacio muestral compuesto, , el conjunto formado por el producto cartesiano de los espacios muestrales correspondientes a los diversos experimentos simples que existan ( 1, 2, …, n, ). Es decir:

    = 1 × 2 ×,…, × n

    Por ejemplo, si se considera el lanzamiento simultáneo de una moneda y un dado, se obtendrá que los espacios muestrales respectivos de ambos experimentos simples son:

    1 = {C, X} y 2 = {1, 2, 3, 4, 5, 6}

    Con lo que el espacio muestral del experimento compuesto será:

    = 1 × 2 = {(C,1), (C,2), (C,3), (C,4), (C,5), (C,6), (X,1), (X,2), (X,3), (X,4), (X,5), (X,6)}

    En el cálculo de la probabilidad de un suceso compuesto, hay que considerar dos situaciones: que los sucesos sean independientes o dependientes.

    En el primer caso, que sean independientes, la probabilidad de que se verifiquen simultáneamente A y B es:

    P(A y B) = P(A) · P(B)

    Si, por ejemplo, suponemos que se lanza al aire un dado y una moneda; la probabilidad de obtener cara en la moneda y un cinco en el dado es:

    puesto que los sucesos son, evidentemente, independientes, ya que el resultado de la moneda no influye en nada en el que se obtenga en el dado.

    También se puede ejemplificar con una urna en la que 5 bolas son blancas, 6 son rojas y 12 son negras. Si se extrae una bola y, tras anotar el resultado, se la reintegra a la urna, realizando después una segunda extracción, ¿qué probabilidad hay de haber obtenido una bola roja y otra negra?

    Obsérvese que aquí también los sucesos son independientes, ya que, al haber restituido la bola a la urna, la composición de dicha urna en la segunda extracción es la misma que en la primera.

    En el caso de que sean dependientes, la probabilidad de que se verifique A y B es:

    P(A y B) = P(A) · P(B/A)

    Por ejemplo, si en la urna anterior la segunda extracción se lleva a cabo sin haber restituido la primera bola sacada, los sucesos ahora serán dependientes, ya que la composición de la urna en la segunda extracción será una u otra según la bola que se haya sacado en la primera. Por tanto:

    Teorema de Bayes

    Otra cuestión a tener en cuenta en probabilidad es el llamado teorema de Bayes. Considérense todos los resultados posibles de un experimento B1, B2, ..., Bn y tales que dos cualquiera de ellos son incompatibles y A un suceso cualquiera. El teorema de Bayes afirma que:

    La fórmula de Bayes es útil para obtener las probabilidades de un origen, conocido el resultado. Se trata, por tanto, de calcular una probabilidad a posteriori, es decir, después de realizado el experimento. Este concepto es el contrario de la probabilidad a priori, es decir, antes de verificar el experimento, la cual viene dada por la fórmula de Laplace. Dicho de otro modo, el teorema de Bayes proporciona una fórmula especialmente indicada cuando se desee conocer probabilísticamente la procedencia de un resultado.

    Un ejemplo de ello sería el siguiente. Dos urnas A y B contienen, respectivamente, 5 bolas blancas y 3 negras y 4 bolas blancas y 8 negras. Se elige al azar una de las dos urnas y se extrae una bola. ¿Qué probabilidad hay de haber elegido la urna A, si la bola obtenida fue blanca?

    Si se designa X al suceso obtener una bola blanca y por A y B que proceda de la urna A o de la urna B, respectivamente, entre ambos sucesos cubren la totalidad de los resultados que se pueden dar. Se conoce el final (se ha obtenido una bola blanca) y se desea conocer el origen (¿qué probabilidad hay de que la urna de procedencia haya sido la A?). En definitiva, se quiere calcular p(A/X). Aplicando el teorema de Bayes:

    Se obtiene que:

    • Es equiprobable elegir A o B:

    • Si se está en A, la probabilidad de obtener la bola blanca es:

    • Si se está en B, la probabilidad de obtener la bola blanca es:

    Aplicando Bayes :

    Probabilidad binomial

    Finalmente, supóngase un experimento aleatorio en el que se ha llevado a cabo n pruebas y en el que un suceso estocástico, A, puede suceder o no, lo que se representara por . Entonces:

    P(A) = p P( = 1 – p = q

    Al considerarse el suceso Ar, consistente en que se verifique el suceso A r veces, lo que implica que no aparecerá en n – r ocasiones, por lo que vendrá definido por la igualdad:

    la probabilidad de que el suceso A se verifique en r ocasiones y de que no aparezca en n – r casos viene dada por:

    Igualdad que se conoce con el nombre de fórmula de la probabilidad binomial o fórmula de Bernoulli.