sábado, 7 de junio de 2014

PRINCIPIOS Y CRITERIOS DE LA PROBABILIDAD SIMPLE Y CONJUNTA.

REGLA DE ADICIÓN 

sta  regla  expresa  la  probabilidad  de  que  ocurran   dos  o  más  sucesos  a  la  vez,   P ( A U B).
Puede  presentarse    de  dos  formas:  para  conjuntos   con  intersección  y   para   conjuntos   mutuamente  excluyentes.  Veamos:

Para   conjuntos  con  Intersección:
                                                
  Esto  se  debe  a  que  sumamos  la  probabilidad  de  A más  la  probabilidad de B , pero  como  ya  habíamos sumado la  intersección,  entonces  la  restamos.

Para   conjuntos  con  Mutuamente excluyentes:
                                                             

En este  caso,  no  hay  ningún  problema  en  sumar  ambas  probabilidades.

Ejemplo 1:  Se  lanzan  un   dado.  Usted  gana  $ 3000   pesos   si   el  resultado  es    par  ó   divisible  por  tres   ¿Cuál es  la  probabilidad  de  ganar ?
Lo  que  primero  hacemos   es  definir  los  sucesos :
Sea  A = resultado  par :  A = { 2, 4, 6 }
Sea  B = resultado   divisible por  3 : B = { 3, 6 }   .  Ambos  sucesos  tienen  intersección ?
                                                                                 Luego,
                                                         
                                                         

Ejemplo 2 : Se  tiene  una  baraja  de  cartas (  52  cartas  sin  jockers),  ¿ Cuál  es la  probabilidad  de   sacar  una   Reina  ó  un  As  ?  
Sea A = sacar  una  reina    y   sea  B = sacar  un  as,    entonces :
                              


NOTA:   Si  observas esta   regla,  puedes   notar  que  se  relaciona   fuertemente   con  la  Unión  entre   conjuntos  ( ó ) y  es  una  suma.


REGLA DE MULTIPLICACIÓN DE LA PROBABILIDAD


La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos estadísticamente independientes es igual al producto de sus probabilidades individuales.
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes. P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
Si se tienen varios eventos sucesivos e independientes entre sí, la probabilidad de que ocurran todos ellos a la vez corresponde a la multiplicación de las probabilidades de cada uno de los eventos.
Ejemplos:
1. Si se responden al azar cuatro preguntas con cinco opciones cada una, ¿cuál es la probabilidad de acertar a todas?
La probabilidad de acierto en cada una de las preguntas es 1/5. Por lo tanto, la probabilidad de acertar en las cuatro es:
Pe a es igual a uno partido por seiscientos veniticinco
 
2. Suponiendo que la probabilidad de tener un hijo o una hija es ½, ¿cuál es la probabilidad de que al tener tres hijos, 2 solamente sean varones?
Si H representa el nacimiento de un hombre y M el de una mujer, tenemos los siguientes casos favorables:    HHM – HMH – MHH 
La probabilidad de cada uno de estos eventos es: 
un octavo

PROBABILIDAD CONDICIONADA


 Es   la    probabilidad  de  obtener    un   suceso,  dado   que  ya  ocurrió  otro.  Es  decir,   si  tenemos   los  sucesos  A  y  B que  pertenecen a  un  mismo  espacio  muestral  S ,  y   si   la  P (A)  es  diferente  de cero,  entonces esta  probabilidad  que  esta  designada  por :  
                                         

Para calcular esta  probabilidad  es  necesario   conocer   tanto  la  probabilidad  marginal  de  uno  de  los  sucesos ( P(A) )  como  la  probabilidad  de  la  intersección  de  ambos ( o  la  probabilidad  cuando  ocurran  los  dos  sucesos a  la  vez ). 

Ejemplo 3 : La  probabilidad  de  que  una  persona   tenga  una  cuenta   de  ahorros  es  de   0,65  y    la  probabilidad   de  que  invierta  en  un  CDT  y  ahorre  en  una  cuenta  de  ahorros es  de  0,30.  Se  seleccionó  una   persona al  azar   y   resultó  tener  una  cuenta   de  ahorros  ¿ Cuál  es    la  probabilidad  de  que  tenga  también  un  CDT ?
Sea  A =  tener  una  cuenta de  ahorros ,   B =  tener  un  CDT
                                                                                                           

                                                                                                           




                                                                  

RESEÑA HISTORICA DE LA ESTADISTICA Y DE LA PROBABILIDAD

ESTADÍSTICA

La palabra estadística deriva del latín medieval Estatus, donde tiene el sentido de estado político.

Los comienzos de la estadística pueden ser hallados en el antiguo Egipto, cuyos faraones lograron recopilar, hacia el año 3050 antes de Cristo, prolijos datos relativos a la
población y la riqueza del país.
De acuerdo al historiador griego Heródoto, dicho registro de riqueza y población se hizo con el objetivo de preparar la construcción de las pirámides.
En el mismo Egipto, Ramsés II hizo un censo de las tierras con el objeto de
verificar un nuevo reparto.

En el antiguo Israel la Biblia da referencias, en el libro de los Números, de los datos
estadísticos obtenidos en dos recuentos de la población hebrea. El rey David por otra
parte, ordenó a Joab, general del ejército hacer un censo de Israel con la finalidad de
conocer el número de la población.

También los chinos efectuaron censos hace más de cuarenta siglos. Los griegos
efectuaron censos periódicamente con fines tributarios, sociales (división de tierras) y
militares (cálculo de recursos y hombres disponibles). La investigación histórica revela
que se realizaron 69 censos para calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera.
Se utilizaba como una aritmética estatal para asistir al gobernante que necesitaba conocer la riqueza, el número de sus súbditos con el objeto de recaudar impuestos o presupuestar la guerra. Se tienen ejemplos de uso de la estadística con la recaudación de impuestos hacia los Romanos, Guillermo el conquistador realizó censo de la tierras de Inglaterra (Domesday Book), la navegación Flamenca la aplicó en el seguro de embarque......

Pero fueron los romanos, maestros de la organización política, quienes mejor supieron
emplear los recursos de la estadística. Cada cinco años realizaban un censo de la
población y sus funcionarios públicos tenían la obligación de anotar nacimientos,
defunciones y matrimonios, sin olvidar los recuentos periódicos del ganado y de las
riquezas contenidas en las tierras conquistadas. Para el nacimiento de Cristo sucedía uno de estos empadronamientos de la población bajo la autoridad del imperio.

Durante los mil años siguientes a la caída del imperio Romano se realizaron muy pocas
operaciones Estadísticas, con la notable excepción de las relaciones de tierras
pertenecientes a la Iglesia, compiladas por Pipino el Breve en el 758 y por Carlomagno
en el 762 DC. Durante el siglo IX se realizaron en Francia algunos censos parciales de
siervos.
En Inglaterra, Guillermo el Conquistador recopiló el Domesday Book o libro del
Gran Catastro para el año 1086, un documento de la propiedad, extensión y valor de las
tierras de Inglaterra. Esa obra fue el primer compendio estadístico de Inglaterra.
Aunque Carlomagno, en Francia; y Guillermo el Conquistador, en Inglaterra, trataron de
revivir la técnica romana, los métodos estadísticos permanecieron casi olvidados durante la Edad Media.

Durante los siglos XV, XVI, y XVII, hombres como Leonardo de Vinci, Nicolás Copérnico,
Galileo, Neper, William Harvey, Sir Francis Bacon y René Descartes, hicieron grandes
operaciones al método científico, de tal forma que cuando se crearon los Estados
Nacionales y surgió como fuerza el comercio internacional existía ya un método capaz de aplicarse a los datos económicos.

Para el año 1532 empezaron a registrarse en Inglaterra las defunciones debido al temor
que Enrique VII tenía por la peste. Más o menos por la misma época, en Francia la ley
exigió a los clérigos registrar los bautismos, fallecimientos y matrimonios. Durante un
brote de peste que apareció a fines de la década de 1500, el gobierno inglés
comenzó a publicar estadística semanales de los decesos. Esa costumbre continuó
muchos años, y en 1632 estos Bills of Mortality (Cuentas de Mortalidad) contenían los
nacimientos y fallecimientos por sexo. En 1662, el capitán John Graunt usó documentos
que abarcaban treinta años y efectuó predicciones sobre el número de personas que
morirían de varias enfermedades y sobre las proporciones de nacimientos de varones y
mujeres que cabría esperar.
El trabajo de Graunt, condensado en su obra Natural and
Political Observations...Made upon the Bills of Mortality (Observaciones Políticas y
Naturales ... Hechas a partir de las Cuentas de Mortalidad), fue un esfuerzo innovador en
el análisis estadístico.

Por el año 1540 el alemán Sebastián Muster realizó una compilación estadística de los
recursos nacionales, comprensiva de datos sobre organización política, instrucciones
sociales, comercio y poderío militar. Durante el siglo XVII aportó indicaciones más
concretas de métodos de observación y análisis cuantitativo y amplió los campos de la
inferencia y la teoría Estadística.

Los eruditos del siglo XVII demostraron especial interés por la Estadística Demográfica
como resultado de la especulación sobre si la población aumentaba, decrecía o
permanecía estática.

En los tiempos modernos tales métodos fueron resucitados por algunos reyes que
necesitaban conocer las riquezas monetarias y el potencial humano de sus respectivos
países. El primer empleo de los datos estadísticos para fines ajenos a la política tuvo
lugar en 1691 y estuvo a cargo de Gaspar Neumann, un profesor alemán que vivía en
Breslau. Este investigador se propuso destruir la antigua creencia popular de que en los
años terminados en siete moría más gente que en los restantes, y para lograrlo hurgó
pacientemente en los archivos parroquiales de la ciudad. Después de revisar miles de
partidas de defunción pudo demostrar que en tales años no fallecían más personas que
en los demás. Los procedimientos de Neumann fueron conocidos por el astrónomo inglés
Halley, descubridor del cometa que lleva su nombre, quien los aplicó al estudio de la vida
humana. Sus cálculos sirvieron de base para las tablas de mortalidad que hoy utilizan
todas las compañías de seguros.

Durante el siglo XVII y principios del XVIII, matemáticos como Bernoulli, Francis
Maseres, Lagrange y Laplace desarrollaron la teoría de probabilidades.
En 1733, por de Moivre fue publicada originalmente la ecuación de la curva normal y aprovechada por Karl Pearson en 1924. Entre 1830 – 1833 Charles Lyell Publico 3 volúmenes de “Principles of Geology”, usando un razonamiento estadístico en su elaboración. Charles Darwin, 1809-1882, Biólogo, leyó en el Beagle el libro de Lyell, el cual utilizó en la formulación de sus teorías de base biométrica o estadística.

Entretanto, en el período del 1800 al 1820 se desarrollaron dos conceptos matemáticos
fundamentales para la teoría Estadística; la teoría de los errores de observación,
aportada por Laplace y Gauss; y la teoría de los mínimos cuadrados desarrollada por
Laplace, Gauss y Legendre. A finales del siglo XIX, Sir Francis Gaston ideó el método
conocido por Correlación, que tenía por objeto medir la influencia relativa de los factores
sobre las variables. De aquí partió el desarrollo del coeficiente de correlación creado por
Karl Pearson y otros cultivadores de la ciencia biométrica como J. Pease Norton, R. H.
Hooker y G. Udny Yule, que efectuaron amplios estudios sobre la medida de las
relaciones.
Los progresos más recientes en el campo de la Estadística se refieren al ulterior
desarrollo del cálculo de probabilidades, particularmente en la rama denominada
indeterminismo o relatividad, se ha demostrado que el determinismo fue reconocido en
la Física como resultado de las investigaciones atómicas y que este principio se juzga
aplicable tanto a las ciencias sociales como a las físicas.R.A. Fisher,1890-1962, recibió influencias de Karl Pearson y de Student, e hizo numerosas e importantes contribuciones a la estadística. Una de sus publicaciones más importantes fue “Statistical Methods for Research Workers”, en 1925.El y sus estudiantes dieron considerable impulso de los procedimientos estadísticos en muchos campos, particularmente en agricultura, biología y genética.



PROBABILIDAD

La historia de la probabilidad comienza en el siglo XVII cuando Pierre Fermat » Blaise Pascal »tratan de resolver algunos problemas relacionados con los juegos de azar. Aunque algunos marcan sus inicios cuando Cardano (jugador donde los haya) escribió sobre 1520 El Libro de los Juegos de Azar (aunque no fué publicado hasta más de un siglo después, sobre 1660) no es hasta dicha fecha que comienza a elaborarse una teoría aceptable sobre los juegos.
Christian Huygens conoció la correspondencia entre Blaise Pascal y Pierre Fermat suscitada por el caballero De Méré, se planteó el debate de determinar la probabilidad de ganar una partida, y publicó (en 1657) el primer libro sobre probabilidad: De Ratiociniis in Ludo Aleae, (Calculating in Games of Chance), un tratado sobre juegos de azar.Se aceptaba como intuitivo el concepto de equiprobabilidad, se admitía que la probabilidad de conseguir un acontecimiento fuese igual al cociente entre
Durante el siglo XVIII, debido muy particularmente a la popularidad de los juegos de azar, el cálculo de probabilidades tuvo un notable desarrollo sobre la base de la anterior definición de probabilidad. Destacan en 1713 el teorema de Bernoulli y la distribución binomial, y en 1738 el primer caso particular estudiado por De Moivre » , del teorema central del límite. En 1809 Gauss » inició el estudio de la teoría de errores y en 1810 Laplace, que había considerado anteriormente el tema, completó el desarrollo de esta teoría. En 1812 Pierre Laplace » publicó Théorie analytique des probabilités en el que expone un análisis matemático sobre los juegos de azar.
A mediados del siglo  XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas de diferentes características. Su obra, La matemática de la Herencia, fue una de las primeras aplicaciones importantes de la teoría de probabilidad a las ciencias naturales
Desde los orígenes la principal dificultad para poder considerar la probabilidad como una rama de la matemática fue la elaboración de una teoría suficientemente precisa como para que fuese aceptada como una forma de matemática. A principios del siglo XX el matemático ruso Andrei Kolmogorov » la definió de forma axiomática y estableció las bases para la moderna teoría de la probabilidad que en la actualidad es parte de una teoría más amplia como es la teoría de la medida.

domingo, 1 de junio de 2014

MEDIDAS DESCRIPTIVAS

MEDIDAS DESCRIPTIVAS

Las medidas descriptivas pueden ser de:

  • Pocision:
- Media muestral: Si tenemos X1, X2, ... , Xn datos, se llama media muestral de los mismos a su media aritmética

-Moda muestral: El valor que más se repite (puede no existir y si existe puede no ser única).
Mediana muestral: Ordenando los Xi, el valor que está en el medio

Ejemplo: Sean los datos 3, 5, 7, 7, 8, 9
= 39/6 = 6,5; = 7; moda = 7

  • Centralizacion: 
Con ellas pretendemos condensar los distintos valores de la variable en uno sólo que los resuma.

  • Dispersion:
Rango: Si Xi están ordenados Xn - X1
Varianza:

aunque para el cálculo se suele usar otra fórmula más cómoda

Desviación típica o estándar:

  • Forma:
    Propiedad de los datos que tiene en cuenta la forma de distribución de los mismos. Puede ser simétrica o asimétrica negativa o positiva.
    • Posición de la media con respecto a la mediana.
          • Media > Mediana = asimétrica positiva o con sesgo a la derecha.
          • Media " Mediana = simétrica o con sesgo cero.
          • Media < Mediana = asimétrica negativa o con sesgo a la izquierda.
    • Coeficiente Pearsoniano.
          • Valores Positivos significan una distribución asimétrica positiva o con sesgo a la derecha.
          • Valores aproximados a cero significan una distribución simétrica o con sesgo cero.
          • Valores Negativos significan una distribución asimétrica negativa o con sesgo a la izquierda.

PROBABILIDAD

La probabilidad es un método por el cual se obtiene la frecuencia de un acontecimiento determinado mediante la realización de un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condicionessuficientemente estables.
La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, las ciencias y lafilosofía para sacar conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecánica subyacente discreta de sistemas complejos, por lo tanto es la rama de las matemáticas que estudia, mide o determina a los experimentos o fenómenos aleatorios.

  • PROBABILIDAD CLÀSICA :
Es el número de resultados favorables a la presentación de un evento dividido entre el número total de resultados posibles. Asignación de probabilidad "a priori", si necesidad de realizar el experimento.


La probabilidad clásica o teórica se aplica cuando cada evento simple del espacio muestral tiene la misma probabilidad de ocurrir.
Fórmula para obtener la probabilidad clásica o teórica:


EJEMPLO: ¿Cuál es la probabilidad de obtener un número mayor que 3, en el lanzamiento de un dado? Si E: 4, 5, 6, entonces el número de resultados favorables es n (E) = 3.
Si S: 1, 2, 3, 4, 5, 6, entonces el número total de resultados posibles es (S) = 6.
Por lo tanto:







  • PROBABILIDAD CONDICIONAL:


La probabilidad de que un evento $B$ ocurra cuando se sabe que ya ocurrio un evento $A$ se llama probabilidad condicional y se denota por MATH que por lo general se lee como probabilidad de que "ocurra B dado que ocurrió A". Esta probabilidad se define como:
MATH
La probabilidad condicional es una función de probabilidad, MATH definida como
MATH$:$$\QTR{cal}{A}$$\rightarrow $$\left[ 0,1\right] $
$B$$\mapsto $MATH
¿ Es MATH una función de probabilidad?
MATH es una función de probabilidad porque satisface los tres axiomas
Axioma I
MATH para todo evento $B$.
Como
MATH
entonces dividiendo por $P\left( A\right) $ se tiene los términos de la desigualdad se tiene
MATH
Axioma II
MATH
Como
MATH
Axioma III
Si MATH es una sucesión de eventos mutuamente excluyentes, entonces
MATH
Como
MATH
como los eventos MATHson mutuamente excluyentes, entonces los eventos MATHson también mutuamente excluyentes y así
MATH

Ejemplo

1. La antena de una instalación de radar recibe, con probabilidad $p$, una señal útil con una interferencia superpuesta, y con probabilidad $1-p$ solo la interferencia pura. Al suceder una señal útil interferida, la instalación indica la existencia de cualquier señal con probabilidad $P_{1}$, cuando aparece una interferencia pura con la probabilidad $P_{2}$. Sí la instalación ha indicado la existencia de cualquier señal, determinar la probabilidad de que esta indicación haya sido ocasionada por una señal útil con interferencia superpuesta.

Solución:

probabilidad_condicional.gif
Sean U: el evento la señal es útil con interferencia superpuesta
I : el evento la señal es útil con interferencia pura
S: el evento que indica ocurre una señal
Con base en el diagrama , la probabilidad se puede calcular así:
MATH