miércoles, 26 de septiembre de 2007
NOTAS DEFINITIVAS, ESTADÍSTICA I. CENAF 2007
domingo, 23 de septiembre de 2007
Material UNIDAD IV
Es la posibilidad de que ocurra algo. Es un mecanismo que permite el uso de información parcial (la muestra) para inferir sobre un conjunto de datos mayor (la población)
ENFOQUES:
a) Probabilidad simple: contiene una sola característica.
b) Probabilidad conjunta: contiene dos ó más características, donde los eventos pueden ser compatibles e incompatibles. Los compatibles: dos eventos pueden ocurrir a la misma vez. Los incompatibles: es imposible que ocurran dos o más eventos determinados a la vez.
c) Probabilidad clásica o a priori: se basa en que los resultados de un experimento son igualmente posibles. No se toma en cuenta para las decisiones administrativas. P = Nº de resultados favorables / Nº de eventos posibles.
d) Probabilidad subjetiva: es el valor que cada persona estima ocurra un evento.
e) Probabilidad empírica: se establece a partir de la siguiente fórmula:
P (éxito) = Nº de casos favorables = m
Nº de casos posibles n
P (no éxito) = Nº de casos posibles - Nº de casos favorables = n - m
Nº de casos posibles n
q = 1 – P → q = 1 – (m / n)
PROPIEDADES:
a) La probabilidad de un suceso cierto es igual a 1 y eso sucede porque m es igual a n
Si m = n → p =m / n → p = n / n = 1
b) La probabilidad de un suceso imposible es igual a cero y eso sucede porque m = 0
Si m = 0 → p = m / n → p = 0 / n = 0
c) La probabilidad debe estar comprendida entre 0 y 1
0 ≤ p ≤ 1 → 0% ≤ p ≤ 100%
d) La probabilidad de ocurrencia (p) más la probabilidad de no ocurrencia (q) siempre debe ser igual a 1
p + q = 1 → (m / n) + (n – m) / n → m / n + n / n – m / n = 1
PROBABILIDAD: DISTRIBUCIÓN BINOMIAL
Es una distribución discreta de probabilidad aplicable como modelo a diversas situaciones en la toma de decisiones siempre y cuando el proceso de muestreo se apegue al proceso de Bernuolli, es decir que:
a) Sólo son posibles dos resultados mutuamente excluyentes en cada ensayo u observación, los cuales se denominan: Éxito y Fracaso.
b) Los resultados del conjunto son eventos independientes.La probabilidad de éxito permanece constante de un ensayo a otro.
PROBABILIDAD: DISTRIBUCIÓN NORMAL
La Curva Normal es una distribución continua de probabilidad que es al mismo tiempo simétrica y mesocúrtica. Tiene las siguientes características:
a) Tiene forma de campana.
b) Es asintótica.
c) El valor que está bajo la curva es igual a 1 ó 100%.
d) El área será siempre positiva.
e) Trabaja con un valor “Z” que podrá ser positivo o negativo y que indicará la posición de la variable bajo la curva normal.
sábado, 22 de septiembre de 2007
Contenido UNIDAD IV.
1) Distribuciones Probabilísticas
2) Probabilidad: Definición. Enfoques. Reglas. Propiedades.
3) Distribuciones de Probabilidad:
3.1 Distribución Binomial: Definición. Propiedades. Cálculo. Esperanza Matemática: Definición. Cálculo. Desviación Estándar. Cálculo en Distribuciones Discretas de Probabilidad.
3.2 Distribución Normal: Definición. Propiedades de la Curva Normal. Importancia. Cálculo. Uso de la Tabla de áreas.
viernes, 21 de septiembre de 2007
NOTA IMPORTANTE
Evaluación Nº 3: lunes 24 de septiembre de 2007.
Evaluación Nº 4: miércoles 26 de septiembre de 2007.
Favor informarle a sus compañeros.
sábado, 15 de septiembre de 2007
Material Unidad III.
a) Rango (R): es la diferencia entre el valor mínimo y el valor máximo. No considera todos los datos de la distribución. Es una medida rápida.
b) Desviación cuartílica o semi recorrido intercuartílico (DC): es mucho más precisa que el rango, pero no da información exacta porque sólo considera el 1er. y 3er. cuartil (ó P75 y P25)
c) Desviación Media (DX): es la sumatoria de las diferencias de los valores absolutos entre la población.
d) Desviación Mediana (DMd): El criterio que guía esta estadística, radica en el uso de diferencias de cada dato respecto a la mediana.
e) Desviación Estándar o Típica Estándar (S): es la raíz cuadrada de la sumatoria de los desvíos al cuadrado entre la población. Este estadístico se mide en la misma unidad que la variable por lo que se puede interpretar mejor.
f) Varianza (S2): es el cuadrado de la desviación estándar, dispersión al cuadrado con respecto a la media aritmética. Este estadístico tiene el inconveniente de ser poco significativo, pues se mide en el cuadrado de la unidad de la variable, por ejemplo, si la variable viene dada en puntos. La varianza vendrá en puntos2.
MEDIDA DE DISPERSIÓN RELATIVA:
Coeficiente de Variación (CV): Es un estadístico de dispersión que tiene la ventaja de que no lleva asociada ninguna unidad, por lo que nos permitirá decir entre dos muestras, cual es la que presenta mayor dispersión.
OTRAS MEDIDAS DE DISPERSIÓN:
a) Coeficiente de Asimetría (CA): El concepto de asimetría se refiere a si la curva que forman los valores de la serie presenta la misma forma a izquierda y derecha de un valor central (media aritmética)
b) Curtoris (Cu): El Coeficiente de Curtosis analiza el grado de concentración que presentan los valores alrededor de la zona central de la distribución.
Se definen 3 tipos de distribuciones según su grado de curtosis:
a) Distribución mesocúrtica: presenta un grado de concentración medio alrededor de los valores centrales de la variable (el mismo que presenta una distribución normal).
b) Distribución leptocúrtica: presenta un elevado grado de concentración alrededor de los valores centrales de la variable.
c) Distribución platicúrtica: presenta un reducido grado de concentración alrededor de los valores centrales de la variable.
CONSIDERACIONES:
a) El Rango no se puede calcular en distribuciones de clases abiertas.
b) En el caso de la Desviación Media y la Desviación Mediana, las barras se utilizan para indicar que deben utilizarse valores absolutos, ya que la sumatoria de los desvíos de cero, por lo cual al tomar el valor absoluto se evita el cumplimiento de uno de los principios de estas medidas de tendencia central.
c) Cuando la dispersión es muy alta, hay gran variabilidad de los datos con respecto a la media aritmética o mediana. Por ello, hay mayor heterogeneidad y menor homogeneidad.
d)En caso contrario, cuando la dispersión es baja, hay mayor homogeneidad y menor heterogeneidad. Los datos son más estables.
e) Con las medidas de dispersión absolutas, se pueden establecer comparaciones entre dos o más series de datos o distribuciones, SIEMPRE y cuando la variable esté expresada en la misma unidad de medida (mts. y mts.; Bs. y Bs.; Kg. y Kg.)
f)Con las medidas de dispersión relativas, se pueden establecer comparaciones entre dos o más series de datos o distribuciones, aun cuando la variable no esté expresada en la misma unidad de medida (mts. y Bs.; Bs. y Kg.)