viernes, 26 de septiembre de 2008

ESPERANZA MATEMATICA

Se estudia la esperanza matemática, el teorema de momentos y la función generatriz como herramientas de gran importancia para evaluar parámetros estadísticos en funciones y variables aleatorias.

Una definición de Esperanza MatemáticaUna definición fácil de entender de lo que aquí llamaremos «Esperanza Matemática» es la relación entre el premio obtenido y probabilidad de acertar.

La definición matemática de «Esperanza Matemática» o Valor Esperado es bastante más compleja, pero en el desarrollo de este Sistema se limita a Premio x Probabilidad.
Aquí, un valor para la esperanza matemática de 1 indica «juego justo», un «menor que uno» indica «desfavorable para el jugador» y un «mayor que uno» es «favorable para el jugador» ( en las definiciones formales el cero suele ser el «juego justo», y los valores negativos o positivos indican «positivo o negativo para el jugador»).

Si la esperanza matemática es 1, el juego es «justo». Por ejemplo, apostar 1 euro a que una moneda sale cara o cruz, si el premio por acertar son 2 euros, y si se pierde, 0 euros. La esperanza del juego es 2 · (1/2) = 1. Entonces, consecuentemente con la teoría de juegos, podría pagar el euro para jugar o para rechazar jugar, porque de cualquier manera su expectativa total sería 0.
Si la esperanza matemática es menor que 1, el juego es «desfavorable para el jugador». Un sorteo que pague 500 a 1 pero en el que la probabilidad de acertar sea de 1 entre 1.000, la esperanza matemática es 500 · (1/1.000) = 0,5.
Si la esperanza matemática es mayor que 1, el juego es «favorable para el jugador», todo un «chollo» para el jugador. Un ejemplo sería un juego en el que se paga 10 a 1 por acertar el número que va a salir en un dado, en donde hay una probabilidad de acertar es de 1 entre 6. En este ejemplo el valor de la esperanza matemática es 10 · (1/6)=1,67 y por tanto en esas condiciones es juego «beneficioso» para el jugador.
Esperanza matemática de las loteríasLa esperanza matemática es un valor importante que conocer para cualquier tipo de premio, en función de su dificultad, y para cada sorteo concreto.

En la Primitiva, la esperanza matemática general o promedio es sencillamente 0,55 y en Euromillones es 0,5. Se corresponde a la cantidad que se devuelve en premios: el 55% o el 50% del total apostado por los jugadores. Ese dinero siempre se devuelve, teniendo en cuenta que con el tiempo los premios no entregados se acumulan en Botes.

En la Primitiva el reparto de premios funciona de modo que la cantidad jugada por todos los jugadores (excepto el 45% que se queda la organización) se suma y reparte en diversas categorías: una parte para los de más aciertos, otra parte para premios menores, reintegros, etc. Esto marca ciertamente diferencias entre la esperanza matemática (premios por probabilidad) de las diferentes categorías de premios. La esperanza matemática más alta es la del Reintegro que es de 0,1 (10 %).

Estos cálculos, que de por sí son sencillos, se ven complicados por algunas reglas relativamente recientes, como el «premio fijo para los acertantes de 3» o «los acertantes de 5 nunca pueden ganar más que los de 6», pero son en cualquier caso calculables con precisión.

En general, y para la Loto tradicional la norma a grandes rasgos es que la esperanza matemática es mayor que 1 cuando la cantidad de premios total (el bote más el 55% de la cantidad que todos los jugadores apuestan ese día) es mayor de lo que valen 13,9 millones de apuestas (dado que la probabilidad de acertar es de 1 entre 13,9 millones) y esto ocurre en muy muy muy raras ocasiones.

Pero imagenemos como hipótesis de trabajo que llega un día en el que se ha acumulado un bote de 20 millones de euros y en el que por alguna circunstancia nadie juega a la Loto excepto una persona. A 1 euro por apuesta, esto supondría pagar unos 14 millones de euros para jugar a todas las combinaciones y embolsarse todos los premios: el bote más lógicamente la recuperación del 55% de lo apostado y un 10% en reintegros (7,7 millones de euros, correspondiente al resto de premios menores de 5, 4, reintegros, etc.) Resultado: apostando 14 millones se recuperarían 27,7 millones de euros. Casi otros 14 millones de beneficio. ¡Buen negocio!

Un ejemplo real fue el sorteo de Bonoloto (Loto 6/49) del 18/11/1990. Un bote de 1.151 millones de pesetas se sumó a una recaudación de sólo 374 millones. A 25 pesetas por apuesta se hicieron en total unos 15 millones de apuestas. La probabilidad de acertar 6 era de 1 entre 14 millones, como siempre (y en total se repartía el 55% de la recaudación, como siempre). El premio de 1.200 millones que recibió un único acertante de 6 números tenía como base una esperanza matemática de 3,2 (frente a 1 que sería lo normal en un “juego justo” o 0,55 en un día convencional sin bote). Es decir, si el juego hubiera sido “justo” tanto para el jugador como para la banca, el premio debería haber sido de sólo unos 350 millones. Pero el ganador se llevó 1.200 millones porque había un bote acumulado de muchísimas semanas. La esperanza matemática promedio de ese día, contando todos los premios, era de 3,6. ¡Ese día ciertamente era mejor jugar a la Loto que no jugar!

Casi siempre, cualquier juego real de apuestas tiene esperanza menor que 1: lo más probable es perder dinero. El motivo por el que se juega es que en caso de ganar, los premios son de escándalo. Estamos dispuestos a perder una cantidad pequeña de dinero casi con seguridad a cambio de la posibilidad, por pequeña que sea, de hacernos ricos de la noche a la mañana.


HISTORIA:
Originalmente el concepto de esperanza matemática surgió en relación con los juegos de azar y en su forma mas simple es el producto de la cantidad que un jugador puede ganar y la probabilidad de que ganara. Por ejemplo: si tenemos uno de 10,000 boletos de una rifa cuyo premio principal es un viaje que vale 4,800 nuestra esperanza matemática es 4,800. 1/ 10,000= $0.48 por boleto. Si también hay un segundo premio de $1.200 y u tercer premio con valor de $400, podemos argumentar que en conjunto los 10,000 boletos pagan $4,800+ $1,200, + $400= $6,400 o en promedio $6,400/ 10,000= $0.64 por boleto. Veamos esto e forma diferente podemos argumentar que si la rifa se repite muchas veces perderíamos 99.97 porciento de las veces (o una probabilidad de 0.9997) y ganaríamos cada uno de los premios 0.01 porciento de las veces (o con probabilidad de 0.0001) en promedio ganaríamos así 0(0.9997) + 4,800(0.0001) + 1,200(0.0001) + 400(0.0001)= $0.64, que es la suma de os productos obtenidos al multiplicar cada cantidad por la probabilidad correspondiente.

EL VALOR ESPERADO DE VARIABLE ALEATORIA
En la ilustración de la sección anterior la cantidad que ganamos fue una variable aleatoria fue la suma de los productos obtenidos al multiplicar cada valor de la variable aleatoria de la probabilidad correspondiente. Nos referimos a la esperanza matemática de una variable aleatoria simplemente como su valor esperado, y entendemos la definición al caso continuo al reemplazar la operación e la suma por la integración


COMENTARIO:
La esperanza matemática es el valor que se espera de una variable, es la suma de todas las posibilidades que pueda haber en determinado evento.
La esperanza matemática o valor esperado es la suma de la probabilidad de todas las posibilidades por ejemplo. la relacion que hay entre el premio y todas las posibilidades de acertar.

ARBOL DE PROBALIDAD

Dibujo que se usa para analizar los posibles resultados en
una situación de probabilidad. Por ejemplo, las ramas
del diagrama de árbol de probabilidad de abajo
representan los cuatro resultados igualmente probables
que existen cuando se lanza dos veces una moneda

números al azar Números que resultan de un
experimento, como lanzar un dado o hacer girar una
rueda giratoria. Por ejemplo, lanzar un dado limpio
da números al azar porque cada uno de los seis
números posibles (1, 2, 3, 4, 5 y 6) tiene la misma
posibilidad de salir.
probabilidad Número entre 0 y 1 que indica la
posibilidad de que un suceso ocurra. Mientras más
se acerca la probabilidad a 1, más probable es que
el suceso ocurra.
resultado Una consecuencia posible en un
experimento o una situación de posibilidad. Por
ejemplo, cara y cruz son los dos resultados posibles
al lanzar una moneda.
resultado esperado Resultado promedio de un
número grande de repeticiones de un experimento
al azar. Por ejemplo, el resultado esperado de tirar
un dado es el número promedio de puntos que
aparecen después de varios tiros.
resultados igualmente probables Resultados
de un experimento de posibilidad que tienen la
misma probabilidad de ocurrir. Si todos los resultados
posibles son igualmente probables, entonces la
probabilidad de un suceso es igual a esta fracción:
simulación Modelo de una situación real. Por
ejemplo, una moneda limpia se puede usar para
simular una serie de juegos entre dos equipos
parejos.


Un instrumento útil dentro de la probabilidad condicional son las representaciones que nos permiten analizar la problemática de los eventos cuando estos ocurren uno después del otro. Concretamente estamos hablando de los diagramas de árbol. Este está constituido de varias ramas, cada rama parte de un nodo que representa un evento aleatorio diferente. En el esquema que se presenta a continuación se observa que la rama principal esta constituida de evento con diferentes posibilidades como son: la siguiente rama consta de eventos distintos, por ejemplo, que se realizan después de ocurrir , así de manera sucesiva pueden ocurrir eventos después de cualquiera de ellos. Otro ejemplo es el que se muestra, ocurren después del evento ocurriendo los eventos . También observamos que cada evento forma un universo para cada evento por lo que cada rama, de acuerdo con el axioma de normalizabilidad, tendrá que ser igual a uno.

COMENTARIO.
Es una grafica que utiliza para analizar y representar los resultados posibles de una actuvidad así como la posibilidad de ocurrencia en situaciones de probabilidad.
estos son diagrama que son muy utiles dentro de la probabilidad y que permiten representar los problemas de probabilidad cuando estos ocurren uno despues de otro. el arbol de probabilidad se constituye de ramas, estos parten del tronco y representan un evento aleatoriamente diferente.

miércoles, 17 de septiembre de 2008

DIAGRAMA DE ARBOL

HISTORIA:
Puentes de Königsberg.El trabajo de Leonhard Euler, en 1736, sobre el problema de los puentes de Königsberg es considerado el primer resultado de la teoría de grafos. También se considera uno de los primeros resultados topológicos en geometría (que no depende de ninguna medida). Este ejemplo ilustra la profunda relación entre la teoría de grafos y la topología.

En 1845 Gustav Kirchhoff publicó sus leyes de los circuitos para calcular el voltaje y la corriente en los circuitos eléctricos.

En 1852 Francis Guthrie planteó el problema de los cuatro colores que plantea si es posible, utilizando solamente cuatro colores, colorear cualquier mapa de países de tal forma que dos países vecinos nunca tengan el mismo color. Este problema, que no fue resuelto hasta un siglo después por Kenneth Appel y Wolfgang Haken, puede ser considerado como el nacimiento de la teoría de grafos. Al tratar de resolverlo, los matemáticos definieron términos y conceptos teóricos fundamentales de los grafos.


En ciencias de la informática, un árbol es una estructura de datos ampliamente usada que emula la forma de un árbol (un conjunto de nodos conectados). Un nodo es la unidad sobre la que se construye el árbol y puede tener cero o más nodos hijos conectados a él. Se dice que un nodo a es padre de un nodo b si existe un enlace desde a hasta b (en ese caso, también decimos que b es hijo de a). Sólo puede haber un único nodo sin padres, que llamaremos raíz. Un nodo que no tiene hijos se conoce como hoja. Los demás nodos (tienen padre y uno o varios hijos) se les conoce como rama.

Formalmente, podemos definir un árbol de la siguiente forma:

Caso base: un árbol con sólo un nodo (es a la vez raíz del árbol y hoja).
Un nuevo árbol a partir de un nodo nr y k árboles de raíces con elementos cada uno, puede construirse estableciendo una relación padre-hijo entre nr y cada una de las raíces de los k árboles. El árbol resultante de nodos tiene como raíz el nodo nr, los nodos son los hijos de nr y el conjunto de nodos hoja está formado por la unión de los k conjuntos hojas iniciales. A cada uno de los árboles Ai se les denota ahora subárboles de la raíz.
Una sucesión de nodos del árbol, de forma que entre cada dos nodos consecutivos de la sucesión haya una relación de parentesco, decimos que es un recorrido árbol. Existen dos recorridos típicos para listar los nodos de un árbol: primero en profundidad y primero en anchura. En el primer caso, se listan los nodos expandiendo el hijo actual de cada nodo hasta llegar a una hoja, donde se vuelve al nodo anterior probando por el siguiente hijo y así sucesivamente. En el segundo, por su parte, antes de listar los nodos de nivel n + 1 (a distancia n + 1 aristas de la raíz), se deben haber listado todos los de nivel n. Otros recorridos típicos del árbol son preorden, postorden e inorden:

El recorrido en preorden, también llamado orden previo consiste en recorrer en primer lugar la raíz y luego cada uno de los hijos en orden previo.
El recorrido en inorden, también llamado orden simétrico (aunque este nombre sólo cobra significado en los árboles binarios) consiste en recorrer en primer lugar A1, luego la raíz y luego cada uno de los hijos en orden simétrico.
El recorrido en postorden, también llamado orden posterior consiste en recorrer en primer lugar cada uno de los hijos en orden posterior y por último la raíz

Estructuras de datos en la representación de grafos:
Artículo principal: Grafo (estructura de datos)
Existen diferentes formas de almacenar grafos en una computadora. La estructura de datos usada depende de las características del grafo y el algoritmo usado para manipularlo. Entre las estructuras más sencillas y usadas se encuentran las listas y las matrices, aunque frecuentemente se usa una combinación de ambas. Las listas son preferidas en grafos dispersos porque tienen un eficiente uso de la memoria. Por otro lado, las matrices proveen acceso rápido, pero pueden consumir grandes cantidades de memoria.


Estructura de lista.
lista de incidencia - Las aristas son representadas con un vector de pares (ordenados, si el grafo es dirigido), donde cada par representa una de las aristas.
lista de adyacencia - Cada vértice tiene una lista de vértices los cuales son adyacentes a él. Esto causa redundancia en un grafo no dirigido (ya que A existe en la lista de adyacencia de B y viceversa), pero las búsquedas son más rápidas, al costo de almacenamiento extra.

Estructuras matriciales
Matriz de incidencia - El grafo está representado por una matriz de A (aristas) por V (vértices), donde [arista, vértice] contiene la información de la arista (1 - conectado, 0 - no conectado)
Matriz de adyacencia - El grafo está representado por una matriz cuadrada M de tamaño n2, donde n es el número de vértices. Si hay una arista entre un vértice x y un vértice y, entonces el elemento mx,y es 1, de lo contrario, es 0.

Definiciones:

Vértice.
]Artículo principal: Vértice (teoría de grafos)
Un vértice es la unidad fundamental de la que están formados los grafos. Los vértices son tratados como un objeto indivisible y sin propiedades, aunque puedan tener una estructura adicional dependiendo de la aplicación por la cual se usa el grafo; por ejemplo, una red semántica es un grafo en donde los vértices representan conceptos o clases de objetos.


Grafo.
Artículo principal: Grafo

En la figura, V = { a, b, c, d, e, f }, y A = { ab, ac, ae, bc, bd, df, ef }.Un grafo es una pareja de conjuntos G = (V,A), donde V es el conjunto de vértices, y A es el conjunto de aristas, este último es un conjunto de pares de la forma (u,v) tal que , tal que . Para simplificar, notaremos la arista (a,b) como ab.

En teoría de grafos, sólo queda lo esencial del dibujo: la forma de las aristas no son relevantes, sólo importa a qué vértices están unidas. La posición de los vértices tampoco importa, y se puede variar para obtener un dibujo más claro.

Muchas redes de uso cotidiano pueden ser modeladas con un grafo: una red de carreteras que conecta ciudades, una red eléctrica o la red de drenaje de una ciudad.


Subgrafo.
Un subgrafo de un grafo G es un grafo cuyos conjuntos de vértices y aristas son subconjuntos de los de G. Se dice que un grafo G contiene a otro grafo H si algún subgrafo de G es H o es isomorfo a H (dependiendo de las necesidades de la situación)

El subgrafo inducido de G es un subgrafo G' de G tal que contiene todas las aristas adyacentes al subconjunto de vértices de G.


Aristas dirigidas y no dirigidas.
En algunos casos es necesario asignar un sentido a las aristas, por ejemplo, si se quiere representar la red de las calles de una ciudad con sus direcciones únicas. El conjunto de aristas será ahora un subconjunto de todos los posibles pares ordenados de vértices, con (a, b) ≠ (b, a). Los grafos que contienen aristas dirigidas se denominan grafos orientados, como el siguiente:

Las aristas no orientadas se consideran bidireccionales para efectos prácticos (equivale a decir que existen dos aristas orientadas entre los nodos, cada una en un sentido).

En el grafo anterior se ha utilizado una arista que tiene sus dos extremos idénticos: es un lazo (o bucle), y aparece también una arista bidireccional, y corresponde a dos aristas orientadas.

Se considera la característica de "grado" (positivo o negativo) de un vértice v (y se indica como (v)), como la cantidad de aristas que llegan o salen de él; para el caso de grafos no orientados, el grado de un vértice es simplemente la cantidad de aristas incidentes a este vértice. Por ejemplo, el grado positivo (salidas) de d es 3, mientras que el grado negativo (llegadas) de b es 0.

Según la terminología seguida en algunos problemas clásicos de Investigación Operativa (p.ej.: el Problema del flujo máximo), a un vértice del que sólo salen aristas se le denomina fuente (en el ejemplo anterior, el vértice d); tiene grado negativo 0. Por el contrario, a aquellos en los que sólo entran aristas se les denomina pozo o sumidero (en el caso anterior, el vértice e); tiene grado positivo 0.


Ciclos y caminos hamiltonianos.
Artículo principal: Ciclo hamiltoniano

Ejemplo de un ciclo hamiltoniano.Un ciclo es un camino, es decir una sucesión de aristas adyacentes, donde no se recorre dos veces la misma arista, y donde se regresa al punto inicial. Un ciclo hamiltoniano tiene además que recorrer todos los vértices exactamente una vez (excepto el vértice del que parte y al cual llega).

Por ejemplo, en un museo grande (al estilo del Louvre), lo idóneo sería recorrer todas las salas una sola vez, esto es buscar un ciclo hamiltoniano en el grafo que representa el museo (los vértices son las salas, y las aristas los corredores o puertas entre ellas).

Se habla también de camino hamiltoniano si no se impone regresar al punto de partida, como en un museo con una única puerta de entrada. Por ejemplo, un caballo puede recorrer todas las casillas de un tablero de ajedrez sin pasar dos veces por la misma: es un camino hamiltoniano. Ejemplo de un ciclo hamiltoniano en el grafo del dodecaedro.

Hoy en día, no se conocen métodos generales para hallar un ciclo hamiltoniano en tiempo polinómico, siendo la búsqueda por fuerza bruta de todos los posibles caminos u otros métodos excesivamente costosos. Existen, sin embargo, métodos para descartar la existencia de ciclos o caminos hamiltonianos en grafos pequeños.

El problema de determinar la existencia de ciclos hamiltonianos, entra en el conjunto de los NP-completos.


Caracterización de grafos.

Grafos simples.
Un grafo es simple si a lo sumo sólo 1 arista une dos vértices cualesquiera. Esto es equivalente a decir que una arista cualquiera es la única que une dos vértices específicos.

Un grafo que no es simple se denomina GRAFO COMPLEJO.


Grafos conexos.
Un grafo es conexo si cada par de vértices está conectado por un camino; es decir, si para cualquier par de vértices (a, b), existe al menos un camino posible desde a hacia b.

Un grafo es fuertemente conexo si cada par de vértices está conectado por al menos dos caminos disjuntos; es decir, es conexo y no existe un vértice tal que al sacarlo el grafo resultante sea disconexo.

Es posible determinar si un grafo es conexo usando un algoritmo Búsqueda en anchura (BFS) o Búsqueda en profundidad (DFS).

En términos matemáticos la propiedad de un grafo de ser (fuertemente) conexo permite establecer en base a él una relación de equivalencia para sus vértices, la cual lleva a una partición de éstos en "componentes (fuertemente) conexas", es decir, porciones del grafo, que son (fuertemente) conexas cuando se consideran como grafos aislados. Esta propiedad es importante para muchas demostraciones en teoría de grafos.




Grafos completos.
Artículo principal: Grafo completo
Un grafo simple es completo si existen aristas uniendo todos los pares posibles de vértices. Es decir, todo par de vértices (a, b) debe tener una arista e que los une.

El conjunto de los grafos completos es denominado usualmente , siendo el grafo completo de n vértices.

Un Kn, es decir, grafo completo de n vértices tiene exactamente aristas.

La representación gráfica de los Kn como los vértices de un polígono regular da cuenta de su peculiar estructura.


Grafos bipartitos.
Artículo principal: Grafo bipartito
Un grafo G es bipartito si puede expresarse como (es decir, sus vértices son la unión de dos grupos de vértices), bajo las siguientes condiciones:

V1 y V2 son disjuntos y no vacíos.
Cada arista de A une un vértice de V1 con uno de V2.
No existen aristas uniendo dos elementos de V1; análogamente para V2.
Bajo estas condiciones, el grafo se considera bipartito, y puede describirse informalmente como el grafo que une o relaciona dos conjuntos de elementos diferentes, como aquellos resultantes de los ejercicios y puzzles en los que debe unirse un elemento de la columna A con un elemento de la columna B.


Homeomorfismos de grafos.
Artículo principal: Homeomorfismos de grafos
Dos grafos G1 y G2 son homeomorfos si ambos pueden obtenerse a partir del mismo grafo con una sucesión de subdivisiones elementales de aristas.


Árboles.
Ejemplo de árbol.Un grafo que no tiene ciclos y que conecta a todos los puntos, se llama un árbol. En un grafo con n vértices, los árboles tienen exactamente n - 1 aristas, y hay nn-2 árboles posibles. Su importancia radica en que los árboles son grafos que conectan todos los vértices utilizando el menor número posible de aristas. Un importante campo de aplicación de su estudio se encuentra en el análisis filogenético, el de la filiación de entidades que derivan unas de otras en un proceso evolutivo, que se aplica sobre todo a la averiguación del parentesco entre especies; aunque se ha usado también, por ejemplo, en el estudio del parentesco entre lenguas.


Grafos ponderados o etiquetados:
En muchos casos, es preciso atribuir a cada arista un número específico, llamado valuación, ponderación o coste según el contexto, y se obtiene así un grafo valuado.
Formalmente, es un grafo con una función v: A → R+.

Por ejemplo, un representante comercial tiene que visitar n ciudades conectadas entre sí por carreteras; su interés previsible será minimizar la distancia recorrida (o el tiempo, si se pueden prever atascos). El grafo correspondiente tendrá como vértices las ciudades, como aristas las carreteras y la valuación será la distancia entre ellas.
Y, de momento, no se conocen métodos generales para hallar un ciclo de valuación mínima, pero sí para los caminos desde a hasta b, sin más condición.


Teorema de los cuatro colores:
Artículo principal: Teorema de los cuatro colores

En 1852 Francis Guthrie planteó el problema de los cuatro colores.Otro problema famoso relativo a los grafos: ¿Cuántos colores son necesarios para dibujar un mapa político, con la condición obvia que dos países adyacentes no puedan tener el mismo color? Se supone que los países son de un solo pedazo, y que el mundo es esférico o plano. En un mundo en forma de toro; el teorema siguiente no es válido:

Cuatro colores son siempre suficientes para colorear un mapa.

El mapa siguiente muestra que tres colores no bastan: Si se empieza por el país central a y se esfuerza uno en utilizar el menor número de colores, entonces en la corona alrededor de a alternan dos colores. Llegando al país h se tiene que introducir un cuarto color. Lo mismo sucede en i si se emplea el mismo método.

La forma precisa de cada país no importa; lo único relevante es saber qué país toca a qué otro. Estos datos están incluidos en el grafo donde los vértices son los países y las aristas conectan los que justamente son adyacentes. Entonces la cuestión equivale a atribuir a cada vértice un color distinto del de sus vecinos.

Hemos visto que tres colores no son suficientes, y demostrar que con cinco siempre se llega, es bastante fácil. Pero el teorema de los cuatro colores no es nada obvio. Prueba de ello es que se han tenido que emplear ordenadores para acabar la demostración (se ha hecho un programa que permitió verificar una multitud de casos, lo que ahorró muchísimo tiempo a los matemáticos). Fue la primera vez que la comunidad matemática aceptó una demostración asistida por ordenador, lo que ha creado una fuerte polémica dentro de la comunidad matemática, llegando en algunos casos a plantearse la cuestión de que esta demostración y su aceptación es uno de los momentos que han generado una de las más terribles crisis en el mundo matemático.


Coloración de grafos

Colores en los vértices.Definición: Si G=(V,E) es un grafo no dirigido, una coloración propia de G, ocurre cuando coloreamos los vértices de G de modo que si {a, b} es una arista en G entonces a y b tienen diferentes colores. (Por lo tanto, los vértices adyacentes tienen colores diferentes). El número mínimo de colores necesarios para una coloración propia de G es el número cromático de G y se escribe como C(G). Sea G un grafo no dirigido sea λ el número de colores disponibles para la coloración propia de los vértices de G. Nuestro objetivo es encontrar una función polinomial P(G,λ), en la variable λ, llamada polinomio cromático de G , que nos indique el número de coloraciones propias diferentes de los vértices de G, usando un máximo de λ colores.

Grafos planos:

Un grafo es plano si se puede dibujar sin cruces de aristas.Cuando un grafo o multigrafo se puede dibujar en un plano sin que dos segmentos se corten, se dice que es plano.

Un juego muy conocido es el siguiente: Se dibujan tres casas y tres pozos. Todos los vecinos de las casas tienen el derecho de utilizar los tres pozos. Como no se llevan bien en absoluto, no quieren cruzarse jamás. ¿Es posible trazar los nueve caminos que juntan las tres casas con los tres pozos sin que haya cruces?

Cualquier disposición de las casas, los pozos y los caminos implica la presencia de al menos un cruce.

Sea Kn el grafo completo con n vértices, Kn, p es el grafo bipartito de n y p vértices.

El juego anterior equivale a descubrir si el grafo bipartito completo K3,3 es plano, es decir, si se puede dibujar en un plano sin que haya cruces, siendo la respuesta que no. En general, puede determinarse que un grafo no es plano, si en su diseño puede encontrase una estructura análoga (conocida como menor) a K5 o a K3,3.




COMENTARIO:
Un diagrama de árbol es una grafica que nos sirve para representar los resultados posibles de un experimento que consta de varios pasos, donde cada uno de los pasos tiene un número de maneras de llevarse acabo determinado evento.

TEORIA DE CONJUNTOS

La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor en el Siglo XIX y más tarde reformulada por Zermelo.

El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos"; así, se puede hablar de un conjunto de personas, ciudades, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto. El conjunto de los bolígrafos azules está bien definido, porque a la vista de un bolígrafo se puede saber si es azul o no. El conjunto de las personas altas no está bien definido, porque a la vista de una persona, no siempre se podrá decir si es alta o no, o puede haber distintas personas, que opinen si esa persona es alta o no lo es. En el siglo XIX, según Frege, los elementos de un conjunto se definían sólo por tal o cual propiedad. Actualmente la teoría de conjuntos está bien definida por el sistema ZFC. Sin embargo, sigue siendo célebre la definición que publicó Cantor


UNION:
La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor en el Siglo XIX y más tarde reformulada por Zermelo.

El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos"; así, se puede hablar de un conjunto de personas, ciudades, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto. El conjunto de los bolígrafos azules está bien definido, porque a la vista de un bolígrafo se puede saber si es azul o no. El conjunto de las personas altas no está bien definido, porque a la vista de una persona, no siempre se podrá decir si es alta o no, o puede haber distintas personas, que opinen si esa persona es alta o no lo es. En el siglo XIX, según Frege, los elementos de un conjunto se definían sólo por tal o cual propiedad. Actualmente la teoría de conjuntos está bien definida por el sistema ZFC. Sin embargo, sigue siendo célebre la definición que publicó Cantor


INTERSECCION:
Los elementos comunes a y forman un conjunto denominado intersección de y , representado por . Es decir, es el conjunto que contiene a todos los elementos de A que al mismo tiempo están en B:

.
Si dos conjuntos y son tales que , entonces y se dice que son conjuntos disjuntos.

Es claro que el hecho de que es condición necesaria y suficiente para afirmar que y

DIFERENCIA:
Los elementos de un conjunto que no se encuentran en otro conjunto , forman otro conjunto llamado diferencia de y , representado por

COMPLEMENTO:
El complemento de un conjunto A, es el conjunto de los elementos que pertenecen a algún conjunto U pero no pertenecen a A, que lo representaremos por . Es decir


El conjunto complemento siempre lo es respecto al conjunto universal que estamos tratando, esto es, si hablamos de números enteros, y definimos el conjunto de los números pares, el conjunto complemento de los números pares, es el formado por los números no pares. Si estamos hablando de personas, y definimos el conjunto de las personas rubias, el conjunto complementario es el de las personas no rubias.



COMENTARIO:
Un conjunto esta integrado por determinados elementos que pertenecen o no al conjunto por ejemplo todos los lapiceros de color negro. la union de conjuntos es cuando todos los elementos de dos conjuntos se unen para formar solo uno, tambien esta la interseccion se integra por los elementos comunes entre dos o varios conjuntos.

sábado, 13 de septiembre de 2008

COMBINACION

Una combinación es un arreglo donde el orden NO es importante. La notación para las combinaciones es C(n,r) que es la cantidad de combinaciones de “n” elementos seleccionados, “r” a la vez. Es igual a la cantidad de permutaciones de “n” elementos tomados “r” a la vez dividido por “r” factorial. Esto sería P(n,r)/r! en notación matemática.

Ejemplo: Si se seleccionan cinco cartas de un grupo de nueve, ¿cuantas combinaciones de cinco cartas habría?

La cantidad de combinaciones posibles sería: P(9,5)/5! = (9*8*7*6*5)/(5*4*3*2*1) = 126 combinaciones posibles.

Como ya se mencionó anteriormente, una combinación, es un arreglo de elementos en donde no nos interesa el lugar o posición que ocupan los mismos dentro del arreglo. En una combinación nos interesa formar grupos y el contenido de los mismos.

Las combinaciones son aquellas formas de agrupar los elementos de un conjunto teniendo en cuenta que:
NO influye el orden en que se colocan.
Si permitimos que se repitan los elementos, podemos hacerlo hasta tantas veces como elementos tenga la agrupación.

Existen dos tipos: combinaciones sin repetición y combinaciones con repetición.


COMBINACIONES SIN REPETICION:
Cuantos grupos de 5 alumnos pueden formarse con los treinta alumnos de una clase. (Un grupo es distinto de otro si se diferencia de otro por lo menos en un alumno)

No importa el orden (son grupos de alumnos). No puede haber dos alumnos iguales en un grupo evidentemente, luego sin repetición.
Por tanto, se pueden formar 142506 grupos distintos :

COMBINACIONES CON REPETICION :
En una confiteria hay cinco tipos diferentes de pasteles. ¿De cuántas formas se pueden elegir cuatro pasteles)

No importa el orden (son pasteles).
Puede haber dos o más pasteles en un grupo, luego con repetición.
Por tanto, se pueden formar 142506 grupos distintos :


COMENTARIO:
En este caso los todos los elementos que la constituyen deben tener un orden ya que en este caso nos interesa que todos los elementos quede ordenados.

PERMUTACION

En matemáticas, dado un conjunto finito con todos sus elementos diferentes, llamamos permutación a cada una de las posibles ordenaciones de los elementos de dicho conjunto.

Por ejemplo, en el conjunto {1,2,3}, cada ordenación posible de sus elementos, sin repetirlos, es una permutación. Existe un total de 6 permutaciones para estos elementos: "1,2,3", "1,3,2", "2,1,3", "2,3,1", "3,1,2" y "3,2,1".

La noción de permutación suele aparecer en dos contextos:

Como noción fundamental de combinatoria, centrándonos en el problema de su recuento.
En teoría de grupos, al definir nociones de simetría.

La permutación antes citada "1,3,2" puede verse como la imagen de una aplicación σ que lleva la lista inicial de objetos (1, 2, 3) en la lista de objetos reordenados (1, 3, 2). De este modo σ(1)=1, σ(2)=3 y σ(3)=2. También podemos definir a la permutación como la propia aplicación σ.

Así, formalmente, una permutación de un conjunto X es una biyección de X en sí mismo.

Aunque esta segunda definición generaliza a la primera al admitir conjuntos infinitos, el término permutación se usa principalmente para un conjunto finito X, y así lo haremos en el resto del artículo.


En combinatora:
La combinatoria trata del número de diferentes maneras que existen de considerar conjuntos formados a partir de elementos de un conjunto dado respetando ciertas reglas. Así un problema combinatorio consiste usualmente en establecer una regla sobre como deben ser las combinaciones y determinar cuantas combinaciones existen que cumplan dicha regla.

Un tipo importante de esas combinaciones son las llamadas permutaciones. Dada una n-tupla ordenada de elementos de un conjunto el número de permutaciones es el número de n-tuplas ordenadas diferentes que pueden construirse a partir de dicho conjunto.


Descomposición de una permutación en ciclos disjuntos:

La descomposición realizada por el procedimiento anterior no es única en principio, pues podrían haberse obtenido cualquiera de estos resultados equivalentes:

σ = (1 3 5 6)(2 4 7 8)=(2 4 7 8) (1 3 5 6)=(7 8 2 4)(6 1 3 5)
La descomposición canónica de una permutación como producto de ciclos se obtiene colocando en primer lugar de cada ciclo el número más pequeño del mismo. Posteriormente se procede a la colocación de los ciclos, colocando primero el ciclo cuyo primer elemento sea menor. Frecuentemente, suelen omitirse los ciclos de longitud 1. Así la permutación (1 3)(2)(4 5) se escribe simplemente como (1 3)(4 5).


Descomposición de una permutación en trasposiciones:

Una trasposición es una permutación que intercambia dos elementos y fija los restantes. Dicho de otro modo, es un ciclo de longitud 2.

Las trasposiciones nos servirán para descomponer una permutación cualquiera de una forma diferente a la descomposición en ciclos. En particular, las trasposiciones que aparezcan no tendrán que ser disjuntas.

Por ejemplo, el ciclo (1 2 3 4) = (1 2) (2 3) (3 4). Aquí el orden de aplicación es importante: en primer lugar (3 4) deja el 4 en su sitio definitivo y el 3 descolocado. Después (2 3) deja en su sitio definitivo el 3 y el 2 descolocado, que quedará recolocado definitivamente por (1 2).

Para ver que cualquier permutación descompone como producto de trasposiciones bastará ver que todo ciclo lo hace. De hecho, la descomposición del ciclo de nuestro ejemplo se generaliza a la fórmula:


No habrá unicidad en la descomposición, ni siquiera en el número de trasposiciones necesarias. Pero se demuestra que si σ admite dos descomposiciones distintas con n y con m trasposiciones, entonces n y m tendrán la misma paridad (serán simultáneamente pares o impares).


PERMUTACION PAR Y PERMUTACION IMPAR:
Llamaremos permutación par (resp. impar) a la que se escribe como composición de un número par (resp. impar) de trasposiciones.

Como ejemplo, de las 6=3! permutaciones del conjunto {1, 2, 3}, escritas en notación de ciclos:

(1 2), (2 3) y (1 3) son, de forma trivial, impares.
(1 2 3) y (1 3 2) son pares, como es fácil de comprobar al aplicar la fórmula anterior de descomposición de un ciclo en trasposiciones.
e (la identidad) también es par.
En general, se demuestra que la mitad de las n! permutaciones de un conjunto de n elementos son pares y la otra mitad impares



COMENTARIO:
son todas las ordenaciones que son posibles en un determinado conjunto, es decir todos losrreglos de elementos en donde nos interesa el lugar o posición que ocupa cada uno de los elementos que constituyen dicho arreglo.

APLICACIONES DE LA PROBABILIDAD

Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto. No es correcto decir que la estadística está incluida en el propio modelado, ya que típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político.

Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre los precios del petróleo en Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un cálculo por un mercado de materias primas en que la guerra es más probable en contra de menos probable probablemente envía los precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinión. Por consiguiente, las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales. La teoría de las finanzas conductuales surgió para describir el efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en los conflictos.

Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayoría de los ciudadanos entender cómo se cálculan los pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las decisiones, especialmente en una democracia.

Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería también está estrechamente relacionada con la garantía del producto.

Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la primera carta en un baraja de cartas es la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% o 0%, y la elección correcta puede ser hecha con precisión por el que ve la carta. La física moderna proporciona ejemplos importantes de situaciones determinísticas donde sólo la descripción probabilística es factible debido a información incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente aleatorios.

En un universo determinista, basado en los conceptos newtonianos, no hay probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo de esta fuerza es conocido, entonces el número donde la bola parará será seguro. Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el movimiento y así sucesivamente. Una descripción probabilística puede entonces ser más práctica que la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los físicos se encuentran con la misma situación en la teoría cinética de los gases, donde el sistema determinístico en principio, es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro ) que sólo la descripción estadística de sus propiedades es viable.

La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo puede ser descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran importancia a las descripciones probabilísticas. Algunos científicos hablan de la expulsión del paraíso.[cita requerida] Otros no se conforman con la pérdida del determinismo. Albert Einstein comentó estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido de que Dios no tira el dado). No obstante hoy en día no existe un medio mejor para describir la física cuántica si no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se describe a través de distribuciones de probabilidad con la suposición de que es por ello un proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga procesos aleatorios sino por el hecho de no poder determinar con precisión sus parámetros fundamentales, lo que imposibilita la creación de un sistema de ecuaciones determinista.

TEORIA DE LA PROBABILIDAD

La probabilidad constituye un importante parametro en la determinacion de las diversas causalidades obtenidas tras una serie de eventos esperados dentro de un rango estadistico.

Existen diversas formas como metodo abstracto, como la teoría Dempster-Shafer y la teoría de la relatividad numerica, esta ultima con un alto grado de aceptacion si se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel minimo ya que somete a todas las antiguas reglas a una simple ley de relatividad.

HISTORIA DE LA PROBABILIDAD

El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante milenios, pero las descripciones matemáticas exactas de utilidad en estos problemas sólo surgieron mucho después.

Según Richard Jeffrey, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las circunstancias."[1]

Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática.

La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad.

Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x), siendo x cualquier error e y su probabilidad, y expuso tres propiedades de esta curva:

es simétrica al eje y;
el eje x es una asíntota, siendo la probabilidad del error igual a 0;
la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,


siendo c y h constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850). Gauss expuso la primera demostración que parece que se conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para r, el error probable de una única observación, es bien conocida.

En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposición de la teoría.

PROBABILIDAD

La probabilidad mide la frecuencia con la que ocurre un resultado en un experimento bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos.

Interpretaciones [editar]La palabra probabilidad no tiene una definición consistente. De hecho hay dos amplias categorías de interpretaciones de la probabilidad: los frecuentistas hablan de probabilidades sólo cuando se trata de experimentos aleatorios bien definidos. La frecuencia relativa de ocurrencia del resultado de un experimento, cuando se repite el experimento, es una medida de la probabilidad de ese suceso aleatorio. Los bayesianos, no obstante, asignan las probabilidades a cualquier declaración, incluso cuando no implica un proceso aleatorio, como una manera de representar su verosimilitud subjetiva

La teoría de conjuntos es de mucha utilidad en el desarrollo de las probabilidades, y es por ello que se debe revisar los conocimientos sobre las operaciones de conjuntos como lo son: la unión, la intersección, el complemento de un conjunto, etc.

Distribuciones de Probabilidad Discreta
Antes de clasificar a las distribuciones de Probabilidad Discreta, es conveniente conocer a que se le denomina función de probabilidad y distribución de probabilidad.


DEFINICION CLASICA DE PROBABILIDAD:

Sea un experimento aleatorio cuyo correspondiente espacio muestral E está formado por un número n finito de posibles resultados distintos y con la misma probabilidad de ocurrir {e1, e2, ... , en}

Si n1 resultados constituyen el subconjunto o suceso A1, n2 resultados constituyen el subconjunto o suceso A2 y, en general, nk resultados constituyen el subconjunto o suceso Ak de tal forma que:

es decir, que la probabilidad de cualquier suceso A es igual al cociente entre el número de casos favorables que integran el suceso A Regla de Laplace para E finitos y el número de casos posibles del espacio muestral E.

• Para que se pueda aplicar la regla de Laplace es necesario que todos los sucesos elementales sean equiprobables, es decir:

• Siendo A=

La probabilidad verifica las siguientes condiciones:

• La probabilidad de cualquier suceso es siempre un número no negativo entre 0 y 1

• La probabilidad del suceso seguro E vale 1

• La probabilidad del suceso imposible es 0

• La probabilidad de la unión de varios sucesos incompatibles o excluyentes A1, A1,..., Ar es igual a la suma de probabilidades de cada uno de ellos

Esta definición clásica de probabilidad fue una de las primeras que se dieron (1900) y se atribuye a Laplace; también se conoce con el nombre de probabilidad a priori pues, para calcularla, es necesario conocer, antes de realizar el experimento aleatorio, el espacio muestral y el número de resultados o sucesos elementales que entran a formar parte del suceso

La aplicación de la definición clásica de probabilidad puede presentar dificultades de aplicación cuando el espacio muestral es infinito o cuando los posibles resultados de un experimento no son equiprobables. Ej: En un proceso de fabricación de piezas puede haber algunas defectuosas y si queremos determinar la probabilidad de que una pieza sea defectuosa no podemos utilizar la definición clásica pues necesitaríamos conocer previamente el resultado del proceso de fabricación

Para resolver estos casos, se hace una extensión de la definición de probabilidad, de manera que se pueda aplicar con menos restricciones, llegando así a la definición frecuentista de probabilidad

3. Definición Frecuentista de la Probabilidad

La definición frecuentista consiste en definir la probabilidad como el límite cuando n tiende a infinito de la proporción o frecuencia relativa del suceso.

Sea un experimento aleatorio cuyo espacio muestral es E Sea A cualquier suceso perteneciente a E Si repetimos n veces el experimento en las mismas Condiciones, la frecuencia relativa del suceso A será:

Cuando el número n de repeticiones se hace muy grande la frecuencia relativa converge hacia un valor que llamaremos probabilidad del suceso A.

Es imposible llegar a este límite, ya que no podemos repetir el experimento un número infinito de veces, pero si podemos repetirlo muchas veces y observar como las frecuencias relativas tienden a estabilizarse

Esta definición frecuentista de la probabilidad se llama también probabilidad a posteriori ya que sólo podemos dar la probabilidad de un suceso después de repetir y observar un gran número de veces el experimento aleatorio correspondiente. Algunos autores las llaman probabilidades teóricas

4. Definición Subjetiva de la Probabilidad

Tanto la definición clásica como la frecuentista se basan en las repeticiones del experimento aleatorio; pero existen muchos experimentos que no se pueden repetir bajo las mismas condiciones y por tanto no puede aplicarse la interpretación objetiva de la probabilidad

En esos casos es necesario acudir a un punto de vista alternativo, que no dependa de las repeticiones, sino que considere la probabilidad como un concepto subjetivo que exprese el grado de creencia o confianza individual sobre la posibilidad de que el suceso ocurra

Se trata por tanto de un juicio personal o individual y es posible por tanto que, diferentes observadores tengan distintos grados de creencia sobre los posibles resultados, igualmente válidos

5. Definición Axiomática de la Probabilidad

La definición axiomática de la probabilidad es quizás la más simple de todas las definiciones y la menos controvertida ya que está basada en un conjunto de axiomas que establecen los requisitos mínimos para dar una definición de probabilidad. La ventaja de esta definición es que permite un desarrollo riguroso y matemático de la probabilidad. Fue introducida por A. N. Kolmogorov y aceptada por estadísticos y matemáticos en general

Definición

6. Teoremas Elementales o Consecuencias de los Axiomas


7. Probabilidad Condicionada

Hasta ahora hemos introducido el concepto de probabilidad considerando que la única información sobre el experimento era el espacio muestral. Sin embargo hay situaciones en las que se incorpora información suplementaria respecto de un suceso relacionado con el experimento aleatorio, cambiando su probabilidad de ocurrencia

El hecho de introducir más información, como puede ser la ocurrencia de otro suceso, conduce a que determinados sucesos no pueden haber ocurrido, variando el espacio de resultados y cambiando sus probabilidades

Definición

gla de Multiplicación de Probabilidades o Probabilidad Compuesta Partiendo de la definición de la probabilidad condicionada p(B/A) podemos escribir:

8. Teorema de la Probabilidad Compuesta o Producto

9. Teorema de la Probabilidad Total

10. Teorema de Bayes

11. Independencia de Sucesos



COMENTARIO:
La probabilidad estudia la posibilidad de que suceda un evento asi como las veces que podria ocurrir la misma y cual es la posibilidad de que suceda dicho evento.

TEORIA DE CONTEO

La teoría de conjuntos es de mucha utilidad en el desarrollo de las probabilidades, y es por ello que se debe revisar los conocimientos sobre las operaciones de conjuntos como lo son: la unión, la intersección, el complemento de un conjunto, etc.

.- Consideraremos a W como el conjunto universal el cual posee todos los elementos posibles, así el conjunto A es un subconjunto de W si todos los elementos de A son elementos de W, y se denota:

A Ì W si para todo x ÎA, x Î W

.- Sean A y B dos conjuntos cuales quiera entonces:

la unión se define como: C = A È B = { x / xÎA o xÎB};

la intersección se define como: C = A Ç B = { x / xÎA y xÎB};

el complemento se define como: Ac = { x Î W / x Ï A },

El conjunto que no posee elementos se denomina conjunto vacío y se denota por Æ . (Notemos que A Ç Ac = Æ )

Diremos que A y B son disjuntos o mutuamente excluyente si: A Ç B = Æ.

Para resolver algunos problemas de probabilidades es necesario conocer el numero de elementos que posee cierto conjunto y el conjunto universal, denominado, en probabilidades, espacio muestral, es por ello que se debe saber como determinar el número de elementos de cualquier conjunto, tarea que puede ser algo complicado, sin embargo en algunos casos esto se puede realizar y por ello es que es importante el aprender a calcular este número.


TECNICAS DE CONTEO:

Debes recordar la regla principal en las Técnicas de Conteo como lo es la ley de multiplicación:

Si se tienen n elementos de un tipo y m de otro, el número de parejas que se pueden formar tomando un elemento de cada tipo es

mxn.

Las permutaciones, las variaciones y las combinaciones, resultan de la regla de multiplicación

TEORÍAS DE CONTEO

Permutaciones y combinaciones: Contar el número de eventos que cumplen con algún conjunto de condiciones. Sirven para calcular la probabilidad de un evento cuando el número de eventos posibles es muy grande.

Factoriales: Dado un número entero positivo n el producto de todos los enteros desde n hasta 1 se llama factorial de n y se denota como n!. Ejemplo:

5! = 5 * 4 * 3 * 2 * 1

en notación: n! = n * (n-1) * (n-2) * ... 1

por definición 0! = 1

otra notación: 5! = 5 * 4!

n! = n (n-l)

Los factoriales sc usan para saber el número de formas en que se pueden organizar los objetos. Ejemplo:

cuatro envases con medio de cultivo y en cada uno de ellos se incuba un organismo diferente. ¿En cuantas formas se pueden acomodar en una incubadora?

4! =4 3 * 2 * 1 = 24 maneras

Para saber cuales son las formas de colocarlos se realiza un diagrama de árbol

TEORIA DE CONJUNTOS

La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor en el Siglo XIX y más tarde reformulada por Zermelo.

El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos"; así, se puede hablar de un conjunto de personas, ciudades, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto. El conjunto de los bolígrafos azules está bien definido, porque a la vista de un bolígrafo se puede saber si es azul o no. El conjunto de las personas altas no está bien definido, porque a la vista de una persona, no siempre se podrá decir si es alta o no, o puede haber distintas personas, que opinen si esa persona es alta o no lo es. En el siglo XIX, según Frege, los elementos de un conjunto se definían sólo por tal o cual propiedad. Actualmente la teoría de conjuntos está bien definida por el sistema ZFC. Sin embargo, sigue siendo célebre la definición que publicó Cantor

Se entiende por conjunto a la agrupación en un todo de objetos bien diferenciados de nuestra intuición o nuestra mente.


Usualmente los conjuntos se representan con una letra mayúscula: A, B, K,...

Llamaremos elemento, a cada uno de los objetos que forman parte de un conjunto, estos elementos tienen carácter individual, tienen cualidades que nos permiten diferenciarlos, y cada uno de ellos es único, no habiendo elementos duplicados o repetidos. Los representaremos con una letra minúscula: a, b, k,...


Igualdad entre conjuntos.
Subconjuntos y Superconjuntos

Igualdad de conjuntos:
Dos conjuntos y se dicen iguales, lo que se escribe si constan de los mismos elementos. Es decir, si y solo si todo elemento de A está también contenido en B y todo elemento de B está contenido en A.


Operaciones de conjuntos:
Sean y dos conjuntos.


Unión:
Diagrama de Venn que ilustra Para cada par de conjuntos A y B existe un conjunto que se denota como el cual contiene todos los elementos de A y de B. De manera más general, para cada conjunto S existe otro conjunto denotado como de manera que sus elementos son todos los tales que . De esta manera es el caso especial donde .

Es claro que el hecho de que un elemento x pertenezca a es condición necesaria y suficiente para afirmar que x es un elemento de A o al menos de B. Es decir

INTERSECCION:
Los elementos comunes a y forman un conjunto denominado intersección de y , representado por . Es decir, es el conjunto que contiene a todos los elementos de A que al mismo tiempo están en B:

.
Si dos conjuntos y son tales que , entonces y se dice que son conjuntos disjuntos.

Es claro que el hecho de que es condición necesaria y suficiente para afirmar que y .

DIFERENCIA:
Los elementos de un conjunto que no se encuentran en otro conjunto , forman otro conjunto llamado diferencia de y , representado por . Es decir:

Algunas personas prefieren denotar la diferencia de y como .

Una propiedad interesante de la diferencia es que.

COMPLEMENTO:
El complemento de un conjunto A, es el conjunto de los elementos que pertenecen a algún conjunto U pero no pertenecen a A, que lo representaremos por . Es decir

El conjunto complemento siempre lo es respecto al conjunto universal que estamos tratando, esto es, si hablamos de números enteros, y definimos el conjunto de los números pares, el conjunto complemento de los números pares, es el formado por los números no pares. Si estamos hablando de personas, y definimos el conjunto de las personas rubias, el conjunto complementario es el de las personas no rubias.

DIFERENCIA SIMETRICA:
Los elementos de dos conjuntos,A y B a excepción de aquellos que se encuentran en el área de intersección de dichos conjuntos se define la diferencia simétrica.

IV BIMESTRE