viernes, 26 de septiembre de 2008

ESPERANZA MATEMATICA

Se estudia la esperanza matemática, el teorema de momentos y la función generatriz como herramientas de gran importancia para evaluar parámetros estadísticos en funciones y variables aleatorias.

Una definición de Esperanza MatemáticaUna definición fácil de entender de lo que aquí llamaremos «Esperanza Matemática» es la relación entre el premio obtenido y probabilidad de acertar.

La definición matemática de «Esperanza Matemática» o Valor Esperado es bastante más compleja, pero en el desarrollo de este Sistema se limita a Premio x Probabilidad.
Aquí, un valor para la esperanza matemática de 1 indica «juego justo», un «menor que uno» indica «desfavorable para el jugador» y un «mayor que uno» es «favorable para el jugador» ( en las definiciones formales el cero suele ser el «juego justo», y los valores negativos o positivos indican «positivo o negativo para el jugador»).

Si la esperanza matemática es 1, el juego es «justo». Por ejemplo, apostar 1 euro a que una moneda sale cara o cruz, si el premio por acertar son 2 euros, y si se pierde, 0 euros. La esperanza del juego es 2 · (1/2) = 1. Entonces, consecuentemente con la teoría de juegos, podría pagar el euro para jugar o para rechazar jugar, porque de cualquier manera su expectativa total sería 0.
Si la esperanza matemática es menor que 1, el juego es «desfavorable para el jugador». Un sorteo que pague 500 a 1 pero en el que la probabilidad de acertar sea de 1 entre 1.000, la esperanza matemática es 500 · (1/1.000) = 0,5.
Si la esperanza matemática es mayor que 1, el juego es «favorable para el jugador», todo un «chollo» para el jugador. Un ejemplo sería un juego en el que se paga 10 a 1 por acertar el número que va a salir en un dado, en donde hay una probabilidad de acertar es de 1 entre 6. En este ejemplo el valor de la esperanza matemática es 10 · (1/6)=1,67 y por tanto en esas condiciones es juego «beneficioso» para el jugador.
Esperanza matemática de las loteríasLa esperanza matemática es un valor importante que conocer para cualquier tipo de premio, en función de su dificultad, y para cada sorteo concreto.

En la Primitiva, la esperanza matemática general o promedio es sencillamente 0,55 y en Euromillones es 0,5. Se corresponde a la cantidad que se devuelve en premios: el 55% o el 50% del total apostado por los jugadores. Ese dinero siempre se devuelve, teniendo en cuenta que con el tiempo los premios no entregados se acumulan en Botes.

En la Primitiva el reparto de premios funciona de modo que la cantidad jugada por todos los jugadores (excepto el 45% que se queda la organización) se suma y reparte en diversas categorías: una parte para los de más aciertos, otra parte para premios menores, reintegros, etc. Esto marca ciertamente diferencias entre la esperanza matemática (premios por probabilidad) de las diferentes categorías de premios. La esperanza matemática más alta es la del Reintegro que es de 0,1 (10 %).

Estos cálculos, que de por sí son sencillos, se ven complicados por algunas reglas relativamente recientes, como el «premio fijo para los acertantes de 3» o «los acertantes de 5 nunca pueden ganar más que los de 6», pero son en cualquier caso calculables con precisión.

En general, y para la Loto tradicional la norma a grandes rasgos es que la esperanza matemática es mayor que 1 cuando la cantidad de premios total (el bote más el 55% de la cantidad que todos los jugadores apuestan ese día) es mayor de lo que valen 13,9 millones de apuestas (dado que la probabilidad de acertar es de 1 entre 13,9 millones) y esto ocurre en muy muy muy raras ocasiones.

Pero imagenemos como hipótesis de trabajo que llega un día en el que se ha acumulado un bote de 20 millones de euros y en el que por alguna circunstancia nadie juega a la Loto excepto una persona. A 1 euro por apuesta, esto supondría pagar unos 14 millones de euros para jugar a todas las combinaciones y embolsarse todos los premios: el bote más lógicamente la recuperación del 55% de lo apostado y un 10% en reintegros (7,7 millones de euros, correspondiente al resto de premios menores de 5, 4, reintegros, etc.) Resultado: apostando 14 millones se recuperarían 27,7 millones de euros. Casi otros 14 millones de beneficio. ¡Buen negocio!

Un ejemplo real fue el sorteo de Bonoloto (Loto 6/49) del 18/11/1990. Un bote de 1.151 millones de pesetas se sumó a una recaudación de sólo 374 millones. A 25 pesetas por apuesta se hicieron en total unos 15 millones de apuestas. La probabilidad de acertar 6 era de 1 entre 14 millones, como siempre (y en total se repartía el 55% de la recaudación, como siempre). El premio de 1.200 millones que recibió un único acertante de 6 números tenía como base una esperanza matemática de 3,2 (frente a 1 que sería lo normal en un “juego justo” o 0,55 en un día convencional sin bote). Es decir, si el juego hubiera sido “justo” tanto para el jugador como para la banca, el premio debería haber sido de sólo unos 350 millones. Pero el ganador se llevó 1.200 millones porque había un bote acumulado de muchísimas semanas. La esperanza matemática promedio de ese día, contando todos los premios, era de 3,6. ¡Ese día ciertamente era mejor jugar a la Loto que no jugar!

Casi siempre, cualquier juego real de apuestas tiene esperanza menor que 1: lo más probable es perder dinero. El motivo por el que se juega es que en caso de ganar, los premios son de escándalo. Estamos dispuestos a perder una cantidad pequeña de dinero casi con seguridad a cambio de la posibilidad, por pequeña que sea, de hacernos ricos de la noche a la mañana.


HISTORIA:
Originalmente el concepto de esperanza matemática surgió en relación con los juegos de azar y en su forma mas simple es el producto de la cantidad que un jugador puede ganar y la probabilidad de que ganara. Por ejemplo: si tenemos uno de 10,000 boletos de una rifa cuyo premio principal es un viaje que vale 4,800 nuestra esperanza matemática es 4,800. 1/ 10,000= $0.48 por boleto. Si también hay un segundo premio de $1.200 y u tercer premio con valor de $400, podemos argumentar que en conjunto los 10,000 boletos pagan $4,800+ $1,200, + $400= $6,400 o en promedio $6,400/ 10,000= $0.64 por boleto. Veamos esto e forma diferente podemos argumentar que si la rifa se repite muchas veces perderíamos 99.97 porciento de las veces (o una probabilidad de 0.9997) y ganaríamos cada uno de los premios 0.01 porciento de las veces (o con probabilidad de 0.0001) en promedio ganaríamos así 0(0.9997) + 4,800(0.0001) + 1,200(0.0001) + 400(0.0001)= $0.64, que es la suma de os productos obtenidos al multiplicar cada cantidad por la probabilidad correspondiente.

EL VALOR ESPERADO DE VARIABLE ALEATORIA
En la ilustración de la sección anterior la cantidad que ganamos fue una variable aleatoria fue la suma de los productos obtenidos al multiplicar cada valor de la variable aleatoria de la probabilidad correspondiente. Nos referimos a la esperanza matemática de una variable aleatoria simplemente como su valor esperado, y entendemos la definición al caso continuo al reemplazar la operación e la suma por la integración


COMENTARIO:
La esperanza matemática es el valor que se espera de una variable, es la suma de todas las posibilidades que pueda haber en determinado evento.
La esperanza matemática o valor esperado es la suma de la probabilidad de todas las posibilidades por ejemplo. la relacion que hay entre el premio y todas las posibilidades de acertar.

ARBOL DE PROBALIDAD

Dibujo que se usa para analizar los posibles resultados en
una situación de probabilidad. Por ejemplo, las ramas
del diagrama de árbol de probabilidad de abajo
representan los cuatro resultados igualmente probables
que existen cuando se lanza dos veces una moneda

números al azar Números que resultan de un
experimento, como lanzar un dado o hacer girar una
rueda giratoria. Por ejemplo, lanzar un dado limpio
da números al azar porque cada uno de los seis
números posibles (1, 2, 3, 4, 5 y 6) tiene la misma
posibilidad de salir.
probabilidad Número entre 0 y 1 que indica la
posibilidad de que un suceso ocurra. Mientras más
se acerca la probabilidad a 1, más probable es que
el suceso ocurra.
resultado Una consecuencia posible en un
experimento o una situación de posibilidad. Por
ejemplo, cara y cruz son los dos resultados posibles
al lanzar una moneda.
resultado esperado Resultado promedio de un
número grande de repeticiones de un experimento
al azar. Por ejemplo, el resultado esperado de tirar
un dado es el número promedio de puntos que
aparecen después de varios tiros.
resultados igualmente probables Resultados
de un experimento de posibilidad que tienen la
misma probabilidad de ocurrir. Si todos los resultados
posibles son igualmente probables, entonces la
probabilidad de un suceso es igual a esta fracción:
simulación Modelo de una situación real. Por
ejemplo, una moneda limpia se puede usar para
simular una serie de juegos entre dos equipos
parejos.


Un instrumento útil dentro de la probabilidad condicional son las representaciones que nos permiten analizar la problemática de los eventos cuando estos ocurren uno después del otro. Concretamente estamos hablando de los diagramas de árbol. Este está constituido de varias ramas, cada rama parte de un nodo que representa un evento aleatorio diferente. En el esquema que se presenta a continuación se observa que la rama principal esta constituida de evento con diferentes posibilidades como son: la siguiente rama consta de eventos distintos, por ejemplo, que se realizan después de ocurrir , así de manera sucesiva pueden ocurrir eventos después de cualquiera de ellos. Otro ejemplo es el que se muestra, ocurren después del evento ocurriendo los eventos . También observamos que cada evento forma un universo para cada evento por lo que cada rama, de acuerdo con el axioma de normalizabilidad, tendrá que ser igual a uno.

COMENTARIO.
Es una grafica que utiliza para analizar y representar los resultados posibles de una actuvidad así como la posibilidad de ocurrencia en situaciones de probabilidad.
estos son diagrama que son muy utiles dentro de la probabilidad y que permiten representar los problemas de probabilidad cuando estos ocurren uno despues de otro. el arbol de probabilidad se constituye de ramas, estos parten del tronco y representan un evento aleatoriamente diferente.

miércoles, 17 de septiembre de 2008

DIAGRAMA DE ARBOL

HISTORIA:
Puentes de Königsberg.El trabajo de Leonhard Euler, en 1736, sobre el problema de los puentes de Königsberg es considerado el primer resultado de la teoría de grafos. También se considera uno de los primeros resultados topológicos en geometría (que no depende de ninguna medida). Este ejemplo ilustra la profunda relación entre la teoría de grafos y la topología.

En 1845 Gustav Kirchhoff publicó sus leyes de los circuitos para calcular el voltaje y la corriente en los circuitos eléctricos.

En 1852 Francis Guthrie planteó el problema de los cuatro colores que plantea si es posible, utilizando solamente cuatro colores, colorear cualquier mapa de países de tal forma que dos países vecinos nunca tengan el mismo color. Este problema, que no fue resuelto hasta un siglo después por Kenneth Appel y Wolfgang Haken, puede ser considerado como el nacimiento de la teoría de grafos. Al tratar de resolverlo, los matemáticos definieron términos y conceptos teóricos fundamentales de los grafos.


En ciencias de la informática, un árbol es una estructura de datos ampliamente usada que emula la forma de un árbol (un conjunto de nodos conectados). Un nodo es la unidad sobre la que se construye el árbol y puede tener cero o más nodos hijos conectados a él. Se dice que un nodo a es padre de un nodo b si existe un enlace desde a hasta b (en ese caso, también decimos que b es hijo de a). Sólo puede haber un único nodo sin padres, que llamaremos raíz. Un nodo que no tiene hijos se conoce como hoja. Los demás nodos (tienen padre y uno o varios hijos) se les conoce como rama.

Formalmente, podemos definir un árbol de la siguiente forma:

Caso base: un árbol con sólo un nodo (es a la vez raíz del árbol y hoja).
Un nuevo árbol a partir de un nodo nr y k árboles de raíces con elementos cada uno, puede construirse estableciendo una relación padre-hijo entre nr y cada una de las raíces de los k árboles. El árbol resultante de nodos tiene como raíz el nodo nr, los nodos son los hijos de nr y el conjunto de nodos hoja está formado por la unión de los k conjuntos hojas iniciales. A cada uno de los árboles Ai se les denota ahora subárboles de la raíz.
Una sucesión de nodos del árbol, de forma que entre cada dos nodos consecutivos de la sucesión haya una relación de parentesco, decimos que es un recorrido árbol. Existen dos recorridos típicos para listar los nodos de un árbol: primero en profundidad y primero en anchura. En el primer caso, se listan los nodos expandiendo el hijo actual de cada nodo hasta llegar a una hoja, donde se vuelve al nodo anterior probando por el siguiente hijo y así sucesivamente. En el segundo, por su parte, antes de listar los nodos de nivel n + 1 (a distancia n + 1 aristas de la raíz), se deben haber listado todos los de nivel n. Otros recorridos típicos del árbol son preorden, postorden e inorden:

El recorrido en preorden, también llamado orden previo consiste en recorrer en primer lugar la raíz y luego cada uno de los hijos en orden previo.
El recorrido en inorden, también llamado orden simétrico (aunque este nombre sólo cobra significado en los árboles binarios) consiste en recorrer en primer lugar A1, luego la raíz y luego cada uno de los hijos en orden simétrico.
El recorrido en postorden, también llamado orden posterior consiste en recorrer en primer lugar cada uno de los hijos en orden posterior y por último la raíz

Estructuras de datos en la representación de grafos:
Artículo principal: Grafo (estructura de datos)
Existen diferentes formas de almacenar grafos en una computadora. La estructura de datos usada depende de las características del grafo y el algoritmo usado para manipularlo. Entre las estructuras más sencillas y usadas se encuentran las listas y las matrices, aunque frecuentemente se usa una combinación de ambas. Las listas son preferidas en grafos dispersos porque tienen un eficiente uso de la memoria. Por otro lado, las matrices proveen acceso rápido, pero pueden consumir grandes cantidades de memoria.


Estructura de lista.
lista de incidencia - Las aristas son representadas con un vector de pares (ordenados, si el grafo es dirigido), donde cada par representa una de las aristas.
lista de adyacencia - Cada vértice tiene una lista de vértices los cuales son adyacentes a él. Esto causa redundancia en un grafo no dirigido (ya que A existe en la lista de adyacencia de B y viceversa), pero las búsquedas son más rápidas, al costo de almacenamiento extra.

Estructuras matriciales
Matriz de incidencia - El grafo está representado por una matriz de A (aristas) por V (vértices), donde [arista, vértice] contiene la información de la arista (1 - conectado, 0 - no conectado)
Matriz de adyacencia - El grafo está representado por una matriz cuadrada M de tamaño n2, donde n es el número de vértices. Si hay una arista entre un vértice x y un vértice y, entonces el elemento mx,y es 1, de lo contrario, es 0.

Definiciones:

Vértice.
]Artículo principal: Vértice (teoría de grafos)
Un vértice es la unidad fundamental de la que están formados los grafos. Los vértices son tratados como un objeto indivisible y sin propiedades, aunque puedan tener una estructura adicional dependiendo de la aplicación por la cual se usa el grafo; por ejemplo, una red semántica es un grafo en donde los vértices representan conceptos o clases de objetos.


Grafo.
Artículo principal: Grafo

En la figura, V = { a, b, c, d, e, f }, y A = { ab, ac, ae, bc, bd, df, ef }.Un grafo es una pareja de conjuntos G = (V,A), donde V es el conjunto de vértices, y A es el conjunto de aristas, este último es un conjunto de pares de la forma (u,v) tal que , tal que . Para simplificar, notaremos la arista (a,b) como ab.

En teoría de grafos, sólo queda lo esencial del dibujo: la forma de las aristas no son relevantes, sólo importa a qué vértices están unidas. La posición de los vértices tampoco importa, y se puede variar para obtener un dibujo más claro.

Muchas redes de uso cotidiano pueden ser modeladas con un grafo: una red de carreteras que conecta ciudades, una red eléctrica o la red de drenaje de una ciudad.


Subgrafo.
Un subgrafo de un grafo G es un grafo cuyos conjuntos de vértices y aristas son subconjuntos de los de G. Se dice que un grafo G contiene a otro grafo H si algún subgrafo de G es H o es isomorfo a H (dependiendo de las necesidades de la situación)

El subgrafo inducido de G es un subgrafo G' de G tal que contiene todas las aristas adyacentes al subconjunto de vértices de G.


Aristas dirigidas y no dirigidas.
En algunos casos es necesario asignar un sentido a las aristas, por ejemplo, si se quiere representar la red de las calles de una ciudad con sus direcciones únicas. El conjunto de aristas será ahora un subconjunto de todos los posibles pares ordenados de vértices, con (a, b) ≠ (b, a). Los grafos que contienen aristas dirigidas se denominan grafos orientados, como el siguiente:

Las aristas no orientadas se consideran bidireccionales para efectos prácticos (equivale a decir que existen dos aristas orientadas entre los nodos, cada una en un sentido).

En el grafo anterior se ha utilizado una arista que tiene sus dos extremos idénticos: es un lazo (o bucle), y aparece también una arista bidireccional, y corresponde a dos aristas orientadas.

Se considera la característica de "grado" (positivo o negativo) de un vértice v (y se indica como (v)), como la cantidad de aristas que llegan o salen de él; para el caso de grafos no orientados, el grado de un vértice es simplemente la cantidad de aristas incidentes a este vértice. Por ejemplo, el grado positivo (salidas) de d es 3, mientras que el grado negativo (llegadas) de b es 0.

Según la terminología seguida en algunos problemas clásicos de Investigación Operativa (p.ej.: el Problema del flujo máximo), a un vértice del que sólo salen aristas se le denomina fuente (en el ejemplo anterior, el vértice d); tiene grado negativo 0. Por el contrario, a aquellos en los que sólo entran aristas se les denomina pozo o sumidero (en el caso anterior, el vértice e); tiene grado positivo 0.


Ciclos y caminos hamiltonianos.
Artículo principal: Ciclo hamiltoniano

Ejemplo de un ciclo hamiltoniano.Un ciclo es un camino, es decir una sucesión de aristas adyacentes, donde no se recorre dos veces la misma arista, y donde se regresa al punto inicial. Un ciclo hamiltoniano tiene además que recorrer todos los vértices exactamente una vez (excepto el vértice del que parte y al cual llega).

Por ejemplo, en un museo grande (al estilo del Louvre), lo idóneo sería recorrer todas las salas una sola vez, esto es buscar un ciclo hamiltoniano en el grafo que representa el museo (los vértices son las salas, y las aristas los corredores o puertas entre ellas).

Se habla también de camino hamiltoniano si no se impone regresar al punto de partida, como en un museo con una única puerta de entrada. Por ejemplo, un caballo puede recorrer todas las casillas de un tablero de ajedrez sin pasar dos veces por la misma: es un camino hamiltoniano. Ejemplo de un ciclo hamiltoniano en el grafo del dodecaedro.

Hoy en día, no se conocen métodos generales para hallar un ciclo hamiltoniano en tiempo polinómico, siendo la búsqueda por fuerza bruta de todos los posibles caminos u otros métodos excesivamente costosos. Existen, sin embargo, métodos para descartar la existencia de ciclos o caminos hamiltonianos en grafos pequeños.

El problema de determinar la existencia de ciclos hamiltonianos, entra en el conjunto de los NP-completos.


Caracterización de grafos.

Grafos simples.
Un grafo es simple si a lo sumo sólo 1 arista une dos vértices cualesquiera. Esto es equivalente a decir que una arista cualquiera es la única que une dos vértices específicos.

Un grafo que no es simple se denomina GRAFO COMPLEJO.


Grafos conexos.
Un grafo es conexo si cada par de vértices está conectado por un camino; es decir, si para cualquier par de vértices (a, b), existe al menos un camino posible desde a hacia b.

Un grafo es fuertemente conexo si cada par de vértices está conectado por al menos dos caminos disjuntos; es decir, es conexo y no existe un vértice tal que al sacarlo el grafo resultante sea disconexo.

Es posible determinar si un grafo es conexo usando un algoritmo Búsqueda en anchura (BFS) o Búsqueda en profundidad (DFS).

En términos matemáticos la propiedad de un grafo de ser (fuertemente) conexo permite establecer en base a él una relación de equivalencia para sus vértices, la cual lleva a una partición de éstos en "componentes (fuertemente) conexas", es decir, porciones del grafo, que son (fuertemente) conexas cuando se consideran como grafos aislados. Esta propiedad es importante para muchas demostraciones en teoría de grafos.




Grafos completos.
Artículo principal: Grafo completo
Un grafo simple es completo si existen aristas uniendo todos los pares posibles de vértices. Es decir, todo par de vértices (a, b) debe tener una arista e que los une.

El conjunto de los grafos completos es denominado usualmente , siendo el grafo completo de n vértices.

Un Kn, es decir, grafo completo de n vértices tiene exactamente aristas.

La representación gráfica de los Kn como los vértices de un polígono regular da cuenta de su peculiar estructura.


Grafos bipartitos.
Artículo principal: Grafo bipartito
Un grafo G es bipartito si puede expresarse como (es decir, sus vértices son la unión de dos grupos de vértices), bajo las siguientes condiciones:

V1 y V2 son disjuntos y no vacíos.
Cada arista de A une un vértice de V1 con uno de V2.
No existen aristas uniendo dos elementos de V1; análogamente para V2.
Bajo estas condiciones, el grafo se considera bipartito, y puede describirse informalmente como el grafo que une o relaciona dos conjuntos de elementos diferentes, como aquellos resultantes de los ejercicios y puzzles en los que debe unirse un elemento de la columna A con un elemento de la columna B.


Homeomorfismos de grafos.
Artículo principal: Homeomorfismos de grafos
Dos grafos G1 y G2 son homeomorfos si ambos pueden obtenerse a partir del mismo grafo con una sucesión de subdivisiones elementales de aristas.


Árboles.
Ejemplo de árbol.Un grafo que no tiene ciclos y que conecta a todos los puntos, se llama un árbol. En un grafo con n vértices, los árboles tienen exactamente n - 1 aristas, y hay nn-2 árboles posibles. Su importancia radica en que los árboles son grafos que conectan todos los vértices utilizando el menor número posible de aristas. Un importante campo de aplicación de su estudio se encuentra en el análisis filogenético, el de la filiación de entidades que derivan unas de otras en un proceso evolutivo, que se aplica sobre todo a la averiguación del parentesco entre especies; aunque se ha usado también, por ejemplo, en el estudio del parentesco entre lenguas.


Grafos ponderados o etiquetados:
En muchos casos, es preciso atribuir a cada arista un número específico, llamado valuación, ponderación o coste según el contexto, y se obtiene así un grafo valuado.
Formalmente, es un grafo con una función v: A → R+.

Por ejemplo, un representante comercial tiene que visitar n ciudades conectadas entre sí por carreteras; su interés previsible será minimizar la distancia recorrida (o el tiempo, si se pueden prever atascos). El grafo correspondiente tendrá como vértices las ciudades, como aristas las carreteras y la valuación será la distancia entre ellas.
Y, de momento, no se conocen métodos generales para hallar un ciclo de valuación mínima, pero sí para los caminos desde a hasta b, sin más condición.


Teorema de los cuatro colores:
Artículo principal: Teorema de los cuatro colores

En 1852 Francis Guthrie planteó el problema de los cuatro colores.Otro problema famoso relativo a los grafos: ¿Cuántos colores son necesarios para dibujar un mapa político, con la condición obvia que dos países adyacentes no puedan tener el mismo color? Se supone que los países son de un solo pedazo, y que el mundo es esférico o plano. En un mundo en forma de toro; el teorema siguiente no es válido:

Cuatro colores son siempre suficientes para colorear un mapa.

El mapa siguiente muestra que tres colores no bastan: Si se empieza por el país central a y se esfuerza uno en utilizar el menor número de colores, entonces en la corona alrededor de a alternan dos colores. Llegando al país h se tiene que introducir un cuarto color. Lo mismo sucede en i si se emplea el mismo método.

La forma precisa de cada país no importa; lo único relevante es saber qué país toca a qué otro. Estos datos están incluidos en el grafo donde los vértices son los países y las aristas conectan los que justamente son adyacentes. Entonces la cuestión equivale a atribuir a cada vértice un color distinto del de sus vecinos.

Hemos visto que tres colores no son suficientes, y demostrar que con cinco siempre se llega, es bastante fácil. Pero el teorema de los cuatro colores no es nada obvio. Prueba de ello es que se han tenido que emplear ordenadores para acabar la demostración (se ha hecho un programa que permitió verificar una multitud de casos, lo que ahorró muchísimo tiempo a los matemáticos). Fue la primera vez que la comunidad matemática aceptó una demostración asistida por ordenador, lo que ha creado una fuerte polémica dentro de la comunidad matemática, llegando en algunos casos a plantearse la cuestión de que esta demostración y su aceptación es uno de los momentos que han generado una de las más terribles crisis en el mundo matemático.


Coloración de grafos

Colores en los vértices.Definición: Si G=(V,E) es un grafo no dirigido, una coloración propia de G, ocurre cuando coloreamos los vértices de G de modo que si {a, b} es una arista en G entonces a y b tienen diferentes colores. (Por lo tanto, los vértices adyacentes tienen colores diferentes). El número mínimo de colores necesarios para una coloración propia de G es el número cromático de G y se escribe como C(G). Sea G un grafo no dirigido sea λ el número de colores disponibles para la coloración propia de los vértices de G. Nuestro objetivo es encontrar una función polinomial P(G,λ), en la variable λ, llamada polinomio cromático de G , que nos indique el número de coloraciones propias diferentes de los vértices de G, usando un máximo de λ colores.

Grafos planos:

Un grafo es plano si se puede dibujar sin cruces de aristas.Cuando un grafo o multigrafo se puede dibujar en un plano sin que dos segmentos se corten, se dice que es plano.

Un juego muy conocido es el siguiente: Se dibujan tres casas y tres pozos. Todos los vecinos de las casas tienen el derecho de utilizar los tres pozos. Como no se llevan bien en absoluto, no quieren cruzarse jamás. ¿Es posible trazar los nueve caminos que juntan las tres casas con los tres pozos sin que haya cruces?

Cualquier disposición de las casas, los pozos y los caminos implica la presencia de al menos un cruce.

Sea Kn el grafo completo con n vértices, Kn, p es el grafo bipartito de n y p vértices.

El juego anterior equivale a descubrir si el grafo bipartito completo K3,3 es plano, es decir, si se puede dibujar en un plano sin que haya cruces, siendo la respuesta que no. En general, puede determinarse que un grafo no es plano, si en su diseño puede encontrase una estructura análoga (conocida como menor) a K5 o a K3,3.




COMENTARIO:
Un diagrama de árbol es una grafica que nos sirve para representar los resultados posibles de un experimento que consta de varios pasos, donde cada uno de los pasos tiene un número de maneras de llevarse acabo determinado evento.

TEORIA DE CONJUNTOS

La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor en el Siglo XIX y más tarde reformulada por Zermelo.

El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos"; así, se puede hablar de un conjunto de personas, ciudades, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto. El conjunto de los bolígrafos azules está bien definido, porque a la vista de un bolígrafo se puede saber si es azul o no. El conjunto de las personas altas no está bien definido, porque a la vista de una persona, no siempre se podrá decir si es alta o no, o puede haber distintas personas, que opinen si esa persona es alta o no lo es. En el siglo XIX, según Frege, los elementos de un conjunto se definían sólo por tal o cual propiedad. Actualmente la teoría de conjuntos está bien definida por el sistema ZFC. Sin embargo, sigue siendo célebre la definición que publicó Cantor


UNION:
La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor en el Siglo XIX y más tarde reformulada por Zermelo.

El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos"; así, se puede hablar de un conjunto de personas, ciudades, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto. El conjunto de los bolígrafos azules está bien definido, porque a la vista de un bolígrafo se puede saber si es azul o no. El conjunto de las personas altas no está bien definido, porque a la vista de una persona, no siempre se podrá decir si es alta o no, o puede haber distintas personas, que opinen si esa persona es alta o no lo es. En el siglo XIX, según Frege, los elementos de un conjunto se definían sólo por tal o cual propiedad. Actualmente la teoría de conjuntos está bien definida por el sistema ZFC. Sin embargo, sigue siendo célebre la definición que publicó Cantor


INTERSECCION:
Los elementos comunes a y forman un conjunto denominado intersección de y , representado por . Es decir, es el conjunto que contiene a todos los elementos de A que al mismo tiempo están en B:

.
Si dos conjuntos y son tales que , entonces y se dice que son conjuntos disjuntos.

Es claro que el hecho de que es condición necesaria y suficiente para afirmar que y

DIFERENCIA:
Los elementos de un conjunto que no se encuentran en otro conjunto , forman otro conjunto llamado diferencia de y , representado por

COMPLEMENTO:
El complemento de un conjunto A, es el conjunto de los elementos que pertenecen a algún conjunto U pero no pertenecen a A, que lo representaremos por . Es decir


El conjunto complemento siempre lo es respecto al conjunto universal que estamos tratando, esto es, si hablamos de números enteros, y definimos el conjunto de los números pares, el conjunto complemento de los números pares, es el formado por los números no pares. Si estamos hablando de personas, y definimos el conjunto de las personas rubias, el conjunto complementario es el de las personas no rubias.



COMENTARIO:
Un conjunto esta integrado por determinados elementos que pertenecen o no al conjunto por ejemplo todos los lapiceros de color negro. la union de conjuntos es cuando todos los elementos de dos conjuntos se unen para formar solo uno, tambien esta la interseccion se integra por los elementos comunes entre dos o varios conjuntos.

sábado, 13 de septiembre de 2008

COMBINACION

Una combinación es un arreglo donde el orden NO es importante. La notación para las combinaciones es C(n,r) que es la cantidad de combinaciones de “n” elementos seleccionados, “r” a la vez. Es igual a la cantidad de permutaciones de “n” elementos tomados “r” a la vez dividido por “r” factorial. Esto sería P(n,r)/r! en notación matemática.

Ejemplo: Si se seleccionan cinco cartas de un grupo de nueve, ¿cuantas combinaciones de cinco cartas habría?

La cantidad de combinaciones posibles sería: P(9,5)/5! = (9*8*7*6*5)/(5*4*3*2*1) = 126 combinaciones posibles.

Como ya se mencionó anteriormente, una combinación, es un arreglo de elementos en donde no nos interesa el lugar o posición que ocupan los mismos dentro del arreglo. En una combinación nos interesa formar grupos y el contenido de los mismos.

Las combinaciones son aquellas formas de agrupar los elementos de un conjunto teniendo en cuenta que:
NO influye el orden en que se colocan.
Si permitimos que se repitan los elementos, podemos hacerlo hasta tantas veces como elementos tenga la agrupación.

Existen dos tipos: combinaciones sin repetición y combinaciones con repetición.


COMBINACIONES SIN REPETICION:
Cuantos grupos de 5 alumnos pueden formarse con los treinta alumnos de una clase. (Un grupo es distinto de otro si se diferencia de otro por lo menos en un alumno)

No importa el orden (son grupos de alumnos). No puede haber dos alumnos iguales en un grupo evidentemente, luego sin repetición.
Por tanto, se pueden formar 142506 grupos distintos :

COMBINACIONES CON REPETICION :
En una confiteria hay cinco tipos diferentes de pasteles. ¿De cuántas formas se pueden elegir cuatro pasteles)

No importa el orden (son pasteles).
Puede haber dos o más pasteles en un grupo, luego con repetición.
Por tanto, se pueden formar 142506 grupos distintos :


COMENTARIO:
En este caso los todos los elementos que la constituyen deben tener un orden ya que en este caso nos interesa que todos los elementos quede ordenados.

PERMUTACION

En matemáticas, dado un conjunto finito con todos sus elementos diferentes, llamamos permutación a cada una de las posibles ordenaciones de los elementos de dicho conjunto.

Por ejemplo, en el conjunto {1,2,3}, cada ordenación posible de sus elementos, sin repetirlos, es una permutación. Existe un total de 6 permutaciones para estos elementos: "1,2,3", "1,3,2", "2,1,3", "2,3,1", "3,1,2" y "3,2,1".

La noción de permutación suele aparecer en dos contextos:

Como noción fundamental de combinatoria, centrándonos en el problema de su recuento.
En teoría de grupos, al definir nociones de simetría.

La permutación antes citada "1,3,2" puede verse como la imagen de una aplicación σ que lleva la lista inicial de objetos (1, 2, 3) en la lista de objetos reordenados (1, 3, 2). De este modo σ(1)=1, σ(2)=3 y σ(3)=2. También podemos definir a la permutación como la propia aplicación σ.

Así, formalmente, una permutación de un conjunto X es una biyección de X en sí mismo.

Aunque esta segunda definición generaliza a la primera al admitir conjuntos infinitos, el término permutación se usa principalmente para un conjunto finito X, y así lo haremos en el resto del artículo.


En combinatora:
La combinatoria trata del número de diferentes maneras que existen de considerar conjuntos formados a partir de elementos de un conjunto dado respetando ciertas reglas. Así un problema combinatorio consiste usualmente en establecer una regla sobre como deben ser las combinaciones y determinar cuantas combinaciones existen que cumplan dicha regla.

Un tipo importante de esas combinaciones son las llamadas permutaciones. Dada una n-tupla ordenada de elementos de un conjunto el número de permutaciones es el número de n-tuplas ordenadas diferentes que pueden construirse a partir de dicho conjunto.


Descomposición de una permutación en ciclos disjuntos:

La descomposición realizada por el procedimiento anterior no es única en principio, pues podrían haberse obtenido cualquiera de estos resultados equivalentes:

σ = (1 3 5 6)(2 4 7 8)=(2 4 7 8) (1 3 5 6)=(7 8 2 4)(6 1 3 5)
La descomposición canónica de una permutación como producto de ciclos se obtiene colocando en primer lugar de cada ciclo el número más pequeño del mismo. Posteriormente se procede a la colocación de los ciclos, colocando primero el ciclo cuyo primer elemento sea menor. Frecuentemente, suelen omitirse los ciclos de longitud 1. Así la permutación (1 3)(2)(4 5) se escribe simplemente como (1 3)(4 5).


Descomposición de una permutación en trasposiciones:

Una trasposición es una permutación que intercambia dos elementos y fija los restantes. Dicho de otro modo, es un ciclo de longitud 2.

Las trasposiciones nos servirán para descomponer una permutación cualquiera de una forma diferente a la descomposición en ciclos. En particular, las trasposiciones que aparezcan no tendrán que ser disjuntas.

Por ejemplo, el ciclo (1 2 3 4) = (1 2) (2 3) (3 4). Aquí el orden de aplicación es importante: en primer lugar (3 4) deja el 4 en su sitio definitivo y el 3 descolocado. Después (2 3) deja en su sitio definitivo el 3 y el 2 descolocado, que quedará recolocado definitivamente por (1 2).

Para ver que cualquier permutación descompone como producto de trasposiciones bastará ver que todo ciclo lo hace. De hecho, la descomposición del ciclo de nuestro ejemplo se generaliza a la fórmula:


No habrá unicidad en la descomposición, ni siquiera en el número de trasposiciones necesarias. Pero se demuestra que si σ admite dos descomposiciones distintas con n y con m trasposiciones, entonces n y m tendrán la misma paridad (serán simultáneamente pares o impares).


PERMUTACION PAR Y PERMUTACION IMPAR:
Llamaremos permutación par (resp. impar) a la que se escribe como composición de un número par (resp. impar) de trasposiciones.

Como ejemplo, de las 6=3! permutaciones del conjunto {1, 2, 3}, escritas en notación de ciclos:

(1 2), (2 3) y (1 3) son, de forma trivial, impares.
(1 2 3) y (1 3 2) son pares, como es fácil de comprobar al aplicar la fórmula anterior de descomposición de un ciclo en trasposiciones.
e (la identidad) también es par.
En general, se demuestra que la mitad de las n! permutaciones de un conjunto de n elementos son pares y la otra mitad impares



COMENTARIO:
son todas las ordenaciones que son posibles en un determinado conjunto, es decir todos losrreglos de elementos en donde nos interesa el lugar o posición que ocupa cada uno de los elementos que constituyen dicho arreglo.

APLICACIONES DE LA PROBABILIDAD

Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto. No es correcto decir que la estadística está incluida en el propio modelado, ya que típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político.

Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre los precios del petróleo en Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un cálculo por un mercado de materias primas en que la guerra es más probable en contra de menos probable probablemente envía los precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinión. Por consiguiente, las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales. La teoría de las finanzas conductuales surgió para describir el efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en los conflictos.

Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayoría de los ciudadanos entender cómo se cálculan los pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las decisiones, especialmente en una democracia.

Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería también está estrechamente relacionada con la garantía del producto.

Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la primera carta en un baraja de cartas es la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% o 0%, y la elección correcta puede ser hecha con precisión por el que ve la carta. La física moderna proporciona ejemplos importantes de situaciones determinísticas donde sólo la descripción probabilística es factible debido a información incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente aleatorios.

En un universo determinista, basado en los conceptos newtonianos, no hay probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo de esta fuerza es conocido, entonces el número donde la bola parará será seguro. Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el movimiento y así sucesivamente. Una descripción probabilística puede entonces ser más práctica que la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los físicos se encuentran con la misma situación en la teoría cinética de los gases, donde el sistema determinístico en principio, es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro ) que sólo la descripción estadística de sus propiedades es viable.

La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo puede ser descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran importancia a las descripciones probabilísticas. Algunos científicos hablan de la expulsión del paraíso.[cita requerida] Otros no se conforman con la pérdida del determinismo. Albert Einstein comentó estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido de que Dios no tira el dado). No obstante hoy en día no existe un medio mejor para describir la física cuántica si no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se describe a través de distribuciones de probabilidad con la suposición de que es por ello un proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga procesos aleatorios sino por el hecho de no poder determinar con precisión sus parámetros fundamentales, lo que imposibilita la creación de un sistema de ecuaciones determinista.