viernes, 26 de septiembre de 2008

ESPERANZA MATEMATICA

Se estudia la esperanza matemática, el teorema de momentos y la función generatriz como herramientas de gran importancia para evaluar parámetros estadísticos en funciones y variables aleatorias.

Una definición de Esperanza MatemáticaUna definición fácil de entender de lo que aquí llamaremos «Esperanza Matemática» es la relación entre el premio obtenido y probabilidad de acertar.

La definición matemática de «Esperanza Matemática» o Valor Esperado es bastante más compleja, pero en el desarrollo de este Sistema se limita a Premio x Probabilidad.
Aquí, un valor para la esperanza matemática de 1 indica «juego justo», un «menor que uno» indica «desfavorable para el jugador» y un «mayor que uno» es «favorable para el jugador» ( en las definiciones formales el cero suele ser el «juego justo», y los valores negativos o positivos indican «positivo o negativo para el jugador»).

Si la esperanza matemática es 1, el juego es «justo». Por ejemplo, apostar 1 euro a que una moneda sale cara o cruz, si el premio por acertar son 2 euros, y si se pierde, 0 euros. La esperanza del juego es 2 · (1/2) = 1. Entonces, consecuentemente con la teoría de juegos, podría pagar el euro para jugar o para rechazar jugar, porque de cualquier manera su expectativa total sería 0.
Si la esperanza matemática es menor que 1, el juego es «desfavorable para el jugador». Un sorteo que pague 500 a 1 pero en el que la probabilidad de acertar sea de 1 entre 1.000, la esperanza matemática es 500 · (1/1.000) = 0,5.
Si la esperanza matemática es mayor que 1, el juego es «favorable para el jugador», todo un «chollo» para el jugador. Un ejemplo sería un juego en el que se paga 10 a 1 por acertar el número que va a salir en un dado, en donde hay una probabilidad de acertar es de 1 entre 6. En este ejemplo el valor de la esperanza matemática es 10 · (1/6)=1,67 y por tanto en esas condiciones es juego «beneficioso» para el jugador.
Esperanza matemática de las loteríasLa esperanza matemática es un valor importante que conocer para cualquier tipo de premio, en función de su dificultad, y para cada sorteo concreto.

En la Primitiva, la esperanza matemática general o promedio es sencillamente 0,55 y en Euromillones es 0,5. Se corresponde a la cantidad que se devuelve en premios: el 55% o el 50% del total apostado por los jugadores. Ese dinero siempre se devuelve, teniendo en cuenta que con el tiempo los premios no entregados se acumulan en Botes.

En la Primitiva el reparto de premios funciona de modo que la cantidad jugada por todos los jugadores (excepto el 45% que se queda la organización) se suma y reparte en diversas categorías: una parte para los de más aciertos, otra parte para premios menores, reintegros, etc. Esto marca ciertamente diferencias entre la esperanza matemática (premios por probabilidad) de las diferentes categorías de premios. La esperanza matemática más alta es la del Reintegro que es de 0,1 (10 %).

Estos cálculos, que de por sí son sencillos, se ven complicados por algunas reglas relativamente recientes, como el «premio fijo para los acertantes de 3» o «los acertantes de 5 nunca pueden ganar más que los de 6», pero son en cualquier caso calculables con precisión.

En general, y para la Loto tradicional la norma a grandes rasgos es que la esperanza matemática es mayor que 1 cuando la cantidad de premios total (el bote más el 55% de la cantidad que todos los jugadores apuestan ese día) es mayor de lo que valen 13,9 millones de apuestas (dado que la probabilidad de acertar es de 1 entre 13,9 millones) y esto ocurre en muy muy muy raras ocasiones.

Pero imagenemos como hipótesis de trabajo que llega un día en el que se ha acumulado un bote de 20 millones de euros y en el que por alguna circunstancia nadie juega a la Loto excepto una persona. A 1 euro por apuesta, esto supondría pagar unos 14 millones de euros para jugar a todas las combinaciones y embolsarse todos los premios: el bote más lógicamente la recuperación del 55% de lo apostado y un 10% en reintegros (7,7 millones de euros, correspondiente al resto de premios menores de 5, 4, reintegros, etc.) Resultado: apostando 14 millones se recuperarían 27,7 millones de euros. Casi otros 14 millones de beneficio. ¡Buen negocio!

Un ejemplo real fue el sorteo de Bonoloto (Loto 6/49) del 18/11/1990. Un bote de 1.151 millones de pesetas se sumó a una recaudación de sólo 374 millones. A 25 pesetas por apuesta se hicieron en total unos 15 millones de apuestas. La probabilidad de acertar 6 era de 1 entre 14 millones, como siempre (y en total se repartía el 55% de la recaudación, como siempre). El premio de 1.200 millones que recibió un único acertante de 6 números tenía como base una esperanza matemática de 3,2 (frente a 1 que sería lo normal en un “juego justo” o 0,55 en un día convencional sin bote). Es decir, si el juego hubiera sido “justo” tanto para el jugador como para la banca, el premio debería haber sido de sólo unos 350 millones. Pero el ganador se llevó 1.200 millones porque había un bote acumulado de muchísimas semanas. La esperanza matemática promedio de ese día, contando todos los premios, era de 3,6. ¡Ese día ciertamente era mejor jugar a la Loto que no jugar!

Casi siempre, cualquier juego real de apuestas tiene esperanza menor que 1: lo más probable es perder dinero. El motivo por el que se juega es que en caso de ganar, los premios son de escándalo. Estamos dispuestos a perder una cantidad pequeña de dinero casi con seguridad a cambio de la posibilidad, por pequeña que sea, de hacernos ricos de la noche a la mañana.


HISTORIA:
Originalmente el concepto de esperanza matemática surgió en relación con los juegos de azar y en su forma mas simple es el producto de la cantidad que un jugador puede ganar y la probabilidad de que ganara. Por ejemplo: si tenemos uno de 10,000 boletos de una rifa cuyo premio principal es un viaje que vale 4,800 nuestra esperanza matemática es 4,800. 1/ 10,000= $0.48 por boleto. Si también hay un segundo premio de $1.200 y u tercer premio con valor de $400, podemos argumentar que en conjunto los 10,000 boletos pagan $4,800+ $1,200, + $400= $6,400 o en promedio $6,400/ 10,000= $0.64 por boleto. Veamos esto e forma diferente podemos argumentar que si la rifa se repite muchas veces perderíamos 99.97 porciento de las veces (o una probabilidad de 0.9997) y ganaríamos cada uno de los premios 0.01 porciento de las veces (o con probabilidad de 0.0001) en promedio ganaríamos así 0(0.9997) + 4,800(0.0001) + 1,200(0.0001) + 400(0.0001)= $0.64, que es la suma de os productos obtenidos al multiplicar cada cantidad por la probabilidad correspondiente.

EL VALOR ESPERADO DE VARIABLE ALEATORIA
En la ilustración de la sección anterior la cantidad que ganamos fue una variable aleatoria fue la suma de los productos obtenidos al multiplicar cada valor de la variable aleatoria de la probabilidad correspondiente. Nos referimos a la esperanza matemática de una variable aleatoria simplemente como su valor esperado, y entendemos la definición al caso continuo al reemplazar la operación e la suma por la integración


COMENTARIO:
La esperanza matemática es el valor que se espera de una variable, es la suma de todas las posibilidades que pueda haber en determinado evento.
La esperanza matemática o valor esperado es la suma de la probabilidad de todas las posibilidades por ejemplo. la relacion que hay entre el premio y todas las posibilidades de acertar.

ARBOL DE PROBALIDAD

Dibujo que se usa para analizar los posibles resultados en
una situación de probabilidad. Por ejemplo, las ramas
del diagrama de árbol de probabilidad de abajo
representan los cuatro resultados igualmente probables
que existen cuando se lanza dos veces una moneda

números al azar Números que resultan de un
experimento, como lanzar un dado o hacer girar una
rueda giratoria. Por ejemplo, lanzar un dado limpio
da números al azar porque cada uno de los seis
números posibles (1, 2, 3, 4, 5 y 6) tiene la misma
posibilidad de salir.
probabilidad Número entre 0 y 1 que indica la
posibilidad de que un suceso ocurra. Mientras más
se acerca la probabilidad a 1, más probable es que
el suceso ocurra.
resultado Una consecuencia posible en un
experimento o una situación de posibilidad. Por
ejemplo, cara y cruz son los dos resultados posibles
al lanzar una moneda.
resultado esperado Resultado promedio de un
número grande de repeticiones de un experimento
al azar. Por ejemplo, el resultado esperado de tirar
un dado es el número promedio de puntos que
aparecen después de varios tiros.
resultados igualmente probables Resultados
de un experimento de posibilidad que tienen la
misma probabilidad de ocurrir. Si todos los resultados
posibles son igualmente probables, entonces la
probabilidad de un suceso es igual a esta fracción:
simulación Modelo de una situación real. Por
ejemplo, una moneda limpia se puede usar para
simular una serie de juegos entre dos equipos
parejos.


Un instrumento útil dentro de la probabilidad condicional son las representaciones que nos permiten analizar la problemática de los eventos cuando estos ocurren uno después del otro. Concretamente estamos hablando de los diagramas de árbol. Este está constituido de varias ramas, cada rama parte de un nodo que representa un evento aleatorio diferente. En el esquema que se presenta a continuación se observa que la rama principal esta constituida de evento con diferentes posibilidades como son: la siguiente rama consta de eventos distintos, por ejemplo, que se realizan después de ocurrir , así de manera sucesiva pueden ocurrir eventos después de cualquiera de ellos. Otro ejemplo es el que se muestra, ocurren después del evento ocurriendo los eventos . También observamos que cada evento forma un universo para cada evento por lo que cada rama, de acuerdo con el axioma de normalizabilidad, tendrá que ser igual a uno.

COMENTARIO.
Es una grafica que utiliza para analizar y representar los resultados posibles de una actuvidad así como la posibilidad de ocurrencia en situaciones de probabilidad.
estos son diagrama que son muy utiles dentro de la probabilidad y que permiten representar los problemas de probabilidad cuando estos ocurren uno despues de otro. el arbol de probabilidad se constituye de ramas, estos parten del tronco y representan un evento aleatoriamente diferente.

miércoles, 17 de septiembre de 2008

DIAGRAMA DE ARBOL

HISTORIA:
Puentes de Königsberg.El trabajo de Leonhard Euler, en 1736, sobre el problema de los puentes de Königsberg es considerado el primer resultado de la teoría de grafos. También se considera uno de los primeros resultados topológicos en geometría (que no depende de ninguna medida). Este ejemplo ilustra la profunda relación entre la teoría de grafos y la topología.

En 1845 Gustav Kirchhoff publicó sus leyes de los circuitos para calcular el voltaje y la corriente en los circuitos eléctricos.

En 1852 Francis Guthrie planteó el problema de los cuatro colores que plantea si es posible, utilizando solamente cuatro colores, colorear cualquier mapa de países de tal forma que dos países vecinos nunca tengan el mismo color. Este problema, que no fue resuelto hasta un siglo después por Kenneth Appel y Wolfgang Haken, puede ser considerado como el nacimiento de la teoría de grafos. Al tratar de resolverlo, los matemáticos definieron términos y conceptos teóricos fundamentales de los grafos.


En ciencias de la informática, un árbol es una estructura de datos ampliamente usada que emula la forma de un árbol (un conjunto de nodos conectados). Un nodo es la unidad sobre la que se construye el árbol y puede tener cero o más nodos hijos conectados a él. Se dice que un nodo a es padre de un nodo b si existe un enlace desde a hasta b (en ese caso, también decimos que b es hijo de a). Sólo puede haber un único nodo sin padres, que llamaremos raíz. Un nodo que no tiene hijos se conoce como hoja. Los demás nodos (tienen padre y uno o varios hijos) se les conoce como rama.

Formalmente, podemos definir un árbol de la siguiente forma:

Caso base: un árbol con sólo un nodo (es a la vez raíz del árbol y hoja).
Un nuevo árbol a partir de un nodo nr y k árboles de raíces con elementos cada uno, puede construirse estableciendo una relación padre-hijo entre nr y cada una de las raíces de los k árboles. El árbol resultante de nodos tiene como raíz el nodo nr, los nodos son los hijos de nr y el conjunto de nodos hoja está formado por la unión de los k conjuntos hojas iniciales. A cada uno de los árboles Ai se les denota ahora subárboles de la raíz.
Una sucesión de nodos del árbol, de forma que entre cada dos nodos consecutivos de la sucesión haya una relación de parentesco, decimos que es un recorrido árbol. Existen dos recorridos típicos para listar los nodos de un árbol: primero en profundidad y primero en anchura. En el primer caso, se listan los nodos expandiendo el hijo actual de cada nodo hasta llegar a una hoja, donde se vuelve al nodo anterior probando por el siguiente hijo y así sucesivamente. En el segundo, por su parte, antes de listar los nodos de nivel n + 1 (a distancia n + 1 aristas de la raíz), se deben haber listado todos los de nivel n. Otros recorridos típicos del árbol son preorden, postorden e inorden:

El recorrido en preorden, también llamado orden previo consiste en recorrer en primer lugar la raíz y luego cada uno de los hijos en orden previo.
El recorrido en inorden, también llamado orden simétrico (aunque este nombre sólo cobra significado en los árboles binarios) consiste en recorrer en primer lugar A1, luego la raíz y luego cada uno de los hijos en orden simétrico.
El recorrido en postorden, también llamado orden posterior consiste en recorrer en primer lugar cada uno de los hijos en orden posterior y por último la raíz

Estructuras de datos en la representación de grafos:
Artículo principal: Grafo (estructura de datos)
Existen diferentes formas de almacenar grafos en una computadora. La estructura de datos usada depende de las características del grafo y el algoritmo usado para manipularlo. Entre las estructuras más sencillas y usadas se encuentran las listas y las matrices, aunque frecuentemente se usa una combinación de ambas. Las listas son preferidas en grafos dispersos porque tienen un eficiente uso de la memoria. Por otro lado, las matrices proveen acceso rápido, pero pueden consumir grandes cantidades de memoria.


Estructura de lista.
lista de incidencia - Las aristas son representadas con un vector de pares (ordenados, si el grafo es dirigido), donde cada par representa una de las aristas.
lista de adyacencia - Cada vértice tiene una lista de vértices los cuales son adyacentes a él. Esto causa redundancia en un grafo no dirigido (ya que A existe en la lista de adyacencia de B y viceversa), pero las búsquedas son más rápidas, al costo de almacenamiento extra.

Estructuras matriciales
Matriz de incidencia - El grafo está representado por una matriz de A (aristas) por V (vértices), donde [arista, vértice] contiene la información de la arista (1 - conectado, 0 - no conectado)
Matriz de adyacencia - El grafo está representado por una matriz cuadrada M de tamaño n2, donde n es el número de vértices. Si hay una arista entre un vértice x y un vértice y, entonces el elemento mx,y es 1, de lo contrario, es 0.

Definiciones:

Vértice.
]Artículo principal: Vértice (teoría de grafos)
Un vértice es la unidad fundamental de la que están formados los grafos. Los vértices son tratados como un objeto indivisible y sin propiedades, aunque puedan tener una estructura adicional dependiendo de la aplicación por la cual se usa el grafo; por ejemplo, una red semántica es un grafo en donde los vértices representan conceptos o clases de objetos.


Grafo.
Artículo principal: Grafo

En la figura, V = { a, b, c, d, e, f }, y A = { ab, ac, ae, bc, bd, df, ef }.Un grafo es una pareja de conjuntos G = (V,A), donde V es el conjunto de vértices, y A es el conjunto de aristas, este último es un conjunto de pares de la forma (u,v) tal que , tal que . Para simplificar, notaremos la arista (a,b) como ab.

En teoría de grafos, sólo queda lo esencial del dibujo: la forma de las aristas no son relevantes, sólo importa a qué vértices están unidas. La posición de los vértices tampoco importa, y se puede variar para obtener un dibujo más claro.

Muchas redes de uso cotidiano pueden ser modeladas con un grafo: una red de carreteras que conecta ciudades, una red eléctrica o la red de drenaje de una ciudad.


Subgrafo.
Un subgrafo de un grafo G es un grafo cuyos conjuntos de vértices y aristas son subconjuntos de los de G. Se dice que un grafo G contiene a otro grafo H si algún subgrafo de G es H o es isomorfo a H (dependiendo de las necesidades de la situación)

El subgrafo inducido de G es un subgrafo G' de G tal que contiene todas las aristas adyacentes al subconjunto de vértices de G.


Aristas dirigidas y no dirigidas.
En algunos casos es necesario asignar un sentido a las aristas, por ejemplo, si se quiere representar la red de las calles de una ciudad con sus direcciones únicas. El conjunto de aristas será ahora un subconjunto de todos los posibles pares ordenados de vértices, con (a, b) ≠ (b, a). Los grafos que contienen aristas dirigidas se denominan grafos orientados, como el siguiente:

Las aristas no orientadas se consideran bidireccionales para efectos prácticos (equivale a decir que existen dos aristas orientadas entre los nodos, cada una en un sentido).

En el grafo anterior se ha utilizado una arista que tiene sus dos extremos idénticos: es un lazo (o bucle), y aparece también una arista bidireccional, y corresponde a dos aristas orientadas.

Se considera la característica de "grado" (positivo o negativo) de un vértice v (y se indica como (v)), como la cantidad de aristas que llegan o salen de él; para el caso de grafos no orientados, el grado de un vértice es simplemente la cantidad de aristas incidentes a este vértice. Por ejemplo, el grado positivo (salidas) de d es 3, mientras que el grado negativo (llegadas) de b es 0.

Según la terminología seguida en algunos problemas clásicos de Investigación Operativa (p.ej.: el Problema del flujo máximo), a un vértice del que sólo salen aristas se le denomina fuente (en el ejemplo anterior, el vértice d); tiene grado negativo 0. Por el contrario, a aquellos en los que sólo entran aristas se les denomina pozo o sumidero (en el caso anterior, el vértice e); tiene grado positivo 0.


Ciclos y caminos hamiltonianos.
Artículo principal: Ciclo hamiltoniano

Ejemplo de un ciclo hamiltoniano.Un ciclo es un camino, es decir una sucesión de aristas adyacentes, donde no se recorre dos veces la misma arista, y donde se regresa al punto inicial. Un ciclo hamiltoniano tiene además que recorrer todos los vértices exactamente una vez (excepto el vértice del que parte y al cual llega).

Por ejemplo, en un museo grande (al estilo del Louvre), lo idóneo sería recorrer todas las salas una sola vez, esto es buscar un ciclo hamiltoniano en el grafo que representa el museo (los vértices son las salas, y las aristas los corredores o puertas entre ellas).

Se habla también de camino hamiltoniano si no se impone regresar al punto de partida, como en un museo con una única puerta de entrada. Por ejemplo, un caballo puede recorrer todas las casillas de un tablero de ajedrez sin pasar dos veces por la misma: es un camino hamiltoniano. Ejemplo de un ciclo hamiltoniano en el grafo del dodecaedro.

Hoy en día, no se conocen métodos generales para hallar un ciclo hamiltoniano en tiempo polinómico, siendo la búsqueda por fuerza bruta de todos los posibles caminos u otros métodos excesivamente costosos. Existen, sin embargo, métodos para descartar la existencia de ciclos o caminos hamiltonianos en grafos pequeños.

El problema de determinar la existencia de ciclos hamiltonianos, entra en el conjunto de los NP-completos.


Caracterización de grafos.

Grafos simples.
Un grafo es simple si a lo sumo sólo 1 arista une dos vértices cualesquiera. Esto es equivalente a decir que una arista cualquiera es la única que une dos vértices específicos.

Un grafo que no es simple se denomina GRAFO COMPLEJO.


Grafos conexos.
Un grafo es conexo si cada par de vértices está conectado por un camino; es decir, si para cualquier par de vértices (a, b), existe al menos un camino posible desde a hacia b.

Un grafo es fuertemente conexo si cada par de vértices está conectado por al menos dos caminos disjuntos; es decir, es conexo y no existe un vértice tal que al sacarlo el grafo resultante sea disconexo.

Es posible determinar si un grafo es conexo usando un algoritmo Búsqueda en anchura (BFS) o Búsqueda en profundidad (DFS).

En términos matemáticos la propiedad de un grafo de ser (fuertemente) conexo permite establecer en base a él una relación de equivalencia para sus vértices, la cual lleva a una partición de éstos en "componentes (fuertemente) conexas", es decir, porciones del grafo, que son (fuertemente) conexas cuando se consideran como grafos aislados. Esta propiedad es importante para muchas demostraciones en teoría de grafos.




Grafos completos.
Artículo principal: Grafo completo
Un grafo simple es completo si existen aristas uniendo todos los pares posibles de vértices. Es decir, todo par de vértices (a, b) debe tener una arista e que los une.

El conjunto de los grafos completos es denominado usualmente , siendo el grafo completo de n vértices.

Un Kn, es decir, grafo completo de n vértices tiene exactamente aristas.

La representación gráfica de los Kn como los vértices de un polígono regular da cuenta de su peculiar estructura.


Grafos bipartitos.
Artículo principal: Grafo bipartito
Un grafo G es bipartito si puede expresarse como (es decir, sus vértices son la unión de dos grupos de vértices), bajo las siguientes condiciones:

V1 y V2 son disjuntos y no vacíos.
Cada arista de A une un vértice de V1 con uno de V2.
No existen aristas uniendo dos elementos de V1; análogamente para V2.
Bajo estas condiciones, el grafo se considera bipartito, y puede describirse informalmente como el grafo que une o relaciona dos conjuntos de elementos diferentes, como aquellos resultantes de los ejercicios y puzzles en los que debe unirse un elemento de la columna A con un elemento de la columna B.


Homeomorfismos de grafos.
Artículo principal: Homeomorfismos de grafos
Dos grafos G1 y G2 son homeomorfos si ambos pueden obtenerse a partir del mismo grafo con una sucesión de subdivisiones elementales de aristas.


Árboles.
Ejemplo de árbol.Un grafo que no tiene ciclos y que conecta a todos los puntos, se llama un árbol. En un grafo con n vértices, los árboles tienen exactamente n - 1 aristas, y hay nn-2 árboles posibles. Su importancia radica en que los árboles son grafos que conectan todos los vértices utilizando el menor número posible de aristas. Un importante campo de aplicación de su estudio se encuentra en el análisis filogenético, el de la filiación de entidades que derivan unas de otras en un proceso evolutivo, que se aplica sobre todo a la averiguación del parentesco entre especies; aunque se ha usado también, por ejemplo, en el estudio del parentesco entre lenguas.


Grafos ponderados o etiquetados:
En muchos casos, es preciso atribuir a cada arista un número específico, llamado valuación, ponderación o coste según el contexto, y se obtiene así un grafo valuado.
Formalmente, es un grafo con una función v: A → R+.

Por ejemplo, un representante comercial tiene que visitar n ciudades conectadas entre sí por carreteras; su interés previsible será minimizar la distancia recorrida (o el tiempo, si se pueden prever atascos). El grafo correspondiente tendrá como vértices las ciudades, como aristas las carreteras y la valuación será la distancia entre ellas.
Y, de momento, no se conocen métodos generales para hallar un ciclo de valuación mínima, pero sí para los caminos desde a hasta b, sin más condición.


Teorema de los cuatro colores:
Artículo principal: Teorema de los cuatro colores

En 1852 Francis Guthrie planteó el problema de los cuatro colores.Otro problema famoso relativo a los grafos: ¿Cuántos colores son necesarios para dibujar un mapa político, con la condición obvia que dos países adyacentes no puedan tener el mismo color? Se supone que los países son de un solo pedazo, y que el mundo es esférico o plano. En un mundo en forma de toro; el teorema siguiente no es válido:

Cuatro colores son siempre suficientes para colorear un mapa.

El mapa siguiente muestra que tres colores no bastan: Si se empieza por el país central a y se esfuerza uno en utilizar el menor número de colores, entonces en la corona alrededor de a alternan dos colores. Llegando al país h se tiene que introducir un cuarto color. Lo mismo sucede en i si se emplea el mismo método.

La forma precisa de cada país no importa; lo único relevante es saber qué país toca a qué otro. Estos datos están incluidos en el grafo donde los vértices son los países y las aristas conectan los que justamente son adyacentes. Entonces la cuestión equivale a atribuir a cada vértice un color distinto del de sus vecinos.

Hemos visto que tres colores no son suficientes, y demostrar que con cinco siempre se llega, es bastante fácil. Pero el teorema de los cuatro colores no es nada obvio. Prueba de ello es que se han tenido que emplear ordenadores para acabar la demostración (se ha hecho un programa que permitió verificar una multitud de casos, lo que ahorró muchísimo tiempo a los matemáticos). Fue la primera vez que la comunidad matemática aceptó una demostración asistida por ordenador, lo que ha creado una fuerte polémica dentro de la comunidad matemática, llegando en algunos casos a plantearse la cuestión de que esta demostración y su aceptación es uno de los momentos que han generado una de las más terribles crisis en el mundo matemático.


Coloración de grafos

Colores en los vértices.Definición: Si G=(V,E) es un grafo no dirigido, una coloración propia de G, ocurre cuando coloreamos los vértices de G de modo que si {a, b} es una arista en G entonces a y b tienen diferentes colores. (Por lo tanto, los vértices adyacentes tienen colores diferentes). El número mínimo de colores necesarios para una coloración propia de G es el número cromático de G y se escribe como C(G). Sea G un grafo no dirigido sea λ el número de colores disponibles para la coloración propia de los vértices de G. Nuestro objetivo es encontrar una función polinomial P(G,λ), en la variable λ, llamada polinomio cromático de G , que nos indique el número de coloraciones propias diferentes de los vértices de G, usando un máximo de λ colores.

Grafos planos:

Un grafo es plano si se puede dibujar sin cruces de aristas.Cuando un grafo o multigrafo se puede dibujar en un plano sin que dos segmentos se corten, se dice que es plano.

Un juego muy conocido es el siguiente: Se dibujan tres casas y tres pozos. Todos los vecinos de las casas tienen el derecho de utilizar los tres pozos. Como no se llevan bien en absoluto, no quieren cruzarse jamás. ¿Es posible trazar los nueve caminos que juntan las tres casas con los tres pozos sin que haya cruces?

Cualquier disposición de las casas, los pozos y los caminos implica la presencia de al menos un cruce.

Sea Kn el grafo completo con n vértices, Kn, p es el grafo bipartito de n y p vértices.

El juego anterior equivale a descubrir si el grafo bipartito completo K3,3 es plano, es decir, si se puede dibujar en un plano sin que haya cruces, siendo la respuesta que no. En general, puede determinarse que un grafo no es plano, si en su diseño puede encontrase una estructura análoga (conocida como menor) a K5 o a K3,3.




COMENTARIO:
Un diagrama de árbol es una grafica que nos sirve para representar los resultados posibles de un experimento que consta de varios pasos, donde cada uno de los pasos tiene un número de maneras de llevarse acabo determinado evento.

TEORIA DE CONJUNTOS

La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor en el Siglo XIX y más tarde reformulada por Zermelo.

El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos"; así, se puede hablar de un conjunto de personas, ciudades, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto. El conjunto de los bolígrafos azules está bien definido, porque a la vista de un bolígrafo se puede saber si es azul o no. El conjunto de las personas altas no está bien definido, porque a la vista de una persona, no siempre se podrá decir si es alta o no, o puede haber distintas personas, que opinen si esa persona es alta o no lo es. En el siglo XIX, según Frege, los elementos de un conjunto se definían sólo por tal o cual propiedad. Actualmente la teoría de conjuntos está bien definida por el sistema ZFC. Sin embargo, sigue siendo célebre la definición que publicó Cantor


UNION:
La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor en el Siglo XIX y más tarde reformulada por Zermelo.

El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos"; así, se puede hablar de un conjunto de personas, ciudades, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto. El conjunto de los bolígrafos azules está bien definido, porque a la vista de un bolígrafo se puede saber si es azul o no. El conjunto de las personas altas no está bien definido, porque a la vista de una persona, no siempre se podrá decir si es alta o no, o puede haber distintas personas, que opinen si esa persona es alta o no lo es. En el siglo XIX, según Frege, los elementos de un conjunto se definían sólo por tal o cual propiedad. Actualmente la teoría de conjuntos está bien definida por el sistema ZFC. Sin embargo, sigue siendo célebre la definición que publicó Cantor


INTERSECCION:
Los elementos comunes a y forman un conjunto denominado intersección de y , representado por . Es decir, es el conjunto que contiene a todos los elementos de A que al mismo tiempo están en B:

.
Si dos conjuntos y son tales que , entonces y se dice que son conjuntos disjuntos.

Es claro que el hecho de que es condición necesaria y suficiente para afirmar que y

DIFERENCIA:
Los elementos de un conjunto que no se encuentran en otro conjunto , forman otro conjunto llamado diferencia de y , representado por

COMPLEMENTO:
El complemento de un conjunto A, es el conjunto de los elementos que pertenecen a algún conjunto U pero no pertenecen a A, que lo representaremos por . Es decir


El conjunto complemento siempre lo es respecto al conjunto universal que estamos tratando, esto es, si hablamos de números enteros, y definimos el conjunto de los números pares, el conjunto complemento de los números pares, es el formado por los números no pares. Si estamos hablando de personas, y definimos el conjunto de las personas rubias, el conjunto complementario es el de las personas no rubias.



COMENTARIO:
Un conjunto esta integrado por determinados elementos que pertenecen o no al conjunto por ejemplo todos los lapiceros de color negro. la union de conjuntos es cuando todos los elementos de dos conjuntos se unen para formar solo uno, tambien esta la interseccion se integra por los elementos comunes entre dos o varios conjuntos.

sábado, 13 de septiembre de 2008

COMBINACION

Una combinación es un arreglo donde el orden NO es importante. La notación para las combinaciones es C(n,r) que es la cantidad de combinaciones de “n” elementos seleccionados, “r” a la vez. Es igual a la cantidad de permutaciones de “n” elementos tomados “r” a la vez dividido por “r” factorial. Esto sería P(n,r)/r! en notación matemática.

Ejemplo: Si se seleccionan cinco cartas de un grupo de nueve, ¿cuantas combinaciones de cinco cartas habría?

La cantidad de combinaciones posibles sería: P(9,5)/5! = (9*8*7*6*5)/(5*4*3*2*1) = 126 combinaciones posibles.

Como ya se mencionó anteriormente, una combinación, es un arreglo de elementos en donde no nos interesa el lugar o posición que ocupan los mismos dentro del arreglo. En una combinación nos interesa formar grupos y el contenido de los mismos.

Las combinaciones son aquellas formas de agrupar los elementos de un conjunto teniendo en cuenta que:
NO influye el orden en que se colocan.
Si permitimos que se repitan los elementos, podemos hacerlo hasta tantas veces como elementos tenga la agrupación.

Existen dos tipos: combinaciones sin repetición y combinaciones con repetición.


COMBINACIONES SIN REPETICION:
Cuantos grupos de 5 alumnos pueden formarse con los treinta alumnos de una clase. (Un grupo es distinto de otro si se diferencia de otro por lo menos en un alumno)

No importa el orden (son grupos de alumnos). No puede haber dos alumnos iguales en un grupo evidentemente, luego sin repetición.
Por tanto, se pueden formar 142506 grupos distintos :

COMBINACIONES CON REPETICION :
En una confiteria hay cinco tipos diferentes de pasteles. ¿De cuántas formas se pueden elegir cuatro pasteles)

No importa el orden (son pasteles).
Puede haber dos o más pasteles en un grupo, luego con repetición.
Por tanto, se pueden formar 142506 grupos distintos :


COMENTARIO:
En este caso los todos los elementos que la constituyen deben tener un orden ya que en este caso nos interesa que todos los elementos quede ordenados.

PERMUTACION

En matemáticas, dado un conjunto finito con todos sus elementos diferentes, llamamos permutación a cada una de las posibles ordenaciones de los elementos de dicho conjunto.

Por ejemplo, en el conjunto {1,2,3}, cada ordenación posible de sus elementos, sin repetirlos, es una permutación. Existe un total de 6 permutaciones para estos elementos: "1,2,3", "1,3,2", "2,1,3", "2,3,1", "3,1,2" y "3,2,1".

La noción de permutación suele aparecer en dos contextos:

Como noción fundamental de combinatoria, centrándonos en el problema de su recuento.
En teoría de grupos, al definir nociones de simetría.

La permutación antes citada "1,3,2" puede verse como la imagen de una aplicación σ que lleva la lista inicial de objetos (1, 2, 3) en la lista de objetos reordenados (1, 3, 2). De este modo σ(1)=1, σ(2)=3 y σ(3)=2. También podemos definir a la permutación como la propia aplicación σ.

Así, formalmente, una permutación de un conjunto X es una biyección de X en sí mismo.

Aunque esta segunda definición generaliza a la primera al admitir conjuntos infinitos, el término permutación se usa principalmente para un conjunto finito X, y así lo haremos en el resto del artículo.


En combinatora:
La combinatoria trata del número de diferentes maneras que existen de considerar conjuntos formados a partir de elementos de un conjunto dado respetando ciertas reglas. Así un problema combinatorio consiste usualmente en establecer una regla sobre como deben ser las combinaciones y determinar cuantas combinaciones existen que cumplan dicha regla.

Un tipo importante de esas combinaciones son las llamadas permutaciones. Dada una n-tupla ordenada de elementos de un conjunto el número de permutaciones es el número de n-tuplas ordenadas diferentes que pueden construirse a partir de dicho conjunto.


Descomposición de una permutación en ciclos disjuntos:

La descomposición realizada por el procedimiento anterior no es única en principio, pues podrían haberse obtenido cualquiera de estos resultados equivalentes:

σ = (1 3 5 6)(2 4 7 8)=(2 4 7 8) (1 3 5 6)=(7 8 2 4)(6 1 3 5)
La descomposición canónica de una permutación como producto de ciclos se obtiene colocando en primer lugar de cada ciclo el número más pequeño del mismo. Posteriormente se procede a la colocación de los ciclos, colocando primero el ciclo cuyo primer elemento sea menor. Frecuentemente, suelen omitirse los ciclos de longitud 1. Así la permutación (1 3)(2)(4 5) se escribe simplemente como (1 3)(4 5).


Descomposición de una permutación en trasposiciones:

Una trasposición es una permutación que intercambia dos elementos y fija los restantes. Dicho de otro modo, es un ciclo de longitud 2.

Las trasposiciones nos servirán para descomponer una permutación cualquiera de una forma diferente a la descomposición en ciclos. En particular, las trasposiciones que aparezcan no tendrán que ser disjuntas.

Por ejemplo, el ciclo (1 2 3 4) = (1 2) (2 3) (3 4). Aquí el orden de aplicación es importante: en primer lugar (3 4) deja el 4 en su sitio definitivo y el 3 descolocado. Después (2 3) deja en su sitio definitivo el 3 y el 2 descolocado, que quedará recolocado definitivamente por (1 2).

Para ver que cualquier permutación descompone como producto de trasposiciones bastará ver que todo ciclo lo hace. De hecho, la descomposición del ciclo de nuestro ejemplo se generaliza a la fórmula:


No habrá unicidad en la descomposición, ni siquiera en el número de trasposiciones necesarias. Pero se demuestra que si σ admite dos descomposiciones distintas con n y con m trasposiciones, entonces n y m tendrán la misma paridad (serán simultáneamente pares o impares).


PERMUTACION PAR Y PERMUTACION IMPAR:
Llamaremos permutación par (resp. impar) a la que se escribe como composición de un número par (resp. impar) de trasposiciones.

Como ejemplo, de las 6=3! permutaciones del conjunto {1, 2, 3}, escritas en notación de ciclos:

(1 2), (2 3) y (1 3) son, de forma trivial, impares.
(1 2 3) y (1 3 2) son pares, como es fácil de comprobar al aplicar la fórmula anterior de descomposición de un ciclo en trasposiciones.
e (la identidad) también es par.
En general, se demuestra que la mitad de las n! permutaciones de un conjunto de n elementos son pares y la otra mitad impares



COMENTARIO:
son todas las ordenaciones que son posibles en un determinado conjunto, es decir todos losrreglos de elementos en donde nos interesa el lugar o posición que ocupa cada uno de los elementos que constituyen dicho arreglo.

APLICACIONES DE LA PROBABILIDAD

Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto. No es correcto decir que la estadística está incluida en el propio modelado, ya que típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político.

Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre los precios del petróleo en Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un cálculo por un mercado de materias primas en que la guerra es más probable en contra de menos probable probablemente envía los precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinión. Por consiguiente, las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales. La teoría de las finanzas conductuales surgió para describir el efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en los conflictos.

Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayoría de los ciudadanos entender cómo se cálculan los pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las decisiones, especialmente en una democracia.

Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería también está estrechamente relacionada con la garantía del producto.

Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la primera carta en un baraja de cartas es la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% o 0%, y la elección correcta puede ser hecha con precisión por el que ve la carta. La física moderna proporciona ejemplos importantes de situaciones determinísticas donde sólo la descripción probabilística es factible debido a información incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente aleatorios.

En un universo determinista, basado en los conceptos newtonianos, no hay probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo de esta fuerza es conocido, entonces el número donde la bola parará será seguro. Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el movimiento y así sucesivamente. Una descripción probabilística puede entonces ser más práctica que la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los físicos se encuentran con la misma situación en la teoría cinética de los gases, donde el sistema determinístico en principio, es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro ) que sólo la descripción estadística de sus propiedades es viable.

La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo puede ser descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran importancia a las descripciones probabilísticas. Algunos científicos hablan de la expulsión del paraíso.[cita requerida] Otros no se conforman con la pérdida del determinismo. Albert Einstein comentó estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido de que Dios no tira el dado). No obstante hoy en día no existe un medio mejor para describir la física cuántica si no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se describe a través de distribuciones de probabilidad con la suposición de que es por ello un proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga procesos aleatorios sino por el hecho de no poder determinar con precisión sus parámetros fundamentales, lo que imposibilita la creación de un sistema de ecuaciones determinista.

TEORIA DE LA PROBABILIDAD

La probabilidad constituye un importante parametro en la determinacion de las diversas causalidades obtenidas tras una serie de eventos esperados dentro de un rango estadistico.

Existen diversas formas como metodo abstracto, como la teoría Dempster-Shafer y la teoría de la relatividad numerica, esta ultima con un alto grado de aceptacion si se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel minimo ya que somete a todas las antiguas reglas a una simple ley de relatividad.

HISTORIA DE LA PROBABILIDAD

El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante milenios, pero las descripciones matemáticas exactas de utilidad en estos problemas sólo surgieron mucho después.

Según Richard Jeffrey, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las circunstancias."[1]

Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática.

La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad.

Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x), siendo x cualquier error e y su probabilidad, y expuso tres propiedades de esta curva:

es simétrica al eje y;
el eje x es una asíntota, siendo la probabilidad del error igual a 0;
la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,


siendo c y h constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850). Gauss expuso la primera demostración que parece que se conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para r, el error probable de una única observación, es bien conocida.

En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposición de la teoría.

PROBABILIDAD

La probabilidad mide la frecuencia con la que ocurre un resultado en un experimento bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos.

Interpretaciones [editar]La palabra probabilidad no tiene una definición consistente. De hecho hay dos amplias categorías de interpretaciones de la probabilidad: los frecuentistas hablan de probabilidades sólo cuando se trata de experimentos aleatorios bien definidos. La frecuencia relativa de ocurrencia del resultado de un experimento, cuando se repite el experimento, es una medida de la probabilidad de ese suceso aleatorio. Los bayesianos, no obstante, asignan las probabilidades a cualquier declaración, incluso cuando no implica un proceso aleatorio, como una manera de representar su verosimilitud subjetiva

La teoría de conjuntos es de mucha utilidad en el desarrollo de las probabilidades, y es por ello que se debe revisar los conocimientos sobre las operaciones de conjuntos como lo son: la unión, la intersección, el complemento de un conjunto, etc.

Distribuciones de Probabilidad Discreta
Antes de clasificar a las distribuciones de Probabilidad Discreta, es conveniente conocer a que se le denomina función de probabilidad y distribución de probabilidad.


DEFINICION CLASICA DE PROBABILIDAD:

Sea un experimento aleatorio cuyo correspondiente espacio muestral E está formado por un número n finito de posibles resultados distintos y con la misma probabilidad de ocurrir {e1, e2, ... , en}

Si n1 resultados constituyen el subconjunto o suceso A1, n2 resultados constituyen el subconjunto o suceso A2 y, en general, nk resultados constituyen el subconjunto o suceso Ak de tal forma que:

es decir, que la probabilidad de cualquier suceso A es igual al cociente entre el número de casos favorables que integran el suceso A Regla de Laplace para E finitos y el número de casos posibles del espacio muestral E.

• Para que se pueda aplicar la regla de Laplace es necesario que todos los sucesos elementales sean equiprobables, es decir:

• Siendo A=

La probabilidad verifica las siguientes condiciones:

• La probabilidad de cualquier suceso es siempre un número no negativo entre 0 y 1

• La probabilidad del suceso seguro E vale 1

• La probabilidad del suceso imposible es 0

• La probabilidad de la unión de varios sucesos incompatibles o excluyentes A1, A1,..., Ar es igual a la suma de probabilidades de cada uno de ellos

Esta definición clásica de probabilidad fue una de las primeras que se dieron (1900) y se atribuye a Laplace; también se conoce con el nombre de probabilidad a priori pues, para calcularla, es necesario conocer, antes de realizar el experimento aleatorio, el espacio muestral y el número de resultados o sucesos elementales que entran a formar parte del suceso

La aplicación de la definición clásica de probabilidad puede presentar dificultades de aplicación cuando el espacio muestral es infinito o cuando los posibles resultados de un experimento no son equiprobables. Ej: En un proceso de fabricación de piezas puede haber algunas defectuosas y si queremos determinar la probabilidad de que una pieza sea defectuosa no podemos utilizar la definición clásica pues necesitaríamos conocer previamente el resultado del proceso de fabricación

Para resolver estos casos, se hace una extensión de la definición de probabilidad, de manera que se pueda aplicar con menos restricciones, llegando así a la definición frecuentista de probabilidad

3. Definición Frecuentista de la Probabilidad

La definición frecuentista consiste en definir la probabilidad como el límite cuando n tiende a infinito de la proporción o frecuencia relativa del suceso.

Sea un experimento aleatorio cuyo espacio muestral es E Sea A cualquier suceso perteneciente a E Si repetimos n veces el experimento en las mismas Condiciones, la frecuencia relativa del suceso A será:

Cuando el número n de repeticiones se hace muy grande la frecuencia relativa converge hacia un valor que llamaremos probabilidad del suceso A.

Es imposible llegar a este límite, ya que no podemos repetir el experimento un número infinito de veces, pero si podemos repetirlo muchas veces y observar como las frecuencias relativas tienden a estabilizarse

Esta definición frecuentista de la probabilidad se llama también probabilidad a posteriori ya que sólo podemos dar la probabilidad de un suceso después de repetir y observar un gran número de veces el experimento aleatorio correspondiente. Algunos autores las llaman probabilidades teóricas

4. Definición Subjetiva de la Probabilidad

Tanto la definición clásica como la frecuentista se basan en las repeticiones del experimento aleatorio; pero existen muchos experimentos que no se pueden repetir bajo las mismas condiciones y por tanto no puede aplicarse la interpretación objetiva de la probabilidad

En esos casos es necesario acudir a un punto de vista alternativo, que no dependa de las repeticiones, sino que considere la probabilidad como un concepto subjetivo que exprese el grado de creencia o confianza individual sobre la posibilidad de que el suceso ocurra

Se trata por tanto de un juicio personal o individual y es posible por tanto que, diferentes observadores tengan distintos grados de creencia sobre los posibles resultados, igualmente válidos

5. Definición Axiomática de la Probabilidad

La definición axiomática de la probabilidad es quizás la más simple de todas las definiciones y la menos controvertida ya que está basada en un conjunto de axiomas que establecen los requisitos mínimos para dar una definición de probabilidad. La ventaja de esta definición es que permite un desarrollo riguroso y matemático de la probabilidad. Fue introducida por A. N. Kolmogorov y aceptada por estadísticos y matemáticos en general

Definición

6. Teoremas Elementales o Consecuencias de los Axiomas


7. Probabilidad Condicionada

Hasta ahora hemos introducido el concepto de probabilidad considerando que la única información sobre el experimento era el espacio muestral. Sin embargo hay situaciones en las que se incorpora información suplementaria respecto de un suceso relacionado con el experimento aleatorio, cambiando su probabilidad de ocurrencia

El hecho de introducir más información, como puede ser la ocurrencia de otro suceso, conduce a que determinados sucesos no pueden haber ocurrido, variando el espacio de resultados y cambiando sus probabilidades

Definición

gla de Multiplicación de Probabilidades o Probabilidad Compuesta Partiendo de la definición de la probabilidad condicionada p(B/A) podemos escribir:

8. Teorema de la Probabilidad Compuesta o Producto

9. Teorema de la Probabilidad Total

10. Teorema de Bayes

11. Independencia de Sucesos



COMENTARIO:
La probabilidad estudia la posibilidad de que suceda un evento asi como las veces que podria ocurrir la misma y cual es la posibilidad de que suceda dicho evento.

TEORIA DE CONTEO

La teoría de conjuntos es de mucha utilidad en el desarrollo de las probabilidades, y es por ello que se debe revisar los conocimientos sobre las operaciones de conjuntos como lo son: la unión, la intersección, el complemento de un conjunto, etc.

.- Consideraremos a W como el conjunto universal el cual posee todos los elementos posibles, así el conjunto A es un subconjunto de W si todos los elementos de A son elementos de W, y se denota:

A Ì W si para todo x ÎA, x Î W

.- Sean A y B dos conjuntos cuales quiera entonces:

la unión se define como: C = A È B = { x / xÎA o xÎB};

la intersección se define como: C = A Ç B = { x / xÎA y xÎB};

el complemento se define como: Ac = { x Î W / x Ï A },

El conjunto que no posee elementos se denomina conjunto vacío y se denota por Æ . (Notemos que A Ç Ac = Æ )

Diremos que A y B son disjuntos o mutuamente excluyente si: A Ç B = Æ.

Para resolver algunos problemas de probabilidades es necesario conocer el numero de elementos que posee cierto conjunto y el conjunto universal, denominado, en probabilidades, espacio muestral, es por ello que se debe saber como determinar el número de elementos de cualquier conjunto, tarea que puede ser algo complicado, sin embargo en algunos casos esto se puede realizar y por ello es que es importante el aprender a calcular este número.


TECNICAS DE CONTEO:

Debes recordar la regla principal en las Técnicas de Conteo como lo es la ley de multiplicación:

Si se tienen n elementos de un tipo y m de otro, el número de parejas que se pueden formar tomando un elemento de cada tipo es

mxn.

Las permutaciones, las variaciones y las combinaciones, resultan de la regla de multiplicación

TEORÍAS DE CONTEO

Permutaciones y combinaciones: Contar el número de eventos que cumplen con algún conjunto de condiciones. Sirven para calcular la probabilidad de un evento cuando el número de eventos posibles es muy grande.

Factoriales: Dado un número entero positivo n el producto de todos los enteros desde n hasta 1 se llama factorial de n y se denota como n!. Ejemplo:

5! = 5 * 4 * 3 * 2 * 1

en notación: n! = n * (n-1) * (n-2) * ... 1

por definición 0! = 1

otra notación: 5! = 5 * 4!

n! = n (n-l)

Los factoriales sc usan para saber el número de formas en que se pueden organizar los objetos. Ejemplo:

cuatro envases con medio de cultivo y en cada uno de ellos se incuba un organismo diferente. ¿En cuantas formas se pueden acomodar en una incubadora?

4! =4 3 * 2 * 1 = 24 maneras

Para saber cuales son las formas de colocarlos se realiza un diagrama de árbol

TEORIA DE CONJUNTOS

La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor en el Siglo XIX y más tarde reformulada por Zermelo.

El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos"; así, se puede hablar de un conjunto de personas, ciudades, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto. El conjunto de los bolígrafos azules está bien definido, porque a la vista de un bolígrafo se puede saber si es azul o no. El conjunto de las personas altas no está bien definido, porque a la vista de una persona, no siempre se podrá decir si es alta o no, o puede haber distintas personas, que opinen si esa persona es alta o no lo es. En el siglo XIX, según Frege, los elementos de un conjunto se definían sólo por tal o cual propiedad. Actualmente la teoría de conjuntos está bien definida por el sistema ZFC. Sin embargo, sigue siendo célebre la definición que publicó Cantor

Se entiende por conjunto a la agrupación en un todo de objetos bien diferenciados de nuestra intuición o nuestra mente.


Usualmente los conjuntos se representan con una letra mayúscula: A, B, K,...

Llamaremos elemento, a cada uno de los objetos que forman parte de un conjunto, estos elementos tienen carácter individual, tienen cualidades que nos permiten diferenciarlos, y cada uno de ellos es único, no habiendo elementos duplicados o repetidos. Los representaremos con una letra minúscula: a, b, k,...


Igualdad entre conjuntos.
Subconjuntos y Superconjuntos

Igualdad de conjuntos:
Dos conjuntos y se dicen iguales, lo que se escribe si constan de los mismos elementos. Es decir, si y solo si todo elemento de A está también contenido en B y todo elemento de B está contenido en A.


Operaciones de conjuntos:
Sean y dos conjuntos.


Unión:
Diagrama de Venn que ilustra Para cada par de conjuntos A y B existe un conjunto que se denota como el cual contiene todos los elementos de A y de B. De manera más general, para cada conjunto S existe otro conjunto denotado como de manera que sus elementos son todos los tales que . De esta manera es el caso especial donde .

Es claro que el hecho de que un elemento x pertenezca a es condición necesaria y suficiente para afirmar que x es un elemento de A o al menos de B. Es decir

INTERSECCION:
Los elementos comunes a y forman un conjunto denominado intersección de y , representado por . Es decir, es el conjunto que contiene a todos los elementos de A que al mismo tiempo están en B:

.
Si dos conjuntos y son tales que , entonces y se dice que son conjuntos disjuntos.

Es claro que el hecho de que es condición necesaria y suficiente para afirmar que y .

DIFERENCIA:
Los elementos de un conjunto que no se encuentran en otro conjunto , forman otro conjunto llamado diferencia de y , representado por . Es decir:

Algunas personas prefieren denotar la diferencia de y como .

Una propiedad interesante de la diferencia es que.

COMPLEMENTO:
El complemento de un conjunto A, es el conjunto de los elementos que pertenecen a algún conjunto U pero no pertenecen a A, que lo representaremos por . Es decir

El conjunto complemento siempre lo es respecto al conjunto universal que estamos tratando, esto es, si hablamos de números enteros, y definimos el conjunto de los números pares, el conjunto complemento de los números pares, es el formado por los números no pares. Si estamos hablando de personas, y definimos el conjunto de las personas rubias, el conjunto complementario es el de las personas no rubias.

DIFERENCIA SIMETRICA:
Los elementos de dos conjuntos,A y B a excepción de aquellos que se encuentran en el área de intersección de dichos conjuntos se define la diferencia simétrica.

IV BIMESTRE

miércoles, 30 de julio de 2008

martes, 29 de julio de 2008

lunes, 21 de julio de 2008

CLASES DE TENDENCIA

Una constante es un dato cuyo valor no puede cambiar durante la ejecución del programa. Recibe un valor en el momento de la compilación y este permanece inalterado durante todo el programa.

una constante es un valor de tipo permanente, que no puede modificarse, al menos no dentro del contexto o situación para el cual está previsto. Suele relacionarse y usarse en combinación con las variables, que si admiten modificación en sus valores.

constante física el valor de una magnitud física cuyo valor, fijado un sistema de unidades, permanece invariable en los procesos físicos a lo largo del tiempo. En contraste, una constante matemática representa un valor invariable que no está implicado directamente en ningún proceso físico.

Una variable es un nombre asociado a un elemento de datos que está situado en posiciones contiguas de la memoria principal, y su valor puede cambiar durante la ejecución de un programa.

Toda variable pertenece a un tipo de dato concreto. En la declaración de una variable se debe indicar el tipo al que pertenece. Así tendremos variables enteras, reales, booleanas, etc. Por otro lado, distinguimos tres partes fundamentales en la vida de una variable.

Las variables representan un concepto de vital importancia dentro de un proyecto de investigación. Las variables, son los conceptos que forman enunciados de un tipo particular denominado hipótesis. Las variables se refieren a propiedades de la realidad que varían, es decir, su idea contraria son las propiedades constantes de cierto fenómeno.

Clases de variables:

Variables control:
La clasificación más importante de las variables es la siguiente:

Variables dependientes: Como su palabra lo dice, son características de la realidad que se ven determinadas o que dependen del valor que asuman otros fenómenos o variables independientes.
Variables independientes: Los cambios en los valores de este tipo de variables determinan cambios en los valores de otra (variable dependiente).
Así en el ejemplo de años de educación y salario, suponemos que al aumentar los años de educación correlativamente aumentan los salarios de las personas, de modo que “años de educación” es la variable independiente o explicativa, ya que ella me está explicando en cierta medida el cambio en el “salario” de las personas, el cual sería la variable dependiente.

En todo caso hay que tener cuidado con la “causalidad” ya que el hecho de que una persona tenga mayor salario que otra, no sólo depende necesariamente de que una tenga más educación que otra, también pueden intervenir otros factores, como la suerte, la familia de la que procede, etc.

Por último, existen varias clasificaciones de variables según sus características:

Variable continua: Se presenta cuando el fenómeno que se mide puede tomar valores cuantitativamente distintos, por ejemplo la edad ya que esta variable puede asumir valores continuos: 1, 2, 3,…20, 21,…60,61…
Variables discretas: Son aquellas que establecen categorías en términos no cuantitativos entre distintos individuos o elementos. Por ejemplo cuando quiero clasificar a las personas en clases sociales: alta, media, baja. O cuando quiero calificar un servicio de un hospital: excelente, bueno, regular, malo.
Variables individuales: Presentan la característica que distingue a ciertos individuos.
Variables colectivas: Presentan la característica que distingue a un grupo determinado.
Variables antecedentes: Es una variable que es antecedente de otra variable.

Principales diferencias:

Las constantes ya reciben un valor inicial en su declaración
Las variables primero se declaran, luego se inician, y luego se usan
Las constantes, una vez declaradas mantienen su valor durante toda la ejecución del programa
En cambio, las variables pueden cambiar su valor tantas veces como deseen
Además de cambiar su valor, las variables también pueden cambiar de tamaño en tiempo de ejecución (punteros)


COMENTARIO:

la tendencia se divide en constante o variable, que se utiliza para observar si los cambios que sufre un fenomeno se mantiene en un mismo rango o varia en gran escala.

CLASIFICACION DE LA SERIES TEMPORALES

una serie estacionaria se la media y la variabilidad se mantienen constantes a largo del tiempo. con las series estacionarias podemos obtener predicciones facilmente como la media es constante podemos estimar con todos los datos y utilizar este valor para predecir nuevas observaciones.

series de tiempo no estacionaria:
una serie es no estacionaria si la media o la variabilidadd se cambian a lo largo del tiempo. ademas puede mostrar efectos estacionales es decir que la media o el comportamiento de la serie es parecido en ciertos tiempos periodicos en el tiempo.


COMENTARIO:

En la dos clases de series de tiempo se puede observar si el fenomeno varia o es constante en el tiempo o en determinado periodo.

SERIES DE TIEMPO

Una serie temporal o cronologica es un conjunto e observaciones de una variable, ordenadas segu transcurre el tiempo.

En una serie de tiempo las observaciones no se deben ordenar de mayor a menor debidoa que se perderia el grueso de la informacion debido a que nos intersea detectar como se mueve la variable en el tiempo es muy importante respetar la secuencia temporal de las observaciones.

2.2 Representacion de una Serie Temporal

Par realizar la reprsenyacion de una serie ytemporal se debe realizae mediante una gráfica de disprsión x-y como se muestra

SERIES DE TIEMPO Y PRONOSTICOS

Con frecuencia se realizan observaciones de datos a través del tiempo. Cualquier variable que conste de datos reunidos, registrados u observados sobre incrementos sucesivos de tiempo se denomina serie de tiempo.

Una serie de tiempo es un conjunto de observaciones producidas en determinados momentos durante un periodo, semanal, mensual, trimestral o anual, generalmente a intervalos iguales.

Si bien el comportamiento de cualquier serie de tiempo puede observarse gráficamente, no en todos los casos es posible distinguir las particularidades que cada una puede contener. La experiencia basada en muchos ejemplos se series de tiempo, sin embargo, ha revelado que existen ciertos movimientos o variaciones características que pueden medirse y observarse por separado. Estos movimientos, llamados a menudo componentes, de una serie de tiempo y que se supone son causados por fenómenos distintos.

El primer paso para analizar una serie de tiempo es graficarla, esto permite: identificar la tendencia, la estacionalidad, las variaciones irregulares (componente aleatoria). Un modelo clásico para una serie de tiempo, puede ser expresada como suma o producto de tres componentes: tendencia, estacional y un término de error aleatorio.

Una serie de tiempo o serie temporal es una colección de observaciones tomadas a lo largo del tiempo cuyo objetivo principal es describir, explicar, predecir y controlar algún proceso. Las observaciones están ordenadas respecto al tiempo y sucesivas observaciones son generalmente dependientes. De hecho esta dependencia entre las observaciones jugará un papel importante en el análisis de la serie.

Dependiendo del campo en el cual se utilizará esta metodología, las series se pueden clasificar en:

Serie Continua.
Una serie de tiempo es continua cuando las observaciones son tomadas continuamente en el tiempo, aun cuando la variable medida sólo tome un número de valores finitos.

Serie Discreta
Una serie temporal es discreta cuando las observaciones son tomadas en tiempos específicos, normalmente igualmente espaciados. Se supondrán los datos en intervalos regulares de tiempo (horas, días, meses, años,..). El término discreto es usado aun cuando la variable medida sea continua. Las series discretas pueden surgir de varias maneras


una serie temporal es una secuencia de puntos de datos, medidos típicamente a intervalos de tiempo sucesivos , y espaciados (con frecuencia) de forma uniforme. El análisis de series temporales comprende métodos que ayudan a interpretar este tipo de datos, extrayendo información representativa, tanto referente a los orígenes o relaciones subyacentes como a la posibilidad de extrapolar y predecir su comportamiento futuro.

De hecho uno de los usos más habituales de las series de datos temporales es su análisis para predicción y pronóstico. Por ejemplo de los datos climáticos, o de las acciones de bolsa, o las series pluviométricas.

COMENTARIO:

Una serie de tiempo esta dado por un conjunto de observaciones que están ordenadas en el tiempo, y que estas pueden representar el cambio de una variable.
El objetivo del análisis de una serie de tiempo es el conocimiento de su patrón de comportamiento, para así poder prever su evolución en el futuro cercano, suponiendo por supuesto que las condiciones no variarán significativamente.

REGRESION CUADRATICA

La regresión cuadrática es el proceso por el cuál encontramos los parámetros de una parábola que mejor se ajusten a una serie de datos que poseemos, ya sean mediciones hechas o de otro tipo. Bueno, pero por que habríamos de querer ajustar nuestros datos precisamente a una parábola y no a otra función? (ver escogiendo la función de ajuste).

Cuadráticas modelos de regresión se utilizan a menudo en economía ámbitos como la función de utilidad, la previsión, en función de los costos befit análisis, etc JavaScript proporciona parábola modelo de regresión. This site also presents useful information about the characteristics of the fitted quadratic function. Este sitio también presenta información útil sobre las características de la función cuadrática y equipado.

Antes de utilizar este Java Script es necesario para construir el diagrama de dispersión de sus datos. De lo contrario, la inspección visual del diagrama de dispersión-le permite determinar qué grado de polinomio modelos de regresión es el más apropiado para el montaje a sus datos.

REGRESION LINEAL

En estadística la regresión lineal o ajuste lineal es un método matemático que modeliza la relación entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε. Este modelo puede ser expresado como:

El modelo de regresión lineal
El modelo lineal relaciona la variable dependiente Y con K variables explicativas Xk (k = 1,...K), o cualquier transformación de éstas, que generan un hiperplano de parámetros βk desconocidos:

Historia
La primer forma de regresiones lineales documentada fue el método de los mínimos cuadrados, el cual fue publicado por Legendre en 1805,[1] y por Gauss en 1809.[2] El término "mínimos cuadrados" proviene de la descripción dada por Legendre "moindres carrés". Sin embargo Gauss aseguró que conocía dicho método desde 1795.

Tanto Legendre como Gauss aplicaron el método para determinar, a partir de observaciones astronómicas, las órbitas de cuerpos alrededor del sol. En 1821, Gauss publicó un trabajo en dónde desarrollaba de manera más profunda el método de los mínimos cuadrados,[3] y en dónde se incluía una versión del teorema de Gauss-Markov.


Etimología
El término regresión se utilizó por primera vez en el estudio de variables antropométricas: al comparar la estatura de padres e hijos, resultó que los hijos cuyos padres tenían una estatura muy superior al valor medio tendían a igualarse a éste, mientras que aquellos cuyos padres eran muy bajos tendían a reducir su diferencia respecto a la estatura media; es decir, "regresaban" al promedio.[4] La constatación empírica de esta propiedad se vio reforzada más tarde con la justificación teórica de ese fenómeno.

El término lineal se emplea para distinguirlo del resto de técnicas de regresión, que emplean modelos basados en cualquier clase de función matemática. Los modelos lineales son una explicación simplificada de la realidad, mucho más ágil y con un soporte teórico por parte de la matemática y la estadística mucho más extenso.

Tipos de modelos de regresión lineal
Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus parámetros:


Regresión lineal simple
Sólo se maneja una variable independiente, por lo que sólo cuenta con dos parámetros. Son de la forma:[6]


Regresión lineal múltiple
Maneja varias variables independientes. Cuenta con varios parámetros. Se expresan de la forma:[8]


Aplicaciones de la regresión lineal

Líneas de tendencia
Una línea de tendencia representa una tendencia en una serie de datos obtenidos a través de un largo periodo de tiempo. Este tipo de líneas puede decirnos si un conjunto de datos en particular (como por ejemplo, el PBI, el precio del petróleo o el valor de las acciones) han aumentado o decrementado en un determinado periodo de tiempo.[10] Se puede dibujar una línea de tendencia a simple vista fácilmente a partir de un grupo de puntos, pero su posición y pendiente se calcula de manera más precisa utilizando técnicas estadísticas como las regresiones lineales. Las líneas de tendencia son generalmente líneas rectas, aunque algunas variaciones utilizan polinomios de mayor grado dependiendo de la curvatura deseada en la línea.


Medicina
En medicina, las primeras evidencias relacionando la mortalidad con el fumar tabaco[11] vinieron de estudios que utilizaban la regresión lineal. Los investigadores incluyen una gran cantidad de variables en su análisis de regresión en un esfuerzo por eliminar factores que pudieran producir correlaciones espurias. En el caso del tabaquismo, los investigadores incluyeron el estado socio-económico para asegurarse que los efectos de mortalidad por tabaquismo no sean un efecto de su educación o posición económica. No obstante, es imposible incluir todas las variables posibles en un estudio de regresión.[12] [13] En el ejemplo del tabaquismo, un hipotético gen podría aumentar la mortalidad y aumentar la propensión a adquirir enfermedades relacionadas con el consumo de tabaco. Por esta razón, en la actualidad las pruebas controladas aleatorias son consideradas mucho más confiables que los análisis de regresión


COMENTARIO:

La regresión lineal es un método de análisis de los datos de la realidad que sirve para poner en evidencia las relaciones que existen entre diversas variables.

miércoles, 16 de julio de 2008

REGRESION LINEAL

La primer forma de regresiones lineales documentada fue el método de los mínimos cuadrados, el cual fue publicado por Legendre en 1805,[1] y por Gauss en 1809.[2] El término "mínimos cuadrados" proviene de la descripción dada por Legendre "moindres carrés". Sin embargo Gauss aseguró que conocía dicho método desde 1795.

Tanto Legendre como Gauss aplicaron el método para determinar, a partir de observaciones astronómicas, las órbitas de cuerpos alrededor del sol. En 1821, Gauss publicó un trabajo en dónde desarrollaba de manera más profunda el método de los mínimos cuadrados,[3] y en dónde se incluía una versión del teorema de Gauss-Markov.


Etimología [editar]El término regresión se utilizó por primera vez en el estudio de variables antropométricas: al comparar la estatura de padres e hijos, resultó que los hijos cuyos padres tenían una estatura muy superior al valor medio tendían a igualarse a éste, mientras que aquellos cuyos padres eran muy bajos tendían a reducir su diferencia respecto a la estatura media; es decir, "regresaban" al promedio.[4] La constatación empírica de esta propiedad se vio reforzada más tarde con la justificación teórica de ese fenómeno.

El término lineal se emplea para distinguirlo del resto de técnicas de regresión, que emplean modelos basados en cualquier clase de función matemática. Los modelos lineales son una explicación simplificada de la realidad, mucho más ágil y con un soporte teórico por parte de la matemática y la estadística mucho más extenso.


El modelo de regresión lineal [editar]El modelo lineal relaciona la variable dependiente Y con K variables explicativas Xk (k = 1,...K), o cualquier transformación de éstas, que generan un hiperplano de parámetros βk desconocidos:

donde es la perturbación aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su carácter estocástico. En el caso más sencillo de dos variables explicativas, el hiperplano es una recta:

El problema de la regresión consiste en elegir unos valores determinados para los parámetros desconocidos βk, de modo que la ecuación quede completamente especificada. Para ello se necesita un conjunto de observaciones. En una observación cualquiera i-ésima (i= 1,... I) se registra el comportamiento simultáneo de la variable dependiente y las variables explicativas (las perturbaciones aleatorias se suponen no observables).

Los valores escogidos como estimadores de los parámetros, , son los coeficientes de regresión, sin que se pueda garantizar que coinciden con parámetros reales del proceso generador. Por tanto, en.

Los valores son por su parte estimaciones de la perturbación aleatoria o errores.


Supuestos del modelo de regresión lineal [editar]Para poder crear un modelo de regresión lineal, es necesario que se cumpla con los siguientes supuestos:[5]

La relación entre las variables es lineal.
Los errores son independientes.
Los errores tienen varianza constante.
Los errores tienen una esperanza matemática igual a cero.
El error total es la suma de todos los errores.

Tipos de modelos de regresión lineaL:
Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus parámetros:


Regresión lineal simple:
se maneja una variable independiente, por lo que sólo cuenta con dos parámetros. Son de la forma:[6]

Regresión lineal múltiple:
varias variables independientes. Cuenta con varios parámetros. Se expresan de la forma:

Rectas de regresión:
Las rectas de regresión son las rectas que mejor se ajustan a la nube de puntos (o también llamado diagrama de dispersión) generada por una distribución binomial. Matemáticamente, son posibles dos rectas de máximo ajuste:


Aplicaciones de la regresión lineal [editar]
Líneas de tendencia [editar]Véase también: Tendencia
Una línea de tendencia representa una tendencia en una serie de datos obtenidos a través de un largo periodo de tiempo. Este tipo de líneas puede decirnos si un conjunto de datos en particular (como por ejemplo, el PBI, el precio del petróleo o el valor de las acciones) han aumentado o decrementado en un determinado periodo de tiempo.[10] Se puede dibujar una línea de tendencia a simple vista fácilmente a partir de un grupo de puntos, pero su posición y pendiente se calcula de manera más precisa utilizando técnicas estadísticas como las regresiones lineales. Las líneas de tendencia son generalmente líneas rectas, aunque algunas variaciones utilizan polinomios de mayor grado dependiendo de la curvatura deseada en la línea.


Medicina [editar]En medicina, las primeras evidencias relacionando la mortalidad con el fumar tabaco[11] vinieron de estudios que utilizaban la regresión lineal. Los investigadores incluyen una gran cantidad de variables en su análisis de regresión en un esfuerzo por eliminar factores que pudieran producir correlaciones espurias. En el caso del tabaquismo, los investigadores incluyeron el estado socio-económico para asegurarse que los efectos de mortalidad por tabaquismo no sean un efecto de su educación o posición económica. No obstante, es imposible incluir todas las variables posibles en un estudio de regresión.[12] [13] En el ejemplo del tabaquismo, un hipotético gen podría aumentar la mortalidad y aumentar la propensión a adquirir enfermedades relacionadas con el consumo de tabaco. Por esta razón, en la actualidad las pruebas controladas aleatorias son consideradas mucho más confiables que los análisis de regresión.

EJEMPLO Si estamos interesados en estudiar la variación en la tensión sistólica en función de la edad del individuo, deberemos considerar como variable respuesta la tensión y como variable predictora la edad.

miércoles, 18 de junio de 2008

REGRESION

La regresión estadística o regresión a la media es la tendencia de una medición extrema a presentarse más cercana a la media en una segunda medición.

El término "regresión" denota una relación directa con el concepto de "vidas pasadas", por ende la necesidad de remontarse al pasado para explorar o lograr acceso a ese conocimiento. Yo difiero un poco con este punto de vista en que no creo que nuestra existencia multidimensional sea un fenómeno de tiempo y espacio lineal como lo entendemos en esta vida. Para mí no existe el pasado ni el futuro, sólo el presente, y dentro de ese marco de referencia no hay cabida para la interpretación de "vidas pasadas". Yo prefiero la interpretación de "existencias simultáneas" que se interrelacionan de forma tal que todas se afectan entre sí.

El proceso para entrar en una regresión es mediante una meditación guiada o hipnosis. Lo que se busca es alterar las ondas cerebrales para alcanzar el nivel de consciencia en el cual es posible lograr la visualización. Es similar al sueño. Para poder soñar nuestro cerebro TIENE que estar emitiendo ciertas ondas cerebrales. El relajamiento del cuerpo es muy importante pero, por lo general, la persona puede permanecer consciente/despierta durante toda la sesión de regresión.

La regresión en sí es relativamente simple. Una vez se logra el estado de relajamiento necesario, la persona que induce la regresión va formulando preguntas que se contestan rápidamente y sin analizar las respuestas. No he conocido nunca a alguien que después de una regresión no me diga que: "fue todo producto de mi imaginación, me inventé todo lo que respondí". Por supuesto que sí. ¡Eso precisamente es lo que se busca! La diferencia está en que nuestra INTENCIÓN permite a la imaginación entablar una conexión directa con el subconsciente. Los relatos de experiencias que generan las regresiones SIEMPRE afectan a la persona a nivel emocional de manera transformadora.

REGRESION LINEAL.
La regresión es un método de análisis de los datos de la realidad económica que sirve para poner en evidencia las relaciones que existen entre diversas variables.

REGRESION CUADRATICA.
La regresión cuadrática es el proceso por el cuál encontramos los parámetros de una parábola que mejor se ajusten a una serie de datos que poseemos, ya sean mediciones hechas o de otro tipo. Bueno, pero por que habríamos de querer ajustar nuestros datos precisamente a una parábola y no a otra función? (ver escogiendo la función de ajuste).

miércoles, 11 de junio de 2008

CORRELACION

En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad.

Fuerza, sentido y forma de la correlación.
La relación entre dos variables cuantitativas queda representada mediante la línea de mejor ajuste, trazada a partir de la nube de puntos. Los principales componentes elementales de una línea de ajuste y, por lo tanto, de una correlación, son la fuerza, el sentido y la forma.
La fuerza mide el grado en que la línea representa a la nube de puntos: si la nube es estrecha y alargada, se representa por una línea recta, lo que indica que la relación es fuerte; si la nube de puntos tiene una tendencia elíptica o circular, la relación es débil.
El sentido mide la variación de los valores de B con respecto a A: si al crecer los valores de A lo hacen los de B, la relación es positiva; si al crecer los valores de A disminuyen los de B, la relación es negativa.
La forma establece el tipo de línea que define el mejor ajuste: la línea recta, la curva monotónica o la curva no monotónica.

Coeficientes de correlación.
Existen diversos coeficientes que miden el grado de correlación, adaptados a la naturaleza de los datos. El más conocido es el coeficiente de Pearson (introducido en realidad por Francis Galton), que se obtiene dividiendo la covarianza de dos variables por el producto de sus desviaciones estándar.
Coeficiente de correlación de Pearson
Coeficiente de correlación de Spearman
Correlación canónica


Coeficiente de correlación de Pearson.
El coeficiente de correlación de Pearson es un índice estadístico que mide la relación lineal entre dos variables cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
El cálculo del coeficiente de correlación lineal se realiza dividiendo la covarianza por el producto de las desviaciones estándar de ambas variables:

Siendo:
σXY la covarianza de (X,Y)
σX y σY las desviaciones típicas de las distribuciones marginales.
El valor del índice de correlación varía en el intervalo [-1, +1]:
Si r = 0, no existe ninguna correlación. El índice indica, por tanto, una independencia total entre las dos variables, es decir, que la variación de una de ellas no influye en absoluto en el valor que pueda tomar la otra.
Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en idéntica proporción.
Si 0 < r =" -1,">Coeficiente de correlación de Spearman.
El Coeficiente de correlación de Spearman, ρ (rho), es una prueba no paramétrica que mide la asociación o interdependencia entre dos variables discretas. Para calcular ρ, los datos son ordenados y reemplazados por su respectivo orden.
El estadístico ρ viene dado por la expresión:

donde D es la diferencia entre los correspondientes valores de x - y. N es el número de parejas.
Se tiene que considerar la existencia de datos idénticos a la hora de ordenarlos, aunque si éstos son pocos, se puede ignorar tal circunstancia
Para muestras mayores de 20 observaciones, podemos utilizar la siguiente aproximación a la distribución t de Student

La interpretación de coeficiente de Spearman es igual que la del coeficiente de correlación de Pearson. Oscila entre -1 y +1, indicándonos asociaciones negativas o positivas respectivamente, 0 cero, significa no correlación pero no independencia. La tau de Kendall es un coeficiente de correlación por rangos, inversiones entre dos ordenaciones de una distribución normal bivariante.
El primer paso es ordenar los datos de la primera columna. Después, se crean dos columnas más. Ambas son para ordenar (establecer un lugar en la lista) de las dos primeras columnas. Después se crea una columna "d" que muestra las diferencias entre las dos columnas de orden. Finalmente, se crea otra columna "d2".

El análisis de correlación canónica es un método de análisis multivariante desarrollado por Harold Hotelling. Su objetivo es buscar las relaciones que pueda haber entre dos grupos de variables y la validez de las mismas. Se diferencia del análisis de correlación múltiple en que éste sólo predice una variable dependiente a partir de múltiples independientes, mientras que la correlación canónica predice múltiples variables dependientes a partir de múltiples independientes. La correlación canónica es una correlación lineal y, por tanto, sólo busca relaciones lineales entre las variables.
Al diseñar el experimento hay que considerar el tamaño de la muestra ya que son necesarias un mínimo de observaciones por variable, para que el análisis pueda representar las correlaciones adecuadamente.
Finalmente, hay que interpretar las cargas canónicas para determinar la importancia de cada variable en la función canónica. Las cargas canónicas reflejan la varianza que la variable observada comparte con el valor teórico canónico.

COMENTARIO:
la correlacion es para indicar cual es la fuerza y la direccion de la relacion lineal que hay entre dos variables. se dice que dos variables estan corrrelacionadas cuando una de las variables varia sistematicamente respecto a los valores homonimos de la otra.

III BIMESTRE

sábado, 10 de mayo de 2008

DIAGRAMA DE CAJAS (BOX PLOT)

Los diagramas de Caja-Bigotes (boxplots o box and whiskers) son una presentación visual que describe varias características importantes, al mismo tiempo, tales como la dispersión y simetría.
Para su relización se representan los tres cuartiles y los valores mínimo y máximo de los datos, sobre un rectángulo, alineado horizontal o verticalmente.
Construcción:
Una gráfica de este tipo consiste en una caja rectangular, donde los lados más largos muestran el recorrido intercuartílico. Este rectángulo está dividido por un segmento vertical que indica donde se posiciona la mediana y por lo tanto su relación con los cuartiles primero y tercero(recordemos que el segundo cuartil coincide con la mediana). Esta caja se ubica a escala sobre un segmento que tiene como extremos los valores mínimo y máximo de la variable. Las lineas que sobresalen de la caja se llaman bigotes. Estos bigotes tienen tienen un límite de prolongación, de modo que cualquier dato o caso que no se encuentre dentro de este rango es marcado e identificado individualmente

Ordenar los datos:
Para calcular los parámetros estadístico, lo primero es ordenar la distribución
Calculo de Cuartiles:
Q1, el cuartil Primero es el valor mayor que el 25% de los valores de la distribución; el primer cuartil es la media aritmética de dicho valor y el siguiente:
Q1=(24 + 25) / 2 = 24,5
Q2, el Segundo Cuartil es, evidentemente, la mediana de la distribución, es el valor de la variable que ocupa el lugar central en un conjunto de datos ordenados. la mediana es la media aritmética de dicho valor y el siguiente:
me= Q2 = (33 + 34)/ 2 =33,5
Q3 , el Tercer Cuartil, es el valor que sobrepasa al 75% de los valores de la distribución. Resulta
Q2=(39 + 39) / 2 = 39
Dibujar la Caja y los Bigotes

COMENTARIO:
Es una representacion grafica que nos sirve para representar las caracteristica, la dispersion y la simetria de un conjunto de datos.

AREA BAJO LA CURVA NORMAL

La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y formuló la ecuación de la curva; de ahí que también se la conozca, más comúnmente, como la "campana de Gauss". La distribución de una variable normal está completamente determinada por dos parámetros, su media y su desviación estándar, denotadas generalmente por y .

Propiedades de la distribución normal:

La distribución normal posee ciertas propiedades importantes que conviene destacar:
-Tiene una única moda, que coincide con su media y su mediana.
-La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor entre y es teóricamente posible. El área total bajo la curva es, por tanto, igual a 1.
-Es simétrica con respecto a su media . Según esto, para este tipo de variables existe una probabilidad de un 50% de observar un dato mayor que la media, y un 50% de observar un dato menor.
-La distancia entre la línea trazada en la media y el punto de inflexión de la curva es igual a una desviación típica. Cuanto mayor sea , más aplanada será la curva de la densidad.
-El área bajo la curva comprendido entre los valores situados aproximadamente a dos desviaciones estándar de la media es igual a 0.95. En concreto, existe un 95% de posibilidades de observar un valor comprendido en el intervalo .
-La forma de la campana de Gauss depende de los parámetros. La media indica la posición de la campana, de modo que para diferentes valores de la gráfica es desplazada a lo largo del eje horizontal. Por otra parte, la desviación estándar determina el grado de apuntamiento de la curva.
-Cuanto mayor sea el valor, más se dispersarán los datos en torno a la media y la curva será más plana. Un valor pequeño de este parámetro indica, por tanto, una gran probabilidad de obtener datos cercanos al valor medio de la distribución.


COMENTARIO:
Es una grafica que tiene forma de campana, sirve para determinar la dispersion de la simetria de un conjuto de datos.

sábado, 19 de abril de 2008

PORTAFOLIO


Un portafolio es una selección deliberada de los trabajos de un alumno que en cierta forma nos cuenta la historia de sus esfuerzos, su progreso y sus logros. El concepto de Portafolio existe desde hace mucho tiempo en numeroso ámbitos fuera de la educación. Artistas, [[Arquitectos] y Fotógrafos los usan para presentar sus trabajos a clientes potenciales. En educación, sin embargo, los portafolios son un fenómeno reciente y solo ahora empieza a utilizarse en todo su potencial.

¿Qué son los portafolios de aula?
Muchos educadores han aportado definiciones, veamos algunas de ellas:
Un portafolio es un registro del aprendizaje que se concentra en el trabajo del alumno y su reflexión sobre esa tarea.
Un Portafolio es una selección deliberada de los trabajos del alumno que nos cuenta la historia de sus esfuerzos, su progreso o sus logros. En él deben incluirse la participación del alumno en la selección de su contenido, los criterios de la selección y las pautas para juzgar sus méritos, así como las evidencias de su proceso de reflexión.
Un portafolio es algo más de una mera “caja llena de cosas”. Se trata de una colección sistemática y organizada de evidencias utilizadas por los maestros y alumnos para supervisar la evolución del conocimiento, las habilidades y las actitudes de estos últimos en una materia determinada
Un portafolio desde la perspectiva educativa es un procedimiento de producción,que permiten recopilar productos de proyectos de curso, variados escritos, grabaciones y otras muestras de acciones y creaciones de los alumnos.

El portafolio y los Edublog
Durante los últimos años, con el advenimiento de los Blog, los portafolios han conseguido una aplicación informática que permite crearlos y publicarlos rápidamente. Muchos profesores, innovadores de las prácticas educativas han emprendido la fusión de estos dos conceptos en uno solo, de modo de sustituir al antiguo cuaderno de apuntes y de tareas en algo vivo, que es creado día a día por los alumnos convirtiéndose en una excelente herramienta para estimular la reflexión y la creatividad de los alumnos y profesores.

COMENTARIO:
Es un documento en el cual cada tarea o trabajo que realizamos va archivado, esto sirve para tener ordenado cada tema que estudiamos estadisticamente.