Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 8 de junio de 2013

La probabilidad ideal

La probabilidad ideal es una probabilidad estadística, propia de los modelos omega en la teoría de Probabilidad Imposible, y designa la probabilidad de todo sujeto u opción ideal de una muestra N donde no todos los sujetos u opciones son ideales, dado que de  ser toda N igualmente ideal sería un modelo normal cuyo objeto de estudio sería la igualdad de oportunidades. Los modelos omega son aquellos en donde dentro de N hay dos tipos de sujetos u opciones claramente diferenciados, aquellos sujetos u opciones ideales cuya probabilidad empírica debe ser igual a probabilidad ideal, y aquellos sujetos u opciones no ideales cuya probabilidad empírica debería ser igual a cero.

Supongamos  que hacemos estudio  a través de encuestas en donde por cada ítem de respuesta múltiple hay más de una opción correcta o ideal, y lo ideal sería que las personas encuestadas por cada ítem respondiera o señalara en cada pregunta todas las opciones o respuestas correctas o ideales dentro del ítem, y dejará sin responder o marcar aquellas opciones de respuesta incorrectas o no ideales. Este tipo de estudio respondería a un universo de opciones limitadas, las respuestas u opciones que permitiera la encuesta, dando la posibilidad de múltiples opciones o respuestas por cada ítem o pregunta, habiendo dos tipos de respuesta u opción, correctas o ideales, o incorrectas o no ideales, lo que sería un modelo omega, en donde todas aquellas respuestas u opciones ideales serían igualmente de ideales entre sí. Al final del estudio lo ideal sería que la frecuencia de las opciones incorrectas o no ideales por ítem fuera cero, y suma total de la frecuencia, o frecuencia total, fuera resultado de aquellas respuestas u opciones correctas o ideales.

De igual manera, si en una encuesta,  aunque por cada ítem o pregunta sólo hubiera una única respuesta u opción ideal, si en el estudio , independientemente del ítem o pregunta, el cálculo de la probabilidad empírica de cada respuesta u opción es igual a la división de su frecuencia particular entre la suma total de la frecuencia de todas las respuestas u opciones de todas las preguntas o ítems de la encuesta, la frecuencia total de toda la encuesta, entonces, el subconjunto de respuesta u opciones correctas ideales sería igual al número de respuestas correctas o ideales que hay en total en toda la encuesta, siendo entonces todas las demás respuestas u opciones de la encuesta incorrectas o no ideales.

Se dice, en Introducción a la Probabilidad Imposible, que son modelos omega aquellos que dentro la muestra N de sujetos u opciones, comprenden un subconjunto de sujetos u opciones ideales dentro de N. Este subconjunto de ideales dentro de N tiene que ser lógicamente superior a uno e inferior a N, es decir, el subconjunto de ideales dentro de N en modelos omega tiene que oscilar entre dos y N menos uno, siendo dos el mínimo de sujetos u opciones ideales dentro de N para ser un modelo omega, siendo N menos uno el número máximo de sujetos u opciones dentro de N para ser un modelo omega.

El motivo por el cual los modelos omega no pueden ser inferior a dos es porque de ser sólo un único sujeto u opción ideal sería un modelo normal de sesgo positivo en donde de toda N sólo habría un único ideal, y de haber cero sujetos u opciones ideales, toda la muestra sería no ideal, luego lo ideal sería probabilidad empírica cero para toda la muestra, luego  entonces el ideal sería una muestra de ceros, un subtipo dentro de los estudios de sesgo negativo en los modelos normales, en Introducción a la Probabilidad Imposible.

El motivo por el que los modelos omega no pueden ser superiores a N menos uno es porque si toda N es igualmente ideal sería un modelo normal de tendencia a igualdad de oportunidades.

Una diferencia entre los modelos normales y los modelos omega, es que mientras en los modelos normales la dispersión puede oscilar entre cero o máxima, máxima en estudios de sesgo positivo, dispersión cero bajo condiciones normales en tendencia a media aritmética, inversión de N, 1/N, en los modelos omega la dispersión tiende hacia una dispersión ideal en función de la magnitud de ideales de la muestra, siendo la magnitud de ideales, en la muestra N, el subconjunto ideal formado por los sujetos u opciones ideales dentro de N, a diferencia de los demás sujetos u opciones de N que no forman parte del subconjunto ideal, el subconjunto de sujetos u opciones no ideales.

Mientras en los modelos normales donde el ideal es la igualdad de oportunidades lo ideal es que para toda la muestra N la probabilidad empírica tienda a probabilidad teórica, inversión de N, 1/N, en los modelos omega dado que no toda N es igual de ideal, a razón de la existencia de dos subconjuntos, el subconjunto de sujetos u opciones ideales, que se llamará omega,Ω , y el subconjunto no ideal formado por los demás sujetos u opciones no ideales, fuera de omega,  lo ideal sería que para todos los sujetos u opciones no ideales la probabilidad empírica sea la  Mínima Probabilidad Empírica Posible, cero, lo verdaderamente ideal para todos los sujetos u opciones no ideales es que su probabilidad empírica sea igual a cero, Mínima Probabilidad Empírica Posible, y para los sujetos u opciones ideales , siempre y cuando todos los sujetos u opciones ideales dentro de omega sean igualmente de ideales, la probabilidad ideal de todo sujeto u opción del subconjunto omega debe ser la  misma, igual a la división de la unidad, siendo la unidad la suma de las probabilidades empíricas en cualquier modelo , normal u omega, el total de la distribución empírica,  unidad a dividir entre el número de sujetos u opciones ideales dentro de omega.

1/Ω = probabilidad ideal para todo sujeto u opción ideal de omega

Ω = número de sujetos u opciones ideales dentro de N

En los modelos omega, aquellos que comprenden dentro de N dos subconjuntos, de sujetos u opciones ideales, el subconjunto omega, y de sujetos u opciones no ideales, se simbolizará con el símbolo de la letra omega del alfabeto griego,Ω , al subconjunto de sujetos u opciones ideales, de forma que el símbolo omega,Ω , simboliza el número de sujetos u opciones ideales dentro de N en un modelo omega. El subconjunto no ideal, el número de sujetos u opciones no  ideales, será igual a la diferencia del número total de sujetos u opciones en la muestra, N, menos el número de sujetos u opciones ideales pertenecientes al subconjunto omega, es decir, el número de sujetos u opciones no ideales será igual a N menos omega, “N – Ω”.

N – Ω = número de sujetos u opciones no ideales dentro de N y fuera de omega

La razón por la cual en este tipo de modelos se llamará omega a los ideales, recibiendo tales modelos el nombre de modelos omega, se debe a que deben partir de una definición clara y a priori de los ideales, siendo los ideales los fines últimos de la voluntad humana. Si en matemáticas a menudo los símbolos suelen escogerse del alfabeto griego, la última letra es omega, dada la necesidad de tener que escoger un símbolo para diferenciarlo de los modelos más normales, donde el fin último de la voluntad humana ya sea la máximas, mínima, o valores centrales, ya hay símbolos convencionales.

Mientras para todos los sujetos u opciones no ideales, N – Ω, lo ideal es que tuvieran probabilidad empírica igual a cero, la Mínima Probabilidad Empírica Posible, para todos los demás sujetos u opciones ideales en omega, Ω, lo ideal es que tengan todos por igual la misma probabilidad ideal, igual a la unidad entre omega, 1/Ω. En la medida que la probabilidad ideal es igual a la unidad entre omega, a la probabilidad ideal también se llamará inversión de omega.

El motivo por el que la probabilidad ideal o inversión de omega, 1/Ω, es igual a la división de la unidad entre el número de sujetos u opciones ideales, omega, dentro de N, se debe  a que, si en el Segundo Método, en absolutamente todo estudio posible, salvo el margen de error aceptado en el truncamiento decimal, la suma de las probabilidades empíricas de todos los sujetos u opciones de la muestra N es igual a la unidad, entonces, en caso de cumplirse lo ideal en los modelos omega, que todos los sujetos u opciones no ideales tengan probabilidad empírica cero, luego toda la muestra de puntuaciones directas o frecuencias sea repartida entre los sujetos u opciones ideales dentro de omega, cumpliéndose además el ideal que si siendo todos los valores omega igualmente ideales la distribución de las puntuaciones directas o frecuencias entre los sujetos u opciones ideales se distribuya entre sólo entre ellos en igualdad de oportunidades, y sólo entre ellos, entre los sujetos u opciones ideales de omega, entonces, si todos los no ideales tienen cero puntuación directa o frecuencia, y todos los ideales tuvieran la misma puntuación directa o frecuencia, necesariamente todos los sujetos u opciones ideales de omega deberían tener la misma probabilidad empírica, que siendo la unidad el total de la distribución empírica, en cualquier clase de modelo, normal u omega, entonces lo ideal es que la unidad se distribuyera solamente entre los sujetos u opciones omega, lo que sería igual a dividir la unidad entre omega, 1/ Ω,  la probabilidad ideal, la inversión de omega,

La probabilidad ideal  únicamente se puede aplicar a los modelos omega, aquellos en donde de una muestra N hay un subconjunto de sujetos u opciones igualmente de ideales. En aquellos modelos en donde hubiera una muestra N en donde habiendo sujetos u opciones más ideales que otros, pero dentro de los sujetos u opciones ideales no todos fueran igual de ideales, habiendo sujetos u opciones más ideales que otros, entonces no se aplicarían los  modelos omega, que en tato utilizan probabilidades empíricas son propios del Segundo Método, debería aplicarse la Distribución Efectiva.

Probabilidad Imposible es una teoría que desarrolla un nuevo campo de estudio, estadística de la probabilidad o probabilidad estadística, siendo una teoría que surge en la primavera del 2001, a partir de una primera intuición, el hecho que un suceso tenga probabilidad empírica cero, en cualquier tipo de universo, infinito o limitado, o probabilidad teórica cero en universos infinitos, no implica que sea imposible, pudiendo ser inevitable bajo determinadas circunstancias lógicas.

Desde esta primera intuición empecé una nueva teoría matemática y un nuevo campo de estudio que ha ido haciéndose más complejo evolucionando hacia un modelo no lineal, caótico e indeterminista, manteniéndose la obra inédita hasta la primera publicación de Introducción a la Probabilidad Imposible en formato libro físico en diciembre del 2011, y distribuido entre diversas universidades latinoamericanas y españolas, y desde enero del 2013 en formato ebook versión kindle, y desde abril del 2013 en formato ebook versión PDF.

Dentro de la metodología de Probabilidad Imposible hay que diferenciar entre el método analítico, el silogismo aplicado a la tendencia, el silogismo de la tendencia, en la investigación pura para el desarrollo de este nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, y los métodos sintéticos, aquellos métodos estadísticos producto de la investigación pura y que se pueden aplicar a las ciencias sintéticas.

Dentro de los métodos sintéticos de Probabilidad Imposible para la investigación aplicada a las ciencias sintéticas, naturales o sociales, el primero de ellos fue el Impacto del Defecto, el 11 de septiembre del 2011, y el Segundo Método el 16 de octubre del 2002.

Mientras el Segundo Método es aquel método que utiliza probabilidades empíricas en la crítica racional de las ideas, el contraste de hipótesis, el Impacto del Defecto no utiliza la probabilidad empírica, en la medida que el primer factor del cociente, de la probabilidad empírica, se multiplica por un valor que mide la gravedad ponderada del ítem.

El Impacto del Defecto lo que estudia es que si dentro de N hay diferentes sujetos u opciones de riesgo, ineficacia o ineficiencia, lo que pretende medir es el grado de impacto de estos valores en un proceso o sistema.

Si el Impacto del Defecto, mide el grado de impacto de los defectos en un proceso o sistema, la Distribución Efectiva hará justo lo opuesto, de forma que el primer factor del cociente, de la probabilidad empírica, lo multiplica por un valor de efectividad ponderada, midiendo el grado de eficacia, eficiencia, efectividad, en un proceso o sistema, en donde todos los sujetos u opciones, ítems de efectividad, contribuyen, aunque no por igual, al aumento de la efectividad, habiendo sujetos u opciones, ítems o valores, más ideales que otro en el aumento de la efectividad en el proceso o sistema.

Si dentro de una muestra N hay un subconjunto de ideales omega, Ω, siendo los valores ideales igualmente ideales entre sí, el método que debe aplicarse es el Segundo Método, utilizando modelos omega. Si dentro de una muestra N existe una gradación en el grado de importancia ponderada de los valores ideales que representa cada sujeto u opción en el conjunto de la muestra, entonces debe aplicarse Distribución Efectiva.

La  mayor parte de Introducción a la Probabilidad Imposible se centra en el Segundo Método, dentro del Segundo Método se pueden localizar desarrollos de los modelos omega en el apartado 10, en donde se hacen ejemplos de diferentes tipos de muestras, modelos, y tipos de estudio, en el apartado 11 en donde se muestran modelos de contraste de hipótesis específicos para modelos omega, y en relación a los estudios inter-medicionales se aplican los modelos omega en el apartado 20. El Impacto del Defecto se explica en el apartado 21, y la Distribución Efectiva en el apartado 22.

En Probabilidad Imposible para el estudio de la estadística de la probabilidad o probabilidad estadística, la aplicación lógica de la estadística a la probabilidad o la probabilidad o a la estadística, hay que diferenciar entre método analítico, el silogismo aplicado a la tendencia, el silogismo de la tendencia, y los métodos sintéticos, y dentro de los métodos sintéticos se encuadra el Segundo Método, en el cual los dos principales modelos de referencia para el estudio aplicado a modelos empíricos serían los modelos normales  y los modelos omega, siendo la probabilidad ideal aquella a la que debería tender todo sujeto u opción ideal que formará parte del subconjunto de sujetos u opciones ideales omega, siempre y cuando, todos los ideales de omega fueran igualmente de ideales entre sí.

Rubén García Pedraza, Madrid a 8 de junio del 2013
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 
 

sábado, 1 de junio de 2013

Modelos normales

La estadística tradicional llama modelos normales a modelos de distribución estadística donde la mayor parte de las mediciones, datos, se ordenan en torno a la media aritmética, siendo la distribución estadística  la forma en que los datos de la muestra se ordenan o relacionan entre sí, una ordenación o relación que puede representarse de distintas maneras, según la forma en que se expongan las mediciones.
De forma directa los datos de la medición en estadística tradicional se llaman puntuaciones directas, y la forma en que gráficamente se representa su distribución sobre los ejes cartesianos es la Nube de Puntos, siendo la forma más simple de ver la distribución estadística de la muestra.
Igualmente la distribución estadística puede estudiarse utilizando otros métodos, que gráficamente podrán exponerse de diferente forma, por ejemplo el estudio de la frecuencia relativa y los percentiles, que expone los valores porcentuales, y su representación gráfica a través del valor proporcional de la frecuencia relativa o percentil sobre el área de una circunferencia, o representando los valores porcentuales sobre ejes de barras.
Finalmente, otra forma muy común de representar los datos es mediante la transformación de la puntuación directa en Puntuación Típica, igual a la división, entre Desviación Típica, de la diferencia de puntuación directa menos la media aritmética, siendo dicha diferencia la puntuación diferencial, luego, en síntesis, Puntuación Típica igual a puntuación diferencial entre Desviación Típica. La representación gráfica de las Puntuaciones Típicas es lo que se denomina curva normal o campana de Gauss, siendo los modelos normales aquellos normales en donde la mayor concentración de puntuaciones típicas se produce en torno a la Puntuación Típica de la media aritmética, con un error de más o menos uno.
La estadística tradicional dice que lo normal es que la distribución se ordene en torno al valor cero de la curva normal porque es el valor de la media aritmética. La Puntuación Típica de la media aritmética es cero, porque si la puntuación típica es igual a puntuación diferencial entre Desviación Típica, lógicamente el primer factor del cociente para la media aritmética es cero, dado que media aritmética menos media aritmética sería cero, luego la Puntuación Típica de la media aritmética sólo puede ser cero.
El motivo por el cual en la estadística tradicional se dice que la ordenación en campana de Gauss de los modelos normales se da en torno a media aritmética dentro de un error más o menos uno es porque, se consideran normales aquellos valores empíricos cuya puntuación diferencial, positiva o negativa, sea igual o inferior a la Desviación Típica, de forma que toda puntuación diferencial superior a Desviación Típica deja de seguir un patrón de comportamiento normal para ser de carácter excepcional o fuera de lo normal, demasiado sesgado, ya sea de signo positivo o negativo.
Para la estadística tradicional el máximo valor que puede adquirir un valor empírico normal es igual a la suma de media aritmética más Desviación Típica, o el mínimo valor normal sería igual a la resta de media aritmética menos Desviación Típica,  toda medición superior a la suma de media más Desviación Típica, o inferior a la resta de media menos Desviación Típica, deja de ser un valor normal, para ser excesivamente sesgado, excepcional o fuera de lo normal.
El hecho que un comportamiento esté fuera de lo normal no es positivo ni negativo, únicamente significa que su patrón de comportamiento no es normal, y dependiendo del modelo de estudio puede ser algo significativo o simplemente un modelo de comportamiento diferente.
Mientras para la estadística tradicional lo normal es la ordenación de la muestra en torno a la media aritmética, en Probabilidad Imposible el concepto de normalidad difiere. Evidentemente, en el momento que se utilizan técnicas estadísticas diferentes a la estadística tradicional, también llamada estadística normal, el concepto de normalidad cambia en el mismo instante que se utilizan técnicas diferentes a las tradicionales o normales.
Probabilidad Imposible es una nueva teoría que desarrolla un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, fruto de la fusión o síntesis, eclecticismo, entre las técnicas estadísticas y de probabilidad, para lo cual, desde el método analítico aplicado a la estadística y la probabilidad, el silogismo aplicado a la tendencia, el silogismo de la tendencia, desarrolla nuevos métodos sintéticos, uno de ellos, el Segundo Método. Una teoría que en sus primeros desarrollos en el año 2001 ya proponía modelos diferentes a los normales, “paranormales”, si bien este concepto dejo de emplearse en el año 2003, debido a sus limitaciones, dado que, más bien, lo que hace Probabilidad Imposible, es la evolución a un nueva definición de normalidad estadística.
Ya de por sí el propio nombre de la propia teoría, Probabilidad Imposible, apunta al hecho, nada norma, o anormal,  en la perspectiva tradicional, que sucesos que tengan probabilidad empírica cero, Probabilidad Imposible, sin embargo, dentro de un margen de coherencia lógica, dadas unas condiciones o premisas de posibilidad válidas, son inevitables. Esta teoría, fuera de la definición tradicional de normalidad, desarrollará un modelo teórico a fin a las actuales teorías no lineales y del caos, en donde la realidad está formada por una serie de contingencias producto de accidentes, comprensión estocástica propia de las teorías indeterministas,  en donde absolutamente nada, más allá del margen de error, es absolutamente fiable, salvo en el margen de fiabilidad inverso al margen de error que acepte la política científica, dentro de una ciencia en donde toda hipótesis empírica de aceptarse racional pasa a formar parte del conjunto de verdades universales provisionales de la ciencia.
Finalmente, la propia evolución de Probabilidad Imposible, lo que hace es superar el concepto de normalidad, hacia un concepto diferente, en el momento que se sintetiza estadística y  probabilidad, los conceptos de la estadística tradicional deben transformarse y superarse. Si bien, en todo momento en Introducción a la Probabilidad Imposible se deja bien claro que es una teoría alternativa y complementaria a la estadística tradicional, que es en esencia, la matemática tradicional, el primer método de referencia, siendo el Segundo Método de la Probabilidad Imposible un nuevo método alternativo desde el cual aportar una perspectiva diferente. El objeto del Segundo Método en ningún caso es la sustitución de la estadística tradicional, simplemente enriquecer la estadística tradicional aportando nuevos planteamientos y métodos de estudio.
Mientras para la estadística tradicional lo normal es la agrupación de las mediciones en torno a la media aritmética, en Probabilidad Imposible el concepto de normalidad se puede emplear de dos formas, una de ellas en sintonía al concepto tradicional de normalidad, y otra definición de normalidad diferente en donde lo normal es que todo estadístico oscile entre su mínimo valor, cero, o su valor máximo.
La primera acepción de normalidad en Probabilidad Imposible, próxima a la estadística tradicional, se desprende fácilmente de la lectura de los capítulos 3 y 5 de Introducción a la Probabilidad Imposible, donde se explica que bajo condiciones normales en universos infinitos, según tiende N, número de sujetos u opciones, a infinito, lo normal es que la dispersión empírica tienda a cero, en tanto en cuanto las probabilidades empíricas tienden a ordenarse en torno a inversión de N, 1/N, que es media aritmética y probabilidad teórica, universalmente para todo tipo de universo, y para universos infinitos inversión de N además probabilidad de dispersión teórica, al mismo tiempo que conforme N tiende a infinito la inversión de N, 1/N, tiende a cero, luego tienden a cero las probabilidades empíricas, motivo por el cual lo normal es que en universos infinitos conforme N tiende a infinito lo normal es que todo tienda a cero, dándose la contradicción lógica de que al mismo tiempo que todo tiende a cero, Probabilidad Imposible, sin embargo todo es igualmente posible, en la medida que las probabilidades empíricas tienden a igualarse a la probabilidad teórica, inversión de N, siendo un modelo típico donde se confirma la existencia de Probabilidades Imposibles sucesos, empírica o teóricamente imposibles, que, siguiendo además un modelo de comportamiento normal, ordenación de la probabilidad empírica en torno a la media aritmética, y según N tiende a infinito la media aritmética y las probabilidades empíricas, por igual, tienden a cero, Probabilidad Imposible, sin embargo pueden transformarse en inevitables.
Este suceso lo que demuestra es que el concepto clásico de normalidad debe actualizarse, en la medida que, si para la estadística tradicional lo normal es que algo cuya probabilidad sea cero sea entonces imposible, siendo anormal que ocurra algo imposible, en Probabilidad Imposible lo que sucede es que, precisamente, en universos infinitos, lo normal es que ocurran sucesos imposibles, dado que si N tiende a infinito, y todo tienda a Probabilidad Imposible, entonces todo tiene las mismas posibilidades de suceder en igualdad de oportunidades.
Igualmente en universos de opciones limitadas, siempre y cuando las infinitas ocurrencias posibles se den en igualdad de oportunidades entre las diferentes opciones limitadas, ausencia de sesgo, lo normal es que la probabilidad empírica de las diferentes opciones tienden a ser iguales a inversión de N, que en estos universos únicamente tendría las funciones de probabilidad teórica y media aritmética, en la medida que en universos limitados la probabilidad de dispersión teórica dependería de la muestra de puntuaciones directas o frecuencias, a mayor número de ocurrencias posibles mayor probabilidad de equipararse las frecuencias de las diferentes opciones.
El concepto de normalidad en Probabilidad Imposible por tanto tiene una primera acepción propia o cercana a la propia estadística tradicional: que bajo condiciones normales, en universos infinitos o limitados, las probabilidades empíricas tienden a probabilidad teórica, inversión de N, teniendo la particularidad en universos infinitos, que, si un universo infinito es verdaderamente infinito en todas sus dimensiones, habiendo infinitos sujetos u opciones, entonces, conforme N tienda a infinito todas las probabilidades empíricas tienden por igual a cero, Probabilidad Imposible, siendo todas, sin embargo, igualmente posibles, en igualdad de oportunidades, siendo entonces normal que sucedan hechos imposibles.
Junto a esta primera definición de normalidad, próximo a la tradicional,  un patrón de comportamiento normal es aquel similar a la media aritmética, siendo la diferencia entre Probabilidad Imposible y la estadística tradicional, en que Probabilidad Imposible mantiene esta tesis aunque la media aritmética tienda a cero, habría una segunda forma de entender el concepto de normalidad, un modelo normal es aquel modelo en donde, cualquier estadístico puede oscilar normalmente entre su valor mínimo, cero, y su valor máximo.
Los modelos normales de Probabilidad Imposible, aquellos en donde cualquier estadístico, ya sean estadísticos individuales, o estadísticos muestrales, de la realidad empírica o teórica, pueden oscilar entre cero y máxima, se diferencian de los modelos omega, en la medida que los modelos omega no oscilan entre el cero y máxima, los modelos omega oscilan en torno a los valores ideales, ya sea la probabilidad ideal o la Desviación Media Ideal, llamándose modelos omega aquellos modelos que dentro de N presentan un subconjunto de sujetos u opciones ideales, que a diferencia de los demás, deben tender a la probabilidad ideal, y toda la distribución estadística debe ordenarse en torno a sus ideales
De esta manera en Probabilidad Imposible hay dos conceptos de normalidad, el primero de ellos, que bajo condiciones normales, ausencia de sesgo, las probabilidades empíricas tienden a inversión de N, siendo la diferencia de Probabilidad Imposible y la estadística tradicional, que Probabilidad Imposible mantiene esta tesis aunque se lleve a su máximo extremo, que N tienda a infinito luego inversión de N tienda a cero, y un segundo concepto de normalidad, que son modelos normales aquellos en donde cualquier estadístico puede oscilar entre cero y la máxima. Diferenciándose los modelos normales de los modelos omega en que en los modelos omega la distribución estadística debe seguir un modelo de distribución en función de la magnitud de sus ideales.
La razón por la cual en Probabilidad Imposible se dice que bajo condiciones normales todo tiende a inversión de N, y se dice que un modelo normal es aquel cuya dispersión puede oscilar entre cero o máxima, se debe a que, bajo condiciones normales, fuera de todo sesgo, lo normal es que los sujetos u opciones tiendan a ordenarse aleatoriamente, al azar, en torno a la media aritmética, si bien, son modelos en donde, independientemente que los sujetos u opciones sean o no normales, la dispersión empírica puede variar en una oscilación entre cero o máxima, algo que dependerá del objeto de estudio.
La redefinición de normalidad lleva implícita una redefinición de los diferentes tipos de  objeto de estudio dentro de los modelos normales, los cuales se clasifican según sean: estudios de igualdad o estudios de sesgo, y dentro de los estudios de sesgo hay que diferenciar entre estudios de sesgo positivo y estudios de sesgo negativo. Para entender los diferentes tipos de objeto de estudio se recomienda la lectura del apartado 10 de Introducción a la Probabilidad Imposible, así como es en los apartados subsiguientes en donde explica la forma de desarrollarse la crítica racional en cada tipo de estudio, explicándose en el apartado 15 la adaptación de la Puntuación Típica en el Segundo Método.
El objeto de estudio a su vez dependerá del objetivo que persiga la política científica en la investigación, que a su vez dependerá de la magnitud de sus ideales, que a su vez es una variable dependiente de la ideología política de la política científica, la cual se concreta, entre otros aspectos, en el objeto de estudio, la selección de la magnitud de la muestra,  y la razón crítica en el contraste de hipótesis.
En estudios de igualdad de oportunidades el ideal que se persigue es que, sean universos de sujetos o universos de opciones limitadas, la probabilidad empírica de todo sujeto u opción tienda por igual a probabilidad teórica, inversión de N, de forma que son modelos que se ajustarían a la definición clásica o tradicional de normalidad. Por ejemplo, que dado un nuevo método educativo aplicado a una muestra de alumnos, todos los alumnos muestren por igual un aumento del rendimiento educativo, lo cual se traduciría, en términos de estadística tradicional, en un aumento por igual de las puntuaciones directas de todos los alumnos en las evaluaciones, y en términos del Segundo Método se observaría que ese aumento de las puntuaciones directas en todos los alumnos se daría dentro una tendencia de las probabilidades empíricas a probabilidad teórica.
En los modelos de estudio de sesgo positivo, dada una muestra N en donde de toda N halla un sujeto u opción más ideal que los demás, por ejemplo, en un universo de opciones limitadas, si en un cuestionario se ofrecen varios ítem a cada pregunta y de todos los ítem únicamente uno es el ideal o correcto, ya sea en un estudio sobre actitudes ecológicas, que sobre cada pregunta entre la variada libertad de opciones o ítems sólo una opción o ítem sea la más ideal por pregunta, al ser la más ecológica, o en un examen tipo test, de todos los ítem por pregunta sólo uno sea el correcto, lo ideal sería que por cada pregunta, del cuestionario sobre actitudes ecológicas, u opciones de respuesta por examen del test, sólo un ítem u opción tuviera la mayor cantidad de frecuencia, teniendo la mayor probabilidad empírica, siendo lo ideal que aquel ítem o respuesta ideal o correcto tendiera a la Máxima Probabilidad Empírica Posible, la probabilidad uno, mientras los demás tendieran a probabilidad empírica cero, Mínima Probabilidad Empírica Posible
Si una muestra de un universo de sujetos lo ideal sería que, por el motivo que sea, uno de ellos destaque por encima de los demás, obteniendo el mayor sesgo positivo, lo ideal es que ese sujeto u opción tienda igualmente a Máxima Probabilidad Empírica Posible, siendo un estudio de sesgo positivo.
Los estudios de sesgo negativo pueden ser aquellos en donde, siendo estudios de sesgo, lo que se pretende es maximizar el sesgo negativo de los sujetos u opciones no ideales, o cuyo ideal sea obtener la menor probabilidad empírica posible. Si hacemos el estudio de cómo un medicamento disminuye los síntomas de una enfermedad por paciente, lo ideal es que conforme aumente el sesgo negativo de la probabilidad empírica de síntomas por sujeto de estudio, a medida que la probabilidad empírica tienda a Mínima Probabilidad Empírica Posible, probabilidad cero de síntomas, aumente proporcionalmente la eficacia de la nueva medicina para reducir los síntomas, aceptándose lógicamente en la crítica racional experimental, el contraste de hipótesis, un margen de error, ya sea por variables aleatorias no controladas en el proceso experimental, o que halla pacientes en donde el medicamento no tenga el mismo efecto por variables personales, por interacción de la nueva medicina con determinadas cualidades personales u otras variables aleatorias.
Si para la estadística tradicional lo normal es que la distribución de las mediciones se ordenen en torno a la media aritmética, en Probabilidad Imposible el concepto de normalidad cambia, en la medida que por modelos normales se entiende todos aquellos modelos en donde lo normal es que todos los estadísticos, individuales o muestrales, puedan oscilar libremente entre cero y máxima, y dentro de los modelos normales en aquellos modelos que la distribución se dé bajo condiciones de igualdad en ausencia de sesgo, por ejemplo en estudios de igualdad, las probabilidades empíricas tiendan a inversión de N, que dentro de su multifuncionalidad, para todo tipo de universo, infinito o limitado, la inversión de N es al mismo tiempo probabilidad teórica y media aritmética.
La redefinición de la normalidad en Probabilidad Imposible lleva a la paradoja, que si en la estadística tradicional, también llamada estadística normal, algo completamente fuera de lo normal o totalmente anormal sería la ocurrencia sucesos imposibles, precisamente en Probabilidad Imposible este fenómeno que sería anormal para la estadística tradicional, se transforma en algo completamente normal dentro de Probabilidad Imposible, en la medida que según N tienda a infinito luego en universos infinitos todo tienda a cero, precisamente lo normal es la ocurrencia de sucesos imposibles.

Rubén García Pedraza, en Madrid a 1 de junio del 2013
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 
 

sábado, 25 de mayo de 2013

El Segundo Método

La estadística y la probabilidad son dos disciplinas claramente diferenciadas, aunque estrechamente vinculadas, en los manuales de estadística son frecuentes las menciones a la teoría de la probabilidad, y viceversa, en los libros de probabilidad menciones a la estadística, pero, sin embargo, a pesar de estar muy ligadas, la matemática tradicional hace una clara distinción entre qué es estadística y qué es probabilidad, en la medida que la una estudia la posibilidad de un evento o  suceso, y la estadística hace estimaciones descriptivas, normalmente sobre poblacionales, o de ser inferencial, contraste de hipótesis.
Es difícil decir cuál de ellas, probabilidad o estadística, fue primero, aunque, hay una visión ampliamente asumida de que el nombre estadística viene dado porque a partir de los primeros Estados se extiende el empleo de técnicas para la elaboración censos y recuentos demográficos y poblacionales. La probabilidad como teoría quizás no sea mucho más anterior o posterior, y posiblemente el principio histórico de la estadística y la probabilidad sea simultánea, y presumiblemente, aunque de forma intuitiva o sin saber que utilizaban técnicas estadísticas o de probabilidad, la prehistoria de estas técnicas se remonte a periodos anteriores. Si bien, en el ámbito académico se suele mencionar que la estadística en tanto que disciplina científica de carácter académico, universitario, es muy reciente, de principios del siglo XX.
Si la media aritmética lo que hace es la redistribución igualitaria de, dada la suma de una serie de elementos por factor, el sumatorio se divide después entre el total de los factores, para determinar cuántos elementos corresponden a cada factor por igual, es evidente que, ya  se le diera ese  u otro nombre, este tipo de operaciones presumiblemente sea tan antigua como la propia matemática.
La teoría de Probabilidad Imposible, tal como su nombre refleja, parte de una reflexión en torno a la teoría de la probabilidad. El nombre de la Probabilidad Imposible hace mención a la existencia de sucesos que teniendo probabilidad empírica cero, luego en teoría a priori deberían ser imposibles, en tanto que tienen probabilidad empírica cero porque no hay constancia manifiesta al menos en el registro de observaciones que haya sucedido, o habiendo sucesos pertenecientes a posibles universos infinitos en donde, teóricamente, en el infinito la probabilidad teórica de sujeto u opción, 1/N, es una tendencia con límite en cero, en cualquier caso, ya sea porque un suceso es teórica o empíricamente imposible, en términos de probabilidad, no implica que no tenga porque suceder, un suceso teórica o empíricamente imposible, dentro de un margen de coherencia lógica, puede ser inevitable.
Debido a la complejidad en la definición de lo posible o lo imposible, la teoría de Probabilidad Imposible evolucionará hacia una perspectiva compleja de la ciencia, muy en la línea de los actuales modelos en boga no lineales o modelos caóticos. En Probabilidad Imposible la definición de lo posible o imposible se debe a una combinación aleatoria de factores capaz de producir patrones de comportamiento estables, siempre de manera estocástica, dentro de una lógica dialéctica en donde la realidad es una contingencia producto de accidentes, luego lo realmente sustancial o esencial de la realidad en tanto que fenómeno cognoscible, es ser una entidad compleja en permanente evolución o cambio, lo cual en esencia nos lleva a la filosofía presocrática, más en concreto a Heráclito, para quien todo fluye, todo es movimiento, y en cierto sentido una visión nietzscheana o nihilista de la ciencia, aunque partiendo, para llegar a este punto,  del contraste de hipótesis, lo que en Probabilidad Imposible se llama la crítica racional de las ideas, en tanto en cuanto, lo que conocemos, el fenómeno, no es el ente en sí, en la medida que nunca conocemos la realidad misma, sólo percepciones, siendo la contradicción entre realidad empírica y teórica fuente de errores para la ciencia generadas por la propia limitación humana, ante la infinitud de cualidades singulares de la verdadera realidad real, siendo la ausencia de fiabilidad absoluta un desafío a los ideales de ciencia y humanidad.
A partir de la primera intuición de Probabilidad Imposible, en el año 2001, se inicia una teoría, que además, entre sus primeros propósitos tendrá la intención de crear un modelo inferencial alternativo al contraste de hipótesis tradicional, sustentado sobre el falsacionismo de Popper. En líneas generales, las investigaciones que dieron lugar a estos primeros planteamientos en el año 2001, son los que posteriormente se plasmaron por primera vez en la versión impresa de Introducción a la Probabilidad Imposible, 2011, y más recientemente en este mismo año 2013, en las versiones digitales, ebook, de Introducción a la Probabilidad Imposible, en donde únicamente se han hecho algunas modificaciones en relación a la concepción filosófica de la ciencia, pero manteniendo perennes e inalterables las formulaciones iniciales.
A fin de dar cuerpo teórico a estas intuiciones preliminares, se empieza a desarrollar un nuevo modelo metodológico, desde el cual poder hacer efectivo el estudio de la realidad desde una cosmovisión compleja, que entienda las relaciones dialécticas entre lo posible y lo imposible, haciendo una síntesis filosófica entre racionalismo crítico, positivismo, y materialismo dialéctico, en el cual se puede entrever a lo largo de la obra claras influencias vitalistas y nihilistas, en la medida que toda presunción racional de falsedad, derivado de la versión popperiana del racionalismo crítico, implica que, a priori, toda hipótesis, aunque se demuestre suficientemente racional, es una suficiencia provisional, luego, ya desde el principio, por apriorismo, toda aceptación de verdad se hace aceptando desde el principio la presunción de falsedad, luego ya de entrada se parte de que absolutamente nada puede ser absolutamente verdad, toda verdad que aceptamos provisionalmente verdad lo hacemos desde el convencimiento y el apriorismo, que, llegado el momento de la verdad, cuando el margen de error aceptado en la razón crítica de la política científica se manifieste, esa misma hipótesis o idea ahora aceptada verdadera, será falsa.
El racionalismo crítico, en su evolución contemporánea, el falsacionismo, fundado en el eclecticismo de la duda racional y el escepticismo empírico, llevado al extremo, en Probabilidad Imposible, conduce inevitablemente a una actitud de nihilismo relativo, en tanto que se asume la presunción a priori de que toda hipótesis o idea, y absolutamente toda hipótesis o idea, luego toda teoría, incluso ella misma, y absolutamente toda teoría, aunque de forma provisional las aceptemos racionales, es absolutamente falsa. Que algo sea racional no implica que sea absolutamente verdadero, sólo significa que es una explicación suficiente por ahora, y mientras no se demuestre o manifieste lo contrario, pero más allá de la función temporal de suficiencia, a largo plazo será posiblemente falso. El racionalismo crítico abre la puerta a un cierto nihilismo relativo, en tanto que, ni siquiera es absoluto. De forma inmediata, en el momento que las hipótesis son suficientemente racionales, siempre y cuando su margen de error sea igual o inferior al margen de error de la razón crítica, o siempre y cuando su margen de fiabilidad sea igual o superior al margen de fiabilidad, se acepta las hipótesis y sus teorías, si bien, se presupone, que dentro del marco de error que se aceptan, posiblemente sean falsas.
A fin de desarrollar la teoría de Probabilidad Imposible lo primero que desde esta teoría se hace es fusionar estadística y probabilidad, creando así un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística.
Dentro de esta nueva teoría habrá que diferenciar entre dos tipos de métodos, el método destinado al propio desarrollo analítico formal, investigación pura, de la estadística y la probabilidad, que será el silogismo, aplicado al estudio de la tendencia, motivo por el cual se llamará el silogismo de la tendencia, y aquellos otros métodos de estadística y probabilidad que aplicados a las ciencias sintéticas o empíricas, investigación aplicada, permitirán el desarrollo de las demás ciencias, sean naturales o sociales.
Los métodos estadísticos sintéticos o empíricos, para la investigación aplicada a las ciencias naturales o sociales, tienen su origen y fundación en los propios silogismos que, dentro de la investigación pura, se hagan para el desarrollo de la estadística y la probabilidad aplicada a las demás ciencias.
Mientras la investigación pura en estadística de la probabilidad o probabilidad estadística tiene por fin el análisis de las relaciones formales o lógicas entre estadística y probabilidad, la investigación aplicada tiene por fin la aplicación de la estadística y la probabilidad a las demás ciencias sintéticas o empíricas, sean naturales o sociales.
En el momento que en el ámbito de la investigación pura se empieza a estudiar la posibilidad de fusión, en base a sus relaciones entre sí, de estadística y probabilidad, dentro de este nuevo campo de estudio, estadística de la probabilidad o probabilidad estadística, si para la matemática tradicional la estadística se dedica al estudio de la tendencia central o dispersión de las puntuaciones directas obtenidas de las poblaciones o muestras, en caso de modelos de contraste de hipótesis, proceder a la inferencia estadística, mientras la probabilidad se dedica al estudio de la frecuencia de una serie de opciones, esta síntesis llevará a la creación de nuevos conceptos, universos de sujetos donde se estudian sujetos de predicados cuya cualidad se mide en forma de puntuación directa, y universos de opciones limitadas donde se estudian sus frecuencias, en donde ya sean universos de sujetos o de opciones, donde lo que se estudia es la puntuación directa o frecuencia, se puede aplicar el mismo método sintético o empírico, estudiando la probabilidad empírica y probabilidad teórica, siendo estos conceptos la base sobre la cual se establece el Segundo Método, el cual empezará a desarrollarse a partir del 16 de octubre del 2002, si bien, se ha mantenido inédito hasta la primera publicación de Introducción a la Probabilidad Imposible en 2011, y actualmente en las versiones ebook digitales.
Si el silogismo de la tendencia lo que permite es el análisis de las relaciones lógico formales entre estadística y probabilidad, mediante la aplicación del silogismo al estudio de la tendencia, empezarán a emerger nuevos conceptos que aplicados a las demás ciencias darán lugar a nuevos métodos sintéticos o empíricos para el estudio de las ciencias naturales o sociales. Uno de estos métodos para el estudio de las ciencias sintéticas es el Segundo Método, el cual parte del tratamiento de todo tipo de datos, sean de sujetos u opciones, puntuaciones directas o frecuencias, para el estudio de las relaciones entre las probabilidades empíricas y la probabilidad teórica.
De esta forma el método de Probabilidad Imposible en el análisis lógico de la estadística y la probabilidad, es el silogismo de la tendencia, de forma que toda la fusión de la estadística y la probabilidad en forma de estadística de la probabilidad o probabilidad estadística, se hará mediante la aplicación de silogismos, de los cuales empezarán a surgir métodos sintéticos o empíricos, uno de ellos el Segundo Método.
El motivo por el cual se estima que el silogismo es la principal herramienta del análisis lógico formal se debe a la propia dialéctica, en la cual, desde Hegel, el silogismo engloba los tres estadios, categorías, o niveles de concreción del objeto, en la medida que engloba: lo universal, lo particular, y lo singular; de lo que depende, la universalización en la ciencia, en la medida que desarrolla modelos teóricos universales que respondan a la concreción particular de cada hecho singular.
De esta forma, es partir del análisis formal, mediante silogismos aplicados a la tendencia, donde surgirán los métodos sintéticos o empíricos para la investigación aplicada a las ciencias naturales y sociales.
Mientras el silogismo aplicado a la tendencia estadística, el silogismo de la tendencia, es el método de análisis formal de la estadística de la probabilidad o probabilidad estadística, el Segundo Método es un método de estadística de la probabilidad o probabilidad estadística para el análisis sintético o empírico de las ciencias naturales o sociales.
El origen del Segundo Método, en tanto que método de análisis sintético o empírico de la estadística de la probabilidad o probabilidad estadística aplicado a las ciencias naturales o sociales, se encuentra en las conclusiones lógicas a las que se llega mediante el análisis formal de la estadística de la probabilidad o probabilidad estadística mediante la concatenación de silogismos aplicados a la tendencia.
La razón por la cual se alude a que el Segundo Método es uno de los métodos sintéticos o empíricos de Probabilidad Imposible, mientras el silogismo de la tendencia es el método analítico formal, es porque, mientras a nivel analítico formal el silogismo de la tendencia es el único método de investigación pura en estadística de la probabilidad o probabilidad estadística, la razón por la que se dice que el Segundo Método es un método sintético o empírico, es porque es uno pero no es el único, en la medida que, es uno de los métodos sintético obtenidos, mediante silogismos, al igual que otros métodos sintéticos igualmente obtenidos mediante la misma vía.
Mientras método analítico formal sólo hay uno, el silogismo de la tendencia, los métodos sintético o empíricos, todos ellos producto del análisis formal, son diversos, siendo el Segundo Método uno de ellos.
De hecho, la forma en que se llego a la conclusión que el silogismo de la tendencia es el método analítico formal, investigación pura, de Probabilidad Imposible, fue a consecuencia del análisis posterior de los documentos escritos sobre esta teoría, años después, estando todavía inédita, llegando a la conclusión que en todos los documentos se repite la misma estructura formal: a partir de una serie de premisas lógicas sobre conceptos y categorías matemáticas, el establecimiento de una conclusión lógica, en donde si los conceptos y categorías matemáticas estaban bien definidas, y la relación entre las premisas era correcta, la conclusión lógica era formalmente verdadera, derivándose de este método todos los conceptos matemáticos que forman hoy en día Probabilidad Imposible.
Mientras la definición del método formal, el silogismo de la tendencia, es posterior, los primeros métodos sintéticos o empíricos fueron el Impacto del Defecto y el Segundo Método, añadiéndose posteriormente la Distribución Efectiva y el estudio de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible.
La diferencia entre Impacto del Defecto, Distribución Efectiva y estudios de ranking, frente Segundo Método, es que mientras el Impacto del Defecto estudia la magnitud de la gravedad de un defecto o daño en un proceso o sistema, o la Distribución Efectiva estudia el nivel de eficacia o eficiencia de un proceso o sistema, o el estudio en ranking realiza una crítica racional sobre unos niveles de ranking, ya se ordenen en sentido ascendente o descendente, el Segundo Método estudia las relaciones entre probabilidades empíricas y teórica, tanto a nivel intramedicional, ya sea en estadística descriptiva o inferencial, o a nivel intermedicional.
El motivo por el cual el Segundo Método recibió este nombre se debe a dos factores, en primer lugar para diferenciarlo de la estadística tradicional que es el primer método de referencia para todo análisis estadístico, y en segundo lugar porque el Segundo Método fue el segundo método cronológicamente en la elaboración de Probabilidad Imposible, el primer método dentro de esta teoría fue el Impacto del Defecto en la misma madrugada del 11 de septiembre del 2001, desarrollándose el Segundo Método un año después, el 16 de octubre del 2002.
La forma en que dentro de Introducción a la Probabilidad Imposible evoluciona el Segundo Método es hacia convertirse en un Segundo Método para todo tipo de estudios, tanto para estadística descriptiva, reformulando conceptos tradicionales de tendencia central, especialmente redefiniendo la media aritmética en tanto que azar teórico, entre otras funciones de inversión de N, 1/N,  y de dispersión, definiendo a la Desviación Media o Desviación Típica en tanto que estadísticos de azar empírico.
Y a partir de estas definiciones, mediante la aplicación de silogismos, formando nuevos conceptos como Máxima Desviación Media Teórica Posible o Máxima Desviación Típica Teórica Posible, diferenciando entre modelos normales y modelos omega sujetos a subconjuntos de ideales dentro de N, y avanzando hacia nuevos modelos contraste de hipótesis, para la crítica racional de las ideas.

Rubén García Pedraza, a  Madrid 25 de mayo del 2013.
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/