Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 25 de mayo de 2013

El Segundo Método

La estadística y la probabilidad son dos disciplinas claramente diferenciadas, aunque estrechamente vinculadas, en los manuales de estadística son frecuentes las menciones a la teoría de la probabilidad, y viceversa, en los libros de probabilidad menciones a la estadística, pero, sin embargo, a pesar de estar muy ligadas, la matemática tradicional hace una clara distinción entre qué es estadística y qué es probabilidad, en la medida que la una estudia la posibilidad de un evento o  suceso, y la estadística hace estimaciones descriptivas, normalmente sobre poblacionales, o de ser inferencial, contraste de hipótesis.
Es difícil decir cuál de ellas, probabilidad o estadística, fue primero, aunque, hay una visión ampliamente asumida de que el nombre estadística viene dado porque a partir de los primeros Estados se extiende el empleo de técnicas para la elaboración censos y recuentos demográficos y poblacionales. La probabilidad como teoría quizás no sea mucho más anterior o posterior, y posiblemente el principio histórico de la estadística y la probabilidad sea simultánea, y presumiblemente, aunque de forma intuitiva o sin saber que utilizaban técnicas estadísticas o de probabilidad, la prehistoria de estas técnicas se remonte a periodos anteriores. Si bien, en el ámbito académico se suele mencionar que la estadística en tanto que disciplina científica de carácter académico, universitario, es muy reciente, de principios del siglo XX.
Si la media aritmética lo que hace es la redistribución igualitaria de, dada la suma de una serie de elementos por factor, el sumatorio se divide después entre el total de los factores, para determinar cuántos elementos corresponden a cada factor por igual, es evidente que, ya  se le diera ese  u otro nombre, este tipo de operaciones presumiblemente sea tan antigua como la propia matemática.
La teoría de Probabilidad Imposible, tal como su nombre refleja, parte de una reflexión en torno a la teoría de la probabilidad. El nombre de la Probabilidad Imposible hace mención a la existencia de sucesos que teniendo probabilidad empírica cero, luego en teoría a priori deberían ser imposibles, en tanto que tienen probabilidad empírica cero porque no hay constancia manifiesta al menos en el registro de observaciones que haya sucedido, o habiendo sucesos pertenecientes a posibles universos infinitos en donde, teóricamente, en el infinito la probabilidad teórica de sujeto u opción, 1/N, es una tendencia con límite en cero, en cualquier caso, ya sea porque un suceso es teórica o empíricamente imposible, en términos de probabilidad, no implica que no tenga porque suceder, un suceso teórica o empíricamente imposible, dentro de un margen de coherencia lógica, puede ser inevitable.
Debido a la complejidad en la definición de lo posible o lo imposible, la teoría de Probabilidad Imposible evolucionará hacia una perspectiva compleja de la ciencia, muy en la línea de los actuales modelos en boga no lineales o modelos caóticos. En Probabilidad Imposible la definición de lo posible o imposible se debe a una combinación aleatoria de factores capaz de producir patrones de comportamiento estables, siempre de manera estocástica, dentro de una lógica dialéctica en donde la realidad es una contingencia producto de accidentes, luego lo realmente sustancial o esencial de la realidad en tanto que fenómeno cognoscible, es ser una entidad compleja en permanente evolución o cambio, lo cual en esencia nos lleva a la filosofía presocrática, más en concreto a Heráclito, para quien todo fluye, todo es movimiento, y en cierto sentido una visión nietzscheana o nihilista de la ciencia, aunque partiendo, para llegar a este punto,  del contraste de hipótesis, lo que en Probabilidad Imposible se llama la crítica racional de las ideas, en tanto en cuanto, lo que conocemos, el fenómeno, no es el ente en sí, en la medida que nunca conocemos la realidad misma, sólo percepciones, siendo la contradicción entre realidad empírica y teórica fuente de errores para la ciencia generadas por la propia limitación humana, ante la infinitud de cualidades singulares de la verdadera realidad real, siendo la ausencia de fiabilidad absoluta un desafío a los ideales de ciencia y humanidad.
A partir de la primera intuición de Probabilidad Imposible, en el año 2001, se inicia una teoría, que además, entre sus primeros propósitos tendrá la intención de crear un modelo inferencial alternativo al contraste de hipótesis tradicional, sustentado sobre el falsacionismo de Popper. En líneas generales, las investigaciones que dieron lugar a estos primeros planteamientos en el año 2001, son los que posteriormente se plasmaron por primera vez en la versión impresa de Introducción a la Probabilidad Imposible, 2011, y más recientemente en este mismo año 2013, en las versiones digitales, ebook, de Introducción a la Probabilidad Imposible, en donde únicamente se han hecho algunas modificaciones en relación a la concepción filosófica de la ciencia, pero manteniendo perennes e inalterables las formulaciones iniciales.
A fin de dar cuerpo teórico a estas intuiciones preliminares, se empieza a desarrollar un nuevo modelo metodológico, desde el cual poder hacer efectivo el estudio de la realidad desde una cosmovisión compleja, que entienda las relaciones dialécticas entre lo posible y lo imposible, haciendo una síntesis filosófica entre racionalismo crítico, positivismo, y materialismo dialéctico, en el cual se puede entrever a lo largo de la obra claras influencias vitalistas y nihilistas, en la medida que toda presunción racional de falsedad, derivado de la versión popperiana del racionalismo crítico, implica que, a priori, toda hipótesis, aunque se demuestre suficientemente racional, es una suficiencia provisional, luego, ya desde el principio, por apriorismo, toda aceptación de verdad se hace aceptando desde el principio la presunción de falsedad, luego ya de entrada se parte de que absolutamente nada puede ser absolutamente verdad, toda verdad que aceptamos provisionalmente verdad lo hacemos desde el convencimiento y el apriorismo, que, llegado el momento de la verdad, cuando el margen de error aceptado en la razón crítica de la política científica se manifieste, esa misma hipótesis o idea ahora aceptada verdadera, será falsa.
El racionalismo crítico, en su evolución contemporánea, el falsacionismo, fundado en el eclecticismo de la duda racional y el escepticismo empírico, llevado al extremo, en Probabilidad Imposible, conduce inevitablemente a una actitud de nihilismo relativo, en tanto que se asume la presunción a priori de que toda hipótesis o idea, y absolutamente toda hipótesis o idea, luego toda teoría, incluso ella misma, y absolutamente toda teoría, aunque de forma provisional las aceptemos racionales, es absolutamente falsa. Que algo sea racional no implica que sea absolutamente verdadero, sólo significa que es una explicación suficiente por ahora, y mientras no se demuestre o manifieste lo contrario, pero más allá de la función temporal de suficiencia, a largo plazo será posiblemente falso. El racionalismo crítico abre la puerta a un cierto nihilismo relativo, en tanto que, ni siquiera es absoluto. De forma inmediata, en el momento que las hipótesis son suficientemente racionales, siempre y cuando su margen de error sea igual o inferior al margen de error de la razón crítica, o siempre y cuando su margen de fiabilidad sea igual o superior al margen de fiabilidad, se acepta las hipótesis y sus teorías, si bien, se presupone, que dentro del marco de error que se aceptan, posiblemente sean falsas.
A fin de desarrollar la teoría de Probabilidad Imposible lo primero que desde esta teoría se hace es fusionar estadística y probabilidad, creando así un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística.
Dentro de esta nueva teoría habrá que diferenciar entre dos tipos de métodos, el método destinado al propio desarrollo analítico formal, investigación pura, de la estadística y la probabilidad, que será el silogismo, aplicado al estudio de la tendencia, motivo por el cual se llamará el silogismo de la tendencia, y aquellos otros métodos de estadística y probabilidad que aplicados a las ciencias sintéticas o empíricas, investigación aplicada, permitirán el desarrollo de las demás ciencias, sean naturales o sociales.
Los métodos estadísticos sintéticos o empíricos, para la investigación aplicada a las ciencias naturales o sociales, tienen su origen y fundación en los propios silogismos que, dentro de la investigación pura, se hagan para el desarrollo de la estadística y la probabilidad aplicada a las demás ciencias.
Mientras la investigación pura en estadística de la probabilidad o probabilidad estadística tiene por fin el análisis de las relaciones formales o lógicas entre estadística y probabilidad, la investigación aplicada tiene por fin la aplicación de la estadística y la probabilidad a las demás ciencias sintéticas o empíricas, sean naturales o sociales.
En el momento que en el ámbito de la investigación pura se empieza a estudiar la posibilidad de fusión, en base a sus relaciones entre sí, de estadística y probabilidad, dentro de este nuevo campo de estudio, estadística de la probabilidad o probabilidad estadística, si para la matemática tradicional la estadística se dedica al estudio de la tendencia central o dispersión de las puntuaciones directas obtenidas de las poblaciones o muestras, en caso de modelos de contraste de hipótesis, proceder a la inferencia estadística, mientras la probabilidad se dedica al estudio de la frecuencia de una serie de opciones, esta síntesis llevará a la creación de nuevos conceptos, universos de sujetos donde se estudian sujetos de predicados cuya cualidad se mide en forma de puntuación directa, y universos de opciones limitadas donde se estudian sus frecuencias, en donde ya sean universos de sujetos o de opciones, donde lo que se estudia es la puntuación directa o frecuencia, se puede aplicar el mismo método sintético o empírico, estudiando la probabilidad empírica y probabilidad teórica, siendo estos conceptos la base sobre la cual se establece el Segundo Método, el cual empezará a desarrollarse a partir del 16 de octubre del 2002, si bien, se ha mantenido inédito hasta la primera publicación de Introducción a la Probabilidad Imposible en 2011, y actualmente en las versiones ebook digitales.
Si el silogismo de la tendencia lo que permite es el análisis de las relaciones lógico formales entre estadística y probabilidad, mediante la aplicación del silogismo al estudio de la tendencia, empezarán a emerger nuevos conceptos que aplicados a las demás ciencias darán lugar a nuevos métodos sintéticos o empíricos para el estudio de las ciencias naturales o sociales. Uno de estos métodos para el estudio de las ciencias sintéticas es el Segundo Método, el cual parte del tratamiento de todo tipo de datos, sean de sujetos u opciones, puntuaciones directas o frecuencias, para el estudio de las relaciones entre las probabilidades empíricas y la probabilidad teórica.
De esta forma el método de Probabilidad Imposible en el análisis lógico de la estadística y la probabilidad, es el silogismo de la tendencia, de forma que toda la fusión de la estadística y la probabilidad en forma de estadística de la probabilidad o probabilidad estadística, se hará mediante la aplicación de silogismos, de los cuales empezarán a surgir métodos sintéticos o empíricos, uno de ellos el Segundo Método.
El motivo por el cual se estima que el silogismo es la principal herramienta del análisis lógico formal se debe a la propia dialéctica, en la cual, desde Hegel, el silogismo engloba los tres estadios, categorías, o niveles de concreción del objeto, en la medida que engloba: lo universal, lo particular, y lo singular; de lo que depende, la universalización en la ciencia, en la medida que desarrolla modelos teóricos universales que respondan a la concreción particular de cada hecho singular.
De esta forma, es partir del análisis formal, mediante silogismos aplicados a la tendencia, donde surgirán los métodos sintéticos o empíricos para la investigación aplicada a las ciencias naturales y sociales.
Mientras el silogismo aplicado a la tendencia estadística, el silogismo de la tendencia, es el método de análisis formal de la estadística de la probabilidad o probabilidad estadística, el Segundo Método es un método de estadística de la probabilidad o probabilidad estadística para el análisis sintético o empírico de las ciencias naturales o sociales.
El origen del Segundo Método, en tanto que método de análisis sintético o empírico de la estadística de la probabilidad o probabilidad estadística aplicado a las ciencias naturales o sociales, se encuentra en las conclusiones lógicas a las que se llega mediante el análisis formal de la estadística de la probabilidad o probabilidad estadística mediante la concatenación de silogismos aplicados a la tendencia.
La razón por la cual se alude a que el Segundo Método es uno de los métodos sintéticos o empíricos de Probabilidad Imposible, mientras el silogismo de la tendencia es el método analítico formal, es porque, mientras a nivel analítico formal el silogismo de la tendencia es el único método de investigación pura en estadística de la probabilidad o probabilidad estadística, la razón por la que se dice que el Segundo Método es un método sintético o empírico, es porque es uno pero no es el único, en la medida que, es uno de los métodos sintético obtenidos, mediante silogismos, al igual que otros métodos sintéticos igualmente obtenidos mediante la misma vía.
Mientras método analítico formal sólo hay uno, el silogismo de la tendencia, los métodos sintético o empíricos, todos ellos producto del análisis formal, son diversos, siendo el Segundo Método uno de ellos.
De hecho, la forma en que se llego a la conclusión que el silogismo de la tendencia es el método analítico formal, investigación pura, de Probabilidad Imposible, fue a consecuencia del análisis posterior de los documentos escritos sobre esta teoría, años después, estando todavía inédita, llegando a la conclusión que en todos los documentos se repite la misma estructura formal: a partir de una serie de premisas lógicas sobre conceptos y categorías matemáticas, el establecimiento de una conclusión lógica, en donde si los conceptos y categorías matemáticas estaban bien definidas, y la relación entre las premisas era correcta, la conclusión lógica era formalmente verdadera, derivándose de este método todos los conceptos matemáticos que forman hoy en día Probabilidad Imposible.
Mientras la definición del método formal, el silogismo de la tendencia, es posterior, los primeros métodos sintéticos o empíricos fueron el Impacto del Defecto y el Segundo Método, añadiéndose posteriormente la Distribución Efectiva y el estudio de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible.
La diferencia entre Impacto del Defecto, Distribución Efectiva y estudios de ranking, frente Segundo Método, es que mientras el Impacto del Defecto estudia la magnitud de la gravedad de un defecto o daño en un proceso o sistema, o la Distribución Efectiva estudia el nivel de eficacia o eficiencia de un proceso o sistema, o el estudio en ranking realiza una crítica racional sobre unos niveles de ranking, ya se ordenen en sentido ascendente o descendente, el Segundo Método estudia las relaciones entre probabilidades empíricas y teórica, tanto a nivel intramedicional, ya sea en estadística descriptiva o inferencial, o a nivel intermedicional.
El motivo por el cual el Segundo Método recibió este nombre se debe a dos factores, en primer lugar para diferenciarlo de la estadística tradicional que es el primer método de referencia para todo análisis estadístico, y en segundo lugar porque el Segundo Método fue el segundo método cronológicamente en la elaboración de Probabilidad Imposible, el primer método dentro de esta teoría fue el Impacto del Defecto en la misma madrugada del 11 de septiembre del 2001, desarrollándose el Segundo Método un año después, el 16 de octubre del 2002.
La forma en que dentro de Introducción a la Probabilidad Imposible evoluciona el Segundo Método es hacia convertirse en un Segundo Método para todo tipo de estudios, tanto para estadística descriptiva, reformulando conceptos tradicionales de tendencia central, especialmente redefiniendo la media aritmética en tanto que azar teórico, entre otras funciones de inversión de N, 1/N,  y de dispersión, definiendo a la Desviación Media o Desviación Típica en tanto que estadísticos de azar empírico.
Y a partir de estas definiciones, mediante la aplicación de silogismos, formando nuevos conceptos como Máxima Desviación Media Teórica Posible o Máxima Desviación Típica Teórica Posible, diferenciando entre modelos normales y modelos omega sujetos a subconjuntos de ideales dentro de N, y avanzando hacia nuevos modelos contraste de hipótesis, para la crítica racional de las ideas.

Rubén García Pedraza, a  Madrid 25 de mayo del 2013.
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 
 

sábado, 18 de mayo de 2013

Introducción a la Probabilidad Imposible (Edición 2015),

 

La vista previa de Google Libros ofrece una lectura gratuita del 20% del total la obra, aproximadamente 80 páginas en donde introducirse en la nueva teoría de Probabilidad Imposible aplicada a la estadística de la probabilidad o probabilidad estadística, y para los que quieran un conocimiento más profundo desde Google Play pueden adquirir ya la versión ebook.
 

De momento la versión ebook en Google Play se encuentra disponible para los siguientes países: AR, AS, AT, AU, BE, BO, BR, BY, CA, CH, CL, CO, CR, CZ, DE, DK, DO, EC, EE, FI, FR, GB, GR, GT, GU, HK, HN, HU, ID, IE, IN, IT, JP, KG, KR, KZ, LT, LU, LV, MH, MP, MX, MY, NI, NL, NO, NZ, PA, PE, PH, PL, PR, PT, PW, PY, RO, RU, SE, SG, SV, TH, TR, TW, UA, US, UY, UZ, VE, VI, VN, ZA.
 

Para aquellos países en donde la obra no esté  todavía disponible en Google Play, desde la propia página de Google Libros, si se hace click en cómo conseguir el libro físico, o se hace click sobre el enlace de Lulu.com, desde Google Libros se tiene acceso directo a amazon.com o amazon.es, en donde la obra también se encuentra para público.
 

Ya desde el mes de enero Introducción  a la Probabilidad Imposible (Edición 2015), estadística de la probabilidad o  probabilidad estadística, se encuentra en formato ebook en amazon.com y amazon.es, en donde también se ofrece una vista previa del libro, aunque ligeramente más restringida que en Google Libros.
 
La selección parcial que de la obra ofrece el Programa de Vista Previa de Google Libros ofrece una panorámica general de toda la obra, y de todos los apartados hay prácticamente seleccionada alguna página, en donde los lectores pueden hacerse al menos una idea global de la obra, y para los que estén más interesados en una lectura profunda y atenta tener ocasión de adquirir la obra, ya sea en formato digital o impreso.
 

La obra condensa una nueva teoría con nuevas aportaciones a la estadística y la probabilidad desde definiciones renovadas a los conceptos tradicionales, una reinterpretación de los conceptos clásicos de tendencia central o dispersión estadística en donde la probabilidad aplicada a la estadística alcanza nuevos desarrollos.
 

La explicación a algunos de los elementos más fundamentales de la teoría de Probabilidad Imposible ya han sido explicadas en este blog, aunque no son más los elementos más imprescindibles para comprender la teoría, para un conocimiento más exaustivo de hasta donde alcanza la teoría es necesaria una minuciosa lectura, en donde el lector puede comprobar como los desarrollos de la razón crítica aplicada al contraste de hipótesis en estadística inferencial, a partir de las nuevas definiciones en estadística descriptiva, crean un nuevo campo de investigación, en donde esta obra no es más que una simple introducción a un campo de investigación mucho más amplio.
  

La primera edición de la obra fue en formato físico en el año 2011, desde entonces la obra se ha ido reformulando y actualizando, encontrándose presente ya en diversas bibiliotecas universitarias latinoamericanas y españolas para consulta de expertos y estudiantes. La primera vez que apareció en ebook fue en la actualización de enero del año 2013, y en 2014 fue de nuevo actualizada, tanto la versión ebook y la versión digital.

La obra que aquí se expone, Probabilidad Imposible, es una teoría totalmente nueva, llena de nuevos alicientes al estudio de la realidad, en donde los lectores, una vez que entiendan el proceso de elaboración de la teoría, comprenderán la enorme variedad de vías de investigación y desarrollo matemático que ofrece esta teoría,  que lentamente va encontrando una amplia aceptación entre investigadores y científicos que precisan de herramientas estadísticas, si bien el hecho de lanzar una nueva teoría como es ésta, totalmente novedosa en las nuevas definiciones y formulaciones,  elaborando nuevos conceptos y técnicas de contraste de hipótesis, en estadística y  probabilidad, es un proceso  complejo no exento de dificultades, en la medida que implica un proceso de adaptación de los esquemas estadísticos tradicionales a los que esta nueva teoría desarrolla.
 
Rubén García Pedraza, Madrid a 8 de febrero del 2015
Corregido 3 Enero 2024, Madrid

 

domingo, 12 de mayo de 2013

La tendencia estadística

La tendencia estadística de un sujeto u opción singular, o la tendencia estadística de una muestra en particular, o del universo en general, es el comportamiento o forma de ser de ese sujeto u opción, muestra o universo. En términos de probabilidad, la tendencia individual de un sujeto u opción queda manifestada, de forma inmediata, en la probabilidad empírica y  a nivel muestral en la serie de estadísticos muestrales, y la tendencia del universo dependiendo si la inferencia estadística, de acuerdo a la razón crítica, determina si una tendencia es suficientemente racional para aplicarse de forma provisional al universo del que forma parte la muestra, transformándose la hipótesis empírica en hipótesis racional, una hipótesis simultáneamente universal y provisional, en cuanto el margen de error aceptado por la política científica en la razón crítica no se muestre inevitable.
De esta forma, y en líneas generales, la tendencia es el  comportamiento o forma de ser, lo que de forma más analítica, y a efectos didácticos, para entender Introducción a la Probabilidad Imposible, se podría decir que el comportamiento es en sí mismo el hecho empírico, lo que se observa, del cual posteriormente la mensuración da lugar a una medición, puntuación directa o frecuencia, que dividida entre el sumatorio de puntuaciones directas o frecuencias da lugar a la probabilidad empírica de sujeto u opción, la tendencia individual de sujeto u opción que pasa a engrosar los estadísticos de tendencia individual sobre los que se estimarán los estadísticos muestrales.
El comportamiento observado en tanto que objeto de medición dará lugar a las mediciones sobre las que se calcula la tendencia estadística, siendo observaciones del comportamiento y estimaciones cuantitativas sobre las que se deduce la forma de ser del sujeto u opción, la muestra o el universo,  en la medida que la forma de ser se demuestra en el comportamiento observado, sobre el cual se establecen los estadísticos de la tendencia, sea a nivel individual o muestral, y dentro de la muestral, la tendencia central o de dispersión.
De esta forma habría que distinguir tres niveles de tendencia en Introducción a la Probabilidad Imposible, la tendencia individual, en función de los estadísticos individuales, la tendencia muestral, en función de los estadísticos muestrales, dentro de los que se englobarían los de dispersión o tendencia central, y la tendencia universal, aquella que se infiere a partir de la inferencia estadística.
Mientras la tendencia individual y la tendencia muestral son objeto de la estadística descriptiva, la tendencia del universo es aquella que tiene por objeto la definición de la forma de ser del universo según los comportamientos observados en la muestra, luego la definición de aquel universo particular al que pertenece la muestra es la tendencia universal, función de la estadística inferencial, para la aceptación o refutación de las hipótesis empíricas, según la tendencia observada en los niveles individuales o muestrales sea suficientemente racional en función de una razón crítica, la probabilidad crítica que decida la política científica.
En estudios de error una tendencia individual o muestral igual o inferior a una razón crítica en tanto que margen de error, o en estudios de fiabilidad, una tendencia individual o muestral superior a una razón crítica en tanto que margen de fiabilidad, será una tendencia suficientemente racional para  ser establecida de forma universal y provisional para todo el universo del que se extrajo la muestra, y mientras el margen de error aceptado no se demuestre, momento en el cual se refutaría la validez o significación universal de la hipótesis, o demostrándose en todo caso que su validez o significación era sólo provisional.
La tendencia de esta forma se puede definir en tanto que comportamiento o forma de ser, en la medida que la tendencia lo que viene a definir son patrones de comportamiento estadísticos, que de forma descriptiva los patrones de comportamiento o de tendencia se clasifican en, dentro de la estadística tradicional, de tendencia central o de dispersión, y en Introducción a la Probabilidad Imposible, estadísticos individuales o muestrales.
La estadística tradicional diferencia entre estadísticos de tendencia central o de dispersión, en la medida que parte de la tesis que son funciones unidimensionales, es decir, los estadísticos de tendencia central bajo ningún concepto puede desarrollar funciones de estadístico de dispersión, y viceversa, los estadísticos de dispersión no pueden ejercer funciones de estadísticos de tendencia central.
En este sentido la estadística tradicional hace clasificaciones hieráticas y fijas, en donde los estadísticos de tendencia central serían principalmente: la media aritmética, la moda  la mediana; la media aritmética en tanto que promedio del sumatorio de las puntuaciones directas por su frecuencia, la moda sería aquella puntuación directa u ocurrencia que tuviera mayor frecuencia, y la mediana aquel estadístico que dividiría al 50% la distribución estadística.
Los estadísticos de dispersión para la estadística tradicional sería la Desviación Media, Varianza, y la Desviación Típica, que se calcularían a partir de la puntuación diferencial igual a la diferencia de puntuación directa menos media aritmética. La Desviación Media sería igual al promedio del sumatorio del valor absoluto de cada puntuación diferencial por su frecuencia, la Varianza lo mismo pero elevando al cuadrado las puntuaciones diferenciales, y la Desviación Típica la raíz cuadrada de la Varianza.
De hecho la clasificación hierática de la estadística tradicional o la probabilidad tradicional, parte de una concepción fija e inmutable de la estadística en sí misma o la probabilidad en sí misma, en donde la estadística tiene por función el análisis de datos y la probabilidad el estudio de la probabilidad de la ocurrencia de algo, una diferenciación que en la teoría de Probabilidad Imposible se supera hacia un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, a partir del Segundo Método, sobre las relaciones entre probabilidad empírica y teórica, así como en otro tipo de metodologías de Probabilidad Imposible, los estudios de ranking, el Impacto del Defecto y la Distribución Efectiva.
En Introducción a la Probabilidad Imposible, lo que se propone es un Segundo Método para el estudio de la estadística y la probabilidad, estudiando las relaciones entre probabilidad empírica y teórica, sintetizándose estadística y probabilidad, establediéndose estadísticos individuales o muestrales, empíricos o teóricos, en donde lo principal no es si un estadístico es de tendencia central o dispersión, porque lo realmente importante del estadístico es si es empírico o teórico. En Probabilidad Imposible lo más importante son las relaciones que se establecen entre la realidad empírica y la teórica para la crítica racional de las hipótesis, en esencia, la crítica racional de las ideas.
El motivo por el cual la verdadera diferencia no está en si un estadístico es de tendencia central o de dispersión, más bien es si es empírico o teórico, es porque en esencia el objeto fundamental del conocimiento es el contraste entre lo teórico y lo empírico, para el establecimiento del isomorfismo idea y realidad, la forma científica en que ha evolucionado el hilemorfismo aristotélico de materia y forma.
En síntesis, lo que la ciencia investiga es si nuestra idea de realidad y la realidad misma son idénticas, en la medida que a mayor identidad cuantitativa, dentro del menor margen de error, mayor margen de fiabilidad, en la razón crítica, entonces mayor probabilidad de que el conocimiento que disponemos sobre la realidad sea realmente verdadero, si bien, debido a la propia limitación humana, origen del error, nunca llegamos a tener un conocimiento absoluto sobre lo que sucede, motivo por el cual el conocimiento, a pesar que dispongamos de increíbles márgenes de error sobre periodos infinitos de cero, el error y la refutación siempre son posibles.
En este sentido el principio básico del racionalismo crítico se mantiene inalterable, en la medida que no podemos conocer de forma absoluta la realidad en sí misma, únicamente llegamos a un conocimiento parcial de la realidad, sólo conocemos fenómenos, y es en la diferencia entre fenómeno y la realidad en sí o noúmeno en donde establecemos el margen de error aceptable por la razón crítica para decidir si una tendencia es suficientemente racional, en función de si la tendencia sea inferior al margen de error o superior al margen de fiabilidad, lo cual es esencia la crítica racional de las ideas.
La pervivencia del racionalismo crítico en la crítica racional de las ideas en Introducción a la Probabilidad Imposible es bien visible en todos los modelos de contraste de hipótesis que se postulan, los cuales a su vez dependen de las definiciones iniciales de sujeto u opción, tipos de universo, probabilidad empírica y probabilidad teórica.
La distinción entre estadísticos individuales o muestrales, empíricos o teóricos se debe a que en el Segundo Método de Probabilidad Imposible para este nuevo campo de estudio, estadística de la probabilidad o probabilidad estadística, carece de lógica una visión hierática de la división entre tendencia central y dispersión cuando los mismos estadísticos de tendencia central son estadísticos de dispersión simultáneamente, dentro de la visión dialéctica hegeliana en función de la cual los opuestos son idénticos, lógicamente, centralidad y dispersión son idénticos.
El motivo por el cual los estadísticos de tendencia central y dispersión son idénticos en Probabilidad Imposible se puede explicar desde diferentes perspectivas, desde la perspectiva filosófica, en la identidad de los opuestos. Algo que en Introducción a la Probabilidad Imposible se deja claro desde el principio es que esta teoría, Probabilidad Imposible, parte de la síntesis entre racionalismo crítico, positivismo y materialismo dialéctico, el cual a su vez parte de una visión dialéctica de la realidad que tiene su origen en Hegel, y posteriormente Marx y Engels aplicarán a la realidad material, aplicando las categorías dialécticas que Hegel a la materia.
Desde la perspectiva estrictamente matemática tendencia central y dispersión son idénticas porque desarrollan exactamente las mismas funciones.
Lo que para la estadística tradicional es media aritmética, un estadístico de tendencia central, en el Segundo Método de Probabilidad Imposible se transforma en inversión de N, 1/N, el cual ejerce al mismo tiempo diferentes funciones, la inversión de N es al mismo tiempo, para todo tipo de universos, media aritmética de las probabilidades empíricas, probabilidad teórica, y en universos de sujetos, probabilidad de dispersión teórica y probabilidad de error de representatividad muestral, es decir, conforme N aumenta hay menor probabilidad de eror en la representación muestral del universo, y la dispersión empírica disminuye en estudios normales, en la medida que en estudios normales conforme N aumenta la probabilidad empírica de los sujetos u opciones tenderá a cero en la misma medida que tenderá a cero la inversión de N según aumente N.
Lo que para la estadística tradicional es la moda, aquella opción con mayor frecuencia, en el Segundo Método se transforma en la máxima, “p(xi+)”, la máxima probabilidad empírica o probabilidad empírica máxima, y la principal cualidad de la máxima es que es el sujeto u opción que tiene el  mayor Nivel de Sesgo de la muestra, luego es el sujeto u opción que es más próximo a Máxima Probabilidad Empírica Posible, la probabilidad uno, luego la más próxima a Máximo Sesgo Teórico Posible, “( 1 – 1/N)”.
Si en la estadística tradicional la Desviación Media, Varianza o Desviación Típica se define por estadísticos de dispersión, en realidad en Introducción a la Probabilidad Imposible son la tendencia central de la dispersión empírica, en la medida que lo único que hacen es calcular el valor promedio, central, de la dispersión individual de la muestra, en la medida que la Desviación Media es el promedio, o valor central, del valor absoluto de los Niveles de Sesgo, la Varianza es el promedio, o valor central, de los Niveles de Sesgo al cuadrado, y la Desviación Típica la raíz cuadrada de la Varianza.
Además, en el Segundo Método de Probabilidad Imposible, al mismo tiempo que la inversión de N, para todo tipo de universo es probabilidad teórica, es decir, la inversión de N es el azar teórico de que algo suceda en igualdad de oportunidades, la Desviación Media o Típica es el azar empírico, es decir, la Desviación Media o Típica lo que miden es la distribución empírica del sesgo por azar en la muestra, lo cual se demuestra en el momento que la Desviación Media es igual al Sesgo Total, suma del valor absoluto de todos los Niveles de Sesgo, por inversión de N, azar teórico, en síntesis, la Desviación Media es azar teórico, inversión de N, 1/N, por Sesgo Total, el sesgo empírico , la Desviación Media no es otra cosa que el producto del sesgo por el azar o el azar por el sesgo, la estimación cuantitativa de la distribución del sesgo por azar, la Desviación Media o Típica son en definitiva el azar empírico.
La diferencia entre azar empírico y azar teórico reside en que si hacemos una serie de lanzamientos de una moneda al aire teóricamente la distribución de caras y cruces debería ser la misma, empíricamente depende del azar empírico, lo que realmente suceda.
Teóricamente la probabilidad de ser hombre o mujer en una sociedad es la misma, empíricamente, la propia distribución aleatoria, natural de la sociedad, la proporción de mujeres en la sociedad suele ser superior a la de hombres, dependiendo del propio azar empírico de la naturaleza, que de forma natural y aleatoria favorece más a la distribución de mujeres que la de hombres.
Teóricamente la probabilidad que la masa de cualquier planeta en una galaxia debería ser la misma, en la práctica, los planetas en función de su distancia al sol de la galaxia tienen dimensiones diferentes, dependiendo de la propia distribución aleatoria de la materia en el espacio.
El azar empírico lo que demuestra es la profunda naturaleza estocástica de lo que sucede, la realidad. Mientras la distribución teórica es aquella que debería darse sin más motivo que la igualdad de oportunidades, en la naturaleza se producen sesgos aleatoriamente que dependen del propio azar empírico de lo que sucede, que de forma totalmente aleatoria y al azar sigue patrones de comportamiento y de tendencia diferentes a los teóricos, revelando una forma de ser totalmente aleatoria y estocástica, sólo predecible dentro de un posible margen de error.
El estudio de la distribución del azar, empírico y teórico, y sus diferencias, es lo que después permitirá a la ciencia la crítica racional de las ideas, las hipótesis, ya sean hipótesis explicativas, para comprender la distribución de la realidad en forma de hipótesis empíricas que puedan transformarse en racionales, universales y provisionales, o para la crítica racional de hipótesis tecnológicas y puesta a prueba de nuevas tecnologías, que faciliten un mayor crecimiento acelerado en el progreso de la ciencia y la tecnología, en esencia, el progreso hacia los ideales dentro de los ciclos de revoluciones científicas y tecnológicas hacia la revolución permanente de la ciencia.
El concepto de tendencia estadística es imprescindible para cualquier teoría de estadística y la probabilidad, que además, en la propia investigación pura sobre estadística de la probabilidad o probabilidad estadística, es a partir de los silogismos sobre la tendencia la forma en que se desarrolla la propia teoría en sí misma.
Si bien de cara a la investigación aplicada a las ciencias sintéticas el Segundo Método, los estudios de ranking, el Impacto del Defecto y la Distribución Efectiva son métodos de Probabilidad Imposible aplicados a otras ciencias sintéticas de los que deducirse proposiciones con significado empírico, la forma o método en que a su vez estos métodos han sido desarrollados en sí mismos, el método interno a la propia teoría, Probabilidad Imposible, ha sido el silogismo de la tendencia. A continuación una serie de ejemplos, de cómo a partir de una serie de silogismo se deduce la Máxima Desviación Media Teórica Posible.
En el momento que se establece que la probabilidad empírica es igual a puntuación directa o frecuencia entre sumatorio de puntuaciones directas o frecuencias
Probabilidad empírica = p(xi) = xi : Σxi

Y la probabilidad teórica es inversión de N, 1/N, la probabilidad hipotética en igualdad de oportunidades,  y el sesgo, es decir, el grado de comportamiento diferencial al esperado por azar, es igual a la diferencia entre el comportamiento real y el teórico, entonces, conclusión lógica del silogismo, el Nivel de Sesgo de un sujeto u opción es igual a la diferencia de la probabilidad empírica menos teórica

Nivel de Sesgo = p(xi) – 1/N

Y si toda probabilidad es una dimensión que oscila entre mínimo cero y máximo uno, entonces lógicamente la Máxima Probabilidad Empírica Posible sólo puede ser cuando la probabilidad empírica es igual a uno

Máxima Probabilidad Empírica Posible = 1

Y lógicamente la Mínima Probabilidad Empírica Posible sólo puede ser cuando la probabilidad empírica es igual a cero

Mínima Probabilidad Empírica Posible = 0

Y si la Máxima Probabilidad Empírica Posible es uno, y el Nivel de Sesgo es la diferencia entre lo empírico y lo teórico, entonces el Máximo Nivel de Sesgo Teórico sólo puede ser igual a uno menos inversión de N

Máximo Sesgo Teórico Posible= 1 – 1/N

Luego lógicamente aquel sujeto u opción que tenga la Mínima Probabilidad Empírica Posible tendrá el Máximo Sesgo Negativo Posible, cero menos inversión e N

Máximo Sesgo Negativo Posible = 0 – 1/N

Y si el Sesgo Total es la suma del valor absoluto de todos los Niveles de Sesgo, en tanto que los sesgos positivos compensan a todos los sesgos negativos y viceversa, motivo por el cual en el cálculo de la Desviación Media se suman todos los Niveles de Sesgo sin signo, Sesgo Total, para que no se anulen. Si se da el caso que un sujeto u opción tiene la Máxima Probabilidad Empírica Posible luego Máximo Sesgo Teórico Posible, entonces todo ese sesgo de ese único sujeto u opción debe compensar a todo el sesgo negativo de los demás sujetos u opciones, que si de N sólo un sujeto u opción es de sesgo positivo, todos los demás, N – 1, son de sesgo negativo, luego todo el sesgo negativo de esos sujetos u opciones debe ser igual a multiplicar “N – 1” por el valor absoluto de Máximo Sesgo Negativo Posible, 1/N, y dicho producto será igual al duplo de Máximo Sesgo Teórico Posible, luego la Máxima Desviación Media Teórica Posible será igual a al promedio del duplo de Máximo Sesgo Teórico Posible

Máxima Desviación Media Teórica Posible= [ ( 1 – 1/N ) · 2 ] : N

Y de igual forma, mediante aplicar el silogismo a la tendencia estadística, el silogismo de la tendencia, deducir Máxima Varianza Teórica Posible, Máxima Desviación Típica Teórica Posible, y todos los modelos de crítica racional, tanto para modelos de distribución normales, aquellos cuya dispersión oscila entre cero y máxima, y modelos omega, y dentro de los modelos de distribución normales según el objeto de estudio sea igualdad de oportunidades, sesgo positivo o sesgo negativo, casos todos explicados en Introducción a la Probabilidad Imposible.
La tendencia de esta forma es uno de los conceptos fundamentales de la probabilidad y la estadística, que tiene un lugar preponderante en Introducción a la Probabilidad Imposible, en la medida que es a partir del estudio de la tendencia, y la aplicación de silogismos, el silogismo de la tendencia, la forma en que se elabora y estructura toda una nueva teoría sobre un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, tanto para la descripción y la inferencia de hipótesis.

Rubén García Pedraza, Madrid a 12 de mayo del 2013
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 
 

domingo, 5 de mayo de 2013

La probabilidad teórica

La probabilidad teórica es la probabilidad estadística hipotética bajo condiciones de igualdad de oportunidades en ausencia de sesgo. Se dice que un fenómeno o suceso es aleatorio, producto del azar, luego estocástico, cuando su ocurrencia no está determinada, salvo por el azar mismo, luego es indeterminado. Cuando un hecho sucede de manera aleatoria se dice que es de carácter estocástico por cuanto no es predecible de forma absoluta, habiendo en cualquier caso márgenes de error, en la hipótesis empírica o predicción, dentro del cual no tiene porque cumplirse.
La probabilidad teórica en Introducción a la Probabilidad Imposible se desarrolla en contraposición a  probabilidad empírica, según se distingua realidad empírica y teórica, y la diferencia reside en que la probabilidad teórica es una probabilidad estadística de caracter hipotética y la probabilidad empírica es una probabilidad estadística real, siendo conceptos esenciales de la estadística de la probabilidad o probabilidad estadística que desarrolla la teoría de Probabilidad Imposible.
Hipotéticamente la probabilidad estadística de un sujeto u opción en ausencia de sesgo en condiciones de igualdad de oportunidades, la probabilidad teórica,  es igual al cociente de dividir la unidad entre el número de sujetos u opciones que forman la muestra. A la magnitud total de sujetos u opciones en Introducción a la Probabilidad Imposible se le denomina N, y representa a los N sujetos u opciones posibles de la muestra, y al cociente de la unidad entre N, 1/N, se llama inversión de N, siendo una de sus funciones el cálculo de la probabilidad teórica, entre otras muchas funciones.

Probabilidad teórica = 1/N

Si en un universo de sujetos la muestra de sujetos, extraída del universo de posibles sujetos,  es una muestra formada por N sujetos, la probabilidad teórica asociada a cada sujeto es igual a dividir la unidad entre el número N de sujetos, la inversión de N, 1/N, siendo la probabilidad estadística bajo hipótesis de igualdad de oportunidades entre los sujetos de la muestra N en ausencia de sesgo.
Si se aplica la estadística de la probabilidad o probabilidad estadística a la distribución de la renta de las personas físicas, de forma individualizada, siendo la muestra N de sujetos el total de personas físicas,  la puntuación directa de cada persona física igual a su renta anual, la probabilidad empírica de renta anual por persona física sería igual a su renta anual entre el sumatorio de la renta anual de todas las personas físicas de la muestra N. Y la probabilidad teórica, en igualdad de oportunidades, la unidad entre N, siendo N el número total de personas físicas, luego probabilidad teórica igual a inversión de N, 1/N,  probabilidad estadística hipotética de renta anual por persona física si todas las personas físicas tuvieran la misma renta anual, de haber igualdad de oportunidades en ausencia de sesgo
La diferencia entre la probabilidad empírica de renta anual menos la probabilidad teórica de renta anual en igualdad de oportunidades sería igual al Nivel de Sesgo.

p(xi) – 1/N = Nivel de Sesgo 

1/N = probabilidad teórica
p(xi)= probabilidad empírica 

Aquellas personas físicas con mayor renta anual tendrán una probabilidad empírica de renta anual superior a la teórica luego su Nivel de Sesgo será positivo, mientras que aquellas personas físicas que tengan una probabilidad empírica de renta anual inferior a la teórica tendrán sesgo negativo. El Nivel de Sesgo lo que mide es el sesgo de cada sujeto u opción de la muestra, de forma que todo sesgo positivo indica que la probabilidad empírica es superior a la teórica, y todo sesgo negativo que la empírica es inferior a teórica.
En cualquier caso el concepto de sujeto no se refiere estrictamente a persona o individuo, se refiere a todo sujeto de un predicado de cuya medición de cualidades particulares da una puntuación directa, de forma que la probabilidad empírica del sujeto sea igual a su puntuación directa entre el sumatorio de todas las puntuaciones directas de la muestra.
Supongamos que queremos hacer un estudio comparativo entre niveles de renta per capita entre una serie de países, ya sea sobre los países de una determinada región o continente, o a escala global sobre todos los países, para lo cual tomamos como puntuación directa de referencia de cada país su nivel medio de renta per capita en un año determinado, y su probabilidad empírica es igual al cociente de la renta per capita de cada país dividida entre el sumatorio de todas las rentas per capita de los países seleccionados, ya sea a nivel regional o continental, o de todos los países, según el estudio se limite a una serie de países, o sea un estudio global. En la medida que la muestra N de sujetos será la muestra de países, ya sea una serie dada o todos de forma global, la probabilidad empírica de renta per capita por país será igual a su renta per capita entre el sumatorio de la renta per capita de los países seleccionados o globalmente todos los países. Mientras la probabilidad empírica de renta per capital por país es la probabilidad estadística real de cada país, en el momento de la medición, de forma individualizada, la probabilidad teórica de renta per capita por país sería igual a dividir la unidad entre los N países seleccionados,1/N, de una región o continente, o a nivel global todos los países.
Mientras la probabilidad empírica de renta per capita por país hace una medición empírica de la probabilidad real de cada país en función de su puntuación directa, la probabilidad teórica medirá cual debería ser la probabilidad que teóricamente deberían tener todos los países si todos los países tuvieran la misma renta per capita en igualdad de oportunidades, siendo la diferencia entre la probabilidad empírica menos la teórica el sesgo de cada país. De forma que los países que tengan mayor renta per capital anual por término medio tendrán sesgo positivo, y los países que tengan menor renta per capita anual por término medio tendrán sesgo negativo.
Si en estudios de opciones limitadas, aquellos que sobre una serie dada de alternativas se estudia la distribución de la frecuencia de la ocurrencia, siendo la muestra N la muestra de opciones, de forma que  la probabilidad empírica de cada opción es igual a la frecuencia particular de la opción entre la frecuencia total de toda la muestra, si la probabilidad empírica mide la probabilidad real de ocurrencia de una opción dentro de una muestra de N opciones, la probabilidad teórica medirá la probabilidad hipotética que debería tener cada opción en ausencia de sesgo en igualdad de oportunidades.
Supongamos que lanzamos una moneda al aire y estudiamos si sale cara o cruz, sólo hay estas dos posibles opciones, luego la muestra N de opciones es una muestra limitada a sólo dos opciones, cara o cruz, luego la probabilidad teórica en ausencia de sesgo es “0,5”, bajo hipótesis que la moneda no esté sesgada y halla las mismas posibilidades para alternativa. Mientras la probabilidad teórica es la misma para todas las opciones, la unidad entre el número de opciones, la inversión de N, 1/N, la probabilidad empírica de cada opción será igual a su frecuencia particular entre frecuencia total.
Si en un estudio aplicado, de estadística de la probabilidad o probabilidad estadística al ámbito laboral, se estudia la probabilidad empírica de la distribución del trabajo en función del género, de si se es hombre o mujer, luego N es igual a hombre o mujer, sólo dos opciones, de forma que la probabilidad empírica de distribución del trabajo en las mujeres es igual a la cantidad de mujeres que están trabajando entre la población activa, y la probabilidad empírica de distribución del trabajo en los hombres es igual a todos los hombres que trabajan entre la población activa, en la medida que la probabilidad teórica, inversión de N, en este caso, sería “0,5” al haber sólo dos opciones, hombre o mujer, la diferencia de la probabilidad empírica menos la teórica sería igual al sesgo en la distribución del trabajo según género, luego, si presumiblemente partimos de la hipótesis empírica que posiblemente la probabilidad empírica de la distribución del trabajo en las mujeres sea inferior a la de los hombres, habrá mayor sesgo negativo en la distribución del trabajo entre las mujeres, y más sesgo positivo en la de los hombres.
Mientras la probabilidad empírica es la probabilidad estadística real, la probabilidad teórica es la probabilidad estadística hipotética en igualdad de oportunidades o ausencia de sesgo. La probabilidad teórica es la probabilidad que hipotéticamente debería tener todo sujeto u opción de darse efectivamente en una verdadera situación de igualdad de oportunidades, en ausencia de cualquier otro factor más que el azar mismo.
En la medida que el azar es el libre albedrío de lo que sucede en igualdad de oportunidades, sin más causa que el simple azar, la distribución empírica del trabajo entre hombres y mujeres debería ser la misma, salvo por el error aleatorio generado por la naturaleza, y es que estadísticamente normalmente hay más mujeres que hombres en la sociedad, por diferentes factores, el más importante  la propia tasa de natalidad más alta de recién nacidos de sexo femenino que masculino.
La probabilidad teórica de esta forma lo que mide es, dada una muestra N de sujetos u opciones, cual debería ser teóricamente la probabilidad de cada sujeto u opción en igualdad de oportunidades, si todos tuvieran exactamente las mismas posibilidades, en ausencia de sesgo, luego la diferencia de la probabilidad empírica menos la teórica es igual al Nivel de Sesgo, de manera que las probabilidades empíricas por encima de la teórica serán de sesgo positivo, y las probabilidades empíricas inferiores a la teórica serán de sesgo negativo, siendo el sesgo diferencial lo que explica el comportamiento diferencial de los sujetos u opciones, y base sobre lo cual estructurarse tendencias empíricas diferentes a la teórica.
Mientras la tendencia teórica del comportamiento por azar debería ser en igualdad de oportunidades dentro del libre albedrio del azar, el comportamiento empírico manifiesta una tendencia a comportamientos sesgados diferentes a los teóricos, que son los que explican las diferencias particulares de cada sujeto u opción singular de la muestra.
La probabilidad teórica de esta forma es la probabilidad estadística hipotética por azar, mientras que la probabilidad empírica es la probabilidad estadística real, y la diferencia entre ambas es el sesgo empírico del comportamiento individual.
En estudios donde el ideal sea la igualdad de oportunidades, la crítica racional a la igualdad de oportunidades se puede hacer desde diferentes perspectivas desde el Segundo Método que propone la Probabilidad Imposible. Toda crítica racional debe ser a nivel individual y muestral, y puede hacerse desde estudios intramedicionales o intermedicionales. A nivel individual intramedicional, Validez de Igualdad o Significación de Igualdad, y a nivel muestral el Nivel Muestral Crítico de Igualdad, al igual que también se puede estudiar desde las proporciones críticas, y desde estudios intermedicionales.
En estudios de sesgo positivo, por ejemplo, que dada una serie de sujetos u opciones, halla una que por el motivo que sea, es un sujeto u opción ideal a aumentar su probabilidad empírica, la crítica racional al Nivel de Sesgo se puede hacer desde la Validez de Sesgo Positivo o Significación de Sesgo Positivo, y a nivel muestral el Nivel Muestral Crítico de Sesgo, y en estudios de sesgo negativo Validez de Sesgo Negativo, y Significación de Sesgo Negativo.
Además se encuentran los modelos omega, cuando dentro de N hay un subconjunto de ideales inferior a N pero mayor que N siendo el subconjunto de sujetos u opciones ideales, que se puede estudiar desde la Validez Omega,
Estos modelos de crítica racional se explican ampliamente en Introducción a la Probabilidad Imposible en el apartado 11, al igual que otras formas de estudio sería desde las Proporciones Críticas, apartado 11, así como en el apartado 12 adaptado a la crítica de puntuaciones directas, además desde la Puntuación Típica adaptada al Segundo Método de Probabilidad Imposible en el apartado 15, y todas las técnicas de crítica racional intermedicional.
La inversión de N de esta forma ejerce una función de probabilidad teórica que en Probabilidad Imposible combina junto a otras funciones diversas, de forma universal, tanto para universos de sujetos y universos de opciones limitadas, para todo tipo de universo, de sujetos u opciones, la inversión de N es además media aritmética, en tanto que el promedio de la suma de las probabilidades empíricas es igual a inversión de N.

Σp(xi) : N = 1/N = media aritmética de probabilidades empíricas

La inversión de N, además de probabilidad teórica y media aritmética, funciones universales para todo tipo de universos, de sujetos u opciones, de forma más específica para universos de sujetos desempeña dos funciones esenciales,  en la medida que, en universos de sujetos la inversión de N es igualmente la probabilidad teórica de error de representatividad muestral, y la probabilidad de dispersión teórica, en la medida que el error de representatividad muestral y la dispersión teórica muestral son funciones inversamente proporcionales a la magnitud de la muestra N, en universos de sujetos.
El motivo por el cual la inversión de N, 1/N, es, en universos de sujetos, probabilidad de error de representatividad muestral se debe a que si a mayor muestra mayor representatividad muestral, en universos de sujetos, el posible error de representatividad muestral se limita conforme aumenta la muestra, luego el error de representatividad muestral es inverso a la magnitud de la muestra, luego una medida de control del error muestral es el incremento de N en universos de sujetos, salvo que se tome por entero a una población en tanto que muestra de estudio, en la medida que la propia población es el propio límite al error muestral, siendo en todo caso cualquier población una muestra de la población en su historia.
Al mismo tiempo, en universos de sujetos, la inversión de N ejerce la función de probabilidad de dispersión teórica, si en estudios normales conforme mayor muestra mayor tendencia a ordenarse las puntuaciones en torno a la media aritmética, en estadística de la probabilidad o probabilidad estadística, lo que sucede es que en universos de sujetos conforme N aumenta las probabilidades empíricas tienden a ordenarse en torno a la media aritmética, 1/N, siendo inversión de N al mismo tiempo media aritmética y probabilidad de dispersión teórica, conforme mayor N menor dispersión teórica, 1/N, de media aritmética, 1/N, y conforme menor N mayor dispersión teórica, 1/N, de media aritmética, 1/N, en universos de sujetos.
La inversión de N, 1/N, es un valor multifuncional, en la medida que para todo tipo de universo es media aritmética y probabilidad teórica, y de forma específica en muestras de sujetos probabilidad de error de representatividad muestral y dispersión teórica. Siendo siempre en todo universo posible la probabilidad teórica en igualdad de oportunidades.

Rubén García Pedraza, Madrid a 5 de mayo del 2013.
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/