Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


viernes, 1 de abril de 2016

Probabilidad empírica máxima o la máxima


La probabilidad empírica máxima de una muestra N será igual a la mayor probabilidad empírica de todas ellas, y se puede denominar sencillamente con el calificativo de la máxima. 

En la teoría de Probabilidad Imposible, dentro del campo de estudio de la estadística de la probabilidad o probabilidad estadística, hay que diferenciar entre Máxima Probabilidad Teórica Posible y la probabilidad empírica máxima de una muestra dada. Siendo ambos estadísticos de tendencia individual, uno será de carácter teórico, y el otro empírico, siendo explicado en el apartado 8 del libro de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

La Máxima Probabilidad Empírica Posible es la probabilidad uno, y un estadístico individual teórico por cuanto la probabilidad empírica de cualquier sujeto u opción individual no puede superar bajo  la probabilidad uno, Máxima Probabilidad Empírica Posible, por cuanto la propia definición de probabilidad implica una dimensión que oscila entre cero y uno.

Mientras la Máxima Probabilidad Empírica Posible define el límite superior teórico de oscilación de cualquier término de probabilidad, que nunca puede superar la unidad,  la probabilidad empírica máxima de una muestra, la máxima, simplemente designa, dada una colección de probabilidades empíricas de una muestra concreta,cual de todas es la más elevada.

La mayor probabilidad empírica de una muestra se denominará la probabilidad empírica máxima o la máxima, y su principal característica es que es aquella de toda N que tiene una menor diferencia en relación a la Máxima Probabilidad Empírica Posible, la unidad. Si a uno se resta la probabilidad empírica máxima de una muestra, el resultado será un diferencial menor a cualquier otro diferencial de cualquiera otra probabilidad empírica de la misma muestra.

Para la designación de la probabilidad empírica máxima en el apartado 8 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística se utiliza el siguiente símbolo: “p(xi+)”

p(xi+)= probabilidad empírica máxima

La probabilidad empírica máxima, la máxima de una muestra, cumple diferentes funciones en Probabilidad Imposible, la principal sobre todo es la identificación de la mayor probabilidad empírica de la muestra.

El sujeto u opción cuya probabilidad empírica sea la probabilidad empírica máxima de la muestra será aquel que tenga la mayor puntuación directa o frecuencia. En el caso de los universos de opciones limitadas donde el cálculo de la probabilidad empírica es igual a la frecuencia relativa, la frecuencia de sujeto u opción entre sumatorio de frecuencias, en estadística tradicional se diría que la máxima es la moda y se cataloga como un estadístico de tendencia central. Sin embargo en Probabilidad Imposible se produce una identidad entre estadísticos de dispersión y de tendencia central, que en este caso particular, en el momento que se identifica  la máxima, si bien desempeña la función de moda, luego marca la tendencia central, es a su vez estadístico de dispersión máxima, por cuanto, simultáneamente es un estadístico de tendencia central es el estadístico que mayor dispersión guarda con relación la norma, la inversión de N, que asume el rol de probabilidad teórica en Probabilidad Imposible además de media aritmmética, de modo que en universos de opciones limitadas la máxima asume tanto el rol de moda como el rol de sujeto u opción que guarda mayor dispersión individual frente la norma estadística.

La identificación de la máxima, o lo que en estudios de opciones sería la moda,  es de relevancia en determinados tipos de estudios, especialmente de sesgo positivo, cuando de una muestra N el objeto es el aumento de la probabilidad empírica de un determinado sujeto u opción, inversamente la probabilidad empírica de los demás sujetos u opciones desciende. La tendencia de la máxima a Máxima Probabilidad Empírica Posible mientras los demás sujetos u opciones tienden simultánea e inversamente proporcional a Mínima Probabilidad Empírica Posible, sería una tendencia a un modelo de dispersión máxima donde el Nivel de Sesgo de la máxima tiende a Máximo Sesgo Teórico Posible, inversamente los demás sujetos u opciones tienden a Máximo Sesgo Negativo Posible.

Para los estudios normales de sesgo positivo en Probabilidad Imposible se han diseñado una serie de modelos de contraste de hipótesis, ya sea para estudios intramedicionales o intermedicionales, donde en estos últimos se incluyen las predicciones, ya sea sobre proyecciones ideales o pronósticos reales.

Si bien en Introducción a la Probabilidad Imposible se explica con detalle cada uno de los diferentes modelos de contraste de hipótesis para la crítica racional de la realidad, a modo de ejemplo en este blog, de carácter divulgador sobre la teoría de Probabilidad Imposible, se han especificado algunos para estudios normales intramuestrales, diferenciando entre la crítica racional individual, donde cabe destacar la Validez de Sesgo Positivo o la Significación de Sesgo Positivo, y a nivel muestral, el Nivel Muestral Crítico de Sesgo.

Además la probabilidad empírica máxima o la máxima desempeña otras funciones adicionales en Probabilidad Imposible, tal como se explica en el apartado 14 del libro de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en donde se susceptible de estadísticas relativas.

En la teoría de Probabilidad Imposible se denomina una estadística relativa a aquella estadística descriptiva o inferencial elaborada no a partir de la comparación de los datos obtenidos frente a la probabilidad teórica, que sería la estadística normal, sino a la comparación de los datos frente cualquier otro estadístico individual y empírico de la muestra. De modo que el sesgo relativo de cualquier otro sujeto u opción de la muestra respecto a la probabilidad empírica máxima, la máxima, será igual a la diferencia de la máxima menos cualquier otra probabilidad empírica de su mismo estudio. El sumatorio de los valores absolutos de todos los diferenciales será igual al Sesgo Total relativo de la máxima, y su cociente entre N menos uno igual al promedio de sesgo muestral en relación a la máxima de la muestra. En caso que los diferenciales se elevaran previamente al cuadrado antes de la suma en tal caso sería la Varianza relativa de la máxima, y si posteriormente se hace raíz cuadrada de promedio entonces sería la Desviación Típica relativa de la  máxima.

A partir de los estadísticos descriptivos relativos a la máxima, y dentro de la probabilidad crítica que establezca la política científica en la crítica de la realidad, las comparaciones individuales y muestrales relativas a la máxima pueden ser sometidos al juicio de la razón crítica, para el discernimiento sobre la suficiencia universal provisional de proposiciones sintéticas, las hipótesis empíricas establecidas en relación, en este caso, la máxima.

Rubén García Pedraza, Madrid 1 de abril del 2016

https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería

 

 

viernes, 18 de marzo de 2016

Máximo Sesgo Teórico Posible


El Máximo Sesgo Teórico Posible es un estadístico de dispersión máxima individual, la máxima dispersión que teóricamente podría alcanzar cualquier sujeto u opción en cualquier estudio de probabilidad estadística o estadística de la probabilidad, el campo de estudio de la teoría de Probabilidad Imposible, y que cumple una función destacada en diferentes métodos de contrastes de hipótesis en Introducción a la Probabilidad Imposible.

Normalmente la estadística tradicional diferencia entre estadísticos de dispersión: media aritmética, varianza, desviación típica; y estadísticos de tendencia central: media, moda, mediana. Sin embargo en la teoría de Probabilidad Imposible se llega a una identidad entre dispersión y tendencia central.

Si en la estadística tradicional la media aritmética es un estadístico de tendencia central, en Probabilidad Imposible la media aritmética de las probabilidades empíricas es igual a inversión de N, 1/N, que en universos de sujetos u opciones infinitos es la probabilidad de dispersión teorica dela muestra, en la medida que la relación teórica entre muestra y dispersión es inversamente proporcional. Normalmente a mayor N menor dispersión, y a menor N mayor dispersión, de modo que la media aritmética de las probabilidades empíricas de la muestra de sujetos u opciones cumpliría tanto la función de tendencia central y probabilidad teórica de dispersión de la muestra.

Mientras en la estadística tradicional a la moda se le designa como un estadístico de tendencia central por cuanto aglutina la mayor frecuencia de una muestra, en cambio en Probabilidad Imposible este estadístico de tendencia central asume también una función de dispersión máxima, dado que aquel sujeto u opción que obtenga la mayor probabilidad empírica de toda la muestra, la Máxima Probabilidad Empírica Teórica Posible, la unidad, sin duda alguna es el sujeto que mayor dispersión individual tendrá en relación  a la inversión de N, siendo así entonces la diferencia de Máxima Probabilidad Empírica Posible menos inversión de N igual al Máximo Sesgo Teórico Posible.

Máximo Sesgo Teórico Posible = 1 – 1/N

Dada una muestra de N sujetos u opciones cualesquiera, ya sean sus estimaciones  obtenidas de una escala de medida en puntuaciones directas o se haya contabilizado la frecuencia de sus ocurrencias, en cualquier y en todos los casos, en el momento que las puntuaciones directas o frecuencias se transforman a un sistema de probabilidades empíricas, automáticamente ninguna probabilidad empírica puede ser superior a uno, la Máxima Probabilidad Empírica Posible, y la media aritmética de todas las probabilidades empíricas puede ser distinto de la inversión de N, de modo que para toda muestra N, independientemente del tipo de universo, sujetos u opciones, y mediciones estimadas, puntuaciones directas o frecuencias, absolutamente para todo universo y caso posible, el Máximo Sesgo Teórico Posible que puede alcanzar un sujeto u opción cualquiera es igual a la diferencia de la unidad menos inversión de N.

El Máximo Sesgo Teórico Posible cumple una serie de funciones en la teoría de Probabilidad Imposible, la primera de ellas es la estimación del máximo sesgo que bajo cualquier condición de estudio, independientemente de tipo de universo, muestra, sujeto u opción, se puede dar en un sujeto u opción cualquiera, que absolutamente nunca bajo ningún concepto puede ser superior a la diferencia de la unidad menos inversión de N, 1/N.

Una segunda función no menos importante es que el duplo del Máximo Sesgo Teórico Posible de la muestra sería igual al Máximo Sesgo Total en cualquiera muestra N bajo condiciones de dispersión máxima.

Debido a la bondad natural en todo sistema o proceso dado un conjunto N cualquiera la inversión de N es un estadístico de tendencia central que si es restado a todos los sujetos u opciones que tienen puntuaciones directas o frecuencias superiores a inversión de N, el resultado de la suma de los diferenciales es idéntico a la suma de los diferenciales de todos los sujetos u opciones que tienen una puntuación directa o frecuencia inferior a inversión N, menos inversión de N. Es decir, en todo universo la cantidad de sesgo positivo es idéntico al sesgo negativo, motivo por el cual, salvo que para el cálculo de la Desviación Media o consideramos la suma en términos absolutos de los diferenciales, o de contrario el resultado es cero. Dicho en otras palabras, si sumamos todo el sesgo positivo y sumamos todo el sesgo negativo, el resultado de la suma en términos absolutos de todo el sesgo positivo y el sesgo negativo es igual al Sesgo Total, de modo que si dividimos el Sesgo Total entre dos, lo que en Probabilidad Imposible se llama Máximo Sesgo Empírico Posible, es igual al cómputo total de sesgo positivo en toda la muestra, o el cómputo total de sesgo negativo en la muestra.

En caso de que en N halla condiciones de máxima dispersión, y de toda N un único sujeto u opción tuviera la Máxima Probabilidad Empírica Posible, la unidad, luego la diferencia de la unidad menos inversión de N fuera el Máximo Sesgo Teórico Posible, entonces bajo condiciones de máxima dispersión el Máximo Sesgo Total de la muestra sería igual al duplo del Máximo Sesgo Teórico Posible, en tanto que la suma de todos los demás sesgos negativos, cuyo valor absoluto de cada sesgo negativo individual sería igual a inversión de N, 1/N, la suma de todos los sesgos negativos sería igual a N menos uno por inversión de N, lo que es lo mismo a uno menos inversión de N.

(N – 1 ) 1/N = 1 – 1/N

De modo que el duplo del Máximo Sesgo Teórico Posible sería igual al Máximo Sesgo Total bajo condiciones de dispersión máxima.

Máximo Sesgo Total = { (1 – 1/N) + [(N – 1 ) 1/N] } =  (1 – 1/N) 2

En el momento que conocemos cual es el Máximo Sesgo Teórico Total Posible ya estamos en disposición de calcular la Máxima Desviación Media Teórica Posible, igual al promedio del Máximo Sesgo Total, o producto del Máximo Sesgo Total por la inversión de N.

Máxima Desviación Media Teórica Posible = { (1 – 1/N) 2 } : N =  { (1 – 1/N) 2 } 1/N

Siendo la Máxima Desviación Media Teórica Posible un estadístico de dispersión máxima típico de Probabilidad Imposible del cual posteriormente se deduce la Máxima Varianza Teórica Posible, con la salvedad de que se promedia entre N la suma del cuadrado del Máximo Sesgo Teórico Posible más el producto de la diferencia de N menos uno multiplicado por el cuadrado de inversión de N

Máxima Varianza Teórica Posible= { (1 – 1/N)² + [1/N² (N – 1 )] } : N

Y la raíz cuadrada de la Máxima Varianza Teórica Posible igual a la Desviación Típica

Desviación Típica = √{{ (1 – 1/N)² + [1/N² (N – 1 )] } : N }

Las funciones hasta ahora descritas del Máximo Sesgo Teórico Posible, para el cálculo del Máximo Sesgo Total, lo que posibilita el estudio de la dispersión máxima muestral, Máxima Desviación Media Teórica Posible, de la que se deduce el cálculo de la Máxima Varianza Teórica Posible, y la Máxima Desviación Típica Teórica Posible, además cabe destacar el Máximo Sesgo Teórico Posible cumple una función muy importante en los diferentes modelos de contraste de hipótesis que se proponen en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, tanto para estudios intramedicionales, y estudios intermedicionales, en los que además se engloban las predicciones, sean en términos de proyección ideal o pronóstico real.

En este blog únicamente se están dando algunas nociones básicas de la suma trascendencia que supone para el estudio de la estadística y la probabilidad esta nueva teoría de Probabilidad Imposible, y que es analizada en mayor detalle en la obra Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

El modelo de contraste de hipótesis que plantea Probabilidad Imposible para la crítica racional de la realidad es a través de un sistema que implica tanto contrastes individuales como muestrales, dependiendo del objeto de estudio.

En el caso particular del Máximo Sesgo Teórico Posible es un tipo de estadístico propio de los estudios de sesgo positivo, donde dada una muestra de N sujetos u opciones en donde toda N hubiera uno que tendiera a la máxima puntuación directa o frecuencia, luego a Máxima Probabilidad Empírica Posible, la unidad, la aceptación de que es una tendencia suficientemente racional se localizaría tanto en la crítica individual del sesgo positivo de ese sujeto u opción ideal, como en la crítica de la dispersión muestral. En ambos razonamientos críticos debería demostrarse niveles de dispersión individual y muestral suficientes para la justificación de que el modelo real o empírico se ajusta al modelo teórico o ideal de sesgo positivo de la política científica, modelo teórico o ideal definido en base a razones críticas cuantificadas en forma de probabilidades críticas.

Es dentro de la crítica individual en los procesos de contraste de hipótesis en Probabilidad Imposible, explicados en mayor detalle en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, donde el Máximo Sesgo Teórico Posible cumple una función crítica en esta teoría.

Algunos ejemplos de modelos críticos de sesgo positivo intramedicional donde el Máximo Sesgo Teórico Posible cumple una función esencial, y han sido abordados en este blog serían, entre otros muchos que se explican con más detalle en el libro Introducción a la Probabilidad Imposible, la Validez de Sesgo Positivo o la Significación de Sesgo Positivo, siendo sólo unos ejemplos de otros muchos modelos que aparecen en Introducción a la Probabilidad Imposible.

sábado, 12 de marzo de 2016

La verdad

Verdadero es un fenómeno o proposición que es cierto, y cuya antítesis es lo falso. Un fenómeno será verdadero siempre y cuando no sea producto de una ilusión perceptiva o una falsificación de datos. Y una proposición será verdadera siempre y cuando los referentes que designa cada uno de los elementos de la oración estén libres de error, tanto de errores en los procesos lógicos de los que son producto, o errores debidos a elementos de la oración originarios de fenómenos falsos, ya sea producto de falsas ilusiones o datos falsificados.
Si  en un desierto sufrimos el espejismo de ver en el horizonte algo parecido a un mar, un lago, un rio, o un oasis, ese fenómeno, por muy real que pueda parecer a nuestros órganos sensoriales no deja de ser falso. Si una nave espacial viaja a otro planeta y captamos imágenes o señales que inducen a la creencia en fenómenos que sin embargo no ocurren,  sería un fenómeno análogo, establecimiento de fenómenos falsos por ilusiones perceptivas, sólo que en este caso de los sensores artificiales de los que esté equipada la nave.
Cuando en una investigación el modo en que se han obtenido los datos está sujeto a cualquier tipo de déficit de fiabilidad, por problemas en la medición o mecanismos de selección de datos, entonces cualquier fenómeno que se puede atribuir a los datos extraídos se encontrarán seriamente comprometidos, poniéndose automáticamente en duda el grado de certeza de la información.
Los errores proposicionales a su vez pueden depender, además de los propios problemas perceptivos o de recogida de datos, o su propia naturaleza dudosa, a problemas ocasionados por errores en el proceso lógico de formación de la proposición.
La lógica, a pesar de lo que pueda parecer, no es unidimensional, dependiendo del tipo de escuela el modelo lógico cambia. A lo largo de la historia de la filosofía se observan al menos tres esquemas de pensamiento lógico, a parte de la lógica matemática en sí misma entre las que se puede encontrar, entre otras, la lógica de conjuntos.
En la lógica deductiva, la formación de hipótesis con carácter de verdad se produce a partir del establecimiento de deducciones lógicas entre premisas, premisa mayor o más abstracta y premisa menor o particular, de las que se elabora la deducción concreta, y de aplicación general para todo elemento concreto que mantenga relaciones de comunión con la conclusión deducida. La lógica deductiva va de lo abstracto, a lo particular, y concreto, lo que a menudo se suele denominar coloquialmente de arriba abajo, o dicho de otro modo, del mundo de las ideas al mundo real.
Mientras la lógica inductiva actúa de modo inverso, de lo particular y concreto a lo general, de modo que a partir de un conjunto formado por un número suficiente de elementos particulares y concretos se puede deducir hipótesis generales. A este modelo se llamaría de abajo arriba, o dicho de otro modo, de lo empírico a la formación de ideas.
De otro lado la lógica dialéctica sería aquella cuya formación de proposiciones se realiza a partir de la búsqueda de diferencias y similitudes entre hechos, fenómenos, o ideas. Mientras la lógica deductiva elabora proposiciones concretas a través de la obtención de conclusiones a partir de los elementos comunes entre premisa mayor y menor, y la lógica inductiva elabora proposiciones generales en función de elementos comunes entre fenómenos particulares y concretos, la lógica dialéctica más que buscar lo común entre premisas (deducción) o fenómenos (inducción), busca similitudes y diferencias formando conceptos homónimos y antinómicos.
En este sentido, el ejemplo clásico de lógica deductiva que en filosofía siempre se suele poner es Platón, y en matemáticas Euclides. En lógica inductiva Aristóteles. Aunque si entre lógica deductiva y inductiva hay oposición, la lógica dialéctica guarda conexiones con los demás modelos lógicos.
De hecho Platón, paradigma de lógica deductiva, en La República defiende el estudio de las matemáticas como propedéutica de la dialéctica. En la universidad escolástica medieval, aristotélica, la disputa ejerció un rol central en la metodología educativa. Y en el ámbito del idealismo alemán Kant pone la dialéctica en el centro de la discusión a través de las antinomias, base para que Hegel establezca la doctrina sobre la tesis, antítesis, y síntesis.
Además de estos modelos lógicos habría otros de lógica matemáticas como la teoría de conjuntos, que a su vez guarda estrecha relaciones con la lógica inductiva, deductiva, o dialéctica, dado que finalmente todos terminan generando lógicas de conjuntos. Ya sea en la deductiva la formación de conjuntos concretos sobre una cualidad abstracta general común a una colección de elementos. En la lógica inductiva la formación de categorías generales a partir de conjuntos de datos. O en lógica dialéctica el establecimiento de conjuntos basados en nociones abstractas generales con relaciones de identidad y contradicción entre ellas. Por ejemplo en dialéctica marxista el concepto de clases sociales, establecimiento de grandes conjuntos sociales sobre cualidades diferenciales opuestas entre sí.
Si en cualquier modelo de lógica, se produce un error en la formación de la proposición, la proposición dejará de ser cierta para ser falsa, o al menos no en todo cierta y en algún grado sería falsa, siempre y cuando un número suficiente de elementos de la oración que componen la proposición sean falsos o erróneos.
Si en lógica deductiva para la formación de la conclusión ha habido un error en el proceso lógico de lo general a lo particular, o si en lógica inductiva hay un error en la identificación del aspecto común entre todos los elementos concretos, o en lógica dialéctica hay un error en la identificación de las relaciones de identidad y oposición entre conceptos, o en teoría de conjuntos un problema en la definición u operación entre conjuntos, entonces la proposición lógica será falsa o falsa en algún grado. Ya sea en  lógica deductiva porque lo concreto no participa de lo general o lo particular, en lógica inductiva el aspecto supuestamente común entre los elementos concretos no lo es, en lógica dialéctica realmente no se dan dichas relaciones de identidad y oposición entre categorías, en teoría de conjuntos por cuanto la definición de sus elementos es incorrecta o las operaciones para la elaboración del conjunto o las operaciones entre subconjuntos o del conjunto con otros conjuntos, no están bien hechas.
De este modo, los motivos por los cuales una proposición no es verdadera pueden ser por cuanto, o bien son producto de ilusiones sensoriales, ya sea la percepción humana o artificial, los datos obtenidos no son adecuados, ya sea por problemas en las escalas o aparatos de medición y recogida de datos o problemas en los mecanismos de selección de datos, o por problemas en el proceso lógico de formación de la proposición. Ya sea por cualquiera de estas razones, en caso que en la formación de una proposición se produjera un error, la proposición dejaría de ser automáticamente verdadera, o al menos cien por cien verdadera.
En la medida que en una proposición se puede dar el caso que no sea absolutamente verdad, a menudo se puede atribuir porcentajes de certeza a una proposición. Aunque, evidentemente, este tipo de operaciones lógicas de atribución de un porcentaje de certeza implica un profundo debate filosófico sobre la naturaleza de la verdad misma ¿Qué es la verdad? En este sentido se pueden clasificar dos grandes corrientes de pensamiento, los que afirman categóricamente la existencia de la verdad  absoluta sea o no cognoscible, y los que rechazan la existencia de verdades absolutas y en todo caso serían parciales o relativas.
A lo largo de la historia de la filosofía se puede dilucidar un profundo debate sobre la existencia o no de lo que se ha venido a llamar la verdad absoluta. Mientras desde posiciones idealistas-racionalistas, de Platón a Hegel, pasando por Descartes y Kant, se ha defendido siempre la existencia de una verdad absoluta, desde otras posiciones empiristas se ha tendido más bien al cuestionamiento de la verdad absoluta, vease Hume, o las actuales corrientes postmodernas.
Dentro de las corrientes que afirman la existencia de la verdad absoluta habría dos subcorrientes, los que afirman que no sólo existe la verdad absoluta sino que además es cognoscible, ya sea para Descartes por medio de la razón, o para Hegel por medio de la dialéctica. Frente aquellas otras corrientes que afirmando la existencia de la verdad absoluta estiman que no es cognoscible, véase por ejemplo Kant, por cuanto aunque dispongamos de la razón, o la posibilidad del conocimiento de las ideas, estamos limitados por nuestra naturaleza física y fenoménica: sólo conocemos fenómenos, sólo conocemos apariencias, si el conocimiento absoluto de algo implica el conocimiento de su noúmeno entonces este tipo de conocimiento no está diponible para la naturaleza humana.
Dentro de las corrientes que rechazan la posibilidad de una vedad absoluta habría dos subcorrientes. Los que rechazan la existencia de la verdad absoluta por cuanto afirman que sólo existen verdades parciales sobre fenómenos concretos, los hechos, propio del empirismo, Hume, Betrand Russell, entre otros. Y de otro lado aquellos que rechazan la existencia de una verdad absoluta por cuanto cuestionan o problematizan el propio concepto de verdad mismo, por ejemplo los postmodernos, frente al universalismo de cualquier tipo de verdad proponen un relativismo radical, cualquier verdad es relativa a un grupo social en un periodo histórico, luego cualquier afirmación de verdad estaría limitada a su marco socio-histórico.
En la teoría de Probabilidad Imposible se afirma en todo momento que sí existe la verdad absoluta, cuya principal cualidad es ser una verdad pura, independiente de cualquier elemento fisiológico o subjetivo, ideológico o político, pero por esa misma razón, por cuanto está fuera del alcance de la comprensión humana ( de naturaleza fisiológica, subjetiva, ideológica, política), la verdad pura en sí misma en su forma absoluta es incognoscible para nuestra actual condición y naturaleza, que sólo puede aspirar a una progresión en el conocimiento de la verdad misma, a través de verdades universales pero parciales, luego llegado el momento de la verdad necesariamente falsas, o dicho de otro modo, en nuestro progreso a la verdad sólo conocemos falsedades aunque de momento aceptadas provisionalmente verdaderas sobre el universo, siendo verdades provisionales para cuya demostración de falsedad se necesitan de cada vez medios más sofisticados . Motivo por el cual el conocimiento de la verdad nos lleva a un profundo nihilismo lógico, por cuanto, a medida que progresamos a la verdad pura descubrimos que todo nuestro conocimiento anterior es falso. En realidad nunca conocemos nada, salvo muestras de todo, o nuestra propia ignorancia.
La diferencia entre el pensamiento clásico sobre la no posibilidad de conocimiento de la verdad absoluta frente al pensamiento moderno positivo de Probabilidad Imposible, es que mientras para el pensamiento clásico la afirmación del conocimiento absoluto llevaba a una aproximación dialéctica al conocimiento de la verdad, cuya propedéutica son las matemáticas, para el racionalismo moderno la dialéctica sobre categorías en sí mismas incognoscibles, noúmenos, sólo nos puede llevar a error, dado que en la práctica nos las conocemos, luego el único medio positivo de aproximarnos a los fenómenos es estableciendo márgenes de fiabilidad positivos en la formación de nuestras ideas sobre el universo, de modo que a mayor fiabilidad, inversamente reducimos los márgenes de error, nos aproximamos a la verdad, si bien nunca es una verdad realmente pura, si acaso verdades parciales, es decir, proposiciones universales provisionales.
Por esta razón, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, la crítica racional de las ideas es un contraste de hipótesis, siendo la hipótesis una proposición formalmente establecida sobre una oración con visos de verdad, y siendo todo contraste el que hay entre la idea encerrada en la proposición y la realidad extraída de lo que sucede, contraste que se somete al juicio moral la razón crítica.
En este sentido, la premisa de la existencia de una verdad pura con carácter absoluto, es decir, universal, pero incognoscible para la actual naturaleza de la condición humana, vincula a la teoría de Probabilidad Imposible a aquellas filosofías idealistas y racionalistas que afirman la existencia de este tipo de verdad, pero limitada para el ser humano, lo que obliga a un permanente cuestionamiento y puesta en duda de nuestro conocimiento, por cuanto nunca llegamos a un conocimiento exacto de la verdad misma. Filosofías cuyo origen se remonta a la antigüedad clásica y tienen en el platonismo un primer referente, en el cual se establece un fuerte vínculo entre conocimiento y moral, por cuanto ya en Platón hay una clara relación no ambigüa entre lo bueno y lo verdadera, bondad y verdad, por cuanto el conocimiento de la verdad implica una predisposición ética: la verdad moral. La atribución moral al conocimiento se explica por cuanto no hay nada más moral que la afirmación de la verdad misma, en tanto lo verdaderamente inmoral es la mentira.
En la identidad dialéctica entre bondad y verdad, y la oposición dialéctica entre falsedad y mentira, se establece una serie de deducciones y relaciones dialécticas sobre las cuales el verdadero objetivo del conocimiento es el conocimiento de la verdad misma, la verdad pura, y en esa predisposición del conocimiento de la verdad por sí misma donde nace el verdadero código deontológico del investigador científico y el filósofo, el verdadero conocimiento de la verdad sin más, la verdad desnuda sin embellecedores ni encubrimientos.
Pero en el momento que se cifra la identidad entre verdad y bondad, donde lo moral es la afirmación de la verdad, simultáneamente se afirma que nunca llegamos al conocimiento de la verdad absoluta, por cuanto sólo alcanzamos el conocimiento de verdades provisionales, luego parciales, entonces el ser humano nunca puede llegar al verdadero conocimiento moral de la realidad, luego desconocemos el verdadero comportamiento moral del cosmos, el universo, sólo llegamos a un conocimiento parcial, posible falso, de lo verdaderamente moral.
Luego la verdad moral se vuelve política. En el momento que el ser humano desconoce por absoluto la verdadera verdad moral, la moral se vuelve en terreno abonado para la subjetividad y los intereses particulares, de donde emergen ideologías personales y personalistas, y en el momento que la definición ideológica de moral se comparte en el foro público se convierte automáticamente en política. Y en función de la política consensuada en materia científica en el foro el establecimiento de la política científica de la comunidad.
Ese foro público pueden ser desde los departamentos universitarios donde profesores y alumnos acuerdan proyectos de investigación. Foros empresariales donde se negocian nuevos proyectos de investigación más desarrollo. Los foros nacionales donde se decide la agenda científica nacional, ya sea en asambleas o parlamentos nacionales. A los foros de  la globalización en donde se determinan los proyectos de investigación de las grandes agencias supranacionales, Organización para la Cooperación y el Desarrollo Económico, Banco Mundial,  Fondo Monetario Internacionales…
Y en función de la política científica la determinación de la ideología política de los planes y proyectos de investigación, de los que depende los modelos de investigación y contraste de hipótesis, de las que se elaborarán proposiciones de las que emergerá una definición política de la verdad.
La verdad, aspecto central de la filosofía y la investigación científica, si bien existe, termina siendo escenario de un debate, donde interactúan desde escuelas filosóficas, a un debate social, donde la verdad se vuelve en una variable socio-histórica, nunca es constante, siendo una variable de naturaleza ideológica y política, donde en función del grado de aproximación de la verdad política a la verdad moral dependerá el grado de isomorfismo entre nuestras proposiciones y la realidad misma. Un debate donde la verdadera moral del investigador o filósofo realmente comprometido con la verdad moral, será la permanente búsqueda a la mayor aproximación a la verdad pura.
 
 
 
 
 
 
 
 

 

 

 

 

sábado, 19 de diciembre de 2015

La lógica de la tendencia estadística


La lógica en tanto que disciplina analítica, en la investigación pura, estudia las relaciones formales entre las cosas, y la lógica en tanto que método aplicado para las demás ciencias, es a su vez un método de estudio, en cualquiera de sus modalidades: lógica inductiva, lógica deductiva,  lógica dialéctica, o más en concreto en matemáticas la lógica de conjuntos, que a su vez tiene importantes aplicaciones para otros campos de  las matemáticas como la estadística y la probabilidad.

Al igual que la lógica puede tener la doble acepción de disciplina para sí misma, y método de estudio aplicado a las demás ciencias, lo mismo sucede a las matemáticas, que para sí misma es una ciencia analítica, el propio estudio de las relaciones formales en el lenguaje matemático, al igual que dentro de las ciencias analíticas la lingüística estudia las relaciones formales de una lengua dada, mientras fuera de sí las matemáticas puede ser interpretada como método de estudio, entre los cuales destaca el método estadístico o de la probabilidad.

A menudo aparece nombrado en libros de ciencia la designación de método lógico-matemático, no sólo de una ciencia en particular, sino como paradigma en el estudio de la ciencia en general, tal como para el positivismo lógico de principios del siglo XX.

La tendencia estadística designa el tipo de comportamiento de un fenómeno. En Probabilidad Imposible los tipos de tendencia serán los siguientes, en modelos normales, aquellos donde la dispersión varía entre cero o máxima, tendencia a la igualdad de oportunidades o tendencia a la dispersión, y dentro de la tendencia a la dispersión, lo que serían estudios de sesgo, identificando tendencia de sesgo positivo o negativo. Mientras en los modelos omega, aquellos que en Probabilidad Imposible se caracterizan porque de N sujetos u opciones hay un subconjunto de sujetos u opciones ideales, entre dos y N menos uno sujetos u opciones, lo ideal sería que el comportamiento tendiera a la dispersión ideal.

El método de estudio analítico de las relaciones formales de la tendencia estadística será la aplicación de la lógica a la tendencia, y en Introducción a la Probabildad Imposible aparece denominado como el método analítico del silogismo de la tendencia.

De este modo el silogismo de la tendencia, es decir, la lógica de la tendencia será el método analítico para el estudio de las relaciones formales en la estadística de la probabilidad o probabilidad estadística, del mismo modo que la estadística de la probabilidad o probabilidad estadística será a su vez un método particular de estudio en las ciencias sintéticas.

El uso de la lógica como método analítico de relaciones formales entre elementos o ideas, en matemáticas y geometría, se remonta a la antigüedad clásica, y si bien se puede decir que uno de los primeros antecedentes es Pitágoras, el matemático que sistematiza el uso de la lógica como método de estudio analítico de las relaciones formales en una de sus disciplinas es Euclides, que de modo brillante aplica la lógica al estudio de los elementos geométrico, empezando por la definición de sus elementos más básicos, punto, línea, espacio, y llegando a la elaboración de una teoría lineal, pero compleja.

El método que usa Euclides para el establecimiento de los elementos en geometría es la lógica, a partir de definiciones fundamentales establece relaciones lógicas elaborando una teoría. El método euclideano no es otra cosa que la aplicación de la lógica deductiva en el campo de las ideas matemáticas, uno de los principales paradigmas de la antigüedad clásica. Método preconizado desde la filosofía por uno de sus principales autores, Platón, que de forma brillante desarrolla el método analítico de la lógica en el campo de las ideas filosóficas, que en puridad, el idealismo platónico, es la utilización del método socrático, la definición de ideas fundamentales a partir de cuyas relaciones lógicas  establece una teoría filosófica , en ausencia de contradicciones e incoherencias, pero compleja, desarrollando un modelo filosófico en donde de forma lineal los conceptos e ideas filosóficos se relacionan formalmente entre sí, en una estructura jerárquica, en donde la cúspide viene dada por la idea de bien. Una estructura sobre cuyas relaciones lógicas establece una teoría del alma, el Estado, la virtud, y la sabiduría.

Si bien se carecen de muchos datos sobre las influencias platónicas en Euclides, se sabe que Eudoxo de Cnido, discípulo de Platón, ejerció una importante influencia sobre el geométrica alejandrino.

Se puede decir que la tradición platónica-euclidea establece un primer paradigma que se basa sobre, a partir de la aplicación de la lógica deductiva para el establecimiento de relaciones formales a partir de unas definiciones fundamentales, la elaboración de un complejo esquema científico-filosófico aunque sobre concepciones lineales.

Ya en la modernidad la tradición platónica-euclidea, de construcción de teorías científico-filosóficas sobre la lógica deductiva, será desarrollada por la nueva ciencia a partir del Renacimiento, continuada por el racionalismo y el racionalismo crítico del Barroco y la Ilustración, bases para el postivismo y el estructuralismo durante el romanticismo y realismo del siglo XIX, y el positivismo lógico y neopositivismo  contemporáneo del siglo XX, y que a pesar de sus críticas y limitaciones se puede decir que, de modo adaptado al nuevo contexto paradigmático del siglo XXI ampliamente influenciado por las actuales teorías del caos, la complejidad, la incertidumbre, y la relatividad. El método analítico sobre la lógica deductiva, que en términos clásico se hubiera denominado simplemente dialéctica, sigue siendo en la actualidad un potente método de investigación científico-filosófica, donde a partir de unas definiciones fundamentales, el establecimiento de relaciones lógicas entre conceptos para la formación de nuevas teorías.

En Probabilidad Imposible el modo en que se adapta la tradición euclideo-platónica, de sobre el método lógico-deductivo la elaboración de una teoría analítica, es el silogismo de la tendencia, que no es otra cosa que la aplicación de la lógica a la tendencia estadística. A partir de una serie de definiciones fundamentales en el primer apartado introductorio de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, a saber, la definición analítica de qué es sujeto u opción, puntuación directa o frecuencia, y sus relaciones entre sí, un primer concepto nuevo y diferente dentro de probabilidad estadística, el concepto de probabilidad empírica, igual a puntuación directa o frecuencia de sujeto u opción entre sumatorio de puntuaciones directas o frecuencias.

Diferenciando el tipo de uso de la información que aporte la probabilidad empírica dependiendo del tipo de universo de la investigación. En universo de sujetos, también llamado universo de sujetos u opciones infinitos, el cálculo de la probabilidad empírica es igual a la puntuación directa entre sumatorio de puntuaciones directas, siendo la puntuación directa la estimación de intensidad de la cualidad estudiada del sujeto sobre una escala de medida.  A diferencia de los estudios en universos de opciones, también llamados de universos de opciones limitadas, por cuanto la probabilidad empírica será igual a la frecuencia de sujeto u opción entre sumatorio de frecuencia, siendo la frecuencia de opción en todo caso la ocurrencia en que se ha manifestado dicha opción, y la frecuencia total igual al sumatorio de todas las frecuencias de todas las opciones.

El concepto de probabilidad empírica dialécticamente establece una relación formal de igualdad  entre sujeto u opción de un lado, y de otro lado una relación formal de igualdad entre puntuación directa y frecuencia, de modo que ya sea sujeto u opción, puntuación directa o frecuencia, a los sujetos los trata como opciones, y las opciones como sujetos, y las puntuaciones directas las trata como frecuencia y la frecuencia como puntuación directa, de modo que finalmente en síntesis la probabilidad empírica es igual a puntuación directa o frecuencia de sujetos u opción entre sumatorio de todas las puntuaciones directas o frecuencias.

A partir de esta definición la definición de probabilidad teórica se deriva del concepto de probabilidad empírica, si empíricamente la probabilidad de un sujeto u opción es igual a su puntuación directa o frecuencia entre el sumatorio, en teoría en igualdad de condiciones para la ocurrencia o la estimación de magnitud de la cualidad, el resultado debería ser idéntico para todos los sujetos u opciones, luego la probabilidad teórica debería ser igual a la probabilidad que todo sujeto u opción debería tener en igualdad de oportunidades, lo que coincidentemente es igual al promedio del sumatorio de las probabilidades empíricas. El cociente entre N del sumatorio de todas las probabilidades empíricas será igual a la división de la unidad entre N, la inversión de N, 1/N, lo que es lo mismo a la probabilidad que en teoría deberían tener todos los sujetos u opciones en ausencia de sesgo, en igualdad de oportunidades. De modo que la probabilidad teórica es igual a media aritmética de las probabilidades empíricas.

El único caso en donde media aritmética y probabilidad teórica no son idéntica sería en la muestra de ceros, si se diera el caso que el valor empírico para toda N fuera igual a cero, lo que sería que todas las probabilidades empíricas fueran igual a cero, entonces aunque la probabilidad teórica seguiría siendo igual a inversión de N, 1/N, la media aritmética sería en realidad cero. De modo que en una muestra de ceros se da el caso que, aunque la muestra sea una muestra de ceros, en tanto que la inversión de N, 1/N, es distinta de cero, la Desviación Media y al Desviación Típica seguirán siendo inversión de N, 1/N, dado que es el sesgo negativo promedio de todos los sujetos u opciones con respecto la probabilidad teórica.

En Probabilidad Imposible se llama siempre sesgo a la diferencia entre probabilidad empírica y teórica, y se denomina Nivel de Sesgo normal de sujeto u opción,  de modo que el sesgo en el Segundo Método de Probabilidad Imposible sería lo más parecido al concepto de puntuación diferencial en la estadística tradicional, el primer método. Cuando en una muestra hay una tendencia a incrementar las diferencias entre probabilidades empíricas entonces hay una tendencia sesgada, en cambio si tiende a disminuir las diferencia entre probabilidades empíricas entonces tiende a igualdad de oportunidades.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística se dice que la bondad natural es el propio fenómeno que siempre la suma de todo el sesgo positivo de una muestra es compensando por la suma de todo el sesgo negativo, fenómeno que únicamente no ocurre en la muestra de ceros, en donde no hay sesgo positivo que compense la suma de todo el sesgo negativo.

Salvo en la muestra de ceros, única excepción, la suma de todo el sesgo negativo de una muestra es siempre idéntico a la suma de todo el sesgo positivo, motivo por el cual el sumatorio del valor absoluto de todos los Niveles de Sesgo se denomina Sesgo Total, y el Sesgo Total entre dos es igual al Máximo Sesgo Empírico Teórico Posible, dado que si por bondad natural, salvo en muestras de ceros, el sumatorio de sesgo positivo es igual al de sesgo negativo, y viceversa, luego el sumatorio del valor absoluto de todo el sesgo positivo y negativo es igual al Sesgo Total, entonces, en caso que sólo hubiera un solo sujeto u opción que tuviera sesgo positivo, su Nivel de Sesgo normal positivo debería compensar a todo el sesgo negativo de los demás sujetos u opciones que tuvieran sesgo negativo. Y viceversa, si se diera el caso que toda N sólo hubiera un sujeto u opción que tuviera sesgo negativo, entonces su Nivel de Sesgo normal negativo debería por sí solo compensar a la suma de todos los sesgos positivos de los demás sujetos u opciones. Luego independientemente de que sólo hubiera un único sujeto u opción con sesgo positivo, o un único sujeto u opción con sesgo negativo, su Nivel de Sesgo sería igual al Sesgo Total entre dos, de modo que el Sesgo Total entre dos es igual al Máximo Sesgo Empírico Posible.

El Máximo Sesgo Empírico Posible se diferencia del Máximo Sesgo Teórico Posible, en que mientras el Máximo Sesgo Empírico Posible es el máximo sesgo que pudiera tener un sujeto u opción dada una distribución empírica del sesgo, en cambio el Máximo Sesgo Teórico Posible es el máximo sesgo que cualquiera sujeto u opción en teoría pudiera alcanzar dadas unas condiciones de máxima dispersión.

Si la probabilidad empírica como toda la probabilidad es un valor que puede oscilar entre cero y uno, entonces lógicamente la Mínima Probabilidad Empírica Posible es la probabilidad cero, mientras la Máxima Probabilidad Empírica Posible es la probabilidad uno. Si la Máxima Probabilidad Empírica Posible es uno entonces teóricamente su Nivel de Sesgo sería igual a uno menos inversión de N, 1/N, que sería entonces el Máximo Sesgo Teórico Posible que puede alcanzar cualquier probabilidad empírica, dado que si el máximo valor de una probabilidad empírica es uno luego uno la Máxima Probabilidad Empírica Posible, entonces ninguna probabilidad empírica puede tener en teoría un Nivel de Sesgo igual a uno menos inversión de N, 1/N, siendo así el Máximo Sesgo Teórico Posible.

De igual modo, si lógicamente el mínimo valor de una probabilidad es cero, luego su Nivel de Sesgo sería cero menos inversión de N, dicho sesgo sería el Máximo Sesgo Negativo Posibe.

De modo que si en una muestra se dan las condiciones de máxima dispersión posible, que de toda N de todos los sujetos u opciones sólo uno tuviera una puntuación directa o frecuencia distinta de cero, luego sólo un sujeto u opción tuviera probabilidad empírica distinta de cero, de modo que su probabilidad empírica fuera igual a su puntuación directa o frecuencia entre el sumatorio, que siendo todas las demás cero entonces el sumatorio sería su misma puntuación directa o frecuencia, luego la probabilidad empírica sería igual a uno, es decir, Máxima Probabilidad Empírica Posible, entonces ese sujeto cumpliría las condiciones para que se diese el Máximo Sesgo Teórico Posible y Máximo Sesgo Empírico Posible de forma simultánea.

Y siendo que el Sesgo Total es igual a la suma de todos los sesgos, de modo que la suma del sesgo positivo compensa a la suma de todo el negativo, y viceversa, el Máximo Sesgo Teórico Posible sería igual al producto de Máximo Sesgo Negativo Posible por N menos uno, luego la Desviación Media sería igual al promedio del duplo del Máximo Sesgo Teórico Posible, siendo dicha Desviación Media entonces la Máxima Desviación Media Teórica Posible, de la cual se deduce la Máxima Varianza Teórica Posible, y la Máxima Desviación Típica Teórica Posibles.

Esto es sólo una pequea muestra de cómo en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, por la simple aplicación de la lógica a la tendencia, en Probabilidad Imposible denominado silogismo de la tendencia, del propio encadenamiento de premisas lógicas se elaboran nuevos conceptos estadísticos, formulándose una teoría compleja que desarrolla nuevos modelos de estadística descriptiva e inferencial.

A partir nuevos estadísticos individuales y muestrales de tendencia central y dispersión, por la simple aplicación de la lógica deductiva, se elaboran nuevos modelos de contraste de hipótesis, individuales y muestrales, ya sea sobre la crítica racional de diferencias o proporciones entre estadísticos empíricos y teóricos, para estudios intramuestrales o intermedicionales, tal como propone Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

 
Rubén García Pedraza, Madrid a 19 de diciembre del 2015

sábado, 5 de diciembre de 2015

Probabilidad empírica máxima


Una vez calculadas todas las probabilidades empíricas de todos los sujetos u opciones de la muestra, se llamará probabilidad empírica máxima a la mayor de todas. En una muestra N de sujetos u opciones, habiendo calculado a priori por cada sujeto u opción su probabilidad empírica, la probabilidad empírica que alcance el mayor valor de toda la muestra se denominará probabilidad empírica máxima, o máxima probabilidad empírica, o sencillamente se llamará máxima, representando la máxima empírica de toda la muestra, y simbolizándose en Probabilidad Imposible  bajo el símbolo “p(xi+)”. 

p(xi+) = máxima probabilidad empírica posible 

En introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, siempre que se mencione la probabilidad empírica máxima, o máxima probabilidad empírica, o simplemente la máxima, se hará mención a la mayor probabilidad empírica de toda la muestra de probabilidades empíricas. De forma que en modo alguno debe confundirse con la Máxima Probabilidad Teórica Posible, la probabilidad uno.

Teóricamente la probabilidad es una dimensión que oscila entre cero y uno, siendo la probabilidad uno es la Máxima Probabilidad Teórica Posible, y la probabilidad cero la Mínima Probabilidad Teorica Posible. En los estudios normales de sesgo positivo en donde el propósito sea el logro  de las condiciones de mayor dispersión posible, el objetivo de la investigación sería que el sujeto u opción ideal alcance probabilidad uno, la Máxima Probabilidad Teórica Posible, y el resto la Mínima Probabilidad Teórica Posible, probabilidad cero. De modo que entonces, bajo condiciones de máxima dispersión la Desviación Media tendería a Máxima Desviación Media Teórica Posible, y la Desviación Típica tendería a Máxima Desviación Típica Teórica Posible.

Salvo que que un sujeto u opción tenga una probabilidad empírica igual a uno, que entonces su probabilidad empírica sería igual a Máxima Probabilidad Teórica Posible, lo más habitual en los estudios normales de sesgo positivo es que los valores de las probabilidades oscilen entre cero y uno, por lo que no necesariamente la mayor probabilidad empírica de la muestra tiene porque ser igual a uno, luego aun siendo la máxima probabilidad empírica de la muestra se encontrará por debajo de uno, la Máxima Probabilidad Teórica Posible.

Aunque la probabilidad empírica máxima, la máxima empírica, se encuentre por debajo de probabilidad uno, en todo caso, siempre que sea realmente la máxima de toda la muestra deberá ser una probabilidad empírica superior a la probabilidad teórica, inversión de N, la media aritmética de las probabilidades empíricas, dado que tal caso reflejaría un comportamiento propio de los modelos normales de igualdad de oportunidades.

De esta manera la probabilidad empírica máxima es aquella probabilidad empírica de la muestra que alcanza el mayor valor empírico de la muestra, luego es en esencia la máxima empírica, diferenciándose de la máxima teórica definida por la probabilidad uno, Máxima Probabilidad Teórica Posible, en que mientras la máxima teórica, probabilidad uno, es el máximo valor al que teóricamente puede alcanzar una probabilidad empírica, sin embargo la máxima empírica representada por la probabilidad empírica máxima, la mayor probabilidad empírica de toda N, es una máxima empírica que oscila entre valores superiores a inversión de N y la máxima teórica.

La máxima empírica, para ser realmente una máxima, no puede ser igual a inversión de N, 1/N, su límite inferior de oscilación, y como mucho puede ser igual a probabilidad uno, la Máxima Probabilidad Teórica Posible, el límite superior de cualquier probabilidad empírica.

 Valores de oscilación de la máxima empírica=
1/N < p(xi+) ≤ 1 

La máxima empírica sólo puede oscilar entre valores superiores a inversión de N, 1/N, o iguales o inferiores a probabilidad uno. Luego en los modelos normales de igualdad de oportunidades, cuando para toda N la probabilidad empírica es igual a inversión de N, 1/N, no habría máxima empírica, dado que todas las probabilidades serían iguales a la  probabilidad teórica, luego Desviación Media y Desviación Típica igual a cero.

Es en los modelos normales de sesgo  donde sí habría una probabilidad empírica que actúe de máximo valor empírico, identificable como probabilidad empírica máxima, o máxima probabilidad empírica, que sería la máxima empírica, un valor superior a la probabilidad teórica, luego con un Nivel de Sesgo normal positivo distinto de cero proporcionalmente se eleve por encima de la inversión de N, y conforme la máxima empírica tienda a la máxima teórica, la probabilidad uno, de forma que sólo si la máxima empírica es igual a la máxima teórica el Nivel de Sesgo normal de la máxima empírica sería igual al Máximo Sesgo Teórico Posible, igual a uno menos inversión de N.


Máximo Sesgo Teórico Posible =
1 – 1/N 

Cuanto más próxima sea la máxima empírica a la máxima teórica, mayor similitud entre el Nivel de Sesgo normal positivo de la máxima empírica y el Máximo Sesgo Teórico Posible. Y a la inversa, cuanto más próxima sea la máxima empírica a la inversión de N, 1/N, entonces desciende su Nivel Sesgo normal positivo.

Luego, de igual forma que se puede decir que la máxima empírica, “p(xi+)”, oscila entre valores superiores a inversión de N, 1/N, o iguales o inferiores a uno, proporcionalmente su Nivel de Sesgo oscila entre cero y el Máximo Sesgo Teórico Posible. Dado que para que realmente se pueda hablar de máxima probabilidad empírica su comportamiento tiene que diferir de inversión de N, y debe ser mayor que las demás probabilidades empíricas, la máxima nunca podrá tener Nivel de Sesgo igual a  cero, y en todo caso el límite superior de oscilación del Nivel de Sesgo de la máxima empírica  no puede superar el Máximo Sesgo Teórico Posible. De lo que se deduce que el Nivel de Sesgo normal de la máxima empírica en cualquier tipo de universo, sólo puede ser una variable entre valores superiores a cero y uno menos inversión de N, 1/N.

 Valores de oscilación del Nivel de Sesgo de la máxima=  
0 < ( p(xi+) – 1/N)   (1 – 1/N) 

La estructura del Nivel de Sesgo de la máxima empírica, al igual que en el resto de variables y conceptos que forman Probabilidad Imposible, se encontrará íntimamente ligado a la magnitud de la muestra N de sujetos u opciones, cuya magnitud oscila entre dos e infinito, es decir, para hablar de estudios estocásticos propiamente dichos la muestra de sujetos u opciones no puede ser inferior a dos, luego N igual a dos sería el límite inferior en que puede oscilar N, caso específico que sólo puede darse en aquellos universos de opciones limitados que el universo se limite a exclusivamente sólo dos opciones, y como máximo la magnitud N puede tender a infinito, especialmente en universos de sujetos u opciones infinitos.

Dependiendo de la estructura de N, si es una muestra perteneciente a un universo de opciones limitadas, o es una selección muestral de un universo de sujetos u opciones infinitos, la magnitud N puede oscilar entre una serie de opciones limitadas, como mínimo dos, o depender de un universo que tienda a infinito.

En los universos de opciones limitadas en donde se estudie el comportamiento de la máxima empírica en tendencia a equipararse a la máxima teórica, la probabilidad uno, dentro de modelos normales de sesgo positivo que aspiran a las condiciones de máxima dispersión posible, el máximo sesgo empírico que puede alcanzar la máxima empírica sería el Máximo Sesgo Teórico Posible igual a uno menos inversión de N, 1/N, quedando definida N por las opciones limitadas que contemple el estudio.

Dentro de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se suele decir que el paradigma de universo limitado es el universo limitado a dos opciones, por cuanto es el más mínimo universo posible, de modo que en universos limitados a dos opciones el Máximo Sesgo Teórico Posible al que puede tender el Nivel de Sesgo normal de la máxima empírica es igual a “0,5”, que es el mayor valor que puede alcanzar el Máximo Sesgo Teórico Posible en Probabilidad Imposible.

Mientras que en los universos de sujetos u opciones infinitos, en tanto que N tienda a infinito, entonces la inversión de N, 1/N, tiende a cero, luego bajo condiciones de tendencia a infinito de N entonces el Máximo Sesgo Teórico Posible tendería a la unidad, dado que uno menos la tendencia a cero de inversión de N, 1/N, sería igual a un diferencial que bajo condiciones de tendencia a infinito el diferencia tendería a uno.

Siendo N una variable que oscila entre dos e infinito, dado que para hablar de universo estadístico el mínimo universo posible sería bajo condiciones de N igual a dos,  y el límite superior sería infinito, luego el Máximo Sesgo Teórico Posible es una variable que oscila entre “0,5” y uno, “0,5” en universos de dos opciones, y uno en universos infinitos, entonces quedando definido el límite inferior de los valores de oscilación del Nivel de Sesgo de la máxima empírica por cualquier valor superior a cero, el límite superior de oscilación del Nivel de Sesgo de la máxima empírica, dependiendo de la magnitud N, oscilaría entre “0,5”en universos limitados a dos opciones, y la tendencia a uno en universos infinitos.

De modo que en universos limitados a dos opciones, los valores del Nivel de Sesgo de la máxima sólo puede oscilar entre valores superiores a cero en su límite inferior, y como máximo “0,5”  en su límite superior, límite superior que puede tender a uno conforme N tienda a incrementarse, límite superior que tenderá a uno conforme N tienda a infinito.

De modo que si la probabilidad empírica es una variable que puede oscilar entre cero y uno, cero sería la Mínima Probabilidad Empírica Posible o límite inferior de oscilación de la probabilidad empírica, y uno sería la Máxima Probabilidad Empírica Posible o límite superior de oscilación de la probabilidad empírica, entonces conforme N tiende a infinito el Nivel de Sesgo de la máxima empírica igualmente es una variable que puede oscilar entre valores superiores a cero y la tendencia a uno, en donde para que realmente se pueda hablar de máxima empírica su Nivel de Sesgo no puede ser igual a cero dado que entonces sería un modelo de igualdad de oportunidades donde no tendría sentido hablar de sujetos u opciones superiores, y el límite superior del Nivel de Sesgo de la máxima empírica conforme N tienda a infinito es la tendencia a uno de su Nivel de Sesgo.

La importancia del estudio de la máxima empírica, es que mientras la Máxima Probabilidad Teórica Posible es sólo una máxima teórica que no tiene porque tener correlatos en la realidad, la máxima empírica si es una variable real que se puede obtener del estudio de los hechos empíricos, imprescindible para la creación de un modelo lo más isomorfo posible de lo que se estudia.

A partir del estudio de la máxima empírica además se pueden elaborar estadísticas relativas a este estadístico, tal como se explican en el apartado 14 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

 

Rubén García Pedraza, Madrid a 5 de diciembre del 2015