Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 7 de mayo de 2016

Verdad absoluta


Tradicionalmente bajo el calificativo de verdad absoluta se denominaba aquella verdad autosuficiente y sin excepción , global y holista en la que cupiera la explicación o comprensión, según paradigma de partida, de cualquier fenómeno, de naturaleza objetiva, subjetiva, o síntesis de ambas.


El concepto de verdad absoluta ha evolucionado a lo largo de la historia, manteniendo unos rasgos comunes, habiendo tres grandes periodos: antigüedad, primeras fases de la modernidad hasta la ilustración, yúltimas fases de la modernidad a partir de la ilustración a la que algunos autores denominan alta modernidad o modernidad tardía,  modernidad líquida, mientras otros autores desde finales de la segunda postguerra mundial la denominan postmodernidad.


En la anitigüedad clásica el paradigma de verdad absoluta es asentado por Platón, y uno de sus principales concreciones en la ciencia es la geometría de Euclides. La verdad absoluta es aquella verdad universal sin excepción y en donde coinciden lo verdadero, lo bueno, y lo bello. Prueba de ello la geometría lineal euclideana, en la primera modernidad será propuesta como modelo de geometría racional. Desde este planteamiento la verdad absoluta es cognoscible a través de la dialéctica, siendo la geometría, por extensión las matemáticas, la propedéutica para su conocimiento.


En las primeras fases de la modernidad, hasta la ilustración, la verdad absoluta es un concepto ligado a la idea de Dios, en donde la mayor verdad absoluta  es que “Dios existe” y por su sola existencia todo es explicable o comprensible, desde la génesis del universo al origen de la vida, y todos los fenómenos que nos ocurren y de los que aun no hemos obtenido explicación lógica. Bajo esta premisa cualquier posibilidad de conocimiento de la verdad absoluta sería religioso y metafísico.


La verdad absoluta de hecho no es sólo de naturaleza explicativa o comprensiva, es además de naturaleza ética y estética, aunque desde una noción no carente de estoicismo, en donde el dominio de las pasiones y el apetito se constituye como base de toda la doctrina moral asentada sobre una determinada concepción religiosa de la verdad pura. Lo puro se identifica a lo virginal y a lo santo, en oposición al placer sensorial, el sacrilegio y lo herético.


Una identidad religiosa entre verdad y ética, aunque bajo el influjo estoico en la religiosidad moderna,donde hay una reminiscencia del idealismo de Platón, en cuanto se produce una triple identidad entre: conocimiento, ética, y estética; en donde de la triple identidad entre: verdad, bondad, y belleza. Una triple cualidad que en la primera modernidad es encarnada en la idea de Dios, y a medida que el proyecto ilustrado progresa, la secularización de la idea de Dios en la idea de la razón, en donde la razón asume el rol tradicional de Dios en la filosofía y la ciencia, siendo a partir del proceso de secularización todo explicado y comprendido por la sola fuerza de la razón, que se muestra autosuficiente y sin excepción posible para el conocimiento de todo lo que sucede, su máxima sería el “cogito ergo sun” cartesiano, que se transforma en primera verdad absoluta de la cual emanan las demás, sean verdades metafísicas incluida la idea de Dios, o científicas obtenidas a través del la aplicación del método científico basado en la duda racional.

La verdad absoluta que a principios de la modernidad emana de la idea de Dios a partir de la Ilustración amena de la razón, de modo que la verdad absoluta sólo puede ser racional, lo que lleva a un paradigma de conocimiento donde el verdadero conocimiento es el conocimiento científico, dejando a un segundo plano cualquier otro tipo de conocimiento no científico, incluido el metafísico, si bien, la metafísica permanecerá dentro de la filosofía europea hasta nuestros días, aunque sin la relevancia de épocas anteriores, prueba de ello Heidegger y Adorno.

En el momento que el racionalismo hace acto de aparición hay una evolución en la posibilidad de conocimiento de la verdad absoluta que no depende tanto de la metafísica o la teología, sino de la ciencia que lentamente sustituye a la metafísica y la teología en la explicación del mundo. Simultáneamente en oposición al racionalismo surgirán nuevas corrientes filosóficas, que cuestionan la naturaleza absoluta de la verdad. Uno de sus filósofos Hume, por cuanto lo único que conocemos son fenómenos cuya atribución causal es producto de la costumbre o el consenso social, lo que da lugar al esceptismo empírico.

De todos modos la nueva verdad absoluta, la razón de la Ilustración, es una verdad pura en elementos coincidentes con la verdad tradicional de la primera modernidad, por cuanto si para la primera modernidad la verdad pura implicaba una noción de verdad primigenia asentada sobre unas nociones de virginidad y santidad, que no es otra cosa que la reminiscencia estoica del dominio del apetito y las pasiones, a su vez reinterpretación latina de la ética platónica basada en el dominio del alma irascible, el modo en que este influjo estoico permanece en el discurso racionalista de la verdad pura de la Ilustración, es en el modo en que la ética que emana de la verdad racional implica un modelo antropológico en donde el ser racional es aquel que en el conocimiento de la verdad pura logra el dominio de sus emociones.

La verdad pura del conocimiento racional es aquel modelo de conocimiento no afectado por las emociones, dentro de las cuales se incluye la superación del miedo y la superstición, en tanto el conocimiento de la verdad pura, el conocimiento racional, es un acto de liberación de cualquier tipo de esclavitud intelectual o moral.

En el discurso de la razón pura de la Ilustración se perciben elementos propios de la moral pietista y jansenista, la verdad por la verdad, el bien por el bien, lo justo por lo justo, sin esperar recompensa material o espiritual. El acto moralmente puro es la identidad plena entre el ser y el deber ser sólo por el mero cumplimiento del deber, sin gratificación ninguna, el primer imperativo categórico kantiano. La verdad pura es aquella verdad en donde no media interés, el valor del conocimiento por el conocimiento mismo.

En el proceso de secularización de la idea de Dios en la idea de razón jugarán una serie de desarrollos filosóficos y descubrimientos científicos. A nivel filosófico la irrupción de una corriente de pensamiento empirista, Roger Bacon y Francis Bacon, y el racionalismo cartesiano, y a nivel de hallazgos científicos los descubrimientos de Copérnico, Galileo, Newton, en donde sólo por medio del razonamiento lógico matemático son explicables los fenómenos que nos rodean, dando lugar a un método científico que se constituye sobre la base de que el razonamiento lógico-matemático lo explica todo. Presupuesto paradigmático que ya de entrada implica un paradigma de razón, el modelo paradigmático de razón es la razón lógico matemática, lo que entraña a priori un concepto de razón pura.

La verdad pura es aquella verdad absoluta, sin excepción y capaz de explicar todo, y que sin afectación emocional ni ideológica, sólo por medio de algoritmos lógico matemáticos, es capaz de explicar absolutamente todo lo que ocurre, y obrar en consecuencia, sin que medie ningún interés impuro, es decir, sin que medie ningún otro interés salvo el amor a la verdad y al conocimiento en sí, la recuperación de un sentido trascendente del concepto de filosofía. En este sentido se produce una nueva triple identidad entre verdad absoluta, verdad pura y verdad racional. La razón en sí, la razón lógico matemática, alcanza un valor de pureza absoluta.

Sin embargo el elevado nivel de exigencia que implica el concepto de verdad absoluta bajo este paradigma entrañará una serie de dilemas, el primero y más importante de ellos es si una naturaleza limitada como es la humana está preparada para el conocimiento pleno de la verdad absoluta, aunque disponga de razón. En este sentido habrá dos corrientes, aquellos más cercanos a lo que posteriormente será el positivismo que estén dispuestos a admitir la posibilidad de conocimiento de la verdad absoluta sólo por el mero acto de la razón, y aquellos que se mantengan dentro de la tradición del racionalismo crítico kantiano que si bien aspiren al conocimiento absoluto de todo reconocen las limitaciones humanas para tal cometido, de modo que si acaso a lo sumo podemos alcanzar un conocimiento lo más verdadero posible , pero en modo alguno el pleno conocimiento de la esencia de las cosas, el noumeno.

Es en esta naturaleza limitada de la condición humana que se percibe en Kant donde se observan elementos coincidentes con el la duda y el escepticismo de Descartes y Hume. El conocimiento es producto de la duda y el escepticismo, un conocimiento de esta naturaleza difícilmente puede lograr la categoría de absoluto.

En cualquier caso, independientemente de que la verdad absoluta sea o no cognoscible, la figura de Dios en la filosofía y la ciencia será desplazada por la razón, que ahora ocupará un espacio central en el conocimiento de los fenómenos y las ideas.

Una de las consecuencias del desplazamiento de Dios en el proceso de secularización, es la aparición de nuevos esquemas filosóficos y descubrimientos científicos que pondrán en tela de juicio los valores tradicionales. Desde la filosofía atea de Marxs ( “la religión es el opio del pueblo”) y Nietszche (“Dios ha muerto”), la relatividad de Einstein, la incertidumbre de Heisenberg, el teorema de Gödel, y la crisis de los grandes metarrelatos del siglo XX, que van desde la crisis del positivismo lógico a mediados del siglo XX, a la crisis del materialismo moderno y su consecuencia lógica, el hundimiento del socialismo a finales del siglo XX.

La evolución de la filosofía a partir de Marxs y Nietszche, y la evolución de la ciencia a partir de Einstein, Heisenberg, Gödel, creará espacios de disenso sobre la naturaleza absoluta de la verdad, en tanto se descubren grietas en la concepción tradicional de verdad absoluta, en donde se da cabida al ateísmo, al relativismo, la incertidumbre, la incoherencia o inconsistencia de las matemáticas, y se inicia un periodo de cuestionamiento radical de la idea tradicional de verdad absoluta. En el escenario de crisis de las creencias tradicionales y crisis paradigmática, se produce la crisis de los metarrelatos del siglo XX, la crisis del positivismo y el materialismo moderno.

Uno de los rasgos de la verdad absoluta es que es de naturaleza pura, es decir, una verdad no afectada por variables emocionales o ideológicas. Ya un primer ataque a esta concepción es asentado por el marxismo que reivindica el carácter ideológico de la verdad, en tanto no existe la verdad pura de por sí, lo que existen son esquemas de pensamiento que obedecen a intereses en lucha de clases. Y de otro lado, un segundo golpe importante a la idea tradicional de verdad pura es el nihilismo de Nietszche, por cuanto el discurso del conocimiento se hunde en una noción estética y metafórica, en donde lo irracional, ya anunciado por Schopenhauer, y posteriormente estudiado por Freud, cobra relevancia en oposición al discurso racionalista de la Ilustración.

En oposición a la razón pura, profundamente bañada de carácter un lógico matemático, que impulsa la Ilustración, a partir de Marxs y Nietzsche se postulan nuevos modelos de verdad científica sujetos a variables ideológicas o irracionales, en donde el conocimiento puro paradigma de la Ilustración se transforma en un conocimiento cuyo objeto es de naturaleza política o irascible, y en todo caso, es un conocimiento relativo a un  investigador que es a su vez un sujeto político y un sujeto emocional. En lugar del control de las emociones ahora las emociones se integran dentro del objeto de estudio, ya bien estudiando las emociones y desarrollando la inteligencia emocional, o bien comprendiendo la naturaleza emocional del conocimiento científico, el cual a su vez además de emocional es un conocimiento político y desde unos intereses políticos, marcados por la política científica.

Frente al ideal de verdad pura que en la antigüedad clásica descansa en la filosofía de Platón y la geometría euclidiana, en la modernidad en la filosofía racionalista y la física de Newton, a partir de la modernidad tardía o modernidad líquida, también llamada postmodernidad, la verdad pura se ha disuelto en un modelo de conocimiento postmoderno no exclusivamente científico que integra variables ideológicas e irracionales, Marx y Nietszche, además de elementos de la filosofía pragmática estadounidense, y el paradigma neoliberal de la globalización en donde juega especial relevancia la figura de Popper.

Es en las corrientes que aparecen a posteriori de la crisis del positivismo a mediados siglo XX, coincidiendo con la crisis de los metarrelatos, cuando aparecen nuevas escuelas neopositivistas, Ayer, orientadas al análisis del lenguaje,  o racionalistas entre las que destaca La lógica del descubrimiento científico de Popper en el cual se postula que ante la imposibilidad de encontrar un criterio de verificación empírica de validez universal, otra opción es el falsacionismo, estableciéndose desde entonces los modelos de contraste de hipótesis nula dentro de los paradigmas cuantitativos en investigación.

En el escenario de crisis de los metarrelatos y crisis paradigmática del positivismo y el materialismo moderno en el siglo XX se ha producido una reconstitución de los paradigmas racionalistas, positivistas, y materialistas, dentro de los cuales se ubicaría la teoría de Probabilidad Imposible, en donde de una parte en la teoría de Probabilidad Imposible reconoce la existencia de una verdad pura, aunque de carácter incognoscible, motivo por el cual a lo sumo se da un progreso en tendencia a la verdad pura, si bien nunca sabremos realmente cual es.

Progreso que sólo es posible a través de un modelo de razón que implique un ideal de razón pura, lógico matemática. De modo que a través de la investigación pura, especialmente orientada al desarrollo del pensamiento analítico (lógico matemático), y la investigación aplicada para el desarrollo del pensamiento sintético (análisis de datos), sea posible la mayor aproximación posible a la verdad incognoscible a través de verdades provisionales. Aunque detrás del progreso siempre habrá margen de nihilismo lógico, un margen de duda y escepticismo sobre los límites de la condición humana.
 

viernes, 1 de abril de 2016

Probabilidad empírica máxima o la máxima


La probabilidad empírica máxima de una muestra N será igual a la mayor probabilidad empírica de todas ellas, y se puede denominar sencillamente con el calificativo de la máxima. 

En la teoría de Probabilidad Imposible, dentro del campo de estudio de la estadística de la probabilidad o probabilidad estadística, hay que diferenciar entre Máxima Probabilidad Teórica Posible y la probabilidad empírica máxima de una muestra dada. Siendo ambos estadísticos de tendencia individual, uno será de carácter teórico, y el otro empírico, siendo explicado en el apartado 8 del libro de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

La Máxima Probabilidad Empírica Posible es la probabilidad uno, y un estadístico individual teórico por cuanto la probabilidad empírica de cualquier sujeto u opción individual no puede superar bajo  la probabilidad uno, Máxima Probabilidad Empírica Posible, por cuanto la propia definición de probabilidad implica una dimensión que oscila entre cero y uno.

Mientras la Máxima Probabilidad Empírica Posible define el límite superior teórico de oscilación de cualquier término de probabilidad, que nunca puede superar la unidad,  la probabilidad empírica máxima de una muestra, la máxima, simplemente designa, dada una colección de probabilidades empíricas de una muestra concreta,cual de todas es la más elevada.

La mayor probabilidad empírica de una muestra se denominará la probabilidad empírica máxima o la máxima, y su principal característica es que es aquella de toda N que tiene una menor diferencia en relación a la Máxima Probabilidad Empírica Posible, la unidad. Si a uno se resta la probabilidad empírica máxima de una muestra, el resultado será un diferencial menor a cualquier otro diferencial de cualquiera otra probabilidad empírica de la misma muestra.

Para la designación de la probabilidad empírica máxima en el apartado 8 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística se utiliza el siguiente símbolo: “p(xi+)”

p(xi+)= probabilidad empírica máxima

La probabilidad empírica máxima, la máxima de una muestra, cumple diferentes funciones en Probabilidad Imposible, la principal sobre todo es la identificación de la mayor probabilidad empírica de la muestra.

El sujeto u opción cuya probabilidad empírica sea la probabilidad empírica máxima de la muestra será aquel que tenga la mayor puntuación directa o frecuencia. En el caso de los universos de opciones limitadas donde el cálculo de la probabilidad empírica es igual a la frecuencia relativa, la frecuencia de sujeto u opción entre sumatorio de frecuencias, en estadística tradicional se diría que la máxima es la moda y se cataloga como un estadístico de tendencia central. Sin embargo en Probabilidad Imposible se produce una identidad entre estadísticos de dispersión y de tendencia central, que en este caso particular, en el momento que se identifica  la máxima, si bien desempeña la función de moda, luego marca la tendencia central, es a su vez estadístico de dispersión máxima, por cuanto, simultáneamente es un estadístico de tendencia central es el estadístico que mayor dispersión guarda con relación la norma, la inversión de N, que asume el rol de probabilidad teórica en Probabilidad Imposible además de media aritmmética, de modo que en universos de opciones limitadas la máxima asume tanto el rol de moda como el rol de sujeto u opción que guarda mayor dispersión individual frente la norma estadística.

La identificación de la máxima, o lo que en estudios de opciones sería la moda,  es de relevancia en determinados tipos de estudios, especialmente de sesgo positivo, cuando de una muestra N el objeto es el aumento de la probabilidad empírica de un determinado sujeto u opción, inversamente la probabilidad empírica de los demás sujetos u opciones desciende. La tendencia de la máxima a Máxima Probabilidad Empírica Posible mientras los demás sujetos u opciones tienden simultánea e inversamente proporcional a Mínima Probabilidad Empírica Posible, sería una tendencia a un modelo de dispersión máxima donde el Nivel de Sesgo de la máxima tiende a Máximo Sesgo Teórico Posible, inversamente los demás sujetos u opciones tienden a Máximo Sesgo Negativo Posible.

Para los estudios normales de sesgo positivo en Probabilidad Imposible se han diseñado una serie de modelos de contraste de hipótesis, ya sea para estudios intramedicionales o intermedicionales, donde en estos últimos se incluyen las predicciones, ya sea sobre proyecciones ideales o pronósticos reales.

Si bien en Introducción a la Probabilidad Imposible se explica con detalle cada uno de los diferentes modelos de contraste de hipótesis para la crítica racional de la realidad, a modo de ejemplo en este blog, de carácter divulgador sobre la teoría de Probabilidad Imposible, se han especificado algunos para estudios normales intramuestrales, diferenciando entre la crítica racional individual, donde cabe destacar la Validez de Sesgo Positivo o la Significación de Sesgo Positivo, y a nivel muestral, el Nivel Muestral Crítico de Sesgo.

Además la probabilidad empírica máxima o la máxima desempeña otras funciones adicionales en Probabilidad Imposible, tal como se explica en el apartado 14 del libro de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en donde se susceptible de estadísticas relativas.

En la teoría de Probabilidad Imposible se denomina una estadística relativa a aquella estadística descriptiva o inferencial elaborada no a partir de la comparación de los datos obtenidos frente a la probabilidad teórica, que sería la estadística normal, sino a la comparación de los datos frente cualquier otro estadístico individual y empírico de la muestra. De modo que el sesgo relativo de cualquier otro sujeto u opción de la muestra respecto a la probabilidad empírica máxima, la máxima, será igual a la diferencia de la máxima menos cualquier otra probabilidad empírica de su mismo estudio. El sumatorio de los valores absolutos de todos los diferenciales será igual al Sesgo Total relativo de la máxima, y su cociente entre N menos uno igual al promedio de sesgo muestral en relación a la máxima de la muestra. En caso que los diferenciales se elevaran previamente al cuadrado antes de la suma en tal caso sería la Varianza relativa de la máxima, y si posteriormente se hace raíz cuadrada de promedio entonces sería la Desviación Típica relativa de la  máxima.

A partir de los estadísticos descriptivos relativos a la máxima, y dentro de la probabilidad crítica que establezca la política científica en la crítica de la realidad, las comparaciones individuales y muestrales relativas a la máxima pueden ser sometidos al juicio de la razón crítica, para el discernimiento sobre la suficiencia universal provisional de proposiciones sintéticas, las hipótesis empíricas establecidas en relación, en este caso, la máxima.

Rubén García Pedraza, Madrid 1 de abril del 2016

https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería

 

 

viernes, 18 de marzo de 2016

Máximo Sesgo Teórico Posible


El Máximo Sesgo Teórico Posible es un estadístico de dispersión máxima individual, la máxima dispersión que teóricamente podría alcanzar cualquier sujeto u opción en cualquier estudio de probabilidad estadística o estadística de la probabilidad, el campo de estudio de la teoría de Probabilidad Imposible, y que cumple una función destacada en diferentes métodos de contrastes de hipótesis en Introducción a la Probabilidad Imposible.

Normalmente la estadística tradicional diferencia entre estadísticos de dispersión: media aritmética, varianza, desviación típica; y estadísticos de tendencia central: media, moda, mediana. Sin embargo en la teoría de Probabilidad Imposible se llega a una identidad entre dispersión y tendencia central.

Si en la estadística tradicional la media aritmética es un estadístico de tendencia central, en Probabilidad Imposible la media aritmética de las probabilidades empíricas es igual a inversión de N, 1/N, que en universos de sujetos u opciones infinitos es la probabilidad de dispersión teorica dela muestra, en la medida que la relación teórica entre muestra y dispersión es inversamente proporcional. Normalmente a mayor N menor dispersión, y a menor N mayor dispersión, de modo que la media aritmética de las probabilidades empíricas de la muestra de sujetos u opciones cumpliría tanto la función de tendencia central y probabilidad teórica de dispersión de la muestra.

Mientras en la estadística tradicional a la moda se le designa como un estadístico de tendencia central por cuanto aglutina la mayor frecuencia de una muestra, en cambio en Probabilidad Imposible este estadístico de tendencia central asume también una función de dispersión máxima, dado que aquel sujeto u opción que obtenga la mayor probabilidad empírica de toda la muestra, la Máxima Probabilidad Empírica Teórica Posible, la unidad, sin duda alguna es el sujeto que mayor dispersión individual tendrá en relación  a la inversión de N, siendo así entonces la diferencia de Máxima Probabilidad Empírica Posible menos inversión de N igual al Máximo Sesgo Teórico Posible.

Máximo Sesgo Teórico Posible = 1 – 1/N

Dada una muestra de N sujetos u opciones cualesquiera, ya sean sus estimaciones  obtenidas de una escala de medida en puntuaciones directas o se haya contabilizado la frecuencia de sus ocurrencias, en cualquier y en todos los casos, en el momento que las puntuaciones directas o frecuencias se transforman a un sistema de probabilidades empíricas, automáticamente ninguna probabilidad empírica puede ser superior a uno, la Máxima Probabilidad Empírica Posible, y la media aritmética de todas las probabilidades empíricas puede ser distinto de la inversión de N, de modo que para toda muestra N, independientemente del tipo de universo, sujetos u opciones, y mediciones estimadas, puntuaciones directas o frecuencias, absolutamente para todo universo y caso posible, el Máximo Sesgo Teórico Posible que puede alcanzar un sujeto u opción cualquiera es igual a la diferencia de la unidad menos inversión de N.

El Máximo Sesgo Teórico Posible cumple una serie de funciones en la teoría de Probabilidad Imposible, la primera de ellas es la estimación del máximo sesgo que bajo cualquier condición de estudio, independientemente de tipo de universo, muestra, sujeto u opción, se puede dar en un sujeto u opción cualquiera, que absolutamente nunca bajo ningún concepto puede ser superior a la diferencia de la unidad menos inversión de N, 1/N.

Una segunda función no menos importante es que el duplo del Máximo Sesgo Teórico Posible de la muestra sería igual al Máximo Sesgo Total en cualquiera muestra N bajo condiciones de dispersión máxima.

Debido a la bondad natural en todo sistema o proceso dado un conjunto N cualquiera la inversión de N es un estadístico de tendencia central que si es restado a todos los sujetos u opciones que tienen puntuaciones directas o frecuencias superiores a inversión de N, el resultado de la suma de los diferenciales es idéntico a la suma de los diferenciales de todos los sujetos u opciones que tienen una puntuación directa o frecuencia inferior a inversión N, menos inversión de N. Es decir, en todo universo la cantidad de sesgo positivo es idéntico al sesgo negativo, motivo por el cual, salvo que para el cálculo de la Desviación Media o consideramos la suma en términos absolutos de los diferenciales, o de contrario el resultado es cero. Dicho en otras palabras, si sumamos todo el sesgo positivo y sumamos todo el sesgo negativo, el resultado de la suma en términos absolutos de todo el sesgo positivo y el sesgo negativo es igual al Sesgo Total, de modo que si dividimos el Sesgo Total entre dos, lo que en Probabilidad Imposible se llama Máximo Sesgo Empírico Posible, es igual al cómputo total de sesgo positivo en toda la muestra, o el cómputo total de sesgo negativo en la muestra.

En caso de que en N halla condiciones de máxima dispersión, y de toda N un único sujeto u opción tuviera la Máxima Probabilidad Empírica Posible, la unidad, luego la diferencia de la unidad menos inversión de N fuera el Máximo Sesgo Teórico Posible, entonces bajo condiciones de máxima dispersión el Máximo Sesgo Total de la muestra sería igual al duplo del Máximo Sesgo Teórico Posible, en tanto que la suma de todos los demás sesgos negativos, cuyo valor absoluto de cada sesgo negativo individual sería igual a inversión de N, 1/N, la suma de todos los sesgos negativos sería igual a N menos uno por inversión de N, lo que es lo mismo a uno menos inversión de N.

(N – 1 ) 1/N = 1 – 1/N

De modo que el duplo del Máximo Sesgo Teórico Posible sería igual al Máximo Sesgo Total bajo condiciones de dispersión máxima.

Máximo Sesgo Total = { (1 – 1/N) + [(N – 1 ) 1/N] } =  (1 – 1/N) 2

En el momento que conocemos cual es el Máximo Sesgo Teórico Total Posible ya estamos en disposición de calcular la Máxima Desviación Media Teórica Posible, igual al promedio del Máximo Sesgo Total, o producto del Máximo Sesgo Total por la inversión de N.

Máxima Desviación Media Teórica Posible = { (1 – 1/N) 2 } : N =  { (1 – 1/N) 2 } 1/N

Siendo la Máxima Desviación Media Teórica Posible un estadístico de dispersión máxima típico de Probabilidad Imposible del cual posteriormente se deduce la Máxima Varianza Teórica Posible, con la salvedad de que se promedia entre N la suma del cuadrado del Máximo Sesgo Teórico Posible más el producto de la diferencia de N menos uno multiplicado por el cuadrado de inversión de N

Máxima Varianza Teórica Posible= { (1 – 1/N)² + [1/N² (N – 1 )] } : N

Y la raíz cuadrada de la Máxima Varianza Teórica Posible igual a la Desviación Típica

Desviación Típica = √{{ (1 – 1/N)² + [1/N² (N – 1 )] } : N }

Las funciones hasta ahora descritas del Máximo Sesgo Teórico Posible, para el cálculo del Máximo Sesgo Total, lo que posibilita el estudio de la dispersión máxima muestral, Máxima Desviación Media Teórica Posible, de la que se deduce el cálculo de la Máxima Varianza Teórica Posible, y la Máxima Desviación Típica Teórica Posible, además cabe destacar el Máximo Sesgo Teórico Posible cumple una función muy importante en los diferentes modelos de contraste de hipótesis que se proponen en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, tanto para estudios intramedicionales, y estudios intermedicionales, en los que además se engloban las predicciones, sean en términos de proyección ideal o pronóstico real.

En este blog únicamente se están dando algunas nociones básicas de la suma trascendencia que supone para el estudio de la estadística y la probabilidad esta nueva teoría de Probabilidad Imposible, y que es analizada en mayor detalle en la obra Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

El modelo de contraste de hipótesis que plantea Probabilidad Imposible para la crítica racional de la realidad es a través de un sistema que implica tanto contrastes individuales como muestrales, dependiendo del objeto de estudio.

En el caso particular del Máximo Sesgo Teórico Posible es un tipo de estadístico propio de los estudios de sesgo positivo, donde dada una muestra de N sujetos u opciones en donde toda N hubiera uno que tendiera a la máxima puntuación directa o frecuencia, luego a Máxima Probabilidad Empírica Posible, la unidad, la aceptación de que es una tendencia suficientemente racional se localizaría tanto en la crítica individual del sesgo positivo de ese sujeto u opción ideal, como en la crítica de la dispersión muestral. En ambos razonamientos críticos debería demostrarse niveles de dispersión individual y muestral suficientes para la justificación de que el modelo real o empírico se ajusta al modelo teórico o ideal de sesgo positivo de la política científica, modelo teórico o ideal definido en base a razones críticas cuantificadas en forma de probabilidades críticas.

Es dentro de la crítica individual en los procesos de contraste de hipótesis en Probabilidad Imposible, explicados en mayor detalle en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, donde el Máximo Sesgo Teórico Posible cumple una función crítica en esta teoría.

Algunos ejemplos de modelos críticos de sesgo positivo intramedicional donde el Máximo Sesgo Teórico Posible cumple una función esencial, y han sido abordados en este blog serían, entre otros muchos que se explican con más detalle en el libro Introducción a la Probabilidad Imposible, la Validez de Sesgo Positivo o la Significación de Sesgo Positivo, siendo sólo unos ejemplos de otros muchos modelos que aparecen en Introducción a la Probabilidad Imposible.

sábado, 12 de marzo de 2016

La verdad

Verdadero es un fenómeno o proposición que es cierto, y cuya antítesis es lo falso. Un fenómeno será verdadero siempre y cuando no sea producto de una ilusión perceptiva o una falsificación de datos. Y una proposición será verdadera siempre y cuando los referentes que designa cada uno de los elementos de la oración estén libres de error, tanto de errores en los procesos lógicos de los que son producto, o errores debidos a elementos de la oración originarios de fenómenos falsos, ya sea producto de falsas ilusiones o datos falsificados.
Si  en un desierto sufrimos el espejismo de ver en el horizonte algo parecido a un mar, un lago, un rio, o un oasis, ese fenómeno, por muy real que pueda parecer a nuestros órganos sensoriales no deja de ser falso. Si una nave espacial viaja a otro planeta y captamos imágenes o señales que inducen a la creencia en fenómenos que sin embargo no ocurren,  sería un fenómeno análogo, establecimiento de fenómenos falsos por ilusiones perceptivas, sólo que en este caso de los sensores artificiales de los que esté equipada la nave.
Cuando en una investigación el modo en que se han obtenido los datos está sujeto a cualquier tipo de déficit de fiabilidad, por problemas en la medición o mecanismos de selección de datos, entonces cualquier fenómeno que se puede atribuir a los datos extraídos se encontrarán seriamente comprometidos, poniéndose automáticamente en duda el grado de certeza de la información.
Los errores proposicionales a su vez pueden depender, además de los propios problemas perceptivos o de recogida de datos, o su propia naturaleza dudosa, a problemas ocasionados por errores en el proceso lógico de formación de la proposición.
La lógica, a pesar de lo que pueda parecer, no es unidimensional, dependiendo del tipo de escuela el modelo lógico cambia. A lo largo de la historia de la filosofía se observan al menos tres esquemas de pensamiento lógico, a parte de la lógica matemática en sí misma entre las que se puede encontrar, entre otras, la lógica de conjuntos.
En la lógica deductiva, la formación de hipótesis con carácter de verdad se produce a partir del establecimiento de deducciones lógicas entre premisas, premisa mayor o más abstracta y premisa menor o particular, de las que se elabora la deducción concreta, y de aplicación general para todo elemento concreto que mantenga relaciones de comunión con la conclusión deducida. La lógica deductiva va de lo abstracto, a lo particular, y concreto, lo que a menudo se suele denominar coloquialmente de arriba abajo, o dicho de otro modo, del mundo de las ideas al mundo real.
Mientras la lógica inductiva actúa de modo inverso, de lo particular y concreto a lo general, de modo que a partir de un conjunto formado por un número suficiente de elementos particulares y concretos se puede deducir hipótesis generales. A este modelo se llamaría de abajo arriba, o dicho de otro modo, de lo empírico a la formación de ideas.
De otro lado la lógica dialéctica sería aquella cuya formación de proposiciones se realiza a partir de la búsqueda de diferencias y similitudes entre hechos, fenómenos, o ideas. Mientras la lógica deductiva elabora proposiciones concretas a través de la obtención de conclusiones a partir de los elementos comunes entre premisa mayor y menor, y la lógica inductiva elabora proposiciones generales en función de elementos comunes entre fenómenos particulares y concretos, la lógica dialéctica más que buscar lo común entre premisas (deducción) o fenómenos (inducción), busca similitudes y diferencias formando conceptos homónimos y antinómicos.
En este sentido, el ejemplo clásico de lógica deductiva que en filosofía siempre se suele poner es Platón, y en matemáticas Euclides. En lógica inductiva Aristóteles. Aunque si entre lógica deductiva y inductiva hay oposición, la lógica dialéctica guarda conexiones con los demás modelos lógicos.
De hecho Platón, paradigma de lógica deductiva, en La República defiende el estudio de las matemáticas como propedéutica de la dialéctica. En la universidad escolástica medieval, aristotélica, la disputa ejerció un rol central en la metodología educativa. Y en el ámbito del idealismo alemán Kant pone la dialéctica en el centro de la discusión a través de las antinomias, base para que Hegel establezca la doctrina sobre la tesis, antítesis, y síntesis.
Además de estos modelos lógicos habría otros de lógica matemáticas como la teoría de conjuntos, que a su vez guarda estrecha relaciones con la lógica inductiva, deductiva, o dialéctica, dado que finalmente todos terminan generando lógicas de conjuntos. Ya sea en la deductiva la formación de conjuntos concretos sobre una cualidad abstracta general común a una colección de elementos. En la lógica inductiva la formación de categorías generales a partir de conjuntos de datos. O en lógica dialéctica el establecimiento de conjuntos basados en nociones abstractas generales con relaciones de identidad y contradicción entre ellas. Por ejemplo en dialéctica marxista el concepto de clases sociales, establecimiento de grandes conjuntos sociales sobre cualidades diferenciales opuestas entre sí.
Si en cualquier modelo de lógica, se produce un error en la formación de la proposición, la proposición dejará de ser cierta para ser falsa, o al menos no en todo cierta y en algún grado sería falsa, siempre y cuando un número suficiente de elementos de la oración que componen la proposición sean falsos o erróneos.
Si en lógica deductiva para la formación de la conclusión ha habido un error en el proceso lógico de lo general a lo particular, o si en lógica inductiva hay un error en la identificación del aspecto común entre todos los elementos concretos, o en lógica dialéctica hay un error en la identificación de las relaciones de identidad y oposición entre conceptos, o en teoría de conjuntos un problema en la definición u operación entre conjuntos, entonces la proposición lógica será falsa o falsa en algún grado. Ya sea en  lógica deductiva porque lo concreto no participa de lo general o lo particular, en lógica inductiva el aspecto supuestamente común entre los elementos concretos no lo es, en lógica dialéctica realmente no se dan dichas relaciones de identidad y oposición entre categorías, en teoría de conjuntos por cuanto la definición de sus elementos es incorrecta o las operaciones para la elaboración del conjunto o las operaciones entre subconjuntos o del conjunto con otros conjuntos, no están bien hechas.
De este modo, los motivos por los cuales una proposición no es verdadera pueden ser por cuanto, o bien son producto de ilusiones sensoriales, ya sea la percepción humana o artificial, los datos obtenidos no son adecuados, ya sea por problemas en las escalas o aparatos de medición y recogida de datos o problemas en los mecanismos de selección de datos, o por problemas en el proceso lógico de formación de la proposición. Ya sea por cualquiera de estas razones, en caso que en la formación de una proposición se produjera un error, la proposición dejaría de ser automáticamente verdadera, o al menos cien por cien verdadera.
En la medida que en una proposición se puede dar el caso que no sea absolutamente verdad, a menudo se puede atribuir porcentajes de certeza a una proposición. Aunque, evidentemente, este tipo de operaciones lógicas de atribución de un porcentaje de certeza implica un profundo debate filosófico sobre la naturaleza de la verdad misma ¿Qué es la verdad? En este sentido se pueden clasificar dos grandes corrientes de pensamiento, los que afirman categóricamente la existencia de la verdad  absoluta sea o no cognoscible, y los que rechazan la existencia de verdades absolutas y en todo caso serían parciales o relativas.
A lo largo de la historia de la filosofía se puede dilucidar un profundo debate sobre la existencia o no de lo que se ha venido a llamar la verdad absoluta. Mientras desde posiciones idealistas-racionalistas, de Platón a Hegel, pasando por Descartes y Kant, se ha defendido siempre la existencia de una verdad absoluta, desde otras posiciones empiristas se ha tendido más bien al cuestionamiento de la verdad absoluta, vease Hume, o las actuales corrientes postmodernas.
Dentro de las corrientes que afirman la existencia de la verdad absoluta habría dos subcorrientes, los que afirman que no sólo existe la verdad absoluta sino que además es cognoscible, ya sea para Descartes por medio de la razón, o para Hegel por medio de la dialéctica. Frente aquellas otras corrientes que afirmando la existencia de la verdad absoluta estiman que no es cognoscible, véase por ejemplo Kant, por cuanto aunque dispongamos de la razón, o la posibilidad del conocimiento de las ideas, estamos limitados por nuestra naturaleza física y fenoménica: sólo conocemos fenómenos, sólo conocemos apariencias, si el conocimiento absoluto de algo implica el conocimiento de su noúmeno entonces este tipo de conocimiento no está diponible para la naturaleza humana.
Dentro de las corrientes que rechazan la posibilidad de una vedad absoluta habría dos subcorrientes. Los que rechazan la existencia de la verdad absoluta por cuanto afirman que sólo existen verdades parciales sobre fenómenos concretos, los hechos, propio del empirismo, Hume, Betrand Russell, entre otros. Y de otro lado aquellos que rechazan la existencia de una verdad absoluta por cuanto cuestionan o problematizan el propio concepto de verdad mismo, por ejemplo los postmodernos, frente al universalismo de cualquier tipo de verdad proponen un relativismo radical, cualquier verdad es relativa a un grupo social en un periodo histórico, luego cualquier afirmación de verdad estaría limitada a su marco socio-histórico.
En la teoría de Probabilidad Imposible se afirma en todo momento que sí existe la verdad absoluta, cuya principal cualidad es ser una verdad pura, independiente de cualquier elemento fisiológico o subjetivo, ideológico o político, pero por esa misma razón, por cuanto está fuera del alcance de la comprensión humana ( de naturaleza fisiológica, subjetiva, ideológica, política), la verdad pura en sí misma en su forma absoluta es incognoscible para nuestra actual condición y naturaleza, que sólo puede aspirar a una progresión en el conocimiento de la verdad misma, a través de verdades universales pero parciales, luego llegado el momento de la verdad necesariamente falsas, o dicho de otro modo, en nuestro progreso a la verdad sólo conocemos falsedades aunque de momento aceptadas provisionalmente verdaderas sobre el universo, siendo verdades provisionales para cuya demostración de falsedad se necesitan de cada vez medios más sofisticados . Motivo por el cual el conocimiento de la verdad nos lleva a un profundo nihilismo lógico, por cuanto, a medida que progresamos a la verdad pura descubrimos que todo nuestro conocimiento anterior es falso. En realidad nunca conocemos nada, salvo muestras de todo, o nuestra propia ignorancia.
La diferencia entre el pensamiento clásico sobre la no posibilidad de conocimiento de la verdad absoluta frente al pensamiento moderno positivo de Probabilidad Imposible, es que mientras para el pensamiento clásico la afirmación del conocimiento absoluto llevaba a una aproximación dialéctica al conocimiento de la verdad, cuya propedéutica son las matemáticas, para el racionalismo moderno la dialéctica sobre categorías en sí mismas incognoscibles, noúmenos, sólo nos puede llevar a error, dado que en la práctica nos las conocemos, luego el único medio positivo de aproximarnos a los fenómenos es estableciendo márgenes de fiabilidad positivos en la formación de nuestras ideas sobre el universo, de modo que a mayor fiabilidad, inversamente reducimos los márgenes de error, nos aproximamos a la verdad, si bien nunca es una verdad realmente pura, si acaso verdades parciales, es decir, proposiciones universales provisionales.
Por esta razón, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, la crítica racional de las ideas es un contraste de hipótesis, siendo la hipótesis una proposición formalmente establecida sobre una oración con visos de verdad, y siendo todo contraste el que hay entre la idea encerrada en la proposición y la realidad extraída de lo que sucede, contraste que se somete al juicio moral la razón crítica.
En este sentido, la premisa de la existencia de una verdad pura con carácter absoluto, es decir, universal, pero incognoscible para la actual naturaleza de la condición humana, vincula a la teoría de Probabilidad Imposible a aquellas filosofías idealistas y racionalistas que afirman la existencia de este tipo de verdad, pero limitada para el ser humano, lo que obliga a un permanente cuestionamiento y puesta en duda de nuestro conocimiento, por cuanto nunca llegamos a un conocimiento exacto de la verdad misma. Filosofías cuyo origen se remonta a la antigüedad clásica y tienen en el platonismo un primer referente, en el cual se establece un fuerte vínculo entre conocimiento y moral, por cuanto ya en Platón hay una clara relación no ambigüa entre lo bueno y lo verdadera, bondad y verdad, por cuanto el conocimiento de la verdad implica una predisposición ética: la verdad moral. La atribución moral al conocimiento se explica por cuanto no hay nada más moral que la afirmación de la verdad misma, en tanto lo verdaderamente inmoral es la mentira.
En la identidad dialéctica entre bondad y verdad, y la oposición dialéctica entre falsedad y mentira, se establece una serie de deducciones y relaciones dialécticas sobre las cuales el verdadero objetivo del conocimiento es el conocimiento de la verdad misma, la verdad pura, y en esa predisposición del conocimiento de la verdad por sí misma donde nace el verdadero código deontológico del investigador científico y el filósofo, el verdadero conocimiento de la verdad sin más, la verdad desnuda sin embellecedores ni encubrimientos.
Pero en el momento que se cifra la identidad entre verdad y bondad, donde lo moral es la afirmación de la verdad, simultáneamente se afirma que nunca llegamos al conocimiento de la verdad absoluta, por cuanto sólo alcanzamos el conocimiento de verdades provisionales, luego parciales, entonces el ser humano nunca puede llegar al verdadero conocimiento moral de la realidad, luego desconocemos el verdadero comportamiento moral del cosmos, el universo, sólo llegamos a un conocimiento parcial, posible falso, de lo verdaderamente moral.
Luego la verdad moral se vuelve política. En el momento que el ser humano desconoce por absoluto la verdadera verdad moral, la moral se vuelve en terreno abonado para la subjetividad y los intereses particulares, de donde emergen ideologías personales y personalistas, y en el momento que la definición ideológica de moral se comparte en el foro público se convierte automáticamente en política. Y en función de la política consensuada en materia científica en el foro el establecimiento de la política científica de la comunidad.
Ese foro público pueden ser desde los departamentos universitarios donde profesores y alumnos acuerdan proyectos de investigación. Foros empresariales donde se negocian nuevos proyectos de investigación más desarrollo. Los foros nacionales donde se decide la agenda científica nacional, ya sea en asambleas o parlamentos nacionales. A los foros de  la globalización en donde se determinan los proyectos de investigación de las grandes agencias supranacionales, Organización para la Cooperación y el Desarrollo Económico, Banco Mundial,  Fondo Monetario Internacionales…
Y en función de la política científica la determinación de la ideología política de los planes y proyectos de investigación, de los que depende los modelos de investigación y contraste de hipótesis, de las que se elaborarán proposiciones de las que emergerá una definición política de la verdad.
La verdad, aspecto central de la filosofía y la investigación científica, si bien existe, termina siendo escenario de un debate, donde interactúan desde escuelas filosóficas, a un debate social, donde la verdad se vuelve en una variable socio-histórica, nunca es constante, siendo una variable de naturaleza ideológica y política, donde en función del grado de aproximación de la verdad política a la verdad moral dependerá el grado de isomorfismo entre nuestras proposiciones y la realidad misma. Un debate donde la verdadera moral del investigador o filósofo realmente comprometido con la verdad moral, será la permanente búsqueda a la mayor aproximación a la verdad pura.
 
 
 
 
 
 
 
 

 

 

 

 

sábado, 19 de diciembre de 2015

La lógica de la tendencia estadística


La lógica en tanto que disciplina analítica, en la investigación pura, estudia las relaciones formales entre las cosas, y la lógica en tanto que método aplicado para las demás ciencias, es a su vez un método de estudio, en cualquiera de sus modalidades: lógica inductiva, lógica deductiva,  lógica dialéctica, o más en concreto en matemáticas la lógica de conjuntos, que a su vez tiene importantes aplicaciones para otros campos de  las matemáticas como la estadística y la probabilidad.

Al igual que la lógica puede tener la doble acepción de disciplina para sí misma, y método de estudio aplicado a las demás ciencias, lo mismo sucede a las matemáticas, que para sí misma es una ciencia analítica, el propio estudio de las relaciones formales en el lenguaje matemático, al igual que dentro de las ciencias analíticas la lingüística estudia las relaciones formales de una lengua dada, mientras fuera de sí las matemáticas puede ser interpretada como método de estudio, entre los cuales destaca el método estadístico o de la probabilidad.

A menudo aparece nombrado en libros de ciencia la designación de método lógico-matemático, no sólo de una ciencia en particular, sino como paradigma en el estudio de la ciencia en general, tal como para el positivismo lógico de principios del siglo XX.

La tendencia estadística designa el tipo de comportamiento de un fenómeno. En Probabilidad Imposible los tipos de tendencia serán los siguientes, en modelos normales, aquellos donde la dispersión varía entre cero o máxima, tendencia a la igualdad de oportunidades o tendencia a la dispersión, y dentro de la tendencia a la dispersión, lo que serían estudios de sesgo, identificando tendencia de sesgo positivo o negativo. Mientras en los modelos omega, aquellos que en Probabilidad Imposible se caracterizan porque de N sujetos u opciones hay un subconjunto de sujetos u opciones ideales, entre dos y N menos uno sujetos u opciones, lo ideal sería que el comportamiento tendiera a la dispersión ideal.

El método de estudio analítico de las relaciones formales de la tendencia estadística será la aplicación de la lógica a la tendencia, y en Introducción a la Probabildad Imposible aparece denominado como el método analítico del silogismo de la tendencia.

De este modo el silogismo de la tendencia, es decir, la lógica de la tendencia será el método analítico para el estudio de las relaciones formales en la estadística de la probabilidad o probabilidad estadística, del mismo modo que la estadística de la probabilidad o probabilidad estadística será a su vez un método particular de estudio en las ciencias sintéticas.

El uso de la lógica como método analítico de relaciones formales entre elementos o ideas, en matemáticas y geometría, se remonta a la antigüedad clásica, y si bien se puede decir que uno de los primeros antecedentes es Pitágoras, el matemático que sistematiza el uso de la lógica como método de estudio analítico de las relaciones formales en una de sus disciplinas es Euclides, que de modo brillante aplica la lógica al estudio de los elementos geométrico, empezando por la definición de sus elementos más básicos, punto, línea, espacio, y llegando a la elaboración de una teoría lineal, pero compleja.

El método que usa Euclides para el establecimiento de los elementos en geometría es la lógica, a partir de definiciones fundamentales establece relaciones lógicas elaborando una teoría. El método euclideano no es otra cosa que la aplicación de la lógica deductiva en el campo de las ideas matemáticas, uno de los principales paradigmas de la antigüedad clásica. Método preconizado desde la filosofía por uno de sus principales autores, Platón, que de forma brillante desarrolla el método analítico de la lógica en el campo de las ideas filosóficas, que en puridad, el idealismo platónico, es la utilización del método socrático, la definición de ideas fundamentales a partir de cuyas relaciones lógicas  establece una teoría filosófica , en ausencia de contradicciones e incoherencias, pero compleja, desarrollando un modelo filosófico en donde de forma lineal los conceptos e ideas filosóficos se relacionan formalmente entre sí, en una estructura jerárquica, en donde la cúspide viene dada por la idea de bien. Una estructura sobre cuyas relaciones lógicas establece una teoría del alma, el Estado, la virtud, y la sabiduría.

Si bien se carecen de muchos datos sobre las influencias platónicas en Euclides, se sabe que Eudoxo de Cnido, discípulo de Platón, ejerció una importante influencia sobre el geométrica alejandrino.

Se puede decir que la tradición platónica-euclidea establece un primer paradigma que se basa sobre, a partir de la aplicación de la lógica deductiva para el establecimiento de relaciones formales a partir de unas definiciones fundamentales, la elaboración de un complejo esquema científico-filosófico aunque sobre concepciones lineales.

Ya en la modernidad la tradición platónica-euclidea, de construcción de teorías científico-filosóficas sobre la lógica deductiva, será desarrollada por la nueva ciencia a partir del Renacimiento, continuada por el racionalismo y el racionalismo crítico del Barroco y la Ilustración, bases para el postivismo y el estructuralismo durante el romanticismo y realismo del siglo XIX, y el positivismo lógico y neopositivismo  contemporáneo del siglo XX, y que a pesar de sus críticas y limitaciones se puede decir que, de modo adaptado al nuevo contexto paradigmático del siglo XXI ampliamente influenciado por las actuales teorías del caos, la complejidad, la incertidumbre, y la relatividad. El método analítico sobre la lógica deductiva, que en términos clásico se hubiera denominado simplemente dialéctica, sigue siendo en la actualidad un potente método de investigación científico-filosófica, donde a partir de unas definiciones fundamentales, el establecimiento de relaciones lógicas entre conceptos para la formación de nuevas teorías.

En Probabilidad Imposible el modo en que se adapta la tradición euclideo-platónica, de sobre el método lógico-deductivo la elaboración de una teoría analítica, es el silogismo de la tendencia, que no es otra cosa que la aplicación de la lógica a la tendencia estadística. A partir de una serie de definiciones fundamentales en el primer apartado introductorio de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, a saber, la definición analítica de qué es sujeto u opción, puntuación directa o frecuencia, y sus relaciones entre sí, un primer concepto nuevo y diferente dentro de probabilidad estadística, el concepto de probabilidad empírica, igual a puntuación directa o frecuencia de sujeto u opción entre sumatorio de puntuaciones directas o frecuencias.

Diferenciando el tipo de uso de la información que aporte la probabilidad empírica dependiendo del tipo de universo de la investigación. En universo de sujetos, también llamado universo de sujetos u opciones infinitos, el cálculo de la probabilidad empírica es igual a la puntuación directa entre sumatorio de puntuaciones directas, siendo la puntuación directa la estimación de intensidad de la cualidad estudiada del sujeto sobre una escala de medida.  A diferencia de los estudios en universos de opciones, también llamados de universos de opciones limitadas, por cuanto la probabilidad empírica será igual a la frecuencia de sujeto u opción entre sumatorio de frecuencia, siendo la frecuencia de opción en todo caso la ocurrencia en que se ha manifestado dicha opción, y la frecuencia total igual al sumatorio de todas las frecuencias de todas las opciones.

El concepto de probabilidad empírica dialécticamente establece una relación formal de igualdad  entre sujeto u opción de un lado, y de otro lado una relación formal de igualdad entre puntuación directa y frecuencia, de modo que ya sea sujeto u opción, puntuación directa o frecuencia, a los sujetos los trata como opciones, y las opciones como sujetos, y las puntuaciones directas las trata como frecuencia y la frecuencia como puntuación directa, de modo que finalmente en síntesis la probabilidad empírica es igual a puntuación directa o frecuencia de sujetos u opción entre sumatorio de todas las puntuaciones directas o frecuencias.

A partir de esta definición la definición de probabilidad teórica se deriva del concepto de probabilidad empírica, si empíricamente la probabilidad de un sujeto u opción es igual a su puntuación directa o frecuencia entre el sumatorio, en teoría en igualdad de condiciones para la ocurrencia o la estimación de magnitud de la cualidad, el resultado debería ser idéntico para todos los sujetos u opciones, luego la probabilidad teórica debería ser igual a la probabilidad que todo sujeto u opción debería tener en igualdad de oportunidades, lo que coincidentemente es igual al promedio del sumatorio de las probabilidades empíricas. El cociente entre N del sumatorio de todas las probabilidades empíricas será igual a la división de la unidad entre N, la inversión de N, 1/N, lo que es lo mismo a la probabilidad que en teoría deberían tener todos los sujetos u opciones en ausencia de sesgo, en igualdad de oportunidades. De modo que la probabilidad teórica es igual a media aritmética de las probabilidades empíricas.

El único caso en donde media aritmética y probabilidad teórica no son idéntica sería en la muestra de ceros, si se diera el caso que el valor empírico para toda N fuera igual a cero, lo que sería que todas las probabilidades empíricas fueran igual a cero, entonces aunque la probabilidad teórica seguiría siendo igual a inversión de N, 1/N, la media aritmética sería en realidad cero. De modo que en una muestra de ceros se da el caso que, aunque la muestra sea una muestra de ceros, en tanto que la inversión de N, 1/N, es distinta de cero, la Desviación Media y al Desviación Típica seguirán siendo inversión de N, 1/N, dado que es el sesgo negativo promedio de todos los sujetos u opciones con respecto la probabilidad teórica.

En Probabilidad Imposible se llama siempre sesgo a la diferencia entre probabilidad empírica y teórica, y se denomina Nivel de Sesgo normal de sujeto u opción,  de modo que el sesgo en el Segundo Método de Probabilidad Imposible sería lo más parecido al concepto de puntuación diferencial en la estadística tradicional, el primer método. Cuando en una muestra hay una tendencia a incrementar las diferencias entre probabilidades empíricas entonces hay una tendencia sesgada, en cambio si tiende a disminuir las diferencia entre probabilidades empíricas entonces tiende a igualdad de oportunidades.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística se dice que la bondad natural es el propio fenómeno que siempre la suma de todo el sesgo positivo de una muestra es compensando por la suma de todo el sesgo negativo, fenómeno que únicamente no ocurre en la muestra de ceros, en donde no hay sesgo positivo que compense la suma de todo el sesgo negativo.

Salvo en la muestra de ceros, única excepción, la suma de todo el sesgo negativo de una muestra es siempre idéntico a la suma de todo el sesgo positivo, motivo por el cual el sumatorio del valor absoluto de todos los Niveles de Sesgo se denomina Sesgo Total, y el Sesgo Total entre dos es igual al Máximo Sesgo Empírico Teórico Posible, dado que si por bondad natural, salvo en muestras de ceros, el sumatorio de sesgo positivo es igual al de sesgo negativo, y viceversa, luego el sumatorio del valor absoluto de todo el sesgo positivo y negativo es igual al Sesgo Total, entonces, en caso que sólo hubiera un solo sujeto u opción que tuviera sesgo positivo, su Nivel de Sesgo normal positivo debería compensar a todo el sesgo negativo de los demás sujetos u opciones que tuvieran sesgo negativo. Y viceversa, si se diera el caso que toda N sólo hubiera un sujeto u opción que tuviera sesgo negativo, entonces su Nivel de Sesgo normal negativo debería por sí solo compensar a la suma de todos los sesgos positivos de los demás sujetos u opciones. Luego independientemente de que sólo hubiera un único sujeto u opción con sesgo positivo, o un único sujeto u opción con sesgo negativo, su Nivel de Sesgo sería igual al Sesgo Total entre dos, de modo que el Sesgo Total entre dos es igual al Máximo Sesgo Empírico Posible.

El Máximo Sesgo Empírico Posible se diferencia del Máximo Sesgo Teórico Posible, en que mientras el Máximo Sesgo Empírico Posible es el máximo sesgo que pudiera tener un sujeto u opción dada una distribución empírica del sesgo, en cambio el Máximo Sesgo Teórico Posible es el máximo sesgo que cualquiera sujeto u opción en teoría pudiera alcanzar dadas unas condiciones de máxima dispersión.

Si la probabilidad empírica como toda la probabilidad es un valor que puede oscilar entre cero y uno, entonces lógicamente la Mínima Probabilidad Empírica Posible es la probabilidad cero, mientras la Máxima Probabilidad Empírica Posible es la probabilidad uno. Si la Máxima Probabilidad Empírica Posible es uno entonces teóricamente su Nivel de Sesgo sería igual a uno menos inversión de N, 1/N, que sería entonces el Máximo Sesgo Teórico Posible que puede alcanzar cualquier probabilidad empírica, dado que si el máximo valor de una probabilidad empírica es uno luego uno la Máxima Probabilidad Empírica Posible, entonces ninguna probabilidad empírica puede tener en teoría un Nivel de Sesgo igual a uno menos inversión de N, 1/N, siendo así el Máximo Sesgo Teórico Posible.

De igual modo, si lógicamente el mínimo valor de una probabilidad es cero, luego su Nivel de Sesgo sería cero menos inversión de N, dicho sesgo sería el Máximo Sesgo Negativo Posibe.

De modo que si en una muestra se dan las condiciones de máxima dispersión posible, que de toda N de todos los sujetos u opciones sólo uno tuviera una puntuación directa o frecuencia distinta de cero, luego sólo un sujeto u opción tuviera probabilidad empírica distinta de cero, de modo que su probabilidad empírica fuera igual a su puntuación directa o frecuencia entre el sumatorio, que siendo todas las demás cero entonces el sumatorio sería su misma puntuación directa o frecuencia, luego la probabilidad empírica sería igual a uno, es decir, Máxima Probabilidad Empírica Posible, entonces ese sujeto cumpliría las condiciones para que se diese el Máximo Sesgo Teórico Posible y Máximo Sesgo Empírico Posible de forma simultánea.

Y siendo que el Sesgo Total es igual a la suma de todos los sesgos, de modo que la suma del sesgo positivo compensa a la suma de todo el negativo, y viceversa, el Máximo Sesgo Teórico Posible sería igual al producto de Máximo Sesgo Negativo Posible por N menos uno, luego la Desviación Media sería igual al promedio del duplo del Máximo Sesgo Teórico Posible, siendo dicha Desviación Media entonces la Máxima Desviación Media Teórica Posible, de la cual se deduce la Máxima Varianza Teórica Posible, y la Máxima Desviación Típica Teórica Posibles.

Esto es sólo una pequea muestra de cómo en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, por la simple aplicación de la lógica a la tendencia, en Probabilidad Imposible denominado silogismo de la tendencia, del propio encadenamiento de premisas lógicas se elaboran nuevos conceptos estadísticos, formulándose una teoría compleja que desarrolla nuevos modelos de estadística descriptiva e inferencial.

A partir nuevos estadísticos individuales y muestrales de tendencia central y dispersión, por la simple aplicación de la lógica deductiva, se elaboran nuevos modelos de contraste de hipótesis, individuales y muestrales, ya sea sobre la crítica racional de diferencias o proporciones entre estadísticos empíricos y teóricos, para estudios intramuestrales o intermedicionales, tal como propone Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

 
Rubén García Pedraza, Madrid a 19 de diciembre del 2015