En el desarrollo positivo, racional, y moral o político, de la estadística de la probabilidad o probabilidad estadística, Probabilidad Imposible, hay que diferenciar, en términos epistemológicos, entre la metodología que supone el uso de métodos estadísticos en las investigaciones de las ciencias empíricas, y lo que epistemológicamente es el método científico utilizado para el desarrollo en sí mismo de la estadística y la probabilidad, que no puede ser otro método más que la propia lógica, y dentro de la lógica, más concretamente el silogismo, en el caso de la Probabilidad Imposible, el silogismo de la tendencia.
La estadística de la probabilidad o probabilidad estadística, la Probabilidad Imposible, es una teoría matemática racionalmente crítica que aporta un conjunto de métodos heurísticos para la crítica racional de las ciencias empíricas, mediante los tres métodos que la componen : el Impacto del Defecto, el Segundo Método, y la Distribución Efectiva; que permiten establecer criterios racionales, criterios lógicos y morales o políticos, para la aceptación provisional o rechazo de una hipótesis empírica.
De esta forma lo que hay que diferenciar, a nivel epistemológico, es entre lo que supone para las ciencias empíricas la estadística de la probabilidad o probabilidad estadística, una metodología heurística para la crítica racional de las ciencias empíricas, frente a aquel método utilizado para el desarrollo lógico formal de la teoría estadística de la probabilidad o probabilidad estadística, la Probabilidad Imposible.
La Probabilidad Imposible es una teoría de estadística y probabilidad dentro de la cual se desarrollan diferentes métodos de investigación heurística , para el desarrollo de las ciencias empíricas, de los cuales por ahora únicamente se está explicando el Segundo Método, aquel que, a partir del concepto de probabilidad empírica de sujeto u opción, critica racionalmente aquellas hipótesis planteadas por las ciencias empíricas, para determinar si aquella tendencia o tendencias suscripta o suscritas por una o unas hipótesis, es suficientemente racional para ser aceptada universal provisionalmente, dentro del margen de error que esté dispuesta a aceptar la política científica, pasando a formar parte provisionalmente de aquella teoría científica que avale esa determinada política científica.
En el momento en que se establece la diferencia de : estadística de la probabilidad o probabilidad estadística como método de critica racional de las ciencias empíricas, frente a lo que es el método utilizado para el desarrollo teórico de la estadística de la probabilidad o probabilidad estadística, el silogismo de la tendencia; lo que se está haciendo es poner de manifiesto la diferencia epistemológica entre: la metodología de las ciencias empíricas, sean naturales o sociales, y la metodología para el desarrollo de las ciencias no empíricas o formales, la lógica y las matemáticas.
Esto lo que significa es que, si tradicionalmente se ha hecho una diferenciación entre métodos propios de las ciencias naturales , y métodos propios de las ciencias sociales, esta distinción desde una perspectiva positiva y racional no es lógica dado que todas las ciencias naturales o sociales tienen en común ser ciencias empíricas, y desde una perspectiva lógica dialéctica, la distinción entre ciencias sociales y naturales, en función de si unas usan métodos cuantitativos y las otras métodos cualitativos, no es idónea, en la medida que la relación entre lo cuantitativo y lo cualitativo es dialéctica, y lo cuantitativo se transforma en cualitativo y viceversa, véase Hegel, Marx y Engels.
Realmente no existe contradicción alguna entre el uso de métodos estadísticos para la crítica racional de lo que sucede, y el uso de métodos cualitativos, salvo que por intereses de la política científica se lleguen a conclusiones contradictorias, lo cual depende de la orientación moral subyacente a la ideología política de la política científica. De hecho , toda lectura de una tabla estadística de datos es en sí misma una interpretación de los datos, es decir, los métodos cuantitativos exigen a su vez de la interpretación moral de la realidad, sólo que esa interpretación moral, a diferencia de la interpretación subjetiva, se caracteriza por intentar ser lo más moralmente objetiva posible mediante minimizar la posibilidad de error político en la interpretación de la realidad para progresar en la fiabilidad de la ciencia, a fin que la interpretación de los datos estadísticos sea lo más racional posible se establecen los criterios racionales para la crítica racional de la realidad, el contraste de hipótesis, aceptándose un margen de error moralmente posible entre la verdad moral en sí de la realidad misma y la verdad moral de la política científica.
El contraste de hipótesis de esta forma es un mecanismo de control del error moral, incluido el error que pueda deberse a la implicación subjetiva del investigador en la investigación misma, a fin de garantizar la máxima fiabilidad moral, es decir, científica posible, que la política científica esté dispuesta a aceptar, aceptando políticamente el menor error posible, aunque lógicamente, si todo lo posible, incluido el error, en un tiempo suficiente o infinito es inevitable, cualquier aceptación racional de una hipótesis empírica sólo podrá ser universal de forma provisional, de ahí la incertdumbre moral de la ciencia.
Lejos del primer imperativo categórico kantiano la ciencia moderna no puede establecer el tipo de máximas universales que Kant hubiera deseado al estilo de la física de Newton, máximas universales válidas para todo tiempo posible, la ciencia moderna únicamente puede acceder a máximas morales provisionalmente universales. En este sentido la Probabilidad Imposible, en tanto que racionalismo crítico y el falsacionismo de Popper convergen en la idea de que sólo es posible una ciencia provisional.
Si el primer racionalismo crítico de Kant al igual que el primer positivismo de Comte, y el materialismo dialéctico de Marx y Engels, hubieran deseado una ciencia fundada en máximas universales, tal como debería ser de acuerdo al primer imperativo moral kantiano, leyes universales de la ciencia al estilo de Newton, válidas para cualquier época histórica, pasada, presente, o futura, lo cierto es que la evolución del positivismo, el racionalismo crítico, y el materialismo dialéctico, ya sea la evolución del positivismo lógico, el empirismo y el racionalismo crítico, en el Círculo de Viena, Wittgenstein y Popper, especialmente a partir de las contradicciones en mecánica quántica y astrofísica, o la evolución del materialismo dialéctico en la escuela de Frankfurt, y el paradigma crítico y teorías alternativas que han surgido posteriormente bajo la influencia de Horkheimer, Adorno, Marcuse, Fromm, el ideal de una ciencia fundada en máximas universales o leyes universales, válidas para todo el continuo espacio-tiempo, se han disipado en el campo de las ciencias empíricas, hoy en dia la ciencia empírica moderna contemporánea se caracteriza por ser una ciencia provisional, dentro del margen de duda racional o escepticismo empírico, margen de crítica racional, que acepte la política científica.
De esta forma, en Probabilidad Imposible, no cabe la posibilidad de debate alguno sobre si hay o no contradicción entre lo cualitativo y lo cuantitativo, ciencias naturales o ciencias sociales, porque desde la perspectiva teórica de la Probabilidad Imposible, en tanto que síntesis : del positivismo, racionalismo crítico, y materialismo dialéctico; todas las ciencias empíricas naturales o sociales tienen en común ser ciencias empíricas, y todas las ciencias empíricas en tanto que empíricas deben ser racionalmente críticas, mediante el uso de métodos que minimicen el error posible para progresar en la fiabilidad científica y de esta forma progresar en la fiabilidad de las hipótesis racionales, dentro de los ciclos de crisis y revolución científica.
Lo que sí se debe establecer es la diferenciación epistemológica clara y distinta entre la estadística y la probabilidad como método para el progreso en las ciencias empíricas, y aquel método que la estadística y la probabilidad usan para sí mismas, para su propio desarrollo interior como ciencia, el silogismo de la tendencia.
Lo que hay que diferenciar es, la matemática como lenguaje cuantitativo de las ciencias empíricas, para lo cual la matemática ofrece métodos heurísticos a todas las demás ciencias empíricas, naturales o sociales, frente al estudio de la matemática en sí misma, el estudio en sí mismo de la propia matemática, al igual que una lengua cualquiera puede ser el sostén para el desarrollo cualitativo de las ciencias empíricas, y después la lingüística es el estudio científico de la misma lengua en sí misma.
Y es sobre esta distinción, entre la estadística y la probabilidad como método para las ciencias empíricas, frente a lo que es el estudio en sí mismo de la estadística y la probabilidad, es donde hay que comprender el silogismo de la tendencia, como el método sobre el cual se construye la propia teoría de la estadística de la probabilidad o probabilidad estadística, la Probabilidad Imposible.
De esta forma, mientras el Impacto del Defecto, Segundo Método, Distribución Efectiva, son métodos heurísticos que la Probabilidad Imposible proporciona para las demás ciencias empíricas, el método que para el estudio en sí mismo de la estadística y la probabilidad sea ha utilizado en Probabilidad Imposible ha sido el silogismo de la tendencia, aquel método que para sí la estadística y la probabilidad pueden utilizar para desarrollarse, avanzar, y progresar, para la creación de nuevas formas de crítica racional de lo que sucede, la realidad.
De esta forma, lo que habría que diferenciar es , en realidad, no entre métodos cuantitativos o cualitativos, ciencias sociales o naturales, la verdadera diferencia habría que establecerla entre ciencias empíricas, sean naturales o sociales, y las ciencias no empíricas o ciencias formales, lógica y la matemática, que a su vez se compone de diferentes disciplinas científicas, una de las disciplinas científicas es la estadística y la probabilidad, o dentro de Probabilidad Imposible, la disciplina científica que en sí misma sería la estadística de la probabilidad o probabilidad estadística, el desarrollo de una teoría estadística y de la probabilidad a partir del concepto fundamental de probabilidad empírica de sujeto u opción, puntuación directa o frecuencia de sujeto u opción entre el total de todos los sujetos u opciones, en cualquier tipo de muestra de cualquier tipo de universo.
Mientras que las ciencias empíricas, naturales o sociales, necesitan de validar racionalmente sus hipótesis de forma provisional, en cambio las ciencias no empíricas o formales, la lógica y la matemática, las ciencias analíticas, y dentro de la matemática la estadística de la probabilidad o probabilidad estadística, son ciencias cuyos postulados teóricos no se derivan del contraste de hipótesis, dado que las ciencias formales, la lógica y la matemática, son ciencias cuyos postulados teóricos se deben a la propia aplicación formal de la lógica, estableciendo proposiciones formales que siempre y cuando obedezcan a un planteamiento lógico formal correcto deben ser necesariamente correctas, siendo entonces conclusiones o máximas verdaderamente universales. Sólo en las ciencias formales es en donde la máxima absolutamente universal, para cualquier espacio tiempo, es posible.
De esta forma el método interno que la Probabilidad Imposible ha utilizado para el desarrollo de sus propios postulados teóricos ha sido el silogismo de la tendencia.
El silogismo de la tendencia es el método que la estadística de la probabilidad o probabilidad estadística, la Probabilidad Imposible, ha utilizado para el desarrollo de sus conclusiones o máximas, en donde en tanto que silogismo lo único que hace es extraer conclusiones sobre premisas lógicas, en donde siempre que las premisas sean correctas y no halla errores en el proceso lógico de deducción ,de las premisas a la conclusión, la conclusión necesariamente sólo puede ser verdadera . Si sobre la premisa, tradicionalmente la estadística clásica establecía que en estadística descriptiva había dos tipos de tendencias , tendencia central , media, moda, mediana, y tendencia de dispersión, Desviación Media, Varianza, Desviación Típica entonces , y, siguiente premisa, sobre los conceptos de tendencia central y de dispersión, se desarrolla la base que posteriormente da lugar a la estadística inferencial, entonces la conclusión es lógica, el objeto de estudio de la estadística es el estudio de la tendencia.
En Probabilidad Imposible habrá que diferenciar entre dos tipos de tendencias, la tendencia individual y la tendencia muestral, y la tendencia se definirá como aquella forma de comportamiento, a nivel individual de sujeto u opción, y a nivel muestral el comportamiento observado en la muestra.
Todo silogismo que se haga para el estudio del comportamiento estadístico de la realidad, lo que sucede, será sobre el silogismo de la tendencia, partiendo de una definición racional de realidad, y es que de la realidad sólo estudiamos fenómenos, lo que sucede, y del fenómeno sólo podemos estudiar objetivamente el comportamiento de lo que sucede en la realidad.
Si Lo que sucede en la realidad son sucesos, y el suceso puede ser definido de dos formas, o bien como que un suceso puede ser algo que sucede entre diferentes opciones posibles, o bien que un suceso puede ser un sujeto muestral entre una serie de sujetos de la muestra, entonces, conclusión lógica, todo suceso puede ser definido en tanto que sujeto u opción. Lo cual exigirá la distinción entre dos tipos de universos, universos de sujetos u opciones, y universos de opciones limitadas.
En la medida que lo que estudia la estadística son tendencias, y la tendencia puede ser individual o muestral, la primera tendencia a estudiar es la tendencia de sujeto u opción, ya sea en universos de sujetos u opciones, infinitos o poblacionales, o en universos de opciones limitadas. Si para el estudio de la tendencia individual en estadística de la probabilidad o probabilidad estadística es necesario explicar la tendencia individual en términos de estadísticos, la tendencia individual viene dada por su puntuación directa o frecuencia, y la probabilidad de una parte sobre el todo es igual a la parte entre el todo , luego entonces necesariamente de aquí se deduce que la probabilidad empírica de sujeto u opción, es igual a la puntuación directa o frecuencia de sujeto u opción entre sumatorio de todas las puntuaciones directas o frecuencias .
Este enunciado base de probabilidad empírica es a partir del cual se deriva posteriormente todas las formulaciones de Probabilidad Imposible. Pero ya de por sí este enunciado base parte de una serie de supuestos.
El concepto de probabilidad empírica, puntuación directa o frecuencia de sujeto u opción entre sumatorio de todas las puntuaciones directas o frecuencias de todos los sujetos u opciones, parte de que, si normalmente en teoría de la probabilidad únicamente se utilizaba el concepto de probabilidad de suceso al cociente de dividir la frecuencia de un suceso entre la frecuencia total de todos los sucesos, y normalmente en estadística se decía que la frecuencia relativa es igual a puntuación directa entre el total, entonces, de la síntesis de ambos conceptos, surgirá el concepto base, probabilidad empírica de sujeto u opción es igual a puntuación directa o frecuencia de sujeto u opción entre sumatorio de todas las puntuaciones directas o frecuencias de todos los sujetos u opciones, lo cual implica que, en las ciencias empíricas se puede estudiar en términos de probabilidad estadística o estadística de la probabilidad cualquier colección de puntuaciones directas o frecuencias que suponga una muestra, y de esta forma a partir de ahora la aplicación de métodos de probabilidad no estará circunscrita solamente a estudios en donde sólo se estudien opciones, a partir de ahora, a partir del concepto de probabilidad empírica de sujeto u opción del Segundo Método se puede aplicar el estudio de la probabilidad empírica a cualquier tipo de muestra de puntuaciones directas o frecuencias, sea cual sea el estudio, siempre que disponga una muestra de puntuaciones directas o frecuencias se puede utilizar el Segundo Método para la crítica racional de lo que sucede en la muestra. Siendo este uno de los motivos por el cual se llamará Segundo Método, porque junto a los métodos tradicionales, el Segundo Método supone una segunda forma de estudiar y criticar la realidad.
En la medida que se sintetiza el concepto clásico de puntuación directa “xi”, y el concepto de frecuencia de opción, de esta síntesis se derivara que la puntuación directa o frecuencia se representará mediante el símbolo “xi”, el sumatorio de puntuaciones directas o frecuencias mediante el símbolo “Σxi”, y el número de sujetos u opciones mediante el símbolo “N”.
A partir de aquí todo el desarrollo teórico de Probabilidad Imposible es simplemente un encadenamiento de deducciones lógicas sobre el uso del silogismo sobre la tendencia.
Si la probabilidad empírica es igual a puntuación directa o frecuencia entre el total, y la media aritmética de un conjunto de datos es el promedio del sumatorio de todos los datos, la media aritmética de las probabilidades empíricas es igual al promedio del sumatorio de las probabilidades empíricas, que en este caso será a dividir entre N el sumatorio de todas las probabilidades empíricas.
Si el sumatorio de las probabilidades empíricas es igual a la unidad, y la media aritmética es igual al promedio del sumatorio, entonces la media aritmética de las probabilidades empíricas es igual a uno entre N, 1/N, a partir de ahora la inversión de N.
Si la inversión de N es la media aritmética de las probabilidades empíricas, e inversión de N es igual a la probabilidad que debería tener teóricamente todo sujeto u opción en igualdad de oportunidades por azar, entonces la inversión de N será la probabilidad teórica.
Si la diferencia de la probabilidad empírica menos la probabilidad teórica es igual al sesgo por el cual el sujeto u opción tiene un comportamiento diferente al comportamiento que debería tener por simple azar, entonces la diferencia de la probabilidad empírica menos la teoría será igual al Nivel de Sesgo normal que cada sujeto u opción tenga con respecto al que debería ser su comportamiento teórico por azar.
Si la probabilidad empírica es un estadístico que oscila entre uno y cero, y la probabilidad empírica máxima es la mayor probabilidad empírica de toda la muestra, entonces la Máxima Probabilidad Empírica Posible a la que puede llegar la máxima en la muestra es igual a probabilidad uno, luego entonces, la Máxima Probabilidad Empírica Posible sólo puede ser la unidad.
Si la probabilidad empírica sólo puede oscilar entre cero y uno, y la probabilidad empírica mínima es la menor de toda la muestra, la Mínima Probabilidad Empírica Posible a la que puede llegar a ser igual la mínima es cero, luego la Mínima Probabilidad Empírica Posible es cero.
Si el Nivel de Sesgo normal es igual a la diferencia de probabilidad empírica y teórica, y la probabilidad empírica máxima tiende a ser Máxima Probabilidad Empírica Posible, entonces el Nivel de Sesgo de la máxima tenderá a ser igual a la diferencia de la Máxima Probabilidad Empírica Posible menos inversión de N, es decir, la unidad menos inversión de N, que será entonces el Máximo Sesgo Teórico Posible.
Si el Nivel de Sesgo normal es igual a probabilidad empírica menos teórica, y la probabilidad empírica mínima tiende a ser igual a cero, la Mínima Probabilidad Empírica Posible, entonces la probabilidad empírica mínima tenderá a un Nivel de Sesgo igual a cero menos inversión de N, que en términos absolutos será inversión de N, luego el Máximo Sesgo Negativo Posible sólo puede ser inversión de N.
Si la probabilidad teórica es inversión de N, y es la probabilidad que teóricamente debería tener todo sujeto u opción en igualdad de oportunidades por azar, en un estudio de igualdad de oportunidades lo ideal es que toda probabilidad empírica tienda a ser igual a probabilidad teórica el Nivel de Sesgo normal tienda a ser cero. A este tipo de estudios cuyo objeto sea validar la igualdad de oportunidades en una muestra se llamarán estudios de igualdad.
Si dado un conjunto N, por ejemplo una pregunta tipo test en donde de todos los ítem, N, sólo hay uno correcto, de toda N sólo hay un sujeto u opción ideal, lo ideal es que la probabilidad empírica del ideal tienda a ser la probabilidad empírica máxima, y la probabilidad empírica máxima tiende a ser Máxima Probabilidad Empírica Posible, y su Nivel de Sesgo normal tienda a ser Máximo Sesgo Teórico Posible. A este tipo de estudios se llamarán estudios de sesgo positivo.
Si dada una muestra lo ideal es que un sujeto u opción tienda a probabilidad empírica mínima, luego tienda a Mínima Probabilidad Empírica Posible, luego tienda a Máximo Sesgo Negativo Posible, a este tipo de estudios se llamarán de sesgo negativo.
Si en un estudio de igualdad de oportunidades toda N debe tender a inversión de N, entonces a menor diferencia de cada probabilidad empírica menos la teórica mayor tendencia a igualdad de oportunidades, racionalmente sólo se aceptará racional una tendencia a igualdad de oportunidades si es igual o inferior a un margen de error, Validez de Igualdad, o si la diferencia de Máximo Sesgo Teórico Posible menos Nivel de Sesgo normal es igual o superior a un margen de fiabilidad, Significación de Igualdad,
Si en un estudio de Sesgo Positivo lo ideal es que el Nivel de Sesgo normal de la máxima tienda a Máximo Sesgo Teórico Posible, entonces a menor diferencia entre el Nivel de Sesgo normal de la máxima y el Máximo Sesgo Teórico Posible mayor tendencia a cumplirse el ideal, racionalmente sólo se aceptará un ideal de sesgo positivo si la diferencia del Máximo Sesgo Teórico Posible menos Nivel de Sesgo normal es igual o inferior a un margen de error, Significación de Sesgo Positivo, o si el Nivel de Sesgo normal es igual o superior a un margen de fiabilidad, Validez de Igualdad.
Si en un estudio de sesgo negativo lo ideal es que el sujeto u opción que debe tender a la mínima tienda a Máximo Sesgo Negativo Posible, entonces, a menor diferencia de Máximo Sesgo Negativo Posible menos Nivel de Sesgo normal mayor tendencia a ser aceptado racionalmente, siempre y cuando su diferencia sea igual o inferior a un margen de error, Significación de Sesgo Negativo, o el Nivel de Sesgo igual o superior a un margen de fiabilidad, Validez de Sesgo Negativo.
Si conforme aumenta el sesgo aumenta en la muestra aumenta la dispersión, a mayor tendencia de la máxima a Máxima Probabilidad Empírica Posible entonces más aumenta la dispersión en la muestra.
Si a medida que la máxima tiende a Máxima Probabilidad Empírica Posible, probabilidad empírica igual a uno, y la suma de todas las probabilidades empíricas es igual a la unidad, entonces conforme la máxima aumenta tenderán a cero, Mínima Probabilidad Empírica Posible, todas las demás probabilidades empíricas.
A mayor tendencia de la máxima a Máxima Probabilidad Empírica Posible , y a mayor tendencia de los demás sujetos u opciones a Mínima Probabilidad Empírica Posible, más aumenta la dispersión muestral.
Si a mayor aumento de la dispersión muestral mayor tendencia del Nivel de Sesgo de la máxima a Máximo Sesgo Teórico Posible, y mayor tendencia del Nivel de Sesgo del resto de sujetos u opciones a Máximo Sesgo Negativo Posible, entonces la Máxima Desviación Media Teórica Posible, Máxima Varianza Teórica Posible, y Máxima Desviación Típica Teórica Posible sólo será posible cuando el Nivel de Sesgo de la Máxima sea igual a Máximo Sesgo Teórico Posible y sesgo de todos los demás sujetos u opciones sea igual a Máximo Sesgo Negativo Posible.
Si la Máxima Desviación Media Teórica Posible sólo se da cuando el sesgo de la máxima es igual a Máximo Sesgo Teórico Posible, y los demás sesgos igual a Máximo Sesgo Negativo Posible, entonces, la Máxima Desviación Media Teórica Posible es igual al promedio de la suma de Máximo Sesgo Teórico Posible más el producto de multiplicar el Máximo Sesgo Negativo Posible por la diferencia de N menos uno, que será igual a Máxima Desviación Media Teórica Posible igual al promedio del duplo de Máximo Sesgo Teórico Posible.
De igual forma la Máxima Varianza Teórica Posible será igual al promedio de la suma del cuadrado de Máximo Sesgo Teórico Posible más el cuadrado de inversión de N por la diferencia de N menos uno, y la Máxima Desviación Típica Teórica Posible igual a la raíz cuadrada de la Máxima Varianza Teórica Posible.
Si la Desviación Intermedia es igual a dividir entre dos la diferencia de la máxima menos la mínima, y la máxima fuera igual a uno , y la mínima a cero, necesariamente la Máxima Desviación Intermedia Teórica Posible sólo puede ser igual a cero coma cinco, al igual que la Máxima Desviación Media de Máxima y Mínima Teórica Posible, dividir entre dos el valor absoluto de Máximo Sesgo Teórico Posible y Máximo Sesgo Negativo Posible.
Las ciencias sociales y las ciencias naturales en tanto que todas son ciencias empíricas deben emplear métodos idénticos para el estudio empírico de la realidad, dejando siempre un margen de duda racional o escepticismo empírico, un margen de crítica racional, a toda sus formulaciones teóricas, en la medida que nada es universal salvo provisionalmente, y ninguna hipótesis es racional más allá de un tiempo suficiente o infinito en que el margen de duda posible sea capaz de refutar la misma hipótesis aceptada provisionalmente racional.
El racionalismo crítico, ya sea en la versión de Kant que ya en las antinomias lógicas comprendía que hay hipótesis que más allá de las secuencia lógica de premisas carecen de demostración empírica, de momento, o en la versión del falsacionismo de Popper, o en la versión de Probabilidad Imposible, si bien siempre tendrá como meta alcanzar el imperativo categórico moral kantiano de hacer posibles máximas universales, leyes universales el estilo de Newton, de momento, y mientras la hipótesis del conocimiento provisional no se refute, la idea absoluta de Hegel parece más bien un sueño de las ciencias empíricas, sólo posible si acaso en las ciencias no empíricas o formales. La mayor virtud de la evolución del racionalismo ilustrado a día de hoy ha sido comprender en la absoluta necesidad de la ciencia para el progreso de la humanidad, si bien, la cuestión está en si seremos capaces de llegar alguna vez a alguna formulación empírica de carácter universal.
Llegados a este punto, la distinción entre ciencias naturales cuantitativas y ciencias sociales cualitativas carece de fundamento racional , lo más lógico sería volver a la clasificación, por lo demás de claras reminiscencia kantianas, entre ciencias sintéticas y ciencias analíticas, las ciencias sintéticas son las ciencias empíricas, englobando en las ciencias empíricas a las ciencias naturales y sociales, y las ciencias analíticas son la lógica y las matemáticas, y dentro de las matemáticas identificar las disciplinas de la estadística y la probabilidad, para cuyo desarrollo desde la estadística de la probabilidad o probabilidad estadística, la Probabilidad Imposible, se propone el silogismo de la tendencia como método para la epistemología y desarrollo de la teoría de la probabilidad y la estadística.
El silogismo de la tendencia es aquel método que llega a deducir conclusiones lógicas o racionales sobre la tendencia en la probabilidad estadística o estadística de la probabilidad, a partir de premisas, siempre y cuando sean lógicas, permitiendo , sobre una serie de premisas y conclusiones, la elaboración de una teoría estadística de la probabilidad o probabilidad estadística, que dé lugar a nuevos métodos de investigación para la crítica racional de las ciencias empíricas.
Rubén García Pedraza, Madrid a 17 de noviembre del 2012