La estadística y la probabilidad son dos disciplinas claramente diferenciadas, aunque estrechamente vinculadas, en los manuales de estadística son frecuentes las menciones a la teoría de la probabilidad, y viceversa, en los libros de probabilidad menciones a la estadística, pero, sin embargo, a pesar de estar muy ligadas, la matemática tradicional hace una clara distinción entre qué es estadística y qué es probabilidad, en la medida que la una estudia la posibilidad de un evento o suceso, y la estadística hace estimaciones descriptivas, normalmente sobre poblacionales, o de ser inferencial, contraste de hipótesis.
Es difícil decir cuál de ellas, probabilidad o estadística, fue primero, aunque, hay una visión ampliamente asumida de que el nombre estadística viene dado porque a partir de los primeros Estados se extiende el empleo de técnicas para la elaboración censos y recuentos demográficos y poblacionales. La probabilidad como teoría quizás no sea mucho más anterior o posterior, y posiblemente el principio histórico de la estadística y la probabilidad sea simultánea, y presumiblemente, aunque de forma intuitiva o sin saber que utilizaban técnicas estadísticas o de probabilidad, la prehistoria de estas técnicas se remonte a periodos anteriores. Si bien, en el ámbito académico se suele mencionar que la estadística en tanto que disciplina científica de carácter académico, universitario, es muy reciente, de principios del siglo XX.
Si la media aritmética lo que hace es la redistribución igualitaria de, dada la suma de una serie de elementos por factor, el sumatorio se divide después entre el total de los factores, para determinar cuántos elementos corresponden a cada factor por igual, es evidente que, ya se le diera ese u otro nombre, este tipo de operaciones presumiblemente sea tan antigua como la propia matemática.
La teoría de Probabilidad Imposible, tal como su nombre refleja, parte de una reflexión en torno a la teoría de la probabilidad. El nombre de la Probabilidad Imposible hace mención a la existencia de sucesos que teniendo probabilidad empírica cero, luego en teoría a priori deberían ser imposibles, en tanto que tienen probabilidad empírica cero porque no hay constancia manifiesta al menos en el registro de observaciones que haya sucedido, o habiendo sucesos pertenecientes a posibles universos infinitos en donde, teóricamente, en el infinito la probabilidad teórica de sujeto u opción, 1/N, es una tendencia con límite en cero, en cualquier caso, ya sea porque un suceso es teórica o empíricamente imposible, en términos de probabilidad, no implica que no tenga porque suceder, un suceso teórica o empíricamente imposible, dentro de un margen de coherencia lógica, puede ser inevitable.
Debido a la complejidad en la definición de lo posible o lo imposible, la teoría de Probabilidad Imposible evolucionará hacia una perspectiva compleja de la ciencia, muy en la línea de los actuales modelos en boga no lineales o modelos caóticos. En Probabilidad Imposible la definición de lo posible o imposible se debe a una combinación aleatoria de factores capaz de producir patrones de comportamiento estables, siempre de manera estocástica, dentro de una lógica dialéctica en donde la realidad es una contingencia producto de accidentes, luego lo realmente sustancial o esencial de la realidad en tanto que fenómeno cognoscible, es ser una entidad compleja en permanente evolución o cambio, lo cual en esencia nos lleva a la filosofía presocrática, más en concreto a Heráclito, para quien todo fluye, todo es movimiento, y en cierto sentido una visión nietzscheana o nihilista de la ciencia, aunque partiendo, para llegar a este punto, del contraste de hipótesis, lo que en Probabilidad Imposible se llama la crítica racional de las ideas, en tanto en cuanto, lo que conocemos, el fenómeno, no es el ente en sí, en la medida que nunca conocemos la realidad misma, sólo percepciones, siendo la contradicción entre realidad empírica y teórica fuente de errores para la ciencia generadas por la propia limitación humana, ante la infinitud de cualidades singulares de la verdadera realidad real, siendo la ausencia de fiabilidad absoluta un desafío a los ideales de ciencia y humanidad.
A partir de la primera intuición de Probabilidad Imposible, en el año 2001, se inicia una teoría, que además, entre sus primeros propósitos tendrá la intención de crear un modelo inferencial alternativo al contraste de hipótesis tradicional, sustentado sobre el falsacionismo de Popper. En líneas generales, las investigaciones que dieron lugar a estos primeros planteamientos en el año 2001, son los que posteriormente se plasmaron por primera vez en la versión impresa de Introducción a la Probabilidad Imposible, 2011, y más recientemente en este mismo año 2013, en las versiones digitales, ebook, de Introducción a la Probabilidad Imposible, en donde únicamente se han hecho algunas modificaciones en relación a la concepción filosófica de la ciencia, pero manteniendo perennes e inalterables las formulaciones iniciales.
A fin de dar cuerpo teórico a estas intuiciones preliminares, se empieza a desarrollar un nuevo modelo metodológico, desde el cual poder hacer efectivo el estudio de la realidad desde una cosmovisión compleja, que entienda las relaciones dialécticas entre lo posible y lo imposible, haciendo una síntesis filosófica entre racionalismo crítico, positivismo, y materialismo dialéctico, en el cual se puede entrever a lo largo de la obra claras influencias vitalistas y nihilistas, en la medida que toda presunción racional de falsedad, derivado de la versión popperiana del racionalismo crítico, implica que, a priori, toda hipótesis, aunque se demuestre suficientemente racional, es una suficiencia provisional, luego, ya desde el principio, por apriorismo, toda aceptación de verdad se hace aceptando desde el principio la presunción de falsedad, luego ya de entrada se parte de que absolutamente nada puede ser absolutamente verdad, toda verdad que aceptamos provisionalmente verdad lo hacemos desde el convencimiento y el apriorismo, que, llegado el momento de la verdad, cuando el margen de error aceptado en la razón crítica de la política científica se manifieste, esa misma hipótesis o idea ahora aceptada verdadera, será falsa.
El racionalismo crítico, en su evolución contemporánea, el falsacionismo, fundado en el eclecticismo de la duda racional y el escepticismo empírico, llevado al extremo, en Probabilidad Imposible, conduce inevitablemente a una actitud de nihilismo relativo, en tanto que se asume la presunción a priori de que toda hipótesis o idea, y absolutamente toda hipótesis o idea, luego toda teoría, incluso ella misma, y absolutamente toda teoría, aunque de forma provisional las aceptemos racionales, es absolutamente falsa. Que algo sea racional no implica que sea absolutamente verdadero, sólo significa que es una explicación suficiente por ahora, y mientras no se demuestre o manifieste lo contrario, pero más allá de la función temporal de suficiencia, a largo plazo será posiblemente falso. El racionalismo crítico abre la puerta a un cierto nihilismo relativo, en tanto que, ni siquiera es absoluto. De forma inmediata, en el momento que las hipótesis son suficientemente racionales, siempre y cuando su margen de error sea igual o inferior al margen de error de la razón crítica, o siempre y cuando su margen de fiabilidad sea igual o superior al margen de fiabilidad, se acepta las hipótesis y sus teorías, si bien, se presupone, que dentro del marco de error que se aceptan, posiblemente sean falsas.
A fin de desarrollar la teoría de Probabilidad Imposible lo primero que desde esta teoría se hace es fusionar estadística y probabilidad, creando así un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística.
Dentro de esta nueva teoría habrá que diferenciar entre dos tipos de métodos, el método destinado al propio desarrollo analítico formal, investigación pura, de la estadística y la probabilidad, que será el silogismo, aplicado al estudio de la tendencia, motivo por el cual se llamará el silogismo de la tendencia, y aquellos otros métodos de estadística y probabilidad que aplicados a las ciencias sintéticas o empíricas, investigación aplicada, permitirán el desarrollo de las demás ciencias, sean naturales o sociales.
Los métodos estadísticos sintéticos o empíricos, para la investigación aplicada a las ciencias naturales o sociales, tienen su origen y fundación en los propios silogismos que, dentro de la investigación pura, se hagan para el desarrollo de la estadística y la probabilidad aplicada a las demás ciencias.
Mientras la investigación pura en estadística de la probabilidad o probabilidad estadística tiene por fin el análisis de las relaciones formales o lógicas entre estadística y probabilidad, la investigación aplicada tiene por fin la aplicación de la estadística y la probabilidad a las demás ciencias sintéticas o empíricas, sean naturales o sociales.
En el momento que en el ámbito de la investigación pura se empieza a estudiar la posibilidad de fusión, en base a sus relaciones entre sí, de estadística y probabilidad, dentro de este nuevo campo de estudio, estadística de la probabilidad o probabilidad estadística, si para la matemática tradicional la estadística se dedica al estudio de la tendencia central o dispersión de las puntuaciones directas obtenidas de las poblaciones o muestras, en caso de modelos de contraste de hipótesis, proceder a la inferencia estadística, mientras la probabilidad se dedica al estudio de la frecuencia de una serie de opciones, esta síntesis llevará a la creación de nuevos conceptos, universos de sujetos donde se estudian sujetos de predicados cuya cualidad se mide en forma de puntuación directa, y universos de opciones limitadas donde se estudian sus frecuencias, en donde ya sean universos de sujetos o de opciones, donde lo que se estudia es la puntuación directa o frecuencia, se puede aplicar el mismo método sintético o empírico, estudiando la probabilidad empírica y probabilidad teórica, siendo estos conceptos la base sobre la cual se establece el Segundo Método, el cual empezará a desarrollarse a partir del 16 de octubre del 2002, si bien, se ha mantenido inédito hasta la primera publicación de Introducción a la Probabilidad Imposible en 2011, y actualmente en las versiones ebook digitales.
Si el silogismo de la tendencia lo que permite es el análisis de las relaciones lógico formales entre estadística y probabilidad, mediante la aplicación del silogismo al estudio de la tendencia, empezarán a emerger nuevos conceptos que aplicados a las demás ciencias darán lugar a nuevos métodos sintéticos o empíricos para el estudio de las ciencias naturales o sociales. Uno de estos métodos para el estudio de las ciencias sintéticas es el Segundo Método, el cual parte del tratamiento de todo tipo de datos, sean de sujetos u opciones, puntuaciones directas o frecuencias, para el estudio de las relaciones entre las probabilidades empíricas y la probabilidad teórica.
De esta forma el método de Probabilidad Imposible en el análisis lógico de la estadística y la probabilidad, es el silogismo de la tendencia, de forma que toda la fusión de la estadística y la probabilidad en forma de estadística de la probabilidad o probabilidad estadística, se hará mediante la aplicación de silogismos, de los cuales empezarán a surgir métodos sintéticos o empíricos, uno de ellos el Segundo Método.
El motivo por el cual se estima que el silogismo es la principal herramienta del análisis lógico formal se debe a la propia dialéctica, en la cual, desde Hegel, el silogismo engloba los tres estadios, categorías, o niveles de concreción del objeto, en la medida que engloba: lo universal, lo particular, y lo singular; de lo que depende, la universalización en la ciencia, en la medida que desarrolla modelos teóricos universales que respondan a la concreción particular de cada hecho singular.
De esta forma, es partir del análisis formal, mediante silogismos aplicados a la tendencia, donde surgirán los métodos sintéticos o empíricos para la investigación aplicada a las ciencias naturales y sociales.
Mientras el silogismo aplicado a la tendencia estadística, el silogismo de la tendencia, es el método de análisis formal de la estadística de la probabilidad o probabilidad estadística, el Segundo Método es un método de estadística de la probabilidad o probabilidad estadística para el análisis sintético o empírico de las ciencias naturales o sociales.
El origen del Segundo Método, en tanto que método de análisis sintético o empírico de la estadística de la probabilidad o probabilidad estadística aplicado a las ciencias naturales o sociales, se encuentra en las conclusiones lógicas a las que se llega mediante el análisis formal de la estadística de la probabilidad o probabilidad estadística mediante la concatenación de silogismos aplicados a la tendencia.
La razón por la cual se alude a que el Segundo Método es uno de los métodos sintéticos o empíricos de Probabilidad Imposible, mientras el silogismo de la tendencia es el método analítico formal, es porque, mientras a nivel analítico formal el silogismo de la tendencia es el único método de investigación pura en estadística de la probabilidad o probabilidad estadística, la razón por la que se dice que el Segundo Método es un método sintético o empírico, es porque es uno pero no es el único, en la medida que, es uno de los métodos sintético obtenidos, mediante silogismos, al igual que otros métodos sintéticos igualmente obtenidos mediante la misma vía.
Mientras método analítico formal sólo hay uno, el silogismo de la tendencia, los métodos sintético o empíricos, todos ellos producto del análisis formal, son diversos, siendo el Segundo Método uno de ellos.
De hecho, la forma en que se llego a la conclusión que el silogismo de la tendencia es el método analítico formal, investigación pura, de Probabilidad Imposible, fue a consecuencia del análisis posterior de los documentos escritos sobre esta teoría, años después, estando todavía inédita, llegando a la conclusión que en todos los documentos se repite la misma estructura formal: a partir de una serie de premisas lógicas sobre conceptos y categorías matemáticas, el establecimiento de una conclusión lógica, en donde si los conceptos y categorías matemáticas estaban bien definidas, y la relación entre las premisas era correcta, la conclusión lógica era formalmente verdadera, derivándose de este método todos los conceptos matemáticos que forman hoy en día Probabilidad Imposible.
Mientras la definición del método formal, el silogismo de la tendencia, es posterior, los primeros métodos sintéticos o empíricos fueron el Impacto del Defecto y el Segundo Método, añadiéndose posteriormente la Distribución Efectiva y el estudio de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible.
La diferencia entre Impacto del Defecto, Distribución Efectiva y estudios de ranking, frente Segundo Método, es que mientras el Impacto del Defecto estudia la magnitud de la gravedad de un defecto o daño en un proceso o sistema, o la Distribución Efectiva estudia el nivel de eficacia o eficiencia de un proceso o sistema, o el estudio en ranking realiza una crítica racional sobre unos niveles de ranking, ya se ordenen en sentido ascendente o descendente, el Segundo Método estudia las relaciones entre probabilidades empíricas y teórica, tanto a nivel intramedicional, ya sea en estadística descriptiva o inferencial, o a nivel intermedicional.
El motivo por el cual el Segundo Método recibió este nombre se debe a dos factores, en primer lugar para diferenciarlo de la estadística tradicional que es el primer método de referencia para todo análisis estadístico, y en segundo lugar porque el Segundo Método fue el segundo método cronológicamente en la elaboración de Probabilidad Imposible, el primer método dentro de esta teoría fue el Impacto del Defecto en la misma madrugada del 11 de septiembre del 2001, desarrollándose el Segundo Método un año después, el 16 de octubre del 2002.
La forma en que dentro de Introducción a la Probabilidad Imposible evoluciona el Segundo Método es hacia convertirse en un Segundo Método para todo tipo de estudios, tanto para estadística descriptiva, reformulando conceptos tradicionales de tendencia central, especialmente redefiniendo la media aritmética en tanto que azar teórico, entre otras funciones de inversión de N, 1/N, y de dispersión, definiendo a la Desviación Media o Desviación Típica en tanto que estadísticos de azar empírico.
Y a partir de estas definiciones, mediante la aplicación de silogismos, formando nuevos conceptos como Máxima Desviación Media Teórica Posible o Máxima Desviación Típica Teórica Posible, diferenciando entre modelos normales y modelos omega sujetos a subconjuntos de ideales dentro de N, y avanzando hacia nuevos modelos contraste de hipótesis, para la crítica racional de las ideas.
Rubén García Pedraza, a Madrid 25 de mayo del 2013.