La
lógica en tanto que disciplina analítica, en la investigación pura, estudia las
relaciones formales entre las cosas, y la lógica en tanto que método aplicado
para las demás ciencias, es a su vez un método de estudio, en cualquiera de sus
modalidades: lógica inductiva, lógica deductiva, lógica dialéctica, o más en concreto en
matemáticas la lógica de conjuntos, que a su vez tiene importantes aplicaciones
para otros campos de las matemáticas
como la estadística y la probabilidad.
Al
igual que la lógica puede tener la doble acepción de disciplina para sí misma,
y método de estudio aplicado a las demás ciencias, lo mismo sucede a las
matemáticas, que para sí misma es una ciencia analítica, el propio estudio de
las relaciones formales en el lenguaje matemático, al igual que dentro de las
ciencias analíticas la lingüística estudia las relaciones formales de una
lengua dada, mientras fuera de sí las matemáticas puede ser interpretada como método
de estudio, entre los cuales destaca el método estadístico o de la
probabilidad.
A
menudo aparece nombrado en libros de ciencia la designación de método lógico-matemático,
no sólo de una ciencia en particular, sino como paradigma en el estudio de la
ciencia en general, tal como para el positivismo lógico de principios del siglo
XX.
La
tendencia estadística designa el tipo de comportamiento de un fenómeno. En
Probabilidad Imposible los tipos de tendencia serán los siguientes, en modelos
normales, aquellos donde la dispersión varía entre cero o máxima, tendencia a
la igualdad de oportunidades o tendencia a la dispersión, y dentro de la
tendencia a la dispersión, lo que serían estudios de sesgo, identificando
tendencia de sesgo positivo o negativo. Mientras en los modelos omega, aquellos
que en Probabilidad Imposible se caracterizan porque de N sujetos u opciones
hay un subconjunto de sujetos u opciones ideales, entre dos y N menos uno
sujetos u opciones, lo ideal sería que el comportamiento tendiera a la
dispersión ideal.
El
método de estudio analítico de las relaciones formales de la tendencia
estadística será la aplicación de la lógica a la tendencia, y en Introducción a
la Probabildad Imposible aparece denominado como el método analítico del
silogismo de la tendencia.
De
este modo el silogismo de la tendencia, es decir, la lógica de la tendencia
será el método analítico para el estudio de las relaciones formales en la
estadística de la probabilidad o probabilidad estadística, del mismo modo que
la estadística de la probabilidad o probabilidad estadística será a su vez un
método particular de estudio en las ciencias sintéticas.
El
uso de la lógica como método analítico de relaciones formales entre elementos o
ideas, en matemáticas y geometría, se remonta a la antigüedad clásica, y si
bien se puede decir que uno de los primeros antecedentes es Pitágoras, el
matemático que sistematiza el uso de la lógica como método de estudio analítico
de las relaciones formales en una de sus disciplinas es Euclides, que de modo
brillante aplica la lógica al estudio de los elementos geométrico, empezando
por la definición de sus elementos más básicos, punto, línea, espacio, y
llegando a la elaboración de una teoría lineal, pero compleja.
El
método que usa Euclides para el establecimiento de los elementos en geometría
es la lógica, a partir de definiciones fundamentales establece relaciones
lógicas elaborando una teoría. El método euclideano no es otra cosa que la
aplicación de la lógica deductiva en el campo de las ideas matemáticas,
uno de los principales paradigmas de la antigüedad clásica. Método preconizado desde la filosofía por uno
de sus principales autores, Platón, que de forma brillante desarrolla el método analítico de la lógica
en el campo de las ideas filosóficas, que en puridad, el idealismo
platónico, es la utilización del método socrático, la definición de ideas
fundamentales a partir de cuyas relaciones lógicas establece una
teoría filosófica , en ausencia de contradicciones e incoherencias, pero
compleja, desarrollando un modelo filosófico en donde de forma lineal los
conceptos e ideas filosóficos se relacionan formalmente entre sí, en una
estructura jerárquica, en donde la cúspide viene dada por la idea de bien. Una
estructura sobre cuyas relaciones lógicas establece una teoría del alma, el
Estado, la virtud, y la sabiduría.
Si bien se carecen de muchos datos sobre las influencias platónicas en Euclides, se sabe que Eudoxo de Cnido, discípulo de Platón, ejerció una importante influencia sobre el geométrica alejandrino.
Si bien se carecen de muchos datos sobre las influencias platónicas en Euclides, se sabe que Eudoxo de Cnido, discípulo de Platón, ejerció una importante influencia sobre el geométrica alejandrino.
Se
puede decir que la tradición platónica-euclidea establece un primer paradigma que se basa sobre, a partir de la aplicación de la lógica
deductiva para el establecimiento de relaciones formales a partir de unas
definiciones fundamentales, la elaboración de un complejo esquema
científico-filosófico aunque sobre concepciones lineales.
Ya
en la modernidad la tradición platónica-euclidea, de construcción de teorías
científico-filosóficas sobre la lógica deductiva, será desarrollada por la
nueva ciencia a partir del Renacimiento, continuada por el racionalismo y el
racionalismo crítico del Barroco y la Ilustración, bases para el postivismo y
el estructuralismo durante el romanticismo y realismo del siglo XIX, y el
positivismo lógico y neopositivismo contemporáneo del siglo XX, y que a pesar de
sus críticas y limitaciones se puede decir que, de modo adaptado al nuevo
contexto paradigmático del siglo XXI ampliamente influenciado por las actuales
teorías del caos, la complejidad, la incertidumbre, y la relatividad. El método
analítico sobre la lógica deductiva, que en términos clásico se hubiera
denominado simplemente dialéctica, sigue siendo en la actualidad un potente
método de investigación científico-filosófica, donde a partir de unas
definiciones fundamentales, el establecimiento de relaciones lógicas entre
conceptos para la formación de nuevas teorías.
En
Probabilidad Imposible el modo en que se adapta la tradición euclideo-platónica,
de sobre el método lógico-deductivo la elaboración de una teoría analítica, es
el silogismo de la tendencia, que no es otra cosa que la aplicación de la
lógica a la tendencia estadística. A partir de una serie de definiciones
fundamentales en el primer apartado introductorio de Introducción a la
Probabilidad Imposible, estadística de la probabilidad o probabilidad
estadística, a saber, la definición analítica de qué es sujeto u opción,
puntuación directa o frecuencia, y sus relaciones entre sí, un primer concepto nuevo
y diferente dentro de probabilidad estadística, el concepto de probabilidad
empírica, igual a puntuación directa o frecuencia de sujeto u opción entre
sumatorio de puntuaciones directas o frecuencias.
Diferenciando
el tipo de uso de la información que aporte la probabilidad empírica
dependiendo del tipo de universo de la investigación. En universo de sujetos,
también llamado universo de sujetos u opciones infinitos, el cálculo de la
probabilidad empírica es igual a la puntuación directa entre sumatorio de
puntuaciones directas, siendo la puntuación directa la estimación de intensidad
de la cualidad estudiada del sujeto sobre una escala de medida. A diferencia de los estudios en universos de
opciones, también llamados de universos de opciones limitadas, por cuanto la
probabilidad empírica será igual a la frecuencia de sujeto u opción entre
sumatorio de frecuencia, siendo la frecuencia de opción en todo caso la
ocurrencia en que se ha manifestado dicha opción, y la frecuencia total igual
al sumatorio de todas las frecuencias de todas las opciones.
El
concepto de probabilidad empírica dialécticamente establece una relación formal
de igualdad entre sujeto u opción de un
lado, y de otro lado una relación formal de igualdad entre puntuación directa y
frecuencia, de modo que ya sea sujeto u opción, puntuación directa o
frecuencia, a los sujetos los trata como opciones, y las opciones como sujetos,
y las puntuaciones directas las trata como frecuencia y la frecuencia como
puntuación directa, de modo que finalmente en síntesis la probabilidad empírica
es igual a puntuación directa o frecuencia de sujetos u opción entre sumatorio
de todas las puntuaciones directas o frecuencias.
A
partir de esta definición la definición de probabilidad teórica se deriva del
concepto de probabilidad empírica, si empíricamente la probabilidad de un sujeto
u opción es igual a su puntuación directa o frecuencia entre el sumatorio, en
teoría en igualdad de condiciones para la ocurrencia o la estimación de
magnitud de la cualidad, el resultado debería ser idéntico para todos los
sujetos u opciones, luego la probabilidad teórica debería ser igual a la
probabilidad que todo sujeto u opción debería tener en igualdad de
oportunidades, lo que coincidentemente es igual al promedio del sumatorio de
las probabilidades empíricas. El cociente entre N del sumatorio de todas las
probabilidades empíricas será igual a la división de la unidad entre N, la
inversión de N, 1/N, lo que es lo mismo a la probabilidad que en teoría
deberían tener todos los sujetos u opciones en ausencia de sesgo, en igualdad
de oportunidades. De modo que la probabilidad teórica es igual a media aritmética
de las probabilidades empíricas.
El
único caso en donde media aritmética y probabilidad teórica no son idéntica
sería en la muestra de ceros, si se diera el caso que el valor empírico para
toda N fuera igual a cero, lo que sería que todas las probabilidades empíricas
fueran igual a cero, entonces aunque la probabilidad teórica seguiría siendo
igual a inversión de N, 1/N, la media aritmética sería en realidad cero. De
modo que en una muestra de ceros se da el caso que, aunque la muestra sea una
muestra de ceros, en tanto que la inversión de N, 1/N, es distinta de cero, la
Desviación Media y al Desviación Típica seguirán siendo inversión de N, 1/N,
dado que es el sesgo negativo promedio de todos los sujetos u opciones con
respecto la probabilidad teórica.
En
Probabilidad Imposible se llama siempre sesgo a la diferencia entre
probabilidad empírica y teórica, y se denomina Nivel de Sesgo normal de sujeto
u opción, de modo que el sesgo en el
Segundo Método de Probabilidad Imposible sería lo más parecido al concepto de
puntuación diferencial en la estadística tradicional, el primer método. Cuando
en una muestra hay una tendencia a incrementar las diferencias entre probabilidades
empíricas entonces hay una tendencia sesgada, en cambio si tiende a disminuir
las diferencia entre probabilidades empíricas entonces tiende a igualdad de
oportunidades.
En
Introducción a la Probabilidad Imposible, estadística de la probabilidad o
probabilidad estadística se dice que la bondad natural es el propio fenómeno
que siempre la suma de todo el sesgo positivo de una muestra es compensando por
la suma de todo el sesgo negativo, fenómeno que únicamente no ocurre en la
muestra de ceros, en donde no hay sesgo positivo que compense la suma de todo
el sesgo negativo.
Salvo
en la muestra de ceros, única excepción, la suma de todo el sesgo negativo de
una muestra es siempre idéntico a la suma de todo el sesgo positivo, motivo por
el cual el sumatorio del valor absoluto de todos los Niveles de Sesgo se
denomina Sesgo Total, y el Sesgo Total entre dos es igual al Máximo Sesgo
Empírico Teórico Posible, dado que si por bondad natural, salvo en muestras de
ceros, el sumatorio de sesgo positivo es igual al de sesgo negativo, y
viceversa, luego el sumatorio del valor absoluto de todo el sesgo positivo y
negativo es igual al Sesgo Total, entonces, en caso que sólo hubiera un solo sujeto
u opción que tuviera sesgo positivo, su Nivel de Sesgo normal positivo debería
compensar a todo el sesgo negativo de los demás sujetos u opciones que tuvieran
sesgo negativo. Y viceversa, si se diera el caso que toda N sólo hubiera un
sujeto u opción que tuviera sesgo negativo, entonces su Nivel de Sesgo normal
negativo debería por sí solo compensar a la suma de todos los sesgos positivos
de los demás sujetos u opciones. Luego independientemente de que sólo hubiera
un único sujeto u opción con sesgo positivo, o un único sujeto u opción con
sesgo negativo, su Nivel de Sesgo sería igual al Sesgo Total entre dos, de modo
que el Sesgo Total entre dos es igual al Máximo Sesgo Empírico Posible.
El
Máximo Sesgo Empírico Posible se diferencia del Máximo Sesgo Teórico Posible,
en que mientras el Máximo Sesgo Empírico Posible es el máximo sesgo que pudiera
tener un sujeto u opción dada una distribución empírica del sesgo, en cambio el
Máximo Sesgo Teórico Posible es el máximo sesgo que cualquiera sujeto u opción
en teoría pudiera alcanzar dadas unas condiciones de máxima dispersión.
Si
la probabilidad empírica como toda la probabilidad es un valor que puede
oscilar entre cero y uno, entonces lógicamente la Mínima Probabilidad Empírica
Posible es la probabilidad cero, mientras la Máxima Probabilidad Empírica Posible
es la probabilidad uno. Si la Máxima Probabilidad Empírica Posible es uno
entonces teóricamente su Nivel de Sesgo sería igual a uno menos inversión de N,
1/N, que sería entonces el Máximo Sesgo Teórico Posible que puede alcanzar
cualquier probabilidad empírica, dado que si el máximo valor de una
probabilidad empírica es uno luego uno la Máxima Probabilidad Empírica Posible,
entonces ninguna probabilidad empírica puede tener en teoría un Nivel de Sesgo
igual a uno menos inversión de N, 1/N, siendo así el Máximo Sesgo Teórico
Posible.
De
igual modo, si lógicamente el mínimo valor de una probabilidad es cero, luego
su Nivel de Sesgo sería cero menos inversión de N, dicho sesgo sería el Máximo
Sesgo Negativo Posibe.
De
modo que si en una muestra se dan las condiciones de máxima dispersión posible,
que de toda N de todos los sujetos u opciones sólo uno tuviera una puntuación
directa o frecuencia distinta de cero, luego sólo un sujeto u opción tuviera
probabilidad empírica distinta de cero, de modo que su probabilidad empírica
fuera igual a su puntuación directa o frecuencia entre el sumatorio, que siendo
todas las demás cero entonces el sumatorio sería su misma puntuación directa o
frecuencia, luego la probabilidad empírica sería igual a uno, es decir, Máxima
Probabilidad Empírica Posible, entonces ese sujeto cumpliría las condiciones
para que se diese el Máximo Sesgo Teórico Posible y Máximo Sesgo Empírico
Posible de forma simultánea.
Y
siendo que el Sesgo Total es igual a la suma de todos los sesgos, de modo que
la suma del sesgo positivo compensa a la suma de todo el negativo, y viceversa,
el Máximo Sesgo Teórico Posible sería igual al producto de Máximo Sesgo
Negativo Posible por N menos uno, luego la Desviación Media sería igual al
promedio del duplo del Máximo Sesgo Teórico Posible, siendo dicha Desviación
Media entonces la Máxima Desviación Media Teórica Posible, de la cual se deduce
la Máxima Varianza Teórica Posible, y la Máxima Desviación Típica Teórica
Posibles.
Esto
es sólo una pequea muestra de cómo en Introducción a la Probabilidad Imposible,
estadística de la probabilidad o probabilidad estadística, por la simple
aplicación de la lógica a la tendencia, en Probabilidad Imposible denominado silogismo
de la tendencia, del propio encadenamiento de premisas lógicas se elaboran
nuevos conceptos estadísticos, formulándose una teoría compleja que desarrolla
nuevos modelos de estadística descriptiva e inferencial.
A
partir nuevos estadísticos individuales y muestrales de tendencia central y
dispersión, por la simple aplicación de la lógica deductiva, se elaboran nuevos
modelos de contraste de hipótesis, individuales y muestrales, ya sea sobre la
crítica racional de diferencias o proporciones entre estadísticos empíricos y
teóricos, para estudios intramuestrales o intermedicionales, tal como propone Introducción
a la Probabilidad Imposible, estadística de la probabilidad o probabilidad
estadística.