El motivo por el que
indeterminación e incertidumbre se han encontrado ligadas en la física, y en
general al positivismo, se debe a que si certeza es cuando la probabilidad asociada a un
acontecimiento es igual a uno, “1”, lo que en Probabilidad Imposible se denomina Máxima Probabilidad Empírica Posible,
dado que la probabilidad es un término matemático que sólo puede oscilar
entre cero, “0”, y uno, “1”, cuando se dice que la probabilidad de ocurrencia
de un suceso es igual a uno, “1”, entonces
hay absoluta certeza de que ese suceso vaya a ocurrir, no habiendo la más
mínima duda de que pueda no suceder. En tal caso la certeza de ocurrencia es absoluta, determinación.
Sólo si la probabilidad de
un fenómeno es inferior a la unidad, “1”, aunque mayor a cero, “0”, se dice que
se hay un nivel de incertidumbre proporcional a la diferencia de la unidad, “1”
menos esa probabilidad.
En función del nivel de
incertidumbre, diferencia de uno, “1”, menos la probabilidad de ocurrencia, se
asignará un grado de incertidumbre al fenómeno, y sólo si el nivel de
incertidumbre es cero habría certeza absoluta. Salvo este caso, la
incertidumbre es proporcional a la diferencia de la unidad, “1”, menos la
probabilidad de ocurrencia.
Siempre que en un modelo de ciencias sintéticas, naturales o
sociales, no hay absoluta certeza de lo que puede suceder, es un modelo de
indeterminación estocástica cuyo estudio depende de la utilización de métodos estocásticos, la estadística y
la probabilidad. En el caso de Probabilidad Imposible, a través del
campo de estudio que supone la estadística de la probabilidad o probabilidad estadística, para lo cual
se genera una serie de métodos de estudio alternativos, el Segundo Método, el Impacto del Defecto, la Distribución Efectiva, y los estudios
de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible,
estadística de la probabilidad o probabilidad estadística.
Se dice que un modelo de
causalidad está sujeto a índices de probabilidad, causas probables, cuando no
hay evidencia suficiente empírica que
demuestre una vinculación clara y directa entre causa y efecto, de modo que la
relación de causa y efecto es sólo probable. El ejemplo que suele citarse en Introducción ala Probabilidad Imposible,
estadística de la probabilidad o probabilidad estadística, es
la probabilidad del arco-iris . Si bien sabemos que cuando un rayo de luz
penetra una gota de agua produce el efecto óptico de la fragmentación del
espectro de colores de la luz, el hecho que llueva durante el día, dándose las
condiciones de posibilidad del arco-iris, no es motivo o causa suficiente que
determine la aparición del arco-iris, lo único que podemos saber es, sobre
número total de días de lluvia observados, cuantos días ha salido el arco-iris,
luego la probabilidad empírica de aparición del arco-iris será igual a número
de días de lluvia observados que ha salido el arco-iris, entre el número total
de días de lluvia observados.
El hecho que llueva no
es causa determinante o automática de la aparición del arco-iris, es un
fenómeno que sólo se produce bajo determinadas condiciones de posibilidad
estocásticas, las cuales se pueden medir estadísticamente en forma de
probabilidad, en Probabilidad Imposible la probabilidad
empírica.
De otro lado se pueden dar
fenómenos en donde sin haber una relación unívoca o unidireccional de causa y
efecto, se pueden dar correlaciones positivas o negativas, a causa de la
interacción o retroalimentación mutua. En este tipo de escenarios, más que
relaciones de causa y efecto, en la medida que los fenómenos interactúan
y se retroalimentan entre sí, lo más conveniente es hablar de correlación, la
cual puede ser directa o inversa.
Se dice correlación directa
cuando la relación entre una serie de elementos es directamente proporcional,
en donde el factor de correlación es el valor cuantitativo en que se relacionan
de forma positiva los elementos estudiados. Si en un modelo se observa
una serie de elementos un crecimiento, sea en igual o desigual medida o
proporción, se dice que hay correlación positiva en la medida que todos
incrementan su valor, ya sea un crecimiento igual o desigual, pero siempre que
en todos se manifieste crecimiento, siendo el valor numérico de la correlación
positiva el factor de correlación en el crecimiento entre las diferentes variables.
Correlación inversa es
cuando hay una correlación inversamente proporcional, si disponemos de dos
elementos, y en tanto que una crece el otro decrece, o varios elementos, en
donde mientras un conjunto de elementos crece el otro decrece, se dice que hay
correlación inversamente proporcional entre el valor que crece y el otro que
decrece, o correlación inversamente correlacional entre el conjunto que crece y
el otro conjunto que decrece.
Los motivos por los que dos
o más variables pueden correlacionar son diversos, ya bien por simple
simultaneidad coincidente, o bien porque dicha coincidencia se produce
por algún conjunto de factores subyacentes en un contexto
común a los fenómenos, que los desconozcamos, y sea la causa probable de su
aparición, o sea una correlación debida a la propia influencia mutua entre los
factores que se estudian, interacción o retroalimentación. Además de que sea
una correlación debida a un modelo de causalidad probable, en donde la
ocurrencia de un suceso normalmente correlacione favorablemente con otro
posterior del cual sea causa probable.
Una de las características
de la ciencia contemporánea es que
frente los modelos deterministas clásicos de relaciones absolutas de causación,
la ciencia contemporánea tiende más al estudio de los niveles de causación
probable o correlación, ya sea en estudios sobre la relación entre dos
variables, o multi-variable.
El hecho que se admita la
existencia de ámbitos empíricos de indeterminación estocástica, ha sido
utilizado por algunos paradigmas para oponerse frontalmente a cualquier visión
nomotética y normativa, sin embargo es curioso que mientras los paradigmas
idiográficos han hecho uso de este argumento para reivindicar una ciencia
cualitativa, especialmente en ciencias sociales, en el campo de las ciencias
naturales la aceptación de la incertidumbre y la indeterminación empírica,
lejos de suponer el rechazo a la formulación de leyes naturales, ha sido un
elemento sobre el cual se ha articulado una revisión conceptual de la
estructura de la ciencia, que mantiene la necesidad de leyes sobre lenguaje
matemático, tal como ya proponía Galileo, operando una redefinición en la
función leyes científicas, adaptándose a los nuevos escenarios de incertidumbre
y relatividad.
Mientras en ciencias
sociales el impacto del relativismo y la incertidumbre, o las nuevas teorías de
la complejidad y el caos, han llevado a nuevos modelos científico sociales en donde
se pone en duda el valor de las leyes científicas y el uso de metodologías
cuantitativas, en ciencias naturales la forma en que se ha operado esta
transformación en la comprensión de la ciencia es hacia un modelo de ciencia en
donde la interpretación de las leyes naturales queda sujeta a grandes márgenes
de indeterminación e incertidumbre, entendiéndose un necesario margen de
libertad a los fenómenos, comprendiendo que cualquier predicción posible carece
de certeza absoluta, habiendo márgenes de error en las afirmaciones y
predicciones.
Es precisamente en los años
en que Planck, Einstein, Heisenberg, Schrondinger y los primeros grandes
teóricos de la mecánica cuántica y la cosmología de principios del siglo XX
hacen sus descubrimientos más importantes, cuando emerge con toda su fuerza el
positivismo lógico, en un momento de las ciencias naturales en donde se avanza
al relativismo y el indeterminismo, momento en que esta escuela desarrolla una
ciencia claramente nomotética. Si se observa las revelaciones científicas de
principios del siglo XX, ninguno de los grandes físicos teóricos de la época
pone en cuestionamiento las leyes científicas, lo que hacen es advertir que lo
que las leyes científicas manifiestan es que la ocurrencia de sucesos queda
sujeta a grados de posibilidad. Lo que se opera es un cambio de un modelo
nomotético determinista a un modelo nomotético indeterminista. En ningún
momento se produce una ruptura frente a Galileo, quien ya propone en las
ciencias naturales el establecimiento de leyes naturales sobre lenguaje
matemático, sólo se produce una ruptura frente al determinismo aristotélico.
El determinismo clásico, el
determinismo aristotélico, por el cual la realidad es una secuencia determinada
y ordenada de relaciones causa-efecto, completamente predecibles en la teoría
de probabilidad de Laplace, que en su origen se deben a un primer motor, o
causa primera, lo que en la metafísica escolástica se vincula a la idea de
Dios, es un determinismo que si bien todavía hoy tiene importantes defensores,
la idea de que el universo y la realidad es una secuencia predecible de causas
y efectos que tiene por origen el Big Bang, sin embargo a medida que las
ciencias se desarrollan el determinismo clásico está siendo abandonado por
nuevos modelos de determinismo más sofisticados, lo que sería en realidad un
neo-determinismo.
El determinismo clásico
aristotélico parte de la idea de que todo está determinado por relaciones de
causalidad, ahora bien, en la medida que esta idea ha sido fuertemente
criticada desde las ciencias en el siglo XX, el determinismo clásico ha sido
abandonado por nuevos modelos neo-deterministas, en donde si bien admiten
márgenes de indeterminación, incertidumbre, o relativismo, entienden la
determinación de la realidad en base a determinados reduccionismos.
Mucho de los reduccionismos
de las ciencias sintéticas del siglo XX, y que encuentran diversos correlatos a
inicios del siglo XXI, son en realidad neo-determinismos adaptados a las nuevas
circunstancias que rodean a la filosofía y la ciencia.
Un ejemplo de
neo-determinismo es el fisicalismo del siglo XX, una corriente que surgirá
dentro del positivismo, según la cual todos los procesos naturales o sociales
están determinados por los procesos físicos subyacentes. El fisicalismo del siglo
XX en ningún momento rechaza la incertidumbre o la indeterminación de la
física, ahora bien, aceptando que la física es una ciencia estocástica, luego
indeterminada, establece que todas las demás ciencias y disciplinas científicas
de uno u otro modo quedan determinadas por las relaciones estocásticas de la
física. El fisicalismo supone un neo-determinismo por cuanto ya no defiende el
determinismo clásico de Aristóteles, en la medida que acepta la
indeterminación, la incertidumbre y el relativismo, es decir, acepta que la
física es una ciencia estocástica no sujeta a determinaciones causales
universales, pero sin embargo determina que todo cuanto pueda suceder en la
naturaleza y la sociedad, y pueda ser estudiado por las demás ciencias
naturales o sociales, son procesos determinados y supeditados a las relaciones
estocásticas de la física.
De igual modo, muchos de los
reduccionismos del siglo XX, por ejemplo el biologismo, según el cual todo
queda determinado por la biología, incluso la teoría del conocimiento que depende de
la fisiología, fisiologismo, o el economicismo según el cual todo queda
determinado por la economía, en el caso del conocimiento por los intereses
económicos, el psicologicismo por el cual todo está determinado por la
psicología, y por supuesto la psicología del conocimiento, o el sociologismo
según el cual todo queda determinado por las relaciones sociales, siendo el
conocimiento una construcción social. Todo reduccionismo a su forma, aceptando
en aquello sobre lo que hace la reducción un margen de indeterminación, todo lo
demás queda determinado .
Aunque el biologismo pueda
entender un margen de indeterminación en las relaciones biológicas,
posteriormente todas las demás funciones humanas, sociales, económicas,
culturales, quedan determinadas sobre las funciones de indeterminación
biológicas. Es un neodeterminismo por cuanto entiende que hay un margen de
indeterminación biológica, pero es sobre ese margen de indeterminación
biológica sobre lo que se determina todo lo demás. En el economicismo sucede
exactamente lo mismo, entendiendo que en las leyes del mercado, o cualquier
otra ley económica hay márgenes de indeterminación, es sobre los márgenes de
indeterminación de la economía sobre lo que posteriormente determina todas las
demás funciones humanas. En el psicologicismo, aunque hay márgenes de
indeterminación en la psicología humana, todas las demás funciones se supeditan
y quedan determinadas por la psicología. Y en el sociologismo, aunque haya un
margen de incertidumbre social, es sobre la incertidumbre social lo que se
determinan todas las demás funciones.
Las críticas a este tipo de
neo-determinismos en la epistemología y la filosofía del
siglo XX han sido diversas, por la complejidad a la que tienden las ciencias
hoy en día que escapan a la reducción o simplificación de todo a unos pocos
factores. De un lado las ciencias físicas avanzan hacia una explicación del
todo, tal como propone la Teoría de Cuerdas, lo cual supone un progreso hacia
la unificación de la ciencia, aunque dentro de este tipo de teorías siempre hay
riesgo de fisicalismo, si es que no riesgo de pitagorismo, y de otro lado, las
nuevas teorías de la complejidad, que avanzan hacia una visión compleja en
principio no reductible, aunque en algunas interpretaciones de este paradigma hay riesgo de biologismo,
aunque sería más correcto decir vitalismo, por lo importante que ha sido la
biología, y las reminiscencias de la metafísica vitalista, en el origen de las
ciencias de la complejidad.
En la dialéctica entre
determinación e indeterminación, a menudo se observa como paradigmas en
principio no deterministas evolucionan a postulados deterministas, y viceversa,
una ciencia históricamente determinista como ha sido la física a partir de
Heisenberg tendrá importantes desarrollos indeterministas en el campo de la mecánica
cuántica.
A lo largo de la historia de la filosofía y la ciencia
se observa una sucesión de paradigmas, a veces en una evolución en ciclos
pendulares, en donde la filosofía y la ciencia, en su evolución cíclica,
evolucionan yendo de un extremo a otro. Siendo en sus inicios el determinismo
parte integrante de la ciencia, hasta finales del siglo XIX y principios del
siglo XX, momento en que la crítica a este tipo de modelos, junto con la
crítica que en el siglo XIX se hace a la lógica lineal y la geometría
euclidiana, llevará a nuevos modelos de lógica, y nuevas formas de entender la
realidad, en donde al tiempo que aparecen nuevos neo-determinismos, la
incidencia del indeterminismo ha sido de enorme influencia.
Este cambio de paradigma
científico tendrá mucha relación con los cambios que se ha producido desde la
Ilustración, en donde hay una clara reivindicación del concepto de libertad,
abandonando cualquier determinación absoluta sobre el comportamiento humano, a diferencia
de épocas anteriores, por ejemplo la Reforma calvinista, en donde el
comportamiento humano era una función determinada por parámetros religiosos.
Indeterminación y libertad
tendrán una amplia repercusión en ciencias sociales, y especialmente en
política, donde a medida que desde el siglo XIX triunfen las revoluciones democráticas, aparecen
nuevos discursos liberales, de social-democracia, socialistas, y libertarios,
haciendo un discurso sobre la importancia de la libertad del ser humano, y como
la voluntad debe quedar libre de cualquier tipo de atadura, especialmente
supersticiosa o metafísica, surgiendo así nuevos paradigmas en la ciencia, como el materialismo
moderno, el positivismo o el nihilismo.
La indeterminación en la
medida que supone ausencia de determinación, implica un margen de escepticismo
empírico o duda racional en el conocimiento de lo que sucede, que de facto en
la teoría de Probabilidad Imposible lleva a un
margen de nihilismo lógico, dentro de los
márgenes de error de la razón crítica.