Episteme en griego significa ciencia, y la epistemología especialmente a lo largo del siglo XX se constituirá como aquel ámbito de estudio que investiga la definición de ciencia, bases y composición de la ciencia en general, en sentido abstracto, o las ciencias particulares y sus disciplinas, y la clasificación o taxonomía y estructura o esquemas, morfología, de las diferentes ciencias, elaborando una teoría de la ciencia que incorpora o asume una teoría del conocimiento, gnoseología, sobre la que desarrolla una teoría del método científico, metodología, y de forma más general una teoría del cosmos, el universo, cosmología, sobre la ordenación de las sucesos en la realidad, lo que sucede.
En cualquier caso no debe confundirse o reducirse epistemología a gnoseología o metodología, tratándose de ámbitos de estudio diferentes, si bien, determinadas epistemologías pueden asumir dentro de sus esquemas determinadas teorías del conocimiento, y una determinada visión de cual debe ser el método de la ciencia, el llamado método científico.
Precisamente una de las críticas de Habermas al positivismo es la forma que, mientras hasta el siglo XIX una de las principales discusiones en filosofía era la teoría del conocimiento, a partir del auge del positivismo, será sustituido por la teoría de la ciencia, si bien, la teoría de la ciencia puede incorporar o asumir una teoría del conocimiento, en coherencia a la cual desarrolla una metodología, pudiendo ambas, gnoseología y metodología, ser parte de la epistemología, pero sin caer en el hipérbato de reducir el todo a sus partes o a una de sus partes.
De hecho, uno de los motivos por los que no conviene confundir gnoseología o metodología y epistemología, es porque si bien dentro de las teorías positivistas, empiristas, materialistas, o cuantitativistas en general, la epistemología engloba una visión de la gnoseología y la metodología, desde postulados metafísicos el conocimiento derivado de la ontología no se erige sobre los cánones pre-establecidos de ciencia, o la definición de metodología desde perspectivas cualitativistas o postmodernas desarrollan una teoría crítica al concepto en si de ciencia, evolución lógica de la ciencia moderna que inaugura la nueva ciencia iniciada por Copérnico, Galileo o Newton, que durante la modernidad, y la época contemporánea, sentarán las bases del paradigma de ciencia más aceptado por las instituciones científicas oficiales e internacionales, que se caracteriza porque, independientemente de su filosofía o política científica de referencia u origen, la ciencia se basa en hechos empíricos o razonamientos, lógicos o matemáticos, y en cualquier caso, en ciencias sintéticas, debe ser demostrable, ya sea empírica o matemáticamente.
En líneas generales las diferentes corrientes sobre la teoría de la ciencia se pueden ordenar en grandes perspectivas, o, bloques de teorías , paradigmas, habiendo diferentes clasificaciones según los criterios de clasificación que para el caso que se utilicen, una de ellas, sustancial para la teoría de la estadística y la probabilidad que se desarrolla en la obra, Introducción a la Probabilidad Imposible, es la clasificación según la forma de explicar o comprender las relaciones entre hechos y fenómenos, según se entiendan o interpreten producto de relaciones lineales o no lineales, o expresado de una forma más clásica, determinismo versus indeterminismo.
Otras clasificaciones, según la gnoseología de referencia, inductivistas o deductivistas, más estrictamente metodológicas, cuantitativas versus cualitativistas, así como diversas clasificaciones desde la historia de la filosofía y la filosofía de la ciencia, idealismo, racionalismo, racionalismo crítico, positivismo, materialismo dialéctico, relativismo, fenomenología, y más recientemente las teorías postmodernas, y las diferentes escuelas o subescuelas filosóficas en que se ramifiquen y deriven las mencionadas.
La clasificación que aquí se desarrollará, al ser sustancial para la teoría de la probabilidad y la estadística que desarrolla la Introducción a la Probabilidad Imposible, es la clasificación entre modelos lineales y no lineales, o en términos clásicos, deterministas e indeterministas, que parte de la distinción en la forma de entender el modo de relacionarse los sucesos empíricos, donde para los modelos lineales, tradicionalmente deterministas, la realidad es producto de secuencias lineales de causas y efectos, y el objeto de la ciencia la identificación y atribución causal de los factores, para el establecimiento de leyes universales e inmutables, preferiblemente escritas en lenguaje matemático, siendo estas ciencias las que se entenderán ciencias en sentido estricto o ciencias duras, el modelo o paradigma de ciencia desde el siglo XIX y buena parte del siglo XX, y remanente todavía hoy en la actualidad en determinados esquemas neopositivistas y empiristas.
En los modelos deterministas si “A entonces B”, el objeto de la ciencia es la identificación del factor A, causa, y del factor B, efecto, para el establecimiento de una ley universal, por ejemplo, dada dos masas diferentes la gravedad entre las mismas será igual al producto de sus masas entre la distancia al cuadrado, la gravedad, factor B, es efecto o producto de las masas, A, la causa de la gravedad, luego en ausencia de masas suficientemente elevadas como para generar campos de gravedad causará campos de ingravidez, una interacción de la gravedad que se puede medir y cuantificar matemáticamente.
A diferencia de los modelos lineales, donde se entiende que las ciencias son las ciencias exactas, ciencias duras, y a cuya imagen y semejanza surgen modelos en ciencias sociales, ciencias blandas, en el siglo XIX aparecen también los primeros modelos no lineales, aunque de forma embrionaría y sin ser todavía plenamente conscientes de la profunda revolución epistemológica que suponen. En filosofía, Hegel, sienta las bases de la idea de que factores insignificantes pueden ser determinantes, en física se establecen los cimientos de la mecánica cuántica, el experimento de rendija, y la termodinámica, el concepto de entropía será de vital importancia en muchos modelos no lineales actuales.
Hoy en día de hecho la tradicional distinción entre ciencias duras, ciencias exactas, y ciencias blandas, ciencias sociales, está desfasada a medida que los modelos no lineales han evolucionado hasta convertirse actualmente en un paradigma alternativo de ciencia.
De forma general , el modelo clásico de ciencia de carácter empirista fundado sobre leyes universales tiene su origen en la filosofía de Aristóteles, para quien la ciencia debe fundarse en hechos empíricos y deba partir de axiomas, principios y leyes universales. A esta visión de la ciencia se le llama axiomática, en tanto que se funda sobre axiomas, nomotética, por cuanto sienta leyes universales, y normativa, por cuanto la ciencia normativiza los procedimientos científicos y sociales de forma estricta, lo que es verdad es verdad independientemente de cualquier otro factor científico o social, en cierto sentido la visión secularizada del concepto de verdad, en tanto que verdad única y universal.
Los modelos no lineales, sin embargo, si bien pueden partir de axiomas, principios o leyes, por ejemplo el principio de incertidumbre, en ningún caso interpretan que sean únicos y universales en un sentido clásico, de universales en el espacio tiempo, más bien en los modelos no lineales cualquier posible relación entre sucesos está condicionada a unos factores de posibilidad, que hace que dichas relaciones sean posibles, pero no necesarias, es más, incluso se admite la posibilidad que las relaciones observadas y transformadas en base para una inferencia científica posiblemente sean falsas, aceptándose la posibilidad de error o falsedad de la inferencia, luego en cualquier caso, de aceptarse la universal cualquier conocimiento posible lo es sólo de manera provisional.
Si bien entre el paradigma determinista o lineal clásico o puro y el paradigma indeterminista o no lineal contemporáneo, en su forma más genuina la teoría del caos, forman una dimensión entre las que se clasifican diferentes epistemologías, lo que defienden las teorías no lineales o indeterministas, es que la realidad es una sucesión aleatoria o caótica, al azar, de posibilidades, no condicionada de forma fija e inmutable, de modo que de haber alguna relación posible entre A y B lo habrá dentro de un término de probabilidad posible.
Mientras las teorías deterministas o lineales la relación A y B es constante e invariable, por ejemplo a tanta masa, factor A, tanta gravedad, factor B, una relación proporcional entre A y B no sujeta a variaciones aleatorias, en las teorías no lineales cualquier relación entre A y B, por ejemplo masa y gravedad, está sujeta a unas condiciones de probabilidad e incertidumbre, en donde cabe la posibilidad de haber situaciones en donde dicha relación no sea posible.
Los modelos no lineales más que causales se definen por ser correlaciónales, en la medida que tienen por principal objeto de estudio la correlación entre variables, es decir, la proporcionalidad entre las probabilidades empíricas o teóricas entre variables múltiples, luego es el paradigma propio de las llamadas ciencias estocásticas, evolucionando hacia una ciencia de la complejidad en donde al mismo tiempo se combinan en un mismo estudio las correlaciones entre diferentes variables, dando lugar a estudios multivariable, multicausales o multicorrelacionales.
En los estudios correlaciónales más que el estudio determinista de un efecto para cada causa se estudia la probabilidad asociada a los factores de ocurrencia y sus posibles causas probables, en función de la existencia o no de una tasa suficiente de correlación entre probabilidades. La forma de discernir si esa tasa de correlación es suficiente es estableciendo criterios de verificación empírica, la razón crítica, que en Introducción a la Probabilidad Imposible toma la forma de probabilidad crítica, que establece la política científica para la verificación de la hipótesis sobre la que se estudia dicha relación entre variables.
En Introducción a la Probabilidad Imposible, se parte de una visión radicalmente no lineal e indeterminista, donde la realidad, lo que sucede, es una distribución aleatoria de sucesos, hechos o fenómenos, generados en el movimiento aleatorio de la materia en el espacio tiempo, la historia, movimiento que se concreta o materializa en secuencias de accidentes y contingentes, algunos de los cuales, por simple ley de probabilidades, ley del azar, puede generar patrones de comportamiento estable, unos patrones estables de comportamiento que en cualquier caso quedan siempre sujetos al libre albedrio del azar, el cual, de la misma forma que los genera, aleatoriamente, los puede igualmente deshacer aleatoriamente, de forma que la realidad, o en un sentido trascendente, lo que trasciende, la historia, lejos de estar condicionada a leyes universales y eternas, la historia es un simple juego de probabilidades, donde por su propia naturaleza accidental nada de lo que parece es absolutamente necesario o determinante, al mismo tiempo es el conjunto global de todos los sucesos, ocurrencias, lo que determina y da una posible orientación y sentido a la evolución lógica de los acontecimientos, creando cada ocurrencia previa el abanico de posibilidades en las que deben distribuirse los sucesos posteriores, y así en subsiguientes ciclos, en el devenir de lo que pasa, la historia del movimiento aleatorio e inherente de la materia, y donde cualquier inferencia estadística de la muestra al universo, cosmología, es una inferencial universal provisional, en la medida que se aceptan márgenes de duda y profundo escepticismo, la razón crítica, desde una interpretación deductivista para las ciencias sintéticas, el método hipotético deductivo.
La epistemología o discurso de ciencia, tradicionalmente de corte determinista y lineal, al menos desde la filosofía aristotélica, visión, aunque críticamente, compartida por la nueva ciencia, en la medida que la ciencia se fundamenta en axiomas, principios y leyes, establecidos sobre hechos empíricos y lineales, secuencia estables causales, es una visión o paradigma de la ciencia que ha sufrido una importante transformación desde el siglo XX evolucionando las ciencias hacia una visión indeterminista y no lineal, en donde en realidad nada determinada nada, salvo el azar mismo, siendo la realidad en sí misma una variable aleatoria en donde no existen leyes fijas e inmutables, luego de ser posible la inferencia estadística lo será sobre un margen de duda racional, una relativa incertidumbre. Es precisamente dentro de esta visión de la ciencia donde Introducción a la Probabilidad Imposible desarrolla una teoría estocástica para las ciencias sintéticas, desde una construcción lógico matemática de la estadística y la probabilidad.
Derivada de esta visión no lineal o indeterminista en Introducción a la Probabilidad Imposible se desarrolla una estructuración de las ciencias totalmente diferente a la epistemología clásica, determinista o lineal.
La epistemología determinista o lineal, de todas la más paradigmática la aristotélica, estructura la ciencia sobre, desde arriba primero, la definición de los axiomas, de los cuales se deducen los principios fundamentales, y de la síntesis de axiomas y principios a las observaciones, las leyes naturales, a cuya imagen y semejanza el positivismo y el estructuralismo de los siglos XIX y XX hacen las leyes sociales.
En la forma en que la epistemología clásica construye los cimientos de la ciencia desde arriba, recuerda a la geometría euclideana, que parte de las definiciones generales más fundamentales para después elaborar todo un discurso de la geometría.
Frente al método de la construcción de la ciencia desde arriba, la opción alternativa es la construcción de la ciencia desde abajo.
Si en el apartado 13 en Introducción a la Probabilidad Imposible se explica la forma en que los modelos no lineales, y en particular Probabilidad Imposible, entienden que la realidad es un accidente producto del azar, la realidad es en sí misma una variable aleatoria, en los dos últimos apartados, 24 y 25, acerca de la definición de modelo y sobre la hipótesis empírica, se hace un esbozo de la base epistemológica de Probabilidad Imposible, que viene definiéndose y explicándose a lo largo de toda la obra.
La ciencia, más que estructurarse sobre axiomas, principios y leyes, si bien estás no le son ajenas, en realidad la ciencia se construye sobre hipótesis, posiblemente falsas en un margen de error, de duda o escepticismo, aunque provisionalmente las aceptemos verdaderas, hipótesis sobre las cuales, y aunque posiblemente sean falsas, se elaboran las teorías, teorías sobre los que se desarrollan modelos, modelos sobre los cuales se desarrollan los grandes paradigmas de la ciencia. Un paradigma en sentido general pueden ser los paradigmas deterministas o los paradigmas indeterministas, un paradigma en un sentido particular puede ser por ejemplo el positivismo, el racionalismo crítico, o al materialismo dialéctico, y de forma ecléctica un paradigma puede ser producto de la síntesis de diversos paradigmas, por ejemplo Probabilidad Imposible síntesis ecléctica de diferentes escuelas filosóficas.
De esta forma, la forma en que Probabilidad Imposible aborda la construcción de la ciencia no es mediante la definición a priori de los axiomas, principios, sobre cuya síntesis a los datos observados elaborará las leyes naturales o sociales, en la medida que realmente lo único a priori que hay en la ciencia son las propias ideas e ideologías de la ciencia o sobre la ciencia.
Es más, mientras para la epistemología clásica el método científico llegaba a reducirse a sólo método experimental, y las únicas ciencias puras o ciencias duras eran las ciencias exactas o en ciencias naturales, las ciencias experimentales, motivo por el cual surgirán las ciencias comparadas dentro de las ciencias sociales, en Probabilidad Imposible se parte de una definición más general de ciencia, donde se integran las ciencias analíticas y las ciencias sintéticas, siendo sobre aquellas ciencias sintéticas que sean estocásticas sobre las que tiene lógica la teoría de la estadística y la probabilidad, sean sociales o naturales.
En el caso de las ciencias sintéticas, y dentro de las sintéticas más concretamente las ciencias estocásticas, en Introducción a la Probabilidad Imposible se desarrolla una teoría particular de la ciencia en donde es a partir de las hipótesis empíricas suficientemente racionales sobre las que se estructuran las teorías, de forma que una o más hipótesis racionales pueden formar una teoría, y una o más teorías combinadas formar un modelo, u uno o más modelos combinados entre sí formar un paradigma.
La ciencia en lugar de construirse sobre la diferenciación entre axiomas, principios y leyes, en Introducción a la Probabilidad Imposible, especialmente apartados 24 y 25, se desarrolla a partir de la diferenciación entre hipótesis empíricas, teorías, modelos y paradigmas, en donde los diferentes paradigmas entre sí luchan por transformarse en el paradigma de la ciencia, según la ciencia deviene sucesivamente en crisis y revoluciones científicas.
El científico en particular y la política científica en general, más que partir de una cosmovisión previa o a priori de la ciencia, axiomas o principios, parte de unas ideas subjetivas no exentas de variables ideológicas y políticas, en un sentido particular, y en un sentido general, toda una política científica sujeta a variables ideológicas y políticas e institucionales, las instituciones que financian y avalan la investigación científica. En esencia la verdad es, además de una cuestión científica, la verdad es una cuestión política, y dependiendo de la corriente ideológica o política de pertenencia cada política científica, dirigirá sus investigaciones y establecerá como verdades científicas lo que para dicho modelo de política científica es verdad.
Más que partir de apriorismos supuestamente neutros, axiomas y principios universales en el espacio tiempo, atemporales o ahistóricos, hay que partir de que los verdaderos apriorismos de los que realmente parte la investigación, las ideas previas del investigador, síntesis de muchas variables, personales y sociales, políticas ideológicas, históricas y subjetivas, ideas sobre las que se sustenta la política científica de la persona, investigador, o la institución, ideas o ideologías y políticas previas, a las cuales se sintetizan los datos observados de la realidad y las informaciones adquiridas a través de la mediación social, elementos todos ellos, ideas e ideologías políticas y datos observados, premisas sobre cuya síntesis o deducción lógica se establecen las hipótesis empíricas.
De esta forma, si bien dentro de la epistemología tradicional, de base empirista, o dentro de muchos modelos no lineales de base correlacional, la metodología es inductivista, sin embargo a diferencia de estas teorías Introducción a la Probabilidad Imposible propone una metodología claramente deductivista, tanto para ciencias analíticas o sintéticas, y en las ciencias sintéticas el método hipotético-deductivo, en la medida que de la síntesis de los esquemas previos, informaciones, ideas e ideologías previas y nuevas informaciones, sensoriales o mediadas, son las premisas lógicas de las cuales se deducen las hipótesis empíricas, que de ser suficientemente racionales a la luz de la razón crítica, establecida a priori por la política científica, se categorizarán provisionalmente verdaderas.
A partir de hipótesis empíricas suficientemente racionales se elaboran teorías, sobre las teorías modelos, y sobre los modelos los paradigmas, en la medida que una o más hipótesis pueden formar una teoría, una o más teorías pueden formar un modelo, uno o más modelos pueden formar un paradigma, entrando todos los paradigmas en lucha por la hegenomonía paradigmática en la política científica e institucional, ser el paradigma de la Revolución Científica.
Las Revoluciones Científicas pueden ser a consecuencia de revoluciones tecnológicas que impliquen una revolución en la ciencia, o a consecuencia de una crisis en la ciencia a causa de que el anterior paradigma admitió márgenes de error demasiado elevados en sus hipótesis y deba sustituirse por un nuevo paradigma más isomorfo con lo que ocurre en la realidad. Las crisis son consecuencia directa del margen de error entre teoría y realidad, una paradigma cuyos modelos científicos, en ciencias naturales o sociales, y su política respectiva, se sustente sobre márgenes demasiado elevados, entrará en contradicciones cíclicas cada vez más recurrentes entre su teoría y la realidad misma, pudiendo poner en peligro la existencia misma de la humanidad, si el paradigma de la política científica no rectifica por una teoría cuyo margen de error sea menor, luego más congruente.
En caso que una determinada política científica, habiéndose producido una crisis entre teoría y realidad, no quiera cambiar su modelo de paradigma por un paradigma más congruente con la realidad, las crisis científicas pueden ser cíclicas en permanentes estadios de crisis, dentro de los ciclos de crisis o error ente teoría y realidad, mientras que una política científica más abierta a las adaptaciones o transformaciones o ciclos de cambio entre teoría y realidad, conforme las hipótesis anteriores se vayan demostrando falsas y se vayan cambiando por nuevas hipótesis más verdaderas, es un modelo de política científica que progresará exponencialmente conforme permita y de rienda suelta al exponencial progreso de las ciencias y las tecnologías, un progreso que debe ser al mismo tiempo científico-tecnológico y social, en la medida que la política científica dirija los proyectos de investigación para el desarrollo y aumento exponencial del libre albedrio y la igualdad de oportunidades, en las nuevas sociedades.
Rubén García Pedraza, Madrid a 3 de agosto del 2013