La razón por la cual la máquina de Turing fue capaz de decodificar la
máquina Enigma, independientemente de que los ingenieros alemanes fueran
hegelianos (lógica dialéctica: A=A, A≠A, A=B, A≠B, B=B), o neopositivistas
(lógica formal: A=A, A≠B, B=B) y la máquina de Turing se fundamentase en la
lógica formal, es porque ambos , Enigma y Turing, más allá de que la lógica de partida fuera dialéctica o formal, partían por igual de la lógica de la diferencia.
Va a llegar un momento en la historia de la investigación de la lógica,
que el hecho de la aceptación o rechazo del principio de la identidad de los
opuestos, no va a ser un elemento realmente distintivo de la lógica humana.
Desde su origen en 2001 el modelo lógico de Probabilidad Imposible es la
lógica dialéctica, lo cual se ve claramente en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en el modo en que se basa en el
principio de identidad de los opuestos, que se percibe claramente en el modo
que, para Probabilidad Imposible, los estadísticos de dispersión y tendencia central son los mismos.
La inversión de N, 1/N, es al mismo tiempo media aritmética y
probabilidad teórica de dispersión. La probabilidad empírica máxima, p(xi+), es
moda y probabilidad empírica de mayor sesgo positivo, es decir, la mayor
dispersión individual positiva. La Desviación Media, [(1 – p(xi))2]:N, que
tradicionalmente se considera estadístico de dispersión, en realidad es la
tendencia central de las desviaciones individuales.
El modo en que la aplicación de determinados principios lógicos
dialécticos, entre ellos la identidad de los opuestos, ha influido en
Probabilidad Imposible, es notoria, en la medida que de un modo u otro siempre
he buscado que una determinada formulación tuviera algún tipo de significado
tanto para la investigación de una función como para su opuesta.
Pero si realmente la lógica formal y lógica dialéctica fueran completamente
distintas, las deducciones que se derivasen serían
completamente diferentes. Y sin embargo, siendo antagónicos, los algoritmos matemáticos
sobre los que trabajan son los mismos. Lógica formal y lógica dialéctica, en
tanto que opuestas, son idénticas.
El hecho que desde un principio hubiera tomado como modelo lógico la dialéctica,
en lo que realmente ha repercutido es en una mayor libertad creativa en las formulaciones: una ecuación podría tener tanto sentido para el desarrollo de una función como su
opuesta. Pero más allá de la libertad que da la aceptación de los postulados
A≠A y A=B, los algoritmos básicos de partida: suma, resta, multiplicación y
división, son los mismos que para cualquier otro modelo matemático conocido. Lo
que varía es la forma de comprenderlos, interpretarlos, y combinarlos, dando
lugar a nuevas ecuaciones.
A igual que nuevas combinaciones sobre las letras de un alfabeto existente dan lugar a neologismos. Las palabras, las ecuaciones, pueden ser
nuevas, el alfabeto y los símbolos matemáticos, los de siempre, y las
operaciones lógicas anteriores de partida, las mismas.
Es completamente irrelevante que los ingenieros alemanes encargados de
Enigma fueran hegelianos o neopositivistas, y es completamente irrelevante que
Turing fuera un exponente más del empirismo tradicional británico.
Independientemente de sus esquemas iniciales, hegelianos o aristotélicos,
ambas máquinas, Enigma y Turing, partían de una lógica anterior común, la
lógica de la diferencia.
La razón por la cual ahora mismo hay mensajes encriptados nor-koreanos
que puedan ser desencriptados por la inteligencia estadounidense, y viceversa,
mensajes encriptados estadounidenses que puedan ser desencriptados por
ingenieros nor-koreanos, es porque independientemente que los ingenieros
nor-koreanos se basen en la lógica dialéctica marxista, y los ingenieros
estadounidenses mantengan la tradición positivista, lo cierto es que, las
operaciones puras de base de ambos modelos son las mismas, la lógica de la
diferencia.
Y es el hecho de que ambos modelos lógicos, dialéctico o formal, parten
de una misma lógica ulterior subyacente, la lógica de la diferencia, permite que los lenguajes lógico matemáticos derivados de ambos modelos sean
conmensurables, luego desencriptables.
Es decir, ya se acepte, dentro del sistema de proposiciones, o no que:
A≠A, A=B. El hecho fundamental que para llegar a estas proposiciones, origen de
la controversia entre lógica aristotélica y hegeliana, primero haya que
diferenciar, de forma clara y distinta, entre A y B, y diferenciar que A=A y
A≠A son dos expresiones diferentes, y antagónicas, y diferenciar que la
proposición A≠A llevaría a A=B, luego B≠B, al mismo tiempo que B=B. Ya sea para
que la lógica aristotélica rechace estas proposiciones, y la lógica hegeliana
las acepte, previamente ha habido una operación pura ulterior de fondo. La
operación pura anterior, luego un analítico anterior, sería la operación de
diferenciar entre A y B, y la operación de diferenciar entre las posibles
relaciones entre A y B: A=A, A≠A, A=B, A≠B, B=B.
La operación pura anterior a cualquier otra lógica humana, formal o dialéctica,
aristotélica o hegeliana, de izquierdas o derechas, es la operación analítica de la diferencia: diferenciar cada cosa (A y B), y cada relación entre cada
cosa (A=A, A≠A, A=B, A≠B, B=B), de forma clara y distinta.
A partir del principio de diferencia, y a partir de operativizar el
principio de la diferencia, la operación pura de diferenciar cosas y relaciones entre sí, es
cuando comienza en realidad el método científico: es la base del método analítico, lo cual en cierto modo nos lleva a Descartes como fundador del método
analítico en el cual descansa hoy en día el neopositivismo y el racionalismo crítico.
Muy posiblemente especialmente a medida que se desarrolle la Inteligencia Artificial, es en donde las discusiones entre lógica formal y lógica dialéctica perderán parte de la relevancia que tuvo un día, por la sencilla razón de que,
ya sea que un modelo de Inteligencia Artificial sea desarrollado bajo la lógica
dialéctica, de izquierdas o derechas, hegeliana o marxista, o un modelo de
Inteligencia Artificial sea desarrollado bajo parámetros neopositivistas o
racionalistas críticos, independientemente del paradigma lógico en la
construcción de ese modelo de Inteligencia Artificial, ambos modelos, como lo
fueron en su día Enigma y la máquina de Turing, serán completamente
conmensurables, por la sencilla razón que más allá de la aceptación o rechazo
del principio hegeliano de la identidad de los opuestos, ambos modelos (A=A,
A=B), parten de un analítico anterior común: el principio de la diferencia
entre A y B.
Ya sea que se acepte A igual a A o a B, hay un análisis anterior: A y B
son diferentes.
El hecho que dos lenguajes (lógicos, matemáticos, o verbales) se
construyan sobre principios analíticos anteriores comunes, es lo que de un modo
u otro posibilitará la conmensurabilidad entre lenguajes. Sin esa condición de
posibilidad, existencia de analíticos anteriores comunes, dos lenguajes, sean
lógicos, matemáticos, o verbales, serían incomensurables.
El analítico anterior que supone el principio de diferencia, es anterior
a cualquier sistema lógico, matemático, o verbal, humano. No sólo a nivel
lógico matemático distinguimos entre A, B y C, y sus posibles relaciones de
conjunto, geométricas, y algorítmicas (suma y resta, división y
multiplicación), a su vez todo el lenguaje humano se encuentra basado en este
principio, habiendo una serie de universales linguisticos que descasan a su vez
sobre el principio de la diferencia: diferenciamos entre sujeto y predicado,
entre nombres, pronombres y verbos, adjetivos, y adverbios, entre enunciados
oracionales y no oracionales, oraciones simples y oraciones compuestas,
oraciones compuestas conjuntivas y subordinadas, oraciones compuestas
subordinadas nominales, adjetivales, adverbiales, etc….
Expresamos a través del lenguaje ideas concretas a partir de
percepciones y observaciones, ideas complejas a partir de ideas abstractas o
emociones, e ideas compuestas a partir de combinar ideas concretas y complejas,
e incluso a partir de observaciones la deducción de hipótesis que sometemos a crítica.
Cuando sometemos a crítica nuestras hipótesis diferenciamos entre las variables intervinientes, y porque somos críticos con nuestra propia condición
humana, y conscientes de nuestras limitaciones, sólo incluimos entre las
variables aquellas que creemos significativas, porque sabemos bien que sólo
podemos trabajar con un número limitado de variables, y entonces diferenciamos
entre variables significativas, que asumimos dentro del modelo, y descartamos
las demás quedando fuera del modelo. Y en función de si una variable la
incluimos o la descartamos diferenciamos entre factores internos y factores
externos, aun siendo consciente que la intervención externa será causa de
ruido.
La paradoja que supone la discusión sobre operaciones puras no humanas
reside en la dificultad de hablar de algo de lo que ni se tiene constancia ni
se conoce. El motivo por el cual esta cuestión es trascendente se debe a la
posibilidad de operaciones puras no humanas dentro del ruido. Modelos de
operaciones puras no basadas en el principio de diferencia, y cuyos algoritmos
matemáticos básicos sean completamente diferentes a los humanos basados en: suma,
resta, división y multiplicación.
Las operaciones lógico matemáticas humanas nos dan acceso a un
conocimiento limitado, más allá, cabe la posibilidad de una lógica y una
matemática a la que no tiene acceso la naturaleza humana, dada su condición
biológica, luego fuera de nuestro entendimiento. El hecho que el entendimiento
humano esté fundado sobre premisas biológicas hará que nuestra capacidad de
acceso a la realidad se encuentre limitado por estas premisas. El hecho que
hayamos desarrollado una determinada lógica, y sobre esa lógica, una serie de
algoritmos básicos, no significa que bajo modelos lógicos completamente
diferentes se pudieran desarrollar algoritmos básicos completamente diferentes.
En caso que hubiera posibilidad de modelos matemáticos basados sobre
analíticos anteriores diferentes al principio de diferencia, que pudieran dar
lugar a la creación de algoritmos diferentes que no fueran suma, resta,
multiplicación, y división. Los lenguajes derivados de estos modelos lógicos
matemáticos, los lenguajes derivados de estas operaciones puras no humanas,
serían completamente inconmensurables luego completamente indesencriptables.
Por otro lado, partimos siempre del prejuicio de que los sistema
numéricos son siempre sobre bases regulares, es decir, si partimos de una
numeración en base seis o doce, entendemos que la base numérica se mantendrá
regular en todo espacio y tiempo. El actual sistema numérico más extendido en
nuestro planeta es el sistema decimal, y da igual cuando o donde se use, que el
sistema decimal no varia. La forma en que medimos el tiempo, sesenta segundos
un minuto, sesenta minutos una hora, es completamente regular, y nunca varia.
Ahora bien ¿serían posibles sistemas numéricos no regulares en donde la base
numérica pudiera variar según lugar, tiempo, o cualquier otra variable?
Cuando no entendemos algo lo llamamos ruido. Normalmente al ruido se la
atribuyen valores como que el comportamiento del ruido es aleatorio, caótico, e
imprevisible, pero quizás realmente el motivo por el cual creemos que el
comportamiento de los fenómenos en la zona de ruido e aleatorio, caótico, e
imprevisible, es porque carecemos de los principios lógicos, los algoritmos, y
los sistemas numéricos subyacentes al comportamiento que se produce en la zona
de ruido.
Si en una estación de investigación de vida extraterrestre inteligente
se estudian las señales de radio del espacio exterior, y sólo se escucha ruido,
ese ruido puede ser provocado por el propio ruido que se origina en el espacio
exterior por los diferentes fenómenos astronómicos que ocurren (desde
explosiones de supernovas a choques entre galaxias, que llenen las frecuencias
de onda completamente llenas de ruido), o porque de haber señales de radio
producidas por algún tipo de vida inteligente exraterrestre, si los principios
lógicos, algoritmos básicos, y bases numéricas de sus sistemas matemáticos son
completamente diferentes a los nuestros, no entenderemos absolutamente nada, lo
único que podemos decir es que estamos escuchando ruido.
Si hubiera algún tipo de inteligencia artificial capaz de desarrollar
una lógica completamente diferente a la lógica humana, basada en algoritmos
completamente diferentes a los humanos, y bases numéricas irregulares, cualquier
tipo de comunicación que emitiera, para nosotros ( con nuestra actual lógica, y
nuestros actuales algoritmos y bases numéricas), esa comunicación no sería más
que simple ruido.
Por otro lado, además del principio de diferencia, otro aspecto que
condiciona la comunicación humana es que damos por sentado que la comunicación
implica la comunicación de información, sin embargo ¿serían posibles modos de
comunicación en donde el objeto de la comunicación no fuese intercambio de
información?
Hoy en día sabemos que hay partículas subatómicas cuya velocidad puede
superar la velocidad de la luz bajo determinadas condiciones, y según la actual
teoría, sólo cuando se sobrepasa la velocidad de la luz habría posibilidad de
viajar en el tiempo, luego es posible que haya partículas subatómicas que estén
continuamente viajando en el tiempo ¿la comunicación que estas partículas subatómicas
pueden tener con otras partículas o entes en diferentes espacios y tiempos, es
una comunicación basada en transmisión de información, o puede haber modelos de
comunicación en donde el objeto de intercambio no sea información?
Debido a nuestra propia condición humana, fisiológica, entendemos que lo
que recibimos a través de nuestros sentidos y es decodificado por nuestro
cerebro es información. Entendemos que en lo que trabaja nuestro sistema
cognitivo es información, luego, cualquier otro medio de comunicación no basado en el intercambio de información estaría fuera de nuestro
rango de conocimiento, luego estaría siempre dentro del margen de error, sería motivo
de ruido.
Bajo nuestra condición humana, fundamentalmente biológica, hay aspectos
de la realidad cognoscibles, otros incognoscibles, y en tanto que
incognoscibles sumidos en el margen de error. Es decir, la verdad pura absoluta
en tanto que incognoscible estará siempre comprendida dentro del margen de
error, luego es dentro del error donde residirá la verdadera fuente de
conocimiento puro.
Los intentos humanos de acceso a la verdad pura absoluta, antes o
después encontrarán barreras, la primera de ellas la incompletitud de la lógica
matemática humana ¿cómo a través de algo incompleto podemos tener conocimiento
completo de lo que ocurre? El conocimiento completo de la realidad precisaría
de operaciones lógicas completas.
En Probabilidad Imposible por operaciones puras se entienden aquellas
relativas a la razón pura, a saber, las operaciones lógico matemáticas. El
método de Probabilidad Imposible es el silogismo de la tendencia, que se sintetiza
en: si A tiende a B y B tiende a C entonces A tiende a C. La diferencia entre
el silogismo de la tendencia y lo que sería el silogismo clásico: Si A entonces
B y si B entonces C, luego A entonces C; es que en el silogismo clásico la
operación "A entonces C" es automática. En Probabilidad Imposible el
silogismo "A tiende a C" es probabilística, estando sujeta a una
tendencia estadística, es decir, A tenderá a C en la misma razón en que A
tiende primero a B y B a C.
En Probabilidad Imposible se entiende que esa razón, a diferencia de la
razón clásica o la razón moderna del racionalismo clásico tradicional kantiano,
es que tradicionalmente para el racionalismo, clásico o moderno, la razón tiene un carácter determinista. En Probabilidad Imposible la razón no es determinista:
es un número racional, un cociente, una probabilidad, luego la razón en que A
tienda a C es estocástica, y dependerá de la naturaleza estocástica de la realidad, o al menos la naturaleza estocástica de la realidad tal como la
entiende nuestra condición humana.
Explicado esto, lo que cabe preguntarse es ¿por qué es necesario hablar
de una lógica matemática no humana?
En la primera fase de Probabilidad Imposible 2001-2004, más unos
escritos, como todo lo concerniente a la primera fase completamente inéditos de
2006, el objeto de investigación fue la intuición, y ligado a la intuición
sobre todo en 2003 "Decisión y Probabilidad", "Asimilación e
Integración". El objeto de investigación estaba muy intimamente ligado con
la Inteligencia Artificial: intuición artificial, sistema artificial de toma de
decisiones en base a la teoría de la probabilidad, y la creación de sistema de
aprendizaje artificial a base de asimilar probabilidades empíricas en sistemas
artificiales que, sobre su acomodación a sus estructuras de probabilidad
previas, contribuyeran a la mejora en la toma de decisiones artificiales.
La segunda fase de Probabilidad Imposible, es básicamente,
"Introducción a la Probabilidad Imposible, estadística de la probabilidad
o probabilidad estadística", en donde mucho más enfocada al estudio de la
razón crítica desarrollo un sistema alternativo de contraste hipótesis. Esta
segunda fase es entre 2009 hasta su publicación en 2011.
La tercera fase de Probabilidad Imposible entre 2011 hasta 2016,
básicamente orientada a la difusión de la teoría. Después de que leyera mi
tesis doctoral el 2 de febrero del 2016 escribí una serie de artículos en
relación a la verdad absoluta a la verdad pura, que muy probablemente los
escribiera al poco después de terminar la tesis, aunque los publicase en meses
posteriores.
Es a partir de diciembre de 2017 cuando se puede decir que Probabilidad
Imposible entra en una fase de investigación, y en los dos primeros artículos
publicados aparecen dos aspectos nuevos que si bien en anteriores fases han sido
mencionados, no se les había prestado suficiente atención,: la matemática no
humana, y la intervención externa.
En mis trabajos del año 2003, especialmente en la Teoría General de
Probabilidad Imposible, inédita, hice varias menciones a las relaciones entre
factores internos y externos. Sobre el modo en que en un análisis factorial el
descarte de información genera factores externos capaces de incidir en el
error, es un aspecto que ha sido mencionado recurrentemente en Probabilidad
Imposible. La diferencia es que mientras normalmente la intervención externa se
ha considerado como algo caótico, en esta nueva fase que se inicia de
Probabilidad Imposible partiendo de conceptos fundamentales como intervención
externa y matemática no humana, cabe la posibilidad que ambos conceptos estén
muy unidos, y lo que a menudo se considera como ruido en realidad obedezca a
una intervención externa. Y dentro de la intervención externa haya aspectos
incognoscibles dado que trascienden la condición humana, dado que van más allá
de nuestras matemáticas, estarían dentro de una matemática no humana, luego el
ruido no es lo que parece. Lo llamamos ruido porque no lo entendemos.
En realidad, más que matemáticas no humanas habría que ampliar el
concepto a operaciones puras no humanas.
Los factores internos a nuestros modelos son sólo aquellos que creemos
significativos en base a nuestra condición biológica, dejando como factores
externos aquellos que creemos insignificantes, además de aquellos que no
conocemos, ya sea porque todavía no los conocemos o porque están fuera de
nuestro rango de conocimiento. La forma en que los factores externos
intervienen sobre nuestros modelos es provocando ruido, al cual le damos
atributos como aleatorio, caótico, o imprevisible, sin embargo, la razón por la
cual le damos estas atribuciones sólo sea por nuestro completo desconocimiento
de lo que realmente ocurre en la zona ruido.
En la zona de ruido puede estar ocurriendo una infinidad de cosas, o
bien que el cúmulo de factores descartados aun siendo individualmente cada uno
insignificante en suma todos ejerzan una intervención externa significativa, y
unido a esto estén actuando otros factores desconocidos, ya bien porque todavía
no los conocemos aunque en el futuro los conozcamos, o porque están
completamente fuera de nuestro rango de conocimiento biológico, tanto ahora
como en el futuro. Y la razón por la cual creemos que el comportamiento del
ruido es aleatorio, caótico, e imprevisible, es decir, inconmensurable, en
parte, quizás, se deba, a que dentro de la zona ruido hubieran comportamientos
lógicos matemáticos fuera de la lógica matemática humana.
Rubén García Pedraza, Londres 10 de Diciembre 2017
Revisado 28 de Julio de 2019, Madrid
Revisado 28 de Julio de 2019, Madrid