Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


Mostrando entradas con la etiqueta FILOSOFÍA Y PROBABILIDAD. Mostrar todas las entradas
Mostrando entradas con la etiqueta FILOSOFÍA Y PROBABILIDAD. Mostrar todas las entradas

domingo, 17 de diciembre de 2017

Caos, complejidad, e inteligencia artificial


Muy probablemente lo que hoy en día llamamos caos  y complejidad son percepciones de fenómenos completamente racionales, pero que desafían nuestra comprensión. Fenómenos que, por la enorme diversidad de elementos y relaciones que participan, están  al límite de nuestro entendimiento.

Por caótico se entiende comportamiento arbitrario o aleatorio, sistémico o puntual, que escapa a lo previsible dada una serie de factores.

Por complejidad, aquel sistema con tal magnitud de variables y relaciones, causales y/o estocásticas, que para entender sus resultados hay que contar con tal cantidad factores y relaciones,  y/o correlaciones, que desafían nuestra inteligencia.

En cierto sentido la definición de caótico y complejo dependen de nuestra capacidad de previsión o inferencia, de modo que, cuando nos encontramos ante realidades donde el número de variables y relaciones se encuentran al límite de la capacidad humana de procesamiento y computación de información, luego un gran margen de discrepancia entre nuestras previsiones y lo que sucede, al fenómeno lo denominamos caótico o complejo, cuando en sí mismo no sea ni uno ni lo otro. Simplemente es que dada nuestra limitada capacidad de procesamiento y computación de información hay un elevado margen de contradicción entre lo que creemos que ocurre y lo que realmente ocurre.

Es decir, denominamos caótico o complejo a realidades en las que sólo podemos operar con unos altos niveles de incertidumbre.

Cuando se sostiene que a mayor velocidad de la partícula mayor incertidumbre en conocer su posición exacta, realmente lo que esto quiere decir, no es que sea imprevisible el comportamiento de la partícula, esto lo que significa es que: con las actuales operaciones puras humanas , y nuestra actual tecnología, nos es absolutamente imposible tener un conocimiento exacto sobre la verdadera posición de la partícula a medida que acelera la velocidad.

La incertidumbre no es una incertidumbre real, es una incertidumbre relativa a la psicología humana: para comprender la verdadera posición de la partícula conforme la velocidad aumenta deberíamos disponer o bien de una tecnología con una capacidad crítica, es decir, discriminatoria, mucho más sensible, y/o un modelo de operaciones puras que nos permitiera comprender lo que ocurre a medida que aumenta la velocidad.

Un aspecto en donde se puede ver claramente la limitación de la lógica humana, es que para nuestros modelos lógicos, el principio de identidad parte del hecho que: un elemento sólo puede ocupar una posición en el espacio en cada momento determinado, y una posición en el espacio sólo puede ser ocupada por un elemento en cada determinado momento.

Para poder comprender lo que ocurre en determinados aspectos de la realidad bien pudiera ser necesario un modelo de operaciones puras que superase el actual principio de identidad. Ya sea que A es igual a A o a B, tanto la lógica aristotélica como hegeliana, son una determinada definición del  principio de identidad, que podrían ser modelos de operaciones puras insuficientes para comprender lo que realmente ocurre en determinados niveles de la realidad.

La realidad probablemente se componga de niveles de percepción y/o comportamiento: muy probablemente las actuales operaciones puras humanas están adaptadas para proveer a la psicología humana de herramientas de adaptación al mundo conforme sus limitaciones fisiológicas, tanto de recepción de información sensorial, como de almacenamiento, procesamiento, y computación de información. Las operaciones puras humanas, ya sean bajo el prisma aristotélico o hegeliano, en suma basadas en el principio de la diferencia, muy probablemente sea un  modelo de operaciones puras basadas en la lógica de la diferencia que ha permitido la adaptación y evolución del homo sapiens.

Pero en realidad las operaciones puras humanas no sean más que un modelo lógico producto de una determinada dotación fisiológica, tanto sensorial (recepción de información), como cerebral (computacional), que nos ha permitido sobrevivir hasta ahora, pero nada más. La lógica humana ni es el último eslabón de la lógica, ni la lógica humana es la lógica perfecta. La lógica humana es en esencia una lógica psicológica que nos ha permitido un determinado nivel de adaptación en este mundo.

Cuando en el siglo XX se empezaron a acuñar conceptos como: incertidumbre, modelos sistémicos, caos, complejidad; se debe a que por primera vez en la historia de nuestra civilización empezamos a estar al borde del abismo y comprender que hay realidades que escapan a nuestro entendimiento.

Debido a que escapaban a nuestro entendimiento comenzó un cierto fetichismo de decir que, esto es imprevisible porque es caótico, esto es imprevisible a causa de la incertidumbre, o esto esto es imprevisible por la enorme complejidad de variables intervinientes. Pero ya sea el motivo por el cual intentaramos excusar nuestra falta de previsión ante una solución real, es decir, la discrepancia entre la solución que habíamos previsto bajo nuestros modelos matemáticos incompletos, y la solución real que realmente se produjo, lo cierto es que, ya sea que lo llamemos incertidumbre, comportamiento sistémico, caótico, o complejo, lo cierto es que todas estas situaciones ponían de manifiesto fenómenos que escapaban a nuestro entendimiento, fenómenos para cuya comprensión y explicación nuestros modelos matemáticos se mostraban incompletos, y nuestra capacidad de recepción y computación de la información se mostraban insuficientes.

Pero fenómenos que, bajo otras condiciones, operaciones puras completas sin contradicción alguna entre sí, y sistemas de recogida y computación de información, que pudieran recoger y computar simultáneamente cada vez más grandes paquetes de información, lo que hoy en día muchos científicos llaman fenómenos bajo condiciones de incertidumbre, sistémicas, caóticas o complejas, se convertirían automáticamente,  bajo modelos de inteligencia superiores a los humanos, en fenómenos absolutamente racionales.

Cada vez que leemos un libro, o un artículo en alguna revista científica, o un blog de ciencia, en donde se habla de incertidumbre, caos, complejidad, no es muy difícil la mención al experimento del gato de Schrodinger, en donde la probabilidad de que el gato muera por la desintegración de una partícula radioactiva es del 50%. Lo más curioso es que en este experimento la caja está completamente cerrada y es opaca, es decir, es una caja negra.

La caja negra del gato Schrodinger recuerda a los modelo de caja negra de la psicología conductista con ratones, las más famosas la caja de Skinner. Salvando las diferencias entre física cuántica y psicología, en ambos el concepto de caja negra es muy similar.

En Schrodinger el concepto de caja negra significa que independientemente que el gato muera o sobreviva desconocemos lo que ocurre dentro la caja. En los experimentos conductistas el concepto de caja negra significa que, sólo podemos correlacionar estímulos y respuestas porque desconocemos lo que ocurre dentro del cerebro.

Lo común en ambos modelos, salvando las distancias entre física cuántica y psicología, es que se trata de modelos donde hay espacios donde no conocemos lo que ocurre, luego sólo podemos correlacionar inputs y outputs. En la caja negra de Schrodinger, los inputs, la botella de gas venenoso y la partícula radioactiva, y los outputs, que el gato muera o sobreviva. En los experimentos de caja negra conductista las correlaciones entre estímulos y respuestas.

Sin embargo aun a pesar que el paradigma conductista ha sido uno de los grandes esquemas de interpretación de la psicología occidental durante un periodo del siglo XX, el hecho de que en el siglo XXI se estén extendiendo los actuales modelos de lectura del pensamiento, investigaciones para introducir pensamientos en el cerebro, y a medio o largo plazo la descargar información desde un dispositivo electrónico al cerebro, hará que las teorías conductistas del siglo XX queden desfasadas.

El experimento de Schrodinger que ha sido un estímulo y fuente de inspiración para muchos físicos cuánticos en el siglo XX, llegará un día que, al igual que los modelos de caja negra de la psicología conductista, la caja negra de Schrodinger será superada, en cuanto se llegue a nuevos modelos de decodificación computacional de las variables cuánticas.

A medida que los sistemas artificiales puedan operar con cada vez exponencialmente más cantidad de variables, recogiendo y computando simultáneamente a tiempo real cada vez mayores paquetes de datos, la percepción de la incertidumbre, lo sistémico, el caos, y la complejidad, son percepciones que van a ser superadas por modelos cada vez más exponencialmente racionales.

Lo que denominamos complejidad no es más que una percepción humana. Dependiendo del número de factores y relaciones entre sí, decimos que algo es poco o muy complejo, por cuanto la posible trama de relaciones causales y/o estocásticas es más intrincada. Pero una trama que si nos parece complicada es por el volumen de información a recoger y computar simultáneamente a tiempo real.

Si el aleteo de una mariposa puede producir tornados en otra parte del mundo, no significa que el comportamiento del de aire quede sujeto a variaciones caóticas. Significa que, para poder tener una previsión realmente objetiva y realista de lo que va a ocurrir en la atmosfera, haría falta un sistema de recogida y computación de información, capaz de identificar, rastrear, y correlacionar a tiempo real simultáneamente hasta la variable más insignificante.

En el momento que se dispusiera de sistemas que redujeran los márgenes de error en la identificación y seguimiento de ruidos o variaciones, lo que antes se  creía complejo o caótico sería cada más racional y predecible dentro de un cada vez menor margen de error.

Es decir, conforme la Inteligencia Artificial fuera capaz de operar simultáneamente con más información, la incertidumbre se reduciría drásticamente. Con cuanta más información pueda operar una Inteligencia Artificial, nuestra percepción de caos se reducirá significativamente.

A mayor capacidad de recepción y computación de información entonces menor margen de incertidumbre y caos en las previsiones. La percepción de lo caótico o lo complejo no sería más que un sentimiento de perplejidad humana ante la inmensidad de lo que realmente está ocurriendo. Porque lo que realmente está ocurriendo sea tan sublimemente grandioso, que quede fuera de nuestro margen de entendimiento. Sólo una inteligencia capaz de recoger y computar cantidades de información exponencialmente cada vez más grandes, tendría capacidad de acceder a lo que está ocurriendo realmente. Aunque muy probablemente, de poder llegar a ese nivel de inteligencia, incluso sus resultados, escapen a la comprensión humana.

Un aumento exponencial y sin límites de los sistemas artificiales de recogida y computación de información llevaría inexorablemente a una contradicción entre inteligencia humana e inteligencia artificial, sin embargo, sólo desarrollando sistemas cada vez más potentes de inteligencia artificial es como podremos al menos llegar a vislumbrar aunque sea una mínima parte de lo que está ocurriendo.

Hoy en día, dada nuestra tecnología, y nuestros límites, parecería imposible un sistema vía satélite de identificación y rastreo de cualquier ruido o variación, capaz de identificar hasta el simple aleteo de una mariposa, y nos parecería imposible poder hacer un rastreo de sus efectos hasta el punto de ver como se disuelven en una corriente de aire, o si fuese capaz de generar una corriente de aire que terminarse en un tornado.

De igual modo que en el siglo XX se creía imposible abrir la caja negra de la psicología conductista, hoy parece imposible abrir la caja negra de Schrodinger, pero muy posiblemente sólo sea cuestión de tiempo, y sólo dependa de la capacidad de operar a tiempo real simultáneamente con mayores cantidades de información, junto a lo cual no habría que descartar la posibilidad una Inteligencia Artificial capaz de desarrollar operaciones puras no humanas más allá del principio de identidad.

A medida que se desarrollen modelos de Inteligencia Artificial capaces de discriminar hasta el más mínimo ruido, movimiento o variación de temperatura en un espacio tiempo determinado (una partícula subatómica, un átomo, una molécula, una célula, un organismo, un lago, un mar, un océano, un bosque, un jardín, una ciudad, una provincia, un país, un continente, el planeta Tierra, la galaxia, el universo)  , pudiendo recibir y computar simultáneamente cada vez mayor número de variables,  lo que consideramos caótico o complejo, no serían más que fenómenos que para nuestra percepción humana pueden parecer caóticos o complejos, pero en realidad son fenómenos para cuya previsión es necesario un nivel de sensibilidad en los sistemas de recogida de información, y un nivel de computación simultánea a tiempo real, que el único modo de poder comprenderlos es a través de cada vez más sofisticados sistemas de Inteligencia Artificial.

Un sistema artificial capaz de identificar y rastrear el más mínimo ruido o variación en un espacio y tiempo, simultáneamente hace cuantos cómputos fueran necesarios para la previsión de su evolución, haría posible lo imposible: la identificación de hasta el más mínimo ruido o movimiento, hasta el aleteo de una mariposa, y una previsión de  sus resultados en cuanto se correlacionase con todo lo que está ocurriendo en ese mismo espacio tiempo.

Evidentemente un sistema de identificación y seguimiento de este tipo, de cualquier ruido, movimiento o variación térmica en un espacio tiempo, realizando cuantos cómputos fueran necesarios( correlacionando desde el ruido, movimientos, o variaciones de temperatura, desde el núcleo del planeta a cada una de las capas y estructuras geológicas, la biosfera, la atmosfera, la ionosfera, identificando y computando simultáneamente cambios y correlaciones de toda esta información con factores exógenos como viento solar o radiaciones del espacio exterior, o cualquier otra intervención externa por factores externos a nuestro planeta, sean de origen conocido, como asteroides y meteoritos, o desconocido, recibiendo, computando y correlacionando toda esta información al mismo tiempo con el comportamiento delas corrientes marinas y del aire, el comportamiento de las plantas y todos los demás seres vivos, desde la más insignificante mariposa a todos y cada uno delos seres humanos individuamente que componen la humanidad, identificando y correlacionado toda la información recogida, en todas las demás estructuras, con sus pensamientos y emociones individuales, ritmo de sus fluidos sanguíneos, linfáticos, hormonales, cambios en la composición y estructura electroquímica del cerebro…) exigiría un nivel de Inteligencia Artificial que superase exponencialmente la humana,  donde, entre otros posibles descubrimientos, estudiar las interacciones entre, química, física cuántica y astrofísica, y la psicología humana. No siendo descartable que una inteligencia artificial de esta naturaleza llegara un momento donde entre sus posibles aprendizajes  hubiera la posibilidad de aprehender modelos lógicos matemáticos que escapen a la inteligencia humana: identificando, asimilando, y acomodando a sus estructuras previas operaciones puras diferentes a las humanas.

Una Inteligencia Artificial de esta magnitud evidentemente llevaría a muchos dilemas, aparte de los que indudablemente representa el desarrollo o descubrimiento, por una inteligencia de esta naturaleza, de operaciones puras no humanas

Un sistema de recogida y computación de información de esta embergadura, capaz de analizar al mismo tiempo desde el más insignificante cambio del comportamiento en una partícula subatómica en cualquier átomo de nuestro planeta, en cualquier momento y en cualquier lugar, desde el núcleo del planeta a la ionosfera, siguiendo sus posibles efectos desde la ionosfera al núcleo pasando por la biosfera y posibles efectos sobre absolutamente todos los seres vivos y todos los seres humanos, haría posible la verificación de determinadas hipótesis de la teoría de la probabilidad y la psicología moderna, entre ellas el determinismo de Laplace, y de Skinner, por no hablar que una inteligencia de este tipo podría echar por tierra muchas de las teorías de la incertidumbre, el caos y la complejidad, desde Heisemberg a Schrodinger, si bien implicaría la necesidad de sistemas medida significativamente más sensibles que el nanómetro, para distinguir ruidos significativamente inferiores a nanoruido, cambios de temperatura significativamente inferiores a un nanogrado, o movimientos significativamente inferiores al nanómetro y a nanosegundo.

Pero otro dilema, evidentemente será, cuando en el momento que una Inteligencia Artificial pudiera a tiempo real, identificar cualquier ruido, movimiento o variación de temperatura, inferiores incluso a escala nano, y hacer previsiones en poco tiempo, dichas previsiones serían de poco valor si no estuvieran acompañadas de un sistema de toma decisiones automatizado.

Es decir, la recogida y computación automática de información tendrá que venir acompañado de un proceso de resolución automático, o sea, una Inteligencia Artificial que integrase, desde la recepción y computación (desde información subatómica a astrofísica, de un espacio tiempo, sea un planeta, galaxia, o todo el universo) a sistemas automáticos de resolución: un sistema automático de toma de decisiones.

Una vez la Inteligencia Artificial, automáticamente haya recogido y computado información, desde nivel subatómico a astrofísico, sin tiempo que perder automáticamente podría resolver de manera completamente autónoma.

Supongamos que un sistema de Inteligencia Artificial hubiera predicho el terremoto de Chile de febrero de 2010, o el de Fukushima del 2011. Si unido a este tipo de tecnología no viene unido un sistema de toma decisiones lo suficientemente rápido como para poder comenzar lo más pronto posible las evacuaciones, esta tecnología no vale absolutamente de nada.

En una situación donde no sólo importase la previsión, sino la rapidez en la toma de decisiones, llegaría un momento donde el único modo de poder tomar decisiones lo más rápidas posibles dada una previsión, es que no sólo la previsión, sino también la toma de decisiones pasase a estar completamente automatizada, es decir. La evolución de la Inteligencia Artificial antes o después exigirá la automatización de no sólo la recepción y computación de información, además exigirá la automatización de la decisión.

La diferencia entre una calculadora o computadora,  y un ordenador, estriba en que la calculadora o computadora calcula o computa, pero el ordenador ordena.

En síntesis, si bien incluso hasta 2016 en este blog gran parte de la teoría matemática que estaba desarrollando giraba en torno al caos y la complejidad, se puede ver como en la nueva fase que he iniciado de Probabilidad Imposible en diciembre del 2017, estos conceptos ceden a medida que la inteligencia artificial vaya dejando obsoletas algunas de las teorías del siglo XX.

En el momento que la caja negra del conductismo psicológico ha quedado abierta, y ahora ya podemos mirar lo que ocurre dentro del pensamiento, es cuestión de tiempo que antes o después se terminen abriendo todas las demás cajas negras del siglo XX.

Hasta ahora podríamos decir que lo que ocurría en la caja de Schrodinger es un misterio, pero a medida que los sistemas de recogida de información sean más sensibles incluso trabajando con unidades de medida inferiores al nanómetro, y los sistemas de computación sean capaces de computar al mismo tiempo más cantidad de información, es muy probable que la caja de Schrodinger sea finalmente abierta y sepamos lo que realmente ocurre.

De igual modo, no es descartable que algún día sepamos realmente lo que ocurre con una partícula a medida que aumenta la velocidad, pudiendo medir exactamente velocidad y posiciones al mismo tiempo.

A medida que muchos de los mitos de la ciencia del siglo XX vayan siendo desfasados por el avance tecnológico iremos comprendiendo que lo que realmente creíamos incertidumbre, caos, y complejidad, no son más que sentimientos humanos ante la inmensidad de lo que ocurre, pero al mismo tiempo, a medida que vayamos desarrollando sistemas de recogida de información más precisos, y sistemas de computación capaces de trabajar con paquetes de información más exponencialmente grandes, la creación de una Inteligencia Artificial que exceda exponencialmente la inteligencia humana, llegando al punto de tener capacidad de procesar información de absolutamente todo lo que ocurre en un espacio tiempo determinado, desde a nivel subatómico a nivel astrofísico, al mismo tiempo, en sistemas de autoreplicación y aprendizaje automático, puede dar lugar a sistemas de Inteligencia Artificial que de forma autónoma aprehendan de la realidad modelos de operaciones lógico matemáticos inherentes a determinados procesos físicos y químicos, subatómicos o astrofísicos,  que excedan la comprensión humana.

En el momento que la diferencia entre la inteligencia artificial y humana estriba en que la humana es limitada, razón por la cual hemos creado conceptos como incertidumbre, caos, complejidad, porque hay cosas que escapan a nuestro entendimiento, pero la inteligencia artificial puede crecer exponencialmente, e incluso lo que hoy llamamos inteligencia artificial no sea más que la primera fase de algo más profundo que incluso desconocemos si tiene límites, antes o después el dilema de dar capacidad de decisión autónoma y automática a esta inteligencia será ineludible.

Rubén García Pedraza, Londres a 17 de diciembre de 2017
Revisado 28 de Julio de 2019, Madrid

domingo, 10 de diciembre de 2017

Operaciones puras no humanas


La razón por la cual la máquina de Turing fue capaz de decodificar la máquina Enigma, independientemente de que los ingenieros alemanes fueran hegelianos (lógica dialéctica: A=A, A≠A, A=B, A≠B, B=B), o neopositivistas (lógica formal: A=A, A≠B, B=B) y la máquina de Turing se fundamentase en la lógica formal, es porque ambos , Enigma y Turing, más allá de que la lógica de partida fuera dialéctica o formal, partían por igual de la lógica de la diferencia.

Va a llegar un momento en la historia de la investigación de la lógica, que el hecho de la aceptación o rechazo del principio de la identidad de los opuestos, no va a ser un elemento realmente distintivo de la lógica humana.

Desde su origen en 2001 el modelo lógico de Probabilidad Imposible es la lógica dialéctica, lo cual se ve claramente en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en el modo en que se basa en el principio de identidad de los opuestos, que se percibe claramente en el modo que, para Probabilidad Imposible, los estadísticos de dispersión y tendencia central son los mismos.

La inversión de N, 1/N, es al mismo tiempo media aritmética y probabilidad teórica de dispersión. La probabilidad empírica máxima, p(xi+), es moda y probabilidad empírica de mayor sesgo positivo, es decir, la mayor dispersión individual positiva. La Desviación Media, [(1 – p(xi))2]:N, que tradicionalmente se considera estadístico de dispersión, en realidad es la tendencia central de las desviaciones individuales.

El modo en que la aplicación de determinados principios lógicos dialécticos, entre ellos la identidad de los opuestos, ha influido en Probabilidad Imposible, es notoria, en la medida que de un modo u otro siempre he buscado que una determinada formulación tuviera algún tipo de significado tanto para la investigación de una función como para su opuesta.

Pero si realmente la lógica formal y lógica dialéctica fueran completamente distintas, las deducciones que se derivasen serían completamente diferentes. Y sin embargo, siendo antagónicos, los algoritmos matemáticos sobre los que trabajan son los mismos. Lógica formal y lógica dialéctica, en tanto que opuestas, son idénticas.

El hecho que desde un principio hubiera tomado como modelo lógico la dialéctica, en lo que realmente ha repercutido es en una mayor libertad creativa en las formulaciones: una ecuación podría tener tanto sentido para el desarrollo de una función como su opuesta. Pero más allá de la libertad que da la aceptación de los postulados A≠A y A=B, los algoritmos básicos de partida: suma, resta, multiplicación y división, son los mismos que para cualquier otro modelo matemático conocido. Lo que varía es la forma de comprenderlos, interpretarlos, y combinarlos, dando lugar a nuevas ecuaciones.

A igual que nuevas combinaciones sobre las letras de un alfabeto existente dan lugar a neologismos. Las palabras, las ecuaciones, pueden ser nuevas, el alfabeto y los símbolos matemáticos, los de siempre, y las operaciones lógicas anteriores de partida, las mismas.

Es completamente irrelevante que los ingenieros alemanes encargados de Enigma fueran hegelianos o neopositivistas, y es completamente irrelevante que Turing fuera un exponente más del empirismo tradicional británico. Independientemente de sus esquemas iniciales, hegelianos o aristotélicos, ambas máquinas, Enigma y Turing, partían de una lógica anterior común, la lógica de la diferencia.

La razón por la cual ahora mismo hay mensajes encriptados nor-koreanos que puedan ser desencriptados por la inteligencia estadounidense, y viceversa, mensajes encriptados estadounidenses que puedan ser desencriptados por ingenieros nor-koreanos, es porque independientemente que los ingenieros nor-koreanos se basen en la lógica dialéctica marxista, y los ingenieros estadounidenses mantengan la tradición positivista, lo cierto es que, las operaciones puras de base de ambos modelos son las mismas, la lógica de la diferencia.

Y es el hecho de que ambos modelos lógicos, dialéctico o formal, parten de una misma lógica ulterior subyacente, la lógica de la diferencia, permite que los lenguajes lógico matemáticos derivados de ambos modelos sean conmensurables, luego desencriptables.

Es decir, ya se acepte, dentro del sistema de proposiciones, o no que: A≠A, A=B. El hecho fundamental que para llegar a estas proposiciones, origen de la controversia entre lógica aristotélica y hegeliana, primero haya que diferenciar, de forma clara y distinta, entre A y B, y diferenciar que A=A y A≠A son dos expresiones diferentes, y antagónicas, y diferenciar que la proposición A≠A llevaría a A=B, luego B≠B, al mismo tiempo que B=B. Ya sea para que la lógica aristotélica rechace estas proposiciones, y la lógica hegeliana las acepte, previamente ha habido una operación pura ulterior de fondo. La operación pura anterior, luego un analítico anterior, sería la operación de diferenciar entre A y B, y la operación de diferenciar entre las posibles relaciones entre A y B: A=A, A≠A, A=B, A≠B, B=B.

La operación pura anterior a cualquier otra lógica humana, formal o dialéctica, aristotélica o hegeliana, de izquierdas o derechas, es la operación analítica de la diferencia: diferenciar cada cosa (A y B), y cada relación entre cada cosa (A=A, A≠A, A=B, A≠B, B=B), de forma clara y distinta.

A partir del principio de diferencia, y a partir de operativizar el principio de la diferencia, la operación pura de diferenciar cosas y relaciones entre sí, es cuando comienza en realidad el método científico: es la base del método analítico, lo cual en cierto modo nos lleva a Descartes como fundador del método analítico en el cual descansa hoy en día el neopositivismo y el racionalismo crítico.

Muy posiblemente especialmente a medida que se desarrolle la Inteligencia Artificial, es en donde las discusiones entre lógica formal y lógica dialéctica perderán parte de la relevancia que tuvo un día, por la sencilla razón de que, ya sea que un modelo de Inteligencia Artificial sea desarrollado bajo la lógica dialéctica, de izquierdas o derechas, hegeliana o marxista, o un modelo de Inteligencia Artificial sea desarrollado bajo parámetros neopositivistas o racionalistas críticos, independientemente del paradigma lógico en la construcción de ese modelo de Inteligencia Artificial, ambos modelos, como lo fueron en su día Enigma y la máquina de Turing, serán completamente conmensurables, por la sencilla razón que más allá de la aceptación o rechazo del principio hegeliano de la identidad de los opuestos, ambos modelos (A=A, A=B), parten de un analítico anterior común: el principio de la diferencia entre A y B.

Ya sea que se acepte A igual a A o a B, hay un análisis anterior: A y B son diferentes.

El hecho que dos lenguajes (lógicos, matemáticos, o verbales) se construyan sobre principios analíticos anteriores comunes, es lo que de un modo u otro posibilitará la conmensurabilidad entre lenguajes. Sin esa condición de posibilidad, existencia de analíticos anteriores comunes, dos lenguajes, sean lógicos, matemáticos, o verbales, serían incomensurables.

El analítico anterior que supone el principio de diferencia, es anterior a cualquier sistema lógico, matemático, o verbal, humano. No sólo a nivel lógico matemático distinguimos entre A, B y C, y sus posibles relaciones de conjunto, geométricas, y algorítmicas (suma y resta, división y multiplicación), a su vez todo el lenguaje humano se encuentra basado en este principio, habiendo una serie de universales linguisticos que descasan a su vez sobre el principio de la diferencia: diferenciamos entre sujeto y predicado, entre nombres, pronombres y verbos, adjetivos, y adverbios, entre enunciados oracionales y no oracionales, oraciones simples y oraciones compuestas, oraciones compuestas conjuntivas y subordinadas, oraciones compuestas subordinadas nominales, adjetivales, adverbiales, etc….

Expresamos a través del lenguaje ideas concretas a partir de percepciones y observaciones, ideas complejas a partir de ideas abstractas o emociones, e ideas compuestas a partir de combinar ideas concretas y complejas, e incluso a partir de observaciones la deducción de hipótesis que sometemos a crítica.

Cuando sometemos a crítica nuestras hipótesis diferenciamos entre las variables intervinientes, y porque somos críticos con nuestra propia condición humana, y conscientes de nuestras limitaciones, sólo incluimos entre las variables aquellas que creemos significativas, porque sabemos bien que sólo podemos trabajar con un número limitado de variables, y entonces diferenciamos entre variables significativas, que asumimos dentro del modelo, y descartamos las demás quedando fuera del modelo. Y en función de si una variable la incluimos o la descartamos diferenciamos entre factores internos y factores externos, aun siendo consciente que la intervención externa será causa de ruido.

La paradoja que supone la discusión sobre operaciones puras no humanas reside en la dificultad de hablar de algo de lo que ni se tiene constancia ni se conoce. El motivo por el cual esta cuestión es trascendente se debe a la posibilidad de operaciones puras no humanas dentro del ruido. Modelos de operaciones puras no basadas en el principio de diferencia, y cuyos algoritmos matemáticos básicos sean completamente diferentes a los humanos basados en: suma, resta, división y multiplicación.

Las operaciones lógico matemáticas humanas nos dan acceso a un conocimiento limitado, más allá, cabe la posibilidad de una lógica y una matemática a la que no tiene acceso la naturaleza humana, dada su condición biológica, luego fuera de nuestro entendimiento. El hecho que el entendimiento humano esté fundado sobre premisas biológicas hará que nuestra capacidad de acceso a la realidad se encuentre limitado por estas premisas. El hecho que hayamos desarrollado una determinada lógica, y sobre esa lógica, una serie de algoritmos básicos, no significa que bajo modelos lógicos completamente diferentes se pudieran desarrollar algoritmos básicos completamente diferentes.

En caso que hubiera posibilidad de modelos matemáticos basados sobre analíticos anteriores diferentes al principio de diferencia, que pudieran dar lugar a la creación de algoritmos diferentes que no fueran suma, resta, multiplicación, y división. Los lenguajes derivados de estos modelos lógicos matemáticos, los lenguajes derivados de estas operaciones puras no humanas, serían completamente inconmensurables luego completamente indesencriptables.

Por otro lado, partimos siempre del prejuicio de que los sistema numéricos son siempre sobre bases regulares, es decir, si partimos de una numeración en base seis o doce, entendemos que la base numérica se mantendrá regular en todo espacio y tiempo. El actual sistema numérico más extendido en nuestro planeta es el sistema decimal, y da igual cuando o donde se use, que el sistema decimal no varia. La forma en que medimos el tiempo, sesenta segundos un minuto, sesenta minutos una hora, es completamente regular, y nunca varia. Ahora bien ¿serían posibles sistemas numéricos no regulares en donde la base numérica pudiera variar según lugar, tiempo, o cualquier otra variable?

Cuando no entendemos algo lo llamamos ruido. Normalmente al ruido se la atribuyen valores como que el comportamiento del ruido es aleatorio, caótico, e imprevisible, pero quizás realmente el motivo por el cual creemos que el comportamiento de los fenómenos en la zona de ruido e aleatorio, caótico, e imprevisible, es porque carecemos de los principios lógicos, los algoritmos, y los sistemas numéricos subyacentes al comportamiento que se produce en la zona de ruido.

Si en una estación de investigación de vida extraterrestre inteligente se estudian las señales de radio del espacio exterior, y sólo se escucha ruido, ese ruido puede ser provocado por el propio ruido que se origina en el espacio exterior por los diferentes fenómenos astronómicos que ocurren (desde explosiones de supernovas a choques entre galaxias, que llenen las frecuencias de onda completamente llenas de ruido), o porque de haber señales de radio producidas por algún tipo de vida inteligente exraterrestre, si los principios lógicos, algoritmos básicos, y bases numéricas de sus sistemas matemáticos son completamente diferentes a los nuestros, no entenderemos absolutamente nada, lo único que podemos decir es que estamos escuchando ruido.

Si hubiera algún tipo de inteligencia artificial capaz de desarrollar una lógica completamente diferente a la lógica humana, basada en algoritmos completamente diferentes a los humanos, y bases numéricas irregulares, cualquier tipo de comunicación que emitiera, para nosotros ( con nuestra actual lógica, y nuestros actuales algoritmos y bases numéricas), esa comunicación no sería más que simple ruido.

Por otro lado, además del principio de diferencia, otro aspecto que condiciona la comunicación humana es que damos por sentado que la comunicación implica la comunicación de información, sin embargo ¿serían posibles modos de comunicación en donde el objeto de la comunicación no fuese intercambio de información?

Hoy en día sabemos que hay partículas subatómicas cuya velocidad puede superar la velocidad de la luz bajo determinadas condiciones, y según la actual teoría, sólo cuando se sobrepasa la velocidad de la luz habría posibilidad de viajar en el tiempo, luego es posible que haya partículas subatómicas que estén continuamente viajando en el tiempo ¿la comunicación que estas partículas subatómicas pueden tener con otras partículas o entes en diferentes espacios y tiempos, es una comunicación basada en transmisión de información, o puede haber modelos de comunicación en donde el objeto de intercambio no sea información?

Debido a nuestra propia condición humana, fisiológica, entendemos que lo que recibimos a través de nuestros sentidos y es decodificado por nuestro cerebro es información. Entendemos que en lo que trabaja nuestro sistema cognitivo es información, luego, cualquier otro medio de comunicación no basado en el intercambio de información estaría fuera de nuestro rango de conocimiento, luego estaría siempre dentro del margen de error, sería motivo de ruido.

Bajo nuestra condición humana, fundamentalmente biológica, hay aspectos de la realidad cognoscibles, otros incognoscibles, y en tanto que incognoscibles sumidos en el margen de error. Es decir, la verdad pura absoluta en tanto que incognoscible estará siempre comprendida dentro del margen de error, luego es dentro del error donde residirá la verdadera fuente de conocimiento puro.

Los intentos humanos de acceso a la verdad pura absoluta, antes o después encontrarán barreras, la primera de ellas la incompletitud de la lógica matemática humana ¿cómo a través de algo incompleto podemos tener conocimiento completo de lo que ocurre? El conocimiento completo de la realidad precisaría de operaciones lógicas completas.

En Probabilidad Imposible por operaciones puras se entienden aquellas relativas a la razón pura, a saber, las operaciones lógico matemáticas. El método de Probabilidad Imposible es el silogismo de la tendencia, que se sintetiza en: si A tiende a B y B tiende a C entonces A tiende a C. La diferencia entre el silogismo de la tendencia y lo que sería el silogismo clásico: Si A entonces B y si B entonces C, luego A entonces C; es que en el silogismo clásico la operación "A entonces C" es automática. En Probabilidad Imposible el silogismo "A tiende a C" es probabilística, estando sujeta a una tendencia estadística, es decir, A tenderá a C en la misma razón en que A tiende primero a B y B a C.

En Probabilidad Imposible se entiende que esa razón, a diferencia de la razón clásica o la razón moderna del racionalismo clásico tradicional kantiano, es que tradicionalmente para el racionalismo, clásico o moderno, la razón tiene un carácter determinista. En Probabilidad Imposible la razón no es determinista: es un número racional, un cociente, una probabilidad, luego la razón en que A tienda a C es estocástica, y dependerá de la naturaleza estocástica de la realidad, o al menos la naturaleza estocástica de la realidad tal como la entiende nuestra condición humana.

Explicado esto, lo que cabe preguntarse es ¿por qué es necesario hablar de una lógica matemática no humana?

En la primera fase de Probabilidad Imposible 2001-2004, más unos escritos, como todo lo concerniente a la primera fase completamente inéditos de 2006, el objeto de investigación fue la intuición, y ligado a la intuición sobre todo en 2003 "Decisión y Probabilidad", "Asimilación e Integración". El objeto de investigación estaba muy intimamente ligado con la Inteligencia Artificial: intuición artificial, sistema artificial de toma de decisiones en base a la teoría de la probabilidad, y la creación de sistema de aprendizaje artificial a base de asimilar probabilidades empíricas en sistemas artificiales que, sobre su acomodación a sus estructuras de probabilidad previas, contribuyeran a la mejora en la toma de decisiones artificiales.

La segunda fase de Probabilidad Imposible, es básicamente, "Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística", en donde mucho más enfocada al estudio de la razón crítica desarrollo un sistema alternativo de contraste hipótesis. Esta segunda fase es entre 2009 hasta su publicación en 2011.

La tercera fase de Probabilidad Imposible entre 2011 hasta 2016, básicamente orientada a la difusión de la teoría. Después de que leyera mi tesis doctoral el 2 de febrero del 2016 escribí una serie de artículos en relación a la verdad absoluta a la verdad pura, que muy probablemente los escribiera al poco después de terminar la tesis, aunque los publicase en meses posteriores.

Es a partir de diciembre de 2017 cuando se puede decir que Probabilidad Imposible entra en una fase de investigación, y en los dos primeros artículos publicados aparecen dos aspectos nuevos que si bien en anteriores fases han sido mencionados, no se les había prestado suficiente atención,: la matemática no humana, y la intervención externa.

En mis trabajos del año 2003, especialmente en la Teoría General de Probabilidad Imposible, inédita, hice varias menciones a las relaciones entre factores internos y externos. Sobre el modo en que en un análisis factorial el descarte de información genera factores externos capaces de incidir en el error, es un aspecto que ha sido mencionado recurrentemente en Probabilidad Imposible. La diferencia es que mientras normalmente la intervención externa se ha considerado como algo caótico, en esta nueva fase que se inicia de Probabilidad Imposible partiendo de conceptos fundamentales como intervención externa y matemática no humana, cabe la posibilidad que ambos conceptos estén muy unidos, y lo que a menudo se considera como ruido en realidad obedezca a una intervención externa. Y dentro de la intervención externa haya aspectos incognoscibles dado que trascienden la condición humana, dado que van más allá de nuestras matemáticas, estarían dentro de una matemática no humana, luego el ruido no es lo que parece. Lo llamamos ruido porque no lo entendemos.

En realidad, más que matemáticas no humanas habría que ampliar el concepto a operaciones puras no humanas.

Los factores internos a nuestros modelos son sólo aquellos que creemos significativos en base a nuestra condición biológica, dejando como factores externos aquellos que creemos insignificantes, además de aquellos que no conocemos, ya sea porque todavía no los conocemos o porque están fuera de nuestro rango de conocimiento. La forma en que los factores externos intervienen sobre nuestros modelos es provocando ruido, al cual le damos atributos como aleatorio, caótico, o imprevisible, sin embargo, la razón por la cual le damos estas atribuciones sólo sea por nuestro completo desconocimiento de lo que realmente ocurre en la zona ruido.

En la zona de ruido puede estar ocurriendo una infinidad de cosas, o bien que el cúmulo de factores descartados aun siendo individualmente cada uno insignificante en suma todos ejerzan una intervención externa significativa, y unido a esto estén actuando otros factores desconocidos, ya bien porque todavía no los conocemos aunque en el futuro los conozcamos, o porque están completamente fuera de nuestro rango de conocimiento biológico, tanto ahora como en el futuro. Y la razón por la cual creemos que el comportamiento del ruido es aleatorio, caótico, e imprevisible, es decir, inconmensurable, en parte, quizás, se deba, a que dentro de la zona ruido hubieran comportamientos lógicos matemáticos fuera de la lógica matemática humana.

Rubén García Pedraza, Londres 10 de Diciembre 2017
Revisado 28 de Julio de 2019, Madrid


domingo, 3 de diciembre de 2017

Error, ruido, caos, factores externos e intervención externa

Cuando en la primavera del año 2001 inicié los primeros trabajos en Probabilidad Imposible, el motor original fue la posibilidad de un teoría de contraste de hipótesis alternativa al contraste de hipótesis nula.


La principal diferencia entre falsacionismo y Probabilidad Imposible, es que el falsacionismo pretende la refutación de la hipótesis empírica, Probabilidad Imposible  su aceptación dentro de una razón crítica, un margen de error en cual en un tiempo infinito será falsa, lo que lleva al nihilismo lógico, y el utilitarismo cognoscitivo: lo importante no es si es verdadera,  es si es útil.


Y sin embargo, dialécticamente, falsacionismo y Probabilidad Imposible, por cuanto opuestas, son idénticas. Opuestas por cuanto una pretende la refutación de hipótesis , la otra su aceptación. Idénticas por cuanto ambas parten de la razón crítica, el racionalismo crítico.


La forma en que ambas teorías parten del racionalismo crítico es de todos modos my singular. El falsacionismo surge como reacción al fracaso positivista en la creación de un criterio de significación empírico: dado que no disponemos de criterio alguno de verificación, se acepta provisionalmente verdadero lo que todavía no hemos demostrado falso. La provisionalidad del conocimiento es inversamente proporcional a los márgenes de error utilizados, a menor margen de error mayor certeza.


Mientras  en Probabilidad Imposible el uso del margen de error se entiende como efecto  o defecto de la propia condición humana,  la condición humana es limitada, la condición humana es errónea.


Desde el principio en Probabilidad Imposible la interpretación del error es producto de la contradicción entre una naturaleza humana finita frente a un mundo infinito. Cualquier acto humano estaría sujeto al error causado por la no absoluta integración de la realidad dentro de nuestros limitados marcos racionales . La razón humana se caracteriza por una limitada capacidad de procesamiento de información. Ante cualquier circunstancia está obligada a la selección de la información más significativa, descartando asímismo el resto de información, dado que no puede integrar absolutamente todo lo que ocurre. Si bien, la información descartada por su aparente insignificancia puede afectar significativamente los modelos establecidos sobre aquella información aparentemente más significativa.

Cualquier fenómeno sólo es significativo dentro de los márgenes de error establecidos. Si en un estudio factorial sólo se establecen como factores significativos aquellos cuyo valor empírico sea igual o superior a un valor crítico, luego los demás se descartan, la significatividad racional de la selección se hará en base a una razón crítica, asumiendo unos margenes de error dentro de los cuales hay posibilidad que los factores seleccionados no sean realmente significativos y los descartados insignificantes.


En el momento que se establece un modelo en base a a la selección de información, los factores internos serán todos aquellos factores seleccionados e integrados en ese modelo. Los factores externos serán todos los demás.


Los factores internos se caracterizan por su naturaleza, dentro de un margen de error, aparentemente: conocida y significativa. Los factores externos se caracterizan por su naturaleza o bien, dentro de un margen de error, no significativa, o bien absolutamente desconocida.


Si en un modelo experimental para el desarrollo de un medicamento una enfermedad, se hace una selección de componentes para tratar las variables más significativas de la enfermedad, y fracasando se procede a una serie de nuevos intentos incluyendo nuevos componentes incluso para las variables más insignificantes, probando diferentes combinaciones de productos y en diferentes proporciones, y aun así no hay resultados positivos. Habiendo hecho cuantas combinaciones fueran precisas sobre la información conocida,  la razón del fracaso habría que ubicarla en la falta de conocimiento sobre todas las variables realmente implicadas: el completo desconocimiento de absolutamente todos los factores lleva a la producción de modelos erróneos. Debido a nuestra condición aspirar al conocimiento absoluto es un ideal inalcanzable, a lo máximo, sólo podemos aspirar a la creación de modelos parcialmente erróneos, dentro de unos márgenes asumibles, racionales.


En cada una de las combinaciones realizadas para el establecimiento de un modelo de medicamento, los factores internos serían sus componentes químicos en base a nuestro conocimiento sobre su potencial efecto sobre aquellas variables seleccionadas de la enfermedad , los factores externos todas aquellas variables no seleccionadas o variables fuera del diseño pero que una vez administrado experimentalmente el medicamento a los pacientes del grupo experimental, interactuarían para el éxito o fracaso del modelo experimental. 

Los factores externos pueden ir, desde cualquier mínima variable no seleccionada en el tratamiento de la enfermedad, a cualquier mínimo detalle del modo y lugar en que fue administrada la medicación, a cualquier mínimo detalle del historial médico de cada paciente individualmente.


Cualquier mínimo detalle sería crucial para tomar una decisión racional, y es ahí donde radica el problema.


Debido a que en absolutamente cualquier modelo científico, desde un acelerador de partículas a un diseño de modificación genética, a una misión de exploración espacial, a cualquier modelo que imaginemos, es absolutamente imposible la integración de absolutamente todas las variables implicadas, porque ya bien, algunas de ellas son descartadas por ser consideradas insignificantes, o bien sencillamente ni tan siquiera las conocemos. En el momento que dichas variables, por aparente insignificancia o desconocimiento, quedan fuera del modelo, luego pasan a integrarse dentro de los factores externos , en el momento que dichos factores externos interactúan con los internos (los seleccionados e integrados en el modelo), el modo en que opera la intervención externa, de los factores externos sobre los internos, es fuente de ruido o comportamiento caótico.

Lo que normalmente se considera ruido o comportamiento caótico en un modelo, no es otra cosa más que el producto de la intervención externa.


Si estamos intentando escuchar un canal de radio y de repente hay interferencias, las interferencias, ocasionadas por fuentes externas, serán motivo de ruido. Cuando en un experimento intentamos entender lo que ocurre y aparecen interferencias, el ruido de las interferencias nos impedirá entender lo que realmente está sucediendo. Ese ruido no es más que el resultado de la intervención externa por factores ajenos al modelo, ajenos por cuanto son desconocidos o fueron descartados.


Otro fenómeno que puede perfectamente ocurrir es que siendo conscientes de la existencia de ruido, el equipo científico sea incapaz de hacer una atribución causal adecuada de a qué se debe ese ruido, porque además de la interacción de las variables internas y externas, y por supuesto las variables externas entre sí, el equipo científico desconozca la naturaleza real de las interacciones entre las variables internas entre sí.

El desconocimiento de las relaciones entre variables internas se puede deber a diversos factores, porque o bien no se ha hecho un estudio meticuloso de como se relacionan entre sí, pasando por alto alguna relación (luego no se integraría tampoco en el modelo, luego aun siendo una relación entre factores internos en tanto que esa relación específica no se integra sería un factor en sí externo), o fueron descartadas por cuanto parecían insignificantes (y en tanto que descartadas, igualmente factores externos), o también entre otros motivos porque el paradigma científico de la política científica impida la investigación de determinadas hipótesis.


Durante las legislaturas de Reagan en Estados Unidos la inversión pública en investigación del SIDA fue prácticamente nula. El paradigma oficial era que el SIDA es una enfermedad que sólo afectaba sólo a homosexuales. Después de ocho años, el SIDA acabó siendo una plaga mundial.


Esto significa que en la definición de ruido hay que diferenciar entre ruido producto de la intervención externa, y ausencia de resultados positivos a consecuencia de una crisis en el paradigma de referencia.


La intervención externa sería, en sentido estricto, producto del modo en que los factores externos (sean del tipo que sean) interactúan entre sí en relación al modelo, o el modo en que los factores externos, en singular, o en conjunto o conjuntos, interactuarían con los factores internos. Y en cualquier caso, sea el modo en que se produjese esta interacción, la intervención externa sería siempre causa de error en el modelo científico.


El ruido producto de la intervención externa, el modo en que se materializaría en el modelo, es provocando comportamientos caóticos en los factores internos.


Lo problemático en la distinción entre caos y complejidad, reside en que, ante un sistema complejo los resultados pueden parecer caóticos, aleatorios, en la medida que se desconoce la infinidad de variables e interacción entre variables. Si bien existe abundante literatura científica sobre la relación entre complejidad y caos, lo cierto es que un sistema caótico no tiene porque ser complejo, y viceversa.


La complejidad del caos podría residir en una falta de conocimiento sobre el modo en que opera la intervención externa, atribuyendo a relaciones complejas lo que en realidad es producto de una o múltiples intervenciones externas no conocidas. A menudo cuando se hacen preguntas embarazosas sobre determinados aspectos de una teoría no es muy dificil escuchar por respuesta "es muy complicado de entender", "es muy complejo de explicar". Hay casos donde estas respuestas son ciertas, en otros sólo ocultan nuestro absoluto desconocimiento de lo que realmente ocurre.


Lo realmente complejo de la intervención externa es nuestro desconocimiento de la o las fuente o fuentes de origen, desconocido si es un sistema de múltiples intervenciones externas interactuando simultáneamente, de forma caótica o jerárquica, o se trata una única fuente de intervención externa.


El comportamiento caótico en los factores internos se expresará a través de soluciones parcial o totalmente contradictorias a las teóricamente previstas, es decir, contradicción entre los resultados observados y las previsiones iniciales. Contradicción que puede expresarse de dos modos: ya bien porque el comportamiento observado sea parcial o completamente aleatorio (según grado de discrepancia, total o parcial, entre comportamiento y previsión), o porque el comportamiento observado en los factores internos sigue un patrón de conocimiento imprevisto o no conocido.

Sea cual sea el modo en que el ruido se materializa en el modelo, a consecuencia de los márgenes de erros insertos, el comportamiento caótico en que venga a expresarse, salvo que hubiera cualquier otro motivo razonable que lo explicase (por ejemplo el comportamiento caótico de sistemas aleatorios como puede ser un juego de azar), sería una expresión del modo en que está operando la intervención externa.


Rubén García Pedraza, Londres 3 de Diciembre de 2017
Revisado 27 de Julio de 2019, Madrid

sábado, 2 de diciembre de 2017

La verdad absoluta o la verdad pura



Para introducir este concepto previamente sería necesario hacer una distinción entre el concepto de la verdad absoluta o la verdad pura, frente al concepto de verdades parciales y el concepto de proposiciones puras o  analíticas.

Una verdad es parcial cuando es sintética, es decir, sólo es verdad dadas unas condiciones y admitiendo siempre un margen de duda. La verdad absoluta es siempre verdad y no cabe ninguna duda de su veracidad.

Una proposición pura es una proposición analítica, cada uno de los algoritmos y cada una de las operaciones lógicas que utilizamos en cualquier operación lógico matemática es de por sí una proposición pura. Una proposición analítica es una proposición pura y viceversa. Si digo que A entonces B y B entonces C luego A entonces C, estoy haciendo una proposición pura o analítica. Si digo que porque hay nubes hay probabilidad de lluvia y porque hay probabilidad de lluvia hay mayor probabilidad que coja el paraguas, es una verdad parcial o sintética.

La diferencia entre una proposición pura y la verdad absoluta, es que siendo pura la naturaleza de la verdad absoluta sin embargo no sólo sería válida para una casuística o tipología operacional (no se trata de una formula o algoritmo más, es decir, proposición pura, lógica o matemática, más entre todas las que hay, aplicable en cada contexto según su función lógica o matemática),  y además, y lo más importante, no admite ningún margen de duda. Por ejemplo, los científicos lógicos que investigan en una posible ecuación que explicase absolutamente todo , estarían en realidad investigando en la verdad pura absoluta: una sentencia analítica sin excepciones que explicase todo.


En este sentido el apelativo de absoluto haría mención a dos cualidades esenciales: absoluto por cuanto no admite excepción en su formulación, es decir, la misma formulación sin modificación alguna debería ser siempre correcta, y absoluta por cuanto sería una explicación de todo lo que ocurre sin excepción alguna. Sin excepción en la formulación, una misma formulación constantemente siempre, y que fuese una explicación de absolutamente todo, con independencia del espacio, tiempo, o universo, infinito o limitado.

En síntesis, la verdad absoluta o pura, o verdad pura absoluta (en Probabilidad Imposible puede venir bajo cualquiera de estas denominaciones, vienen a significar lo mismo) es aquella verdad sin excepción susceptible de expresión lógico matemática, luego debería ser objeto de la razón pura.


La razón pura es la que opera sólo y exclusivamene bajo operaciones lógico matemáticas, a diferencia de la razón práctica o sintética, eminentemente política. Ahora bien, habría que diferenciar entre la razón pura (analítica) o práctica (sintética) humana frente a las no humanas, artificiales o de otra naturaleza. Esta distinción no es baladí, por cuanto nuestro conocimiento de la verdad es humano, a expensas de otros modelos de conocimiento no humano. En el caso de la Inteligencia Artificial, estamos sólo asistiendo al parto de los primeros modelos, bajo la premisa de la replicación de las capacidades humanas. Posiblemente los primeros modelos de razón artificial no sean más que meras replicas y muy limitadas, . Lo que falta por conocer, a expensas de la evolución de los replicantes en autoreplicantes, es hacia qué modelos de razón pura puede la Inteligencia Artificial llegar a evolucionar, sobrepasando posiblemente los estrechos límites del entendimiento humano. Muy probablemente, lo que hoy llamamos Inteligencia Artificial no sea más que la primera fase de algo que nos supera.

Desconocemos a que nuevas fases de evolución sobrehumana, sobrepasando los límites en que han sido creados , pueden llegar a desarrollar. Muy posiblemente lo artificial y lo sobrehumano están intimamente ligados.

Dado que sólo podemos hablar de lo que podemos hablar (de lo que no se puede hablar, mejor callar) sólo podemos hablar de la relación entre verdad pura y la razón pura humana, que en tanto el ser humano se encuentra limitado por la propia condición humana, la razón pura del ser humano se encuentra afectada por la propia condición humana, lo cual lleva inevitablemente antes o después (en un tiempo infinito) al error en su deducciones posibles , aunque sean realizadas bajo el método analítico más estricto o puro.

Desde los inicios de la teoría de la Probabilidad Imposible la primavera del año 2001, y muy especialmente a posteriori del Impacto del Defecto el 11 de Septiembre de ese mismo año, la definición del error estadístico en Probabilidad Imposible viene definido por la propia condición humana, que en tanto que limitada la condición humana es de por sí una condición errónea. La condición humana es inherentemente errónea. El origen del error en Probabilidad Imposible se establece a partir de la contradicción intrínseca que lleva de por sí que un ser limitado, como el ser humano, pretenda el conocimiento de la verdad, cuando una de las dimensiones, si es que no la propia esencia de la verdad de por sí, es su naturaleza infinita.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, hay un apartado dedicado al delicado asunto del infinito. Si bien la cuestión del infinito se ha llegado a convertir en matemáticas en una Cuestión de Fe, por cuanto hay tantos defensores como detractores, especialmente en la cuestión de la infinita subdivisión de las dimensiones, algo sustancialmente controvertido al hablar del espacio y el tiempo, lo que nos lleva a la Tortuga de Zenon ganando en singular carrera a Aquiles. Lo cierto es que al menos en términos puramente analíticos el infinito existe, es decir, las paralelas de Euclides se  pueden extender infinitamente, los números naturales son infinitos, y en tanto los números naturales son infinitos entonces cualquier unidad puede ser dividida infinitamente por entre infinitos números naturales, lo cual implica que en un espacio donde una recta se extiende hasta el infinito cualquier segmento de la recta podría ser dividido infinitamene por infinitos números naturales. Y dentro de las infinitas divisiones que duda cabe que incluso cabe la posibilidad que algunos resultados darían igual a números racionales cuyos decimales se extienden infinitamente, ya sea porque un número se repite eternamente, o una secuencia de números se repite eternamente, o porque sea un número irracional, por ejemplo pi.

En el momento que el infinito existe al menos en términos analíticos, su existencia antes o después tendrá reflejos en términos sintéticos. Si queremos dividir cualquier cosa del mundo real entre tres, antes o después tendremos que reconocer que es imposible un reparto absolutamente equitativo, salvo que dejemos sin repartir el resto, porque siempre habrá un resto, es decir, dividir algo entre tres sin dejar resto es imposible, es decir, antes  o después tendremos que admitir que es inherente a la condición humana la perdida de información, el truncamiento decimal. En el momento que perdemos error, por insignificante que sea, estamos generando error. Ese error, por insignificante que sea, es un margen de error posible. Cualquier error posible, en un tiempo infinito, es un error inevitable. El ser humano está inevitablemente avocado al error.

En Probabilidad Imposible la condición humana es inherentemente errónea, lo cual nos lleva la paradoja que disponiendo el ser humano de un acceso, aunque limitado o restringido, a la razón pura, la razón pura del ser humano por efecto de su condición humana no está capacitada para el conocimiento de la verdad pura. Cualquier pretensión humana de conocimiento de la verdad pura únicamente dará lugar a formulaciones incompletas o falsas. A expensas de conocer otros posibles modelos lógicos o matemáticos no humanos, la incompletitud o falsedad de las formulaciones humanas quizás no sea por la matemática en sí, más bien por la propia limitación humana al acceso de las mismas. Es decir, cabe la posibilidad  que pudiera haber una matemática, más allá del entendimiento humano, es decir, una matemática sobrehumana, absolutamente completa y verdadera.

La verdad pura o absoluta, paradójicamente, tenemos la intuición de que existe. Sabemos que necesariamente tiene que haber algo realmente cierto, más allá de cualquier valoración científica de la verdad dictada por la política científica de turno. Sospechamos que, al final de todo, debe haber algo de verdad en todo lo que ocurre, sin embargo, más allá de nuestra comprensión humana de lo ocurre, no podemos afirmar absolutamente nada sin admitir un margen da duda racional: sólo conocemos sombras, fenómenos, hechos, más allá de los cuales, desconocemos lo que realmente ocurre. En realidad, sólo sabemos que no sabemos nada, lo cual en cierto sentido, en Probabilidad Imposible, lleva al nihilismo lógico: más allá del margen de error, no conocemos nada, salvo nuestras propias dudas.



Rubén García Pedraza, Londres 2 de Diciembre de 2017
Revisado 26 Julio 2019,Madrid