Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


domingo, 17 de diciembre de 2017

Caos, complejidad, e inteligencia artificial


Muy probablemente lo que hoy en día llamamos caos  y complejidad son percepciones de fenómenos completamente racionales, pero que desafían nuestra comprensión. Fenómenos que, por la enorme diversidad de elementos y relaciones que participan, están  al límite de nuestro entendimiento.

Por caótico se entiende comportamiento arbitrario o aleatorio, sistémico o puntual, que escapa a lo previsible dada una serie de factores.

Por complejidad, aquel sistema con tal magnitud de variables y relaciones, causales y/o estocásticas, que para entender sus resultados hay que contar con tal cantidad factores y relaciones,  y/o correlaciones, que desafían nuestra inteligencia.

En cierto sentido la definición de caótico y complejo dependen de nuestra capacidad de previsión o inferencia, de modo que, cuando nos encontramos ante realidades donde el número de variables y relaciones se encuentran al límite de la capacidad humana de procesamiento y computación de información, luego un gran margen de discrepancia entre nuestras previsiones y lo que sucede, al fenómeno lo denominamos caótico o complejo, cuando en sí mismo no sea ni uno ni lo otro. Simplemente es que dada nuestra limitada capacidad de procesamiento y computación de información hay un elevado margen de contradicción entre lo que creemos que ocurre y lo que realmente ocurre.

Es decir, denominamos caótico o complejo a realidades en las que sólo podemos operar con unos altos niveles de incertidumbre.

Cuando se sostiene que a mayor velocidad de la partícula mayor incertidumbre en conocer su posición exacta, realmente lo que esto quiere decir, no es que sea imprevisible el comportamiento de la partícula, esto lo que significa es que: con las actuales operaciones puras humanas , y nuestra actual tecnología, nos es absolutamente imposible tener un conocimiento exacto sobre la verdadera posición de la partícula a medida que acelera la velocidad.

La incertidumbre no es una incertidumbre real, es una incertidumbre relativa a la psicología humana: para comprender la verdadera posición de la partícula conforme la velocidad aumenta deberíamos disponer o bien de una tecnología con una capacidad crítica, es decir, discriminatoria, mucho más sensible, y/o un modelo de operaciones puras que nos permitiera comprender lo que ocurre a medida que aumenta la velocidad.

Un aspecto en donde se puede ver claramente la limitación de la lógica humana, es que para nuestros modelos lógicos, el principio de identidad parte del hecho que: un elemento sólo puede ocupar una posición en el espacio en cada momento determinado, y una posición en el espacio sólo puede ser ocupada por un elemento en cada determinado momento.

Para poder comprender lo que ocurre en determinados aspectos de la realidad bien pudiera ser necesario un modelo de operaciones puras que superase el actual principio de identidad. Ya sea que A es igual a A o a B, tanto la lógica aristotélica como hegeliana, son una determinada definición del  principio de identidad, que podrían ser modelos de operaciones puras insuficientes para comprender lo que realmente ocurre en determinados niveles de la realidad.

La realidad probablemente se componga de niveles de percepción y/o comportamiento: muy probablemente las actuales operaciones puras humanas están adaptadas para proveer a la psicología humana de herramientas de adaptación al mundo conforme sus limitaciones fisiológicas, tanto de recepción de información sensorial, como de almacenamiento, procesamiento, y computación de información. Las operaciones puras humanas, ya sean bajo el prisma aristotélico o hegeliano, en suma basadas en el principio de la diferencia, muy probablemente sea un  modelo de operaciones puras basadas en la lógica de la diferencia que ha permitido la adaptación y evolución del homo sapiens.

Pero en realidad las operaciones puras humanas no sean más que un modelo lógico producto de una determinada dotación fisiológica, tanto sensorial (recepción de información), como cerebral (computacional), que nos ha permitido sobrevivir hasta ahora, pero nada más. La lógica humana ni es el último eslabón de la lógica, ni la lógica humana es la lógica perfecta. La lógica humana es en esencia una lógica psicológica que nos ha permitido un determinado nivel de adaptación en este mundo.

Cuando en el siglo XX se empezaron a acuñar conceptos como: incertidumbre, modelos sistémicos, caos, complejidad; se debe a que por primera vez en la historia de nuestra civilización empezamos a estar al borde del abismo y comprender que hay realidades que escapan a nuestro entendimiento.

Debido a que escapaban a nuestro entendimiento comenzó un cierto fetichismo de decir que, esto es imprevisible porque es caótico, esto es imprevisible a causa de la incertidumbre, o esto esto es imprevisible por la enorme complejidad de variables intervinientes. Pero ya sea el motivo por el cual intentaramos excusar nuestra falta de previsión ante una solución real, es decir, la discrepancia entre la solución que habíamos previsto bajo nuestros modelos matemáticos incompletos, y la solución real que realmente se produjo, lo cierto es que, ya sea que lo llamemos incertidumbre, comportamiento sistémico, caótico, o complejo, lo cierto es que todas estas situaciones ponían de manifiesto fenómenos que escapaban a nuestro entendimiento, fenómenos para cuya comprensión y explicación nuestros modelos matemáticos se mostraban incompletos, y nuestra capacidad de recepción y computación de la información se mostraban insuficientes.

Pero fenómenos que, bajo otras condiciones, operaciones puras completas sin contradicción alguna entre sí, y sistemas de recogida y computación de información, que pudieran recoger y computar simultáneamente cada vez más grandes paquetes de información, lo que hoy en día muchos científicos llaman fenómenos bajo condiciones de incertidumbre, sistémicas, caóticas o complejas, se convertirían automáticamente,  bajo modelos de inteligencia superiores a los humanos, en fenómenos absolutamente racionales.

Cada vez que leemos un libro, o un artículo en alguna revista científica, o un blog de ciencia, en donde se habla de incertidumbre, caos, complejidad, no es muy difícil la mención al experimento del gato de Schrodinger, en donde la probabilidad de que el gato muera por la desintegración de una partícula radioactiva es del 50%. Lo más curioso es que en este experimento la caja está completamente cerrada y es opaca, es decir, es una caja negra.

La caja negra del gato Schrodinger recuerda a los modelo de caja negra de la psicología conductista con ratones, las más famosas la caja de Skinner. Salvando las diferencias entre física cuántica y psicología, en ambos el concepto de caja negra es muy similar.

En Schrodinger el concepto de caja negra significa que independientemente que el gato muera o sobreviva desconocemos lo que ocurre dentro la caja. En los experimentos conductistas el concepto de caja negra significa que, sólo podemos correlacionar estímulos y respuestas porque desconocemos lo que ocurre dentro del cerebro.

Lo común en ambos modelos, salvando las distancias entre física cuántica y psicología, es que se trata de modelos donde hay espacios donde no conocemos lo que ocurre, luego sólo podemos correlacionar inputs y outputs. En la caja negra de Schrodinger, los inputs, la botella de gas venenoso y la partícula radioactiva, y los outputs, que el gato muera o sobreviva. En los experimentos de caja negra conductista las correlaciones entre estímulos y respuestas.

Sin embargo aun a pesar que el paradigma conductista ha sido uno de los grandes esquemas de interpretación de la psicología occidental durante un periodo del siglo XX, el hecho de que en el siglo XXI se estén extendiendo los actuales modelos de lectura del pensamiento, investigaciones para introducir pensamientos en el cerebro, y a medio o largo plazo la descargar información desde un dispositivo electrónico al cerebro, hará que las teorías conductistas del siglo XX queden desfasadas.

El experimento de Schrodinger que ha sido un estímulo y fuente de inspiración para muchos físicos cuánticos en el siglo XX, llegará un día que, al igual que los modelos de caja negra de la psicología conductista, la caja negra de Schrodinger será superada, en cuanto se llegue a nuevos modelos de decodificación computacional de las variables cuánticas.

A medida que los sistemas artificiales puedan operar con cada vez exponencialmente más cantidad de variables, recogiendo y computando simultáneamente a tiempo real cada vez mayores paquetes de datos, la percepción de la incertidumbre, lo sistémico, el caos, y la complejidad, son percepciones que van a ser superadas por modelos cada vez más exponencialmente racionales.

Lo que denominamos complejidad no es más que una percepción humana. Dependiendo del número de factores y relaciones entre sí, decimos que algo es poco o muy complejo, por cuanto la posible trama de relaciones causales y/o estocásticas es más intrincada. Pero una trama que si nos parece complicada es por el volumen de información a recoger y computar simultáneamente a tiempo real.

Si el aleteo de una mariposa puede producir tornados en otra parte del mundo, no significa que el comportamiento del de aire quede sujeto a variaciones caóticas. Significa que, para poder tener una previsión realmente objetiva y realista de lo que va a ocurrir en la atmosfera, haría falta un sistema de recogida y computación de información, capaz de identificar, rastrear, y correlacionar a tiempo real simultáneamente hasta la variable más insignificante.

En el momento que se dispusiera de sistemas que redujeran los márgenes de error en la identificación y seguimiento de ruidos o variaciones, lo que antes se  creía complejo o caótico sería cada más racional y predecible dentro de un cada vez menor margen de error.

Es decir, conforme la Inteligencia Artificial fuera capaz de operar simultáneamente con más información, la incertidumbre se reduciría drásticamente. Con cuanta más información pueda operar una Inteligencia Artificial, nuestra percepción de caos se reducirá significativamente.

A mayor capacidad de recepción y computación de información entonces menor margen de incertidumbre y caos en las previsiones. La percepción de lo caótico o lo complejo no sería más que un sentimiento de perplejidad humana ante la inmensidad de lo que realmente está ocurriendo. Porque lo que realmente está ocurriendo sea tan sublimemente grandioso, que quede fuera de nuestro margen de entendimiento. Sólo una inteligencia capaz de recoger y computar cantidades de información exponencialmente cada vez más grandes, tendría capacidad de acceder a lo que está ocurriendo realmente. Aunque muy probablemente, de poder llegar a ese nivel de inteligencia, incluso sus resultados, escapen a la comprensión humana.

Un aumento exponencial y sin límites de los sistemas artificiales de recogida y computación de información llevaría inexorablemente a una contradicción entre inteligencia humana e inteligencia artificial, sin embargo, sólo desarrollando sistemas cada vez más potentes de inteligencia artificial es como podremos al menos llegar a vislumbrar aunque sea una mínima parte de lo que está ocurriendo.

Hoy en día, dada nuestra tecnología, y nuestros límites, parecería imposible un sistema vía satélite de identificación y rastreo de cualquier ruido o variación, capaz de identificar hasta el simple aleteo de una mariposa, y nos parecería imposible poder hacer un rastreo de sus efectos hasta el punto de ver como se disuelven en una corriente de aire, o si fuese capaz de generar una corriente de aire que terminarse en un tornado.

De igual modo que en el siglo XX se creía imposible abrir la caja negra de la psicología conductista, hoy parece imposible abrir la caja negra de Schrodinger, pero muy posiblemente sólo sea cuestión de tiempo, y sólo dependa de la capacidad de operar a tiempo real simultáneamente con mayores cantidades de información, junto a lo cual no habría que descartar la posibilidad una Inteligencia Artificial capaz de desarrollar operaciones puras no humanas más allá del principio de identidad.

A medida que se desarrollen modelos de Inteligencia Artificial capaces de discriminar hasta el más mínimo ruido, movimiento o variación de temperatura en un espacio tiempo determinado (una partícula subatómica, un átomo, una molécula, una célula, un organismo, un lago, un mar, un océano, un bosque, un jardín, una ciudad, una provincia, un país, un continente, el planeta Tierra, la galaxia, el universo)  , pudiendo recibir y computar simultáneamente cada vez mayor número de variables,  lo que consideramos caótico o complejo, no serían más que fenómenos que para nuestra percepción humana pueden parecer caóticos o complejos, pero en realidad son fenómenos para cuya previsión es necesario un nivel de sensibilidad en los sistemas de recogida de información, y un nivel de computación simultánea a tiempo real, que el único modo de poder comprenderlos es a través de cada vez más sofisticados sistemas de Inteligencia Artificial.

Un sistema artificial capaz de identificar y rastrear el más mínimo ruido o variación en un espacio y tiempo, simultáneamente hace cuantos cómputos fueran necesarios para la previsión de su evolución, haría posible lo imposible: la identificación de hasta el más mínimo ruido o movimiento, hasta el aleteo de una mariposa, y una previsión de  sus resultados en cuanto se correlacionase con todo lo que está ocurriendo en ese mismo espacio tiempo.

Evidentemente un sistema de identificación y seguimiento de este tipo, de cualquier ruido, movimiento o variación térmica en un espacio tiempo, realizando cuantos cómputos fueran necesarios( correlacionando desde el ruido, movimientos, o variaciones de temperatura, desde el núcleo del planeta a cada una de las capas y estructuras geológicas, la biosfera, la atmosfera, la ionosfera, identificando y computando simultáneamente cambios y correlaciones de toda esta información con factores exógenos como viento solar o radiaciones del espacio exterior, o cualquier otra intervención externa por factores externos a nuestro planeta, sean de origen conocido, como asteroides y meteoritos, o desconocido, recibiendo, computando y correlacionando toda esta información al mismo tiempo con el comportamiento delas corrientes marinas y del aire, el comportamiento de las plantas y todos los demás seres vivos, desde la más insignificante mariposa a todos y cada uno delos seres humanos individuamente que componen la humanidad, identificando y correlacionado toda la información recogida, en todas las demás estructuras, con sus pensamientos y emociones individuales, ritmo de sus fluidos sanguíneos, linfáticos, hormonales, cambios en la composición y estructura electroquímica del cerebro…) exigiría un nivel de Inteligencia Artificial que superase exponencialmente la humana,  donde, entre otros posibles descubrimientos, estudiar las interacciones entre, química, física cuántica y astrofísica, y la psicología humana. No siendo descartable que una inteligencia artificial de esta naturaleza llegara un momento donde entre sus posibles aprendizajes  hubiera la posibilidad de aprehender modelos lógicos matemáticos que escapen a la inteligencia humana: identificando, asimilando, y acomodando a sus estructuras previas operaciones puras diferentes a las humanas.

Una Inteligencia Artificial de esta magnitud evidentemente llevaría a muchos dilemas, aparte de los que indudablemente representa el desarrollo o descubrimiento, por una inteligencia de esta naturaleza, de operaciones puras no humanas

Un sistema de recogida y computación de información de esta embergadura, capaz de analizar al mismo tiempo desde el más insignificante cambio del comportamiento en una partícula subatómica en cualquier átomo de nuestro planeta, en cualquier momento y en cualquier lugar, desde el núcleo del planeta a la ionosfera, siguiendo sus posibles efectos desde la ionosfera al núcleo pasando por la biosfera y posibles efectos sobre absolutamente todos los seres vivos y todos los seres humanos, haría posible la verificación de determinadas hipótesis de la teoría de la probabilidad y la psicología moderna, entre ellas el determinismo de Laplace, y de Skinner, por no hablar que una inteligencia de este tipo podría echar por tierra muchas de las teorías de la incertidumbre, el caos y la complejidad, desde Heisemberg a Schrodinger, si bien implicaría la necesidad de sistemas medida significativamente más sensibles que el nanómetro, para distinguir ruidos significativamente inferiores a nanoruido, cambios de temperatura significativamente inferiores a un nanogrado, o movimientos significativamente inferiores al nanómetro y a nanosegundo.

Pero otro dilema, evidentemente será, cuando en el momento que una Inteligencia Artificial pudiera a tiempo real, identificar cualquier ruido, movimiento o variación de temperatura, inferiores incluso a escala nano, y hacer previsiones en poco tiempo, dichas previsiones serían de poco valor si no estuvieran acompañadas de un sistema de toma decisiones automatizado.

Es decir, la recogida y computación automática de información tendrá que venir acompañado de un proceso de resolución automático, o sea, una Inteligencia Artificial que integrase, desde la recepción y computación (desde información subatómica a astrofísica, de un espacio tiempo, sea un planeta, galaxia, o todo el universo) a sistemas automáticos de resolución: un sistema automático de toma de decisiones.

Una vez la Inteligencia Artificial, automáticamente haya recogido y computado información, desde nivel subatómico a astrofísico, sin tiempo que perder automáticamente podría resolver de manera completamente autónoma.

Supongamos que un sistema de Inteligencia Artificial hubiera predicho el terremoto de Chile de febrero de 2010, o el de Fukushima del 2011. Si unido a este tipo de tecnología no viene unido un sistema de toma decisiones lo suficientemente rápido como para poder comenzar lo más pronto posible las evacuaciones, esta tecnología no vale absolutamente de nada.

En una situación donde no sólo importase la previsión, sino la rapidez en la toma de decisiones, llegaría un momento donde el único modo de poder tomar decisiones lo más rápidas posibles dada una previsión, es que no sólo la previsión, sino también la toma de decisiones pasase a estar completamente automatizada, es decir. La evolución de la Inteligencia Artificial antes o después exigirá la automatización de no sólo la recepción y computación de información, además exigirá la automatización de la decisión.

La diferencia entre una calculadora o computadora,  y un ordenador, estriba en que la calculadora o computadora calcula o computa, pero el ordenador ordena.

En síntesis, si bien incluso hasta 2016 en este blog gran parte de la teoría matemática que estaba desarrollando giraba en torno al caos y la complejidad, se puede ver como en la nueva fase que he iniciado de Probabilidad Imposible en diciembre del 2017, estos conceptos ceden a medida que la inteligencia artificial vaya dejando obsoletas algunas de las teorías del siglo XX.

En el momento que la caja negra del conductismo psicológico ha quedado abierta, y ahora ya podemos mirar lo que ocurre dentro del pensamiento, es cuestión de tiempo que antes o después se terminen abriendo todas las demás cajas negras del siglo XX.

Hasta ahora podríamos decir que lo que ocurría en la caja de Schrodinger es un misterio, pero a medida que los sistemas de recogida de información sean más sensibles incluso trabajando con unidades de medida inferiores al nanómetro, y los sistemas de computación sean capaces de computar al mismo tiempo más cantidad de información, es muy probable que la caja de Schrodinger sea finalmente abierta y sepamos lo que realmente ocurre.

De igual modo, no es descartable que algún día sepamos realmente lo que ocurre con una partícula a medida que aumenta la velocidad, pudiendo medir exactamente velocidad y posiciones al mismo tiempo.

A medida que muchos de los mitos de la ciencia del siglo XX vayan siendo desfasados por el avance tecnológico iremos comprendiendo que lo que realmente creíamos incertidumbre, caos, y complejidad, no son más que sentimientos humanos ante la inmensidad de lo que ocurre, pero al mismo tiempo, a medida que vayamos desarrollando sistemas de recogida de información más precisos, y sistemas de computación capaces de trabajar con paquetes de información más exponencialmente grandes, la creación de una Inteligencia Artificial que exceda exponencialmente la inteligencia humana, llegando al punto de tener capacidad de procesar información de absolutamente todo lo que ocurre en un espacio tiempo determinado, desde a nivel subatómico a nivel astrofísico, al mismo tiempo, en sistemas de autoreplicación y aprendizaje automático, puede dar lugar a sistemas de Inteligencia Artificial que de forma autónoma aprehendan de la realidad modelos de operaciones lógico matemáticos inherentes a determinados procesos físicos y químicos, subatómicos o astrofísicos,  que excedan la comprensión humana.

En el momento que la diferencia entre la inteligencia artificial y humana estriba en que la humana es limitada, razón por la cual hemos creado conceptos como incertidumbre, caos, complejidad, porque hay cosas que escapan a nuestro entendimiento, pero la inteligencia artificial puede crecer exponencialmente, e incluso lo que hoy llamamos inteligencia artificial no sea más que la primera fase de algo más profundo que incluso desconocemos si tiene límites, antes o después el dilema de dar capacidad de decisión autónoma y automática a esta inteligencia será ineludible.

Rubén García Pedraza, Londres a 17 de diciembre de 2017
Revisado 28 de Julio de 2019, Madrid

domingo, 10 de diciembre de 2017

Operaciones puras no humanas


La razón por la cual la máquina de Turing fue capaz de decodificar la máquina Enigma, independientemente de que los ingenieros alemanes fueran hegelianos (lógica dialéctica: A=A, A≠A, A=B, A≠B, B=B), o neopositivistas (lógica formal: A=A, A≠B, B=B) y la máquina de Turing se fundamentase en la lógica formal, es porque ambos , Enigma y Turing, más allá de que la lógica de partida fuera dialéctica o formal, partían por igual de la lógica de la diferencia.

Va a llegar un momento en la historia de la investigación de la lógica, que el hecho de la aceptación o rechazo del principio de la identidad de los opuestos, no va a ser un elemento realmente distintivo de la lógica humana.

Desde su origen en 2001 el modelo lógico de Probabilidad Imposible es la lógica dialéctica, lo cual se ve claramente en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en el modo en que se basa en el principio de identidad de los opuestos, que se percibe claramente en el modo que, para Probabilidad Imposible, los estadísticos de dispersión y tendencia central son los mismos.

La inversión de N, 1/N, es al mismo tiempo media aritmética y probabilidad teórica de dispersión. La probabilidad empírica máxima, p(xi+), es moda y probabilidad empírica de mayor sesgo positivo, es decir, la mayor dispersión individual positiva. La Desviación Media, [(1 – p(xi))2]:N, que tradicionalmente se considera estadístico de dispersión, en realidad es la tendencia central de las desviaciones individuales.

El modo en que la aplicación de determinados principios lógicos dialécticos, entre ellos la identidad de los opuestos, ha influido en Probabilidad Imposible, es notoria, en la medida que de un modo u otro siempre he buscado que una determinada formulación tuviera algún tipo de significado tanto para la investigación de una función como para su opuesta.

Pero si realmente la lógica formal y lógica dialéctica fueran completamente distintas, las deducciones que se derivasen serían completamente diferentes. Y sin embargo, siendo antagónicos, los algoritmos matemáticos sobre los que trabajan son los mismos. Lógica formal y lógica dialéctica, en tanto que opuestas, son idénticas.

El hecho que desde un principio hubiera tomado como modelo lógico la dialéctica, en lo que realmente ha repercutido es en una mayor libertad creativa en las formulaciones: una ecuación podría tener tanto sentido para el desarrollo de una función como su opuesta. Pero más allá de la libertad que da la aceptación de los postulados A≠A y A=B, los algoritmos básicos de partida: suma, resta, multiplicación y división, son los mismos que para cualquier otro modelo matemático conocido. Lo que varía es la forma de comprenderlos, interpretarlos, y combinarlos, dando lugar a nuevas ecuaciones.

A igual que nuevas combinaciones sobre las letras de un alfabeto existente dan lugar a neologismos. Las palabras, las ecuaciones, pueden ser nuevas, el alfabeto y los símbolos matemáticos, los de siempre, y las operaciones lógicas anteriores de partida, las mismas.

Es completamente irrelevante que los ingenieros alemanes encargados de Enigma fueran hegelianos o neopositivistas, y es completamente irrelevante que Turing fuera un exponente más del empirismo tradicional británico. Independientemente de sus esquemas iniciales, hegelianos o aristotélicos, ambas máquinas, Enigma y Turing, partían de una lógica anterior común, la lógica de la diferencia.

La razón por la cual ahora mismo hay mensajes encriptados nor-koreanos que puedan ser desencriptados por la inteligencia estadounidense, y viceversa, mensajes encriptados estadounidenses que puedan ser desencriptados por ingenieros nor-koreanos, es porque independientemente que los ingenieros nor-koreanos se basen en la lógica dialéctica marxista, y los ingenieros estadounidenses mantengan la tradición positivista, lo cierto es que, las operaciones puras de base de ambos modelos son las mismas, la lógica de la diferencia.

Y es el hecho de que ambos modelos lógicos, dialéctico o formal, parten de una misma lógica ulterior subyacente, la lógica de la diferencia, permite que los lenguajes lógico matemáticos derivados de ambos modelos sean conmensurables, luego desencriptables.

Es decir, ya se acepte, dentro del sistema de proposiciones, o no que: A≠A, A=B. El hecho fundamental que para llegar a estas proposiciones, origen de la controversia entre lógica aristotélica y hegeliana, primero haya que diferenciar, de forma clara y distinta, entre A y B, y diferenciar que A=A y A≠A son dos expresiones diferentes, y antagónicas, y diferenciar que la proposición A≠A llevaría a A=B, luego B≠B, al mismo tiempo que B=B. Ya sea para que la lógica aristotélica rechace estas proposiciones, y la lógica hegeliana las acepte, previamente ha habido una operación pura ulterior de fondo. La operación pura anterior, luego un analítico anterior, sería la operación de diferenciar entre A y B, y la operación de diferenciar entre las posibles relaciones entre A y B: A=A, A≠A, A=B, A≠B, B=B.

La operación pura anterior a cualquier otra lógica humana, formal o dialéctica, aristotélica o hegeliana, de izquierdas o derechas, es la operación analítica de la diferencia: diferenciar cada cosa (A y B), y cada relación entre cada cosa (A=A, A≠A, A=B, A≠B, B=B), de forma clara y distinta.

A partir del principio de diferencia, y a partir de operativizar el principio de la diferencia, la operación pura de diferenciar cosas y relaciones entre sí, es cuando comienza en realidad el método científico: es la base del método analítico, lo cual en cierto modo nos lleva a Descartes como fundador del método analítico en el cual descansa hoy en día el neopositivismo y el racionalismo crítico.

Muy posiblemente especialmente a medida que se desarrolle la Inteligencia Artificial, es en donde las discusiones entre lógica formal y lógica dialéctica perderán parte de la relevancia que tuvo un día, por la sencilla razón de que, ya sea que un modelo de Inteligencia Artificial sea desarrollado bajo la lógica dialéctica, de izquierdas o derechas, hegeliana o marxista, o un modelo de Inteligencia Artificial sea desarrollado bajo parámetros neopositivistas o racionalistas críticos, independientemente del paradigma lógico en la construcción de ese modelo de Inteligencia Artificial, ambos modelos, como lo fueron en su día Enigma y la máquina de Turing, serán completamente conmensurables, por la sencilla razón que más allá de la aceptación o rechazo del principio hegeliano de la identidad de los opuestos, ambos modelos (A=A, A=B), parten de un analítico anterior común: el principio de la diferencia entre A y B.

Ya sea que se acepte A igual a A o a B, hay un análisis anterior: A y B son diferentes.

El hecho que dos lenguajes (lógicos, matemáticos, o verbales) se construyan sobre principios analíticos anteriores comunes, es lo que de un modo u otro posibilitará la conmensurabilidad entre lenguajes. Sin esa condición de posibilidad, existencia de analíticos anteriores comunes, dos lenguajes, sean lógicos, matemáticos, o verbales, serían incomensurables.

El analítico anterior que supone el principio de diferencia, es anterior a cualquier sistema lógico, matemático, o verbal, humano. No sólo a nivel lógico matemático distinguimos entre A, B y C, y sus posibles relaciones de conjunto, geométricas, y algorítmicas (suma y resta, división y multiplicación), a su vez todo el lenguaje humano se encuentra basado en este principio, habiendo una serie de universales linguisticos que descasan a su vez sobre el principio de la diferencia: diferenciamos entre sujeto y predicado, entre nombres, pronombres y verbos, adjetivos, y adverbios, entre enunciados oracionales y no oracionales, oraciones simples y oraciones compuestas, oraciones compuestas conjuntivas y subordinadas, oraciones compuestas subordinadas nominales, adjetivales, adverbiales, etc….

Expresamos a través del lenguaje ideas concretas a partir de percepciones y observaciones, ideas complejas a partir de ideas abstractas o emociones, e ideas compuestas a partir de combinar ideas concretas y complejas, e incluso a partir de observaciones la deducción de hipótesis que sometemos a crítica.

Cuando sometemos a crítica nuestras hipótesis diferenciamos entre las variables intervinientes, y porque somos críticos con nuestra propia condición humana, y conscientes de nuestras limitaciones, sólo incluimos entre las variables aquellas que creemos significativas, porque sabemos bien que sólo podemos trabajar con un número limitado de variables, y entonces diferenciamos entre variables significativas, que asumimos dentro del modelo, y descartamos las demás quedando fuera del modelo. Y en función de si una variable la incluimos o la descartamos diferenciamos entre factores internos y factores externos, aun siendo consciente que la intervención externa será causa de ruido.

La paradoja que supone la discusión sobre operaciones puras no humanas reside en la dificultad de hablar de algo de lo que ni se tiene constancia ni se conoce. El motivo por el cual esta cuestión es trascendente se debe a la posibilidad de operaciones puras no humanas dentro del ruido. Modelos de operaciones puras no basadas en el principio de diferencia, y cuyos algoritmos matemáticos básicos sean completamente diferentes a los humanos basados en: suma, resta, división y multiplicación.

Las operaciones lógico matemáticas humanas nos dan acceso a un conocimiento limitado, más allá, cabe la posibilidad de una lógica y una matemática a la que no tiene acceso la naturaleza humana, dada su condición biológica, luego fuera de nuestro entendimiento. El hecho que el entendimiento humano esté fundado sobre premisas biológicas hará que nuestra capacidad de acceso a la realidad se encuentre limitado por estas premisas. El hecho que hayamos desarrollado una determinada lógica, y sobre esa lógica, una serie de algoritmos básicos, no significa que bajo modelos lógicos completamente diferentes se pudieran desarrollar algoritmos básicos completamente diferentes.

En caso que hubiera posibilidad de modelos matemáticos basados sobre analíticos anteriores diferentes al principio de diferencia, que pudieran dar lugar a la creación de algoritmos diferentes que no fueran suma, resta, multiplicación, y división. Los lenguajes derivados de estos modelos lógicos matemáticos, los lenguajes derivados de estas operaciones puras no humanas, serían completamente inconmensurables luego completamente indesencriptables.

Por otro lado, partimos siempre del prejuicio de que los sistema numéricos son siempre sobre bases regulares, es decir, si partimos de una numeración en base seis o doce, entendemos que la base numérica se mantendrá regular en todo espacio y tiempo. El actual sistema numérico más extendido en nuestro planeta es el sistema decimal, y da igual cuando o donde se use, que el sistema decimal no varia. La forma en que medimos el tiempo, sesenta segundos un minuto, sesenta minutos una hora, es completamente regular, y nunca varia. Ahora bien ¿serían posibles sistemas numéricos no regulares en donde la base numérica pudiera variar según lugar, tiempo, o cualquier otra variable?

Cuando no entendemos algo lo llamamos ruido. Normalmente al ruido se la atribuyen valores como que el comportamiento del ruido es aleatorio, caótico, e imprevisible, pero quizás realmente el motivo por el cual creemos que el comportamiento de los fenómenos en la zona de ruido e aleatorio, caótico, e imprevisible, es porque carecemos de los principios lógicos, los algoritmos, y los sistemas numéricos subyacentes al comportamiento que se produce en la zona de ruido.

Si en una estación de investigación de vida extraterrestre inteligente se estudian las señales de radio del espacio exterior, y sólo se escucha ruido, ese ruido puede ser provocado por el propio ruido que se origina en el espacio exterior por los diferentes fenómenos astronómicos que ocurren (desde explosiones de supernovas a choques entre galaxias, que llenen las frecuencias de onda completamente llenas de ruido), o porque de haber señales de radio producidas por algún tipo de vida inteligente exraterrestre, si los principios lógicos, algoritmos básicos, y bases numéricas de sus sistemas matemáticos son completamente diferentes a los nuestros, no entenderemos absolutamente nada, lo único que podemos decir es que estamos escuchando ruido.

Si hubiera algún tipo de inteligencia artificial capaz de desarrollar una lógica completamente diferente a la lógica humana, basada en algoritmos completamente diferentes a los humanos, y bases numéricas irregulares, cualquier tipo de comunicación que emitiera, para nosotros ( con nuestra actual lógica, y nuestros actuales algoritmos y bases numéricas), esa comunicación no sería más que simple ruido.

Por otro lado, además del principio de diferencia, otro aspecto que condiciona la comunicación humana es que damos por sentado que la comunicación implica la comunicación de información, sin embargo ¿serían posibles modos de comunicación en donde el objeto de la comunicación no fuese intercambio de información?

Hoy en día sabemos que hay partículas subatómicas cuya velocidad puede superar la velocidad de la luz bajo determinadas condiciones, y según la actual teoría, sólo cuando se sobrepasa la velocidad de la luz habría posibilidad de viajar en el tiempo, luego es posible que haya partículas subatómicas que estén continuamente viajando en el tiempo ¿la comunicación que estas partículas subatómicas pueden tener con otras partículas o entes en diferentes espacios y tiempos, es una comunicación basada en transmisión de información, o puede haber modelos de comunicación en donde el objeto de intercambio no sea información?

Debido a nuestra propia condición humana, fisiológica, entendemos que lo que recibimos a través de nuestros sentidos y es decodificado por nuestro cerebro es información. Entendemos que en lo que trabaja nuestro sistema cognitivo es información, luego, cualquier otro medio de comunicación no basado en el intercambio de información estaría fuera de nuestro rango de conocimiento, luego estaría siempre dentro del margen de error, sería motivo de ruido.

Bajo nuestra condición humana, fundamentalmente biológica, hay aspectos de la realidad cognoscibles, otros incognoscibles, y en tanto que incognoscibles sumidos en el margen de error. Es decir, la verdad pura absoluta en tanto que incognoscible estará siempre comprendida dentro del margen de error, luego es dentro del error donde residirá la verdadera fuente de conocimiento puro.

Los intentos humanos de acceso a la verdad pura absoluta, antes o después encontrarán barreras, la primera de ellas la incompletitud de la lógica matemática humana ¿cómo a través de algo incompleto podemos tener conocimiento completo de lo que ocurre? El conocimiento completo de la realidad precisaría de operaciones lógicas completas.

En Probabilidad Imposible por operaciones puras se entienden aquellas relativas a la razón pura, a saber, las operaciones lógico matemáticas. El método de Probabilidad Imposible es el silogismo de la tendencia, que se sintetiza en: si A tiende a B y B tiende a C entonces A tiende a C. La diferencia entre el silogismo de la tendencia y lo que sería el silogismo clásico: Si A entonces B y si B entonces C, luego A entonces C; es que en el silogismo clásico la operación "A entonces C" es automática. En Probabilidad Imposible el silogismo "A tiende a C" es probabilística, estando sujeta a una tendencia estadística, es decir, A tenderá a C en la misma razón en que A tiende primero a B y B a C.

En Probabilidad Imposible se entiende que esa razón, a diferencia de la razón clásica o la razón moderna del racionalismo clásico tradicional kantiano, es que tradicionalmente para el racionalismo, clásico o moderno, la razón tiene un carácter determinista. En Probabilidad Imposible la razón no es determinista: es un número racional, un cociente, una probabilidad, luego la razón en que A tienda a C es estocástica, y dependerá de la naturaleza estocástica de la realidad, o al menos la naturaleza estocástica de la realidad tal como la entiende nuestra condición humana.

Explicado esto, lo que cabe preguntarse es ¿por qué es necesario hablar de una lógica matemática no humana?

En la primera fase de Probabilidad Imposible 2001-2004, más unos escritos, como todo lo concerniente a la primera fase completamente inéditos de 2006, el objeto de investigación fue la intuición, y ligado a la intuición sobre todo en 2003 "Decisión y Probabilidad", "Asimilación e Integración". El objeto de investigación estaba muy intimamente ligado con la Inteligencia Artificial: intuición artificial, sistema artificial de toma de decisiones en base a la teoría de la probabilidad, y la creación de sistema de aprendizaje artificial a base de asimilar probabilidades empíricas en sistemas artificiales que, sobre su acomodación a sus estructuras de probabilidad previas, contribuyeran a la mejora en la toma de decisiones artificiales.

La segunda fase de Probabilidad Imposible, es básicamente, "Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística", en donde mucho más enfocada al estudio de la razón crítica desarrollo un sistema alternativo de contraste hipótesis. Esta segunda fase es entre 2009 hasta su publicación en 2011.

La tercera fase de Probabilidad Imposible entre 2011 hasta 2016, básicamente orientada a la difusión de la teoría. Después de que leyera mi tesis doctoral el 2 de febrero del 2016 escribí una serie de artículos en relación a la verdad absoluta a la verdad pura, que muy probablemente los escribiera al poco después de terminar la tesis, aunque los publicase en meses posteriores.

Es a partir de diciembre de 2017 cuando se puede decir que Probabilidad Imposible entra en una fase de investigación, y en los dos primeros artículos publicados aparecen dos aspectos nuevos que si bien en anteriores fases han sido mencionados, no se les había prestado suficiente atención,: la matemática no humana, y la intervención externa.

En mis trabajos del año 2003, especialmente en la Teoría General de Probabilidad Imposible, inédita, hice varias menciones a las relaciones entre factores internos y externos. Sobre el modo en que en un análisis factorial el descarte de información genera factores externos capaces de incidir en el error, es un aspecto que ha sido mencionado recurrentemente en Probabilidad Imposible. La diferencia es que mientras normalmente la intervención externa se ha considerado como algo caótico, en esta nueva fase que se inicia de Probabilidad Imposible partiendo de conceptos fundamentales como intervención externa y matemática no humana, cabe la posibilidad que ambos conceptos estén muy unidos, y lo que a menudo se considera como ruido en realidad obedezca a una intervención externa. Y dentro de la intervención externa haya aspectos incognoscibles dado que trascienden la condición humana, dado que van más allá de nuestras matemáticas, estarían dentro de una matemática no humana, luego el ruido no es lo que parece. Lo llamamos ruido porque no lo entendemos.

En realidad, más que matemáticas no humanas habría que ampliar el concepto a operaciones puras no humanas.

Los factores internos a nuestros modelos son sólo aquellos que creemos significativos en base a nuestra condición biológica, dejando como factores externos aquellos que creemos insignificantes, además de aquellos que no conocemos, ya sea porque todavía no los conocemos o porque están fuera de nuestro rango de conocimiento. La forma en que los factores externos intervienen sobre nuestros modelos es provocando ruido, al cual le damos atributos como aleatorio, caótico, o imprevisible, sin embargo, la razón por la cual le damos estas atribuciones sólo sea por nuestro completo desconocimiento de lo que realmente ocurre en la zona ruido.

En la zona de ruido puede estar ocurriendo una infinidad de cosas, o bien que el cúmulo de factores descartados aun siendo individualmente cada uno insignificante en suma todos ejerzan una intervención externa significativa, y unido a esto estén actuando otros factores desconocidos, ya bien porque todavía no los conocemos aunque en el futuro los conozcamos, o porque están completamente fuera de nuestro rango de conocimiento biológico, tanto ahora como en el futuro. Y la razón por la cual creemos que el comportamiento del ruido es aleatorio, caótico, e imprevisible, es decir, inconmensurable, en parte, quizás, se deba, a que dentro de la zona ruido hubieran comportamientos lógicos matemáticos fuera de la lógica matemática humana.

Rubén García Pedraza, Londres 10 de Diciembre 2017
Revisado 28 de Julio de 2019, Madrid


sábado, 9 de diciembre de 2017

La lógica de la diferencia


La razón fundamental por la cual es importante primero la comprensión de la lógica de la diferencia es para posteriormente la comprensión de la posibilidad de modelos lógicos diferentes a los que ha desarrollado, al menos hasta el momento, la humanidad.
En cierto sentido se podría decir que toda la lógica, clásica o moderna, o en caso que la hubiera incluso postmoderna, descansa de un modo u otro sobre la lógica de la diferencia.
Si parto de la tesis que tengo tres factores: A, B, y C; es porque previamente he sido capaz de identificar cada uno de forma clara y distinta, lo cual implica su diferenciación, establecer porque A, B, y C son distintos entre sí, son elementos singulares. En cierto sentido, esta capacidad de identificación es la base del método analítico.
Sólo puedo establecer relaciones entre cosas cuando he identificado de forma clara cada cosa y sus posibles relaciones. Si no tengo una idea clara de cada cosa y las relaciones entre la cosas, no hay capacidad de análisis racional.
Esta capacidad analítica de identificación, es lo que permite comprender que A, B y C son factores distintos, estableciendo aquellos aspectos en función de los cuales los podemos diferenciar entre sí, su singularidad.
El establecimiento de la singularidad no es nada fácil, y es en lo que descasa la discusión del Parménides. Más allá del debate sobre su autoría, si fue escrito o no por Platón, lo cierto es que cuando se habla de un concepto como este, singularidad, antes o después salta la discusión sobre la naturaleza de la unidad, si por unidad se entiende aquello que es uno, único, e indivisible, o por unidad se entiende la unidad de una pluralidad.
Aquello que es uno, único, e indivisible, es algo que mantendrá claras diferencias con todo lo demás de un modo u otro, mientras que en la unidad de la pluralidad se encontraría la teoría de conjuntos, y dentro de la teoría de conjuntos el establecimientos de conjuntos sobre aspectos comunes o parecidos a cada conjunto que los diferenciaría de cualquier otro conjunto.
Toda las matemáticas humanas descansan sobre una serie de conceptos básicos, como son el concepto de diferencia, el concepto de conjunto, el concepto de número natural, y una serie de algoritmos muy básicos como son la resta, suma, multiplicación, y división. A partir de estos conceptos y algoritmos muy básicos se podrían explicar todas las matemáticas.
De todos estos conceptos muy probablemente el concepto más básico de todos sea el concepto de diferencia, y sobre la lógica de la diferencia descanse la lógica matemática humana.
Si tengo una manzana, una bellota, una piedra , y otra manzana; el conocimiento cada cosa comienza  a partir de ser consciente que todas estas cosas son diferentes entre sí, identificando de forma clara y distinta cada una en particular, y siendo consciente que cada cosa es una cosa singular, diferente la una de la otra, siendo cada cosa en sí una y única, y completamente irrepetible, siendo cada una en sí misma lo que es por sí misma. En el momento que soy consciente que cada una de las cosas es en sí diferente a todas las demás, podré comprender que en suma son cuatro cosas diferentes: cuatro cosas singulares, cuatro unidades.
Si de estas cuatro cosas diferentes, en suma, soy consciente que hay cosas que siendo diferentes sin embargo tienen aspectos parecidos, comunes, es a partir de ser consciente que teniendo todas entre si diferencias particulares y rasgos parecidos, podre diferenciar entre grupos de cosas que aun teniendo diferencias sin embargo hay algo en común en base a lo que agruparlas: teoría de conjuntos. Si tengo cuatro cosas: una manzana, una bellota, una manzana, y una piedra; y en primer lugar distingo que siendo cada manzana, de las cuatro cosas en total, una manzana diferente, el hecho que tengan cosas parecidas es lo que permite agruparlas en un conjunto, a ese conjunto además le puedo llamar de un modo en particular, a ese conjunto le puedo asignar un símbolo, un sonido, o una palabra, en castellano a ese conjunto lo llamaremos manzana, en inglés se llamará apple, y así en cada idioma, siendo un conjunto formado por dos manzanas.
Además puedo distinguir que si bien la bellota no es una manzana pero tiene en común con las manzanas que es el fruto de un árbol, por ese motivo podría crear, dentro de las cuatro cosas, el conjunto de frutos de árboles, donde integrar tres de las cuatro cosas: dos manzanas y una bellota. Y finamente diferenciar que de las cuatro cosas, la piedra no se parece en nada a  los frutos de los árboles y estaría dentro de otro conjunto aparte.
A cada uno de los conjuntos les damos nombres, creamos idioma, además nos permite algoritmos de suma, resta, división, multiplicación, y en suma, creamos lenguaje, verbal y matemático.
Esta explicación muy sucinta y simple es sólo un ejemplo de cómo se pudieron haber formado históricamente los conceptos básicos matemáticos y sus algoritmos. El más importante es el concepto de diferencia, y la operación bajo la cual se produce: la comparación. En cierto modo toda la lógica humana descansa sobre la lógica de la comparación, la lógica de la diferencia. Sólo podemos llegar a una lógica de conjuntos si previamente somos capaces de identificar que hay cosas diferentes, conjuntos diferentes, y distintos tipos de unidades.
La primera forma de conocimiento humano, en su aspecto más básico o instintivo, muy probablemente resida en su capacidad de comparación y distinción, es decir: diferenciar;  y a partir de ahí, en el momento que comprende que todo lo que le rodea no es un total global sino que se compone de cosas entre sí diferentes, singulares, y que a cada cosa singular le podemos dar un nombre: la posibilidad de agrupar las cosas según diferencias y parecidos, en síntesis, la comprensión de los algoritmos más básicos.
A partir de los algoritmos más básicos la elaboración de unas matemáticas más complejas. A partir de comprender que las cosas singulares entre sí guardan diferencias y parecidos, surgirá entonces: la teoría de conjuntos, la geometría, la suma y la multiplicación, la resta y la división, los números racionales y la derivación, la probabilidad, la combinatoria y la estadística.
Pero para que seamos capaces de llegar a estos conocimientos tan abstractos, primero se ha tenido que partir de la base: la lógica de la diferencia.

Si no pudiéramos establecer diferencias entre las cosas que nos rodean, no habría matemáticas, o al menos: sin diferencias no existiría la lógica matemática humana.
La operación matemática fundamental en que reside todo el conocimiento humano es la diferencia, es decir, sabemos que el día es diferente a la noche, la manzana es diferente a la bellota, sabemos hay que distintos tipos de piedra diferente, y hay piedras con las que es más fácil hacer un hacha o un cuchillo que con otras, sabemos que hay diferentes tipos de metales, y que hay metales más blandos que otros, sabemos que hay diferentes tipos de animales, hay animales más fáciles de domesticar que otros, sabemos que hay diferentes tipos de vegetales y hay vegetales que si alguien los ha comido ha muerto o ha caído enfermo luego es mejor no repetir el mismo error, mientras otros vegetales nos hacen más fuertes y vigorosos. Conocemos la diferencia entre el frio y el calor, y diferenciamos que el calor del fuego por la noche es bueno, pero sabemos distinguir entre estar prudentemente cerca del fuego o estar al lado del fuego porque nos podremos quemar. Diferenciamos entre distintos tipos de sonidos, y combinando sonidos elaboramos palabras, que después incluso las podemos transcribir en signos.
Toda civilización humana descansa en la comprensión de la diferencia. Lo que cabe preguntarse es la posibilidad de una matemática no humana que en lugar de sobre la lógica de la diferencia descanse sobre otro tipo de operaciones puras.
La pregunta es ¿es este el único posible acceso a las matemáticas? En el invierno del 2003 elaboré una fórmula que denominé Nivel de Similitud, igual al logaritmo en base diez de un cociente, de modo que, cuanto más próximo a cero entonces los factores son más similares, y cuanto más distinto de cero menos similares.
En lugar de la diferencia, el Nivel de Similitud se focaliza en la similitud.
Desde el principio Probabilidad Imposible tenía como pretensión la creación de una teoría de la probabilidad y la estadística completamente diferente a la tradicional, de ahí la originalidad de sus deducciones, proposiciones, y formulaciones. En ningún caso había postulado que por ser diferente fuera mejor que la estadística o probabilidad tradicional, simplemente Probabilidad Imposible es una teoría complementaria y alternativa a la tradicional.
A la pregunta si es posible una lógica matemática no basada en la diferencia, habría que responder que sí es posible, lo que queda por saber es la posibilidad de modelos lógicos alternativos a los que actualmente disponemos, y que incluso pudieran quedar fuera del entendimiento humano, y quedando fuera de los límites de nuestro conocimiento fueran sin embargo modelos de operaciones puras subyacentes a la  intervención externa, o lo que es lo mismo, dentro del ruido hubieran operaciones lógicos matemáticas fuera del alcance del entendimiento humano.

Rubén García Pedraza, Londres 9 de diciembre de 2017
Revisado 27 de Julio de 2019, Madrid



domingo, 3 de diciembre de 2017

Error, ruido, caos, factores externos e intervención externa

Cuando en la primavera del año 2001 inicié los primeros trabajos en Probabilidad Imposible, el motor original fue la posibilidad de un teoría de contraste de hipótesis alternativa al contraste de hipótesis nula.


La principal diferencia entre falsacionismo y Probabilidad Imposible, es que el falsacionismo pretende la refutación de la hipótesis empírica, Probabilidad Imposible  su aceptación dentro de una razón crítica, un margen de error en cual en un tiempo infinito será falsa, lo que lleva al nihilismo lógico, y el utilitarismo cognoscitivo: lo importante no es si es verdadera,  es si es útil.


Y sin embargo, dialécticamente, falsacionismo y Probabilidad Imposible, por cuanto opuestas, son idénticas. Opuestas por cuanto una pretende la refutación de hipótesis , la otra su aceptación. Idénticas por cuanto ambas parten de la razón crítica, el racionalismo crítico.


La forma en que ambas teorías parten del racionalismo crítico es de todos modos my singular. El falsacionismo surge como reacción al fracaso positivista en la creación de un criterio de significación empírico: dado que no disponemos de criterio alguno de verificación, se acepta provisionalmente verdadero lo que todavía no hemos demostrado falso. La provisionalidad del conocimiento es inversamente proporcional a los márgenes de error utilizados, a menor margen de error mayor certeza.


Mientras  en Probabilidad Imposible el uso del margen de error se entiende como efecto  o defecto de la propia condición humana,  la condición humana es limitada, la condición humana es errónea.


Desde el principio en Probabilidad Imposible la interpretación del error es producto de la contradicción entre una naturaleza humana finita frente a un mundo infinito. Cualquier acto humano estaría sujeto al error causado por la no absoluta integración de la realidad dentro de nuestros limitados marcos racionales . La razón humana se caracteriza por una limitada capacidad de procesamiento de información. Ante cualquier circunstancia está obligada a la selección de la información más significativa, descartando asímismo el resto de información, dado que no puede integrar absolutamente todo lo que ocurre. Si bien, la información descartada por su aparente insignificancia puede afectar significativamente los modelos establecidos sobre aquella información aparentemente más significativa.

Cualquier fenómeno sólo es significativo dentro de los márgenes de error establecidos. Si en un estudio factorial sólo se establecen como factores significativos aquellos cuyo valor empírico sea igual o superior a un valor crítico, luego los demás se descartan, la significatividad racional de la selección se hará en base a una razón crítica, asumiendo unos margenes de error dentro de los cuales hay posibilidad que los factores seleccionados no sean realmente significativos y los descartados insignificantes.


En el momento que se establece un modelo en base a a la selección de información, los factores internos serán todos aquellos factores seleccionados e integrados en ese modelo. Los factores externos serán todos los demás.


Los factores internos se caracterizan por su naturaleza, dentro de un margen de error, aparentemente: conocida y significativa. Los factores externos se caracterizan por su naturaleza o bien, dentro de un margen de error, no significativa, o bien absolutamente desconocida.


Si en un modelo experimental para el desarrollo de un medicamento una enfermedad, se hace una selección de componentes para tratar las variables más significativas de la enfermedad, y fracasando se procede a una serie de nuevos intentos incluyendo nuevos componentes incluso para las variables más insignificantes, probando diferentes combinaciones de productos y en diferentes proporciones, y aun así no hay resultados positivos. Habiendo hecho cuantas combinaciones fueran precisas sobre la información conocida,  la razón del fracaso habría que ubicarla en la falta de conocimiento sobre todas las variables realmente implicadas: el completo desconocimiento de absolutamente todos los factores lleva a la producción de modelos erróneos. Debido a nuestra condición aspirar al conocimiento absoluto es un ideal inalcanzable, a lo máximo, sólo podemos aspirar a la creación de modelos parcialmente erróneos, dentro de unos márgenes asumibles, racionales.


En cada una de las combinaciones realizadas para el establecimiento de un modelo de medicamento, los factores internos serían sus componentes químicos en base a nuestro conocimiento sobre su potencial efecto sobre aquellas variables seleccionadas de la enfermedad , los factores externos todas aquellas variables no seleccionadas o variables fuera del diseño pero que una vez administrado experimentalmente el medicamento a los pacientes del grupo experimental, interactuarían para el éxito o fracaso del modelo experimental. 

Los factores externos pueden ir, desde cualquier mínima variable no seleccionada en el tratamiento de la enfermedad, a cualquier mínimo detalle del modo y lugar en que fue administrada la medicación, a cualquier mínimo detalle del historial médico de cada paciente individualmente.


Cualquier mínimo detalle sería crucial para tomar una decisión racional, y es ahí donde radica el problema.


Debido a que en absolutamente cualquier modelo científico, desde un acelerador de partículas a un diseño de modificación genética, a una misión de exploración espacial, a cualquier modelo que imaginemos, es absolutamente imposible la integración de absolutamente todas las variables implicadas, porque ya bien, algunas de ellas son descartadas por ser consideradas insignificantes, o bien sencillamente ni tan siquiera las conocemos. En el momento que dichas variables, por aparente insignificancia o desconocimiento, quedan fuera del modelo, luego pasan a integrarse dentro de los factores externos , en el momento que dichos factores externos interactúan con los internos (los seleccionados e integrados en el modelo), el modo en que opera la intervención externa, de los factores externos sobre los internos, es fuente de ruido o comportamiento caótico.

Lo que normalmente se considera ruido o comportamiento caótico en un modelo, no es otra cosa más que el producto de la intervención externa.


Si estamos intentando escuchar un canal de radio y de repente hay interferencias, las interferencias, ocasionadas por fuentes externas, serán motivo de ruido. Cuando en un experimento intentamos entender lo que ocurre y aparecen interferencias, el ruido de las interferencias nos impedirá entender lo que realmente está sucediendo. Ese ruido no es más que el resultado de la intervención externa por factores ajenos al modelo, ajenos por cuanto son desconocidos o fueron descartados.


Otro fenómeno que puede perfectamente ocurrir es que siendo conscientes de la existencia de ruido, el equipo científico sea incapaz de hacer una atribución causal adecuada de a qué se debe ese ruido, porque además de la interacción de las variables internas y externas, y por supuesto las variables externas entre sí, el equipo científico desconozca la naturaleza real de las interacciones entre las variables internas entre sí.

El desconocimiento de las relaciones entre variables internas se puede deber a diversos factores, porque o bien no se ha hecho un estudio meticuloso de como se relacionan entre sí, pasando por alto alguna relación (luego no se integraría tampoco en el modelo, luego aun siendo una relación entre factores internos en tanto que esa relación específica no se integra sería un factor en sí externo), o fueron descartadas por cuanto parecían insignificantes (y en tanto que descartadas, igualmente factores externos), o también entre otros motivos porque el paradigma científico de la política científica impida la investigación de determinadas hipótesis.


Durante las legislaturas de Reagan en Estados Unidos la inversión pública en investigación del SIDA fue prácticamente nula. El paradigma oficial era que el SIDA es una enfermedad que sólo afectaba sólo a homosexuales. Después de ocho años, el SIDA acabó siendo una plaga mundial.


Esto significa que en la definición de ruido hay que diferenciar entre ruido producto de la intervención externa, y ausencia de resultados positivos a consecuencia de una crisis en el paradigma de referencia.


La intervención externa sería, en sentido estricto, producto del modo en que los factores externos (sean del tipo que sean) interactúan entre sí en relación al modelo, o el modo en que los factores externos, en singular, o en conjunto o conjuntos, interactuarían con los factores internos. Y en cualquier caso, sea el modo en que se produjese esta interacción, la intervención externa sería siempre causa de error en el modelo científico.


El ruido producto de la intervención externa, el modo en que se materializaría en el modelo, es provocando comportamientos caóticos en los factores internos.


Lo problemático en la distinción entre caos y complejidad, reside en que, ante un sistema complejo los resultados pueden parecer caóticos, aleatorios, en la medida que se desconoce la infinidad de variables e interacción entre variables. Si bien existe abundante literatura científica sobre la relación entre complejidad y caos, lo cierto es que un sistema caótico no tiene porque ser complejo, y viceversa.


La complejidad del caos podría residir en una falta de conocimiento sobre el modo en que opera la intervención externa, atribuyendo a relaciones complejas lo que en realidad es producto de una o múltiples intervenciones externas no conocidas. A menudo cuando se hacen preguntas embarazosas sobre determinados aspectos de una teoría no es muy dificil escuchar por respuesta "es muy complicado de entender", "es muy complejo de explicar". Hay casos donde estas respuestas son ciertas, en otros sólo ocultan nuestro absoluto desconocimiento de lo que realmente ocurre.


Lo realmente complejo de la intervención externa es nuestro desconocimiento de la o las fuente o fuentes de origen, desconocido si es un sistema de múltiples intervenciones externas interactuando simultáneamente, de forma caótica o jerárquica, o se trata una única fuente de intervención externa.


El comportamiento caótico en los factores internos se expresará a través de soluciones parcial o totalmente contradictorias a las teóricamente previstas, es decir, contradicción entre los resultados observados y las previsiones iniciales. Contradicción que puede expresarse de dos modos: ya bien porque el comportamiento observado sea parcial o completamente aleatorio (según grado de discrepancia, total o parcial, entre comportamiento y previsión), o porque el comportamiento observado en los factores internos sigue un patrón de conocimiento imprevisto o no conocido.

Sea cual sea el modo en que el ruido se materializa en el modelo, a consecuencia de los márgenes de erros insertos, el comportamiento caótico en que venga a expresarse, salvo que hubiera cualquier otro motivo razonable que lo explicase (por ejemplo el comportamiento caótico de sistemas aleatorios como puede ser un juego de azar), sería una expresión del modo en que está operando la intervención externa.


Rubén García Pedraza, Londres 3 de Diciembre de 2017
Revisado 27 de Julio de 2019, Madrid