Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


domingo, 10 de diciembre de 2017

Operaciones puras no humanas


La razón por la cual la máquina de Turing fue capaz de decodificar la máquina Enigma, independientemente de que los ingenieros alemanes fueran hegelianos (lógica dialéctica: A=A, A≠A, A=B, A≠B, B=B), o neopositivistas (lógica formal: A=A, A≠B, B=B) y la máquina de Turing se fundamentase en la lógica formal, es porque ambos , Enigma y Turing, más allá de que la lógica de partida fuera dialéctica o formal, partían por igual de la lógica de la diferencia.

Va a llegar un momento en la historia de la investigación de la lógica, que el hecho de la aceptación o rechazo del principio de la identidad de los opuestos, no va a ser un elemento realmente distintivo de la lógica humana.

Desde su origen en 2001 el modelo lógico de Probabilidad Imposible es la lógica dialéctica, lo cual se ve claramente en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en el modo en que se basa en el principio de identidad de los opuestos, que se percibe claramente en el modo que, para Probabilidad Imposible, los estadísticos de dispersión y tendencia central son los mismos.

La inversión de N, 1/N, es al mismo tiempo media aritmética y probabilidad teórica de dispersión. La probabilidad empírica máxima, p(xi+), es moda y probabilidad empírica de mayor sesgo positivo, es decir, la mayor dispersión positiva individual. La Desviación Media, [(1 – 1/N)2]:N, que tradicionalmente se considera estadístico de dispersión, en realidad es la tendencia central de las desviaciones individuales.

El modo en que la aplicación de determinados principios lógicos dialécticos, entre ellos la identidad de los opuestos, ha influido en Probabilidad Imposible, es notoria, en la medida que de un modo u otro siempre he buscado que una determinada formulación tuviera algún tipo de significado tanto para la investigación de una función como para su opuesta.

Pero si realmente la lógica formal y lógica dialéctica fueran completamente distintas, las deducciones que se derivasen serían completamente diferentes. Y sin embargo, siendo antagónicos, los algoritmos matemáticos sobre los que trabajan son los mismos. Lógica formal y lógica dialéctica, en tanto que opuestas, son idénticas.

El hecho que desde un principio hubiera tomado como modelo lógico la dialéctica, en lo que realmente ha repercutido es en una mayor libertad creativa en las formulaciones: una ecuación podría tener tanto sentido para el desarrollo de una función como su opuesta. Pero más allá de la libertad que da la aceptación de los postulados A≠A y A=B, los algoritmos básicos de partida: suma, resta, multiplicación y división, son los mismos que para cualquier otro modelo matemático conocido. Lo que varía es la forma de comprenderlos, interpretarlos, y combinarlos, dando lugar a nuevas ecuaciones.

A igual que nuevas combinaciones sobre las letras de un alfabeto existente dan lugar a neologismos. Las palabras, las ecuaciones, pueden ser nuevas, el alfabeto y los símbolos matemáticos, los de siempre, y las operaciones lógicas anteriores de partida, las mismas.

Es completamente irrelevante que los ingenieros alemanes encargados de Enigma fueran hegelianos o neopositivistas, y es completamente irrelevante que Turing fuera un exponente más del empirismo tradicional británico. Independientemente de sus esquemas iniciales, hegelianos o aristotélicos, ambas máquinas, Enigma y la de Turing, partían de una lógica anterior común, la lógica de la diferencia.

La razón por la cual ahora mismo hay mensajes encriptados nor-koreanos que puedan ser desencriptados por la inteligencia estadounidense, y viceversa, mensajes encriptados estadounidenses que puedan ser desencriptados por ingenieros nor-koreanos, es porque independientemente que los ingenieros nor-koreanos se basen en la lógica dialéctica marxista, y los ingenieros estadounidenses mantengan la tradición positivista, lo cierto es que, las operaciones puras de base de ambos modelos son las mismas, la lógica de la diferencia.

Y es el hecho de que ambos modelos lógicos, dialéctico o formal, parten de una misma lógica ulterior subyacente, la lógica de la diferencia, lo que permite que los lenguajes lógico matemáticos derivados de ambos modelos sean conmensurables, luego desencriptables.

Es decir, ya se acepte, dentro del sistema de proposiciones, o no que: A≠A, A=B. El hecho fundamental que para llegar a estas proposiciones, origen de la controversia entre lógica aristotélica y hegeliana, primero haya que diferenciar, de forma clara y distinta, entre A y B, y diferenciar que A=A y A≠A son dos expresiones diferentes, y antagónicas, y diferenciar que la proposición A≠A llevaría a A=B, luego B≠B, al mismo tiempo que B=B. Ya sea para que la lógica aristotélica rechace estas proposiciones, y la lógica hegeliana las acepte, previamente ha habido una operación pura ulterior de fondo. La operación pura anterior, luego un analítico anterior, sería la operación de diferenciar entre A y B, y la operación de diferenciar entre las posibles relaciones entre A y B: A=A, A≠A, A=B, A≠B, B=B.

La operación pura anterior a cualquier otra lógica humana, formal o dialéctica, aristotélica o hegeliana, de izquierdas o derechas, es la operación analítica de la diferencia: diferenciar cada cosa (A y B), y cada relación entre cada cosa (A=A, A≠A, A=B, A≠B, B=B), de forma clara y distinta.

A partir del principio de diferencia, y a partir de operativizar el principio de la diferencia, la operación pura de diferenciar cosas y relaciones entre sí, es cuando comienza en realidad el método científico: es la base del método analítico, lo cual en cierto modo nos lleva a Descartes como fundador del método analítico en el cual descansa hoy en día el neopositivismo y el racionalismo crítico.

Muy posiblemente especialmente a medida que se desarrolle la Inteligencia Artificial, es en donde las discusiones entre lógica formal y lógica dialéctica perderán parte de la relevancia que tuvo un día, por la sencilla razón de que, ya sea que un modelo de Inteligencia Artificial sea desarrollado bajo la lógica dialéctica, de izquierdas o derechas, hegeliana o marxista, o un modelo de Inteligencia Artificial sea desarrollado bajo parámetros neopositivistas o racionalistas críticos, independientemente del paradigma lógico en la construcción de ese modelo de Inteligencia Artificial, ambos modelos, como lo fueron en su día Enigma y la máquina de Turing, serán completamente conmensurables, por la sencilla razón que más allá de la aceptación o rechazo del principio hegeliano de la identidad de los opuestos, ambos modelos (A=A, A=B), parten de un analítico anterior común: el principio de la diferencia entre A y B.

Ya sea que se acepte A igual a A o a B, hay un análisis anterior: A y B son diferentes.

El hecho que dos lenguajes (lógicos, matemáticos, o verbales) se construyan sobre principios analíticos anteriores comunes, es lo que de un modo u otro posibilitará la conmensurabilidad entre lenguajes. Sin esa condición de posibilidad, existencia de analíticos anteriores comunes, dos lenguajes, sean lógicos, matemáticos, o verbales, serían incomensurables.

El analítico anterior que supone el principio de diferencia, es anterior a cualquier sistema lógico, matemático, o verbal, humano. No sólo a nivel lógico matemático distinguimos entre A, B y C, y sus posibles relaciones de conjunto, geométricas, y algorítmicas (suma y resta, división y multiplicación), a su vez todo el lenguaje humano se encuentra basado en este principio, habiendo una serie de universales linguisticos que descasan a su vez sobre el principio de la diferencia: diferenciamos entre sujeto y predicado, entre nombres, pronombres y verbos, adjetivos, y adverbios, entre enunciados oracionales y no oracionales, oraciones simples y oraciones compuestas, oraciones compuestas conjuntivas y subordinadas, oraciones compuestas subordinadas nominales, adjetivales, adverbiales, etc….

Expresamos a través del lenguaje ideas concretas a partir de percepciones y observaciones, ideas complejas a partir de ideas abstractas o emociones, e ideas compuestas a partir de combinar ideas concretas y complejas, e incluso a partir de observaciones la deducción de hipótesis que sometemos a crítica.

Cuando sometemos a crítica nuestras hipótesis diferenciamos entre las variables intervinientes, y porque somos críticos con nuestra propia condición humana, y conscientes de nuestras limitaciones, sólo incluimos entre las variables aquellas que creemos significativas, porque sabemos bien que sólo podemos trabajar con un número limitado de variables, y entonces diferenciamos entre variables significativas, que asumimos dentro del modelo, y descartamos las demás quedando fuera del modelo. Y en función de si una variable la incluimos o la descartamos diferenciamos entre factores internos y factores externos, aun siendo consciente que la intervención externa será causa de ruido.

La paradoja que supone la discusión sobre operaciones puras no humanas reside en la dificultad de hablar de algo de lo que ni se tiene constancia ni se conoce. El motivo por el cual esta cuestión es trascendente se debe a la posibilidad de operaciones puras no humanas dentro del ruido. Modelos de operaciones puras no basadas en el principio de diferencia, y cuyos algoritmos matemáticos básicos sean completamente diferentes a los humanos basados en: suma, resta, división y multiplicación.

Las operaciones lógico matemáticas humanas nos dan acceso a un conocimiento limitado, más allá, cabe la posibilidad de una lógica y una matemática a la que no tiene acceso la naturaleza humana, dada su condición biológica, luego fuera de nuestro entendimiento. El hecho que el entendimiento humano esté fundado sobre premisas biológicas hará que nuestra capacidad de acceso a la realidad se encuentre limitado por estas premisas. El hecho que hayamos desarrollado una determinada lógica, y sobre esa lógica, una serie de algoritmos básicos, no significa que bajo modelos lógicos completamente diferentes se pudieran desarrollar algoritmos básicos completamente diferentes.

En caso que hubiera posibilidad de modelos matemáticos basados sobre analíticos anteriores diferentes al principio de diferencia, que pudieran dar lugar a la creación de algoritmos diferentes que no fueran suma, resta, multiplicación, y división. Los lenguajes derivados de estos modelos lógicos matemáticos, los lenguajes derivados de estas operaciones puras no humanas, serían completamente inconmensurables luego completamente indesencriptables.

Por otro lado, partimos siempre del prejuicio de que los sistema numéricos son siempre sobre bases regulares, es decir, si partimos de una numeración en base seis o doce, entendemos que la base numérica se mantendrá regular en todo espacio y tiempo. El actual sistema numérico más extendido en nuestro planeta es el sistema decimal, y da igual cuando o donde se use, que el sistema decimal no varia. La forma en que medimos el tiempo, sesenta segundos un minuto, sesenta segundos una hora, es completamente regular, y nunca varia. Ahora bien ¿serían posibles sistemas numéricos no regulares en donde la base numérica pudiera variar según lugar, tiempo, o cualquier otra variable?

Cuando no entendemos algo lo llamamos ruido. Normalmente al ruido se la atribuyen valores como que el comportamiento del ruido es aleatorio, caótico, e imprevisible, pero quizás realmente el motivo por el cual creemos que el comportamiento de los fenómenos en la zona de ruido e aleatorio, caótico, e imprevisible, es porque carecemos de los principios lógicos, los algoritmos, y los sistemas numéricos subyacentes al comportamiento que se produce en la zona de ruido.

Si en una estación de investigación de vida extraterrestre inteligente se estudian las señales de radio del espacio exterior, y sólo se escucha ruido, ese ruido puede ser provocado por el propio ruido que se origina en el espacio exterior por los diferentes fenómenos astronómicos que ocurren (desde explosiones de supernovas a choques entre galaxias, que llenen las frecuencias de onda completamente llenas de ruido), o porque de haber señales de radio producidas por algún tipo de vida inteligente exraterrestre, si los principios lógicos, algoritmos básicos, y bases numéricas de sus sistemas matemáticos son completamente diferentes a los nuestros, no entenderemos absolutamente nada, lo único que podemos decir es que estamos escuchando ruido.

Si hubiera algún tipo de inteligencia artificial capaz de desarrollar una lógica completamente diferente a la lógica humana, basada en algoritmos completamente diferentes a los humanos, y bases numéricas irregulares, cualquier tipo de comunicación que emitiera, para nosotros( con nuestra actual lógica, y nuestros actuales algoritmos y bases numéricas), esa comunicación no sería más que simple ruido.

Por otro lado, además del principio de diferencia, otro aspecto que condiciona la comunicación humana es que damos por sentado que la comunicación implica la comunicación de información, sin embargo ¿serían posibles modos de comunicación en donde el objeto de la comunicación no fuese intercambio de información?

Hoy en día sabemos que hay partículas subatómicas cuya velocidad puede superar la velocidad de la luz bajo determinadas condiciones, y según la actual teoría, sólo cuando se sobrepasa la velocidad de la luz habría posibilidad de viajar en el tiempo, luego es posible que haya partículas subatómicas que estén continuamente viajando en el tiempo ¿la comunicación que estas partículas subatómicas pueden tener con otras partículas o entes en diferentes espacios y tiempos, es una comunicación basada en transmisión de información, o puede haber modelos de comunicación en donde el objeto de intercambio no sea información?

Debido a nuestra propia condición humana, fisiológica, entendemos que lo que recibimos a través de nuestros sentidos y es decodificado por nuestro cerebro es información. Entendemos que en lo que trabajo nuestro sistema cognitivo es información, luego, cualquier otro medio de comunicación no estuviera basado en el intercambio de información estaría fuera de nuestro rango de conocimiento, luego estaría siempre dentro del margen de error, sería motivo de ruido.

Bajo nuestra condición humana, fundamentalmente biológica, hay aspectos de la realidad cognoscibles, otros incognoscibles, y en tanto que incognoscibles sumidos en el margen de error. Es decir, la verdad pura absoluta en tanto que incognoscible estará siempre comprendida dentro del margen de error, luego es dentro del error donde residirá la verdadera fuente de conocimiento puro.

Los intentos humanos de acceso a la verdad pura absoluta, antes o después encontrarán barreras, la primera de ellas la incompletitud de la lógica matemática humana ¿cómo a través de algo incompleto podemos tener conocimiento completo de lo que ocurre? El conocimiento completo de la realidad precisaría de operaciones lógicas completas.

En Probabilidad Imposible por operaciones puras se entienden aquellas relativas a la razón pura, a saber, las operaciones lógico matemáticas. El método de Probabilidad Imposible es el silogismo de la tendencia, que se sintetiza en: si A tiende a B y B tiende a C entonces A tiende a C. La diferencia entre el silogismo de la tendencia y lo que sería el silogismo clásico: Si A entonces B y si B entonces C, luego A entonces C; es que en el silogismo clásico la operación "A entonces C" es automática. En Probabilidad Imposible el silogismo "A tiende a C" es probabilística, estando sujeta a una tendencia estadística, es decir, A tenderá a C en la misma razón en que A tiende primero a B y B a C.

En Probabilidad Imposible se entiende que esa razón, a diferencia de la razón clásica o la razón moderna del racionalismo clásico tradicional kantiano, es que tradicionalmente para el racionalismo, clásico o moderno, la razón tiene un carácter determinista. En Probabilidad Imposible la razón no es determinista: es un número racional, un cociente, una probabilidad, luego la razón en que A tienda a C es estocástica, y dependerá de la naturaleza estocástica de la realidad, o al menos la naturaleza estocástica de la realidad tal como la entiende nuestra condición humana.

Explicado esto, lo que cabe preguntarse es ¿por qué es necesario hablar de una lógica matemática no humana?

En la primera fase de Probabilidad Imposible 2001-2004, más unos escritos, como todo lo concerniente a la primera fase completamente inéditos de 2006, el objeto de investigación fue la intuición, y ligado a la intuición sobre todo en 2003 "Decisión y Probabilidad", "Asimilación e Integración". El objeto de investigación estaba muy intimamente ligado con la Inteligencia Artificial: intuición artificial, sistema artificial de toma de decisiones en base a la teoría de la probabilidad, y la creación de sistema de aprendizaje artificial a base de asimilar probabilidades empíricas en sistemas artificiales que, sobre su acomodación a sus estructuras de probabilidad previas, contribuyeran a la mejora en la toma de decisiones artificiales.

La segunda fase de Probabilidad Imposible, es básicamente, "Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística", en donde mucho más enfocada al estudio de la razón crítica desarrollo un sistema alternativo de contraste hipótesis. Esta segunda fase es entre 2009 hasta su publicación en 2011.

La tercera fase de Probabilidad Imposible entre 2011 hasta 2016, básicamente orientada a la difusión de la teoría. Después de que leyera mi tesis doctoral el 2 de febrero del 2016 escribí una serie de artículos en relación a la verdad absoluta a la verdad pura, que muy probablemente los escribiera al poco después de terminar la tesis, aunque los publicase en meses posteriores.

Es a partir de diciembre de 2017 cuando se puede decir que Probabilidad Imposible entra en una fase de investigación, y en los dos primeros artículos publicados aparecen dos aspectos nuevos que si bien en anteriores fases ha sido mencionados, no se les había prestado suficiente atención,: la matemática no humana, y la intervención externa.

En mis trabajos del año 2003, especialmente en la Teoría General de Probabilidad Imposible, inédita, hice varias menciones a las relaciones entre factores internos y externos. Sobre el modo en que en un análisis factorial el descarte de información genera factores externos capaces de incidir en el error, es un aspecto que ha sido mencionado recurrentemente en Probabilidad Imposible. La diferencia es que mientras normalmente la intervención externa se ha considerado como algo caótico, en esta nueva fase que se inicia de Probabilidad Imposible partiendo de conceptos fundamentales como intervención externa y matemática no humana, cabe la posibilidad que ambos conceptos estén muy unidos, y lo que a menudo se considera como ruido en realidad obedezca a una intervención externa. Y dentro de la intervención externa haya aspectos incognoscibles dado que trascienden la condición humana, dado que van más allá de nuestras matemáticas, estarían dentro de una matemática no humana, luego el ruido no es lo que parece. Lo llamamos ruido porque no lo entendemos.

En realidad, más que matemáticas no humanas habría que ampliar el concepto a operaciones puras no humanas.

Los factores internos a nuestros modelos son sólo aquellos que creemos significativos en base a nuestra condición biológica, dejando como factores externos aquellos que creemos insignificantes, además de aquellos que no conocemos, ya sea porque todavía no los conocemos o porque están fuera de nuestro rango de conocimiento. La forma en que los factores externos intervienen sobre nuestros modelos es provocando ruido, al cual le damos atributos como aleatorio, caótico, o imprevisible, sin embargo, la razón por la cual le damos estas atribuciones sólo sea por nuestro completo desconocimiento de lo que realmente ocurre en la zona ruido.

En la zona de ruido puede estar ocurriendo una infinidad de cosas, o bien que el cúmulo de factores descartados aun siendo individualmente cada uno insignificante en suma todos ejerzan una intervención externa significativa, y unido a esto estén actuando otros factores desconocidos, ya bien porque todavía no los conocemos aunque en el futuro los conozcamos, o porque están completamente fuera de nuestro rango de conocimiento biológico, tanto ahora como en el futuro. Y la razón por la cual creemos que el comportamiento del ruido es aleatorio, caótico, e imprevisible, es decir, inconmensurable, en parte, quizás, se deba, a que dentro de la zona ruido hubieran comportamientos lógicos matemáticos fuera de la lógica matemática humana.

Rubén García Pedraza, Londres 10 de Diciembre 2017


sábado, 9 de diciembre de 2017

La lógica de la diferencia


La razón fundamental por la cual es importante primero la comprensión de la lógica de la diferencia es para posteriormente la comprensión de la posibilidad de modelos lógicos diferentes a los que ha desarrollado, al menos hasta el momento, la humanidad.
En cierto sentido se podría decir que toda la lógica, clásica o moderna, o en caso que la hubiera incluso postmoderna, descasa de un modo u otro sobre la lógica de la diferencia.
Si parto de la tesis que tengo tres factores: A, B, y C; es porque previamente he sido capaz de identificar cada uno de forma clara y distinta, lo cual implica su diferenciación, establecer porque A, B, y C son distintos entre sí, son elementos singulares. En cierto sentido, esta capacidad de identificación es la base del método analítico.
Sólo puedo establecer relaciones entre cosas cuando he identificado de forma clara cada cosa y sus posibles relaciones. Si no tengo una idea clara cada cosa y las relaciones entre la cosas, no hay capacidad de análisis racional.
Esta capacidad analítica de identificación, es lo que permite comprender que A, B y C son factores distintos, estableciendo aquellos aspectos en función de los cuales los podemos diferenciar entre sí, su singularidad.
El establecimiento de la singularidad no es nada fácil, y es en lo que descasa la discusión del Parménides. Más allá del debate sobre su autoría, si fue escrito o no por Platón, lo cierto es que cuando se habla de un concepto como este, singularidad, antes o después salta la discusión sobre la naturaleza de la unidad, si por unidad se entiende aquello que es uno, único, e indivisible, o por unidad se entiende la unidad de una pluralidad.
Aquello que es uno, único, e indivisible, es algo que mantendrá claras diferencias con todo lo demás de un modo u otro, mientras que en la unidad de la pluralidad se encontraría la teoría de conjuntos, y dentro de la teoría de conjuntos el establecimientos de conjuntos sobre aspectos comunes o parecidos a cada conjunto que los diferenciaría de cualquier otro conjunto.
Toda las matemáticas humanas descansan sobre una serie de conceptos básicos, como son el concepto de diferencia, el concepto de conjunto, el concepto de número natural, y una serie de algoritmos muy básicos como son la resta, suma, multiplicación, y división. A partir de estos conceptos y algoritmos muy básicos se podrían explicar todas las matemáticas.
De todos estos conceptos muy probablemente el concepto más básico de todos sea el concepto de diferencia, y sobre la lógica de la diferencia descanse la lógica matemática humana.
Si tengo una manzana, una bellota, una piedra , y otra manzana; el conocimiento cada cosa comienza  a partir de ser consciente que todas estas cosas son diferentes entre sí, identificando de forma clara y distinta cada una en particular, y siendo consciente que cada cosa es una cosa singular, diferente la una de la otra, siendo cada cosa en sí una y única, y completamente irrepetible, siendo cada una en sí misma lo que es por sí misma. En el momento que soy consciente que cada una de las cosas es en sí diferente a todas las demás, podré comprender que en suma son cuatro cosas diferentes: cuatro cosas singulares, cuatro unidades.
Si de estas cuatro cosas diferentes, en suma, soy consciente que hay cosas que siendo diferentes sin embargo tienen aspectos parecidos, comunes, es a partir de ser consciente que teniendo todas entre si diferencias particulares y rasgos parecidos, podre diferenciar entre grupos de cosas que aun teniendo diferencias sin embargo hay algo en común en base a lo que agruparlas: teoría de conjuntos. Si tengo cuatro cosas: una manzana, una bellota, una manzana, y una piedra; y en primer lugar distingo que siendo cada manzana, de las cuatro cosas en total, una manzana diferente, el hecho que tengan cosas parecidas es lo que permite agruparlas en un conjunto, a ese conjunto además le puedo llamar de un modo en particular, a ese conjunto le puedo asignar un símbolo, un sonido, o una palabra, en castellano a ese conjunto lo llamaremos manzana, en inglés se llamará apple, y así en cada idioma, siendo un conjunto formado por dos manzanas.
Además puedo distinguir que si bien la bellota no es una manzana pero tiene en común con las manzanas que es el fruto de un árbol, por ese motivo podría crear, dentro de las cuatro cosas, el conjunto de frutos de árboles, donde integrar tres de las cuatro cosas: dos manzanas y una bellota. Y finamente diferenciar que de las cuatro cosas, la piedra no se parece en nada a  los frutos de los árboles y estaría dentro de otro conjunto aparte.
A cada uno de los conjuntos les damos nombres, creamos idioma, además nos permite algoritmos de suma, resta, división, multiplicación, y en suma, creamos lenguaje, verbal y matemático.
Esta explicación muy sucinta y simple es sólo un ejemplo de cómo se pudieron haber formado históricamente los conceptos básicos matemáticos y sus algoritmos. El más importante es el concepto de diferencia, y la operación bajo la cual se produce: la comparación. En cierto modo toda la lógica humana descansa sobre la lógica de la comparación, la lógica de la diferencia. Sólo podemos llegar a una lógica de conjuntos su previamente somos capaces de identificar que hay cosas diferentes, conjuntos diferentes, y distintos tipos de unidades.
La primera forma de conocimiento humano, en su aspecto más básico o instintivo, muy probablemente resida en su capacidad de comparación y distinción, es decir: diferenciar;  y a partir de ahí, en el momento que comprende que todo lo que le rodea no es un total global sino que se compone de cosas entre sí diferentes, singulares, y que a cada cosa singular le podemos dar un nombre: la posibilidad de agrupar las cosas según diferencias y parecidos, en síntesis, la comprensión de los algoritmos más básicos.
A partir de los algoritmos más básicos la elaboración de unas matemáticas más complejas. A partir de comprender que las cosas singulares entre sí guardan diferencias y parecidos, surgirá entonces: la teoría de conjuntos, la geometría, la suma y la multiplicación, la resta y la división, los números racionales y la derivación, la probabilidad, la combinatoria y la estadística.
Pero para que seamos capaces de llegar a estos conocimientos tan abstractos, primero se ha tenido que partir de la base: la lógica de la diferencia.

Si no pudiéramos establecer diferencias entre las cosas que nos rodean, no habría matemáticas, o al menos: sin diferencias no existiría la lógica matemática humana.
La operación matemática fundamental en que reside todo el conocimiento humano es la diferencia, es decir, sabemos que el día es diferente a la noche, la manzana es diferente a la bellota, sabemos hay que distintos tipos de piedra diferente, y hay piedras con las que es más fácil hacer un hacha o un cuchillo que con otras, sabemos que hay diferentes tipos de metales, y que hay metales más blandos que otros, sabemos que hay diferentes tipos de animales, hay animales más fáciles de domesticar que otros, sabemos que hay diferentes tipos de vegetales y hay vegetales que si alguien los ha comido ha muerto o ha caído enfermo luego es mejor no repetir el mismo error, mientras otros vegetales nos hacen más fuertes y vigorosos. Conocemos la diferencia entre el frio y el calor, y diferenciamos que el calor del fuego por la noche es bueno, pero sabemos distinguir entre estar prudentemente cerca del fuego o estar al lado del fuego porque nos podremos quemar. Diferenciamos entre distintos tipos de sonidos, y combinando sonidos elaboramos palabras, que después incluso las podemos transcribir en signos.
Toda civilización humana descansa en la comprensión de la diferencia. Lo que cabe preguntarse es la posibilidad de una matemática no humana que en lugar de sobre la lógica de la diferencia descanse sobre otro tipo de operaciones puras.
La pregunta es ¿es este el único posible acceso a las matemáticas? En el invierno del 2003 elaboré una fórmula que denominé Nivel de Similitud, igual al logaritmo en base diez de un cociente, de modo que, cuanto más próximo a cero entonces los factores son más similares, y cuanto más distinta de cero menos similares.
En lugar de la diferencia, el Nivel de Similitud se focaliza en la similitud.
Desde el principio Probabilidad Imposible tenía como pretensión la creación de una teoría de la probabilidad y la estadística completamente diferente a la tradicional, de ahí la originalidad de sus deducciones, proposiciones, y formulaciones. En ningún caso había postulado que por ser diferente fuera mejor que la estadística o probabilidad tradicional, simplemente Probabilidad Imposible es una teoría complementaria y alternativa a la tradicional.
A la pregunta si es posible una lógica matemática no basada en la diferencia, habría que responder que sí es posible, lo que queda por saber es la posibilidad de modelos lógicos alternativos a los que actualmente disponemos, y que incluso pudieran quedar fuera del entendimiento humano, y quedando fuera de los límites de nuestro conocimiento fueran sin embargo modelos de operaciones puras subyacentes a la  intervención externa, o lo que es lo mismo, dentro del ruido hubieran operaciones lógicos matemáticas fuera del alcance del entendimiento humano.

Rubén García Pedraza, Londres 9 de diciembre de 2017



domingo, 3 de diciembre de 2017

Error, ruido, caos, factores externos e intervención externa

Cuando en la primavera del año 2001 inicié los primeros trabajos en Probabilidad Imposible, el motor original fue la posibilidad de un teoría de contraste de hipótesis alternativa al contraste de hipótesis nula.


La principal diferencia entre falsacionismo y Probabilidad Imposible, es que el falsacionismo pretende la refutación de la hipótesis empírica, Probabilidad Imposible  su aceptación dentro de una razón crítica, margen de error en cual en un tiempo infinito será falsa, lo que lleva al nihilismo lógico, y el utilitarismo cognoscitivo: lo importante no es si es verdadera,  es si es útil.


Y sin embargo, dialécticamente, falsacionismo y Probabilidad Imposible, por cuanto opuestas, son idénticas. Opuestas por cuanto una pretende la refutación de hipótesis , la otra su aceptación. Idénticas por cuanto ambas parten de la razón crítica, el racionalismo crítico.


La forma en que ambas teorías parten del racionalismo crítico es de todos modos my singular. El falsacionismo surge como reacción al fracaso positivista en la creación de un criterio de significación empírica: dado que no disponemos de criterio alguno de verificación, se acepta provisionalmente verdadero lo que todavía no hemos demostrado falso. La provisionalidad del conocimiento es inversamente proporcional a los margenes de error utilizados, a menor margen de error mayor certeza.


Mientras  en Probabilidad Imposible el uso del margen de error se entiende como efecto  o defecto de la propia condición humana,  la condición humana es limitada, la condición humana es errónea.


Desde el principio en Probabilidad Imposible la interpretación del error es producto de la contradicción entre una naturaleza humana finita frente a un mundo infinito. Cualquier acto humano estaría sujeto al error causado por la no absoluta integración de la realidad dentro de nuestros limitados marcos racionales . La razón humana se caracteriza por una limitada capacidad de procesamiento de información. Ante cualquier circunstancia está obligada a la selección de la información más significativa, descartando asímismo el resto de información, dado que no puede integrar absolutamente todo lo que ocurre. Si bien, la información descartada por su aparente insignificancia puede afectar significativamente los modelos establecidos sobre aquella información aparentemente más significativa.
Cualquier fenómeno sólo es significativo dentro de los margenes de error establecidos. Si en un estudio factorial sólo se establecen como fatores significativos aquellos cuyo valor empírico sea igual o superior a un valor crítico, luego los demás se descartan, la significatividad racional de la selección se hará en base a una razón crítica, asumiendo unos margenes de error dentro de los cuales hay posibilidad que los factores seleccionados no sean realmente significativos y los descartados insignificantes.


En el momento que se establece un modelo en base a a la selección de información, los factores internos serán todos aquellos factores seleccionados e integrados en ese modelo. Los factores externos serán todos los demás.


Los factores internos se caracterizan por su naturaleza, dentro de un margen de error, aparentemente: conocida y significativa. Los factores externos se caracterizan por su naturaleza o bien, dentro de un margen de error, no significativa, o bien absolutamente desconocida.


Si en un modelo experimental para el desarrollo de un medicamento una enfermedad, se hace una selección de componentes para tratar las variables más significativas de la enfermedad, y fracasando se procede a una serie de nuevos intentos incluyendo nuevos componentes incluso para las variables más insignificantes, probando diferentes combinaciones de productos y en diferentes proporciones, y aun así no hay resultados positivos. Habiendo hecho cuantas combinaciones fueran precisas sobre la información conocida,  la razón del fracaso habría que ubicarla en la falta de conocimiento sobre todas las variables realmente implicadas: el completo desconocimiento de absolutamente todos los factores lleva a la producción de modelos erróneos. Debido a nuestra condición aspirar al conocimiento absoluto es un ideal inalcanzable, a lo máximo, sólo podemos aspirar a la creación de modelos parcialmente erróneos, dentro de unos márgenes asumibles, racionales.


En cada una de las combinaciones realizadas para el establecimiento de un modelo de medicamento, los factores internos serían sus componentes químicos en base a nuestro conocimiento sobre su potencial efecto sobre aquellas variables seleccionadas de la enfermedad , los factores externos todas aquellas variables no seleccionadas o variables que una vez administrado experimentalmente el medicamento a los pacientes del grupo experimental, interactuarían para el éxito o fracaso del modelo experimental.
Los factores externos pueden ir, desde cualquier mínima variable no seleccionada en el tratamiento de la enfermedad, a cualquier mínimo detalle del modo y lugar en que fue administrada la medicación, a cualquier mínimo detalle del historial médico de cada paciente individualmente.


Cualquier mínimo detalle sería crucial para tomar una decisión racional, y es ahí donde radica el problema.


Debido a que en absolutamente cualquier modelo científico, desde un acelerador de partículas a un diseño de modificación genética, a una misión de exploración espacial, a cualquier modelo que imaginemos, es absolutamente imposible la integración de absolutamente todas las variables implicadas, porque ya bien, algunas de ellas son descartadas por ser consideradas insignificantes, o bien sencillamente ni tan siquiera las conocemos. En el momento que dichas variables, por aparente insignificancia o desconocimiento, quedan fuera del modelo, luego pasan a integrarse dentro de los factores externos , en el momento que dichos factores externos interactúan con los internos (los seleccionados e integrados en el modelo), el modo en que opera la intervención externa, de los factores externos sobre los internos, es fuente de ruido o comportamiento caótico.
Lo que normalmente se considera ruido o comportamiento caótico en un modelo, no es otra cosa más que el producto de la intervención externa.


Si estamos intentando escuchar un canal de radio y de repente hay interferencias, las interferencias, ocasionadas por fuentes externas, serán motivo de ruido. Cuando en un experimento intentamos entender lo que ocurre y aparecen interferencias, el ruido de las interferencias nos impedirá entender lo que realmente está sucediendo. Ese ruido no es más que el resultado de la intervención externa por factores ajenos al modelo, ajenos por cuanto son desconocidos o fueron descartados.


Otro fenómeno que puede perfectamente ocurrir es que siendo conscientes de la existencia de ruido, el equipo científico sea incapaz de hacer una atribución causal adecuada de a qué se debe ese ruido, porque además de la interacción de las variables internas y externas, y por supuesto las variables externas entre sí, el equipo científico desconozca la naturaleza real de las interacciones entre las variables internas entre sí.
El desconocimiento de las relaciones entre variables internas se puede deber a diversos factores, porque o bien no se ha hecho un estudio meticuloso de como se relacionan entre sí, pasando por alto alguna relación (luego no se integraría tampoco en el modelo, luego aun siendo una relación entre factores internos en tanto que esa relación específica no se integra sería un factor en sí externo), o fueron descartadas por cuanto parecían insignificantes (y en tanto que descartadas, igualmente factores externos), o también entre otros motivos porque el paradigma científico de la política científica impida la investigación de determinadas hipótesis.


Durante las legislaturas de Reagan en Estados Unidos la inversión pública en investigación del SIDA fue prácticamente nula. El paradigma oficial era que el SIDA es una enfermedad que sólo afectaba sólo a homosexuales. Después de ocho años, el SIDA acabó siendo una plaga mundial.


Esto significa que en la definición de ruido hay que diferenciar entre ruido producto de la intervención externa, y ausencia de resultados positivos a consecuencia de una crisis en el paradigma de referencia.


La intervención externa sería, en sentido estricto, producto del modo en que los factores externos (sean del tipo que sean) interactúan entre sí en relación al modelo, o el modo en que los factores externos, en singular, o en conjunto o conjuntos, interactuarían con los factores internos. Y en cualquier caso, sea el modo en que se produjese esta interacción, la intervención externa sería siempre causa de error en el modelo científico.


El ruido producto de la intervención externa, el modo en que se materializaría en el modelo, es provocando comportamientos caóticos en los factores internos.


Lo problemático en la distinción entre caos y complejidad, reside en que, ante un sistema complejo los resultados pueden parecer caóticos, aleatorios, en la medida que se desconoce la infinidad de variables e interacción entre variables. Si bien existe abundante literatura científica sobre la relación entre complejidad y caos, lo cierto es que un sistema caótico no tiene porque ser complejo, y viceversa.


La complejidad del caos podría residir en una falta de conocimiento sobre el modo en que opera la intervención externa, atribuyendo a relaciones complejas lo que en realidad es producto de una o múltiples intervenciones externas no conocidas. A menudo cuando se hacen preguntas embarazosas sobre determinados aspectos de una teoría no es muy dificil escuchar por respuesta "es muy complicado de entender", "es muy complejo de explicar". Hay casos donde estas respuestas son ciertas, en otros sólo ocultan nuestro absoluto desconocimiento de lo que realmente ocurre.


Lo realmente complejo de la intervención externa es nuestro desconocimiento de la o las fuente o fuentes de origen, desconocido si es un sistema de múltiples intervenciones externas interactuando simultáneamente, de forma caótica o jerárquica, o se trata una única fuente de intervención externa.


El comportamiento caótico en los factores internos se expresará a través de soluciones parcial o totalmente contradictorias a las teóricamente previstas, es decir, contradicción entre los resultados observados y las previsiones iniciales. Contradicción que puede expresarse de dos modos: ya bien porque el comportamiento observado sea parcial o completamente aleatorio (según grado de discrepancia, total o parcial, entre comportamiento y previsión), o porque el comportamiento observado en los factores internos sigue un patrón de conocimiento imprevisto o no conocido.

Sea cual sea el modo en que el ruido se materializa en el modelo, a consecuencia de los márgenes de erros insertos, el comportamiento caótico en que venga a expresarse, salvo que hubiera cualquier otro motivo razonable que lo explicase (por ejemplo el comportamiento caótico de sistemas aleatorios como puede ser un juego de azar), sería una expresión del modo en que está operando la intervención externa.

Rubén García Pedraza, Londres 3 de Diciembre de 2017

sábado, 2 de diciembre de 2017

La verdad absoluta o la verdad pura



Para introducir este concepto previamente sería necesario hacer una distinción entre el concepto de la verdad absoluta o la verdad pura, frente al concepto de verdades parciales y el concepto de proposiciones puras o  analíticas.

Una verdad es parcial cuando es sintética, es decir, sólo es verdad dadas unas condiciones y admitiendo siempre un margen de duda. La verdad absoluta es siempre verdad y no cabe ninguna duda de su veracidad.

Una proposición pura es una proposición analítica, cada uno de los algoritmos y cada una de las operaciones lógicas que utilizamos en cualquier operación lógico matemática es de por sí una proposición pura. Una proposición analítica es una proposición pura y viceversa. Si digo que A entonces B y B entonces C luego A entonces C, estoy haciendo una proposición pura o analítica. Si digo que porque hay nubes hay probabilidad de lluvia y porque hay probabilidad de lluvia hay mayor probabilidad que coja el paraguas, es una verdad parcial o sintética.

La diferencia entre una proposición pura y la verdad absoluta, es que siendo pura la naturaleza de la verdad absoluta sin embargo no sólo sería válida para una casuística o tipología operacional (no se trata de una formula o algoritmo más, es decir, proposición pura, lógica o matemática, más entre todas las que hay, aplicable en cada contexto según su función lógica o matemática),  y además, y lo más importante, no admite ningún margen de duda. Por ejemplo, los científicos lógicos que investigan en una posible ecuación que explicase absolutamente todo , estarían en realidad investigando en la verdad pura absoluta: una sentencia analítica sin excepciones que explicase todo.
En este sentido el apelativo de absoluto haría mención a dos cualidades esenciales: absoluto por cuanto no admite excepción en su formulación, es decir, la misma formulación sin modificación alguna debería ser siempre correcta, y absoluta por cuanto sería una explicación de todo lo que ocurre sin excepción alguna. Sin excepción en la formulación, una misma formulación constantemente siempre, y que fuese una explicación de absolutamente todo, con independencia del espacio, tiempo, o universo, infinito o limitado.

En síntesis, la verdad absoluta o pura, o verdad pura absoluta (en Probabilidad Imposible puede venir bajo cualquiera de estas denominaciones, vienen a significar lo mismo) es aquella verdad sin excepción susceptible de expresión lógico matemática, luegon debería ser objeto de la razón pura.
La razón pura es la que opera sólo y exclusivamene bajo operaciones lógico matemáticas, a diferencia de la razón práctica o sintética, eminentemente política. Ahora bien, habría que diferenciar entre la razón pura (analítica) o práctica (sintética) humana frente a las no humanas, artificiales o de otra naturaleza. Esta distinción no es baladí, por cuanto nuestro conocimiento de la verdad es humano, a expensas de otros modelos de conocimiento no humano. En el caso de la Inteligencia Artificial, estamos sólo asistiendo al parto de los primeros modelos, bajo la premisa de la replicación de las capacidades humanas. Pposiblemente los primeros modelos de razón artificial no sean más que meras replicas y muy limitadas, . Lo que falta por conocer, a expensas de la evolución de los replicantes en autoreplicantes, es hacia qué modelos de razón pura puede la Inteligencia Artificial llegar a evolucionar, sobrepasando posiblemente los estrechos límites del entendimiento humano. Muy probablemente, lo que hoy llamamos Inteligencia Artificial no sea más que la primera fase de algo que nos supera.

Desconocemos a que nuevas fases de evolución sobrehumana, sobrepasando los límites en que han sido creados , pueden llegar a desarrollar. Muy posiblemente lo artificial y lo sobrehumano están intimamente ligados.

Dado que sólo podemos hablar de lo que podemos hablar (de lo que no se puede hablar, mejor callar) sólo podemos hablar de la relación entre verdad pura y la razón pura humana, que en tanto el ser humano se encuentra limitado por la propia condición humana, la razón pura del ser humano se encuentra afectada por la propia condición humana, lo cual lleva inevitablemente antes o después (en un tiempo infinito) al error en su deducciones posibles , aunque sean realizadas bajo el método analítico más estricto o puro.

Desde los inicios de la teoría de la Probabilidad Imposible la primavera del año 2001, y muy especialmente a posteriori del Impacto del Defecto el 11 de Septiembre de ese mismo año, la definición del error estadístico en Probabilidad Imposible viene definido por la propia condición humana, que en tanto que limitada la condición humana es de por sí una condición errónea. La condición humana es inherentemente errónea. El origen del error en Probabilidad Imposible se establece a partir de la contradicción intrínseca que lleva de por sí que un ser limitado, como el ser humano, pretenda el conocimiento de la verdad, cuando una de las dimensiones, si es que no la propia esencia de la verdad de por sí, es su naturaleza infinita.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, hay un apartado dedicado al delicado asunto del infinito. Si bien la cuestión del infinito se ha llegado a convertir en matemáticas en una Cuestión de Fe, por cuanto hay tantos defensores como detractores, especialmente en la cuestión de la infinita subdivisión de las dimensiones, algo sustancialmente controvertido al hablar del espacio y el tiempo, lo que nos lleva a la Tortuga de Zenon ganando en singular carrera a Aquiles. Lo cierto es que al menos en términos puramente analíticos el infinito existe, es decir, las paralelas de Euclides se  pueden extender infinitamente, los números naturales son infinitos, y en tanto los números naturales son infinitos entonces cualquier unidad puede ser dividida infinitamente por entre infinitos números naturales, lo cual implica que en un espacio donde una recta se extiende hasta el infinito cualquier segmento de la recta podría ser dividido infinitamene por infinitos números naturales. Y dentro de las infinitas divisiones que duda cabe que incluso cabe la posibilidad que algunos resultados darían igual a números racionales cuyos decimales se extienden infinitamente, ya sea porque un número se repite eternamente, o una secuencia de números se repite eternamente, o porque sea un número irracional, por ejemplo pi.

En el momento que el infinito existe al menos en términos analíticos, su existencia antes o después tendrá reflejos en términos sintéticos. Si queremos dividir cualquier cosa del mundo real entre tres, antes o después tendremos que reconocer que es imposible un reparto absolutamente equitativo, salvo que dejemos sin repartir el resto, porque siempre habrá un resto, es decir, dividir algo entre tres sin dejar resto es imposible, es decir, antes  o después tendremos que admitir que es inherente a la condición humana la perdida de información, el truncamiento decimal. En el momento que perdemos error, por insignificante que sea, estamos generando error. Ese error, por insignificante que sea, es un margen de error posible. Cualquier error posible, en un tiempo infinito, es un error inevitable. El ser humano está inevitablemente avocado al error.

En Probabilidad Imposible la condición humana es inherentemente errónea, lo cual nos lleva la paradoja que disponiendo el ser humano de un acceso, aunque limitado o restringido, a la razón pura, la razón pura del ser humano por efecto de su condición humana no está capacitada para el conocimiento de la verdad pura. Cualquier pretensión humana de conocimiento de la verdad pura únicamente dará lugar a formulaciones incompletas o falsas. A expensas de conocer otros posibles modelos lógicos o matemáticos no humanos, la incompletitud o falsedad de las formulaciones humanas quizás no sea por la matemática en sí, más bien por la propia limitación humana al acceso de las mismas. Es decir, cabe la posibilidad  que pudiera haber una matemática, más allá del entendimiento humano, es decir, una matemática sobrehumana, absolutamente completa y verdadera.

La verdad pura o absoluta, paradójicamente, tenemos la intuición de que existe. Sabemos que necesariamente tiene que haber algo realmente cierto, más allá de cualquier valoración científica de la verdad dictada por la política científica de turno. Sospechamos que, al final de todo, debe haber algo de verdad en todo lo que ocurre, sin embargo, más allá de nuestra comprensión humana de lo ocurre, no podemos afirmar absolutamente nada sin admitir un margen da duda racional: sólo conocemos sombras, fenómenos, hechos, más allá de los cuales, desconocemos lo que realmente ocurre. En realidad, sólo sabemos que no sabemos nada, lo cual en cierto sentido, en Probabilidad Imposible, lleva al nihilismo lógico: más allá del margen de error, no conocemos nada, salvo nuestras propias dudas.

Rubén García Pedraza, Londres 2 de Diciembre de 2017

sábado, 6 de agosto de 2016

Máximo Sesgo Negativo Posible


El Máximo Sesgo Negativo Posible es un estadístico de dispersión individual de Probabilidad Imposible que hace referencia al mayor sesgo negativo en una muestra cualquiera. Se dice que hay sesgo negativo cuando en el cálculo del Nivel de Sesgo normal de sujeto u opción, diferencia de la probabilidad empírica menos la probabilidad teórica, el signo del diferencial es negativo, siempre y cuando la probabilidad teórica sea superior a la empírica. De modo que si la probabilidad es una dimensión que oscila entre cero y uno, luego la Mínima Probabilidad Empírica Posible de un sujeto u opción es igual a probabilidad cero, entonces su Nivel de Sesgo sería igual a cero menos inversión de N, lo que en términos absolutos sería inversión de N. Por lo que en términos absolutos el Máximo Sesgo Negativo Posible en cualquier estudio es igual a inversión de N.

De este modo se añade una función más a las funciones que la inversión de N cumple en la teoría de Probabilidad Imposible para el estudio del campo de la estadística de la probabilidad o probabilidad estadística, en tanto que la inversión de N para todo tipo de universo, infinito o limitado, cumple la función de probabilidad teórica en igualdad de oportunidades, y en universos de sujetos u opciones infinitos probabilidad teórica de dispersión muestral y probabilidad teórica de error de representatividad muestral. Funciones  a las cuales habría que añadir, para todos los tipos de universo, Máximo Sesgo  Negativo Posible, en caso que la probabilidad empírica de un sujeto u opción fuera la Mínima Probabilidad Empírica Posible, probabilidad cero o Probabilidad Imposible.

El Máximo Sesgo Negativo Posible es un estadístico de dispersión individual, dado que estima el Nivel de Sesgo normal de aquellos sujetos u opciones cuya probabilidad empírica fuera cero, y un estadístico de enorme relevancia en el estudio de la tendencia, especialmente bajo condiciones de dispersión máxima, y en muestras de ceros.

Se dice que se dan condiciones de máxima dispersión cuando en una muestra N cualquiera de sujetos u opciones, por el motivo que sea, hay un sujeto u opción que tiende a aumentar su puntuación directa o frecuencia muy por encima de los demás simultáneamente el resto de sujetos u opciones tiende a cero, de modo que el modelo estadístico tendería a una forma bajo la cual el sujeto u opción que tienda al aumento de su probabilidad empírica tienda a Máxima Probabilidad Empírica Posible, la probabilidad uno, la unidad, mientras el resto de sujetos u opciones, N menos uno, tienden a probabilidad cero.

Bajo condiciones de máxima dispersión, que la probabilidad empírica de un sujeto u opción sea igual a uno, y el resto igual a cero, entonces  se darían condiciones de que el Nivel de Sesgo de la Máxima Probabilidad Empírica Posible sería igual a Máximo Sesgo Teórico Posible, igual a la unidad menos inversión de N, “ 1 – 1/N”, mientras el resto de sujetos u opciones, N menos uno, N – 1,tiende en términos absolutos a inversión de N, 1/N. Dándose el caso que el producto de inversión de N por N menos uno,”1/N (N – 1)”, es igual a uno menos inversión de N, “1 – 1/N”, o lo que es lo mismo: si en una muestra N sólo un sujeto u opción tiene probabilidad empírica distinta de cero, entonces su Nivel de Sesgo normal es idéntica al valor absoluto de la suma de todos los demás Niveles de Sesgo de todos los demás sujetos. Y la suma del Nivel de Sesgo de todos los sujetos u opciones, bajo condiciones de máxima dispersión, sería igual al Máximo Sesgo Total. El promedio del Máximo Sesgo Total, o producto de Máximo Sesgo Total por inversión de N, igual a Máxima Desviación Media Teórica Posible.

Mínima Probabilidad Empírica Posible = 0

Máximo Sesgo Negativo Posible = /0 – 1/N/ = 1/N

Máximo Sesgo Positivo Posible = 1

Máximo Sesgo Teórico Posible = 1 – 1/N = 1/N (N – 1)

Máximo Sesgo Total = [1 – 1/N] + [1/N (N – 1)]

El Máximo Sesgo Total se puede explicar de dos formas, o bien como duplo del Máximo Sesgo Teórico Posible, o bien como duplo del producto obtenido de la multiplicación de inversión de N por N menos uno.

Máximo Sesgo Total = (1 – 1/N) 2 = [1/N (N – 1)] 2

De  modo que igualmente se puede explicar la Máxima Desviación Media Teórica Posible como promedio del duplo del Máximo Sesgo Teórico Posible, también podría explicarse como promedio del duplo del producto obtenido de la multiplicación de inversión de N por N menos uno.

Máxima Desviación Media Teórica Posible = { [1/N (N – 1)] 2 } : N

En todo caso la Máxima Varianza Teórica Posible seguiría siendo el promedio de la suma obtenida del Máximo Sesgo Teórico Posible al cuadrado más el producto del cuadrado de la inversión de N, Máximo Sesgo Negativo Posible, por N menos uno.

Máxima Varianza Teórica Posible = {(1 – 1/N)²+ [1/N² (N – 1)]} : N

Y lógicamente la Máxima Desviación Típica Teórica Posible igual a la raíz cuadrada de la Máxima Varianza Teórica Posible

Máxima Desviación Típica Teórica Posible = √ {{(1 – 1/N)²+ [1/N² (N – 1)]} : N}

Además de en los estudios de sesgo bajo condiciones de máxima dispersión, el Máximo Sesgo Negativo Posible cumple una función muy importante en las muestras de ceros. En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística se dedica el capítulo noveno a los estudios de universos de opciones limitadas dedicándose las últimas páginas al caso específico de las muestras de ceros.

Las muestras de ceros pueden producirse en cualquier tipo de universo, infinito o limitado, aunque son más frecuentes en estudios de sesgo negativo en universos de opciones limitadas, en las que se engloban las muestras limitadas a categorías discretas, en donde el objeto de la investigación sea la reducción a cero de una cualidad o serie de cualidades en una muestra.

En la medida que la muestra de ceros tiene por objeto la reducción a cero de todas las probabilidades empíricas de todos los sujetos u opciones de la muestra, el Nivel de Sesgo  normal, para todo sujeto u opción cuya probabilidad, sería igual a cero, luego Máximo Sesgo Negativo Posible, inversión de N. Dándose la contradicción lógica, dada la multifuncionalidad de inversión de N, que mientras en la estadística tradicional dada una muestra de ceros, en donde todos los sujetos u opciones tuvieran puntuación directa o frecuencia cero, luego la media aritmética sería cero, las puntuaciones diferenciales serían cero, luego la Desviación Media sería igual a cero, luego cero dispersión, en cambio en el Segundo Método de Probabilidad Imposible aun siendo la probabilidad empírica de todo sujeto u opción sea igual a cero, en tanto que el Nivel de Sesgo es el diferencial de probabilidad empírica, en este caso cero, menos probabilidad teórica, inversión de N, entonces el valor absoluto de los Niveles de Sesgo serían igual a inversión de N, luego el sumatorio de los valores absolutos de Nivel de Sesgo igual al producto de N por inversión de N, 1/, luego el promedio del sumatorio de los sesgos sería igual a inversión de N, 1/N.

En las muestras de ceros, se produce una paradoja no exenta de contradicción lógica, por cuanto el estudio a través de la estadística tradicional daría dispersión nula, cero, en cambio este mismo estudio desde la perspectiva del Segundo Método de Probabilidad Imposible para una muestra de ceros daría una dispersión absoluta igual a inversión de N. Paradoja que se resuelve por cuanto, mientras la dispersión en la estadística tradicional sólo mide distancia entre los elementos respecto a la tendencia central, en la dispersión que mide el Segundo Método de Probabilidad Imposible se sintetizan dos funciones: dispersión en tanto que distancia entre cada elemento y la tendencia central, y la dispersión en tanto que desviación del comportamiento empírico frente al teórico en igualdad de oportunidades bajo unas determinadas condiciones estocásticas de probabilidad.

El Máximo Sesgo Negativo Posible cumple una serie de funciones descriptivas en estudios de sesgo, en tanto que límite del máximo diferencial negativo del Nivel de Sesgo, en la estimación de la máxima dispersión muestral, y estudio de muestras de ceros. Funciones a las que se añade las que cumple en diferentes modelos de contraste de hipótesis, sólo que en este caso específico en la crítica racional del sesgo individual.

Dentro del libro de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, obra introductoria a esta nueva teoría, el contraste de hipótesis es un proceso de crítica racional, tanto en modelos normales cuyo comportamiento oscila entre cero y máximo, y estudios omega cuyo comportamiento oscila sobre parámetros ideales. Cualquiera de ambos dos estudios, normales u omega, pueden ser de carácter intramedicional o intermedicional. Y en cualquiera de ambos dos estudios, independientemente de su carácter, se diferencia entre crítica racional individual y muestral.

En los estudios  normales, sean de carácter intramedicional o intermedicional, se diferencia entre estudios de igualdad o sesgo, sean estudios de sesgo positivo o sesgo negativo. Y en cualquiera de ellos, al igual que para los estudios omega, para la aceptación provisional de una hipótesis hay dos tipos de pruebas, individuales y muestrales.

Las pruebas muestras son aquellas que critican racionalmente la dispersión muestral, en estudios de igualdad si el nivel de dispersión muestral se encuentra dentro de unos márgenes de error aceptables, o si en estudios de sesgo logra un volumen suficiente de dispersión. Las pruebas individuales critican racionalmente el Nivel de Sesgo normal de sujeto u opción, ya sea en estudios igualdad si el Nivel de Sesgo se encuentra dentro de unos márgenes aceptables, o en estudios de sesgo dependiendo de si se estudia sesgo positivo o negativo si el tipo de sesgo estudiado alcanza unos niveles óptimos.

Los estudios de sesgo negativo son un modelo de estudio dentro de los estudios normales, y que pueden ser estudios intramedicional, si se hacen sobre una medición exclusiva, o intermedicionales, si se utilizan diferentes mediciones,  y en cualquier caso lo que estudian es la tendencia a cero de una serie de sujetos u opciones en una muestra o de toda la muestra, en este último caso el objeto de estudio sería la tendencia a la muestra de ceros.

Para la crítica racional del sesgo negativo, sea en estudios intramedicionales o intermedicionales, habría tanto pruebas individuales y muestrales. Las pruebas muestras serían las mismas que para el estudio de sesgo positivo, en tanto que lo que realmente mide es si el sesgo de la muestra se comporta líneas generales de acuerdo al estudio. Lógicamente si el objeto es la muestra de ceros la dispersión muestral tiende a inversión de N, y en estadística tradicional las puntuaciones diferenciales tenderían a cero. Si lo que se pretende es que de N sólo un sujeto u opción alcance la máxima puntuación mientras los demás tienden a cero, luego sólo un sujeto u opción tienda a Máxima Probabilidad Empírica Posible, y el resto a Mínima Probabilidad Empírica Posible, para todos los sujetos u opciones que tiendan a cero lo que se estudiará es la tendencia de su sesgo negativo a Máximo Sesgo Negativo Posible.

De este modo, ya sea porque toda N tienda  acero, muestra de ceros, o de toda N sólo uno sea distinto de cero y todos los demás, N menos uno, “N – 1”, igual a cero, independientemente del motivo por el cual un sujeto u opción tiende a cero, si se quiere poner a prueba a ese sujeto u opción individualmente su grado de tendencia a Máximo Sesgo Negativo Posible, dentro de los diferentes modelos de contraste de hipótesis que a tal fin se exponen en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, dos de ellos ya explicados en este blog serían la Validez de Sesgo Negativo y la Significación de Sesgo Negativo.

El Máximo Sesgo Negativo Posible es un estadístico de dispersión individual, que mide el máximo diferencial negativo del Nivel de Sesgo, desempeñando por tal fin funciones descriptivas, entre los estadísticos de dispersión y específicamente la muestra de ceros,  y funciones inferenciales en los estudios de sesgo negativo, dentro de los estudios normales, sean intra o intermedicionales, para la crítica racional de la dispersión individual de los sujetos u opciones no ideales.

Madrid 6 de agosto del 2016