PROBABILIDAD IMPOSIBLE


Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿ quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


imposiblenever@gmail.com

@imposiblenever

sábado, 26 de julio de 2014

La cualidad


Una cualidad es una propiedad factorial perteneciente a uno o más sujetos u opciones, y se materializa en forma de sucesos u ocurrencias, ya sea de un sujeto u opción singular o conjunto de sujetos u opciones particulares a los que caracteriza en tanto que clase o conjunto de fenómenos de la realidad.

El concepto de sujeto u opción es propio y sustancial de la teoría de Probabilidad Imposible, producto de la síntesis de las nociones de la teoría de la probabilidad y la teoría estadística, de cuya fusión surge la estadística de la probabilidad o probabilidad estadística, y que ha sido expuesta en Introducción a la Probabilidad Imposible.

La razón por la que se dice que una cualidad es una propiedad factorial es porque en tanto que propiedad o factor es una característica de aquello a lo que se refiere y define, utilizándose en ciencias naturales más habitualmente el concepto de propiedades naturales para la definición de las características de un fenómeno o conjunto de fenómenos, mientras en ciencias sociales se utiliza más el concepto de factor social, quizás una de las razones por qué en ciencias sociales se utiliza más el concepto de factores sociales asociados a grupos y dinámicas, en lugar de propiedades sociales, es a causa de la connotación económica, dado que en economía el modelo de propiedad define el régimen económico, ya sea  un modelo de propiedad privada o un de propiedad compartida.

Además otro motivo de  por qué a una cualidad se la puede definir en tanto que factor se debe a que puede ser objeto de estudio matemático, más concretamente, toda cualidad, natural o social, que se defina en términos positivos, es un factor matemático susceptible de  estudio  en probabilidad, estadística, algebra y geometría.

Para el estudio de los factores de un fenómeno desde la perspectiva cuantitativa que ofrecen las matemáticas, es necesaria la medición de las dimensiones de la cualidad, generando lo que en Probabilidad Imposible se denomina puntuación directa o frecuencia, dependiendo del tipo de universo al que pertenezcan los sujetos u opciones, infinitos o limitados.

Centrando en un primer momento la definición de las cualidades desde las ciencias sintéticas, en ciencias naturales cuando se habla de las cualidades de un determinado elemento químico o de las cualidades de una determinada estructura natural, se dice que son las propiedades de aquello que define, por ejemplo, lo que caracteriza a un elemento químico frente a otro son sus diferentes propiedades, diferencias derivadas de la diferente combinación en la magnitud del número de sus electrones y valencias, generando la diversidad química, teniendo cada elemento químico propiedades diferentes, y de  cuya combinación surgen moléculas, y en función de las propiedades los elementos químicos que las compongan, de cada combinación emergen nuevas propiedades naturales. De esta manera cada uno de los distintos tipos de minerales y rocas que se estudia en mineralogía tienen propiedades diferentes,  y en función de su distribución aleatoria en una geografía determinada, dicha estructura geológica tendrá diferentes propiedades naturales. De la combinación de los diferentes elementos químicos y sus diferentes propiedades, además de vida inorgánica, de forma aleatoria, después de millones de años de distribución aleatoria de la materia y la energía en la historia, al menos que sepamos en nuestro planeta surgió la vida, y cada estructura de vida orgánica se caracteriza por una serie de propiedades naturales diferentes, por ejemplo cuando hablamos de las propiedades curativas o medicinales de determinadas plantas, o de las propiedades energéticas de diferentes alimentos, o de las propiedades o características que definen a los diferentes seres vivos.

Mientras en ciencias naturales es más frecuente encontrar el concepto de propiedad natural para nombrar a las diferentes cualidades de un fenómeno, en ciencias sociales a las diferentes cualidades de un determinado fenómeno habitualmente se las llama factores, de forma que no es difícil encontrar en ciencias sociales la utilización del concepto de factor para designar las características de un determinado constructo social, por ejemplo cuando se habla de los diferentes factores sociales que caracterizan a un grupo o intervienen en un proceso o sistema.

En líneas generales, se puede decir que, sea el tipo de ciencia empírica que sea, una cualidad es una característica de un fenómeno, de modo que el conjunto de cualidades que definen un fenómeno sería que el conjunto de características que lo integran.

Una cualidad, en tanto que característica que define un determinado fenómeno, suceso u ocurrencia en el predicado del sujeto u opción, además puede clasificarse en dos grandes grupos, en función si dicha cualidad es compartida por más de un sujeto u opción, una cualidad común, luego en tal caso dicha cualidad tendría la posibilidad de formar una clase de sujetos u opciones, un conjunto definido a partir de dicha cualidad, creando la posibilidad de taxonomías, en donde en función de las diferentes cualidades comunes, según el grado de generalidad, dependiendo del número de sujetos u opciones que tengan una misma característica, se podrían hacer taxonomías más complejas, clasificando los diferentes fenómenos en función de sus cualidades comunes,  de manera que un mismo fenómeno podría formar parte de diferentes categorías, y cuanto más reducido sea el número de sujetos u opciones que compartan una categoría, entonces más específica sería dicha cualidad, aunque en cualquier caso serían modelos de cualidad común totalmente diferentes a aquellas cualidades propias e intransferibles de un determinado sujeto u opción, y que no fuesen comunes al resto de sujetos u opciones de su mismo universo, las denominadas cualidades individuales.

De esta manera una cualidad es una característica, natural o social, de un determinado sujeto u opción, o conjuntos de sujetos u opciones, que se manifiesta empíricamente en los sucesos u ocurrencias, los hechos empíricos,  en donde dicha cualidad puede ser individual , o común y compartida por diferentes sujetos u opciones.

De hecho, en modelos complejos, lo más habitual es que las denominadas propiedades o factores individuales o específicas de un sujeto u opción en especial, sean más bien cualidades emergentes producto de la combinación de varias cualidades comunes. Por ejemplo, si tuviéramos que definir la personalidad de un ser humano cualquiera, dicha personalidad se podría definir a partir de cualidades que tratadas aisladamente cada cual por sí sola serían cualidades comunes que posiblemente compartiría con otras personas, de su misma sociedad o sociedades diferentes, pero si en lugar de tratar dichas cualidades de forma aislada se considera a la personalidad como un todo integral, la personalidad en tanto que una cualidad individual por sí sola, la personalidad de cada ser humano es intransferible a cualquier otro, dado que la personalidad es una y única, no pudiéndose encontrar jamás dos seres humanos que tengan la misma personalidad idéntica, de modo que la personalidad en su conjunto sería un modelo de cualidad propiamente individual.

El mismo caso que se dice para la personalidad, se podrían encontrar en diferentes sistemas complejos, modelos en donde si se estudian los diferentes sujetos u opciones de ese sistema, analizándose de forma aislada cada cualidad común, el estudio específico de cada cualidad común daría el modelo de distribución estadística de dicha categoría en esa clase o sistema, sin embargo, la forma en que se combinen las diferentes cualidades comunes en cada sujeto u opción individual, pueden ser diferentes permutaciones de las que puedan emerger cualidades individuales no compartidas .

Ahora bien, el hecho que dentro de un conjunto de sujetos u opciones de forma compleja cada uno desarrolle una cualidad emergente individualizada, o conjuntos de cualidades emergentes individualizadas, no implica que a su vez, dichas cualidades propiamente individuales, no sean susceptibles de categorizaciones o taxonomías, dado que dichas cualidades individuales emergentes en tanto que producto de una determinada combinación específica de cualidades comunes, pueden generar igualmente taxonomías de cualidades individuales.

Las cualidades comunes de una clase o sistema de sujetos u opciones que definen a ese conjunto de sujetos u opciones en tanto que grupo, y las cualidades individuales que pueden emerger de cada sujeto u opción de esa clase o sistema, son cualidades, generales o individuales, que además se pueden clasificar en función de si dichas cualidades son factores constantes o variables.

Otro motivo más de por qué las cualidades, ya sea en ciencias naturales o sociales, se pueden definir en tanto que factores, es porque además de que en ciencias sociales a las cualidades de un fenómeno, individual o grupal, se pueda denominar factores sociales, es porque, independientemente de si es el estudio pertenece a las ciencias naturales o sociales,  las cualidades de cualquier proceso o sistema, natural o social,  son susceptibles de estudio en forma de factores matemáticos.

Para el estudio matemático de los factores naturales o sociales, constantes o variables, de un proceso o sistema, es necesaria previamente la medición de las cualidades, un proceso de medición que dará lugar a tablas de puntuaciones directas o frecuencias, dependiendo de si es un estudio en un universo de sujetos u opciones infinitos, o de opciones limitadas.

En los universos de sujetos u opciones infinitos, o simplemente universos de sujetos, el resultado de la medición será una puntuación directa por cada sujeto u opción, producto de la medición en la magnitud de intensidad reflejada por la cualidad en cada elemento individual de la muestra.

En los universos de opciones limitadas el resultado de la medición será la magnitud de la frecuencia en que ocurre o sucede una misma opción que se caracterice por una determinada cualidad, y que la diferencia de otras opciones distintas caracterizadas por cualidades diferentes.

Las cualidades de todo proceso o sistema, natural o social, sean cualidades comunes o individuales, se pueden estudiar matemáticamente a partir de la medición de la puntuación directa o frecuencia. En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se desarrollan diferentes métodos, quizás el más genérico para el estudio de cualquier suceso sea el Segundo Método, a través de la probabilidad empírica de sujeto u opción y la probabilidad teórica, y a partir de ahí el desarrollo de una estadística descriptiva a partir de diferentes términos de dispersión empírica que permitan a posteriori la crítica racional de lo que sucede.

El estudio de las diferentes cualidades en tanto que factores matemáticos precisa de la clasificación inicial entre factores constantes o variables. En este sentido, ya se trate de propiedades naturales, o factores sociales, en matemáticas se utiliza más comúnmente el concepto de factor,  sea aplicado a cualquier ciencia sintética, natural o social, distinguiéndose constantes o variables, en virtud de los cuales dependerá la posibilidad de su estudio en estadística y probabilidad, y en el campo del algebra y la geometría, la posibilidad de establecer rectas y representación gráficas.

Un factor será constante cuando la tendencia de su magnitud es fija e inmutable, por ejemplo cuando se habla de la constante de Planck, la constante cosmológica de Einstein, o la constante de Hubble, se hace mención a factores que no cambian nunca, al menos en teoría, bajo ningún concepto, manteniéndose siempre de forma estable sin experimentar variación alguna, sean las condiciones que sean.

Un factor se llama variable cuando su comportamiento está sujeto a variaciones no siendo constante de forma permanente, aunque pueda estar sujetos a tramos espacio-temporales de comportamiento estacionario constante, son factores que en la medida que puedan variar en cualquier momento aunque temporalmente parezcan estables, son denominados variables.

Las variables a su vez se subclasifican en variables independientes y variables dependientes. Las variables dependientes serán aquellas cualidades cuya variación en la tendencia depende del comportamiento de otros factores diferentes, que correlacionan de forma directa o inversa con dicha variable dependiente, modificándose el comportamiento de la variable dependiente en función de los cambios en la tendencia en esos otros factores. A esos otros factores que inciden en la variable dependiente se les llamará variables independientes, siendo variables por cuanto su comportamiento no es constante pero no dependen de la variable dependiente, pudiendo depender de cambios en el comportamiento de sí mismo por razones de su dinámica interna variable, o por otros factores aleatorios no objeto de estudio.

En la teoría clásica del método experimental, en un contexto de investigación bajo condiciones de control de laboratorio, a cualquier otra variable que incida en el proceso, no habiendo sido definida a priori, y sea una variable incontrolada, se la definirá variable aleatoria. Aunque en las teorías más modernas del método experimental, el concepto de variable aleatoria ha sido extendido entendiéndose que realmente cualquier comportamiento observado, controlado o incontrolado, puede estar sujeto a variaciones aleatorias, en la medida que las modernas teorías del método experimental integran aspectos del principio de indeterminación y los modelos no lineales, por ejemplo, a finales del siglo XX, las teorías del caos y la complejidad.

En cualquier caso, dentro de las variables objeto de estudio y definidas a priori, se llamará siempre variable dependiente a aquella donde las variaciones de su comportamiento depende de cambios en otras variables diferentes, definiéndose a esas otras variables diferentes como variables independientes, pero entendiéndose la realidad de forma compleja y dinámica, en la medida que esa otra variable independiente puede ser a su vez una variable dependiente de otras variables distintas, de forma que la realidad sería una compleja red de interacciones, en donde una misma variable puede ser dependiente de unas variables , y a su vez esa misma variable, dependiente de otras, puede ser una variable independiente para otras variables distintas, e igualmente, una variable independiente en relación a una variable o conjunto de variables dependientes, esa variable independiente puede ser dependiente de otras variables diferentes. Creándose una compleja red de variables en donde una misma variable puede ser definida independiente o dependiente en función de con que conjunto de variables se relacione, de modo que todas las variables en sí mismas pueden ser para sí mismas dependientes e independientes simultáneamente dependiendo del grupo de variables diferentes con las que  corelacione.

Mientras una variable puede ser dependiente o independiente al mismo tiempo en función de las variables con las que correlacione, lo  que nunca puede suceder es que un factor sea al mismo tiempo constante y variable. Las categorías constante y variable son mutuamente excluyentes, si algo es constante no puede ser variable y viceversa, ahora bien, las categorías de variable independiente o dependiente no son mutuamente excluyentes, y es más, dentro de las actuales teorías de la complejidad, una variable puede ser al mismo tiempo dependiente e independiente, dependiendo de sus diferentes y múltiples correlaciones simultáneas frente otras variables.

Una cualidad, ya sea en ciencias naturales o sociales, es una propiedad o factor, común o individual, que caracteriza los sucesos y ocurrencias de uno o más sujetos u opciones. Si es una cualidad común es compartida por un grupo de sujetos u opciones, si es una cualidad individual es relativa a un sujeto u opción singular. La forma de estudio de las cualidades de cualquier sujeto u opción que se exprese materialmente en la realidad en forma de suceso u ocurrencia, en forma de hecho empírico, puede ser de forma matemática, más concretamente a través de la estadística y la probabilidad, tal como propone Introducción a la Probabilidad Imposible, para lo que sería necesario la medición de las cualidades de los sujetos u opciones, midiendo sus puntuaciones directas o frecuencias directamente de los sucesos u ocurrencias, para lo cual un método alternativo de estudio a la estadística tradicional es el Segundo Método, en donde las cualidades en tanto que factores matemáticos se pueden subdividir en constantes o variables, y dentro de las variables distinguir variables independientes y dependientes, en donde, desde  las teorías no lineales, en las cuales se inserta Probabilidad Imposible, una misma variable puede ser dependiente o independiente, dependiendo de sus multi-correlaciones, creándose redes complejas de las que pueden emerger nuevas cualidades individuales en ese proceso o sistema.

Rubén García Pedraza, Madrid 26 de julio del 2014




http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible
 

sábado, 12 de julio de 2014

Tipos de universo





Dentro del concepto de universo estadístico habría que diferenciar dos tipos de universos en función de su magnitud, según sean infinitos o limitados.


Universos de sujetos u opciones infinitos son aquellos conjuntos integrados por un número posiblemente infinito de elementos individuales, sujetos, que mantienen en común al menos una cualidad susceptible de medición en forma de puntuación directa, y para su estudio estadístico únicamente se selecciona un subconjunto, la muestra de sujetos, del conjunto total que sería el universo de sujetos u opciones infinitos, muestra de sujetos de cuya medición se extraerá la muestra de mediciones, en este universo particular, la muestra de puntuaciones directas.


En Probabilidad Imposible se diferencian dos tipos de universos, de sujetos u opciones infinitos, y universos de opciones limitadas.


En los universos de opciones limitadas los elementos individuales serán las propias opciones, las distintas alternativas, según cualidades diferenciales, en que se distribuyen las ocurrencias, no habiendo nunca posibilidad de tendencia a infinito de las alternativas, las alternativas siempre son limitadas. En los universos de opciones limitadas la magnitud del número de alternativas posibles se encuentra limitada originalmente en la hipótesis empírica, sea de naturaleza material o social, en ciencias naturales o sociales, y en los universos limitados de categorías discretas el número de categorías discretas, en tanto que opciones para la clasificación de sucesos, es predeterminado por la política científica.


En los universos de sujetos u opciones infinitos lo que se estudia de los sujetos es la magnitud de intensidad de sus cualidades, la puntuación directa, y en los universos de opciones limitadas lo que se estudia es la frecuencia de las diferentes cualidades alternativas, las opciones.


En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, a los universos de sujetos u opciones infinitos se les podrá denominar también frecuentemente universos de sujetos o simplemente universos infinitos. Y de igual forma a los universo de opciones limitadas se les podrá mencionar como universos de opciones o simplemente universos limitados.

Las principales diferencias entre ambos universos es que, mientras en uno no se descarta la posibilidad del infinito en el otro directamente se excluye, y si bien en la dialéctica sujeto u opción el tratamiento de sujetos u opciones será estadística y probablemente el mismo, probabilidades estadísticas, los elementos individuales de estudio en los universos infinitos serán los sujetos, y en los universos limitados las opciones, en donde de los universos de sujetos el objeto de  medición normalmente serán las puntuaciones directas de al menos una cualidad de los sujetos, y en universos de opciones la distribución de la frecuencia de las opciones

La forma en que debe comprenderse la idea de sujeto no es de manera antropomórfica, en ningún momento por sujeto se entiende el concepto de ser humano o persona, dado que por sujeto se entenderá cualquier sujeto de cualquier predicado, sea un sujeto de forma humana o cualquier forma de existencia, material o ideal, natural o social.

El predicado del sujeto estadístico será delimitado por la medición de al menos una cualidad del sujeto, en donde el predicado del sujeto será en forma de puntuación directa.

Dado que en la dialéctica sujeto u opción, a nivel de probabilidad estadística, los sujetos u opciones recibirán el mismo tratamiento en la estadística de la probabilidad, si bien se diferencian ambos universos, infinitos o limitados, de sujetos u opciones, en la práctica el método de estudio será el mismo, por esa misma razón se pueden estudiar los sujetos en tanto que opciones y las opciones en tanto que sujetos, motivo por el cual el sujeto del predicado en los universos limitados serán las opciones cuyo predicado serán las frecuencias.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en cualquier estudio estadístico o de probabilidad, sea en universos infinitos o limitados, siempre habrá dos tipos de muestras, la muestra N de sujetos u opciones, formado por los N elementos individuales seleccionados del universo, infinito o limitado, y la muestra de puntuaciones directas o frecuencias, “Σxi”, la muestra de las mediciones.

La muestra de las mediciones, la muestra de puntuaciones directas o frecuencias, “Σxi”, independientemente de que sean mediciones de universos de sujetos u opciones, infinitos o limitados, las posibles mediciones pueden ser infinitas, luego el universo de las posibles mediciones, el universo de puntuaciones directas o frecuencias, es a su vez infinito, en este caso el posible universo infinito de puntuaciones directas o frecuencias. Si lanzamos al aire una moneda para estudiar si sale cara o cruz, las opciones se limitan a cruz o cara, pero si dispusiéramos de tiempo infinito o una cantidad infinita de monedas, podríamos hacer infinitos lanzamientos, luego podría haber infinitas distribuciones posibles de la frecuencia, aunque las opciones sean limitadas.

En universos de sujetos u opciones infinitos la muestra N de sujetos u opciones será la muestra N formada por los N sujetos estudiados en tanto que opciones. En universos de opciones limitadas la muestra N será la muestra de N opciones.

En universos de sujetos u opciones infinitos la muestra de las mediciones, “Σxi”, normalmente será la muestra de puntuaciones directas, obtenida de la medición de la magnitud de intensidad de al menos una cualidad objeto de estudio en cada sujeto de la muestra. En universos de opciones limitadas la muestra de las mediciones, “Σxi” será la muestra de las frecuencias, que mide la magnitud de ocurrencia de  las diferentes opciones.

Sólo en el caso de universos limitados a categorías discretas, donde fuera posible la subdivisión de las categoría discretas en tendencia a infinitas subdivisiones, que hiciera de dicho universo originalmente limitado un posible universo tendente a infinito, se daría el caso de un posible universo infinito cuya muestra de mediciones fuera la muestra de frecuencias, las frecuencias de sucesos u ocurrencias clasificados en cada una de las enésimas tendente a infinitas categorías discretas.

De todas formas, sea sobre un universo de sujetos u opciones infinitos o un universo de opciones limitadas, a la muestra de los N sujetos u opciones se denominará siempre la muestra N, y a la muestra de las mediciones, “Σxi”, se denominará siempre la muestra de puntuaciones directas o frecuencias.

El tratamiento estadístico de los sujetos u opciones de universos infinitos o limitados en Probabilidad Imposible será exactamente el  mismo. Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística desarrolla la definición de probabilidad empírica extendiendo el uso del concepto de probabilidad, no sólo al estudio de frecuencias, también al estudio de puntuaciones directas, generándose un Segundo Método, alternativo y complementario a la estadística tradicional, donde la probabilidad empírica es igual a puntuación directa o frecuencia de sujeto u opción entre sumatorio de las puntuaciones directas o frecuencias de toda la muestra de sujetos u opciones.

En los estudios sobre poblaciones, si los estudios son sobre la distribución de una serie de opciones sobre una población, en tal caso se dirá que son estudios de universos de opciones limitadas a la distribución estadística de las diferentes alternativas de estudio en la población. Si el objeto de estudio es la medición de al menos una cualidad en cada sujeto que integra dicha población, entonces será un estudio propio de un universo de sujetos u opciones infinitos.

Aunque desconozcamos si esa población puede ser infinita longitudinalmente en el espacio-tiempo, en cualquier caso, en la medida que entre dos puntos temporales cuales quiera se podrían hacer infinitas subdivisiones, entre dos mediciones cuales quiera que se haga en un periodo de tiempo, serían posibles infinitas mediciones de al menos esa cualidad en la historia de esa población, luego, en cualquier caso, siempre que el estudio de una población sea sobre la distribución estadística de al menos una cualidad en la historia, será siempre un estudio dentro de un universo de sujetos u opciones infinitos, salvo que el objeto de estudio sea la distribución estadística de una serie alternativas dentro de la población, que en tal caso sería un universo de opciones limitadas.

Rubén García Pedraza, Madrid a 12 de julio del 2014





http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible
 
 

 

 
 

sábado, 5 de julio de 2014

La incertidumbre


 Incertidumbre es cuando se produce una situación de ausencia de certeza, y sólo se dan condiciones de certeza en la estadística tradicional cuando la probabilidad de un fenómeno es igual a uno, luego habría total y absoluta seguridad de que sucedería. En ausencia de dicha condición cualquier suceso carece de certeza, generándose una situación de incertidumbre por muy elevada que sea su probabilidad, siendo el nivel de incertidumbre directamente proporcional a la diferencia de la unidad menos su probabilidad de ocurrencia.

Una de las teorías que más popularizó en el siglo XX el concepto de incertidumbre en la ciencia fue el principio de incertidumbre, también llamado principio de indeterminiación, de Heisenberg, según el cual dadas dos magnitudes no se pueden realizar mediciones exactas de ambas de forma simultánea. De modo que aplicado al estudio de partículas, la medición exacta de  la posición de una partícula implicaba que no se podía medir de forma exacta su velocidad, y viceversa, especialmente conforme la velocidad aumenta, de forma que la física de partículas a lo más que podría aspirar es una aproximación sobre las posiciones o la velocidad de las partículas en términos de probabilidad, siempre y cuando se quisiera una estimación simultanea de ambas. Una de las implicaciones que esto entraña, es que si desde la física de Newton se había entendido que dicha ciencia era el paradigma de las ciencias exactas, a partir del principio incertidumbre habrá físicos y filósofos de la ciencia que defiendan que la física es una ciencia estocástica, siendo un elemento de debate que sigue sin resolverse, habiendo físicos de renombre que siguen defendiendo la naturaleza exacta de la física.

El principio de indeterminación o incertidumbre no sólo revolucionó la física, en el caso de las matemáticas puras, y más concretamente en la teoría de la probabilidad, donde todavía seguía ejerciendo la figura de Laplace una importante influencia en la disciplina, quien defendía un modelo de probabilidad basado en el determinismo, concepción filosófica que defiende la tesis de que todo en el universo se encuentra predeterminado por cadenas de relaciones de causa y efecto, de modo que conociendo absolutamente todas las variables que inciden en un fenómeno se podría predecir con total y absoluta certeza lo que podría ocurrir, dichas teorías deterministas empezaron a ceder frente a los paradigmas indeterministas, en virtud de los cuales en la realidad siempre hay un determinado nivel de incertidumbre por el cual, aunque pudiéramos conocer todas las variables que inciden en un modelo, siempre habría un margen de impredecibilidad.

A lo largo de la historia la dialéctica entre paradigmas deterministas e indeterministas se ha sucedido de forma cíclica y constante, en ningún momento se puede decir que sea un tipo de pensamiento cuya autoría se deba a un filósofo o científico particular, si bien a lo largo de la historia de la filosofía y la ciencia ha habido filósofos o científicos que han hecho importantes contribuciones a uno u otro paradigma.

Algunos de los modelos científicos más importantes en que ha evolucionado el indeterminismo a finales del siglo XX y principios del siglo XXI serán la teoría del caos y la teoría de la complejidad, los cuales estiman que dadas una serie de circunstancias, aunque se puedan hacer estimaciones predictivas, carecen de valor absoluto, habiendo siempre factores cuyo comportamiento puede modificarse de forma imprevisible.

En líneas generales, este tipo de teorías recuperan el idealismo platónico según el cual del caos surge el orden,  en el caso de Platón a causa del Demiurgo, al mismo tiempo que defienden que del orden surge el caos, un pensamiento que tampoco es nuevo, y se puede encontrar  en la literatura de las ciencias sociales en multitud de librepensadores desde el siglo XIX.

Cuando el comportamiento de las variables está sujeta a niveles de incertidumbre, es un estudio estocástico y se utilizarán los métodos de investigación de las ciencias estocásticas, la estadística y la probabilidad, dada su naturaleza estocástica, dado que más que el estudio de relaciones deterministas de tipo causa-efecto, en ausencia de certeza cualquier explicación sólo podrá hacerse en un marco de indeterminismo en donde a lo máximo que podrá alcanzar es el establecimiento de correlaciones.

Precisamente en la primera fase de Probabilidad Imposible, entre los años 2002-2004, uno de los principales objetivos de esta teoría era la creación de nuevos métodos de correlación estadística, en donde finalmente a partir de la segunda etapa, desde el 19 de diciembre del 2009, Probabilidad Imposible se orientará a la creación de nuevas formas de contraste de hipótesis basados en diferentes modelos de crítica racional. El resultado final de aquellas investigaciones se exponen en la obra de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

En Probabilidad Imposible la probabilidad estadística de un sujeto u opción es la probabilidad empírica, igual a  su puntuación directa o frecuencia entre el sumatorio de la muestra, luego de mantenerse el concepto tradicional de certeza igual a probabilidad uno, el nivel de incertidumbre sería igual a la unidad menos probabilidad empírica, siendo la unidad en Probabilidad Imposible igual a la Máxima Probabilidad Empírica Posible.

 

definición tradicional de nivel de incertidumbre = 1 – p(xi)

1 = Máxima Probabilidad Empírica Posible en la teoría de Probabilidad Imposible

p(xi) = la probabilidad empírica en Probabilidad Imposible

xi = puntuación directa o frecuencia en Probabilidad Imposible

 

Lo que la estadística tradicional estimaría nivel de incertidumbre, es un tipo de diferencial ampliamente utilizado en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, para el cálculo de la probabilidad crítica en pruebas estadísticas de contraste de hipótesis, en estudios intermedicionales de sesgo positivo en modelos normales, en donde el cálculo de la probabilidad crítica será igual al producto del nivel de incertidumbre por un porcentaje de error, a fin de, el producto del porcentaje de error por el nivel de incertidumbre sería el mínimo margen de error o incertidumbre dispuestos a aceptar por la política científica en el contraste de hipótesis de sesgo positivo en modelos normales en estudios intermedicionales.

Los estudios de sesgo positivo en modelos normales son aquellos donde dada una muestra N de sujetos u opciones, de toda N sólo intenta aumentar al máximo, Máxima Probabilidad Empírica Posible igual a uno, la probabilidad empírica de un solo sujeto u opción de toda la muestra, al que por la razón que sea,  la política científica define como único ideal posible de toda N, motivo por el cual aumenta al máximo su probabilidad empírica, reduciendo a cero el resto de probabilidades empíricas de los demás sujetos u opciones de la muestra.

A modo de ejemplo ya han sido explicados en este blog algunos modelos de crítica racional de estudios de sesgo positivo en modelos normales, en los siguiente casos sólo aplicables a estudios intramedicionales, la Validez de Sesgo Positivo o la Significación de Sesgo Positivo, siendo sólo una muestra a modo de ejemplo del tipo de contraste de hipótesis que se realiza en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, ya sea en estudios intramedicionales o intermedicionales, sean intramuestrales o intermuestrales.

La diferencia de la unidad menos la probabilidad empírica, en estudio de sesgo positivo en modelos normales, se aplica a la probabilidad empírica de aquel sujeto u opción ideal a elevar al máximo su probabilidad empírica, a la Máxima Probabilidad Empírica Posible, la probabilidad igual a uno, de modo que dicha diferencia en realidad, más que un nivel de incertidumbre, explica cual sería la variación necesaria en el aumento de la probabilidad empírica de ese sujeto u opción para alcanzar su máximo ideal posible, la Máxima Probabilidad Empírica Posible. El modelo de variación necesaria es explicado en el apartado 16 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, variación necesaria de la que, en estudios intermedicionales, se fija una variación posible, para después contrastarla con la variación real obtenida finalmente entre esa primera y la medición futura.

En dichos contextos, si de toda N hubiera un sujeto u opción a elevar al máximo su probabilidad empírica, el nivel de incertidumbre en la ocurrencia o suceso de ese ideal sería directamente proporcional a la diferencia de la unidad menos su probabilidad empírica, que en realidad, en estudios intermedicionales, no sería una estimación de nivel de incertidumbre, sería la estimación de la variación necesaria para que ese sujeto u opción alcanzase su máximo ideal.

Ahora bien, en la  medida que  existen diferentes tipos de estudios en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, dependiendo del tipo de estudio la incertidumbre adquiere significados diferentes.

Aunque tradicionalmente en la estadística normal se ha entendido por certeza probabilidad de ocurrencia igual a uno, en la medida que el Segundo Método de la Probabilidad Imposible evoluciona a modelos de probabilidad y de estadística diferente, el campo de conocimiento que surge de la fusión de ambas, la  estadística de la probabilidad o probabilidad estadística, ya no se puede entender por incertidumbre solamente aquel comportamiento en ausencia de probabilidad igual a uno, dado que en el momento que se generan nuevas dinámicas de estudio dependiendo de objetos diferentes, la definición de incertidumbre varía, dado que la definición de incertidumbre dependerá de la definición de nuestros ideales, y la definición de incertidumbre en el contraste de hipótesis durante la praxis de crítica racional deberá delimitarse o definirse, para cualquier tipo de estudio, en el margen de error, que será la verdadera expresión matemática del nivel de incertidumbre en la explicación de lo que sucede, la realidad y su historia, o lo que está por suceder, el futuro, en forma de predicciones, proyectivas o pronósticas.

De esta manera, siguiendo dentro de los modelos normales, si el ideal de la política científica en el estudio fuera la igualdad de oportunidades, el verdadero nivel de incertidumbre que pondría en duda en el modelo que se alcanzase dicho ideal sería el valor absoluto de la diferencia entre la probabilidad empírica y la probabilidad teórica en igualdad de oportunidades, la inversión de N, siendo dicho diferencial igual al Nivel de Sesgo en Introducción a la Probabilidad Imposible.

 

Nivel de Sesgo = /(p(xi) – 1/N) /

 

En modelos normales que tuvieran por ideal la igualdad de oportunidades, el Nivel de Sesgo sería el nivel de incertidumbre, por cuanto sería aquella diferencia entre comportamiento empírico y teórico por el cual no tendríamos certeza absoluta de igualdad de oportunidades. En la medida que en los estudios de igualdad de oportunidades el Nivel de Sesgo sería el nivel de incertidumbre, sería el motivo por el cual en aquel modelos de crítica racional de igualdad de oportunidades que criticase directamente el Nivel de Sesgo,  la Validez de Igualdad, la probabilidad crítica sería igual al producto del Nivel de Sesgo por un porcentaje de error, siendo el margen de error o incertidumbre en que se aceptaría una hipótesis empírica de igualdad de oportunidades. Siendo en todo caso la Validez de Igualdad un modelo de crítica racional individual intramedicional entre otros modelos posibles, y que se explican en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, a los cuales se deberían añadir otros múltiples contrastes a nivel muestral.

De igualmente manera, en los estudios de sesgo negativo, en la medida que cualquier diferencia entre la probabilidad empírica y cero se estimaría como un nivel de incertidumbre en el comportamiento, por cuanto no se comportase de acuerdo al ideal de sesgo negativo, cualquier diferencia de probabilidad empírica menos cero se interpretaría como un nivel de incertidumbre sobre su tendencia ideal, siendo de hecho dicha diferencia la variación necesaria en estudios intermedicionales de sesgo negativo en modelos normales, tal como se explican en el apartado 16 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, variación necesaria de la que se estimará su variación posible para posteriormente contrastarla con la variación real. O dicho de otra forma, en estudios intramedicionales de sesgo negativo, en caso que para un sujeto u opción determinado su ideal fuera el Máximo Sesgo Negativo Posible, inversión de N, cualquier diferencia entre su sesgo negativo real frente al Máximo Sesgo Negativo Posible, se entendería como un nivel de incertidumbre a reducir al máximo, y que es criticado racionalmente en la Validez de Sesgo Negativo o la Significación de Sesgo Negativo.

En el caso de los estudios de sesgo positivo en modelos omega,  aquellos modelos donde dentro de N hubiera un subconjunto de sujetos u opciones ideales, el conjunto omega, Ω, donde la probabilidad ideal para todo omega fuera la inversión de omega, 1/Ω, el  nivel de incertidumbre para alcanzar el ideal sería igual al valor absoluto de la diferencia de probabilidad empírica menos probabilidad ideal, cuyo producto por un porcentaje de error daría igual a la probabilidad crítica en la Validez de omega.

En síntesis, y de forma general, incertidumbre es cuando el comportamiento de cualquier sujeto u opción en cualquier clase de estudio no se ajusta a nuestros objetivos, o no se ajusta a un modelo de predicción absoluta de todo cuanto suceda, de forma que  cualquier proyecto científico o pronóstico sobre la realidad queda sometido a las posibles variaciones imprevisibles de una realidad total y absolutamente estocástica, no sujeta a leyes causales puras y predeterminadas, generándose un nivel de incertidumbre que se controla a través del margen de error, siendo el margen de error igual al producto de un porcentaje de error por la diferencia entre lo real y lo ideal, el producto del porcentaje de error por el nivel de incertidumbre, creándose así, dentro de los posibles límites de control científico, que tampoco son absolutos, el margen de error o incertidumbre que la política científica sí está dispuesta aceptar en sus decisiones.

 De toda la incertidumbre que pueda haber en un proceso o sistema, el margen de error es aquel margen de incertidumbre, aquella parte de  incertidumbre de toda la posible en el proceso o sistema, que la política científica sí está dispuesta a asumir en la decisión estadística, asumiendo un margen de incertidumbre, aunque dentro de unos límites, dentro del cual la política científica define la realidad, la historia, y el futuro, aunque plenamente consciente que en realidad puede suceder absolutamente de todo, un cierto margen de nihilismo lógico en la ciencia donde la naturaleza estocástica de la realidad se muestra desmesuradamente imprevisible, y todo lo que creamos verdadero  quizás sea falso, y lo que habíamos creído falso o imposible quizás sea total y absolutamente inevitable.

Rubén García Pedraza, Madrid a 5 de julio del 2014



http://probabilidadimposible.wordpress.com/
                  La Librería Matemática de Probabilidad Imposible

sábado, 28 de junio de 2014

Estadística inferencial


La estadística inferencial es aquella parte de la estadística donde se desarrollan diferentes pruebas de contraste de hipótesis, lo que Probabilidad Imposible denomina crítica racional, la determinación lógica del grado de isomorfismo de las ideas, a través de criterios de verificación empírica en forma de probabilidad crítica.

En tanto perteneciente a las matemáticas, la estadística inferencial es analítica, en la medida que la investigación pura se dedicaría al conocimiento y desarrollo de relaciones lógico formales de carácter estocástico entre una serie de elementos para la validación provisional de proposiciones que expliquen dichas relaciones, siendo relaciones estocásticas al darse en un marco de  incertidumbre.

La estadística inferencial  en tanto que parte de la estadística general sería así una ciencia analítica, en cuanto estudio formal, análisis, de posibles relaciones estocásticas entre diferentes elementos para la aportación de explicaciones lógicas de dichas relaciones, y en la medida que al aplicarse a la realidad se pueden establecer  correspondencias entre los elementos y las relaciones de dichos modelos matemáticos, y los elementos y relaciones de la realidad material, hechos o fenómenos, al aplicarse este modelo matemático de análisis a las ciencias sintéticas, la estadística en su conjunto y particularmente la inferencial se transforman  en un método de análisis en la investigación aplicada a las ciencias sintéticas, de forma que la estadística general  y en particular la inferencial, son una ciencia analítica y método sintético  aplicado a  las ciencias empíricas.

En tanto que subconjunto de las ciencias analíticas por cuanto rama de la estadística, el desarrollo de la estadística inferencial depende de la lógica, desarrollo que se hace desde la investigación pura, que en estadística inferencial tiene por fin el desarrollo de modelos inferenciales desde postulados formales para el establecimiento de nuevas relaciones lógicas en contextos de indeterminación causal, correlacionales.

El modo en que Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, aplica la lógica formal para el establecimiento de modelos inferenciales se hace desde el punto de vista de la determinación del grado de suficiencia racional de los diferentes modelos de tendencia. Una investigación pura que para el desarrollo de Probabilidad Imposible se hace desde un determinado modo de aplicación de la lógica, que de forma genérica se denomina silogismo a la tendencia, en esencia la aplicación de la lógica a la tendencia, de modo que el método analítico desde el cual se han desarrollado los diferentes modelos de crítica racional en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, ha sido desde el método analítico del silogismo de la tendencia, que es un modelo de explicación lógica del comportamiento, que aplicado a las ciencias factuales, dará como resultado un método sintético para la investigación de las tendencias naturales o sociales.

En la medida que la aplicación de la lógica al estudio de las dinámicas estadísticas de la tendencia ha dado como resultado modelos de contraste de hipótesis que pueden aplicarse a la verificación empírica de los juicios sintéticos o conjeturas, hipótesis empíricas, de las ciencias sintéticas, entonces la estadística inferencial en tanto que rama de la estadística se transforma de manera automática en un método sintético para las ciencias empíricas, sean ciencias naturales o sociales. De manera que por tal razón la estadística inferencial al igual que el conjunto integral de la estadística tiene la doble dimensión de analítica y sintética.

La estadística inferencial se clasifica dentro de la estadística general, de la cual es una rama, en la medida que dentro de la estadística general se reconocerían dos grandes vertientes, la estadística descriptiva y la estadística inferencial, siendo en cualquier caso ambas en tanto que pertenecientes a la estadística general, campos de estudio analítico de la estadística y métodos aplicados para las ciencias empíricas.

Tradicionalmente dentro de la estadística se ha diferenciado entre estadística descriptiva y estadística inferencial, de modo que normalmente la estadística descriptiva se encontraría dentro de la primera fase de los proyectos de investigación en las ciencias sintéticas, y la estadística inferencial dentro de la segunda fase, siempre y cuando las fases del proyecto de investigación se ordenaran en función de que en un primer momento se realizasen todas las operaciones de recogida de datos y descripción de la realidad, y la segunda fase consistiese en la inferencia de explicaciones sobre lo que sucede.

La diferencia entre pruebas estadísticas descriptivas frente inferenciales, es que las descriptivas sólo aportan información cuantitativa de las cualidades sin hacer ninguna conjetura del por qué. Si en un estudio astronómico se ofrecen datos sobre tasas de composición química de los materiales que forman un cuerpo celeste y su posible atmosfera, temperaturas medias, velocidad de rotación u orbitación en relación a otro cuerpo, gravedad, distancia de la estrella más próxima, información sobre la cantidad de meteoritos anuales, volumen del impacto y energía irradiada, o en ciencias biológicas información sobre la capacidad reproductiva de cada especie, probabilidad de supervivencia de cada recién nacido en cada especie, el número de seres vivos de cada población, o la variación media de los individuos de cada población según diferentes estaciones del año, o en meteorología información sobre temperaturas medias por cada zona o información anual de pluviosidad o precipitaciones anuales por metro cuadrado en diferentes  regiones, o en sociología información mundial sobre estructura demográfica, tasa de matrimonios y divorcios, y datos cuantitativos  de comportamiento social en determinadas actividades, o en economía las cifras mundiales de crecimiento económico, población activa y desempleo,  creación de nuevas empresas, inflación, renta per capita, salario medio, recaudación fiscal, inversión pública o privada, o balanza de pagos del comercio internacional, este tipo de informaciones cuantitativas únicamente son pruebas descriptivas de algo que sucede pero no pretenden una explicación de por qué eso es así, a diferencia de la estadística inferencial, que a partir de los datos descriptivos, elabora modelos de pruebas más complejas, inferenciales, en donde el objeto último es la explicación del por qué sucede lo que ocurre, o por qué ocurre lo que sucede, la explicación última de los fenómenos observados en los hechos empíricos, aunque en un margen de incertidumbre, en el que posiblemente lo que creamos verdadero sea posiblemente falso, y lo que creíamos falso sea posiblemente verdad o inevitable, para lo cual elabora modelos de contraste de hipótesis en donde la variable aleatoria de la realidad queda comprendida o delimitada en lo que Probabilidad Imposible denomina el margen de error establecido por la política científica, siendo el margen de error decisivo en la crítica racional, aunque previamente ya se haya aceptado el margen de error de representatividad muestral.

El margen de error en la crítica racional se delimita o define en la probabilidad crítica, que es la expresión matemática de la razón crítica, una probabilidad crítica que puede formularse a partir de un porcentaje de error o fiabilidad,  pero independientemente del modo de su formulación, toda  probabilidad crítica calculada sobre un porcentaje de error comprenderá un margen de fiabilidad igual a la diferencia de la unidad menos probabilidad crítica, e igualmente toda probabilidad crítica calculada sobre un porcentaje de fiabilidad comprenderá un margen de error igual a la diferencia de la unidad menos la probabilidad crítica, de modo que independientemente de que la probabilidad crítica se calcule sobre un porcentaje de error o fiabilidad delimita de igual forma un margen de error inverso al de fiabilidad, y viceversa. 

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, el cálculo del margen de error en la crítica racional se establece a partir del producto del porcentaje de error o fiabilidad por la máxima tendencia del modelo empírico, ya sean modelos de crítica racional diferenciales o proporcionales, en estadística intramedicional o internacional, intramuestral o intermuestral.

A través de la crítica racional desde la probabilidad crítica en tanto que criterio de verificación de las conjeturas, se lleva a cabo lo que se denomina la inferencia estadística, y de ahí el nombre de estadística inferencial. Dicha rama de la estadística recibe el nombre de inferencial porque es a partir de la crítica de la tendencia observada en la medición o mediciones de una muestra o varias,  elaboradas en función de las variables implicadas en la hipótesis, es a partir de lo cual  se obtienen los elementos de juicio para la toma de una decisión cualificada de aceptación o rechazo de la hipótesis empírica.

En el caso que la hipótesis sea aceptada, se procede a la operación de inferencia, por la cual aquella hipótesis que ha sido aceptada sobre una o más mediciones en una o más muestras, siempre que las muestras sean suficientemente representativas, y el margen de error racional suficientemente exigente, se infiere que es un modelo de comportamiento explicado en la hipótesis que puede inferirse a todo el universo del cual se extrajeron las muestras, siendo ese proceso de extrapolación al universo, de una hipótesis demostrada sobre una o más muestras, lo que se llama inferencia.

En el caso de los modelos de crítica racional explicados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, el margen de error es doble, contemplándose el margen de error de hecho, derivado de la propia aceptación parcial de la realidad, la probabilidad de error de representatividad muestral, igual a la inversión de la muestra, o las diferentes muestras, y de otro lado el error racional de la razón crítica.

El margen de error en la crítica racional será seleccionado por la política científica en coherencia a su ideología, de modo que tenderá aceptar aquellas hipótesis empíricas que no entren en contradicción con su paradigma. Ahora bien, si para aceptar una hipótesis dentro de su paradigma acepta un margen de error demasiado elevado, entonces es un modelo de política científica que entrará de forma cíclica y frecuente en sucesivas crisis,  dada la elevada discrepancia entre su modelo empírico y la verdadera realidad real.

Lo verdaderamente moral sería siempre la afirmación de la verdad, ahora bien, en la medida que la verdad pura es incognoscible dada la limitación humana, que sólo alcanza un conocimiento parcial de la realidad, lo que la realidad muestra de sí en función de nuestra capacidad de observación dependiendo del progreso tecnológico, luego el conocimiento nunca es absoluto, nunca es imparcial, todo conocimiento es ideológico, la única forma de llegar al menos al mayor grado de isomorfismo entre realidad e idea, es reduciendo los márgenes de error para aumentar la fiabilidad de las proposiciones.

De esta forma hay que diferenciar entre la verdad moral del universo, la verdad pura e incognoscible, lo que realmente ocurre, frente la verdad política, parcial e ideológica, lo que el ser humano alcanza a conocer de todo lo que ocurre, la muestra del conocimiento, en donde, sólo aquellas proposiciones que tiendan a incrementar la fiabilidad en el isomorfismo de las ideas llegarán a tener la verdadera categoría de proposiciones verdaderamente científicas, en tanto que serán las verdaderamente éticas al entender la necesidad de aumentar la congruencia entre idea y realidad reduciendo al mínimo sus discrepancias.

Solamente aquellos paradigmas científicos que demuestren un comportamiento ético garantizarán la supervivencia de la humanidad, y en general la vida, mientras aquellos paradigmas que demuestren un comportamiento anticientífico, aceptando márgenes de error demasiado elevados en sus propósitos pondrán en riesgo la vida a causa de sus profundas contradicciones éticas, generando crisis científicas de manera cíclica.

En el caso que el paradigma dominante o hegemónico de una ciencia en particular o la ciencia en general, sea un paradigma que demuestre serias discrepancias morales ante la verdadera verdad del universo, provocará sucesivas crisis llevando a la ciencia a un estado estacionario de crisis permanente, de la cual sólo podrá salir la ciencia través de una revolución científica que instaure un nuevo paradigma que demuestre una mayor congruencia ética y moral, un nuevo modelo de praxis política, generando potenciales revoluciones sociales.

La estadística inferencial es aquella rama de la estadística de la que depende la inferencia de las hipótesis empíricas al universo, ya sea un universo infinito o limitado, pero en cualquier caso una visión humana, parcial, dentro de nuestras capacidades, las cuales sólo incrementarán los niveles de objetividad según  progrese la ciencia y la tecnología, aunque por mucho que avancen, nunca habrá que perder la conciencia de que la ciencia nunca será absoluta, y siempre habrá un margen para la duda, la incertidumbre y el azar, un espacio de libre albedrío, un nihilismo lógico en el que todo, y absolutamente todo, en un universo verdaderamente infinito, puede ser posible.

Rubén García Pedraza, Madrid a  29 de junio del 2014




http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible