Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


Mostrando entradas con la etiqueta Error de representatividad y dispersión teórica. Mostrar todas las entradas
Mostrando entradas con la etiqueta Error de representatividad y dispersión teórica. Mostrar todas las entradas

sábado, 14 de noviembre de 2015

La muestra de dos opciones


Una muestra de dos opciones es cuando la muestra N se limita sólo a dos posibles sujetos u opciones exclusivamente, ya sea en ciencias naturales o sociales. Si lanzamos una moneda al aire los resultados normalmente son cara o cruz, el ser humano sólo puede ser hombre o mujer, el estudio del comportamiento de los fotones puede ser como honda o partícula, la carga eléctrica de una partícula sólo puede ser positiva o negativa.

Si bien, se puede dar el caso que al lanzar una moneda al aire finalmente al caer se sostenga sobre el borde de la circunferencia luego no sea ni cara ni cruz, un ser humano sea hermafrodita, independientemente de la modalidad de estudio un fotón se comporte simultáneamente como honda y partícula, y además de los electrones y protones haya neutrones. Independientemente de que en el comportamiento de la realidad no sea reductible a dimensiones binarias, bajo determinadas circunstancias hay estudios donde la muestra N de sujetos u opciones se reduce a sólo dos opciones, siendo el paradigma de universo limitado, el universo limitado a dos opciones.

Un universo limitado de opciones es aquel en donde el objeto de la medición es el recuento del número de ocurrencias por cada opción, siendo el total de ocurrencias por opción igual a la frecuencia de la opción, y además es un tipo de universo que por su propia naturaleza no tiende a infinito. El número de opciones de ese universo será igual a la muestra N, de modo que la probabilidad empírica de cada opción será igual a la frecuencia de la opción entre la frecuencia total. Es dentro de los universos limitados donde el concepto de probabilidad empírica del Segundo Método guarda más similitudes con el concepto clásico de la estadística tradicional, el primer método, de frecuencia relativa. Si bien el concepto tradicional de frecuencia relativa no guarda absolutamente ninguna identidad con el modo en que el Segundo Método de Probabilidad Imposible aplica el concepto de probabilidad empírica a los universos de sujetos, donde la probabilidad empírica se calcularía sobre la puntuación directa de sujeto u opción entre el sumatorio de puntuaciones directas. Diferenciándose la puntuación directa de la frecuencia en que la frecuencia de una opción es el sumatorio del total de ocurrencias de una opción, mientras la puntuación directa es la magnitud obtenida sobre una escala de medida en la estimación de la intensidad de una cualidad en un sujeto.

Una de las principales diferencias entre la frecuencia relativa de la estadística tradicional, el primer método, y la probabilidad empírica del Segundo Método, es que en la probabilidad empírica se equiparan los conceptos de sujeto u opción, haciéndose el mismo tratamiento de los datos obtenidos de cualquier tipo de medición, ya sea en forma de frecuencia o puntuación directa, síntesis que se hace en el concepto de probabilidad empírica de sujeto u opción, igual a la puntuación directa o frecuencia de sujeto u opción entre el total de puntuaciones directas o frecuencias.

Una vez establecidas las diferencias entre el concepto de la estadística tradicional, primer método, de frecuencia relativa, y el concepto del Segundo Método de Probabilidad Imposible sobre probabilidad empírica de sujeto u opción, se distinguen así fácilmente los dos tipos de universos, los universos de opciones y los universos de sujetos tratados como si fueran opciones. Los universos de opciones son de naturaleza limitada, las opciones no infinitas. Y los universos de sujetos tratados como si fueran opciones son así entonces universos de sujetos u opciones que si tienen posibilidad no descartable de tendencia a infinito, ya sea dentro de una posible historia infinita del universo en sí mismo, como dentro de los estudios poblacionales, aunque el estudio se limite en el espacio-tiempo, la posibilidad de infinidad de mediciones entre un periodo de tiempo determinado.

Dentro de los universos limitados el número de opciones que integren el universo serán los límites de ese universo, en donde se dan cabida tanto universos formados por opciones naturales o sociales, como los estudios limitados a categorías discretas, donde de una escala magnitud se establecen categorías definidas por intervalos de magnitud según  límites inferiores o superiores por cada categoría, ordenándose así en forma de categorías discretas. En los estudios de categorías discretas se contabilizarían los sucesos cuya estimación de magnitud estuviera dentro de cada categoría, y el sumatorio del número de sucesos por categoría sería su frecuencia, formando así parte de los universos de opciones limitadas, en este caso, limitadas a categorías discretas. La definición de los universos de opciones limitadas se explica de forma más detallada en el apartado 10 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

De este modo los universos de opciones limitadas integran una enorme variedad de tipos de universos, en donde el número de opciones establecen los límites de ese universo, por ejemplo si lanzamos al aire un dado de seis caras es un universo formado por seis opciones. Si en ciencias sociales se define el estado civil según la persona sea: soltero, casado, separado, divorciado, viudo; el estado civil de una persona viene definido por un universo de  cinco opciones.

El número de opciones en un universo limitado es variable, aunque nunca tendente a infinito, siendo el mínimo posible de opciones igual a dos, una muestra N de sujetos u opciones para que sea susceptible de estudio estadístico debe tener como mínimo dos opciones, si hubiera menos de dos opciones no sería un estudio estocástica.

La primera cualidad de la muestra de dos opciones es que es la muestra más mínima a que pueda llegar N para que haya estudio estocástico, siendo la muestra N una dimensión variable entre dos e infinito, si bien, en caso que N tienda a infinito necesariamente deberá hacer una selección muestral para el estudio, comprendiendo un margen de error de representatividad muestral igual a inversión de N, 1/N.

Dos sería el mínimo indispensable para estudio estocástico, no pudiendo haber en absoluto muestras inferiores a dos en el método estadístico. Y es en muestras de dos opciones donde se observan una serie de cualidades propias.

En muestras de dos opciones de forma universal siempre la media aritmética es igual a “0,5”, y salgo que la probabilidad empírica de ambas opciones sea igual a probabilidad teórica, se daría el caso que siempre que tuvieran el más mínimo sesgo, entonces el Nivel de Sesgo de cada opción sería siempre igual al Máximo Sesgo Empírico Posible, el cual es igual al Sesgo Total entre N, en este caso Sesgo Total entre dos, independientemente de la magnitud del sesgo. Que de darse bajo condiciones de máxima dispersión, que un sujeto u opción tenga probabilidad uno, y el otro probabilidad cero, la Desviación Media sería también igual a “0,5”.

 

La muestra de dos opciones es el único tipo de muestra donde inversión de N, 1/N, sería, además de media aritmética, la Máxima Desviación Media Teórica Posible o Máxima Desviación Típica Posible. De modo que en universos de dos opciones coinciden la media aritmética y la máxima dispersión teórica posible de la muestra.

En la obra Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se menciona en numerosas ocasiones que el método analítico por el cual se ha ido elaborando la teoría es el silogismo de la tendencia, que en resumidas cuentas se puede sintetizar como la aplicación de la lógica al estudio de la tendencia, estudio que normalmente se centra en los límites de la tendencia.

Si estudiamos los límites de la tendencia en los conceptos que integran Probabilidad Imposible, uno de estos conceptos es precisamente el concepto N, que hace mención a la muestra N sujetos u opciones, en donde el estudio de la tendencia rápidamente indicaría que N es una variable que puede oscilar entre dos e infinito, dos porque es el número indispensable de opciones para que haya estudio estocástico, e infinito por la propia existencia de universos que pueden tender a infinito, de los cuales si acaso sólo estudiamos una muestra, la que finalmente se estudiará en la muestra de N sujetos u opciones, una muestra suficientemente grande como para que sea representativa y matemáticamente operativa.

El motivo por el cual no podemos trabajar con una muestra infinita es porque matemáticamente no sería operativa, en primer lugar porque la propia inversión de N no sería operativa. Si N tiende a infinito entonces la inversión de N, 1/N, la probabilidad teórica, sería igual a cero, además de que la muestra de puntuaciones directas o frecuencias tendería a cero, luego la probabilidad empírica sería igual a cero, luego tanto la probabilidad empírica y teórica serían igual a cero haciendo inoperativo cualquier cálculo matemático de la tendencia. Lo que a su vez genera problemas sobre el grado en que realmente un constructo matemático de muestras de sujetos no finitas son realmente representativas sobre lo que ocurre en el infinito, tal como se explica en los apartado 7, 8 y 9 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad o probabilidad estadística.

En el momento que se aplica la lógica a la tendencia de los conceptos de Probabilidad Imposible, a medida que todo tiende a infinito, tanto N y el sumatorio de puntuaciones directas o frecuencias, el modelo empírico tendería a cero, cuando en la realidad real, material y verdadera del universo no es así, un fenómeno que además de contradicciones lógicas, implica que aplicado a la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible, a medida que N aumenta en tendencia a infinito entonces la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible también tienden a cero.

De modo que cuando en muestras de dos opciones, la muestra más mínima e indispensable posible para que se pueda hablar de estudio estocástico, se da el caso que la Máxima Desviación Media Teórica Posible y la Máxima Desviación Media Teórica Posible es igual a “0,5”, entonces se concluye que la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible son dimensiones que sólo pueden oscilar entre “0,5”, y “0”, en donde el máximo valor que pueden alcanzar la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es igual a “0,5” bajo la condición exclusiva de que la muestra N sólo integre  dos opciones. Conforme N tiende a incrementarse, por el aumento de sujetos u opciones en el modelo matemático, necesariamente la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible entonces tienden a valores inferiores a “0,5”.

De modo que al igual que la propia probabilidad teórica igual a inversión de N, 1/N, es una variable matemática dependiente de la magnitud N, en donde conforme N tiende a infinito entonces la inversión de N, 1/N, tiende a cero, siendo el máximo valor posible de inversión de N, ¡/N, igual a “0,5” bajo supuesto que N sólo integre dos opciones. Del mismo modo la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es una variable dependiente de N, en donde tienden a cero conforme N tiende a infinito, de modo que el máximo valor que pueden alcanzar la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es igual a “0,5”.

Por lo que tanto la probabilidad teórica como la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible son dos variables dependientes de N, cuyo máximo valor es “0,5”, bajo supuesto que N sea igual a dos. Y conforme N tiende a infinito estas variables tenderán a cero, si bien, el único y exclusivo caso en donde probabilidad teórica y Máxima Desviación Media Teórica Posible y Máxima Desviación Típica Teórica Posible llegan a tener el mismo valor es sólo en su límite máximo de “0,5”, cuando N es igual a dos. Porque a medida que N sea superior a dos, en función de la magnitud N cada variable será inferior a “0,5”, pero representando magnitudes diferentes, ente otros motivos porque, una vez que N alcance un valor suficiente, dejando de ser la muestra de N opciones de un universo limitado, y pase a convertirse en la muestra N de sujetos u opciones de un universo de sujetos u opciones infinitos, dentro de la multifuncionalidad de inversión de N, 1/N, entonces la inversión de N, 1/N, pasará a ser un estadístico de probabilidad de dispersión teórica, y probabilidad de error de representatividad muestral. En tanto que probabilidad de dispersión teórica en universos infinitos inversión N, 1/N, siempre será inferior a la Máxima Desviación Media Teórica Posible, y la Máxima Desviación Típica Teórica Posible, una diferencia que sin embargo irá decreciendo conforme N tienda a infinito.

De modo que en sus límites extremos, que N sea igual a dos, y que N tienda a infinito, es en donde se produce la mayor coincidencia entre inversión de N y los estadísticos de máxima dispersión muestral teórica posible. En muestras de dos opciones porque ambos serán igual a “0,5”, y en universos de sujetos u opciones infinitos conforme N tienda a infinito tanto la inversión de N como los estadísticos de máxima dispersión muestral teórica posible tenderán a cero, en el caso de inversión de N por cuanto tenderá a uno entre infinito, mientras los estadísticos de máxima dispersión muestral teórica posible tenderán a dos entre infinito,  y en cualquier caso ambos tipos de estadísticos revelarán una tendencia indiscutible a cero.

 Rubén García Pedraza, Madrid a 14 de noviembre del 2015.

https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería

domingo, 30 de agosto de 2015

Sesgo Total


Se dice que algo está sesgado cuando muestra un comportamiento diferente al azar. Si lanzamos una moneda al aire, y el número de caras o de cruces es diferente al cociente de dos entre número total de lanzamientos, la moneda está sesgada a favor de aquella opción, cara o cruz, que demuestre mayor ocurrencia. Si en una estadística de natalidad el número de nacimientos de niños y niñas es diferente al cociente de dos entre número total de nacimientos, hay una tendencia sesgada a  más niños o niñas, según en uno u otro género halla mayor tasa de nacimientos. Si en una serie de pruebas de diferentes tratamientos médicos para una misma enfermedad, uno u otro tratamiento logra que un mayor número de pacientes se reponga fuera de lo que sería esperable por azar, el tratamiento que logre mejores resultados demuestra mayor sesgo positivo que aquellos cuyo número de pacientes repuestos sea inferior. Si en un examen a una serie de alumnos la distribución de puntuaciones difiere a lo que sería una distribución aleatoria hay una distribución sesgada, en donde el mayor sesgo positivo será de los alumnos que obtengan mejores puntuaciones.

Se dirá sesgo a todo comportamiento que difiera de una distribución aleatoria por azar, y la tendencia natural del azar es a la distribución en torno la media aritmética en ausencia de condicionantes que determinen otro comportamiento diferente, todo comportamiento que difiera de lo que sería un comportamiento aleatorio, entorno a la media aritmética, será un comportamiento sesgado.

En Probabilidad Imposible se llamará sesgo a la dispersión estadística que genere cualquier tipo de comportamiento diferente al esperable por azar, y la forma en que se mide el grado de sesgo de cada sujeto u opción en Probabilidad Imposible es a través del Nivel de Sesgo, igual a probabilidad empírica menos probabilidad teórica. 

Nivel de Sesgo= p(xi) – 1/N
 

p(xi)= xi/ ∑xi = probabilidad empírica

1/N= ∑xi/N = probabilidad teórica

N= número de sujetos u opciones de la muestra

xi= puntuación directa o frecuencia 

Lo que para la teoría de Probabilidad Imposible es Nivel de Sesgo en la estadística tradicional se llama puntuación diferencial, sólo que mientras la puntuación diferencial lo que contrasta es la puntuación directa y la media aritmética de las puntuaciones directas, y lo que Probabilidad Imposible contrasta en términos diferenciales en el Nivel de Sesgo son dos probabilidades estadísticas, la probabilidad empírica menos la teórica. En la medida que el estudio de la realidad a través de las probabilidades estadísticas que desarrolla Probabilidad Imposible genera un nuevo método de estudio, al método de estudio que tiene su base en los conceptos de probabilidad empírica y teórica, se denominará Segundo Método, para diferenciarlo del Primer Método que sería la estadística tradicional. 

La probabilidad empírica mide la tendencia individual real de cada sujeto u opción, mientras la probabilidad teórica indica señala el verdadero comportamiento en igualdad de condiciones, en ausencia de cualquier otro factor salvo el azar. La diferencia entre el comportamiento real y el aleatorio, mide el grado de dispersión real del sujeto u opción frente al teórico en igualdad de oportunidades. De este modo lo que realmente mide el Nivel de Sesgo es la dispersión entre la tendencia individual empírica y lo que en función de la magnitud de la muestra, N, debería ser la tendencia teórica en ausencia de sesgo, la inversión de N, 1/N.

Una vez calculado la dispersión individual se puede obtener una estimación de la dispersión muestral , lo que precisa de la suma de todos los Niveles de Sesgo, una operación no exenta de cierta complicación, por cuanto si el resultado de la diferencia de probabilidad empírica menos probabilidad teórica un resultado cuyo signo, positivo o negativo, depende de que la probabilidad empírica sea mayor o menor que la teórica, y se da el caso que la inversión de N es un algoritmo multifuncional, por cuanto desempeña funciones variadas, entre ellas la función de probabilidad teórica, además de media aritmética de las probabilidades empíricas, por cuanto la inversión de N es un estadístico de tendencia central, la suma de todos los Niveles de Sesgo que tengan sesgo negativo tendrá un resultado equivalente a la suma de todos los Niveles de Sesgo de sesgo positivo. A este fenómeno de la identidad entre la suma de todos los Niveles de Sesgo positivo de una muestra y la suma de todos los Niveles de Sesgo negativo de esa misma muestra, en Probabilidad Imposible se denomina fenómeno producto de la bondad natural, por cuanto naturalmente los sesgos tienden a compensarse, es decir, el volumen de sesgo positivo de una muestra será siempre igual al volumen de sesgo negativo, y viceversa, el volumen de sesgo negativo siempre será igual al volumen de sesgo positivo. Debido a este fenómeno de bondad natural, y es que los sesgos positivos y negativos tienden a compensarse, si se suma todos los Niveles de Sesgo, positivos y negativos, de todos los sujetos u opciones de una misma muestra, el resultado del sumatorio de todos los Niveles de Sesgo sería igual a cero.

∑ (p(xi) – 1/N) = 0 

Fenómeno análogo al que sucede en la estadística tradicional, el Primer Método, con la puntuación diferencial, donde el sumatorio de todas las puntuaciones diferenciales sería igual a cero.

∑ (xi – µ) = 0 

A fin de salvar este obstáculo la estadística tradicional, el Primer Método, establece dos mecanismos, de un lado el sumatorio del valor absoluto de todas las puntuaciones diferenciales, o la elevación al cuadrado de las puntuaciones diferenciales. Una vez salvado este escollo, para que el sumatorio no sea igual a cero, a continuación el Primer Método se limita simplemente al cociente del sumatorio, ya sea de los valores absolutos o cuadrados de las puntuaciones diferenciales, entre la frecuencia total. Al cociente de dividir entre frecuencia total el sumatorio de los productos de valores absolutos de las puntuaciones diferenciales por la frecuencia de su puntuación directa se llamará Desviación Media, y si en lugar de considerar el valor absoluto de la puntuación diferencial se calcula sobre su cuadrado se llamará Varianza. 

Desviación Media = ∑ [ / (xi – µ) /  f ] : F

Varianza = ∑ [ (xi – µ)²  f ] : F
 

F= frecuencia total

f= frecuencia de cada puntuación directa 

En el Segundo Método de Probabilidad Imposible el modo de salvar el problema que supone que el sumatorio de los Niveles de Sesgo teniendo en cuenta el signo sea igual a cero es el mismo que en el Primer Método, ya bien el sumatorio de los valores absolutos de los Niveles de Sesgo sin tener en cuenta el signo, lo que sería en sentido estricto el Sesgo Total, o bien el sumatorio de los Niveles de Sesgo al cuadrado, que en tal caso nos da una estimación cuadrática del Sesgo Total. 

Sesgo Total = / ( p(xi) – 1/N ) /

Sesgo Total cuadrático =  ( p(xi) – 1/N )² 

El Sesgo Total de este modo sería la suma del valor absoluto de todos los Niveles de Sesgo, y nos daría una percepción de la cantidad de sesgo en una muestra. Si ya de por si tenemos dos monedas diferentes, y sobre un mismo número de lanzamientos en cada moneda, calculamos el Sesgo Total acumulado al lanzar cada moneda, y una moneda demuestra mayor Sesgo Total que la otra, se podría decir sin lugar a dudas que una moneda demuestra mayor sesgo que la otra. Si después de un examen a dos grupos de alumnos diferentes, un grupo de alumnos demuestra un mayor nivel de Sesgo Total que el otro grupo, entonces la dispersión dentro de ese grupo es ya de por sí mayor que el del otro grupo que presenta menor Sesgo Total, lo cual significaría que se darían condiciones de igualdad de oportunidades entre ambos grupos de alumnos, de modo que cabe sospechar que en el grupo de alumnos que tiene mayor Sesgo Total hay más diferencias significativas entre los alumnos de mayor y menor rendimiento.

Una vez calculado el Sesgo Total el Segundo Método de Probabilidad Imposible nos permite dos cálculos diferentes a partir de este cómputo, o bien Sesgo Total entre dos igual a Máximo Sesgo Empírico Posible, o bien Sesgo Total entre N igual a Desviación Media.

Empecemos el análisis del Máximo Sesgo Empírico Posible, igual a Sesgo Total entre dos. En la medida que el Sesgo Total es la suma del valor absoluto de todos los Niveles de Sesgo, positivos o negativos, si se sumara todos los Niveles de Sesgo positivo y el valor absoluto de todos los Niveles de Sesgo negativos, el resultado sería igual al Sesgo Total. El hecho que el Sesgo Total sea igual a la suma de todos los sesgos positivos o negativos, y que por la propia bondad natural de la inversión de N, el valor obtenido de la suma en términos absolutos de los sesgos negativos sea idéntico al obtenido de la suma de todos los sesgos positivos, implica necesariamente que el 50% del Sesgo Total es equiparable a la suma de todos los Niveles de Sesgo positivo, o el 50% del Sesgo Total es equiparable a la suma de todos los Niveles de Sesgo negativo. Dado que el 50% del Sesgo Total es la suma de los Niveles de Seso positivos, y el otro 50% es la suma del valor absoluto de los Niveles de Sesgo negativo, y se da el caso que el cálculo del 50% del Sesgo Total es equiparable a dividir entre dos el Sesgo Total, entonces, si se divide el Sesgo Total entre dos se obtiene un valor idéntico al que se obtendría de o bien sumar todos los Niveles de Sesgo positivo, o todos los Niveles de Sesgo negativo.

Ahora bien, el hecho que Sesgo Total entre dos sea igual a la suma de todos los Niveles de Sesgo positivos, o el términos absolutos de todos los Niveles de Seso negativo, no implica en modo alguno que la mitad de la muestra, la mitad de N, sea de sesgo positivo o negativo, porque se puede dar el caso que bajo condiciones de máxima tendencia, de toda N un único sujeto u opción tenga puntuación directa o frecuencia distinta de cero, mientras todos los demás sujetos u opciones, N menos uno, tengan puntuación directa o frecuencia igual a cero, lo que implicaría entonces que el Nivel de Sesgo positivo de ese único sujeto u opción distinto de cero sería idéntico a la suma de los valores absolutos de todos los Niveles de Sesgo cuya puntuación directa o frecuencia sea igual a cero. De lo que se concluye que, independientemente de que dentro de N el número de sujetos u opciones que tengan sesgo positivo o negativo oscile entre uno y N menos uno, nunca y absolutamente nunca el Nivel de Sesgo de ningún sujeto u opción puede ser superior al cociente de Sesgo Total entre dos, motivo por el cual al Sesgo Total entre dos en el Segundo Método de Probabilidad Imposible se conocerá por Máximo Sesgo Empírico Posible.

Máximo Sesgo Empírico Posible=

∑ / ( p(xi) – 1/N ) / : 2 

En la medida que en el Primer Método, la estadística tradicional, normalmente el problema que supone la identidad a cero del sumatorio de puntuaciones diferenciales se salva normalmente a través de la elevación al cuadrado de los diferenciales, a fin de adaptar el Segundo Método al Primer Método, el cálculo del Máximo Sesgo Empírico Posible puede ser también cuadrático.

Máximo Sesgo Empírico Posible Cuadrático=

∑ ( p(xi) – 1/N )² : 2 

Y a fin que en los contrastes frente los Niveles de Sesgo normales y corrientes sea de forma típica, la posibilidad de la raíz cuadrada del Máximo Sesgo Empírico Posible Cuadrático daría lugar al Máximo Sesgo Empírico Posible Típico.

Máximo Sesgo Empírico Posible Típico=

 √[ ( p(xi) – 1/N )² ] : 2 

El Nivel de Sesgo sería un estimador de la dispersión empírica individual, el Sesgo Total ya sería un estimador de la dispersión estadística muestral, que dividido entre dos sería igual al Máximo Sesgo Empírico Posible, ofreciendo además las variantes de Máximo Sesgo Empírico Posible Cuadrático o Típico, para adaptarlo a la estadística tradicional. En cualquier caso tal como se reitera en Introducción a laProbabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en Probabilidad Imposible siempre se prefiere la utilización de los diferenciales entre probabilidades en términos absolutos por cuanto no alteran el valor de las diferencias, siendo muy importante conservar los datos lo más fielmente posible a la realidad a  fin de reducir los márgenes de error acumulados en las operaciones.

Además del Máximo Sesgo Empírico Posible, otra estimación de dispersión muestral que nos permite calcular el Sesgo Total es la propia Desviación Media de las probabilidades estadísticas de la muestra, en donde Sesgo Total entre N, o Sesgo Total por inversión de N, 1/N, sería igual la Desviación Media de las probabilidades empíricas de los sujetos u opciones.

Desviación Media =

 /( p(xi) – 1/N )/ : N =

 /( p(xi) – 1/N )/ · 1/N 

En la medida que la Desviación Media es igual a Sesgo Total por inversión de N, e inversión de N es igual a la distribución teórica por azar, entonces la Desviación Media es igual a sesgo por azar, es decir, la Desviación Media lo que mide es cual debería ser la distribución del Sesgo Total de la muestra por azar, es decir, teóricamente dado ese nivel de Sesgo Total cual debería ser la porción de sesgo que debería corresponder a cada sujeto u opción de distribuirse el Sesgo Total en igualdad de condiciones entre todos los sujetos u opciones. Precisamente es a partir de la comprensión de la naturaleza de la Desviación Media, sesgo por azar, donde en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, dentro de la estadística inferencial intramedicional, en el apartado 11 se explican una serie de modelos de pruebas de contraste de hipótesis para la crítica racional de los datos comparando los Niveles de Sesgo individuales y la Desviación Media.

A fin de adaptar el Segundo Método de Probabilidad Imposible a la estadística tradicional, el Primer Método, en lugar de Desviación Media de las probabilidades empíricas se puede calcular la Varianza de las probabilidades empíricas, igual a dividir entre N, o producto por inversión de N, el sumatorio de los Niveles de Sesgo al cuadrado.

Varianza= S² =

 ( p(xi) – 1/N )² : N =

 ( p(xi) – 1/N )² · 1/N 

Y la raíz cuadrada de la Varianza igual a la Desviación Típica de las probabilidades empíricas.

Desviación Típica= S =

 √ [ ( p(xi) – 1/N )² ] : N =

   [ ( p(xi) – 1/N )² ] · 1/N 

El modelo de estudio que propone Probabilidad Imposible en el campo de la estadística de la probabilidad o probabilidad estadística supone una reformulación de muchas de las ecuaciones originales de la estadística tradicional, aportando nuevas definiciones, y nuevas operaciones de los que a posteriori surgen nuevos modelos de contraste de hipótesis.

 Rubén García Pedraza, Madrid 30 de agosto del 2015


 
 
https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería


 

sábado, 3 de enero de 2015

Indeterminación





Indeterminación se dice en ausencia de determinación, porque las relaciones entre los elementos no son estrictamente causales, o son causas asociadas a un nivel de probabilidad,  causas probables, o simplemente variables correlacionales, en cualquier caso se llama indeterminación a todo contexto estocástico donde lo que sucede está asociado a algún grado de posibilidad.

En el siglo XX el concepto de indeterminación ha estado ligado al concepto de incertidumbre, entre otras razones, gracias al principio de Heisenberg, al cual, dependiendo del tipo de manuales o libros de divulgación científica, se le denomina principio de incertidumbre o principio de indeterminación.

El motivo por el que indeterminación e incertidumbre se han encontrado ligadas en la física, y en general al positivismo, se debe a que si certeza es cuando la probabilidad asociada a un acontecimiento es igual a uno, “1”, lo que en Probabilidad Imposible se denomina Máxima Probabilidad Empírica Posible, dado que la probabilidad es un término matemático que sólo puede oscilar entre cero, “0”, y uno, “1”, cuando se dice que la probabilidad de ocurrencia de un suceso es igual a uno, “1”, entonces hay absoluta certeza de que ese suceso vaya a ocurrir, no habiendo la más mínima duda de que pueda no suceder. En tal caso la certeza de ocurrencia es absoluta, determinación.

Sólo si la probabilidad de un fenómeno es inferior a la unidad, “1”, aunque mayor a cero, “0”, se dice que se hay un nivel de incertidumbre proporcional a la diferencia de la unidad, “1” menos esa probabilidad.

En función del nivel de incertidumbre, diferencia de uno, “1”, menos la probabilidad de ocurrencia, se asignará un grado de incertidumbre al fenómeno, y sólo si el nivel de incertidumbre es cero habría certeza absoluta. Salvo este caso, la incertidumbre es proporcional a la diferencia de la unidad, “1”, menos la probabilidad de ocurrencia.

A esta probabilidad de ocurrencia en Probabilidad Imposible se la denomina probabilidad empírica, y es igual a la puntuación directa o frecuencia de sujeto u opción entre sumatorio de puntuaciones directas o frecuencia. La teoría de Probabilidad Imposible en la medida que está enfocada a la crítica racional de lo que sucede, la realidad, o ha sucedido, la historia, la forma en que se calcula el margen de incertidumbre es a través del margen de error, de modo que cualquier hipótesis aceptada sobre un margen de error, es una hipótesis con un nivel de incertidumbre idéntico al margen de error, el cual previamente ha establecido la política científica en función de su razón crítica, y matemáticamente en el contraste de hipótesis se representa en forma de probabilidad crítica.

Siempre que en un modelo de ciencias sintéticas, naturales o sociales, no hay absoluta certeza de lo que puede suceder, es un modelo de indeterminación estocástica cuyo estudio depende de la utilización de métodos estocásticos, la estadística y la probabilidad. En el caso de Probabilidad Imposible, a través del campo de estudio que supone la estadística de la probabilidad o probabilidad estadística, para lo cual se genera una serie de métodos de estudio alternativos, el Segundo Método, el Impacto del Defecto, la Distribución Efectiva, y los estudios de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Se dice que un modelo de causalidad está sujeto a índices de probabilidad, causas probables, cuando no hay evidencia suficiente empírica que demuestre una vinculación clara y directa entre causa y efecto, de modo que la relación de causa y efecto es sólo probable. El ejemplo que suele citarse en Introducción ala Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, es la probabilidad del arco-iris . Si bien sabemos que cuando un rayo de luz penetra una gota de agua produce el efecto óptico de la fragmentación del espectro de colores de la luz, el hecho que llueva durante el día, dándose las condiciones de posibilidad del arco-iris, no es motivo o causa suficiente que determine la aparición del arco-iris, lo único que podemos saber es, sobre número total de días de lluvia observados, cuantos días ha salido el arco-iris, luego la probabilidad empírica de aparición del arco-iris será igual a número de días de lluvia observados que ha salido el arco-iris, entre el número total de días de lluvia observados.

 El hecho que llueva no es causa determinante o automática de la aparición del arco-iris,  es un fenómeno que sólo se produce bajo determinadas condiciones de posibilidad estocásticas, las cuales se pueden medir estadísticamente en forma de probabilidad, en Probabilidad Imposible la probabilidad empírica.

De otro lado se pueden dar fenómenos en donde sin haber una relación unívoca o unidireccional de causa y efecto, se pueden dar correlaciones positivas o negativas, a causa de la interacción o retroalimentación mutua. En este tipo de escenarios, más que relaciones de causa y efecto,  en la medida que los fenómenos interactúan y se retroalimentan entre sí, lo más conveniente es hablar de correlación, la cual puede ser directa o inversa.

Se dice correlación directa cuando la relación entre una serie de elementos es directamente proporcional, en donde el factor de correlación es el valor cuantitativo en que se relacionan de forma positiva los elementos estudiados. Si en un modelo  se observa una serie de elementos un crecimiento, sea en igual o desigual medida o proporción, se dice que hay correlación positiva en la medida que todos incrementan su valor, ya sea un crecimiento igual o desigual, pero siempre que en todos se manifieste crecimiento, siendo el valor numérico de la correlación positiva el factor de correlación en el crecimiento entre las diferentes variables.

Correlación inversa es cuando hay una correlación inversamente proporcional, si disponemos de dos elementos, y en tanto que una crece el otro decrece, o varios elementos, en donde mientras un conjunto de elementos crece el otro decrece, se dice que hay correlación inversamente proporcional entre el valor que crece y el otro que decrece, o correlación inversamente correlacional entre el conjunto que crece y el otro conjunto que decrece.

Los motivos por los que dos o más variables pueden correlacionar son diversos, ya bien por simple simultaneidad coincidente, o bien porque dicha coincidencia se produce  por algún conjunto de factores subyacentes en un contexto común a los fenómenos, que los desconozcamos, y sea la causa probable de su aparición, o sea una correlación debida a la propia influencia mutua entre los factores que se estudian, interacción o retroalimentación. Además de que sea una correlación debida a un modelo de causalidad probable, en donde la ocurrencia de un suceso normalmente correlacione favorablemente con otro posterior del cual sea causa probable.

Una de las características de la ciencia contemporánea es  que frente los modelos deterministas clásicos de relaciones absolutas de causación, la ciencia contemporánea tiende más al estudio de los niveles de causación probable o correlación, ya sea en estudios sobre la relación entre dos variables, o multi-variable.

El hecho que se admita la existencia de ámbitos empíricos de indeterminación estocástica, ha sido utilizado por algunos paradigmas para oponerse frontalmente a cualquier visión nomotética y normativa, sin embargo es curioso que mientras los paradigmas idiográficos han hecho uso de este argumento para reivindicar una ciencia cualitativa, especialmente en ciencias sociales, en el campo de las ciencias naturales la aceptación de la incertidumbre y la indeterminación empírica, lejos de suponer el rechazo a la formulación de leyes naturales, ha sido un elemento sobre el cual se ha articulado una revisión conceptual de la estructura de la ciencia, que mantiene la necesidad de leyes sobre lenguaje matemático, tal como ya proponía Galileo, operando una redefinición en la función leyes científicas, adaptándose a los nuevos escenarios de incertidumbre y relatividad.

Mientras en ciencias sociales el impacto del relativismo y la incertidumbre, o las nuevas teorías de la complejidad y el caos, han llevado a nuevos modelos científico sociales en donde se pone en duda el valor de las leyes científicas y el uso de metodologías cuantitativas, en ciencias naturales la forma en que se ha operado esta transformación en la comprensión de la ciencia es hacia un modelo de ciencia en donde la interpretación de las leyes naturales queda sujeta a grandes márgenes de indeterminación e incertidumbre, entendiéndose un necesario margen de libertad a los fenómenos, comprendiendo que cualquier predicción posible carece de certeza absoluta, habiendo márgenes de error en las afirmaciones y predicciones.

Es precisamente en los años en que Planck, Einstein, Heisenberg, Schrondinger y los primeros grandes teóricos de la mecánica cuántica y la cosmología de principios del siglo XX hacen sus descubrimientos más importantes, cuando emerge con toda su fuerza el positivismo lógico, en un momento de las ciencias naturales en donde se avanza al relativismo y el indeterminismo, momento en que esta escuela desarrolla una ciencia claramente nomotética. Si se observa las revelaciones científicas de principios del siglo XX, ninguno de los grandes físicos teóricos de la época pone en cuestionamiento las leyes científicas, lo que hacen es advertir que lo que las leyes científicas manifiestan es que la ocurrencia de sucesos queda sujeta a grados de posibilidad. Lo que se opera es un cambio de un modelo nomotético determinista a un modelo nomotético indeterminista. En ningún momento se produce una ruptura frente a Galileo, quien ya propone en las ciencias naturales el establecimiento de leyes naturales sobre lenguaje matemático, sólo se produce una ruptura frente al determinismo aristotélico.

El determinismo clásico, el determinismo aristotélico, por el cual la realidad es una secuencia determinada y ordenada de relaciones causa-efecto, completamente predecibles en la teoría de probabilidad de Laplace, que en su origen se deben a un primer motor, o causa primera, lo que en la metafísica escolástica se vincula a la idea de Dios, es un determinismo que si bien todavía hoy tiene importantes defensores, la idea de que el universo y la realidad es una secuencia predecible de causas y efectos que tiene por origen el Big Bang, sin embargo a medida que las ciencias se desarrollan el determinismo clásico está siendo abandonado por nuevos modelos de determinismo más sofisticados, lo que sería en realidad un neo-determinismo.

El determinismo clásico aristotélico parte de la idea de que todo está determinado por relaciones de causalidad, ahora bien, en la medida que esta idea ha sido fuertemente criticada desde las ciencias en el siglo XX, el determinismo clásico ha sido abandonado por nuevos modelos neo-deterministas, en donde si bien admiten márgenes de indeterminación, incertidumbre, o relativismo, entienden la determinación de la realidad en base a determinados reduccionismos.

Mucho de los reduccionismos de las ciencias sintéticas del siglo XX, y que encuentran diversos correlatos a inicios del siglo XXI, son en realidad neo-determinismos adaptados a las nuevas circunstancias que rodean a la filosofía y la ciencia.

Un ejemplo de neo-determinismo es el fisicalismo del siglo XX, una corriente que surgirá dentro del positivismo, según la cual todos los procesos naturales o sociales están determinados por los procesos físicos subyacentes. El fisicalismo del siglo XX en ningún momento rechaza la incertidumbre o la indeterminación de la física, ahora bien, aceptando que la física es una ciencia estocástica, luego indeterminada, establece que todas las demás ciencias y disciplinas científicas de uno u otro modo quedan determinadas por las relaciones estocásticas de la física. El fisicalismo supone un neo-determinismo por cuanto ya no defiende el determinismo clásico de Aristóteles, en la medida que acepta la indeterminación, la incertidumbre y el relativismo, es decir, acepta que la física es una ciencia estocástica no sujeta a determinaciones causales universales, pero sin embargo determina que todo cuanto pueda suceder en la naturaleza y la sociedad, y pueda ser estudiado por las demás ciencias naturales o sociales, son procesos determinados y supeditados a las relaciones estocásticas de la física.

De igual modo, muchos de los reduccionismos del siglo XX, por ejemplo el biologismo, según el cual todo queda determinado por la biología, incluso la teoría del conocimiento que depende de la fisiología, fisiologismo, o el economicismo según el cual todo queda determinado por la economía, en el caso del conocimiento por los intereses económicos, el psicologicismo por el cual todo está determinado por la psicología, y por supuesto la psicología del conocimiento, o el sociologismo según el cual todo queda determinado por las relaciones sociales, siendo el conocimiento una construcción social. Todo reduccionismo a su forma, aceptando en aquello sobre lo que hace la reducción un margen de indeterminación, todo lo demás queda determinado .

Aunque el biologismo pueda entender un margen de indeterminación en las relaciones biológicas, posteriormente todas las demás funciones humanas, sociales, económicas, culturales, quedan determinadas sobre las funciones de indeterminación biológicas. Es un neodeterminismo por cuanto entiende que hay un margen de indeterminación biológica, pero es sobre ese margen de indeterminación biológica sobre lo que se determina todo lo demás. En el economicismo sucede exactamente lo mismo, entendiendo que en las leyes del mercado, o cualquier otra ley económica hay márgenes de indeterminación, es sobre los márgenes de indeterminación de la economía sobre lo que posteriormente determina todas las demás funciones humanas. En el psicologicismo, aunque hay márgenes de indeterminación en la psicología humana, todas las demás funciones se supeditan y quedan determinadas por la psicología. Y en el sociologismo, aunque haya un margen de incertidumbre social, es sobre la incertidumbre social lo que se determinan todas las demás funciones.

Las críticas a este tipo de neo-determinismos en la epistemología y la filosofía del siglo XX han sido diversas, por la complejidad a la que tienden las ciencias hoy en día que escapan a la reducción o simplificación de todo a unos pocos factores. De un lado las ciencias físicas avanzan hacia una explicación del todo, tal como propone la Teoría de Cuerdas, lo cual supone un progreso hacia la unificación de la ciencia, aunque dentro de este tipo de teorías siempre hay riesgo de fisicalismo, si es que no riesgo de pitagorismo, y de otro lado, las nuevas teorías de la complejidad, que avanzan hacia una visión compleja en principio no reductible, aunque en algunas interpretaciones de este paradigma hay riesgo de biologismo, aunque sería más correcto decir vitalismo, por lo importante que ha sido la biología, y las reminiscencias de la metafísica vitalista, en el origen de las ciencias de la complejidad.

En la dialéctica entre determinación e indeterminación, a menudo se observa como paradigmas en principio no deterministas evolucionan a postulados deterministas, y viceversa, una ciencia históricamente determinista como ha sido la física a partir de Heisenberg tendrá importantes desarrollos indeterministas en el campo de la mecánica cuántica.

 A lo largo de la historia de la filosofía y la ciencia se observa una sucesión de paradigmas, a veces en una evolución en ciclos pendulares, en donde la filosofía y la ciencia, en su evolución cíclica, evolucionan yendo de un extremo a otro. Siendo en sus inicios el determinismo parte integrante de la ciencia, hasta finales del siglo XIX y principios del siglo XX, momento en que la crítica a este tipo de modelos, junto con la crítica que en el siglo XIX se hace a la lógica lineal y la geometría euclidiana, llevará a nuevos modelos de lógica, y nuevas formas de entender la realidad, en donde al tiempo que aparecen nuevos neo-determinismos, la incidencia del indeterminismo ha sido de enorme influencia.

Este cambio de paradigma científico tendrá mucha relación con los cambios que se ha producido desde la Ilustración, en donde hay una clara reivindicación del concepto de libertad, abandonando cualquier determinación absoluta sobre el comportamiento humano, a diferencia de épocas anteriores, por ejemplo la Reforma calvinista, en donde el comportamiento humano era una función determinada por parámetros religiosos.

Indeterminación y libertad tendrán una amplia repercusión en ciencias sociales, y especialmente en política, donde a medida que desde el siglo XIX triunfen las revoluciones democráticas, aparecen nuevos discursos liberales, de social-democracia, socialistas, y libertarios, haciendo un discurso sobre la importancia de la libertad del ser humano, y como la voluntad debe quedar libre de cualquier tipo de atadura, especialmente supersticiosa o metafísica, surgiendo así nuevos paradigmas en la ciencia, como el materialismo moderno, el positivismo o el nihilismo.

La indeterminación en la medida que supone ausencia de determinación, implica un margen de escepticismo empírico o duda racional en el conocimiento de lo que sucede, que de facto en la teoría de Probabilidad Imposible lleva a un margen de nihilismo lógico, dentro de los márgenes de error de la razón crítica.

 
 


Rubén García Pedraza, Madrid a 4 de diciembre del 


https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 

 
 
http://probabilidadimposible.wordpress.com/