Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


domingo, 30 de agosto de 2015

Sesgo Total


Se dice que algo está sesgado cuando muestra un comportamiento diferente al azar. Si lanzamos una moneda al aire, y el número de caras o de cruces es diferente al cociente de dos entre número total de lanzamientos, la moneda está sesgada a favor de aquella opción, cara o cruz, que demuestre mayor ocurrencia. Si en una estadística de natalidad el número de nacimientos de niños y niñas es diferente al cociente de dos entre número total de nacimientos, hay una tendencia sesgada a  más niños o niñas, según en uno u otro género halla mayor tasa de nacimientos. Si en una serie de pruebas de diferentes tratamientos médicos para una misma enfermedad, uno u otro tratamiento logra que un mayor número de pacientes se reponga fuera de lo que sería esperable por azar, el tratamiento que logre mejores resultados demuestra mayor sesgo positivo que aquellos cuyo número de pacientes repuestos sea inferior. Si en un examen a una serie de alumnos la distribución de puntuaciones difiere a lo que sería una distribución aleatoria hay una distribución sesgada, en donde el mayor sesgo positivo será de los alumnos que obtengan mejores puntuaciones.

Se dirá sesgo a todo comportamiento que difiera de una distribución aleatoria por azar, y la tendencia natural del azar es a la distribución en torno la media aritmética en ausencia de condicionantes que determinen otro comportamiento diferente, todo comportamiento que difiera de lo que sería un comportamiento aleatorio, entorno a la media aritmética, será un comportamiento sesgado.

En Probabilidad Imposible se llamará sesgo a la dispersión estadística que genere cualquier tipo de comportamiento diferente al esperable por azar, y la forma en que se mide el grado de sesgo de cada sujeto u opción en Probabilidad Imposible es a través del Nivel de Sesgo, igual a probabilidad empírica menos probabilidad teórica. 

Nivel de Sesgo= p(xi) – 1/N
 

p(xi)= xi/ ∑xi = probabilidad empírica

1/N= ∑xi/N = probabilidad teórica

N= número de sujetos u opciones de la muestra

xi= puntuación directa o frecuencia 

Lo que para la teoría de Probabilidad Imposible es Nivel de Sesgo en la estadística tradicional se llama puntuación diferencial, sólo que mientras la puntuación diferencial lo que contrasta es la puntuación directa y la media aritmética de las puntuaciones directas, y lo que Probabilidad Imposible contrasta en términos diferenciales en el Nivel de Sesgo son dos probabilidades estadísticas, la probabilidad empírica menos la teórica. En la medida que el estudio de la realidad a través de las probabilidades estadísticas que desarrolla Probabilidad Imposible genera un nuevo método de estudio, al método de estudio que tiene su base en los conceptos de probabilidad empírica y teórica, se denominará Segundo Método, para diferenciarlo del Primer Método que sería la estadística tradicional. 

La probabilidad empírica mide la tendencia individual real de cada sujeto u opción, mientras la probabilidad teórica indica señala el verdadero comportamiento en igualdad de condiciones, en ausencia de cualquier otro factor salvo el azar. La diferencia entre el comportamiento real y el aleatorio, mide el grado de dispersión real del sujeto u opción frente al teórico en igualdad de oportunidades. De este modo lo que realmente mide el Nivel de Sesgo es la dispersión entre la tendencia individual empírica y lo que en función de la magnitud de la muestra, N, debería ser la tendencia teórica en ausencia de sesgo, la inversión de N, 1/N.

Una vez calculado la dispersión individual se puede obtener una estimación de la dispersión muestral , lo que precisa de la suma de todos los Niveles de Sesgo, una operación no exenta de cierta complicación, por cuanto si el resultado de la diferencia de probabilidad empírica menos probabilidad teórica un resultado cuyo signo, positivo o negativo, depende de que la probabilidad empírica sea mayor o menor que la teórica, y se da el caso que la inversión de N es un algoritmo multifuncional, por cuanto desempeña funciones variadas, entre ellas la función de probabilidad teórica, además de media aritmética de las probabilidades empíricas, por cuanto la inversión de N es un estadístico de tendencia central, la suma de todos los Niveles de Sesgo que tengan sesgo negativo tendrá un resultado equivalente a la suma de todos los Niveles de Sesgo de sesgo positivo. A este fenómeno de la identidad entre la suma de todos los Niveles de Sesgo positivo de una muestra y la suma de todos los Niveles de Sesgo negativo de esa misma muestra, en Probabilidad Imposible se denomina fenómeno producto de la bondad natural, por cuanto naturalmente los sesgos tienden a compensarse, es decir, el volumen de sesgo positivo de una muestra será siempre igual al volumen de sesgo negativo, y viceversa, el volumen de sesgo negativo siempre será igual al volumen de sesgo positivo. Debido a este fenómeno de bondad natural, y es que los sesgos positivos y negativos tienden a compensarse, si se suma todos los Niveles de Sesgo, positivos y negativos, de todos los sujetos u opciones de una misma muestra, el resultado del sumatorio de todos los Niveles de Sesgo sería igual a cero.

∑ (p(xi) – 1/N) = 0 

Fenómeno análogo al que sucede en la estadística tradicional, el Primer Método, con la puntuación diferencial, donde el sumatorio de todas las puntuaciones diferenciales sería igual a cero.

∑ (xi – µ) = 0 

A fin de salvar este obstáculo la estadística tradicional, el Primer Método, establece dos mecanismos, de un lado el sumatorio del valor absoluto de todas las puntuaciones diferenciales, o la elevación al cuadrado de las puntuaciones diferenciales. Una vez salvado este escollo, para que el sumatorio no sea igual a cero, a continuación el Primer Método se limita simplemente al cociente del sumatorio, ya sea de los valores absolutos o cuadrados de las puntuaciones diferenciales, entre la frecuencia total. Al cociente de dividir entre frecuencia total el sumatorio de los productos de valores absolutos de las puntuaciones diferenciales por la frecuencia de su puntuación directa se llamará Desviación Media, y si en lugar de considerar el valor absoluto de la puntuación diferencial se calcula sobre su cuadrado se llamará Varianza. 

Desviación Media = ∑ [ / (xi – µ) /  f ] : F

Varianza = ∑ [ (xi – µ)²  f ] : F
 

F= frecuencia total

f= frecuencia de cada puntuación directa 

En el Segundo Método de Probabilidad Imposible el modo de salvar el problema que supone que el sumatorio de los Niveles de Sesgo teniendo en cuenta el signo sea igual a cero es el mismo que en el Primer Método, ya bien el sumatorio de los valores absolutos de los Niveles de Sesgo sin tener en cuenta el signo, lo que sería en sentido estricto el Sesgo Total, o bien el sumatorio de los Niveles de Sesgo al cuadrado, que en tal caso nos da una estimación cuadrática del Sesgo Total. 

Sesgo Total = / ( p(xi) – 1/N ) /

Sesgo Total cuadrático =  ( p(xi) – 1/N )² 

El Sesgo Total de este modo sería la suma del valor absoluto de todos los Niveles de Sesgo, y nos daría una percepción de la cantidad de sesgo en una muestra. Si ya de por si tenemos dos monedas diferentes, y sobre un mismo número de lanzamientos en cada moneda, calculamos el Sesgo Total acumulado al lanzar cada moneda, y una moneda demuestra mayor Sesgo Total que la otra, se podría decir sin lugar a dudas que una moneda demuestra mayor sesgo que la otra. Si después de un examen a dos grupos de alumnos diferentes, un grupo de alumnos demuestra un mayor nivel de Sesgo Total que el otro grupo, entonces la dispersión dentro de ese grupo es ya de por sí mayor que el del otro grupo que presenta menor Sesgo Total, lo cual significaría que se darían condiciones de igualdad de oportunidades entre ambos grupos de alumnos, de modo que cabe sospechar que en el grupo de alumnos que tiene mayor Sesgo Total hay más diferencias significativas entre los alumnos de mayor y menor rendimiento.

Una vez calculado el Sesgo Total el Segundo Método de Probabilidad Imposible nos permite dos cálculos diferentes a partir de este cómputo, o bien Sesgo Total entre dos igual a Máximo Sesgo Empírico Posible, o bien Sesgo Total entre N igual a Desviación Media.

Empecemos el análisis del Máximo Sesgo Empírico Posible, igual a Sesgo Total entre dos. En la medida que el Sesgo Total es la suma del valor absoluto de todos los Niveles de Sesgo, positivos o negativos, si se sumara todos los Niveles de Sesgo positivo y el valor absoluto de todos los Niveles de Sesgo negativos, el resultado sería igual al Sesgo Total. El hecho que el Sesgo Total sea igual a la suma de todos los sesgos positivos o negativos, y que por la propia bondad natural de la inversión de N, el valor obtenido de la suma en términos absolutos de los sesgos negativos sea idéntico al obtenido de la suma de todos los sesgos positivos, implica necesariamente que el 50% del Sesgo Total es equiparable a la suma de todos los Niveles de Sesgo positivo, o el 50% del Sesgo Total es equiparable a la suma de todos los Niveles de Sesgo negativo. Dado que el 50% del Sesgo Total es la suma de los Niveles de Seso positivos, y el otro 50% es la suma del valor absoluto de los Niveles de Sesgo negativo, y se da el caso que el cálculo del 50% del Sesgo Total es equiparable a dividir entre dos el Sesgo Total, entonces, si se divide el Sesgo Total entre dos se obtiene un valor idéntico al que se obtendría de o bien sumar todos los Niveles de Sesgo positivo, o todos los Niveles de Sesgo negativo.

Ahora bien, el hecho que Sesgo Total entre dos sea igual a la suma de todos los Niveles de Sesgo positivos, o el términos absolutos de todos los Niveles de Seso negativo, no implica en modo alguno que la mitad de la muestra, la mitad de N, sea de sesgo positivo o negativo, porque se puede dar el caso que bajo condiciones de máxima tendencia, de toda N un único sujeto u opción tenga puntuación directa o frecuencia distinta de cero, mientras todos los demás sujetos u opciones, N menos uno, tengan puntuación directa o frecuencia igual a cero, lo que implicaría entonces que el Nivel de Sesgo positivo de ese único sujeto u opción distinto de cero sería idéntico a la suma de los valores absolutos de todos los Niveles de Sesgo cuya puntuación directa o frecuencia sea igual a cero. De lo que se concluye que, independientemente de que dentro de N el número de sujetos u opciones que tengan sesgo positivo o negativo oscile entre uno y N menos uno, nunca y absolutamente nunca el Nivel de Sesgo de ningún sujeto u opción puede ser superior al cociente de Sesgo Total entre dos, motivo por el cual al Sesgo Total entre dos en el Segundo Método de Probabilidad Imposible se conocerá por Máximo Sesgo Empírico Posible.

Máximo Sesgo Empírico Posible=

∑ / ( p(xi) – 1/N ) / : 2 

En la medida que en el Primer Método, la estadística tradicional, normalmente el problema que supone la identidad a cero del sumatorio de puntuaciones diferenciales se salva normalmente a través de la elevación al cuadrado de los diferenciales, a fin de adaptar el Segundo Método al Primer Método, el cálculo del Máximo Sesgo Empírico Posible puede ser también cuadrático.

Máximo Sesgo Empírico Posible Cuadrático=

∑ ( p(xi) – 1/N )² : 2 

Y a fin que en los contrastes frente los Niveles de Sesgo normales y corrientes sea de forma típica, la posibilidad de la raíz cuadrada del Máximo Sesgo Empírico Posible Cuadrático daría lugar al Máximo Sesgo Empírico Posible Típico.

Máximo Sesgo Empírico Posible Típico=

 √[ ( p(xi) – 1/N )² ] : 2 

El Nivel de Sesgo sería un estimador de la dispersión empírica individual, el Sesgo Total ya sería un estimador de la dispersión estadística muestral, que dividido entre dos sería igual al Máximo Sesgo Empírico Posible, ofreciendo además las variantes de Máximo Sesgo Empírico Posible Cuadrático o Típico, para adaptarlo a la estadística tradicional. En cualquier caso tal como se reitera en Introducción a laProbabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en Probabilidad Imposible siempre se prefiere la utilización de los diferenciales entre probabilidades en términos absolutos por cuanto no alteran el valor de las diferencias, siendo muy importante conservar los datos lo más fielmente posible a la realidad a  fin de reducir los márgenes de error acumulados en las operaciones.

Además del Máximo Sesgo Empírico Posible, otra estimación de dispersión muestral que nos permite calcular el Sesgo Total es la propia Desviación Media de las probabilidades estadísticas de la muestra, en donde Sesgo Total entre N, o Sesgo Total por inversión de N, 1/N, sería igual la Desviación Media de las probabilidades empíricas de los sujetos u opciones.

Desviación Media =

 /( p(xi) – 1/N )/ : N =

 /( p(xi) – 1/N )/ · 1/N 

En la medida que la Desviación Media es igual a Sesgo Total por inversión de N, e inversión de N es igual a la distribución teórica por azar, entonces la Desviación Media es igual a sesgo por azar, es decir, la Desviación Media lo que mide es cual debería ser la distribución del Sesgo Total de la muestra por azar, es decir, teóricamente dado ese nivel de Sesgo Total cual debería ser la porción de sesgo que debería corresponder a cada sujeto u opción de distribuirse el Sesgo Total en igualdad de condiciones entre todos los sujetos u opciones. Precisamente es a partir de la comprensión de la naturaleza de la Desviación Media, sesgo por azar, donde en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, dentro de la estadística inferencial intramedicional, en el apartado 11 se explican una serie de modelos de pruebas de contraste de hipótesis para la crítica racional de los datos comparando los Niveles de Sesgo individuales y la Desviación Media.

A fin de adaptar el Segundo Método de Probabilidad Imposible a la estadística tradicional, el Primer Método, en lugar de Desviación Media de las probabilidades empíricas se puede calcular la Varianza de las probabilidades empíricas, igual a dividir entre N, o producto por inversión de N, el sumatorio de los Niveles de Sesgo al cuadrado.

Varianza= S² =

 ( p(xi) – 1/N )² : N =

 ( p(xi) – 1/N )² · 1/N 

Y la raíz cuadrada de la Varianza igual a la Desviación Típica de las probabilidades empíricas.

Desviación Típica= S =

 √ [ ( p(xi) – 1/N )² ] : N =

   [ ( p(xi) – 1/N )² ] · 1/N 

El modelo de estudio que propone Probabilidad Imposible en el campo de la estadística de la probabilidad o probabilidad estadística supone una reformulación de muchas de las ecuaciones originales de la estadística tradicional, aportando nuevas definiciones, y nuevas operaciones de los que a posteriori surgen nuevos modelos de contraste de hipótesis.

 Rubén García Pedraza, Madrid 30 de agosto del 2015


 
 
https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería


 

domingo, 16 de agosto de 2015

La constante


Una constante es un tipo de factor en un determinado objeto que se define por su naturaleza no variable. Un factor es una cualidad o propiedad susceptible de operación matemática, paradigma de operación pura. De modo que una constante es una cualidad o propiedad que permanece inalterable dadas unas condiciones. Dependiendo de dichas condiciones se puede decir si la constante es analítica o sintética, universal o particular.

Una constante analítica universal es por ejemplo el número pi, π,  independientemente del tipo de circulo, la circunferencia de forma inalterable es igual a “ 2 π r”, y el área del circulo es igual a “π r²”, en este tipo de ecuaciones la magnitud variable es el radio, y pi la constante. Otro ejemplo de constante analítica es el número áureo,  ϕ, si se divide un segmento en dos porciones, la proporción entre ambas es igual a la suma de los dos entre el más largo, lo que sería lo mismo a dividir el más largo entre el más corto. Ejemplo de constante analítica es también  que, independientemente del tipo de triangulo, recto, isósceles, equilátero, escaleno, la suma de todos sus ángulos es 180º.

Además de las constante analíticas universales puede haber constantes analíticas particulares, en el caso particular de Probabilidad Imposible la inversión de N, 1/N, en donde para toda muestra que tenga el mismo valor N entonces la media aritmética es constante, independientemente de cualquier otro factor sintético.

Ya sea que estudiemos la probabilidad empírica de oxigeno, agua, petróleo, diamantes, materia orgánica, y formas de vida, o actividad geológica o atmosférica, o cualquier otro factor físico, orgánico, o biológico, en los planetas que componen nuestro sistema solar. Siempre y cuando el número de planetas sea constante: Mercurio, Venus, Tierra, Marte, Júpiter, Saturno, Urano, Neptuno, Pluton (si bien sobre la definición de planeta de este último es polémica); la media aritmética de las probabilidades empíricas, sea cual sea el tipo de estudio y su objeto de investigación, será constante, la inversión de N, 1/N, siendo N el número de panetas que se  integren en la investigación.

Ya sea que estudiemos la probabilidad de cara o cruz, la probabilidad de hombre o mujer, la probabilidad de carga eléctrica positiva o negativa en una partícula, o la probabilidad de comportamiento como onda o partícula de un fotón, independientemente del objeto de investigación, siempre que N sea igual a dos, la media aritmética en Probabilidad Imposible es constante, "0,5".

Independientemente de cualquier  factor empírico, en Probabilidad Imposible  la media aritmética de cualquier fenómeno será una constante analítica particular a N, en función de N la media aritmética será siempre constante, igual a la inversión de N.

En la estadística tradicional, el primer método, un tipo de constante habitual es el que se estudia cuando se elaboran rectas o curvas para la predicción de acontecimientos, en donde normalmente la recta se define en su forma algebraica de la siguiente forma:

y = a + bx

En donde el primer factor es “y”, segundo factor ”a”, tercer factor “bx”, de modo que las variables serían “x” e “y”, en concreto “x” variable independiente, “y” variable dependiente, y “a” sería constante, de modo que para cuando “x” sea cero el valor de “y” sería igual a “a”.

Una constante analítica es aquella que independientemente de cualquier condición empírica el resultado es invariante, y las constantes analíticas se caracterizarían por ser siempre universales, identificándose dentro de las constantes analíticas aquellas de las que en algebra forman las constantes de una ecuación, en tanto que constante en el cálculo de los valores de un universo determinado. A diferencia de las constantes sintéticas, que pueden ser universales o particulares.

Una constante sintética es aquella que dada la medición de unos hechos  empíricos, el resultado empírico en las mediciones es el mismo. Toda cualidad de todo objeto de estudio, en estadística de la probabilidad o probabilidad estadística, en cuanto propiedad factorial es objeto de medición, la comprobación de si es constante o variable es en sucesivas mediciones, si en todas las mediciones el resultado es el mismo entonces se trata de una constante, en caso contrario es variable.

En el Segundo Método de  Probabilidad Imposible se distinguen dos tipos de mediciones en función de la naturaleza de la cualidad, según se mida la intensidad de magnitud de la cualidad en una escala de medición, o se mida la frecuencia de la ocurrencia. En el primer caso, intensidad de magnitud, el resultado de la medición es una puntuación directa, en caso que en sucesivas mediciones se observe que la puntuación directa de un determinado fenómeno es invariable, se concluye que es un factor constante. De igual modo, si al estudiarse la frecuencia de un determinado fenómeno, de medirse la ocurrencia del suceso, se verifica que en todas las mediciones la frecuencia es idéntica, se trataría de un suceso de ocurrencia constante.

En ambos casos, medición de puntuaciones directas o frecuencias, si en sucesivas mediciones se evidencia que nunca cambia, serían constantes sintéticas.

Dentro de las constantes sintéticas habría que diferenciar entre constantes universales o particulares. Si medimos en repetidas ocasiones la fuerza de la gravedad en un cuerpo celeste, y el resultado es el mismo, se concluye que la fuerza de la gravedad en ese cuerpo es constante. En el caso de la Tierra si en diferentes mediciones se constata la misma fuerza de aceleración, 9,81 m/s² se verifica que de momento la fuerza de gravedad en nuestro planeta se mantiene estable. En el momento que se afirma que la fuerza de la gravedad es igual al producto de las masas entre la distancia al cuadrado, la fuerza gravitacional de nuestro planeta es la masa de la Tierra entre su radio, siempre que masa y radio no varíen la fuerza de gravedad en nuestro planeta será constante. En este sentido se puede decir que es una constante particular a nuestro planeta. Dadas unas condiciones que se mantienen invariables en un determinado espacio tiempo, en el momento que las condiciones variasen, la fuerza de la gravedad sería variable proporcionalmente varíen las condiciones de las que depende. La fuerza de gravedad en Júpiter o Neptuno lógicamente será constante encada planeta para sí, demostrando una gravedad superior a la de la Tierra.

La fuerza de la gravedad es una constante particular dado que depende de la constancia de unas condiciones a priori, masa y radio. En el momento que cambien estas condiciones se transformaría en variable. Pero además aun cuando se mantengan constantes en un cuerpo,  seguiría siendo una constante particular de dicho cuerpo, dado que en modo alguno es universal, en función de las particularidades de masa y radio la fuerza de la gravedad entre cuerpos varía, luego en términos universales sería variable, aunque de modo particular sea constante, mientras las condiciones particulares no varíen.

En ciencias sintéticas hay constantes particulares que obedecen a la permanencia en el espacio y tiempo de unas condiciones determinadas, mientras existen otras constantes que si pueden clasificarse de verdades constantes universales, entre ellas, algunas de las más conocidas, la constante de Planck, la constante cosmológica de Einstein, o la constante de Hubble.

En los estudios de propiedades factoriales cuya medición se haga sobre la frecuencia de la ocurrencia, si se verifica que en diversas mediciones la frecuencia de la ocurrencia de un suceso se mantiene estable y sin variaciones, se diría que es un fenómeno constante, en caso contrario se diría que es variable.

Dado que en los estudios de frecuencia de la ocurrencia la medición se hace directamente sobre los hechos que acontecen en la realidad, en caso de verificarse una constancia sería en todo caso siempre sintética, aunque puede ser universal, si se cumple en todo el universo, o particular si se cumple en una determinada opción

En la teoría de Probabilidad Imposible, para el estudio de la estadística de la probabilidad o probabilidad estadística, ya sean estudios sobre puntuaciones directas en universos de sujetos u opciones infinitos, o estudios sobre la frecuencia en universos de opciones limitadas, hay una serie de situaciones en donde se pueden dar mediciones constantes.

Si en una muestra N de sujetos u opciones se da el caso que en todas las mediciones todos los sujetos u opciones repiten su misma puntuación directa o frecuencia en el tiempo, luego la probabilidad empírica de cada sujeto u opción no varía, mientras no haya ninguna alteración en los resultados el comportamiento de ese universo se mantendría constante.

Si medimos la distancia de cada planeta de nuestro sistema solar en relación al sol, luego la puntuación directa de cada planeta sería igual a los años luz de distancia con respecto al sol, y calcular la probabilidad empírica de distancia al sol de cada planeta, sus años luz de distancia con respecto al sol entre el sumatorio de todas las distancias, y en sucesivas mediciones se observa que la probabilidad empírica de distancia al sol en cada planeta se mantiene invariable, se dirá que en el periodo de tiempo en que se han hecho la mediciones, la probabilidad empírica de distancia al sol de cada planeta se mantiene constante.

Si hacemos un estudio de cuantos satélites tiene cada planeta de nuestro sistema solar, de que modo que la frecuencia de cada planeta será igual al número de satélites que dispone, luego la probabilidad empírica de satélites por planeta es igual a su número de satélites entre el sumatorio total de satélites en nuestro sistema solar, y en sucesivas mediciones observamos que la probabilidad empírica de satélites por planeta se mantiene invariable, se dirá que la probabilidad empírica de satélites por planeta en nuestro sistema solar, durando el periodo de tiempo en que se han hecho las mediciones, permanece constante.

Ahora bien, en un estudio de este tipo, en tanto que la probabilidad empírica en realidad mide la proporción de la parte entre el todo, en el momento que uno de los sujetos u opciones variase, entonces variarían todas las probabilidades empíricas.

Si en un estudio antropométrico sobre la altura de personas que forman una muestra de una determinada etnia, en donde se integran tanto niños y adultos, en un periodo de tiempo se verifica que algunos de los sujetos de estudio varían en altura, por ejemplo los niños, aunque los adultos seleccionados para la muestra mantuvieran constante su puntuación directa de altura variaría de todos modos su probabilidad empírica. En el caso que en un estudio de estas características alguno de los niños en el proceso de crecimiento incrementase su altura, lo que se produce es un fenómeno de incremento de su probabilidad empírica, proporcionalmente descendería la probabilidad empírica de aquellos sujetos que mantienen constante su puntuación directa. O viceversa, aunque los niños mantuviesen constante su puntuación directa, si por el envejecimiento de los sujetos adultos se observase un descenso en su altura, descendería la probabilidad empírica de aquellos sujetos que desciendan en altura, proporcionalmente aumente la probabilidad empírica de aquellos que mantienen constante su puntuación directa.

En un universo de opciones limitadas, dado un conjunto N, superior a dos opciones, aunque dentro de N se diera el caso que al menos una opción mantiene intacta su frecuencia en una serie de mediciones, se observarán fluctuaciones en su probabilidad empírica según se incrementa o descienda la frecuencia total. Ahora bien, si la frecuencia total se mantiene constante, aunque las demás opciones sean variables, siempre que la frecuencia total sea constante aquellas opciones cuya puntuación directa sea constante observarán una probabilidad empírica constante.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, el concepto de constante  se puede asociar a dos situaciones diferentes, o bien porque se trate de una distribución constante, o porque se trate de una constante geométrica o algebraica en los modelos de predicción de Probabilidad Imposible.

Dentro delo que sería el primer concepto de constante, distribución constante,  se describen una serie de modelos típicos en donde las distribuciones pueden ser constantes según cumplan una serie de condiciones de posibilidad.

En modelos normales, sea para universos infinitos o limitados, hay tres situaciones típicas fácilmente identificables de comportamiento constante del universo, ya bien porque es un modelo normal de sesgo positivo de máxima dispersión, o  toda N tiende en igualdad de oportunidades a inversión de N, 1/N, o ya bien porque el comportamiento de toda N es igual a puntuación directa o frecuencia cero. Y en modelos omega, Ω, independientemente del tipo de universo infinito o limitado, cuando todos los sujetos u opciones pertenecientes a omega comparten la probabilidad ideal, mientras el resto de sujetos u opciones no ideales tienen probabilidad empírica cero.

Empezando por los modelos normales de universos constantes,  infinitos o limitados, el primero de ellos aquellos universos bajo condiciones de máxima dispersión, ya sea en universos de sujetos u opciones infinitos o de opciones limitadas. Si en cualquier tipo de universo se verifica que dada una muestra N de sujetos u opciones, toda N menos uno, su probabilidad empírica es constantemente igual a cero, de modo que sólo un sujeto u opción manifiesta una probabilidad empírica distinta de cero, es un universo donde de forma constante se dan condiciones de máxima dispersión, por cuanto hay un sujeto u opción que logra la Máxima Probabilidad Empírica Posible, de forma constante, mientras el resto obtiene de forma invariable la Mínima Probabilidad Empírica Posible. De modo que el único sujeto u opción distinto de cero logra el Máximo Sesgo Teórico Posible y el Máximo Sesgo Empírico Posible, dándose condiciones de Máxima Desviación Media Teórica Posible, y Máxima  Desviación Típica Teórica Posible.

El segundo caso de posible universo, infinito o limitado, constante es aquel donde siempre que se seleccione una muestra N de ese universo, la probabilidad empírica de todos los sujetos u opciones de ese mismo universo es igual a probabilidad teórica, inversión de N, lo que demostraría que de modo universal ese universo tiende a una distribución aleatoria en igualdad de oportunidades a la media aritmética.

El tercer caso de universo, infinito o limitado, constante es cuando en toda muestra seleccionada de ese universo se verifica una muestra de ceros, en tanto que la probabilidad empírica de esa cualidad en ese universo es siempre igual a cero, luego sería una muestra de ceros donde además de modo constante la media aritmética sería igual a inversión de N.

Y finalmente los modelos omega, Ω,  para universos infinitos o limitados, aquellos modelos que se definen porque dentro de N hay un subconjunto de sujetos u opciones ideales inferior a N y superior a uno, un subconjunto de sujetos u opciones ideales entre dos y N menos uno. De modo que en caso que en todas las mediciones la probabilidad empírica de los sujetos u opciones ideales fuera igual a inversión de omega, 1/Ω, mientras la probabilidad empírica de los sujetos u opciones no ideales fuera igual a cero, se diría que de forma constante se cumplirían las condiciones omega de tendencia de tendencia a la dispersión ideal, Desviación Media Ideal y Desviación Típica Ideal.

Ya sea en modelos normales o modelos omega, para universos infinitos o limitados, una distribución es constante si cumple una serie de requisitos. En modelos normales una distribución es constante cuando en sucesivas mediciones se observa que, o bien es un modelo de máxima dispersión donde sólo un sujeto u opción es distinto de cero, o bien es un modelo de igualdad de oportunidades donde para toda N la probabilidad empírica es inversión N, o bien es una muestra de ceros en las diferentes mediciones que se realicen. En modelos omega cuando en todas las mediciones la probabilidad empírica de los sujetos u opciones ideales es igual a probabilidad ideal.

Además de este concepto de constante, cuando una distribución es constante, otro concepto de constante que se trabaja en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, es la noción de constante en la predicción, que se estudia en el apartado 17, identificando dos tipos de predicción diferentes, según sea proyección o pronóstico.

En Probabilidad Imposible se entiende por proyección, ya sea en una o más mediciones, cuando identificada la probabilidad empírica del sujeto u opción, que actúa de constante, se proyecta cual sería la probabilidad proyectada en una futura medición, bajo un determinado ideal, comprendiendo un margen de error. De modo que sobre la probabilidad actual se estudia cual debería ser la probabilidad empírica que debería tener en una medición futura dado el objeto de estudio.

En Probabilidad Imposible se entiende por pronóstico la previsión de cual sería la probabilidad empírica que debería tener un sujeto u opción a futuro estudiada su tendencia actual entre dos mediciones previas, en función de la cual, analizándose su tendencia a priori, se pronostica cual debería ser su tendencia futura, actuando la última probabilidad empírica como constante del pronóstico.

Una constante es un por factor un factor que permanece invariable, ya sea por motivos analíticos o sintéticos, en caso de sintéticos porque sea una constante particular o universal, y en el caso particular de la predicción entendiendo por constante aquel factor que permanece invariable dentro de una ecuación, ya sea de la recta  o una curva.

En el caso de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, por constante puede entenderse una determinada distribución, cuando la distribución de una serie de sujetos u opciones se mantiene constante, o se puede entender por constante la constante algebraica en la predicción de fenómeno, identificándose dos tipos de predicción, según sea proyección o pronóstico.

Rubén García Pedraza, Madrid a 16 de agosto del 2015




https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 


 
 
http://probabilidadimposible.wordpress.com/                                     
 


 

sábado, 25 de julio de 2015

El sujeto en la investigación científica

El sujeto es la parte de la sentencia a la que hace referencia al predicado, y su núcleo es un sustantivo, nombre común o propio, o pronombre, mientras el núcleo del predicado es el verbo. En la investigación científica se identifican tres tipos de sujetos: 1) el investigador o investigadores como sujeto activo, el equipo de investigación elaboró, diseñó, realizó, experimentó, observó, midió, dedujo, reflexionó, concluyó, refutó, demostró, descubrió…. , 2) las operaciones o resultados científicos como sujeto pasivo, la muestra fue seleccionada, la medición se hizo utilizando tal instrumento de medida, las conclusiones  fueron elaboradas a partir de los datos, el principio de incertidumbre fue establecido por Heisenberg,  la estructura moléculas del ADN fue descubierta por Watson y Crick…, 3)  y el objeto de estudio como sujeto activo, ya sea en sentencias cuantitativas:  la velocidad de la luz es de aproximadamente 300.000 m/s, el paciente tenía una temperatura corporal X y un ritmo cardiaco Z  , la opción cruz al lanzar una moneda al aire salió tantas veces de entre el total de lanzamientos, la ley de la gravedad es el producto de la masa de los cuerpos entre la distancia al cuadrado; como sentencias históricas: la segunda esposa de Enrique XVIII fue Ana Bolena, el incendió de Moscú propició las salida de las tropas napoleónicas de la ciudad, el desembarco de Normandía en la Segunda Guerra Mundial fue el principio de la liberación de Francia; y cualitativas: la clorofila da el color verde a las plantas, el ser humano es un animal político, los derechos humanos reconocen los derechos universales e inalienables de toda persona.

 
 
En el primer tipo de sujeto, cuando  el sujeto es el investigador o investigadores, el formato de la oración es una oración activa en donde el sujeto es un investigador o equipo de investigación, quienes ejecutan todas las operaciones en cada fase de la investigación.

En el primer tipo, que el investigador o investigadores sean sujetos activos, serían sujetos de las operaciones científicas y sus resultados. Las operaciones se clasificarían en: mentales o conductuales. Una operación mental puede ser el acto de:  análisis, reflexión, comprensión, explicación, deducción, inducción, duda…  las operaciones mentales son puramente racionales, motivo por el cual son operaciones de la razón pura. Una operación conductual es aquella acción derivada de la praxis científica: observación, clasificación, catalogación, medición… son operaciones prácticas.

En la epistemología de Probabilidad Imposible se distingue entre ciencias analíticas y ciencias sintéticas. Las analíticas tienen por objeto de estudio el lenguaje, sea lógico-matemático, las lingüísticas o análisis del lenguaje artístico. Dentro de las ciencias analíticas el paradigma de proposiciones analíticas son las lógico-matemáticas, luego el paradigma de operaciones puras son las operaciones lógico-matemáticas, desde las tablas de la verdad en la lógica, a la teoría de conjuntos y algoritmos en las matemáticas. Dentro de las operaciones puras la principal  y más importante de ellas es el método de análisis lógico de deducción, el método deductivo, basado en el silogismo, en Probabilidad Imposible aplicado a la tendencia, el silogismo de la tendencia: el análisis de la lógica de la tendencia en estadística y probabilidad.

El método deductivo  en ciencias analíticas permite sobre el análisis de las premisas dadas la deducción de conclusiones. Las operaciones de análisis y deducción serían operaciones puras, y tanto las premisas analíticas como el resultado de las operaciones racionales serían proposiciones analíticas o puras. Las operaciones: “ A entonces B, y B entonces C, luego A entonces C”, “ dos más dos son cuatro”, “ la raíz cuadrada de cuatro es igual a dos”, “A y B es igual a A más B menos A o B”;  serían modelos de operaciones puras. Las proposiciones: “ dos es el único número primo par”, “un segmento es una línea recta que une dos puntos”,  “la oración se compone de sujeto y predicado”, “entre sujeto y predicado hay concordancia de número y persona”; serían proposiciones puras. 

Una de las principales cualidades de las proposiciones lógico-matemáticas es su carácter absoluto, aunque siempre dentro del lenguaje en que se elaboren las proposiciones analíticas. Que dos más dos es igual a cuatro, y la raíz de cuatro es igual a dos, son proposiciones absolutas dentro del sistema numérico decimal, bajo cualquier otro sistema numérico, en base seis o doce o cualquier otro que no sea decimal, serían refutables.

Las ciencias sintéticas en Probabilidad Imposible se construyen sobre proposiciones sintéticas, ya porque sean premisas sintéticas, sensoriales, ideológicas, o filosóficas, o  hipótesis empíricas. Cabiendo la posibilidad que una proposición sintética sea racional solo provisionalmente si es aceptada por la razón crítica.

Es en las ciencias sintéticas donde se produce la síntesis entre lo analítico y lo empírico. De las premisas empíricas producto de operaciones prácticas, sintetizadas a  otras premisas empíricas por su naturaleza ideológica o filosófica, se deducen hipótesis empíricas sólo racionales si superan la pruebas de contraste de hipótesis frente los hechos o los datos. Si en la crítica racional el valor empírico es igual o inferior al margen de error, o igual o superior al margen de fiabilidad, la hipótesis empírica se transforma en proposición racional, luego universal provisionalmente.

Dentro del primer tipo de sujeto descrito, investigador o investigadores como sujeto activos en la oración científica, no sólo el sujeto es el sujeto de las operaciones, también de sus resultados.

En ciencias analíticas “Pitágoras descubrió la relación matemática entre la hipotenusa y los catetos del triángulo”, “Euclides estableció que la línea es una recta entre dos puntos”. En ciencias sintéticas, ya sean resultados de tipo descriptivo:  “El matrimonio Curie señaló las siguientes propiedades radioactivas del uranio: ….”,  “el equipo de investigación demográfica afirmó que en el país A el total de población era X habiendo una tasa Z de mortalidad, una ratio  Y de natalidad, y una proporción Q y V de hombres y mujeres”; o de tipo inferencial: “ el investigador o equipo de investigación aceptó la hipótesis por cuanto su valor empírico era igual o inferior al margen de error o igual o superior al margen de fiabilidad”.

El segundo tipo de sujeto es que las operaciones o resultados, ya sean de ciencias analíticas o sintéticas, sean los sujetos pasivos de la oración científica, “A fue deducida de B por el investigador o investigadores”, “ Que A es así fue la reflexión realizada por el investigador o investigadores”, “la órbita elíptica de los planetas en torno al sol fue descubierta por Kepler”, “la teoría evolución de las especies fue elaborada por Darwin”, “las bases de la ciencia moderna fueron fundadas entre otros por Roger Bacon, Copérnico, Francis Bacon, y Galileo

Cuando el investigador o investigadores son sujetos de una oración científica activa, el peso de la oración recae en quienes ejecutan las operaciones puras o prácticas, u obtienen los resultados científicos, puros o sintéticos, descriptivos o inferenciales. En el segundo tipo de sujeto, cuando las operaciones o resultados, puros o sintéticos, descriptivos o inferenciales, son sujetos de una oración científica pasiva, el peso de la oración recae en las operaciones o resultados, siendo el agente o los agentes, investigador o equipo de investigación, el accidente histórico. Lo realmente importante es el “qué” lo anecdótico es “quién”.

Y finalmente el último tipo de sujeto en la investigación científica, y propio del concepto de sujeto u opción en la definición de probabilidad empírica en Probabilidad Imposible, cuando el objeto de estudio se transforma en sujeto activo. Por sujeto se entiende a aquello sobre lo que se realiza la medición. Ya sea que se diga que un alumno obtenido una puntuación X en un examen, o que una galaxia tiene un número X de estrellas , o se diga que si lanzamos una moneda al aire el número de cruces es X, en todos estos casos: el alumno, la galaxia, o la cruz de la moneda; actuarían de sujeto de la medición.

En la oración “el alumno ha obtenido la puntuación X”, el sujeto es “el alumno”, el predicado “ha obtenido la puntuación X”, el verbo “ha obtenido”, el complemento directo “la puntuación X”, luego de modo analítico en la tabla resultante de la medición de todos los alumnos, el valor X irá en función de cada alumno, dependiendo de múltiples factores, individuales o sociales, desde las propias capacidades a priori del alumno  a la influencia del medio social y familiar.

En la oración “la galaxia tiene un número X de estrellas”, el sujeto es “la galaxia”, el predicado “tiene un número X de estrellas”, el verbo “tiene”, complemento directo “un número X de estrellas”, si hacemos la medición del número de estrellas por galaxia el resultado será una tabla donde el número de estrellas será una variable dependiente de cada galaxia, dependiendo de multitud de factores, internos y externos.

En la oración “ la cara o cruz de una moneda ha salido un número X de veces de tantos lanzamientos”, de modo que el sujeto es “la cara o cruz de una moneda”, el predicado “ha salido un número X de veces de tantos lanzamientos”, el verbo “ha salido”, el complemento directo “un número X de veces de tantos lanzamientos”, el número X dependerá de varios factores, tanto de si hay desgaste de la moneda en alguna parte den el borde de la circunferencia, si en el lanzamiento de la moneda se ha hecho de algún modo especial que favorezca que salga una determinada cara, al propio número de lanzamientos, a mayor número de lanzamientos X tenderá a ser mayor que si el número de lanzamientos es menor.

En Probabilidad Imposible cuando se hace mención al concepto de sujeto se hace referencia al sujeto de la medición, que a su vez puede ser de dos tipos, ya sea medición en forma de puntuación directa o frecuencia. Puntuación directa cuando la medición se hace sobre una escala de medida del grado de intensidad de la cualidad objeto de estudio en cada sujeto de la muestra, o medición de la frecuencia cuando por cada sujeto se contabiliza su ocurrencia de suceso.

Normalmente en los estudios donde la medición se hace sobre la frecuencia, su distribución se da entre una serie limitada de sujetos, donde cada sujeto actúa de opción en la distribución de la frecuencia. Y en Probabilidad Imposible, a un universo formado por una serie limitada de posibles opciones, se denomina universo de opciones limitadas.

Si el sujeto no pertenece a una serie limitada, y además el objeto de la medición es la distribución de puntuaciones directas de una cualidad entre los sujetos sobre una escala de medida, entonces el estudio pertenece a un universo de sujetos u opciones infinitos.

Mientras si sale cara o cruz cuando lanzamos una moneda al aire, ser hombre o mujer,  los posibles resultados si lanzamos uno o dos dados al aire,  o un estudio de frecuencia entre una serie de categorías discretas, son universos de opciones limitadas en donde se estudia la distribución de la frecuencia,  los universos de sujetos u opciones infinitos se caracterizarían porque estudian la distribución de las puntuaciones directas sobre una escala de medida,  que mide la magnitud de intensidad de la cualidad en una serie de sujetos, y no hay modo racional exento de dudas de descartar la posibilidad del infinito.

La razón última de por qué en cualquier universo de sujetos es indescartable la posibilidad del infinito se debe a que no hay certeza absoluta de que nuestro universo sea finito. A diferencia de los universos de opciones limitadas, donde los límites de la distribución son las propias opciones existentes.

 

Rubén García Pedraza, Madrid a 25 de julio del 2015.
 
 





https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 


 
 
http://probabilidadimposible.wordpress.com/