Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


miércoles, 3 de mayo de 2023

PROBABILIDAD EMPIRICA

La probabilidad empírica es la probabilidad estadística real de un sujeto o una opción, y mide las posibilidades reales e individuales, sobre la medición de la puntuación directa del sujeto, o  de una opción de la cual se ha medido la frecuencia de ocurrencia. En cualquier caso la probabilidad empírica será igual a la puntuación directa o frecuencia, de sujeto u opción, entre el sumatorio de todas las puntuaciones directas o frecuencias, de todos los sujetos u opciones.

La probabilidad empírica de sujeto u opción se representa "p(xi)", que viene a representar la probabilidad de "xi", siendo "xi" la representación simbólica de la puntuación directa o frecuencia de sujeto u opción, luego la probabilidad empírica será igual a la puntuación directa o frecuencia de sujeto u opción entre el sumatorio de las puntuaciones directas o frecuencias "Σxi".

probabilidad empírica = p(xi) = xi : Σxi

xi= puntuación directa o frecuencia
Σxi= sumatorio de puntuaciones directas o frecuencias
En el caso particular de la probabilidad empírica en una muestra de sujetos, de los cuales se ha estimado sus puntuaciones directas, la probabilidad empírica es la probabilidad estadística asociada a cada sujeto individual, y mide las verdaderas posibilidades reales individuales, en comparación al resto de sujetos de la muestra.
Supongamos una investigación en educación, donde los sujetos de estudio, la muestra,  son un grupo de alumnos,  después de una prueba de evaluación, un examen, cada alumno tiene una puntuación directa igual a la calificación obtenida, la probabilidad empírica de cada alumno será igual a su calificación entre la suma de todas las calificaciones.
Ya simplemente a partir de la probabilidad empírica de cada alumno, que mide su posibilidad real de éxito en la evaluación, tenemos una probabilidad estadística real sobre el tipo de comportamiento de cada alumno en la prueba. El valor de la probabilidad empírica será tanto descriptivo, nos permite una descripción fidedigna del grado de dominio y conocimiento del alumno sobre la asignatura, y también predictiva, ya simplemente a través de la probabilidad empírica se puede tener una estimación a priori, de dadas esas mismas circunstancias, un examen sobre la misma asignatura, cual es la probabilidad empírica de resultados del alumno en la prueba.
El Nivel de Sesgo de cada probabilidad empírica de cada sujeto de la muestra, el grupo de alumnos, será igual a la diferencia de la probabilidad empírica menos la probabilidad teórica, y los alumnos más aventajados que hayan obtenido mejores calificaciones tendrán sesgo positivo, mientras los alumnos con peores calificaciones tendrán sesgo negativo. Aquellos alumnos cuyos resultados se encuentren en torno a la media aritmética del grupo, la inversión de N, tendrán una probabilidad empírica tendente a cero, en la medida que su probabilidad empírica será próxima a probabilidad teórica.
Supongamos un estudio en un universo de sujetos donde los sujetos de estudio son los meses del año en donde se ha medido la temperatura media mensual, la puntuación directa de cada mes es igual a su temperatura media, y la probabilidad empírica de temperatura por mes el cociente de la temperatura mensual entre la suma de la temperatura de todos los meses, midiendo la posibilidad real de temperatura en cada mes.
La probabilidad empírica de temperatura de cada mes particular es la posibilidad real de temperatura mensual según esa medición, de forma que se tiene una estimación descriptiva del comportamiento de la temperatura  por meses. Un mes cuya probabilidad de temperatura sea baja significa que es un mes que ha tenido bajas temperaturas, ha hecho frío, y un mes donde la probabilidad de temperatura sea alta significa que es un mes donde ha habido mucha temperatura, ha sido caluroso, siendo entonces la probabilidad empírica un valor predictivo sobre la tendencia mensual de la temperatura en próximos años en función de los meses.
Una forma de poder baremar a partir de qué término medio un mes se puede decir que ha sido frío por cuanto su probabilidad empírica esté por debajo del término medio, o se pueda afirmar que un mes ha sido caluroso por cuanto su probabilidad empírica esté por encima del término medio, es mediante el Nivel de Sesgo, diferencia de probabilidad empírica menos probabilidad teórica, de forma que todos los meses que tengan sesgo positivo son calurosos, y todos los meses que tengan sesgo negativo son fríos, y los meses cuya probabilidad empírica se encuentren en torno a la probabilidad teórica meses de temperaturas templadas.
Los estudios de sujetos son estudios donde los sujetos de estudios son sujetos a una puntuación directa, siendo muestras de sujetos que forman parte de universos de sujetos, por ejemplo, un grupo de alumnos en una escuela forma parte del universo de todos los posibles alumnos escolarizados, y a los universos de sujetos en Introducción a Probabilidad Imposible se las llamará universos de sujetos u opciones infinitos, en tanto que los sujetos son tratados como si fuera opciones, e infinitos por cuanto son universos que, en función del tiempo  pueden llegar a ser infinitos, ya sea en un tiempo que no tenga ni principio ni fin, o tenga principio pero no tenga fin, o teniendo principio y fin existen infinitud de instantes entre los límites de tiempo, luego posibles infinitas mediciones, de la cual, cualquier medición, es una entre las posibles.
En los universos de sujetos la puntuación directa es igual al resultado de la medición de aquella cualidad singular objeto de estudio, que se mide a todos los sujetos de la muestra, siendo su probabilidad empírica igual a la puntuación directa de su cualidad particular entre el sumatorio de todas las puntuaciones directas.
La puntuación directa es la medición cuantitativa de la intensidad de una cualidad singular en cada sujeto en particular.
Además de los universos de sujetos, de los que se estiman sus puntuaciones directas, existen los universos de opciones, siendo una opción una alternativa posible ante una posible ocurrencia, en donde el concepto de alternativa implica que debe haber más de una alternativa simultáneamente en la que la ocurrencia puede resolverse, de forma que en una muestra de opciones, siendo cada opción una alternativa posible, habiendo más de una alternativa , la medición estadística determina el número total de ocurrencias por opción, que se llama frecuencia.
La frecuencia de una opción es el número total de ocurrencias en que esa opción se ha manifestado en la realidad, y la probabilidad empírica de la opción será igual a dividir su frecuencia particular entre el sumatorio de todas las frecuencias de todas las opciones, y mide las posibilidades reales de ocurrencia de esa opción en la muestra. En este sentido lo que la estadística tradicional llama frecuencia relativa, la frecuencia individual entre la total, es lo que en Introducción a la Probabilidad Imposible se llama probabilidad empírica de opción.
Supongamos que jugamos a lanzar una moneda al aire y queremos saber s la probabilidad de cara o cruz, la muestra de opciones es la muestra formada por las opciones cara o cruz, y la probabilidad empírica de cara igual al número de veces que ocurre cara entre el sumatorio de todos los lanzamientos de la moneda, siendo el número total de veces que se lanza la moneda igual a la suma de todas las ocurrencias de cara y todas las ocurrencias de cruz, y la probabilidad empírica de cruz igual al número de veces que ocurre cruz entre el número total de lanzamientos.
Al número de veces que ocurre cara se llama frecuencia de cara, y al número de veces que sale  la opción cruz se llama frecuencia de cruz, y la probabilidad empírica de cada opción será igual a su frecuencia particular entre el sumatorio de todas las frecuencias, y mide cuales son las posibilidades reales de que salga cada opción en particular.
Supongamos que queremos hacer un estudio de la probabilidad de hombres o mujeres en una población concreta, donde la muestra de opciones son dos, hombre o mujer, luego la probabilidad empírica de mujeres es igual a la cantidad total de mujeres en toda la población entre toda la población, y la probabilidad empírica de hombres la cantidad total de hombres entre toda la población.
Ya sea en el estudio de cara o cruz, hombre o mujer, si en condiciones normales, en ausencia de sesgo, lo más normal es que la probabilidad de cara o cruz sea la misma, o la probabilidad de mujer u hombre debiera ser la misma, lo que se observa es que no siempre tiene porque darse esta ausencia de sesgo, y en el caso de que la moneda este sesgada a favor de las caras o las cruces la probabilidad de cara o cruz será superior a la de cruz o cara, lo que significará que aquella opción que tenga mayor frecuencia en el Nivel de Sesgo tendrá sesgo positivo, lo cual se observa en los estudios demográficos, en donde por factores normalmente naturales, luego aleatorios, normalmente la probabilidad de mujeres es mayor a la de hombres, siendo un sesgo a favor de las mujeres producido naturalmente, es decir, un sesgo aleatorio del propio azar.
Supongamos que jugamos a lanzar un dado de seis caras, y apostamos que número saldrá de los seis, tenemos seis opciones, la probabilidad empírica de cada número asociado a cada cara del dado de seis caras será igual a la frecuencia en que sale cada número individualmente entre el número total de lanzamientos del dado, que es igual al sumatorio de todas las frecuencias obtenidas por todos los números de todas las caras.
En una democracia representativa se presentan una serie de partidos políticos, las opciones políticas, y antes de las elecciones se hace una encuesta de intención de voto, la frecuencia de voto por partido será igual a la cantidad de personas dispuestas a votar a ese partido, la probabilidad empírica de intención de voto a cada partido será igual a la frecuencia de votantes por partido entre todos los encuestados en la muestra. La probabilidad empírica de cada partido en la encuesta mediría cuales son las posibilidades reales de ganar de cada partido, aquellos partidos más cercanos a la Máxima Probabilidad Empírica Posible, la probabilidad empírica igual a uno, son los que tienen más posibilidades de ganar, debido a su sesgo positivo, probabilidad empírica superior a la teórica,  mientras aquellos que estén más próximos  a la Mínima Probabilidad Empírica Posible son los que  menos posibilidades tienen de ganar, luego tendrán asociado mayor sesgo negativo, probabilidad empírica inferior a la teórica.
La probabilidad empírica de una opción, sea al lanzar una moneda o un dado, sea la probabilidad empírica de hombres o mujeres, o la probabilidad empírica de ganar unas elecciones un partido político, es siempre la misma, frecuencia individual entre  la frecuencia total, el sumatorio de toda la frecuencia, y lo que mide la probabilidad empírica de una opción son las posibilidades reales de esa opción en comparación a las demás.
Los universos de opciones, a diferencia de los universos de sujetos que pueden tender a infinito, los universos de opciones son siempre universos limitados a las opciones predeterminadas a priori en la investigación, motivo por el cual los universos de opciones en Introducción a la Probabilidad Imposible se las llama universos de opciones limitadas.
En cualquier caso, sea un universo de sujetos a puntuación directa tras la medición de la intensidad de una cualidad particular, o sea un universo de opciones de frecuencia, en cualquier caso de forma universal, para todo sujeto u opción, en Introducción a la Probabilidad Imposible, se dirá que la probabilidad empírica de sujeto u opción es igual a puntuación directa o frecuencia entre el sumatorio de todas las puntuaciones directas o frecuencias.
Lo cual implica que la probabilidad empírica de sujeto es igual a su puntuación directa particular entre sumatorio de puntuaciones directas, y si lo que se estudia son opciones, la probabilidad empírica de una opción será igual a la frecuencia particular de la opción entre el sumatorio de todas las frecuencias.
La probabilidad empírica de sujeto u opción será siempre una probabilidad estadística real, por cuanto se deriva de una medición estadística, ya sea de puntuaciones directas o frecuencias, y mide en todo caso las posibilidades reales de ese sujeto u opción en la muestra, ya sea una muestra extraída de un universo de sujetos o un universo de opciones limitadas.
Las funciones de la probabilidad empírica son descriptiva y predictiva, en función de la probabilidad empírica de un sujeto u opción no sólo obtenemos una estimación descriptiva de ese sujeto u opción en la realidad presente o medida, tenemos un indicador a priori predictivo de dado su comportamiento actual cual puede ser su comportamiento futuro.
Si dado un grupo de alumnos, disponemos de las probabilidades empíricas después de una evaluación en una asignatura, ya disponemos de una estimación a priori para, si el alumno mantienen constante su comportamiento y no varía en el futuro, predecir su comportamiento según sus posibilidades reales actuales si estas no varían, la función de la probabilidad empírica no es sólo descriptiva, es predictiva, por cuanto los alumnos con mayores posibilidades, de mantenerse constantes las mismas condiciones, seguirán teniendo altas puntuaciones, y los alumnos con menores posibilidades seguirán teniendo menos puntuaciones, siempre que las condiciones de partida en la evaluación se mantengan constantes.
Evidentemente un buen profesor una vez hecha esta predicción de futuro sobre las posibilidades reales lo que intentará será en todo caso mejorar las condiciones de los alumnos con peores posibilidades, a fin que aumenten sus probabilidades, ahora bien, de no introducirse cambios, la probabilidad empírica es un buen estimador a priori.
De mantenerse constante la temperatura media mensual, la probabilidad de temperatura por mes es a priori una estimación de las posibilidades reales de temperatura mensual en los próximos años, salvo que el cambio climático altere significativamente el comportamiento de  las temperaturas mensuales.
Si en un estudio sobre la tasa estadística de la proporción de hombres y mujeres en la sociedad se demuestra que la probabilidad de mujeres es mayor a la de hombres, de mantenerse constantes estas condiciones, y no producirse variaciones significativas en la pirámide demográfica, lo que cabe estimar a priori, como predicción para siguientes años es que la tasa de mujeres seguirá siendo mayor que la de hombres. No es sólo un valor descriptivo, es predictivo.
Si en una encuesta de intención de voto a días antes de unas elecciones un partido político tiene la máxima probabilidad empírica, “p(xi+)”, otro partido tiene una probabilidad empírica próxima a probabilidad teórica “p(xi≈)”, y otro partido tiene la mínima probabilidad empírica, "p(xi-)", salvo que los partidos que no detentan la máxima hagan algo por invertir los resultados, lo más probable, a modo de predicción electoral, es que el partido que tiene la máxima en la encuesta en intención de voto sea el partido que gane las elecciones y obtenga la presidencia, mientras que el partido que tiene una probabilidad empírica próxima a teórica sacará unos resultados moderados, y el partido que tiene la mínima probabilidad empírica será aquel que tenga la menor representación electoral.
La probabilidad empírica tiene una función descriptiva por cuanto describe cuales son las posibilidades reales en el momento de la medición estadística, pero simultáneamente tiene una función predictiva por cuanto si las condiciones de la medición presente no varían y se mantienen constantes, lo más posible es que en el futuro las posibilidades reales de cada sujeto u opción son las que estima su probabilidad empírica.
La probabilidad empírica es una función estadística relativa o proporcional, en cuanto para que cualquier probabilidad empírica de sujeto u opción se mantenga constante, es imprescindible a priori que se mantengan constantes todas las probabilidades empíricas de todos los sujetos u opciones de la muestra. En el momento que varía la probabilidad empírica de un solo sujeto u opción entonces normalmente varían todas las probabilidades empíricas, por este motivo las relaciones entre las probabilidades empíricas son de carácter sistémico, baste que haya una variación un solo sujeto u opción para que todo cambie.
El modelo de probabilidad empírica es un modelo sistémico por cuanto un simple cambio en el comportamiento individual supone un cambio global en el comportamiento toda la muestra.
En el apartado 10 de Introducción a la Probabilidad Imposible se detallan los diferentes tipos de estudios intramedicionales inferenciales, y en el apartado 11 se detallan los diferentes modelos de crítica racional en función del objeto de estudio, utilizando probabilidades estadísticas, lo que viene a ser el Segundo Método de estadística de la probabilidad o probabilidad estadística. En el apartado 12 se exponen los modelos de crítica racional pero adaptados a las puntuaciones directas o frecuencias.
Dentro de los diferentes tipos de estudio en Probabilidad Imposible hay que diferenciar entre los estudios normales y los estudios omega. Dentro de los estudios normales diferenciar aquellos cuyo objeto de estudio es la igualdad de oportunidades: que las probabilidades empíricas tiendan a probabilidad teórica, inversión de N; estudios de sesgo positivo cuando si de toda N sólo hay un sujeto u opción ideal a elevar al máximo su probabilidad empírica, sea la máxima probabilidad empírica, en tendencia a Máxima Probabilidad Empírica Posible, la probabilidad empírica igual a uno; y los estudios de sesgo negativo donde el ideal es o bien la muestra de ceros, que todas las probabilidades empíricas sean igual a cero, porque miden cualidades negativas, por ejemplo, lo ideal es que la probabilidad empírica de todas las enfermedades sea cero, o la probabilidad empírica de todos los errores sea cero, o bien de sesgo negativo porque de toda N hay una serie de sujetos u opciones a reducir al mínimo su probabilidad empírica.
Los modelos omega en Introducción a la Probabilidad Imposible son aquellos en donde dada N hay un subconjunto de de sujetos u opciones ideales, siendo un subconjunto inferior a N pero igual o mayor de dos, siendo modelos que reciben un tratamiento diferente a los modelos normales. Mientras en los modelos normales la dispersión varía entre cero o máxima en los modelos omega lo ideal es una dispersión ideal.
En la medida que en función del objeto de estudio la manipulación de la variable independiente puede hacer variar las puntuaciones directas o frecuencias de la muestra, cualquier cambio, por mínimo que sea en un sujeto u opción individual produce automáticamente cambios en toda la distribución de probabilidades empíricas, debido a su carácter relativo y proporcional.
Si en un estudio, por el motivo que sea, un sujeto u opción determinado aumenta su puntuación directa, aunque todos los demás sujetos u opciones la mantengan constante, en cuanto un sujeto u opción determinado aumenta su puntuación directa o frecuencia entonces aumenta el sumatorio de las puntuaciones directas o frecuencias, luego únicamente aumentará la probabilidad empírica de ese sujeto u opción determinado, mientras que por el efecto de verse aumentado el sumatorio de las puntuaciones directas o frecuencias, aunque los demás sujetos u opciones mantengan constante su puntuación directa o frecuencia, por efecto del aumento del computo total del sumatorio de todas las puntuaciones directas o frecuencias, verán reducidas, los demás sujetos u opciones, sus probabilidades empíricas, porque el valor proporcional real, probabilidad empírica,  de una puntuación directa o frecuencia constante decrece conforme aumente el sumatorio de las puntuaciones directas o frecuencias.
Y viceversa, si en un estudio un sujeto u opción reduce su puntuación directa o frecuencia, se verá reducida su probabilidad empírica, mientras, aunque los demás sujetos u opciones mantuviesen constantes sus puntuaciones directas o frecuencias, sus probabilidades empíricas aumentarán porque el valor proporcional real, probabilidad empírica, de una puntuación directa o frecuencia constante aumentará conforme se reduzca el suma total de todas las puntuaciones directas o frecuencias.
La probabilidad empírica es un valor relativo y proporcional, en la medida que la probabilidad empírica de un sujeto u opción depende de dos tipos de variaciones, ya bien la variación directa individual sobre su puntuación directa o frecuencia, causa directa de aumento o disminución en la probabilidad empírica, o bien indirectamente por variaciones en el sumatorio de las puntuaciones directas o frecuencias, que con independencia que se mantenga constante una puntuación directa o frecuencia, es causa indirecta de aumento o disminución en la probabilidad empírica: a puntuación directa o frecuencia constante, conforme disminuya o aumente el sumatorio de puntuaciones directas o frecuencias, entonces mayor o menor probabilidad empírica
Si N es la muestra de sujetos u opciones, N sujetos en universos de sujetos, N opciones en universos de opciones limitadas, al sumatorio de puntuaciones directas o frecuencias se llamará muestra de puntuaciones directas o frecuencias, siendo un factor de dispersión estadística. De esta forma todo estudio tendrá dos muestras diferenciadas : la muestra N de sujetos u opciones y la muestra de puntuaciones directas o frecuencias .En una muestra de N sujetos la muestra de puntuaciones directas es igual a la suma de todas las puntuaciones directas, y en una muestra de opciones la muestra de frecuencias será igual a la frecuencia total
Precisamente a causa de que la dispersión puede estar motivada por diferentes factores, ya sea la manipulación experimental, la magnitud de N, y la magnitud de la muestra de puntuaciones directas o frecuencias, estos factores se estudian dentro de las relaciones entre dispersión empírica o teórica, dentro de la doble dimensión empírica o teórica de la realidad, que es en definitiva, el verdadero objeto de estudio.
En síntesis la probabilidad es el estudio de lo que sucede,  en función de lo cual se establecen proporciones o probabilidades estadísticas, sean empíricas, teóricas o críticas, siendo la probabilidad empírica la que se deriva de los datos reales de la muestra,  y estudia las posibilidades reales de los sujetos u opciones, para la descripción y predicción estadística.del comportamiento o la tendencia.

Rubén García Pedraza, Madrid a 21 de abril del 2013
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 

 

UNIVERSO ESTADISTICO


Una de las diferencias entre la estadística tradicional y el modelo alternativo de estadística que representa la teoría de Probabilidad Imposible, es que mientras la tradicional centra el estudio en las poblaciones, ya sea la población completa, o, de ser excesivamente grande, una muestra, tanto en estadística descriptiva e inferencial, en Introducción a la Probabilidad Imposible,estadística de la probabilidad o probabilidad estadística, desde el principio se propone como objeto el estudio del universo, si bien, se focaliza la atención sólo a un determinado espectro, el universo estadístico, del cual normalmente se seleccionarán muestras para su estudio descriptivo o inferencial.

El universo estadístico se diferencia del físico, en que mientras la concepción física del universo es total y absoluta, la definición estadística es relativa al método y al objeto de la investigación, por cuanto la metodología sea  de naturaleza estocástica, y la definición dependa del objeto de estudio ,en Probabilidad Imposible el universo estadístico sólo será definido  por aquellos elementos que tengan en común una o varias cualidades y cuyas mediciones sean estudiadas a través de probabilidades estadísticas.

La noción física del universo es total y absoluta, ya que engloba la totalidad de interacciones posibles  de materia y energía en cualquier espacio-tiempo posible, ya se entienda al continuo espacio-tiempo como una dimensión finita o infinita, desde esta perspectiva el universo de la física o la astrofísica sería el cosmos.

Una definición total y absoluta, en la medida que el universo estaría formado por todo y absolutamente todo lo que sucede en cualquier instante de tiempo en cualquier lugar, la realidad cósmica, o absolutamente todo lo que ha sucedido o pueda suceder , su historia,  mientras el universo estadístico lo formarían sólo y exclusivamente  aquellos elementos del universo físico que tengan en común una o más cualidades, enfocándose en un aspecto parcial de la realidad, solamente los hechos donde esa cualidad o cualidades se manifiesten de manera positiva, y en caso de ser infinitos o un número suficientemente grande para no poder estudiar todo lo que sucede en esa realidad, se seleccionará y estudiará sólo una muestra.

En ausencia de pruebas objetivas que demuestren la existencia de historias múltiples del universo o universos paralelos o macro-universos que engloben a nuestro universo particular, de momento lo que sabemos  físicamente de nuestro universo es que es una entidad donde  se engloba una totalidad de accidentes y contingencias que en el devenir de la materia y la energía en el espacio y el tiempo se han producido de forma completamente aleatoria, de modo que bajo esa definición se integraría desde la materia oscura o antimateria, las nebulosas, estrellas, galaxias, supernovas, cometas, asteroides, y demás contingencias producto de infinidad de accidentes, desde la formación del sol y el sistema solar, la formación de la Tierra y el origen de la vida,  y la evolución al actual homo sapiens, y todos los accidentes y contingencias de los que surjan nuevos fenómenos,  naturales o sociales.

Lo único que sabemos de nuestro universo es lo que podamos conocer de forma positiva, si bien, en realidad, nuestro universo se encontraría formado por una posible infinidad de sucesos, de los que posiblemente la ciencia sólo conoce una mínima parte.

En sentido holístico, el universo físico, el cosmos, en ausencia de pruebas que certifiquen si hay más universos a parte del que conocemos, el actual universo que de momento conocemos  lo sería absolutamente todo. Mientras que el universo estadístico  de una investigación estocástica sería sólo y exclusivamente aquel subconjunto del cosmos, en el que se incluyen sólo aquellos elementos que tengan en común una o más cualidades, y del cual sólo estudiaríamos una muestra de sucesos u ocurrencias a través de sus mediciones.

Mientras la estadística tradicional centra su estudio en poblaciones, y de ser excesivamente grande una población entonces la selección de una muestra, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, lo que se propone es una nueva epistemología donde lo  que se estudia es el universo,  de forma parcial y relativa, el universo estadístico, donde a  los elementos que forman ese universo se les denomina sujetos y opciones, y  se llama puntuación directa o frecuencia a la medición obtenida del suceso u ocurrencia donde se manifieste la cualidad o cualidades que se estudien.

De esta forma y a modo de síntesis en líneas generales por universo estadístico en Introducción en la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se entenderá aquel conjunto de sujetos u opciones que teniendo en común una o más cualidades manifiestan en relación a esta propiedad un comportamiento mensurable en forma de puntuaciones directas o frecuencias.

Ahora bien, una vez definido qué es el universo estadístico, en Probabilidad Imposible se diferencia entre dos tipos de universos, universos de sujetos u opciones infinitos y universos de opciones limitadas.

A los universos de sujetos u opciones infinitos también se les puede llamar universos infinitos, o simplemente universos de sujetos, y de igual manera a los universos de opciones limitadas se les puede llamar universos limitados o simplemente universos de opciones.

La distinción entre ambos modelos de universo se debe a la propia comprensión dialéctica de la realidad que se desarrolla en la filosofía de origen de la teoría, donde se funden y fusionan diferentes filosofías y epistemologías, racionalismo, positivismo, y el materialismo dialéctico, donde, en esta última, retomando el idealismo hegeliano se entiende una diferenciación y relación dialéctica entre sujeto u objeto, la cual en Probabilidad Imposible se transforma en la distinción entre sujeto u opción, además de la propia identidad entre cualidad o cualidades y puntuación directa o frecuencia, que presupone a priori la aceptación de la ley de transformación de lo cualitativo en cuantitativo y viceversa, relaciones de identidad de los opuestos que en Probabilidad Imposible se establecen dentro de un margen de error y nihilismo lógico en la teoría de la ciencia.

El criterio que se establece en la distinción entre universos de sujetos u opciones infinitos, también llamados universos infinitos, o simplemente universos de sujetos, frente a los universos de opciones limitadas, denominados también universos limitados, o simplemente universos de opciones, se debe a la propia distinción cualitativa y cuantitativa entre ambos modelos de universos.

La distinción cualitativa entre los universos de sujetos u opciones infinitos frente los universos de opciones limitadas surge de la diferencia en la forma de expresarse la cualidad o conjunto de cualidades de estudio, mientras en universos de sujetos u opciones infinitos lo que se estudia normalmente, salvo excepciones, la puntuación directa de los sujetos u opciones, en los universos de opciones limitadas lo que se va a estudiar es la frecuencia en que se manifiestan las opciones. Además del criterio cualitativo en el tipo de manifestación empírica de la cualidad o cualidades, el criterio cuantitativo, mientras los universos de sujetos u opciones infinitos como su propio nombre indica son universos que pueden tender a infinito, sin embargo los universos de opciones limitadas nunca podrán tender a infinito, salvo que dentro de este modelo de universo se integren los universos limitados a categorías discretas, de manera que mientras la clasificación de las categorías en forma discreta se haga dentro de un número limitado de categorías, dicho universo de categorías discretas se comportará como un universo de opciones limitadas, pero conforme se amplíe el número de categorías discretas según se reduzca la amplitud entre los límites inferior  y superior de cada categoría, entonces el universo de categorías discretas pasará  de ser limitado a ser un universo de categorías discretas que tienda a infinito, conforme se reduzca la amplitud entre los límites que segmentan a cada categoría discreta.

De esta forma la razón por la que se distingue entre los dos tipos de universo estadístico, de sujetos u opciones infinitos, o de opciones limitadas, se debe a una razón doble, en función se siga un criterio simplemente cualitativo, la forma en que se exprese la cualidad o conjunto de cualidades comunes a los sujetos u opciones, en forma de puntuación directa o frecuencia, o en función de si dicho universo tiende o no a infinito.

Del primer criterio mencionado, el cualitativo, la forma de expresarse la cualidad o cualidades los sujetos u opciones, en forma de puntuación directa o frecuencia, la distinción se hace en función de que en un sentido dialéctico se da una ley de transformación entre lo cualitativo o cuantitativo, que supone implícitamente una ley de transformación en cantidad y calidad, a nivel de medición en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, dicha distinción se expresará en la diferenciación entre diferentes tipos de medición, en función se mida la magnitud de intensidad del suceso, o se mida la magnitud de ocurrencia.

La magnitud de intensidad de un suceso en Probabilidad Imposible se llamará puntuación directa, y a la magnitud de intensidad de la ocurrencia se llamará frecuencia. Ambas formas de medición en esencia son idénticas, son diferentes expresiones de una medición cuantitativa de magnitud, sólo que en el caso de la puntuación directa lo que se mide es la intensidad en que se expresa una cualidad, o cualidades, mientras que la frecuencia lo que mide es la cantidad de veces en que un suceso se repite

Esta distinción cualitativa entre puntuación directa, la magnitud de intensidad, frente frecuencia, magnitud de la ocurrencia, lo que pone de relevancia es la distinción cualitativa entre sujeto u opción, dado que normalmente lo que se medirá de un sujeto es su puntuación directa, y lo que se medirá de una opción es una frecuencia, si bien, dentro de una filosofía dialéctica, en la identidad entre sujeto u opción se produce la identidad entre puntuación directa o frecuencia, donde en realidad la puntuación directa es la suma de unidades, sólo que de medida, al igual que la frecuencia es una simple suma de ocurrencias, luego la frecuencia se puede interpretar como la puntuación directa en la repetición de un fenómeno en la realidad.

El criterio cuantitativo en la distinción entre ambos modelos de universos, de sujetos u opciones infinitos, o de opciones limitadas, y quizás más importante que el anterior, se debe que mientras en universos de opciones limitadas las dimensiones del universo son y serán siempre finitas, en el caso de los universos de sujetos u opciones infinitos cabe la suposición lógica de que dicho universo puede ser infinito. Si bien ante esta suposición cabe la objeción que en realidad desconocemos la existencia  del infinito, y sería una temeridad incluir en la hipótesis una variable que desconocemos, desde otra perspectiva totalmente diferente cabe mencionar que desde el positivismo, por ejemplo Carnap, en su obra, Fundamentación lógica de la física, ya aludía que en caso de desconocimiento sobre si una determinada serie es o no infinita, por ejemplo, la posible infinidad de seres humanos en una historia infinita, cabe suponer que dicha serie puede ser infinita. Igualmente, a pesar de que reconociera que es una antinomia lógica, Kant defendía la hipótesis de la existencia del infinito, y desde el materialismo dialéctico siempre se ha rechazado toda explicación creacionista o apocalíptica de la historia, de hecho ni Hegel ni Marx pusieron nunca límite a la serie que supone ley de negación de la negación, la cual es infinita.

Según estos criterios, el cualitativo y el cuantitativo, un universo de sujetos u opciones infinitos sería aquel en donde normalmente lo que se mide son puntuaciones directas, y cabe la suposición lógica de que la serie de sujetos en la historia tienda a infinito, y el universo de opciones limitadas es aquel donde lo que se mide es la frecuencia de las opciones, las cuales a su vez se encuentran limitadas.

Sobre, en líneas generales, la descripción fundamental de cada universo, ya en particular en los universos de sujetos u opciones infinitos hay que hacer una mención específica a los estudios poblacionales, dado que si bien aparentemente pueden parecer entidades limitadas  y no finitas sin embargo no lo son en realidad, y el motivo es claro y sencillo. Si desde la estadística tradicional a las poblaciones se las considera como entidades absolutas frente a los estudios muestrales que serían de naturaleza parcial, únicamente aplicable en aquellos casos en donde de una población suficientemente grade para no estudiarse completamente se elabora una muestra para su estudio descriptivo e inferencia estadística, desde la teoría de Probabilidad Imposible se entiende que todo estudio poblacional en un momento determinado de la historia es sólo una muestra de comportamiento de esa población en el conjunto de la historia.

Aunque una población haya sido demostradamente finita, por ejemplo, la población de dinosaurios, o en caso de desaparecer, muchas de las especies animales en peligro de extinción que actualmente existen a causa del cambio climático, no porque esa población haya sido finita en un sentido cronológico se debe rechazar que esa población, a nivel metodológico, se incluya dentro de los universos de sujetos u opciones infinitos, dado que en la medida que entendamos que cualquier estudio poblacional, sobre la distribución del comportamiento de una población en un momento dado es sólo una muestra del comportamiento de esa población en la historia, entonces el concepto de población deja de ser una entidad absoluta para transformarse en una entidad parcial del comportamiento universal de esa población en la historia, luego, cualquier estudio de una población en un determinado momento es sólo una muestra del comportamiento de esa población en la historia.

A pesar de que incluso aceptando que un estudio poblacional es una muestra del comportamiento de una población en su historia, se pudiera objetar que en cualquier caso, por ejemplo en caso de que una población desaparezca, en tal caso ya no se podría integrarse dentro de un universo de sujetos u opciones infinitos, ante esta objeción cabe argumentar que la cuestión del infinito no sólo implica la posibilidad de un infinito longitudinal en el tiempo o extensión espacial, la idea o hipótesis del infinito implica que entre dos puntos cualesquiera del espacio o el tiempo se podrían hacer infinitas subdivisiones, lo que supone que entre el estudio poblacional que pudiera hacerse de una población concreta, en un momento de su historia, y cualquier otro estudio en cualquier otro momento de la historia de esa población, existiría una infinidad de instantes en que serían posibles infinidad de estudios poblacionales, y en cada estudio de cada infinidad de instantes lo único que conseguiríamos sería un estudio sobre una muestra del comportamiento de la población en la historia.

Además de los estudios poblacionales, otro elemento que debe dejarse bien especificado, es la importancia de la identidad puntuación directa o frecuencia, que implica que la frecuencia puede ser definida como  puntuación directa, algo que afecta sensiblemente a determinados modelos de estudio de sujetos u opciones infinitos que tienen por principal referente el estudio de frecuencias.

Supongamos un estudio donde lo que se investiga es el comportamiento en el universo de la frecuencia de impactos de meteoritos en los planetas, donde ya se entienda que el universo estadístico de planetas sea, en toda su infinidad, todos los planetas posibles, conocidos o desconocidos, o de forma particular, la población de planetas que conocemos, el estudio se incluiría dentro de los modelos de  universos de sujetos u opciones infinitos, aunque lo que realmente se va a estudiar es la frecuencia de impactos de meteoritos la muestra de planetas seleccionados.

En la medida que el estudio planteado, dentro de los universos de sujetos u opciones infinitos, aunque en lugar de puntuaciones directas tuviera por referente  las frecuencias, se entendería  igualmente que la frecuencia de impactos de meteoritos en cada planeta sería la puntuación directa de cada planeta.

Los diferentes modelos de universos estadísticos, de sujetos u opciones infinitos, o de opciones limitadas, serían entonces subconjuntos del universo físico, el cosmos, integrado cada subconjunto por diferentes conjuntos de sujetos u opciones, de los que se estudiarían sus puntuaciones directas o frecuencias, caracterizándose los universos de sujetos u opciones infinitos por su posibilidad de ser infinitos y que normalmente el estudio sería sobre la medición de las puntuaciones directas, si bien dentro de este tipo de universo se incluyen los estudios poblacionales, en tanto que muestras del comportamiento de la población en la historia, y se incluirían aquellos estudios donde siendo posiblemente infinitos los sujetos de estudios se estudiarían sus frecuencias en tanto que puntuaciones directas.

Los estudios de universos de opciones limitadas normalmente estudiarán la frecuencia observada en las opciones, si bien, aunque sean universos limitados de opciones, cabe mencionar que sí serían posibles infinitas frecuencias. Por ejemplo, si bien en teoría el universo formado por las caras de una moneda son dos, cara o cruz, sin embargo el número lanzamientos podría ser infinito, luego podría deducirse que la muestra de frecuencias observadas podría ser infinita.

Dentro de estos universos de opciones limitadas un caso específico serían los universos de categorías discretas, si bien, estos universos, según las categorías discretas tendieran a infinito podrían igualmente englobarse dentro de los universos de sujetos u opciones infinitos.

En suma la teoría de los universos estadísticos que se engloba en Introducción ala Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, lo que evidenciaría es la posibilidad de construir una verdadera teoría sobre cosmología de la estadística y la probabilidad.

Rubén García Pedraza, Madrid a 27 de abril del 2014
 
https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/                                     


 

ESTADISTICA DE LA PROBABILIDAD


 La estadística y la probabilidad son dos disciplinas que aparecen históricamente en épocas diferentes, y tienden a fusionarse. La teoría de la probabilidad surge en la Edad Media, para el estudio de los juegos de azar, motivo por el cual la definición clásica es número de casos favorables entre total de casos. El uso de la estadística en cambio data de la Antigüedad,  aunque como teoría matemática en la era moderna, en un principio para la elaboración de censos poblacionales, práctica que deviene de las primeras grandes civilizaciones.

Si bien los primeros matemáticos de la antigüedad, Pitágoras, Euclides, Arquimedes, Deofonte… nunca se preocuparon por la probabilidad y la estadística, en la era moderna se observa un importante desarrollo de ambas, evolucionando de forma conjunta. Hoy en día en los manuales de estadística es habitual la mención de la teoría de la probabilidad, y aunque la probabilidad ha sido integrada en la estadística, sin embargo, no toda estadística implica probabilidad. 

La tendencia a la fusión de estadística y probabilidad se observa en diferentes momentos de la historia de las matemáticas, la curva normal de Gauss transforma el cálculo integral en cálculo de probabilidades en función de la frecuencia acumulada, y a principios del siglo XX el uso de la frecuencia relativa para la estimación de la probabilidad estadística. Una de las razones de  por qué el positivismo se interesa en la probabilidad es para la determinación de la probabilidad de certeza de una proposición empírica, lo cual lleva al contraste de hipótesis.

 Probabilidad Imposible tiende a la síntesis completa de probabilidad y  estadística . Hasta el momento ha habido teorías que tienden a la fusión de ambas, pero respetado sus límites tradicionales, mientras para Probabilidad Imposible toda probabilidad es estadística y toda estadística es probabilidad, en esencia, la aparición de un nuevo campo de conocimiento, la estadística de la probabilidad o probabilidad estadística.
 El concepto de probabilidad estadística se refiere a un tipo de probabilidad, a principios del siglo XX asociada a probabilidad frecuencial, que no era otra cosa que la frecuencia relativa, mientras en Probabilidad Imposible el concepto de probabilidad estadística se redefine, en la medida que se integran diversos tipos de probabilidades estadísticas, no ajustándose ninguna de ella de forma estricta a la noción de frecuencia relativa, salvo parcialmente la probabilidad empírica, y sólo parciamente. La semejanza que pueda haber entre probabilidad empírica y frecuencia relativa  se  debe únicamente a que dentro del concepto de probabilidad empírica se integran las frecuencias, aunque en igualdad de condiciones que las puntuaciones directas. Mientras la frecuencia relativa es igual a la frecuencia de un elemento entre frecuencia total, en Probabilidad Imposible la probabilidad empírica de sujeto u opción es igual a la puntuación directa o frecuencia del sujeto u opción entre el sumatorio de las puntuaciones directas o frecuencias de todos los  sujetos u opciones, de modo que el trato estadístico que se da a la frecuencia es exactamente el mismo que se da a la puntuación directa, no habiendo diferencias en el tratamiento de la información según sean puntuaciones directas o frecuencias, todo dato, independientemente que sea de la medición de la frecuencia o la medición de la puntuación directa, todo información derivada de una medición recibe el mismo tratamiento estadístico en la probabilidad empírica.
 La probabilidad estadística hace referencia a un concepto de la probabilidad, o a un modo de operación o cálculo de la probabilidad, en cualquier caso qué entendemos en estadística por probabilidad, y lo que Probabilidad Imposible entiende por probabilidad estadística es toda aquella estimación de posibilidad, sea empírica, teórica, crítica o ideal, que se genere del estudio de relaciones entre hechos o fenómenos en condiciones estocásticas. De modo que integra al conjunto de probabilidades estadísticas de: probabilidad empírica, probabilidad teórica, probabilidad ideal, y probabilidad crítica.
 Mientras el concepto de probabilidad estadística hace referencia a que entendemos por probabilidad, estadística de la probabilidad hace referencia al uso de técnicas estadísticas para el estudio de la probabilidad, independientemente de nuestro concepto de probabilidad
 A la estadística tradicional en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se denomina primer método, para diferenciarlo del Segundo Método de Probabilidad Imposible. Si en un estudio estadístico que utilice la estadística tradicional o primer método, una vez que se ha hecho un tratamiento tradicional de la información, se somete a técnicas de probabilidad como la curva normal, o se hacen estudios de probabilidad sobre frecuencias relativas, lo que dentro de la estadística tradicional se estaría haciendo es un estudio estadístico de la probabilidad, sólo que aplicando métodos tradicionales, la puntuación Z en la curva de Gauss o la probabilidad frecuencial.
 En la estadística tradicional, la estadística de la probabilidad más habitual se basa en la curva normal, calculando probabilidades sobre áreas que reflejan frecuencias acumuladas, o bien el empleo de frecuencias relativas.
 En el segundo Método de Probabilidad Imposible la estadística de la probabilidad adquiere una dimensión mucho más desarrollada, en la medida que el modo en que se estudia el comportamiento de los sujetos u opciones a través de sus probabilidades empíricas, es exactamente aplicando las mismas técnicas estadísticas que para puntuaciones directas. De modo que sobre las probabilidades empíricas, ya sean calculadas de frecuencias o puntuaciones directas, independientemente del origen de las mediciones, se aplican técnicas de estadística descriptiva y estadística inferencial.
 La estadística descriptiva sobre las probabilidades empíricas se inicia a partir de la diferenciación entre cada probabilidad empírica y la probabilidad teórica, que se denomina Nivel de Sesgo de sujeto u opción, siendo en esencia similar a la puntuación diferencial del primer método, la estadística tradicional, pero con una diferencia notoria, con independencia de que la muestra sea una muestra de ceros, es decir, todos los sujetos u opciones tuvieran probabilidad empírica igual a cero, el Nivel de Sesgo nunca será igual a cero, algo que nunca sucedería en la puntuación diferencial de la estadística tradicional, el primer método, donde si toda la muestra es igual a cero entonces la puntuación diferencial es igual a cero, luego la dispersión es igual a cero. En el Segundo Método en la medida que el Nivel de Sesgo es la comparación entre probabilidad empírica y teórica, e independientemente que todas las probabilidades empíricas de todos los sujetos u opciones tuvieran probabilidad empírica igual a cero sin embargo la probabilidad teórica seguiría siendo igual a inversión de N, aunque una muestra fuera una muestra de ceros, es decir, todas las probabilidades empíricas igual a cero, se daría el caso que el Nivel de Sesgo de todo sujeto u opción sería igual a menos inversión de N, - 1/N, el Máximo Sesgo Negativo Posible, luego la dispersión de la muestra igual a inversión de N, 1/N, siendo esta una diferencia importante entre Segundo Método y primer método, que la dispersión al calcularse sobre una probabilidad estadística de carácter teórico, la probabilidad teórica, inversión de N, 1/N, la dispersión nunca sería cero por el simple motivo que la muestra de puntuaciones directas o frecuencias fuera igual a cero. La única razón que justifica que la dispersión sea cero es que el comportamiento de la muestra tienda a igualdad de oportunidades de forma absoluta.
 A partir de la aplicación de técnicas de estadística descriptiva sobre las probabilidades empíricas del Segundo Método de Probabilidad Imposible, se pueden realizar procesos ulteriores de crítica racional a través de la estadística inferencial, de modo que la estadística de la probabilidad en Probabilidad Imposible, significa que dada una definición de probabilidad estadística, la posibilidad de aplicar a las probabilidades estadísticas el mismo trato estadístico que a cualquier otro conjunto de datos que estuvieran en formato diferente al de probabilidad.
 Mientras probabilidad estadística significa una determinada definición y concepto de probabilidad, que en su formato tradicional implica probabilidad frecuencial, y en Probabilidad Imposible un conjunto de probabilidades estadísticas que incluyen probabilidad empírica, teórica, ideal y crítica, la estadística de la probabilidad implica el uso de técnicas estadísticas para estudiar las probabilidades, en de Probabilidad Imposible sobre su propia definición de probabilidad estadística, sobre las que se aplican técnicas de estadística descriptiva e inferencial
 

Rubén García Pedraza, Madrid  7 de diciembre del 2014
 
 


 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 


 

 
http://probabilidadimposible.wordpress.com/