PROBABILIDAD IMPOSIBLE


Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿ quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


imposiblenever@gmail.com

@imposiblenever

sábado, 25 de abril de 2015

Probabilidad cero o Probabilidad Imposible


La probabilidad es la magnitud racional del grado de posibilidad, racional por cuanto se mide a través de un cociente, una razón matemática, magnitud que oscilará entre cero y uno, la probabilidad uno en un fenómeno tradicionalmente significará certeza, y la probabilidad cero significará imposibilidad. Probabilidad cero es Probabilidad Imposible, y juega papel destacado en esta teoría, explicada profundamente en Introducción a la Probabilidad Imposible, estadística dela probabilidad o probabilidad estadística, actualizada en enero del 2015.

La estadística tradicional define probabilidad igual a número de casos favorables entre todos los casos posibles, uno de los motivos que inducen a esta definición es porque, si bien el origen de la estadística se hunde en la antigüedad clásica, los primeros Estados ya hacían censos poblacionales, y aparecen las primeras técnicas estadísticas, aunque de momento no se le conoce por este nombre, se utiliza a mediados de la modernidad, la probabilidad sin embargo se inicia en la época moderna, desde tempranamente en la Edad Media, y normalmente eran estudios que encargaban nobles jugadores a expertos matemáticos para conocer la probabilidad de sus apuestas, motivo por el cual las primeras definiciones matemáticas giraban en torno a la posibilidad de los casos favorables, una definición clásica que ha perdurado a lo largo de la historia.

En Probabilidad Imposible frente a las definiciones tradicionales se ofrece una nueva redefinición adaptados a un nuevo planteamiento, el que surge de la fusión de la estadística y la probabilidad, la estadística de la probabilidad o probabilidad estadística, campo desde el que la teoría de Probabilidad Imposible opera una redefinición de los tradicionales conceptos de la estadística y la probabilidad.

El Segundo Método de Probabilidad Imposible, es un método complementario y alternativo a la estadística tradicional, que en Probabilidad Imposible se llama primer método, por cuanto ha sido el primero de la historia para el estudio de la estadística y la probabilidad, aunque por separado. En Probabilidad Imposible se sintetizan, produciéndose nuevas definiciones de probabilidad estadística, dentro de la cual habrá que diferenciar entre probabilidad empírica, probabilidad teórica, probabilidad ideal, y probabilidad crítica.

De los tres modelos de probabilidad, empírica, teórica, ideal y crítica, la probabilidad cero sólo será posible en la probabilidad empírica y la crítica. En la medida que la probabilidad teórica es la inversión de N, el número de sujetos u opciones en un una muestra, la única posibilidad de que la probabilidad teórica fuera cero es que hubiera cero sujetos u opciones, de modo que entonces no habría muestra de estudio, por lo que no habría estudio que hacerse. Y en el caso de la probabilidad ideal, en los modelos omega, Ω, aquellos que de una muestra N el número de sujetos u opciones varía entre dos y N menos uno, luego la probabilidad ideal es la inversión de omega, 1/ Ω , sólo habría posibilidad de probabilidad ideal igual a cero si omega fuera cero, por lo que entonces no sería un modelo omega. Si de una N cualquiera de todos los sujetos u opciones ni tan siquiera hubiera un único sujeto u opción ideal, que al menos sería un modelo normal de sesgo positivo, siendo toda N igual de negativa o no ideal, luego el objeto de estudio fuera la reducción a cero de todas las puntuaciones directas o frecuencias, la muestra de ceros, entonces todas las probabilidades empíricas serían igual a cero. De este modo las únicas probabilidades estadísticas que admitirían probabilidad cero serían la probabilidad empírica y la probabilidad crítica.

La probabilidad crítica es el modo en que se representa la razón crítica aceptada por la política científica en estadística inferencial para el contraste de hipótesis. La lógica de la razón crítica es el producto del porcentaje de error o fiabilidad, entre cien, por la máxima tendencia empírica, en estudios de error donde la máxima tendencia empírica sea el máximo error posible, del máximo error sólo se aceptará el mínimo posible, luego la probabilidad crítica sería igual al producto del porcentaje de error, dispuestos a aceptar por la política científica, entre cien, multiplicado por la máxima tendencia empírica. Cualquier valor empírico igual o inferior a la probabilidad crítica se aceptaría. De modo que sólo habría posibilidad de probabilidad crítica igual a cero bajo el supuesto que la política científica no esté dispuesta a tolerar ni el más mínimo error en el modelo empírico, de modo que sobre un porcentaje de cero por cien de error multiplicado por la máxima tendencia empírica, la probabilidad crítica aceptada por la política científica sería igual a una razón crítica de cero errores en el modelo empírico, en el mismo instante que hiciera acto de aparición el más mínimo error en el modelo empírico sería automáticamente rechazado por la política científica, siempre y cuando la probabilidad crítica, en tanto que margen de error, sea cero.

Lo más normal es que en la crítica de cualquier modelo haya un margen de tolerancia al error, un margen de flexibilidad moral, en el que la política científica si esté dispuesta a aceptar aunque sea un mínimo margen de error, y lo más normal es que el porcentaje de error, aunque próximo a cero no sea igual a cero, aceptando un margen de error dentro del cual acepte los modelos empíricos.

De esta forma donde si es más probable encontrar probabilidad cero es en la probabilidad empírica,  el Segundo Método de Probabilidad Imposible la probabilidad empírica es igual al valor absoluto de puntuación directa de sujeto u opción entre el sumatorio de los valores absolutos de todas las puntuaciones directas o frecuencias, luego la única condición de posibilidad para que una probabilidad empírica sea cero es que la puntuación directa o frecuencia de sujeto u opción sea cero.

En un universo de opciones limitadas, una opción tendrá probabilidad empírica cero, si en la distribución de la frecuencia la opción nunca ocurre, careciendo de frecuencia en el modelo, y en un universo de sujetos u opciones infinitos un sujeto u opción tendría probabilidad empírica igual a cero si en la mensuración de la cualidad de estudio en la muestra, para  dicho sujeto u opción la puntuación directa en la escala de medida fuera igual a cero, de lo que se deduciría probabilidad empírica cero.

La probabilidad empírica cero de este modo significará o bien no ocurrencia de esa opción, en universos limitados, o bien cero manifestación de la cualidad de estudio en un sujeto u opción en universos infinitos, luego, salvo error de hecho, sería imposible la ocurrencia de esa opción, o sería imposible la manifestación de esa cualidad en ese sujeto u opción. La probabilidad empírica cero significaría en principio imposibilidad, aunque, como se explica en el apartado 7 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, recientemente actualizada en enero del2015, bajo condiciones de un verdadero universo infinito, dentro de un margen de coherencia lógica, la propia existencia actual o potencial, hasta lo imposible puede ser inevitable.

Se dirá que, salvo error de hecho, es imposible la ocurrencia de un evento cuya probabilidad empírica sea cero, o salvo error de hecho es imposible la manifestación de una cualidad si tiene probabilidad empírica cero en un sujeto u opción, por cuanto, estas posibles predicciones a la luz de la probabilidad empírica serán previsiones dentro del de error de hecho que de hecho supone aceptar la realidad. Dadas las limitaciones fisiológicas humanas, en la medida que no podemos conocer los infinitos sucesos u ocurrencias posibles, sólo conocemos la realidad parcialmente, margen de error de hecho que supone la probabilidad de error de representatividad muestral igual a la inversión de la muestra, inversión de N, 1/N, en universos de sujetos u opciones infinitos, inversión de puntuaciones directas o frecuencias, 1/∑xi, en universos de opciones limitadas.

Salvo que se cometa un error de hecho, si en una muestra un sujeto u opción, de cualquier tipo de universo, limitado o infinito, demuestra probabilidad empírica cero, sería o bien imposible la ocurrencia de esa opción, o imposible la manifestación de la cualidad de estudio en ese sujeto u opción. Si estudiamos los síntomas de una enfermedad, y los síntomas se miden en una escala de magnitud, de la que depende la puntuación directa del sujeto u opción, y después de un tratamiento médico en un paciente los síntomas desaparecen, aceptando la eficacia del tratamiento sobre un margen de error crítico del cero por cien de error, en el momento que se constatase la eficacia de la cura sobre una fiabilidad del cien por cien, sería imposible que los síntomas volvieran a aparecer, salvo por el error que de hecho supone la aceptación parcial de la realidad, la muestra , que por muy representativas que sean, las muestras sólo serán idénticas al universo dentro del margen de error igual a la inversión de la muestra.

La probabilidad cero de este modo implica imposibilidad, salvo error de hecho, y la probabilidad empírica cero en Probabilidad Imposible se llamará Mínima Probabilidad Empírica Posible, por cuanto ninguna probabilidad empírica puede ser inferior a cero, en tanto que no hay probabilidades de signo negativo. Razón por la cual en estudios donde la escala de medida de las puntuaciones directas comprendan enteros de signo negativo, el sumatorio de las puntuaciones directas, y el cociente de las probabilidades empíricas, se hará sobre el valor absoluto de las puntuaciones directas.

Mínima Probabilidad Empírica Posible = 0

Para todos los sujetos u opciones que tengan probabilidad empírica cero, su Nivel de Sesgo será igual a menos inversión de N, en la medida que si el Nivel de Sesgo es igual a probabilidad empírica menos inversión de N, y la probabilidad empírica es cero, entonces cero menos inversión de N sería igual a menos inversión de N, que en términos absolutos será inversión de N, motivo por el cual se dirá que la inversión de N es el valor absoluto del Máximo Sesgo Negativo Posible, por cuanto si cero es la Mínima Probabilidad Empírica Posible, dado que no hay probabilidades empíricas de signo negativo, sólo positivo, razón por la que de haber puntuaciones directas de signo negativo se valorarán de forma absoluta, entonces ningún Nivel de Sesgo normal de sujeto u opción puede ser inferior a menos inversión de N, en términos absolutos inversión de N, siendo inversión de N el valor absoluto del Máximo Sesgo Negativo Posible.

Máximo Sesgo Negativo Posible = /(0 – 1/N)/ = / - 1/N/ = 1/N

Dentro de los estudios de sesgo, el estudio de la tendencia de sesgo negativo de los sujetos u opciones no ideales, o cuyo ideal sea la reducción de  la puntuación directa o frecuencia, serán estudios de sesgo negativo compatibles a los estudios de sesgo positivo en modelos normales o en modelos omega.

En modelos normales por cuanto del mismo modo que se verifica la tendencia a probabilidad uno de aquel único sujeto u opción ideal de toda N, los demás sujetos u opciones, N menos unno, deberán tender a probabilidad cero, para lo cual se pueden realizar diferentes técnicas de contraste de hipótesis. E igualmente, en modelos omega, del mismo modo que los sujetos u opciones ideales comprendidos en omega tienden a la probabilidad ideal, cuyo sesgo positivo será igual al Nivel de Sesgo Ideal, probabilidad ideal menos probabilidad teórica, proporcionalmente los ideales tienden a la probabilidad ideal, los demás sujetos u opciones tenderán a probabilidad cero incrementando así su sesgo negativo.

La combinación de pruebas de contraste de hipótesis de sesgo negativo, en modelos normales de sesgo positivo y en modelos omega, se debe a la propia bondad natural por la que todo el sesgo positivo compensa  a todo el sesgo negativo y viceversa, motivo por el cual para calcular el Sesgo Total, sumatorio de los valores absolutos de los Niveles de Sesgo, dicho sumatorio debe hacerse sobre los valores absolutos, porque si no los sesgos positivos y negativos se compensarían y la suma de los sesgos sería cero. La estadística tradicional para salvar el problema de los signos en las puntuaciones directas lo que hará será el promedio del cuadrado de las puntuaciones directas, y su raíz cuadrada la Desviación Típica. En Probabilidad Imposible, dado que el verdadero objeto de estudio finalmente siempre será la dispersión, lo lógico será preservar los diferenciales de la forma más objetiva, independientemente de que originalmente los Niveles de Sesgo sean de uno u otro signo, lo importante es conservar una estimación lo más fidedigna posible de los diferenciales, por lo que se recomienda la  Desviación Media para una estimación más objetiva de la dispersión muestral.

La combinación de estudios de sesgo negativo en modelos normales para estudiar, según aquel único sujeto u opción tiende a probabilidad empírica uno, el modo en que los demás sujetos u opciones, N menos uno, tienden a probabilidad empírica cero,  o en estudios omega, el estudio de la tendencia a probabilidad empírica cero de los sujetos u opciones no ideales, conforme los sujetos u opciones ideales dentro de omega tienden a probabilidad ideal, es una combinación de estudios de sesgo negativo en modelos normales o modelos omega posible, siempre y cuando o bien en modelos normales al menos un sujeto u opción sea ideal, o halla entre dos y N menos uno sujetos u opciones ideales en omega, porque si toda N es igual de ideal entonces no hay posibilidad de sesgo negativo, sería un modelo normal de igualdad de oportunidades, o de no haber en toda N ni un solo sujeto u opción ideal, siendo todos igualmente de no ideales, o cuyo ideal fuera cero puntuación directa o frecuencia, entonces sería un caso típico de muestra de ceros, en donde lo ideal sería que todas las puntuaciones directas o frecuencias fueran cero, todos los Niveles de Sesgo normales en términos absolutos fueran igual a inversión de N, luego la Desviación Media y la Desviación Típica fueran igual a inversión de N, dándose la paradoja que en muestras de ceros, aunque el promedio del sumatorio de las probabilidades empíricas igual a cero sería un promedio igual a cero, en la medida que independientemente de cual sea su valor promedio, en condiciones normales la inversión de N es media aritmética de las probabilidades empíricas, dichas condiciones normales sólo se exceptúan bajo condiciones de muestras de ceros, en donde independientemente que las probabilidades empíricas fuesen cero, la dispersión, individual y muestral sería en términos absolutos igual a inversión de N, dado que lo que realmente mide la dispersión en el Segundo Método de Probabilidad Imposible es la dispersión del comportamiento empírico en relación a la probabilidad teórica de ocurrencia al azar en igualdad de oportunidades, inversión de N, 1/N, dándose además la circunstancia añadida que normalmente la inversión de N, 1/N, es media aritmética de las probabilidades empíricas, salvo para la muestra de ceros.

La probabilidad cero, en cualquier tipo de universo, significará siempre Probabilidad Imposible, salvo error de hecho, ya bien que un modelo empírico sobre una razón crítica que sólo acepte cien por cien de fiabilidad, cero por cien de error, se verifique un modelo empírico igual a probabilidad crítica en tanto que margen de error igual cero, luego Probabilidad Imposible de error de mantenerse las condiciones que han permitido dicho nivel de fiabilidad. O en probabilidades empíricas igual a cero, Probabilidad Imposible de ocurrencia de la opción, o Probabilidad Imposible de manifestación de una cualidad en un sujeto cuya puntuación directa es igual a cero.

La probabilidad cero tanto en probabilidad crítica como probabilidad empírica significará Probabilidad Imposible, en un caso Probabilidad Imposible de error, en el otro, de ocurrencia o manifestación de una cualidad, ahora bien, como se ha mencionado, dicha Probabilidad Imposible será imposible dentro de la aceptación de un error de hecho, la probabilidad de error de representatividad de la muestra, igual a la inversión de la muestra, lo cual quiere decir, que en caso que ese margen de error, por mínimo que sea, se materializase, porque no se han recogido todas la ocurrencias posibles, las cuales pueden tender a infinito, por ejemplo los infinitos lanzamientos de una moneda,  o no se han recogido suficientes sujetos u opciones en la muestra, entonces, aquello que se creía Probabilidad Imposible puede ser sin embargo inevitable.

Lo imposible es inevitable dentro de un margen de coherencia lógica, tal como se explica en el apartado 7 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística. Ante la falta de conocimiento de lo que puede suceder un verdadero universo infinito en todas sus dimensiones, lo imposible en el infinito puede ser posible. Identidad dialéctica entre lo imposible y lo inevitable dentro del margen de error de lo que hasta ahora conocemos, tan sólo una mínima muestra de la historia universal.

Rubén García Pedraza, Madrid 2015

 

 

sábado, 11 de abril de 2015

Objeto de estudio


El objeto de un estudio responde a la pregunta qué se estudia, sobre lo que se centra la investigación, sintetizado en el título de la investigación, y en torno a lo cual gira el tema principal y los secundarios . Si estudiamos la composición química de la atmosfera, o estudiamos la tendencia de voto previa a unas elecciones, o estudiamos la estructura gramatical de una lengua, eso sobre lo que se centra el estudio es el objeto. En los modelos que utilicen el método hipotético deductivo en ciencias sintéticas el objeto se sintetizará en la hipótesis empírica.

La denominación de objeto de estudio al tema principal de la investigación en ningún momento significa que deba tratarse de un objeto físico, en cierto modo esta denominación de objeto de estudio responde a la reminiscencia de la dialéctica objeto y sujeto que aun permanece en la ciencia heredada de la dialéctica hegeliana, se entiende que el sujeto de la investigación es el científico, y el objeto es aquello que el científico estudia.

La clasificación de los objetos de estudio depende de los criterios que se utilicen, en Probabilidad Imposible los criterios que se utilizan para definir el objeto de estudio son los siguientes, en cierto modo herencia del racionalismo crítico, diferenciando entre los objetos de estudio de  las ciencias analíticas, y los posibles objetos de estudio de las ciencias sintéticas.

Los objetos de estudio de las ciencias analíticas son por lo general abstractos, centrados en estructuras lógico-matemáticas o lingüísticas, ya sea para su comprensión o desarrollo. Por ejemplo, estudios para el desarrollo de nuevos métodos y códigos matemáticos, o en humanidades el análisis de la estructura gramatical de una lengua, o aplicación de sus estructuras a lenguas ya existentes, o creación de nuevos lenguajes o adaptación de estructuras ya existentes a nuevos códigos de comunicación. Un ejemplo claro, aplicación de la lógica de los pictogramas a los nuevos códigos simbólicos de la nueva cultura escrita cibernética, por ejemplo uso de emoticonos en redes sociales.

Las ciencias analíticas, en cierto sentido legado del positivismo lógico, son aquellas que tienen por objeto el análisis formal del lenguaje, ya se trate de lenguajes lógico-matemáticos o lingüisticos, lenguas antiguas o modernas, e incluso, desde una perspectiva más surrealista o postmoderna, se podría incluir el análisis del arte. Dentro de las ciencias analíticas los modelos cualitativos utilizan  los métodos interpretativos, mientras los cuantitativos se centran en el desarrollo de la lógica y las matemáticas, desarrollos de los cuales pueden surgir métodos aplicables a las ciencias sintéticas, por ejemplo la estadística y la probabilidad.

Las ciencias sintéticas son aquellas cuyo objeto de estudio  no es formal, es empírico, si bien el esquema de interpretación de los hechos puede ser susceptible de interpretación hermenéutica dentro de los modelos cualitativistas, los modelos cuantitativistas se centrarán en el analisis lógico-matemático de los hechos empíricos, de lo que se deducirán proposiciones sintéticas, síntesis de elementos formales y materiales. Los modelos cuantitativistas a su vez se clasificarían en inductivistas y deductivistas, y dentro de estos últimos el objeto de estudio sería identificado en la hipótesis empírica que sería el verdadero objeto de contraste en las pruebas.

Probabilidad Imposible es una teoría dentro del campo de la estadística de la probabilidad o probabilidad estadística que estará centrada en el desarrollo analítico y aplicación sintética de la estadística y la probabilidad, y dentro de la aplicación sintética orientada tanto a estudios descriptivos e inferenciales para la crítica racional de la hipótesis empíricas.

El método analítico de Probabilidad Imposible para el desarrollo de proposiciones analíticas será el silogismo de la tendencia, cuando el objeto de estudio sea el desarrollo mismo de la estadística de la probabilidad o probabilidad estadística en tanto que disciplina o campo de la matemática. Una proposición analítica deducida del análisis lógico de la tendencia de inversión de N en relación a N, es que conforme N tienda a infinito la inversión de N tiende a cero.

A partir del desarrollo analítico de la estadística de la probabilidad o probabilidad estadística, en Probabilidad Imposible se crea una serie de métodos aplicables a las ciencias sintéticas,  la creación de métodos sintéticos donde se aplique el análisis lógico de la tendencia a hechos empíricos, el Segundo Método, estudios de ranking, el Impacto del Defecto, y la Distribución Efectiva, que tienen por objeto la descripción de la realidad, y a un nivel superior la inferencia, la validación de proposiciones sintéticas en forma de hipótesis empírica.

Cuando en ciencias sintéticas el objeto de estudio sea la descripción de una determinada realidad, natural o social, en los estudios descriptivos que no partan de ninguna hipótesis previa, el objeto de estudio será simplemente la identificación de la tendencia de las muestras extraídas del universo. Una vez extraída una tendencia, y en síntesis a las teorías y modelos previos del paradigma del científico o equipo científico, de la síntesis entre la descripción y las ideas previas se deduce la hipótesis empírica, que explique lo observado, hipótesis que para ser aceptada racionalmente, de modo universal y provisional, deberá superar las pruebas de contraste de la crítica racional.

Dado que Probabilidad Imposible parte de una metodología cuantitativa hipotético deductiva  el objeto de la investigación, el tema central del estudio, se sintetiza en la hipótesis empírica, para su validación lógico-matemática, la hipótesis deberá explicar la tendencia a someter a prueba para su aceptación, de este modo el verdadero objeto de estudio será la definición de la tendencia en la descripción,  la deducción de la hipótesis a partir de la descripción empírica y las premisas previas del paradigma, y finalmente comprobar que dicha hipótesis sea al menos provisionalmente correcta para todo el universo.

En cualquier caso, ya sea en la fase inicial de la investigación, la descripción, o la fase superior de la investigación, la inferencia, en cualquiera de sus fases el objeto de estudio será la tendencia, en la fase inicial para identificar la tendencia, en fase final para, a partir de la hipótesis producto de la síntesis entre lo observado y las ideas previas, poner a prueba la hipotética explicación de la tendencia.

De este modo, en estadística de la probabilidad o probabilidad estadística, en todas las ciencias sintéticas en donde se aplique el Segundo Método, el verdadero objeto de estudio siempre será el estudio de la tendencia, motivo por el cual, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, especialmente desde el apartado 10, siempre que se haga mención al objeto de estudio se referirá a los distintos tipos de tendencia posible en una muestra y el universo, en modelos normales, estudios de igualdad o sesgo, positivo o negativo, y en modelos omega la tendencia a la probabilidad ideal por aquel conjunto definido de sujetos u opciones ideales integrados en el subconjunto omega dentro de N, que para ser verdaderamente un subconjunto de N será superior a uno e inferior N.

La tendencia a igualdad de oportunidades es cuando el ideal definido a priori por la política científica en la hipótesis empírica, es la tendencia de todas las probabilidades empíricas de todos los sujetos u opciones por igual a lo que sería un verdadero comportamiento en igualdad de oportunidades, definido en probabilidad estadística por inversión de N, 1/N, la probabilidad teórica de ocurrencia en igualdad de oportunidades por azar.

En la medida que en estudios de igualdad los ideal sería la tendencia de las probabilidades empíricas a inversión de N, la dispersión tendería a descender, a nivel individual por un descenso generalizado en los Niveles de Sesgo, a nivel muestral un descenso en la Desviación Media o Desviación Típica.

De modo que en los contrastes de hipótesis para la verificación de si realmente se ha producido el descenso en la dispersión los Niveles de Sesgo individuales deberían ser iguales o inferiores a un margen de error, Validez de Igualdad, y a Nivel Crítico Muestral de Igualdad, la Desviación Media o Típica igual o inferior a un margen de error.

En los estudios de sesgo positivo, aquellos donde para que se alcanzase el Máximo Sesgo Teórico Posible sería necesario que de toda N sólo hubiera un único sujeto u opción que acumulase todas las puntuaciones directas o frecuencias. Por ejemplo, que en un examen tipo test de respuesta múltiple, todos los alumnos respondiesen sin fallar a todas las cuestiones seleccionando siempre la respuesta correcta, de modo que si por cada item sólo se selecciona la opción correcta, la frecuencia de las opciones correctas sería igual a la frecuencia total, o en unas elecciones democráticas toda la población sin excepción alguna votase al mismo candidato, que en tal caso acumularía el total de votos de toda la población. En tales casos, si de toda N sólo hay un sujeto u opción que tiene puntuación directa o frecuencia distinta de cero, y todos los demás sujetos u opciones  puntuación directa o frecuencia igual a cero, se cumplirían las condiciones necesarias para que se diera la Máxima Desviación Media Teórica Posible o Máxima Desviación Típica Teórica Posible, luego si en un modelo normal de sesgo positivo lo ideal es que de toda N sólo un sujeto u opción acumulara todo el sesgo positivo, la verificación de esta hipótesis se verificaría analizando la dispersión, ya sea porque el Nivel de Sesgo del sujeto u opción ideal es igual o superior a un margen de fiabilidad, Validez de Sesgo Positivo, o la Desviación Media o Desviación Típica son iguales o superiores a un margen de fiabilidad, Nivel Muestral Crítico de Sesgo.

Los estudios de sesgo positivo se pueden compatibilizara a su vez con los estudios de sesgo negativo, dado que proporcionalmente aumente el sesgo positivo del aquel único sujeto u opción ideal, debería crecer el número de sujetos u opciones que tuvieran sesgo negativo, para lo cual dichos sujetos u opciones deberían disponer de un Nivel de Sesgo negativo igual o superior a un margen de fiabilidad, Validez de Sesgo Negativo.

En los modelos omega, que en una N superior a dos halla un subconjunto de sujetos u opciones definidos ideales por la política científica, por ejemplo, en una encuesta sobre hábitos de vida que por cada ítem halla más de una opción adecuada, o en unas elecciones que más de un candidato o delegado fuese ideal para una corriente política siendo deseable el aumento en votos por igual, o cualquier otra situación análoga, que en una N superior a dos halla al menos más de un sujeto u opción, aunque no toda N, que se quisiera aumentar por la probabilidad empírica, sería una situación que se ajusta a un modelo omega, en tales casos lo ideal sería la tendencia de los sujetos u opciones comprendidos en omega hacia la probabilidad ideal, inversión de omega, 1/Ω, lo cual se validaría en la Validez de Omega, que el Nivel de Sesgo relativo a omega, probabilidad empírica menos probabilidad ideal, sea igual o superior a un margen de fiabilidad, y a Nivel Muestral Omega

La Validez de Igualdad, la Validez de Sesgo Positivo y Sesgo Negativo, la Validez Omega, el Nivel Muestral Crítico de Igualdad, el Nivel Muestral Crítico de Sego, y el Nivel Muestral Omega, se explican en el apartado 11 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, recientemente actualizada en enero del 2015 incluyendo valoraciones sobre el tratamiento estadístico de puntuaciones directas de signo negativo. Además de los diferentes tipos de Validez y Niveles Muestrales, en el apartado 11 se incluyen diferentes modelos de crítica racional intramedicional, desde Proporciones Críticas, y Probabilidad de Iguadad o Sesgo Positivo o Negativo, y diferentes modelos para contratar la fiabilidad de la selección muestral. Y en el apartado 15 la adaptación del Sesgo Punto a la crítica racional de las puntuaciones típicas. En los apartados 16-20 los diferentes modelos de crítica racional intermedicional.

El verdadero objeto de estudio en la teoría de Probabilidad Imposible, en el estudio del campo de la estadística de la probabilidad o probabilidad estadística, es el estudio de la tendencia, siendo la tendencia la forma en que se manifiesta el comportamiento de los sujetos u opciones en la muestra, que se manifiesta en forma de dispersión. A menor dispersión mayor tendencia a igualdad de oportunidades, a mayor dispersión mayor sesgo, el sesgo puede ser positivo o negativo, si es el aumento del sesgo de los sujetos u opciones ideales es sesgo positivo, y lo ideal es aumentar el sesgo positivo, distinguiendo dos situaciones, o bien que dentro de N sólo hubiera un único sujeto u opción ideal, entonces el modelo tenderá a la máxima dispersión empírica en modelos normales conforme el sujeto u opción tienda al Máximo Sesgo Teórico Poisble, o de toda N halla un grupo de sujetos u opciones ideales superior a uno pero inferior a N, que en tal caso deberían tender a la probabilidad ideal, luego dispersión ideal.

De este modo en el momento que se define que el objeto de estudio es la tendencia, y la tendencia se define en función de la dispersión, según disminuya o aumente en coherencia a los ideales de la política científica, finalmente el objeto de estudio es el estudio de la dispersión de las probabilidades estadísticas.

 

Rubén García Pedraza, Madrid 2015

sábado, 28 de marzo de 2015

Probabilidad uno


La probabilidad uno es la máxima probabilidad de cualquier suceso. En la medida que la probabilidad es un estimador racional  del grado de posibilidad de un hecho,  siendo racional por cuanto se define por un número racional, una razón matemática en forma de cociente.

Dicha razón es definida por la estadística clásica como número de casos favorables entre todos los casos posibles, de modo que el resultado sólo puede variar entre cero y uno, cero sería la menor probabilidad posible asociada a  evento cualquiera, y uno significaría determinación o certidumbre, pase lo que pase, un suceso que tuviera asociada una probabilidad igual a uno, sucedería siempre.

En el Segundo Método de Probabilidad Imposible para el estudio del campo de la estadística de la probabilidad o probabilidad estadística, supone una redefinición de conceptos tradicionales, se definen diferentes tipos de probabilidades, empíricas, teóricas, o ideales.

De todas las probabilidades estadísticas mencionadas, las únicas susceptibles de poder llegar a ser probabilidad uno serían la probabilidad empírica y la probabilidad crítica.

En el caso de la probabilidad crítica, dado que en Probabilidad Imposible se calcula sobre el producto de un porcentaje X de error o fiabilidad por una máxima tendencia empírica,  una probabilidad crítica igual a uno sólo sería posible en estudio de fiabilidad y si la máxima tendencia  empírica fuera a su vez igual a uno, lo cual depende del modelo. Si la máxima tendencia posible de un modelo empírico es la unidad, el producto de la unidad por el máximo porcentaje X de fiabilidad, cien por cien de fiabilidad, entre cien, sería igual a probabilidad crítica igual a uno, de forma que sólo se aceptaría el modelo empírico siempre que fuera igual al su máxima tendencia.

p(xc) = X : 100

X= porcentaje de fiabilidad

Un ejemplo de modelo empírico cuya máxima tendencia puede ser igual a uno es de hecho la probabilidad empírica, a  la que se puede criticar directamente a través del Nivel de Sesgo Crítico. Para aquellos modelos cuya máxima tendencia no necesariamente es igual a uno, su máxima tendencia por 100 por cien de fiabilidad entre cie no necesariamente es igual a la unidad. La estimación crítica de la fiabilidad dependerá de la máxima magnitud de la tendencia, por ejemplo, en Máximo Sesgo Teórico Posible.

En cualquier caso en los estudios de fiabilidad lo más normal es que, salvo que por alguna razón no de debiera permitir el más mínimo error, lo más normal es aceptar un margen de error por mínimo que sea, luego se acepten márgenes de fiabilidad algo inferiores al cien por cien, de modo que el producto de ese margen de fiabilidad por la tendencia máxima, sería la razón crítica, de modo  que cualquier modelo empírico igual o superior a razón crítica se acepta.

En los estudios de error en cualquier caso, lo ideal sería siempre, sobre la máxima tendencia empírica aceptar la menor tendencia posible, en tanto que cualquier signo de tendencia sería interpretada error, de modo que el menor error posible sobre la tendencia sería igual a cero por cien de error, entre cien, por la máxima tendencia, igual a cero, aunque lo más normal es que la razón crítica establezca márgenes de error más flexibles, aceptando un margen de error, aunque lógicamente el menor posible, de modo que cualquier tendencia empírica igual o inferior a margen de error se acepta.

Los diferentes modelos de probabilidad crítica para estudios intramedicionales se explican desde el apartado 11 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, recientemente actualizada en enero del 2015 para incluir valoraciones sobre el tratamiento estadístico de puntuaciones directas de signo negativo. En este blog sólo se ha explicado una mínima parte de los diferentes tipos de prueba que hay para este tipo de estudios.

La probabilidad empírica es uno de esos modelos empíricos susceptibles de que su máxima tendencia sea igual a uno, y en el Segundo Método de Probabilidad Imposible la definición de probabilidad empírica de sujeto u opción es igual al valor absoluto de la puntuación directa o frecuencia entre el sumatorio de los valores absolutos de todas las puntuaciones directas o frecuencias, de modo que la única forma de que hubiera probabilidad empírica igual a uno es que de toda la muestra sólo un sujeto u opción particular fuera distinto de cero, luego aquel único sujeto u opción particular acumulara toda la puntuación directa o frecuencia de la muestra, que su puntuación directa o frecuencia fuera igual al sumatorio de todas las puntuaciones directas o frecuencias de toda la muestra, o lo que es lo mismo, que la probabilidad empírica de los demás sujetos u opciones fuera igual a cero, salvo la de ese único sujeto u opción distinto de cero.

En el caso de los universos de opciones limitadas si una probabilidad empírica de un sujeto u opción es igual a uno es porque la frecuencia de ese sujeto u opción es igual a la frecuencia total, la frecuencia de ese sujeto u opción acumula el total de la frecuencia. En los universos de sujetos u opciones infinitos para que la probabilidad empírica de sujeto u opción fuera igual a uno sería necesario que la puntuación directa de ese único sujeto u opción fuera distinta de cero, siendo para el resto de sujetos u opciones igual a cero.

Dado que el valor de ninguna probabilidad empírica puede ser superior a uno, a lo máximo igual a uno, en tanto que la probabilidad es una magnitud de posibilidad que oscila entre cero y uno, a la probabilidad empírica igual  a uno en Probabilidad Imposible se llamará Máxima Probabilidad Empírica Posible, por cuanto no son posibles probabilidades empíricas superiores a la unidad.

Máxima Probabilidad Empírica Posible = 1

La condición de posibilidad para que en un modelo se dé la Máxima Probabilidad Empírica Posible es que de toda N sólo un sujeto u opción sea distinto de cero, de modo que bajo estas condiciones ese único sujeto u opción distinto de cero tendría la Máxima Probabilidad Empírica Posible, de modo que en tal caso, siendo el Nivel de Sesgo igual a la diferencia de probabilidad empírica menos teórica, el Máximo Sesgo Teórico Posible sería igual a la diferencia de la unidad menos inversión de N, 1/N, que sí realmente se da bajo condiciones de máxima tendencia de aquella única probabilidad empírica distinta de cero, entonces el Nivel de Sesgo, de aquella única probabilidad empírica distinta de cero, igual a Máximo Sesgo Teórico Posible, debería ser un sesgo a su vez igual al Máximo Sesgo Empírico Posible, definiéndose el Máximo Sesgo Empírico Posible igual al cociente de Sesgo Total entre dos, siendo el Sesgo Total igual al sumatorio de los valores absolutos de todos los Niveles de Sesgo.

Maximo Sesgo Teórico Posible = 1 – 1/N

Máximo Sesgo Empírico Posible = ∑ /( p(xi) – 1/N)/ : 2

Sesgo Total = /( p(xi) – 1/N)/

Las únicas condiciones bajo las cuales el Nivel de Sesgo de un sujeto u opción fuera igual al Máximo Sesgo Empírico Posible, es que su Nivel de Sesgo fuera igual a Máximo Sesgo Teórico Posible, igual a unidad menos inversión de N, 1/N, de modo que fuera el único sujeto u opción en toda la muestra que dispusiera de sesgo positivo, por lo que todos los demás sujetos u opciones, iguala N menos uno, tuvieran sesgo negativo, y la suma de todos los Niveles de Sesgo negativos de todos los demás sujetos u opciones, N menos uno, fue a igual al producto de inversión de N, 1/N por N menos uno, producto que necesariamente a su vez tiene que ser igual al Máximo Sesgo Teórico Posible, uno menos inversión de N.

1 – 1/N = 1/N · ( N – 1) = ∑ / ( p(xi) – 1/N) : 2

Valor absoluto del Máximo Sesgo Negativo Posible = 1/N

El motivo por el cual, bajo condiciones de máxima tendencia de un sujeto u opción a la Máxima Probabilidad Empírica Posible, la suma de todos los demás sesgos negativos asociados a las probabilidades empíricas igual a cero, suma igual a inversión de N por N menos uno, sería igual al Máximo Sesgo Teórico Posible, se debe a que por la propia bondad natural del azar, en la naturaleza siempre, bajo cualquier circunstancia, todos los sesgos positivos compensan a todos los sesgos negativos y viceversa, salvo en muestras de ceros, de modo que siempre la suma de sesgos negativos es idéntica a la suma de sesgos positivos, razón por la que en Desviación Media se calcula el sumatorio de los Niveles de Sesgo en valor absoluto, dado que de lo contrario el sumatorio sería igual a cero, razón por la cual, de haber en toda N un solo Nivel de Sesgo positivo, necesariamente ese único Nivel de Sesgo positivo debe ser suficiente para compensar a todos los Niveles de Sesgo negativo, de modo que el Máximo Sesgo Teórico Posible sería igual a Máximo Sesgo Empírico Posible, igual a Sesgo Total entre dos, bajo condiciones de máxima dispersión, que de toda N sólo una probabilidad empírica sea distinta de cero.

En caso de darse una situación de esta naturaleza, lógicamente, la dispersión muestral, la Desviación Media o Desviación Típica, sólo puede tender a Máxima Desviación Media Teórica Posible, o Máxima Desviación Típica Teórica Posible.

La importancia de conocer cuales son las máximas tendencias empíricas, Máxima Probablidad Empírica Posible, Máximo Sesgo Teórico Posible, Máximo Sesgo Empírico Posible, Máxima Desviación Media Teórica Posible, Máxima Desviación Típica Teórica Posible, es como sobre las máximas tendencias empíricas la razón crítica de la política científica puede establecer los márgenes de error o fiabilidad para el contraste de hipótesis a través de probabilidades críticas suficientemente rigurosas, como para poner a prueba las hipótesis en la crítica racional.

Cuando en un modelo lo ideal es que de toda N sólo un único sujeto u opción tuviera probabilidad empírica igual a cero, para que tienda a Máxima Probabilidad Empírica Posible, se dirá que es un modelo normal de sesgo positivo, a diferencia de los modelos omega, Ω,  que dentro de N comprenden un conjunto de sujetos u opciones ideales denominado omega, en donde la magnitud de omega, Ω,  número de sujetos u opciones ideales, debe ser un número de ideales superior a uno e inferior a N, de modo que lo ideal es que los sujetos u opciones ideales tiendan a inversión de omega, 1/Ω, que sería la probabilidad ideal, motivo por el cual la probabilidad ideal en modelos omega,  nunca puede ser igual a uno, dado que no se dan condiciones de máxima dispersión posible, de ser la probabilidad empírica de todos los sujetos u opciones definidos ideales igual a probabilidad ideal, la dispersión tendería dispersión ideal, Desviación Media Ideal o Desviación Típica Ideal.

En el caso de la probabilidad teórica, 1/N, en la medida que es un estadístico de tendencia central, media aritmética de las probabilidades empíricas, salvo en muestras de ceros, y probabilidad teórica de ocurrencia el azar  en igualdad de oportunidades, la inversión de N, 1/N, nunca podrá ser igual a uno, por cuanto N siempre será superior a uno, siempre que realmente sea un modelo estocástico.

Cuando la probabilidad empírica de un sujeto u opción es igual a uno, entonces hay certeza de la ocurrencia de su fenómeno. Si lanzamos una moneda al aire, y esta trucada de modo que siempre sea favorable a cara, o a cruz, salvo por cualquier otro error de hecho, y la probabilidad empírica de cara es uno y la de cruz es cero, o viceversa, cruz igual uno y cara igual a cero, salvo que dichas condiciones que provocan el sesgo en la moneda varíen por algún error de hecho desconocido, de lanzar la moneda habría certidumbre de obtener cara si la probabilidad de cara fuera uno, o certidumbre de obtener cruz si la probabilidad de cruz fuera uno, de modo que la probabilidad uno implicaría certidumbre, aunque, dentro de un margen de error de hecho.

En Probabilidad Imposible se llama error de hecho al propio error que de hecho supone aceptar la realidad, porque en la medida que sólo conocemos partes de la realidad, muestras de una realidad cuya verdadera naturaleza en sí o pura desconocemos, el error de hecho será siempre igual a la inversión de la magnitud de la muestra. En universos de sujetos u opciones infinitos la probabilidad de error de representatividad muestral será igual a inversión de N, 1/N, en universos de opciones limitadas la probabilidad de error de representatividad muestral será igual a la inversión de las puntuaciones directas o frecuencias, 1/∑i. De modo que salvo dentro del error de hecho, que de hecho supone aceptar una realidad parcial sobre márgenes de incertidumbre proporcionales a la inversión de la muestra, habría certeza de ocurrencia de un fenómeno siempre y cuando su probabilidad empírica fuera igual a uno.

La lógica de la inversión de N en relación a la dispersión teórica, y el error de hecho, en universos de sujetos u opciones infinitos, se explica en el apartado 5, y para universos de opciones limitadas en relación a las puntaciones directas o frecuencias en el apartado 9,de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Los fenómenos en que se pueda dar la circunstancia de tendencia a Máxima Probabilidad Empírica Posible, probabilidad uno, habría que estudiarlos, en Probabilidad Imposible, dentro de los estudios de sesgo, en los que se encuentran los estudios de sesgo positivo. Para la validación de una verdadera tendencia del sesgo positivo de dicho fenómeno habría que realizar pruebas de contraste de hipótesis, a nivel individual y a nivel muestral, para verificar que dicha tendencia es suficientemente fiable.

 

Rubén García Pedraza, Madrid 2015

 

 

sábado, 7 de marzo de 2015

Tipos de estudio

Estudio es todo procedimiento para la adquisición de nuevo conocimiento. Hay dos grandes tipos, en función sea científico, para la adquisición de nuevo conocimiento para la humanidad, o aprendizaje, si es para la mejora de conocimientos individuales sobre los adquiridos a lo largo de la historia.

A los métodos científicos se les denomina heurísticos y son estudiados por la filosofía de la ciencia, la epistemología, y la metodología, que a su vez dependen de la gnoseología, teoría del conocimiento.

Cuando Probabilidad Imposible hace mención a los tipos de estudio se hace siempre referencia a los científicos, entre los que se integra la estadística y la probabilidad en estudios descriptivos o inferenciales.

Los tipos de estudio se clasifican en función de diferentes criterios, desde el punto de visa de la gnoseología, teoría del conocimiento, a lo largo de la filosofía se observan desde paradigmas idealistas, racionalistas, racionalistas críticos, y muchas de las actuales tendencias fenomenológicas, hermenéuticas, interpretativas, según los cuales el origen del conocimiento son los esquemas  mentales, sean individuales o compartidos socialmente a través de los significados, de los que depende la comprensión, frente las filosofías empiristas, materialistas, positivistas, que defienden que el origen conocimiento es la percepción, o en el materialismo dialéctico la praxis para la transformación social, y en el positivismo lógico la actividad científica para la explicación de la realidad.

En función de las diferentes escuelas filosóficas, y diferentes concepciones de la teoría del conocimiento, habrá diferentes epistemologías sobre el modo concreto de hacer ciencia, y diferentes metodologías, diferencias en función de las cuales dependerá la definición de qué es ciencia, qué es estudio científico, y la metodología, y teleología última si la tiene, de la ciencia, o la relación entre ciencia, ideología, y política.

Dentro de los diferentes métodos de estudio atendiendo al criterio metodológico, una distinción tradicional ha sido la clasificación entre métodos cualitativos, basados en la interpretación de los significados y los símbolos, y cuantitativos, basados en métodos lógico-matemáticos, dentro de los cuales se diferencian entre los métodos inductivos y los hipotético deductivos.

A su vez también hay otras clasificaciones de tipos de estudio atendiendo al método según utilicen el método experimental, el método comparado, el método histórico, el método  estocástico, o de  ensayo error. Y dentro de cada método a su vez subclasificaciones, muchas dependientes de la distinción entre cuantitativismo y cualitativismo, por ejemplo defensores de una u otra metodología, cuantitativa o cualitativa, en el modo de entender la comparación, análisis histórico de los constructos y tendencias sociales, habiendo otros métodos estrictamente cuantitativos, como el método experimental.

Mientras entre los métodos cualitativos abundan todo tipo de métodos más o menos con una raíz común, la importancia de las estructuras mentales o constructos sociales en la comprensión de la realidad, en los métodos cuantitativos hay una mayor presencia de paradigmas que dan mayor relevancia a percepción de hechos sensibles, de cuya mensuración dependen las mediciones a las que aplicar métodos lógico-matemáticos para una explicación objetiva de lo que ocurre.

Probabilidad Imposible en tanto que teoría de la estadística de la probabilidad o probabilidad estadística, aquel campo de conocimiento dedicado al estudio de la aplicación estadística a la probabilidad, y de la probabilidad a la estadística, síntesis de estadística y probabilidad, desarrolla métodos, analíticos y sintéticos, dentro de la lógica matemática. El método analítico será el silogismo de la tendencia, el análisis lógico de la tendencia, y los métodos sintéticos variarán en función del Segundo Método,  basado en la distinción entre probabilidad empírica y probabilidad teórica, los estudios de ranking, el Impacto del Defecto, y la Distribución Efectiva, explicados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.  Segundo Método apartado 5, Impacto del Defecto apartado 21, Distribución Efectiva apartado 22.

En el caso del Segundo Método la clasificación de los tipos de estudio obedecerá a diferentes criterios, según  tipo de universo, si es un estudio descriptivo o inferencial, el tipo de modelo, el objeto de estudio, y en el caso concreto de los estudios inferenciales en función se clasifiquen los márgenes en la probabilidad crítica según sean estudios de error o fiabilidad, y la selección de la prueba estadística de contraste de hipótesis para la crítica racional de la tendencia observada en la muestra, diferenciándose entre estudios de una medición, intramedicionales, o intermedicionales, en donde las comparaciones pueden ser intraindividuales, o interindividuales.

En función del tipo de universo en Probabilidad Imposible se distinguen dos tipos de universos, universos de sujetos u opciones infinitos, y universos de opciones limitadas, este último explicado en el apartado 9 de Introducción ala Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Los universos de opciones limitadas son aquellos en donde lo que se va a estudiar es la distribución de la frecuencia entre las opciones que limiten el estudio, en donde el número de opciones será la muestra N de opciones, muestra N previamente predeterminada, ya sea por el modelo en sí, la propia limitación natural o social del número de opciones, o sea una predeterminación de la variable N dependiente de la política científica.

Un ejemplo de limitación material de las N opciones es cuando lanzamos una moneda, las opciones materialmente se limitan a cara o cruz, o que materialmente el género de un ser humano sólo puede ser definido por dos opciones, hombre o mujer, salvo por error hermafrodita, al igual que por error al caer la moneda podría no ser ni cara ni cruz en caso de sostenerse justo en el borde de la moneda, casos excepcionales que se incluirían en el margen de error. Modelos de opciones socialmente predeterminados, por ejemplo, que el estado civil sólo puede ser soltero, casado, divorciado, viudo, o si hubiera que clasificar una muestra de trabajadores en función de categorías laborales, las categoría laborales reconocidas legalmente actuarían de modelo de opciones sociales predeterminadas.

En caso que la magnitud N de opciones no esté predeterminado material o socialmente, puede ser una magnitud N predeterminada por la política científica. Si en un estudio de categorías discretas la magnitud N es el número total de categorías discretas, la variable N dependerá del número de categorías discretas que establezca la política científica.

En los universos de opciones limitadas, la muestra de opciones será la muestra N de opciones limitadas, ya bien porque el modelo natural o social así lo determine, o sea una distribución de las opciones en forma de categorías discretas predeterminadas por la política científica. Cual sea la razón de la limitación del estudio a N opciones, lo que se estudiará será la distribución de la frecuencia entre las opciones, de modo que la probabilidad empírica será igual a la frecuencia individual entre la total. Será el estudio del comportamiento de la frecuencia de las opciones limitadas.

En los universos de sujetos u opciones infinitos lo que se estudiará será el comportamiento de la puntuación directa de los sujetos u opciones, en donde se aplicará la teoría de la probabilidad al estudio estadístico de los sujetos en tanto que opciones, de modo que la probabilidad empírica de los sujetos del estudio en tanto que opciones será igual a su puntuación directa entre sumatorio de las puntuaciones directas. En caso de estudios de universos de sujetos u opciones infinitos que usen escalas de medida que incorporen valores negativos, las operaciones para el cálculo de probabilidades empíricas se hará sobre el valor absoluto de las puntuaciones directas, tal como se explica en la nueva actualización de enero del 2015 de Introducción ala Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Para el estudio de un universo infinito lo que se extraerá será una muestra, el número de sujetos u opciones de la muestra será la muestra N, que para ser representativa deberá ser de magnitud suficiente y seleccionada al azar, salvo en los estudios de poblaciones, en donde la población será directamente la muestra, incorporándose en los universos de sujetos u opciones infinitos, porque cualquier población no es más que una muestra del comportamiento de esa población en la historia, la cual a falta de nada que lo contradiga, cabe sospecha que pueda ser infinita, o en cualquier caso, una medición del comportamiento de la muestra entre las infinitas mediciones que se podrían hacer a lo largo de su historia.

Los estudios de sujetos u opciones estudian el comportamiento de los sujetos u opciones en el universo y la historia, entendiendo por historia todo lo que sucede en el espacio tiempo.

Ya sea el estudio de un universo limitado, natural o socialmente, o limitado por la política científica, o el estudio de un universo infinito, el estudio puede ser descriptivo, una descripción de la tendencia, o inferencial, que implicaría el uso del método hipotético deductivo para la aceptación que una hipótesis empírica.

En los estudios descriptivos en estadística de la probabilidad o probabilidad estadística, Probabilidad Imposible, se emplean estadísticos individuales y estadísticos muestrales, dentro de los individuales, además de probabilidad empírica y probabilidad teórica, el Nivel de Sesgo y la identificación de las diferentes tendencias, que probabilidad empírica es la máxima, que probabilidad empírica es la mínima, o el cálculo de la probabilidad intermedio, dividir entre dos la suma de la máxima y la mínima. A nivel muestral la tendencia de la muestra vendría descripta por la Desviación Media o Típica, pudiéndose calcular el Máximo Sesgo Empírico Posible, y la Máxima Desviación Media Teórica Posible y Máxima Desviación Típica Teórica Posible.

En el caso que el estudio, en cualquier clase de universo, infinito o limitado, no sólo pretenda describir, pretenda inferir una hipótesis, entonces es un estudio inferencial, en donde en Probabilidad Imposible cabe distinguir dos modelos, modelos normales, aquellos en donde la  dispersión oscila entre cero y máxima, y modelos omega, en donde sobre una N superior a dos, hay una magnitud de sujetos u opciones ideales, subconjunto omega, Ω, dentro de N, superior a dos e inferior a N.

Los modelos normales se explican en Introducción ala Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, desde el apartado 11 al 19, y los modelos omega en el aparado 11 sólo para estudios intramedicionales, y apartado 20 para estudios intermedicionales.

En los modelos normales, donde la oscilación varía entre cero y máxima, el objeto de estudio se clasifica en igualdad de oportunidades o sesgo, sea positivo o negativo. Se dice que un estudio es de igualdad de oportunidades, cuando el objeto de estudio es el incremento de la tendencia de la probabilidad empírica de todo sujeto u opción a probabilidad teórica de ocurrencia en igualdad de oportunidades, inversión de N, teniendo por objeto la reducción de la dispersión empírica. En caso que el objeto de estudio sea el incremento de la dispersión se llamará estudio de sesgo, diferenciándose en modelos normales entre estudio de sesgo positivo y estudio de sesgo negativo. Se llamará estudio de sesgo positivo en modelos normales cuando de toda N sólo hay un sujeto u opción a elevar al máximo su probabilidad empírica, dándose entonces condiciones de tendencia a Máxima Desviación Media Teórica Posible y Máxima Desviación Típica Teórica Posible. Y se dirá que un estudio es de sesgo negativo cuando el objeto es la reducción a cero de probabilidad empírica de los sujetos u opciones no ideales, que entonces el Nivel de Sesgo tiende a valor absoluto de inversión de N.

En los estudios inferenciales en modelos omega, lo ideal es que todos los sujetos u opciones ideales incluidos en el subconjunto omega, tiendan a la probabilidad ideal, igual a la inversión de omega, 1/Ω, siendo omega el número de todos los sujetos u opciones que la política científica defina ideales dentro de N, siempre que sea un subconjunto inferior a N, dado que entonces sería un modelo normal de igualdad de oportunidades, y sea un subconjunto superior a uno, dado que entonces sería un modelo normal de sesgo positivo.

Los estudios inferenciales de cualquier modelo, para la aceptación universal y provisional de una hipótesis empírica, universal por cuanto será de aplicación a todo el universo de pertenencia de la muestra, sea un universo limitado o infinito, y provisional mientras no se refute, será una inferencia realizada sobre pruebas estadísticas de contraste de hipótesis para la crítica racional de la muestra que podrán clasificarse en estudios de error o fiabilidad, dependiendo de si la probabilidad crítica que establezca la política científica en la razón crítica sea sobre un porcentaje de error o fiabilidad.

La crítica racional, para validar que una hipótesis es racional, es decir, es una hipótesis universal y provisional, deberá hacerse a nivel individual y a nivel muestral. A nivel individual criticando que la dispersión individual, Nivel de Sesgo, sea en modelos normales o modelos omega, diferenciando en modelos normales entre igualdad o sesgo, positivo o negativo, es un Nivel de Sesgo que tiende al ideal del objeto de estudio, y a nivel muestral validando que la dispersión muestral responde al objeto de estudio y no se debe a un error de hecho derivado de la selección muestral.

Los estudios inferenciales, en cualquier tipo de universo, modelo, y objeto de estudio, podrán hacerse sobre una sola medición, intramedicionales, normalmente intramuestrales, o sobre más de una medición, intermedicionales, sean o no intramuestrales, aceptando comparaciones intermuestrales. Si son intermedicionales intramuestrales, ya bien sean estudios intraindividuales, la evolución de un mismo sujeto u opción de la misma muestra en diferentes mediciones, o intermedicionales intermuestrales, comparando diferentes sujetos u opciones de diferentes muestras, por ejemplo, comparando la evolución de las máximas y las mínimas de diferentes muestras de diferentes mediciones, o si se da el caso, intermedicionales intermuestrales intraindividuales, en caso que un mismo sujeto u opción haya pertenecido a diferentes muestras en diferentes mediciones.

Los diferentes tipos de estudio, atendiendo a tipo de universo, infinito o limitado, de sujeto u opción, tipo de estadística, descriptiva o inferencial, tipo de modelo, omega o normal, objeto de estudio, de igualdad o sesgo, positivo o negativo, tipo de comparación, intramedicional o intermedicional, intraindividual o interindividual, intramuestral o intermuesral, se explican a lo largo de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, actualizada recientemente en enero del 2015 incluyendo la valoración del tratamiento estadístico de puntuaciones directas de signo negativo.

Rubén García Pedraza, Madrid 7 de marzo del 2015
 


https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería Matemática
 
 


 

martes, 3 de marzo de 2015

Presentación de la nueva actualización de "Introducción a la Probabilidad Imposible (Edición 2015), estadística de la probabilidad o probabilidad estadística"

Introducción a la Probabilidad Imposible (Edición 2015), estadística de la probabilidad o probabilidad estadística, ahora en Amazon, Google, y Createspace, es una obra fundamental en el campo de la estadística y la probabilidad, que expone un nuevo enfoque para el estudio de esta disciplina, a partir de la diferenciación entre probabilidad empírica y probabilidad teórica, generando un nuevo método alternativo e innovador en el análisis de datos. La actualización que ahora se presenta corresponde a la nueva Edición 2015, que desarrolla y amplía conceptos los originales de la obra, incorporando a las probabilidades empíricas el tratamiento estadístico en  mediciones cuya escala sean valores naturales incluyendo negativos.

Introducción a la Probabilidad Imposible (Edición 2015), estadística de la probabilidad o probabilidad estadística, es un obra de reciente publicación. La primera edición fue en formato papel en una edición limitada  de diciembre del 2011, del cual los lectores tienen a su disposición ejemplares en numerosas bibliotecas universitarias latinoamericanas y españolas.

Desde entonces la obra ha sido actualizada en diversas ocasiones, siendo la Edición 2015 la más reciente. La primera actualización en enero del 2013, donde la obra evoluciona hacia postulados más positivos de la ciencia,  aunque siempre fiel a los contenidos originales. En 2013 se presentó por primera vez en formato ebook en los portales de Amazon y Lulu, apareciendo por primera vez en formato Kindle. En enero del 2014, de nuevo la obra se actualizada, incorporando nuevas definiciones, entre ellas la diferenciación entre ciencias analíticas y sintéticas y abordando cuestiones esenciales de la epistemología de la estadística y la probabilidad. En 2014 aparece por primera vez en formato papel a través de Createspace, la plataforma digital de Amazon para la edición de libros impresos.

La última Edición 2015 de Introducción a la Probabilidad Imposible incorpora nuevas aportaciones especialmente en la probabilidad empírica, avanzando en la concepción de una ciencia positiva, al  mismo tiempo que avanza en el número de seguidores y lectores habituales tanto del Blog y del libro, una obra que ahora ya además de la versión Kindle de Amazon, y la versión en papel impreso de Createspace, los lectores tienen la oportunidad de disfrutar de su lectura en formato PDF a través del portal de Google Play, donde la obra se encuentra a disposición del público desde el mes de febrero.

Introducción a la Probabilidad Imposible, (Edición 2015), estadística de la probabilidad o probabilidad estadística, es una obra que combina diferentes paradigmas filosóficos y científicos, desde racionalismo, positivismo, y materialismo, desde una actitud crítica y actualizada para la ciencia del siglo XXI, acorde a la visión contemporánea de la ciencia.

Para aquellos lectores que antes de adquirir la obra deseen primero una vista parcial de la obra pueden encontrar una buena muestra de la obra en el programa de vista previa de Google Libros, y también en Google Play permite una lectura de las primeras páginas, así como en Amazon también permite una vista previa aunque más limitada que en Google.
El autor de la obra, Rubén García Pedraza, es licenciado en Pedagogía por la Universidad Complutense de Madrid, (2002), Diplomado en Estudios Avanzados en el Departamento de Historia de la Educación y Educación Comparada de la Universidad Nacional de Educación a Distancia, UNED,  (2010), y actualmente investigador en Educación Comparada en la misma universidad.

El libro que aquí se presenta es la primera obra de un joven novel que expone una obra y una teoría completamente original e innovadora sobre un campo no siempre muy conocido, la estadística y la probabilidad, pero que sin embargo es una disciplina experimenta un rápido crecimiento desde que la globalización ha generado el fenómeno Big Data, donde la Data Science emerge como una de las grandes actividades científicas y profesionales del futuro, y el científico de datos un miembro imprescindible en cualquier equipo de investigación.

La teoría de Probabilidad Imposible surge de una intuición en el año 2001, manteniéndose inédita la obra hasta el 2011, del hecho que la probabilidad empírica de un fenómeno sea cero o en tendencia a cero, luego  en la práctica  sucesos aparentemente imposibles, no implica que necesariamente no puedan suceder, dándose el caso en ciencias naturales y sociales que acontecimientos que se creían imposibles sin embargo suceden.

A partir de esta intuición original el autor hace una serie de desarrollos teóricos que van más allá de la intuición filosófica para plasmarse en nuevos modelos de contraste de hipótesis, lo que en Probabilidad Imposible se denomina la crítica racional de las ideas, que tiene por objeto la crítica del grado de isomorfismo entre idea y realidad, para el estudio de la objetividad de las hipótesis empíricas, que, de estar dentro de los márgenes de error aceptados por la política científica, concretados en la razón crítica, se transforman en hipótesis racionales, a saber hipótesis racionales porque se transforman en hipótesis provisionalmente válidas para todo el universo del que se extrajo la muestra..

El tratamiento que hace de la estadística y la probabilidad la teoría de Probabilidad Imposible parte de nuevas definiciones a conceptos tradicionales que darán lugar a nuevas formas de comprender y entender la realidad empírica o teórica, creando para tal fin un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística.

Lo que hace Probabilidad Imposible es la aplicación de la teoría de la probabilidad al estudio de la estadística y viceversa, de forma que desarrolla nuevos modelos conceptuales y teóricos derivando hacia, lo que llama, el Segundo Método, a fin de diferenciarlo de la estadística tradicional que sería en todo el caso el primer método de referencia en todo análisis estadístico de la realidad. El Segundo Método lo que hace es el estudio estadístico de sucesos mediante el cálculo de las probabilidades empíricas y la probabilidad teórica, y a partir de ahí el estudio de todos los estadísticos  individuales o muestrales, de tendencia central o dispersión, tanto para estudios intramedicionales, descriptivos o inferenciales, o intermedicionales inferenciales.
La obra que aquí se presenta, Introducción a la Probabilidad Imposible (Edición 2015), estadística de la probabilidad o probabilidad estadística, es una obra joven de un autor novel y de fácil lectura, que no sólo indaga en el desarrollo de la propia teoría de la estadística y la probabilidad, profundizando en cuestiones centrales de epistemología y filosofía de la ciencia.
La obra se estructura en 25 apartados, diferenciándose cinco bloques temáticos, el primer bloque temático, desde el apartado primero introductorio hasta el apartado décimo “Modelos de estudio y clases de muestra, la muestra discreta”, se hace una explicación integral de los aspectos más esenciales de la propia teoría, se explica con detenimiento los conceptos de probabilidad, posibilidad, proporcionalidad, tendencia, dispersión, tipos de distribución y muestra, y se avanza algunos modelos de Validez y Significación para diferentes tipos de estudio, así como los diferentes tipos de universos que forman la Probabilidad Imposible.
El siguiente bloque temático se centra en los modelos de crítica racional, contraste de hipótesis, en estudios intramedicionales, es decir, los modelos de contraste de hipótesis de disponerse una única medición, que van del apartado undécimo, “La probabilidad crítica”, al apartado décimo quinto, “La crítica racional de la Puntuación Típica en el Segundo Método”, explicándose diferentes perspectivas en la crítica racional de las hipótesis, tanto desde las estadísticas normales y las relativas, y la forma de entender la Puntuación Típica y su crítica racional desde el Segundo Método.
El tercer bloque temático sería el estudio de los modelos intermedicionales desde el Segundo Método, donde se evalúa la forma de proceder a la crítica racional de las ideas a partir de las tendencias derivadas en una serie de mediciones, lo cual se hace desde el apartado décimo sexto al vigésimo, para después en los dos apartados siguientes exponer los modelos de Impacto del Defecto, desarrollado en septiembre del 2001, y la Distribución Efectiva, para el estudio de calidad y eficiencia.
Los últimos apartados de la obra se dedican de nuevo a la discusión filosófica, analizándose en el apartado vigésimo tercero la trascendencia que tendrá el desarrollo de la teoría de la probabilidad en modelos computacionales para la generación de Inteligencia Artificial, en la medida que derivará a  un aumento en la automatización de procesos y servicios teniendo lógicamente un importante impacto social que deberá estudiarse desde las ciencias sociales. En el apartado vigésimo cuarto se profundiza en el concepto de modelo y paradigma, en todas sus dimensiones, explicándose, en el último apartado, la evolución lógica de la hipótesis en todas sus fases, desde la génesis de la hipótesis empírica a su transformación en hipótesis racional, de ser aceptada por la política científica, y la posible refutación de la hipótesis de transformarse los márgenes de error, aceptados por la política científica al establecer la razón crítica, en elementos de refutación empírica de la hipótesis.
La obra Introducción a la Probabilidad Imposible (Edición 2015), estadística de la probabilidad o probabilidad estadística, es una obra de reciente aparición, pero que detrás de sí tiene un importante trabajo teórico y práctico síntesis de años de investigación, formulando un nuevo modelo para el estudio descriptivo e inferencial de la estadística y la probabilidad, desde una perspectiva ecléctica y racional de la ciencia y filosofía, que no pierde nunca la perspectiva social de las enormes responsabilidades éticas y morales de la ciencia y la tecnología. Una obra imprescindible de obligada referencia para entender hacia donde se dirige a largo plazo las investigaciones científicas actuales.

(Para aquellas personas interesadas en la divulgación de la ciencia y la filosofía se ruega la difusión de esta recensión en revistas, publicaciones, blogs y webs)

Rubén García Pedraza, Madrid a 3 de marzo del 2015