PROBABILIDAD IMPOSIBLE


Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿ quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


imposiblenever@gmail.com

@imposiblenever

sábado, 25 de julio de 2015

El sujeto en la investigación científica



El sujeto es la parte de la sentencia a la que hace referencia al predicado, y su núcleo es un sustantivo, nombre común o propio, o pronombre, mientras el núcleo del predicado es el verbo. En la investigación científica se identifican tres tipos de sujetos: 1) el investigador o investigadores como sujeto activo, el equipo de investigación elaboró, diseñó, realizó, experimentó, observó, midió, dedujo, reflexionó, concluyó, refutó, demostró, descubrió…. , 2) las operaciones o resultados científicos como sujeto pasivo, la muestra fue seleccionada, la medición se hizo utilizando tal instrumento de medida, las conclusiones  fueron elaboradas a partir de los datos, el principio de incertidumbre fue establecido por Heisenberg,  la estructura moléculas del ADN fue descubierta por Watson y Crick…, 3)  y el objeto de estudio como sujeto activo, ya sea en sentencias cuantitativas:  la velocidad de la luz es de aproximadamente 300.000 m/s, el paciente tenía una temperatura corporal X y un ritmo cardiaco Z  , la opción cruz al lanzar una moneda al aire salió tantas veces de entre el total de lanzamientos, la ley de la gravedad es el producto de la masa de los cuerpos entre la distancia al cuadrado; como sentencias históricas: la segunda esposa de Enrique XVIII fue Ana Bolena, el incendió de Moscú propició las salida de las tropas napoleónicas de la ciudad, el desembarco de Normandía en la Segunda Guerra Mundial fue el principio de la liberación de Francia; y cualitativas: la clorofila da el color verde a las plantas, el ser humano es un animal político, los derechos humanos reconocen los derechos universales e inalienables de toda persona.

En el primer tipo de sujeto, cuando  el sujeto es el investigador o investigadores, el formato de la oración es una oración activa en donde el sujeto es un investigador o equipo de investigación, quienes ejecutan todas las operaciones en cada fase de la investigación.

En el primer tipo, que el investigador o investigadores sean sujetos activos, serían sujetos de las operaciones científicas y sus resultados. Las operaciones se clasificarían en: mentales o conductuales. Una operación mental puede ser el acto de:  análisis, reflexión, comprensión, explicación, deducción, inducción, duda…  las operaciones mentales son puramente racionales, motivo por el cual son operaciones de la razón pura. Una operación conductual es aquella acción derivada de la praxis científica: observación, clasificación, catalogación, medición… son operaciones de la razón práctica.

En la epistemología de Probabilidad Imposible se distingue entre ciencias analíticas y ciencias sintéticas. Las analíticas tienen por objeto de estudio el lenguaje, sea lógico-matemático, las lingüísticas o análisis del lenguaje artístico. Dentro de las ciencias analíticas el paradigma de proposiciones analíticas son las lógico-matemáticas, luego el paradigma de operaciones puras son las operaciones lógico-matemáticas, desde las tablas de la verdad en lógica, a la teoría de conjuntos, y algoritmos matemáticos. Dentro de las operaciones puras la principal  y más importante de ellas es el método de análisis lógico de deducción, el método deductivo, basado en el silogismo, en Probabilidad Imposible aplicado a la tendencia, el silogismo de la tendencia: el análisis de la lógica de la tendencia en estadística y probabilidad.

El método deductivo  en ciencias analíticas permite sobre el análisis de las premisas dadas la deducción de conclusiones. Las operaciones de análisis y deducción serían operaciones puras, y tanto las premisas analíticas como el resultado de las operaciones racionales serían proposiciones analíticas o puras. Las operaciones: “ A entonces B, y B entonces C, luego A entonces C”, “ dos más dos son cuatro”, “ la raíz cuadrada de cuatro es igual a dos”, “A y B es igual a A más B menos A o B”;  serían modelos de operaciones puras. Las proposiciones: “ dos es el único número primo par”, “un segmento es una línea recta que une dos puntos”,  la oración se compone de sujeto y predicado”, “entre sujeto y predicado hay concordancia de número y persona”; serían proposiciones puras. 

Una de las principales cualidades de las proposiciones lógico-matemáticas es su carácter absoluto, aunque siempre dentro del lenguaje en que se elaboren las proposiciones analíticas. Que dos más dos es igual a cuatro, y la raíz de cuatro es igual a dos, son proposiciones absolutas dentro del sistema numérico decimal, bajo cualquier otro sistema numérico, en base seis o doce o cualquier otro que no sea decimal, serían refutables.

Las ciencias sintéticas en Probabilidad Imposible se construyen sobre proposiciones sintéticas, ya porque sean premisas sintéticas, sensoriales, ideológicas, o filosóficas, o  hipótesis empíricas. Cabiendo la posibilidad que una proposición sintética sea racional solo provisionalmente si es aceptada por la razón crítica.

Es en las ciencias sintéticas donde se produce la síntesis entre lo analítico y lo empírico. De las premisas empíricas producto de operaciones prácticas, sintetizadas a  otras premisas empíricas por su naturaleza ideológica o filosófica, se deducen hipótesis empíricas sólo racionales si superan la pruebas de contraste de hipótesis frente los hechos o los datos. Si en la crítica racional el valor empírico es igual o inferior al margen de error, o igual o superior al margen de fiabilidad, la hipótesis empírica se transforma en proposición racional, luego universal provisionalmente.

Dentro del primer tipo de sujeto descrito, investigador o investigadores como sujeto activos en la oración científica, no sólo el sujeto es el sujeto de las operaciones, también de sus resultados.

En ciencias analíticas “Pitágoras descubrió la relación matemática entre la hipotenusa y los catetos del triángulo”, “Euclides estableció que la línea es una recta entre dos puntos”. En ciencias sintéticas, ya sean resultados de tipo descriptivo:  El matrimonio Curie señaló las siguientes propiedades radioactivas del uranio: ….”,  el equipo de investigación demográfica afirmó que en el país A el total de población era X habiendo una tasa Z de mortalidad, una ratio  Y de natalidad, y una proporción Q y V de hombres y mujeres”; o de tipo inferencial: “ el investigador o equipo de investigación aceptó la hipótesis por cuanto su valor empírico era igual o inferior al margen de error o igual o superior al margen de fiabilidad”.

El segundo tipo de sujeto es que las operaciones o resultados, ya sean de ciencias analíticas o sintéticas, sean los sujetos pasivos de la oración científica, “A fue deducida de B por el investigador o investigadores”, “ Que A es así fue la reflexión realizada por el investigador o investigadores”, “la órbita elíptica de los planetas en torno al sol fue descubierta por Kepler”, “la teoría evolución de las especies fue elaborada por Darwin”, “las bases de la ciencia moderna fueron fundadas entre otros por Roger Bacon, Copérnico, Francis Bacon, y Galileo

Cuando el investigador o investigadores son sujetos de una oración científica activa, el peso de la oración recae en quienes ejecutan las operaciones puras o prácticas, u obtienen los resultados científicos, puros o sintéticos, descriptivos o inferenciales. En el segundo tipo de sujeto, cuando las operaciones o resultados, puros o sintéticos, descriptivos o inferenciales, son sujetos de una oración científica pasiva, el peso de la oración recae en las operaciones o resultados, siendo el agente o los agentes, investigador o equipo de investigación, el accidente histórico. Lo realmente importante es el “qué” lo anecdótico es “quién”.

Y finalmente el último tipo de sujeto en la investigación científica, y propio del concepto de sujeto u opción en la definición de probabilidad empírica en Probabilidad Imposible, cuando por sujeto se entiende a aquello sobre lo que se realiza la medición. Ya sea que se diga que un alumno obtenido una puntuación X en un examen, o que una galaxia tiene un número X de estrellas , o se diga que si lanzamos una moneda al aire el número de cruces es X, en todos estos casos: el alumno, la galaxia, o la cruz de la moneda; actuarían de sujeto de la medición.

En la oración “el alumno ha obtenido la puntuación X”, el sujeto es “el alumno”, el predicado “ha obtenido la puntuación X”, el verbo “ha obtenido”, el complemento directo “la puntuación X”, luego de modo analítico en la tabla resultante de la medición de todos los alumnos, el valor X irá en función de cada alumno, dependiendo de múltiples factores, individuales o sociales, desde las propias capacidades a priori del alumno  a la influencia del medio social y familiar.

En la oración “la galaxia tiene un número X de estrellas”, el sujeto es “la galaxia”, el predicado “tiene un número X de estrellas”, el verbo “tiene”, complemento directo “un número X de estrellas”, si hacemos la medición del número de estrellas por galaxia el resultado será una tabla donde el número de estrellas será una variable dependiente de cada galaxia, dependiendo de multitud de factores, internos y externos.

En la oración “ la cara cruz de una moneda ha salido un número X de veces de tantos lanzamientos”, de modo que el sujeto es “la cara cruz de una moneda”, el predicado “ha salido un número X de veces de tantos lanzamientos”, el verbo “ha salido”, el complemento directo “un número X de veces de tantos lanzamientos”, el número X dependerá de varios factores, tanto de si hay desgaste de la moneda en alguna parte den el borde de la circunferencia, si en el lanzamiento de la moneda se ha hecho de algún modo especial que favorezca que salga una determinada cara, al propio número de lanzamientos, a mayor número de lanzamientos X tenderá a ser mayor que si el número de lanzamientos es menor.

En Probabilidad Imposible cuando se hace mención al concepto de sujeto se hace referencia al sujeto de la medición, la cual a su vez puede ser de dos tipos: puntuación directa o frecuencia. Puntuación directa cuando la medición se hace sobre una escala de medida del grado de intensidad de la cualidad objeto de estudio en cada sujeto de la muestra, o medición de la frecuencia cuando por cada sujeto se contabiliza su ocurrencia de suceso.

Normalmente en los estudios donde la medición se hace sobre la frecuencia, su distribución se da entre una serie limitada de sujetos, donde cada sujeto actúa de opción en la distribución de la frecuencia. Y en Probabilidad Imposible, a un universo formado por una serie limitada de posibles opciones, se denomina universo de opciones limitadas.

Si el sujeto no pertenece a una serie limitada, y además el objeto de la medición es la distribución de puntuaciones directas de una cualidad entre los sujetos sobre una escala de medida, entonces el estudio pertenece a un universo de sujetos u opciones infinitos.

Mientras si sale cara o cruz cuando lanzamos una moneda al aire, ser hombre o mujer,  los posibles resultados si lanzamos uno o dos dados al aire,  o un estudio de frecuencia entre una serie de categorías discretas, son universos de opciones limitadas en donde se estudia la distribución de la frecuencia,  los universos de sujetos u opciones infinitos se caracterizarían porque estudian la distribución de las puntuaciones directas sobre una escala de medida,  que mide la magnitud de intensidad de la cualidad en una serie de sujetos, y no hay modo racional exento de dudas de descartar la posibilidad del infinito.

La razón última de por qué en cualquier universo de sujetos es indescartable la posibilidad del infinito se debe a que no hay certeza absoluta de que nuestro universo sea finito. A diferencia de los universos de opciones limitadas, donde los límites de la distribución son las propias opciones existentes.

 

Rubén García Pedraza, Madrid a 25 de julio del 2015.

 
 

sábado, 25 de abril de 2015

Probabilidad cero o Probabilidad Imposible


La probabilidad es la magnitud racional del grado de posibilidad, racional por cuanto se mide a través de un cociente, una razón matemática, magnitud que oscilará entre cero y uno, la probabilidad uno en un fenómeno tradicionalmente significará certeza, y la probabilidad cero significará imposibilidad. Probabilidad cero es Probabilidad Imposible, y juega papel destacado en esta teoría, explicada profundamente en Introducción a la Probabilidad Imposible, estadística dela probabilidad o probabilidad estadística, actualizada en enero del 2015.

La estadística tradicional define probabilidad igual a número de casos favorables entre todos los casos posibles, uno de los motivos que inducen a esta definición es porque, si bien el origen de la estadística se hunde en la antigüedad clásica, los primeros Estados ya hacían censos poblacionales, y aparecen las primeras técnicas estadísticas, aunque de momento no se le conoce por este nombre, se utiliza a mediados de la modernidad, la probabilidad sin embargo se inicia en la época moderna, desde tempranamente en la Edad Media, y normalmente eran estudios que encargaban nobles jugadores a expertos matemáticos para conocer la probabilidad de sus apuestas, motivo por el cual las primeras definiciones matemáticas giraban en torno a la posibilidad de los casos favorables, una definición clásica que ha perdurado a lo largo de la historia.

En Probabilidad Imposible frente a las definiciones tradicionales se ofrece una nueva redefinición adaptados a un nuevo planteamiento, el que surge de la fusión de la estadística y la probabilidad, la estadística de la probabilidad o probabilidad estadística, campo desde el que la teoría de Probabilidad Imposible opera una redefinición de los tradicionales conceptos de la estadística y la probabilidad.

El Segundo Método de Probabilidad Imposible, es un método complementario y alternativo a la estadística tradicional, que en Probabilidad Imposible se llama primer método, por cuanto ha sido el primero de la historia para el estudio de la estadística y la probabilidad, aunque por separado. En Probabilidad Imposible se sintetizan, produciéndose nuevas definiciones de probabilidad estadística, dentro de la cual habrá que diferenciar entre probabilidad empírica, probabilidad teórica, probabilidad ideal, y probabilidad crítica.

De los tres modelos de probabilidad, empírica, teórica, ideal y crítica, la probabilidad cero sólo será posible en la probabilidad empírica y la crítica. En la medida que la probabilidad teórica es la inversión de N, el número de sujetos u opciones en un una muestra, la única posibilidad de que la probabilidad teórica fuera cero es que hubiera cero sujetos u opciones, de modo que entonces no habría muestra de estudio, por lo que no habría estudio que hacerse. Y en el caso de la probabilidad ideal, en los modelos omega, Ω, aquellos que de una muestra N el número de sujetos u opciones varía entre dos y N menos uno, luego la probabilidad ideal es la inversión de omega, 1/ Ω , sólo habría posibilidad de probabilidad ideal igual a cero si omega fuera cero, por lo que entonces no sería un modelo omega. Si de una N cualquiera de todos los sujetos u opciones ni tan siquiera hubiera un único sujeto u opción ideal, que al menos sería un modelo normal de sesgo positivo, siendo toda N igual de negativa o no ideal, luego el objeto de estudio fuera la reducción a cero de todas las puntuaciones directas o frecuencias, la muestra de ceros, entonces todas las probabilidades empíricas serían igual a cero. De este modo las únicas probabilidades estadísticas que admitirían probabilidad cero serían la probabilidad empírica y la probabilidad crítica.

La probabilidad crítica es el modo en que se representa la razón crítica aceptada por la política científica en estadística inferencial para el contraste de hipótesis. La lógica de la razón crítica es el producto del porcentaje de error o fiabilidad, entre cien, por la máxima tendencia empírica, en estudios de error donde la máxima tendencia empírica sea el máximo error posible, del máximo error sólo se aceptará el mínimo posible, luego la probabilidad crítica sería igual al producto del porcentaje de error, dispuestos a aceptar por la política científica, entre cien, multiplicado por la máxima tendencia empírica. Cualquier valor empírico igual o inferior a la probabilidad crítica se aceptaría. De modo que sólo habría posibilidad de probabilidad crítica igual a cero bajo el supuesto que la política científica no esté dispuesta a tolerar ni el más mínimo error en el modelo empírico, de modo que sobre un porcentaje de cero por cien de error multiplicado por la máxima tendencia empírica, la probabilidad crítica aceptada por la política científica sería igual a una razón crítica de cero errores en el modelo empírico, en el mismo instante que hiciera acto de aparición el más mínimo error en el modelo empírico sería automáticamente rechazado por la política científica, siempre y cuando la probabilidad crítica, en tanto que margen de error, sea cero.

Lo más normal es que en la crítica de cualquier modelo haya un margen de tolerancia al error, un margen de flexibilidad moral, en el que la política científica si esté dispuesta a aceptar aunque sea un mínimo margen de error, y lo más normal es que el porcentaje de error, aunque próximo a cero no sea igual a cero, aceptando un margen de error dentro del cual acepte los modelos empíricos.

De esta forma donde si es más probable encontrar probabilidad cero es en la probabilidad empírica,  el Segundo Método de Probabilidad Imposible la probabilidad empírica es igual al valor absoluto de puntuación directa de sujeto u opción entre el sumatorio de los valores absolutos de todas las puntuaciones directas o frecuencias, luego la única condición de posibilidad para que una probabilidad empírica sea cero es que la puntuación directa o frecuencia de sujeto u opción sea cero.

En un universo de opciones limitadas, una opción tendrá probabilidad empírica cero, si en la distribución de la frecuencia la opción nunca ocurre, careciendo de frecuencia en el modelo, y en un universo de sujetos u opciones infinitos un sujeto u opción tendría probabilidad empírica igual a cero si en la mensuración de la cualidad de estudio en la muestra, para  dicho sujeto u opción la puntuación directa en la escala de medida fuera igual a cero, de lo que se deduciría probabilidad empírica cero.

La probabilidad empírica cero de este modo significará o bien no ocurrencia de esa opción, en universos limitados, o bien cero manifestación de la cualidad de estudio en un sujeto u opción en universos infinitos, luego, salvo error de hecho, sería imposible la ocurrencia de esa opción, o sería imposible la manifestación de esa cualidad en ese sujeto u opción. La probabilidad empírica cero significaría en principio imposibilidad, aunque, como se explica en el apartado 7 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, recientemente actualizada en enero del2015, bajo condiciones de un verdadero universo infinito, dentro de un margen de coherencia lógica, la propia existencia actual o potencial, hasta lo imposible puede ser inevitable.

Se dirá que, salvo error de hecho, es imposible la ocurrencia de un evento cuya probabilidad empírica sea cero, o salvo error de hecho es imposible la manifestación de una cualidad si tiene probabilidad empírica cero en un sujeto u opción, por cuanto, estas posibles predicciones a la luz de la probabilidad empírica serán previsiones dentro del de error de hecho que de hecho supone aceptar la realidad. Dadas las limitaciones fisiológicas humanas, en la medida que no podemos conocer los infinitos sucesos u ocurrencias posibles, sólo conocemos la realidad parcialmente, margen de error de hecho que supone la probabilidad de error de representatividad muestral igual a la inversión de la muestra, inversión de N, 1/N, en universos de sujetos u opciones infinitos, inversión de puntuaciones directas o frecuencias, 1/∑xi, en universos de opciones limitadas.

Salvo que se cometa un error de hecho, si en una muestra un sujeto u opción, de cualquier tipo de universo, limitado o infinito, demuestra probabilidad empírica cero, sería o bien imposible la ocurrencia de esa opción, o imposible la manifestación de la cualidad de estudio en ese sujeto u opción. Si estudiamos los síntomas de una enfermedad, y los síntomas se miden en una escala de magnitud, de la que depende la puntuación directa del sujeto u opción, y después de un tratamiento médico en un paciente los síntomas desaparecen, aceptando la eficacia del tratamiento sobre un margen de error crítico del cero por cien de error, en el momento que se constatase la eficacia de la cura sobre una fiabilidad del cien por cien, sería imposible que los síntomas volvieran a aparecer, salvo por el error que de hecho supone la aceptación parcial de la realidad, la muestra , que por muy representativas que sean, las muestras sólo serán idénticas al universo dentro del margen de error igual a la inversión de la muestra.

La probabilidad cero de este modo implica imposibilidad, salvo error de hecho, y la probabilidad empírica cero en Probabilidad Imposible se llamará Mínima Probabilidad Empírica Posible, por cuanto ninguna probabilidad empírica puede ser inferior a cero, en tanto que no hay probabilidades de signo negativo. Razón por la cual en estudios donde la escala de medida de las puntuaciones directas comprendan enteros de signo negativo, el sumatorio de las puntuaciones directas, y el cociente de las probabilidades empíricas, se hará sobre el valor absoluto de las puntuaciones directas.

Mínima Probabilidad Empírica Posible = 0

Para todos los sujetos u opciones que tengan probabilidad empírica cero, su Nivel de Sesgo será igual a menos inversión de N, en la medida que si el Nivel de Sesgo es igual a probabilidad empírica menos inversión de N, y la probabilidad empírica es cero, entonces cero menos inversión de N sería igual a menos inversión de N, que en términos absolutos será inversión de N, motivo por el cual se dirá que la inversión de N es el valor absoluto del Máximo Sesgo Negativo Posible, por cuanto si cero es la Mínima Probabilidad Empírica Posible, dado que no hay probabilidades empíricas de signo negativo, sólo positivo, razón por la que de haber puntuaciones directas de signo negativo se valorarán de forma absoluta, entonces ningún Nivel de Sesgo normal de sujeto u opción puede ser inferior a menos inversión de N, en términos absolutos inversión de N, siendo inversión de N el valor absoluto del Máximo Sesgo Negativo Posible.

Máximo Sesgo Negativo Posible = /(0 – 1/N)/ = / - 1/N/ = 1/N

Dentro de los estudios de sesgo, el estudio de la tendencia de sesgo negativo de los sujetos u opciones no ideales, o cuyo ideal sea la reducción de  la puntuación directa o frecuencia, serán estudios de sesgo negativo compatibles a los estudios de sesgo positivo en modelos normales o en modelos omega.

En modelos normales por cuanto del mismo modo que se verifica la tendencia a probabilidad uno de aquel único sujeto u opción ideal de toda N, los demás sujetos u opciones, N menos unno, deberán tender a probabilidad cero, para lo cual se pueden realizar diferentes técnicas de contraste de hipótesis. E igualmente, en modelos omega, del mismo modo que los sujetos u opciones ideales comprendidos en omega tienden a la probabilidad ideal, cuyo sesgo positivo será igual al Nivel de Sesgo Ideal, probabilidad ideal menos probabilidad teórica, proporcionalmente los ideales tienden a la probabilidad ideal, los demás sujetos u opciones tenderán a probabilidad cero incrementando así su sesgo negativo.

La combinación de pruebas de contraste de hipótesis de sesgo negativo, en modelos normales de sesgo positivo y en modelos omega, se debe a la propia bondad natural por la que todo el sesgo positivo compensa  a todo el sesgo negativo y viceversa, motivo por el cual para calcular el Sesgo Total, sumatorio de los valores absolutos de los Niveles de Sesgo, dicho sumatorio debe hacerse sobre los valores absolutos, porque si no los sesgos positivos y negativos se compensarían y la suma de los sesgos sería cero. La estadística tradicional para salvar el problema de los signos en las puntuaciones directas lo que hará será el promedio del cuadrado de las puntuaciones directas, y su raíz cuadrada la Desviación Típica. En Probabilidad Imposible, dado que el verdadero objeto de estudio finalmente siempre será la dispersión, lo lógico será preservar los diferenciales de la forma más objetiva, independientemente de que originalmente los Niveles de Sesgo sean de uno u otro signo, lo importante es conservar una estimación lo más fidedigna posible de los diferenciales, por lo que se recomienda la  Desviación Media para una estimación más objetiva de la dispersión muestral.

La combinación de estudios de sesgo negativo en modelos normales para estudiar, según aquel único sujeto u opción tiende a probabilidad empírica uno, el modo en que los demás sujetos u opciones, N menos uno, tienden a probabilidad empírica cero,  o en estudios omega, el estudio de la tendencia a probabilidad empírica cero de los sujetos u opciones no ideales, conforme los sujetos u opciones ideales dentro de omega tienden a probabilidad ideal, es una combinación de estudios de sesgo negativo en modelos normales o modelos omega posible, siempre y cuando o bien en modelos normales al menos un sujeto u opción sea ideal, o halla entre dos y N menos uno sujetos u opciones ideales en omega, porque si toda N es igual de ideal entonces no hay posibilidad de sesgo negativo, sería un modelo normal de igualdad de oportunidades, o de no haber en toda N ni un solo sujeto u opción ideal, siendo todos igualmente de no ideales, o cuyo ideal fuera cero puntuación directa o frecuencia, entonces sería un caso típico de muestra de ceros, en donde lo ideal sería que todas las puntuaciones directas o frecuencias fueran cero, todos los Niveles de Sesgo normales en términos absolutos fueran igual a inversión de N, luego la Desviación Media y la Desviación Típica fueran igual a inversión de N, dándose la paradoja que en muestras de ceros, aunque el promedio del sumatorio de las probabilidades empíricas igual a cero sería un promedio igual a cero, en la medida que independientemente de cual sea su valor promedio, en condiciones normales la inversión de N es media aritmética de las probabilidades empíricas, dichas condiciones normales sólo se exceptúan bajo condiciones de muestras de ceros, en donde independientemente que las probabilidades empíricas fuesen cero, la dispersión, individual y muestral sería en términos absolutos igual a inversión de N, dado que lo que realmente mide la dispersión en el Segundo Método de Probabilidad Imposible es la dispersión del comportamiento empírico en relación a la probabilidad teórica de ocurrencia al azar en igualdad de oportunidades, inversión de N, 1/N, dándose además la circunstancia añadida que normalmente la inversión de N, 1/N, es media aritmética de las probabilidades empíricas, salvo para la muestra de ceros.

La probabilidad cero, en cualquier tipo de universo, significará siempre Probabilidad Imposible, salvo error de hecho, ya bien que un modelo empírico sobre una razón crítica que sólo acepte cien por cien de fiabilidad, cero por cien de error, se verifique un modelo empírico igual a probabilidad crítica en tanto que margen de error igual cero, luego Probabilidad Imposible de error de mantenerse las condiciones que han permitido dicho nivel de fiabilidad. O en probabilidades empíricas igual a cero, Probabilidad Imposible de ocurrencia de la opción, o Probabilidad Imposible de manifestación de una cualidad en un sujeto cuya puntuación directa es igual a cero.

La probabilidad cero tanto en probabilidad crítica como probabilidad empírica significará Probabilidad Imposible, en un caso Probabilidad Imposible de error, en el otro, de ocurrencia o manifestación de una cualidad, ahora bien, como se ha mencionado, dicha Probabilidad Imposible será imposible dentro de la aceptación de un error de hecho, la probabilidad de error de representatividad de la muestra, igual a la inversión de la muestra, lo cual quiere decir, que en caso que ese margen de error, por mínimo que sea, se materializase, porque no se han recogido todas la ocurrencias posibles, las cuales pueden tender a infinito, por ejemplo los infinitos lanzamientos de una moneda,  o no se han recogido suficientes sujetos u opciones en la muestra, entonces, aquello que se creía Probabilidad Imposible puede ser sin embargo inevitable.

Lo imposible es inevitable dentro de un margen de coherencia lógica, tal como se explica en el apartado 7 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística. Ante la falta de conocimiento de lo que puede suceder un verdadero universo infinito en todas sus dimensiones, lo imposible en el infinito puede ser posible. Identidad dialéctica entre lo imposible y lo inevitable dentro del margen de error de lo que hasta ahora conocemos, tan sólo una mínima muestra de la historia universal.

Rubén García Pedraza, Madrid 2015

 

 

sábado, 11 de abril de 2015

Objeto de estudio


El objeto de un estudio responde a la pregunta qué se estudia, sobre lo que se centra la investigación, sintetizado en el título de la investigación, y en torno a lo cual gira el tema principal y los secundarios . Si estudiamos la composición química de la atmosfera, o estudiamos la tendencia de voto previa a unas elecciones, o estudiamos la estructura gramatical de una lengua, eso sobre lo que se centra el estudio es el objeto. En los modelos que utilicen el método hipotético deductivo en ciencias sintéticas el objeto se sintetizará en la hipótesis empírica.

La denominación de objeto de estudio al tema principal de la investigación en ningún momento significa que deba tratarse de un objeto físico, en cierto modo esta denominación de objeto de estudio responde a la reminiscencia de la dialéctica objeto y sujeto que aun permanece en la ciencia heredada de la dialéctica hegeliana, se entiende que el sujeto de la investigación es el científico, y el objeto es aquello que el científico estudia.

La clasificación de los objetos de estudio depende de los criterios que se utilicen, en Probabilidad Imposible los criterios que se utilizan para definir el objeto de estudio son los siguientes, en cierto modo herencia del racionalismo crítico, diferenciando entre los objetos de estudio de  las ciencias analíticas, y los posibles objetos de estudio de las ciencias sintéticas.

Los objetos de estudio de las ciencias analíticas son por lo general abstractos, centrados en estructuras lógico-matemáticas o lingüísticas, ya sea para su comprensión o desarrollo. Por ejemplo, estudios para el desarrollo de nuevos métodos y códigos matemáticos, o en humanidades el análisis de la estructura gramatical de una lengua, o aplicación de sus estructuras a lenguas ya existentes, o creación de nuevos lenguajes o adaptación de estructuras ya existentes a nuevos códigos de comunicación. Un ejemplo claro, aplicación de la lógica de los pictogramas a los nuevos códigos simbólicos de la nueva cultura escrita cibernética, por ejemplo uso de emoticonos en redes sociales.

Las ciencias analíticas, en cierto sentido legado del positivismo lógico, son aquellas que tienen por objeto el análisis formal del lenguaje, ya se trate de lenguajes lógico-matemáticos o lingüisticos, lenguas antiguas o modernas, e incluso, desde una perspectiva más surrealista o postmoderna, se podría incluir el análisis del arte. Dentro de las ciencias analíticas los modelos cualitativos utilizan  los métodos interpretativos, mientras los cuantitativos se centran en el desarrollo de la lógica y las matemáticas, desarrollos de los cuales pueden surgir métodos aplicables a las ciencias sintéticas, por ejemplo la estadística y la probabilidad.

Las ciencias sintéticas son aquellas cuyo objeto de estudio  no es formal, es empírico, si bien el esquema de interpretación de los hechos puede ser susceptible de interpretación hermenéutica dentro de los modelos cualitativistas, los modelos cuantitativistas se centrarán en el analisis lógico-matemático de los hechos empíricos, de lo que se deducirán proposiciones sintéticas, síntesis de elementos formales y materiales. Los modelos cuantitativistas a su vez se clasificarían en inductivistas y deductivistas, y dentro de estos últimos el objeto de estudio sería identificado en la hipótesis empírica que sería el verdadero objeto de contraste en las pruebas.

Probabilidad Imposible es una teoría dentro del campo de la estadística de la probabilidad o probabilidad estadística que estará centrada en el desarrollo analítico y aplicación sintética de la estadística y la probabilidad, y dentro de la aplicación sintética orientada tanto a estudios descriptivos e inferenciales para la crítica racional de la hipótesis empíricas.

El método analítico de Probabilidad Imposible para el desarrollo de proposiciones analíticas será el silogismo de la tendencia, cuando el objeto de estudio sea el desarrollo mismo de la estadística de la probabilidad o probabilidad estadística en tanto que disciplina o campo de la matemática. Una proposición analítica deducida del análisis lógico de la tendencia de inversión de N en relación a N, es que conforme N tienda a infinito la inversión de N tiende a cero.

A partir del desarrollo analítico de la estadística de la probabilidad o probabilidad estadística, en Probabilidad Imposible se crea una serie de métodos aplicables a las ciencias sintéticas,  la creación de métodos sintéticos donde se aplique el análisis lógico de la tendencia a hechos empíricos, el Segundo Método, estudios de ranking, el Impacto del Defecto, y la Distribución Efectiva, que tienen por objeto la descripción de la realidad, y a un nivel superior la inferencia, la validación de proposiciones sintéticas en forma de hipótesis empírica.

Cuando en ciencias sintéticas el objeto de estudio sea la descripción de una determinada realidad, natural o social, en los estudios descriptivos que no partan de ninguna hipótesis previa, el objeto de estudio será simplemente la identificación de la tendencia de las muestras extraídas del universo. Una vez extraída una tendencia, y en síntesis a las teorías y modelos previos del paradigma del científico o equipo científico, de la síntesis entre la descripción y las ideas previas se deduce la hipótesis empírica, que explique lo observado, hipótesis que para ser aceptada racionalmente, de modo universal y provisional, deberá superar las pruebas de contraste de la crítica racional.

Dado que Probabilidad Imposible parte de una metodología cuantitativa hipotético deductiva  el objeto de la investigación, el tema central del estudio, se sintetiza en la hipótesis empírica, para su validación lógico-matemática, la hipótesis deberá explicar la tendencia a someter a prueba para su aceptación, de este modo el verdadero objeto de estudio será la definición de la tendencia en la descripción,  la deducción de la hipótesis a partir de la descripción empírica y las premisas previas del paradigma, y finalmente comprobar que dicha hipótesis sea al menos provisionalmente correcta para todo el universo.

En cualquier caso, ya sea en la fase inicial de la investigación, la descripción, o la fase superior de la investigación, la inferencia, en cualquiera de sus fases el objeto de estudio será la tendencia, en la fase inicial para identificar la tendencia, en fase final para, a partir de la hipótesis producto de la síntesis entre lo observado y las ideas previas, poner a prueba la hipotética explicación de la tendencia.

De este modo, en estadística de la probabilidad o probabilidad estadística, en todas las ciencias sintéticas en donde se aplique el Segundo Método, el verdadero objeto de estudio siempre será el estudio de la tendencia, motivo por el cual, en Introducción a la Probabilidad Imposible, estadística de la probabilidado probabilidad estadística, especialmente desde el apartado 10, siempre que se haga mención al objeto de estudio se referirá a los distintos tipos de tendencia posible en una muestra y el universo, en modelos normales, estudios de igualdad o estudios de sesgo, sea sesgo positivo o sesgo negativo, y en modelos omega la tendencia a la probabilidad ideal por aquel conjunto definido de sujetos u opciones ideales integrados en el subconjunto omega dentro de N, que para ser verdaderamente un subconjunto de N será superior a uno e inferior N.

La tendencia a igualdad de oportunidades es cuando el ideal definido a priori por la política científica en la hipótesis empírica, es la tendencia de todas las probabilidades empíricas de todos los sujetos u opciones por igual a lo que sería un verdadero comportamiento en igualdad de oportunidades, definido en probabilidad estadística por inversión de N, 1/N, la probabilidad teórica de ocurrencia en igualdad de oportunidades por azar.

En la medida que en estudios de igualdad los ideal sería la tendencia de las probabilidades empíricas a inversión de N, la dispersión tendería a descender, a nivel individual por un descenso generalizado en los Niveles de Sesgo, a nivel muestral un descenso en la Desviación Media o Desviación Típica.

De modo que en los contrastes de hipótesis para la verificación de si realmente se ha producido el descenso en la dispersión los Niveles de Sesgo individuales deberían ser iguales o inferiores a un margen de error, Validez de Igualdad, y a Nivel Crítico Muestral de Igualdad, la Desviación Media o Típica igual o inferior a un margen de error.

En los estudios de sesgo positivo, aquellos donde para que se alcanzase el Máximo Sesgo Teórico Posible sería necesario que de toda N sólo hubiera un único sujeto u opción que acumulase todas las puntuaciones directas o frecuencias. Por ejemplo, que en un examen tipo test de respuesta múltiple, todos los alumnos respondiesen sin fallar a todas las cuestiones seleccionando siempre la respuesta correcta, de modo que si por cada item sólo se selecciona la opción correcta, la frecuencia de las opciones correctas sería igual a la frecuencia total, o en unas elecciones democráticas toda la población sin excepción alguna votase al mismo candidato, que en tal caso acumularía el total de votos de toda la población. En tales casos, si de toda N sólo hay un sujeto u opción que tiene puntuación directa o frecuencia distinta de cero, y todos los demás sujetos u opciones  puntuación directa o frecuencia igual a cero, se cumplirían las condiciones necesarias para que se diera la Máxima Desviación Media Teórica Posible o Máxima Desviación TípicaTeórica Posible, luego si en un modelo normal de sesgo positivo lo ideal es que de toda N sólo un sujeto u opción acumulara todo el sesgo positivo, la verificación de esta hipótesis se verificaría analizando la dispersión, ya sea porque el Nivel de Sesgo del sujeto u opción ideal es igual o superior a un margen de fiabilidad, en Validez de Sesgo Positivo, o la Desviación Media o Desviación Típica son iguales o superiores a un margen de fiabilidad, Nivel Muestral Crítico de Sesgo.

Los estudios de sesgo positivo se pueden compatibilizara a su vez con los estudios de sesgo negativo, dado que proporcionalmente aumente el sesgo positivo del aquel único sujeto u opción ideal, debería crecer el número de sujetos u opciones que tuvieran sesgo negativo, para lo cual dichos sujetos u opciones deberían disponer de un Nivel de Sesgo negativo igual o superior a un margen de fiabilidad, Validez de Sesgo Negativo.

En los modelos omega, que en una N superior a dos halla un subconjunto de sujetos u opciones definidos ideales por la política científica, por ejemplo, en una encuesta sobre hábitos de vida que por cada ítem halla más de una opción adecuada, o en unas elecciones que más de un candidato o delegado fuese ideal para una corriente política siendo deseable el aumento en votos por igual, o cualquier otra situación análoga, que en una N superior a dos halla al menos más de un sujeto u opción, aunque no toda N, que se quisiera aumentar por la probabilidad empírica, sería una situación que se ajusta a un modelo omega, en tales casos lo ideal sería la tendencia de los sujetos u opciones comprendidos en omega hacia la probabilidad ideal, inversión de omega, 1/Ω, lo cual se validaría en la Validez de Omega, que el Nivel de Sesgo relativo a omega, probabilidad empírica menos probabilidad ideal, sea igual o superior a un margen de fiabilidad, y a Nivel Muestral Omega

La Validez de Igualdad, la Validez de Sesgo Positivo y Sesgo Negativo, la Validez Omega, el Nivel Muestral Crítico de Igualdad, el Nivel Muestral Crítico de Sego, y el Nivel Muestral Omega, se explican en el apartado 11 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, recientemente actualizada en enero del 2015 incluyendo valoraciones sobre el tratamiento estadístico de puntuaciones directas de signo negativo. Además de los diferentes tipos de Validez y Niveles Muestrales, en el apartado 11 se incluyen diferentes modelos de crítica racional intramedicional, desde Proporciones Críticas, y Probabilidad de Iguadad o Sesgo Positivo o Negativo, y diferentes modelos para contratar la fiabilidad de la selección muestral. Y en el apartado 15 la adaptación del Sesgo Punto a la crítica racional de las puntuaciones típicas. En los apartados 16-20 los diferentes modelos de crítica racional intermedicional.

El verdadero objeto de estudio en la teoría de Probabilidad Imposible, en el estudio del campo de la estadística de la probabilidad o probabilidad estadística, es el estudio de la tendencia, siendo la tendencia la forma en que se manifiesta el comportamiento de los sujetos u opciones en la muestra, que se manifiesta en forma de dispersión. A menor dispersión mayor tendencia a igualdad de oportunidades, a mayor dispersión mayor sesgo, el sesgo puede ser positivo o negativo, si es el aumento del sesgo de los sujetos u opciones ideales es sesgo positivo, y lo ideal es aumentar el sesgo positivo, distinguiendo dos situaciones, o bien que dentro de N sólo hubiera un único sujeto u opción ideal, entonces el modelo tenderá a la máxima dispersión empírica en modelos normales conforme el sujeto u opción tienda al Máximo Sesgo Teórico Posible, o de toda N halla un grupo de sujetos u opciones ideales superior a uno pero inferior a N, que en tal caso deberían tender a la probabilidad ideal, luego dispersión ideal.

De este modo en el momento que se define que el objeto de estudio es la tendencia, y la tendencia se define en función de la dispersión, según disminuya o aumente en coherencia a los ideales de la política científica, finalmente el objeto de estudio es el estudio de la dispersión de las probabilidades estadísticas.

 

Rubén García Pedraza, Madrid a 11 de abril del  2015
 
https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería
 

sábado, 28 de marzo de 2015

Probabilidad uno


La probabilidad uno es la máxima probabilidad de cualquier suceso. En la medida que la probabilidad es un estimador racional  del grado de posibilidad de un hecho,  siendo racional por cuanto se define por un número racional, una razón matemática en forma de cociente.

Dicha razón es definida por la estadística clásica como número de casos favorables entre todos los casos posibles, de modo que el resultado sólo puede variar entre cero y uno, cero sería la menor probabilidad posible asociada a un  evento cualquiera, y uno significaría determinación o certidumbre, pase lo que pase, un suceso que tuviera asociada una probabilidad igual a uno, sucedería siempre.

En el Segundo Método de Probabilidad Imposible para el estudio del campo de la estadística de la probabilidad o probabilidad estadística, supone una redefinición de conceptos tradicionales, se definen diferentes tipos de probabilidades: probabilidad empírica, probabilidad teórica, probabilidad ideal, y probabilidad crítica.

De todas las probabilidades estadísticas mencionadas, las únicas susceptibles de poder llegar a ser probabilidad uno serían la probabilidad empírica y la probabilidad crítica.

En el caso de la probabilidad crítica, dado que en Probabilidad Imposible se calcula sobre el producto de un porcentaje X de error o fiabilidad por una máxima tendencia empírica,  una probabilidad crítica igual a uno sólo sería posible en estudio de fiabilidad y si la máxima tendencia  empírica fuera a su vez igual a uno, lo cual depende del modelo. Si la máxima tendencia posible de un modelo empírico es la unidad, el producto de la unidad por el máximo porcentaje X de fiabilidad, cien por cien de fiabilidad, entre cien, sería igual a probabilidad crítica igual a uno, de forma que sólo se aceptaría el modelo empírico siempre que fuera igual al su máxima tendencia.

p(xc) = X : 100

X= porcentaje de fiabilidad

Un ejemplo de modelo empírico cuya máxima tendencia puede ser igual a uno es de hecho la probabilidad empírica, a  la que se puede criticar directamente a través del Nivel de Sesgo Crítico. Para aquellos modelos cuya máxima tendencia no necesariamente es igual a uno, su máxima tendencia por 100 por cien de fiabilidad entre cien no necesariamente es igual a la unidad. La estimación crítica de la fiabilidad dependerá de la máxima magnitud de la tendencia, por ejemplo, en Máximo Sesgo Teórico Posible.

En cualquier caso en los estudios de fiabilidad lo más normal es que, salvo que por alguna razón no de debiera permitir el más mínimo error, lo más normal es aceptar un margen de error por mínimo que sea, luego se acepten márgenes de fiabilidad algo inferiores al cien por cien, de modo que el producto de ese margen de fiabilidad por la tendencia máxima, sería la razón crítica, de modo  que cualquier modelo empírico igual o superior a razón crítica se acepta.

En los estudios de error en cualquier caso, lo ideal sería siempre, sobre la máxima tendencia empírica aceptar la menor tendencia posible, en tanto que cualquier signo de tendencia sería interpretada error, de modo que el menor error posible sobre la tendencia sería igual a cero por cien de error, entre cien, por la máxima tendencia, igual a cero, aunque lo más normal es que la razón crítica establezca márgenes de error más flexibles, aceptando un margen de error, aunque lógicamente el menor posible, de modo que cualquier tendencia empírica igual o inferior a margen de error se acepta.

Los diferentes modelos de probabilidad crítica para estudios intramedicionales se explican desde el apartado 11 de Introducción a la Probabilidad Imposible,estadística de la probabilidad o probabilidad estadística, recientemente actualizada en enero del 2015 para incluir valoraciones sobre el tratamiento estadístico de puntuaciones directas de signo negativo. En este blog sólo se ha explicado una mínima parte de los diferentes tipos de prueba que hay para este tipo de estudios.

La probabilidad empírica es uno de esos modelos empíricos susceptibles de que su máxima tendencia sea igual a uno, y en el Segundo Método de Probabilidad Imposible la definición de probabilidad empírica de sujeto u opción es igual al valor absoluto de la puntuación directa o frecuencia entre el sumatorio de los valores absolutos de todas las puntuaciones directas o frecuencias, de modo que la única forma de que hubiera probabilidad empírica igual a uno es que de toda la muestra sólo un sujeto u opción particular fuera distinto de cero, luego aquel único sujeto u opción particular acumulara toda la puntuación directa o frecuencia de la muestra, que su puntuación directa o frecuencia fuera igual al sumatorio de todas las puntuaciones directas o frecuencias de toda la muestra, o lo que es lo mismo, que la probabilidad empírica de los demás sujetos u opciones fuera igual a cero, salvo la de ese único sujeto u opción distinto de cero.

En el caso de los universos de opciones limitadas si una probabilidad empírica de un sujeto u opción es igual a uno es porque la frecuencia de ese sujeto u opción es igual a la frecuencia total, la frecuencia de ese sujeto u opción acumula el total de la frecuencia. En los universos de sujetos u opciones infinitos para que la probabilidad empírica de sujeto u opción fuera igual a uno sería necesario que la puntuación directa de ese único sujeto u opción fuera distinta de cero, siendo para el resto de sujetos u opciones igual a cero.

Dado que el valor de ninguna probabilidad empírica puede ser superior a uno, a lo máximo igual a uno, en tanto que la probabilidad es una magnitud de posibilidad que oscila entre cero y uno, a la probabilidad empírica igual  a uno en Probabilidad Imposible se llamará Máxima Probabilidad Empírica Posible, por cuanto no son posibles probabilidades empíricas superiores a la unidad.

Máxima Probabilidad Empírica Posible = 1

La condición de posibilidad para que en un modelo se dé la Máxima Probabilidad Empírica Posible es que de toda N sólo un sujeto u opción sea distinto de cero, de modo que bajo estas condiciones ese único sujeto u opción distinto de cero tendría la Máxima Probabilidad Empírica Posible, de modo que en tal caso, siendo el Nivel de Sesgo igual a la diferencia de probabilidad empírica menos teórica, el Máximo Sesgo Teórico Posible sería igual a la diferencia de la unidad menos inversión de N, 1/N, que sí realmente se da bajo condiciones de máxima tendencia de aquella única probabilidad empírica distinta de cero, entonces el Nivel de Sesgo, de aquella única probabilidad empírica distinta de cero, igual a Máximo Sesgo Teórico Posible, debería ser un sesgo a su vez igual al Máximo Sesgo Empírico Posible, definiéndose el Máximo Sesgo Empírico Posible igual al cociente de Sesgo Total entre dos, siendo el Sesgo Total igual al sumatorio de los valores absolutos de todos los Niveles de Sesgo.

Maximo Sesgo Teórico Posible = 1 – 1/N

Máximo Sesgo Empírico Posible = ∑ /( p(xi) – 1/N)/ : 2

Sesgo Total = /( p(xi) – 1/N)/

Las únicas condiciones bajo las cuales el Nivel de Sesgo de un sujeto u opción fuera igual al Máximo Sesgo Empírico Posible, es que su Nivel de Sesgo fuera igual a Máximo Sesgo Teórico Posible, igual a unidad menos inversión de N, 1/N, de modo que fuera el único sujeto u opción en toda la muestra que dispusiera de sesgo positivo, por lo que todos los demás sujetos u opciones, iguala N menos uno, tuvieran sesgo negativo, y la suma de todos los Niveles de Sesgo negativos de todos los demás sujetos u opciones, N menos uno, fue a igual al producto de inversión de N, 1/N por N menos uno, producto que necesariamente a su vez tiene que ser igual al Máximo Sesgo Teórico Posible, uno menos inversión de N.

1 – 1/N = 1/N · ( N – 1) = ∑ / ( p(xi) – 1/N) : 2

Valor absoluto del Máximo Sesgo Negativo Posible = 1/N

El motivo por el cual, bajo condiciones de máxima tendencia de un sujeto u opción a la Máxima Probabilidad Empírica Posible, la suma de todos los demás sesgos negativos asociados a las probabilidades empíricas igual a cero, suma igual a inversión de N por N menos uno, sería igual al Máximo Sesgo Teórico Posible, se debe a que por la propia bondad natural del azar, en la naturaleza siempre, bajo cualquier circunstancia, todos los sesgos positivos compensan a todos los sesgos negativos y viceversa, salvo en muestras de ceros, de modo que siempre la suma de sesgos negativos es idéntica a la suma de sesgos positivos, razón por la que en Desviación Media se calcula el sumatorio de los Niveles de Sesgo en valor absoluto, dado que de lo contrario el sumatorio sería igual a cero, razón por la cual, de haber en toda N un solo Nivel de Sesgo positivo, necesariamente ese único Nivel de Sesgo positivo debe ser suficiente para compensar a todos los Niveles de Sesgo negativo, de modo que el Máximo Sesgo Teórico Posible sería igual a Máximo Sesgo Empírico Posible, igual a Sesgo Total entre dos, bajo condiciones de máxima dispersión, que de toda N sólo una probabilidad empírica sea distinta de cero.

En caso de darse una situación de esta naturaleza, lógicamente, la dispersión muestral, la Desviación Media o Desviación Típica, sólo puede tender a Máxima Desviación Media Teórica Posible, o Máxima Desviación Típica Teórica Posible.

La importancia de conocer cuales son las máximas tendencias empíricas, Máxima Probablidad Empírica Posible, Máximo Sesgo Teórico Posible, Máximo Sesgo Empírico Posible, Máxima Desviación Media Teórica Posible, Máxima Desviación Típica Teórica Posible, es como sobre las máximas tendencias empíricas la razón crítica de la política científica puede establecer los márgenes de error o fiabilidad para el contraste de hipótesis a través de probabilidades críticas suficientemente rigurosas, como para poner a prueba las hipótesis en la crítica racional.

Cuando en un modelo lo ideal es que de toda N sólo un único sujeto u opción tuviera probabilidad empírica igual a cero, para que tienda a Máxima Probabilidad Empírica Posible, se dirá que es un modelo normal de sesgo positivo, a diferencia de los modelos omega, Ω,  que dentro de N comprenden un conjunto de sujetos u opciones ideales denominado omega, en donde la magnitud de omega, Ω,  número de sujetos u opciones ideales, debe ser un número de ideales superior a uno e inferior a N, de modo que lo ideal es que los sujetos u opciones ideales tiendan a inversión de omega, 1/Ω, que sería la probabilidad ideal, motivo por el cual la probabilidad ideal en modelos omega,  nunca puede ser igual a uno, dado que no se dan condiciones de máxima dispersión posible, de ser la probabilidad empírica de todos los sujetos u opciones definidos ideales igual a probabilidad ideal, la dispersión tendería dispersión ideal, Desviación Media Ideal o Desviación Típica Ideal.

En el caso de la probabilidad teórica, 1/N, en la medida que es un estadístico de tendencia central, media aritmética de las probabilidades empíricas, salvo en muestras de ceros, y probabilidad teórica de ocurrencia el azar  en igualdad de oportunidades, la inversión de N, 1/N, nunca podrá ser igual a uno, por cuanto N siempre será superior a uno, siempre que realmente sea un modelo estocástico.

Cuando la probabilidad empírica de un sujeto u opción es igual a uno, entonces hay certeza de la ocurrencia de su fenómeno. Si lanzamos una moneda al aire, y esta trucada de modo que siempre sea favorable a cara, o a cruz, salvo por cualquier otro error de hecho, y la probabilidad empírica de cara es uno y la de cruz es cero, o viceversa, cruz igual uno y cara igual a cero, salvo que dichas condiciones que provocan el sesgo en la moneda varíen por algún error de hecho desconocido, de lanzar la moneda habría certidumbre de obtener cara si la probabilidad de cara fuera uno, o certidumbre de obtener cruz si la probabilidad de cruz fuera uno, de modo que la probabilidad uno implicaría certidumbre, aunque, dentro de un margen de error de hecho.

En Probabilidad Imposible se llama error de hecho al propio error que de hecho supone aceptar la realidad, porque en la medida que sólo conocemos partes de la realidad, muestras de una realidad cuya verdadera naturaleza en sí o pura desconocemos, el error de hecho será siempre igual a la inversión de la magnitud de la muestra. En universos de sujetos u opciones infinitos la probabilidad de error de representatividad muestral será igual a inversión de N, 1/N, en universos de opciones limitadas la probabilidad de error de representatividad muestral será igual a la inversión de las puntuaciones directas o frecuencias, 1/∑i. De modo que salvo dentro del error de hecho, que de hecho supone aceptar una realidad parcial sobre márgenes de incertidumbre proporcionales a la inversión de la muestra, habría certeza de ocurrencia de un fenómeno siempre y cuando su probabilidad empírica fuera igual a uno.

La lógica de la inversión de N en relación a la dispersión teórica, y el error de hecho, en universos de sujetos u opciones infinitos, se explica en el apartado 5, y para universos de opciones limitadas en relación a las puntaciones directas o frecuencias en el apartado 9,de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Los fenómenos en que se pueda dar la circunstancia de tendencia a Máxima Probabilidad Empírica Posible, probabilidad uno, habría que estudiarlos, en Probabilidad Imposible, dentro de los estudios de sesgo, en los que se encuentran los estudios de sesgo positivo. Para la validación de una verdadera tendencia del sesgo positivo de dicho fenómeno habría que realizar pruebas de contraste de hipótesis, a nivel individual y a nivel muestral, para verificar que dicha tendencia es suficientemente fiable.

 

Rubén García Pedraza, Madrid a 28 de marzo del 2015.
 
 


https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería Matemática