PROBABILIDAD IMPOSIBLE


Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿ quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


imposiblenever@gmail.com

@imposiblenever

miércoles, 21 de enero de 2015

Nueva Edición 2015 de Introducción a la Probabilidad Imposible disponible al público en amazon


 
La nueva edición 2015 de Introducción a la ProbabilidadImposible, estadística de la probabilidad o probabilidad estadística, se encuentra ya disponible al público para su adquisición inmediata, tanto en versión Kindle de amazon, y la versión impresa de createspace.

Desde últimas  horas de ayer ya  se podía adquirir la nueva edición 2015 para ebook a través de kindle, y desde primeras horas de hoy la versión de createspace, la marca de amazon para la edición impresa de libros físicos,  pudiéndose encontrar tanto en amazon.com como en amazon Europa, y amazon.es, ambas versiones, ebook e impresa, y  además en el createspace store la versión impresa. Y por supuesto ya se han añadido los enlaces oportunos al blog de la Librería Matemática en donde siempre se pueden encontrar las últimas actualizaciones de la obra.

En el caso de la obra impresa, para los lectores europeos, señalar que todavía no está disponible en amazon Europa, puede tardar unos días, se informa porque en caso de adquirir la obra inmediatamente en lugar de ser enviada desde Europa, el país de envío quizás sea Estados Unidos, lo que aumente el precio del cargo. En cinco días laborables aproximadamente ya estará disponible en amazon Europa la versión impresa.

La importancia de la Edición 2015 reside en que va a ser la última ampliación de la obra, quedando este formato ya establecido definitivamente. En próximas ocasiones, en lugar de hacer nuevas ediciones se van a publicar periodicamente estudios monográficos sobre aplicaciones concretas de la teoría, de modo que quien estaba esperando la edición definitiva esta es la oportunidad, la obra que se presenta en amazon y en createspace bajo el nombre de Introducción a la Probabilidad Imposible (Edición 2015) va a ser desde ahora la única que se distribuya desde los canales oficiales del blog de Probabilidad Imposible, sus redes sociales, y páginas amigas.

El motivo por el cual se deja clara constancia en el título de que es la Edición 2015, es para que se pueda diferenciar de cualquier otro ejemplar de segunda mano de versiones antiguas ya no disponibles, que todavía pueden seguir apareciendo en amazon.

La principal y definitiva novedad de la Edición 2015 es la incorporación de valoraciones sobre el tratamiento de probabilidades estadística calculadas sobre puntuaciones directas de signo negativo, que en tal caso, para el cálculo, se tomarán sobre su valor absoluto, para la estimación de sumatorios y cocientes para la obtención de probabilidades. Un detalle extremadamente importante dado que será determinante para la futura interpretación de las soluciones de los resultados, y de las comparaciones pertinentes.

Para aquellos lectores que estén interesados sobre el modo en que se resuelven estas cuestiones directamente deberán leer a los siguientes puntos, desde el 3.3.12.1. al 3.3.12.11. de la obra, así como hay menciones a lo largo de la nueva edición sobre este modo de valorar el tratamiento estadístico de probabilidades estimadas sobre puntuaciones directas obtenidas de la medición sobre escalas que comprenden enteros desde valores negativos a positivos.

Como ya muchos lectores saben, la obra se encuentra organizada por apartados y párrafos numerados, lo que facilita la lectura y la localización de  párrafos.

Para los lectores que ya han leído la obra se estudiará el modo que puedan tener acceso a las nuevas ampliaciones, en cualquier caso la Edición 2015, como siempre, se ha mantenido fiel al manuscrito original, únicamente modificándose aspectos formales no sustanciales, además de la incorporación de los nuevos casos mencionados para tratamiento en forma de probabilidad de valores enteros negativos.

La Edición 2015 que aquí se presenta de este modo es una contribución más a la expansión de una teoría que desde el  2011 que sale por primera vez a la luz en edición física, ha ido creciendo en lectores, seguidores, y fans, que entienden la necesaria reformulación de muchos conceptos tradicionales desde parámetros más innovadores, y la necesidad de nuevos aires en el campo de la epistemología matemática, que ofrezcan nuevas perspectivas de futuro a un campo del que, más allá del academicismo, es trascendental para el desarrollo de todas las ciencias, no sólo desde la contemplación de la matemática como una ciencia pura, también desde el punto de vista aplicado, cuyas aportaciones al resto de ciencia pueden ser detrminantes para la modelación final de la sociedad en que vivimos.

En este sentido, Introducción a la Probabilidad Imposible, además de ser una obra eminentemente dedicado a la epistemología de la probabilidad estadística o estadística de la probabilidad, aporta importantes reflexiones sobre el futuro tecnológico de la humanidad a expensas de  los nuevos desarrollos matemáticos, especialmente hay que hacer hincapié en el apartado 23 en donde se aborda la íntima relación entre replicación matemática y replicación robótica en la creación de nuevos modelos de Inteligencia Artificial, en donde la probabilidad y al estadística tienen mucho que decir, al igual que otros campos de la matemática.

También en el terreno de la reflexión sobre las relaciones matemáticas-ciencia, el apartado 24 ofrece una detallada reflexión sobre la importancia de la creación de modelos matemáticos en todo tipo de ciencias, no sólo naturales, también sociales, y finalmente el apartado 25, una aportación más al debate sobre un aspecto fundamental en la lógica del descubrimiento científico, la definición de hipótesis empírica.

En este blog se está haciendo una labor de divulgación y difusión de la teoría de Probabilidad Imposible para el estudio del campo de la estadística de la probabilidad o probabilidad estadísica, pero para un conocimiento más profundo, más allá del simplemente divulgativo que se pueda hacer desde las redes sociales sobre un esquema teórico, la lectura de Introducción a la Probabilidad Imposible es imprescindible, en la medida que ofrece un discurso ordenado y coherente sobre el sentido de la probabilidad en la ciencia contemporánea, un discurso que en su forma más abstracta no se puede encontrar en las redes sociales, a pesar de los avances de la tecnología.

La razón discursiva precisa de contextos explicativos que sobrepasan la inmediatez de la página web o el blog, y quizás sea algo en lo que la humanidad, a pesar de las profundas transformaciones cibernéticas, no cambie. La imperiosa necesidad de la construcción de la teoría sobre hipótesis, y proposiciones, cuya cadena lógica de relaciones formales y silogismos precise de un discurso claro y diferenciado, donde los conceptos aparezcan nítidos y no haya lugar a dudas más allá de las necesarias, la razón crítica de la lógica discursiva .

Por este motivo animo a todos mis lectores habituales del blog, seguidores en redes sociales, y fans que se han ido sumando a lo largo de los últimos años, para una mayor comprensión de esta teoría que están viendo nacer,  a una lectura profunda y reflexiva de  Introducción a la Probabilidad Imposible (Edición 2015), al mismo tiempo sigan las últimas novedades del blog de Probabilidad Imposible donde se informan de las últimas novedades, al mismo tiempo que se introduce a sus aspectos más relevantes, , y sobre todo para la divulgación y difusión de una teoría joven, que lentamente crece y se expande.

A todos vosotros, muchas gracias, y que disfrutéis de la lectura. 

Rubén García Pedraza, Madrid 21 de enero del 2015

 


http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible




 

 

lunes, 19 de enero de 2015

Nueva edición revisada de Introducción a la Probabilidad Imposible disponible al público en los próximos días


En los próximos días, o quizás horas, la nueva edición actualizada 2015 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, estará disponible para los lectores a través de los canales habituales de amazon y createspace.

Para los lectores que durante el día de hoy se hayan encontrado con la sorpresa de que no estaba ya disponible al público, informarles que se trata sólo de una suspensión temporal mientras los equipos de amazon y createspace validan los contenidos y vuelven a poner el libro en venta con las nuevas modificaciones incorporadas.

Normalmente el tiempo en que se tarda en realizar el proceso suele durar tan sólo unas horas, muy probablemente a lo largo del día de mañana ya estará disponible a la venta el libro en las librerías virtuales indicadas, no aun así, por si hubiera alguna incidencia en el servicio, se deja indicado que será en los próximos días cuando la nueva actualización de Introducción a la Probabilidad Imposible 2015 verá la luz.

De momento los canales de distribución de Introducción a la Probabilidad Imposible seguirán siendo amazon y createspace, aunque se está estudiando la posibilidad de ampliar a más canales de distribución, como ya en el pasado se había distribuido por Lulu, o por Google Libros, donde de momento sigue la vista parcial de la primera edición ebook 2013, aunque se retirará del servidor en cuanto aparezca la nueva versión 2015.

Más adelante en este mismo blog se irá informando de las principales novedades de la versión 2015 para ebook y material impreso, de momento sólo añadir que la principal incorporación es el tratamiento de puntuaciones directas de signo negativo, cuando en universos infinitos la escala de medida comprenda desde enteros negativos a positivos, debiéndose ser tratados a través de probabilidades estadísticas.

En cuanto la nueva actualización esté disponible en amazon y createspace se informará inmediatamente a través de este blog, y sus redes sociales.

Para aquellos lectores que han seguido adquiriendo la obra incluso aun después de la advertencia en ese blog de que próximamente saldría la nueva edición, y para todos los lectores que en los anteriores dos años ya han adquirido anteriores ediciones, se estudiará el modo de poner a su disposición algún documento en formato PDF con las últimas actualizaciones.

La importancia de la actualización 2015 reside en que muy posiblemente la actualización que saldrá en las próximas horas o días sea la  base de futuras publicaciones periodicas, en los próximos años se publicarán monografías sobre aspectos concretos y particulares de Probabilidad Imposible, monografías para cuya comprensión será imprescindible a priori un buen conocimiento sobre qué es la Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística

 

Rubén García Pedraza, Madrid 19 de enero  del 2015

 

sábado, 17 de enero de 2015

Ensayo y error


Ensayo y error es un método específico de investigación donde si para un problema hay una serie de posibles hipótesis y sólo una es correcta, el equipo de investigación prueba o ensaya cada hipótesis hasta llegar a la acertada. El método de ensayo y error históricamente se ha asociado al método experimental en ciencias naturales, o quasi-experimental en ciencias sociales, aunque en realidad se utilizan en multitud de disciplinas y ciencias sintéticas.

El origen de este método se encuentra en la moderna filosofía empirista , que utiliza la inducción para el desarrollo de hipótesis. Dentro del empirismo hay que diferenciar entre empirismo clásico, cuyo máximo exponente es Aristóteles, y el  empirismo moderno. En Aristóteles el conocimiento es producto de la observación o contemplación de la naturaleza, en donde el concepto de experiencia es pasivo, experiencia sensorial, la afectación perceptiva en la tabula rasa, sin necesidad de que el observador manipule u opere en la realidad. En el empirismo moderno el investigador asume un rol activo, la experiencia ya no es sinónimo de contemplación de la naturaleza , ahora por experiencia se entiende la manipulación de la naturaleza, bajo condiciones de control experimental, o si se puede condiciones de control de laboratorio, siendo bajo control experimental o control de laboratorio donde se realizan los ensayos.  Para el empirismo moderno experiencia es sinónimo de experimentalismo, no contemplación pasiva de las fuerzas naturales. El investigador asume un rol activo donde su función es la manipulación de la realidad, surgiendo así el moderno método experimental en ciencias naturales, y quasi-experimental en ciencias sociales.

Dentro del empirismo  moderno las figuras más emblemáticas serán Roger Bacon en el siglo XIII y Francis Bacon, XVI-XVII, método experimental que después tendrá importantes aplicaciones en la nueva ciencia, especialmente para Galileo y Newton que pondrán a prueba muchas de sus hipótesis. Una vez dijo Richard Feynnman que si hubiera algo que deberíamos legar para el futuro en caso que nuestra civilización desapareciera, sería el método experimental. De la síntesis entre método experimental y métodos matemáticos, las ciencias tendrán un  importante desarrollo desde la modernidad a la época contemporánea.

Dentro de la filosofía empirista fue Hobbes quien precisamente específica que el método de conocimiento humano por naturaleza es el de ensayo y error, elaborando una teoría inductivista donde el origen del conocimiento son las percepciones sensoriales, sólo que ahora de una forma activa, el conocimiento ya no es producto de la contemplación pasiva, es producto de la interacción entre el sujeto y su entorno en donde a través de la experiencia activa, por ensayo y error aprende cual es la mejor forma de operar  en la realidad.

El inductivismo y el empirismo desde muy temprano asumen el método de ensayo y error, dado que en un contexto donde hay varias hipotéticas soluciones, en ausencia de otro criterio el único modo de llegar a  la correcta es poniendo a prueba cada de ellas. Por ensayo y error se entiende que dado un rompecabezas para el cual existe un conjunto de posibles hipótesis,  la solución será inevitable probando cada una ellas, descartando las erróneas hasta encontrar la más verdadera.

Este tipo de métodos a medida que las ciencias han ido evolucionando se ha ido sintetizando a otros paradigmas no necesariamente inductivistas, pudiendo tener claras traslaciones a los métodos deductivistas. Un ejemplo claro el modo en que el médico Fulop Semmelweis, siglo XIX, redujo severamente la tasa de mortalidad en mujeres parturientas en el hospital de Viena. Después de poner a prueba todas las hipótesis posibles, una vez que observa que la mayor tasa de mortalidad se produce cuando los estudiantes de medicina atendían a las embarazadas, decide introducir medidas de asepsia, reduciendo la mortalidad. La hipótesis que manejó Semmelweis en aquel momento es que, en ausencia de medidas de higiene y asepsia, cada vez que los estudiantes accedían a las instalaciones y ayudaban en parto, traían consigo algún tipo de bacteria que era la que producía las altas fiebres y la alta tasa de mortalidad en las mujeres a las que estaban ayudando a dar a luz. Dentro de los manuales positivistas a este tipo de relaciones lógicas causa-efecto entre asepsia y reducción de la natalidad, le brindan un origen inductivista, cuando posiblemente más que inducción se deba a una deducción lógica.

Hoy en día la teoría del ensayo y error más que una praxis exclusivamente inductivista es aplicada a infinitud de ciencias y disciplinas y no necesariamente sobre cánones inductivistas. Si dada una situación determinada para la solución de un problema, en función de las variables que participen, se pueden deducir lógicamente una serie de hipótesis, el método de ensayo y error nos permitiría poner a prueba cada una de las hipótesis ligadas a una interpretación posible de la interacción entre diferentes variables.

Si en un rompecabezas interviene un número indeterminado de variables, en función del tipo y número de variables que incluyamos en el modelo la hipótesis será diferente.

Si dado un rompecabezas hay un número indeterminado de variables, se pueden combinar las posibles variables en conjuntos  diferentes, y por cada conjunto una hipótesis empírica, de modo que tendremos tantas hipótesis como conjuntos. O incluso más complejo todavía, la elaboración de hipótesis por cada una de las diferentes combinaciones entre conjuntos de variables, es decir, una hipótesis por cada combinación de combinaciones.

En síntesis, dada una serie de hipótesis empíricas deducidas lógicamente de su conjunto de variables, o combinación de conjuntos de variables, lo cual en suma generaría una serie de hipótesis posibles, la única solución es poner a prueba cada hipótesis, e ir refutando aquellos que superen el margen de error de la razón crítica, y finalmente aceptar como suficientemente racional la que genere el menor error posible, la que disponga de mayor fiabilidad.

Pongamos por caso el posible descubrimiento de un tratamiento o vacuna para el VIH o el ebola. En función de las  cualidades o variables que se atribuyan a un virus la elaboración de una vacuna o tratamiento médico diferirán enormemente. Muy posiblemente el descubrimiento inicial de cuales son sus cualidades dependerá de que en la primera fase la investigación, estadística descriptiva, nos aporte datos suficientes para conocer las cualidades estándar del virus, y sobre dichas cualidades posteriormente deducir lógicamente cual sería la vacuna o tratamiento más eficaz. En función de las variables que se detecten en la primera fase de la investigación descriptiva, dependerán las hipótesis empíricas que lógicamente se deduzcan sobre el comportamiento observado en dichas variables, de forma que, dado un conjunto de hipótesis en función de diferentes modelos atribucionales a diferentes conjuntos variables, o combinación de conjuntos de variables, cabe la posibilidad de poner a prueba diferentes hipótesis empíricas, en este caso vacunas o tratamiento médico.

Aunque originalmente el método de ensayo y error nace de empirismo, su aplicación trasciende dicho paradigma, y dentro de teorías racionalistas y deductivistas tiene importantes aplicaciones, dado que ante el desconocimiento de lo que realmente sucede, y siendo  factible la deducción lógica de conjuntos de hipótesis para cada casuística en particular, generando una serie de deducciones lógicas, hipótesis empíricas, que deben ponerse a prueba, el método de ensayo y error sería necesario para el proceso de descarte de aquellas hipótesis que no alcancen la suficiencia racional, y se acepte sólo aquella que demuestre una verdadera tendencia racional.

Por otro lado habría que señalar que aunque la teoría del ensayo y error surge por primera vez en los métodos experimentales modernos, sin embargo su aplicación práctica trasciende el método experimental o cuasiexperimental, pudiéndose aplicar a una infinidad de ciencias.

En realidad lo que llamamos métodos experimental de hecho no es otra cosa que una aplicación del método comparado, porque lo que el método experimental hace es una comparación entre, o bien el objeto antes y después de la manipulación experimental, o si disponemos de grupo de control, la comparación entre grupo experimental y grupo de control.

Si aplicamos una medicina a un enfermo, en ausencia de grupo de control, simplemente para ver los efectos en ese sujeto, si la medicina surte efecto comparamos es que gracias a esa medicina el paciente se recupera, ese proceso de recuperación lo testamos en el momento que comparamos la situación antes y después de la aplicación de la medicina .

Si un profesor tiene un alumno con dificultades en el aprendizaje, y los métodos educativos convencionales no ayudan, y cambia de método didáctico, y observa una mejora en el aprendizaje, lo que realmente hace es una comparación entre los resultados obtenidos entre el método anterior y el nuevo método de aprendizaje.

Si en una investigación médica sobre el tratamiento de una dolencia se dispone de grupo experimental y otro de control, y se comparan los resultados entre ambos grupos, igualmente se está aplicando el método comparado, de igual modo que si a un grupo de alumnos se les aplica un método educativo experimental mientras a otro se les mantiene la educación convencional, y se observan mejoras en los resultados en el grupo experimental.

Si dada una serie de hipótesis deducidas lógicamente cada una de ellas en función de una serie de premisas diferentes,  se contrasta cada hipótesis, lo que se está haciendo es la comparación entre los resultados obtenidos por cada hipótesis al ponerse a prueba cada una de ellas.

Realmente el método de ensayo y error, al igual que el método experimental, se puede decir son variantes del método comparado en la ciencia moderna. Si para Durkheim el método comparado era el método de las ciencias sociales, al igual que el experimental para las ciencias naturales, en realidad habría que decir al revés, el método experimental es a las ciencias naturales lo que el método comparado para en general todas las ciencias sintéticas, e incluso se podría decir para todas las ciencias, incluidas las analíticas, en la medida que hay interpretaciones que de hecho defienden que las matemáticas se basan igualmente en el método comparado, detección de similitudes y diferencias cuantitativas.

El hecho de que durante la modernidad se asociara el método de ensayo y error al método experimental no quiere decir que realmente este tipo de método sea sólo experimental. Si por ensayo y error entendemos proceso de descarte de hipótesis incorrectas, en realidad lo que viene a representar la teoría del ensayo y error es lo que Popper denominaría la lógica del descubrimiento científico, el falsacionismo, una hipótesis es verdadera mientras no se refute, o lo que es lo mismo, mientras no dé lugar a error, momento a partir del cual se demostraría falsa.

En realidad el concepto de ensayo y error define la lógica de la ciencia, o al menos las ciencias sintéticas: las hipótesis empíricas son verdaderas mientras no generen un nivel de error inasumible para la ciencia, momento a partir del cual son refutadas. En realidad toda las ciencias sintéticas en su conjunto funcionan por ensayo y error, y no sólo desde planteamientos empiristas o inductivistas, igualmente desde planteamientos racionales y deductivistas.

En Probabilidad Imposible la asunción de este tipo de postulados se elabora desde la síntesis de los principales paradigmas de la época contemporánea, racionalismo crítico, positivismo, y materialismo moderno, dentro de los cuales se asume que el conocimiento es resultado de la actividad o praxis, que implica interacción con la realidad, lo cual, bajo determinadas condiciones, implica el uso del método experimental, tal como ha defendido tradicionalmente el positivismo en ciencias naturales, o quasi-experimental o método comparado en ciencias sociales, aunque dentro de un margen de duda racional, y aceptando que la ciencia lejos del ideal de neutralidad, es una cuestión política, tal como señala el materialismo moderno, dependiente de la política científica de las agencias de investigación y sus equipos científicos.

Aunque de forma general el concepto ensayo y error define una lógica científica, por la que todas aquellas hipótesis refutadas se descartan, de forma específica históricamente se ha ligado al método experimental, del cual es una variante o sub-método, donde dada una serie de hipótesis posibles, en ausencia de cualquier otra determinación lógica o empírica, el único modo de corroborar cual es la más adecuada es probando cada una de ellas.

Ejemplos de método experimental en Probabilidad Imposible se abordan en el apartado 10 de la Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, donde se exponen ejemplos para la puesta a prueba de hipótesis explicativas e hipótesis tecnológicas.

Los ejemplos de método experimental en el apartado 10 se refieren tanto a estudios de igualdad de oportunidades y estudios de sesgo, sea sesgo positivo o sesgo negativo, en modelos normales y modelos omega. Señalar que , en Probabilidad Imposible, dentro de la metodología experimental, asociada al método de ensayo y error, lo que en realidad se valora es cual de las hipótesis genera un margen de error dentro de la razón crítica. En ningún momento se dice que se aceptara aquella hipótesis libre de error, sólo que de todas se aceptará la que menor error racional genere, lo cual por supuesto no implica que sea absolutamente verdad, sólo  que es relativamente verdad en forma inversamente proporcional a su margen de error, y que en cualquier caso, en el momento que el error posible se haga real, la hipótesis será automáticamente refutada y descartada, momento desde el cual, sobre los hechos que refutaron y descartaron la hipótesis anterior, se inicia un nuevo proceso de ensayo para encontrar nuevas hipótesis más isomorfas.


Rubén García Pedraza, Madrid 18 de enero del 2015



http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible

 

martes, 13 de enero de 2015

Próxima actualización de Introducción a la Probabilidad Imposible


En los próximos días se anunciará en este blog y en las redes sociales y páginas que están ayudando a la distribución de esta teoría, el anuncio de la nueva actualización del libro en donde viene explicada, Introducción a la Probabilidad Imposible, estadística dela probabilidad o probabilidad estadística.

Como ha venido siendo habitual en los últimos años, las actualizaciones de la obra se vienen publicando los meses de enero de cada año, para que así, desde primeros de año pueda estar disponible a los lectores, aunque para aquellos lectores que ya dispongan de la obra, en ebook o en material físico, se hará una presentación a través del blog de cuales han sido las nuevas actualizaciones para que las puedan guardar en sus archivos. Este año el modo en que se intentará ofrecer los párrafos modificados será presentando enlaces a algún soporte PDF en donde vendrán definidos cada punto en donde hay modificaciones apareciendo directamente la forma en que ha sido actualizado el nuevo párrafo.

En síntesis, de momento anunciar que las principales actualizaciones giran en torno al tratamiento de las puntuaciones directas de signo negativo, que debería realizarse en términos absolutos, de modo que una estadística de la probabilidad sobre probabilidades estadísticas estimadas en universos de sujetos u opciones infinitos, a partir de puntuaciones directas registradas en escalas de medida que contemplen números enteros, desde menos infinito a infinito, luego haya puntuaciones directas de signo negativo, el modo en que deberá interpretarse dichos resultados de cara al estudio del Segundo Método será desde su valoración en términos absolutos sin signo, tanto para el cálculo de los sumatorios de puntuaciones directas o frecuencias, y para el cálculo de la misma probabilidad empírica.

Sólo es un pequeño avance de las nuevas incorporaciones que se van a hacer en la nueva actualización de la obra que aparecerá próximamente, simplemente decir que para aquellos lectores que tenían pensado adquirir la obra, en los próximos días podrán tener acceso a la nueva versión actualizada, y los que ya dispongan de la misma, podrán tener acceso a un archivo donde poder disfrutar de las nuevas actualizaciones.

 

Rubén García Pedraza, 13 de enero del 2014

sábado, 3 de enero de 2015

Indeterminación


Indeterminación se dice en ausencia de determinación, porque las relaciones entre los elementos no son estrictamente causales, o son causas asociadas a un nivel de probabilidad,  causas probables, o simplemente variables correlacionales, en cualquier caso se llama indeterminación a todo contexto estocástico donde lo que sucede está asociado a algún grado de posibilidad.

En el siglo XX el concepto de indeterminación ha estado ligado al concepto de incertidumbre, entre otras razones, gracias al principio de Heisenberg, al cual, dependiendo del tipo de manuales o libros de divulgación científica, se le denomina principio de incertidumbre o principio de indeterminación.

El motivo por el que indeterminación e incertidumbre se han encontrado ligadas en la física, y en general al positivismo, se debe a que si certeza es cuando la probabilidad asociada a un acontecimiento es igual a uno, “1”, lo que en Probabilidad Imposible se denomina Máxima Probabilidad Empírica Posible, dado que la probabilidad es un término matemático que sólo puede oscilar entre cero, “0”, y uno, “1”, cuando se dice que la probabilidad de ocurrencia de un suceso es igual a uno, “1”, entonces hay absoluta certeza de que ese suceso vaya a ocurrir, no habiendo la más mínima duda de que pueda no suceder. En tal caso la certeza de ocurrencia es absoluta, determinación.

Sólo si la probabilidad de un fenómeno es inferior a la unidad, “1”, aunque mayor a cero, “0”, se dice que se hay un nivel de incertidumbre proporcional a la diferencia de la unidad, “1” menos esa probabilidad.

En función del nivel de incertidumbre, diferencia de uno, “1”, menos la probabilidad de ocurrencia, se asignará un grado de incertidumbre al fenómeno, y sólo si el nivel de incertidumbre es cero habría certeza absoluta. Salvo este caso, la incertidumbre es proporcional a la diferencia de la unidad, “1”, menos la probabilidad de ocurrencia.

A esta probabilidad de ocurrencia en Probabilidad Imposible se la denomina probabilidad empírica, y es igual a la puntuación directa o frecuencia de sujeto u opción entre sumatorio de puntuaciones directas o frecuencia. La teoría de Probabilidad Imposible en la medida que está enfocada a la crítica racional de lo que sucede, la realidad, o ha sucedido, la historia, la forma en que se calcula el margen de incertidumbre es a través del margen de error, de modo que cualquier hipótesis aceptada sobre un margen de error, es una hipótesis con un nivel de incertidumbre idéntico al margen de error, el cual previamente ha establecido la política científica en función de su razón crítica, y matemáticamente en el contraste de hipótesis se representa en forma de probabilidad crítica.

Siempre que en un modelo de ciencias sintéticas, naturales o sociales, no hay absoluta certeza de lo que puede suceder, es un modelo de indeterminación estocástica cuyo estudio depende de la utilización de métodos estocásticos, la estadística y la probabilidad. En el caso de Probabilidad Imposible, a través del campo de estudio que supone la estadística de la probabilidad o probabilidad estadística, para lo cual se genera una serie de métodos de estudio alternativos, el Segundo Método, el Impacto del Defecto, la Distribución Efectiva, y los estudios de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Se dice que un modelo de causalidad está sujeto a índices de probabilidad, causas probables, cuando no hay evidencia suficiente empírica que demuestre una vinculación clara y directa entre causa y efecto, de modo que la relación de causa y efecto es sólo probable. El ejemplo que suele citarse en Introducción ala Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, es la probabilidad del arco-iris . Si bien sabemos que cuando un rayo de luz penetra una gota de agua produce el efecto óptico de la fragmentación del espectro de colores de la luz, el hecho que llueva durante el día, dándose las condiciones de posibilidad del arco-iris, no es motivo o causa suficiente que determine la aparición del arco-iris, lo único que podemos saber es, sobre número total de días de lluvia observados, cuantos días ha salido el arco-iris, luego la probabilidad empírica de aparición del arco-iris será igual a número de días de lluvia observados que ha salido el arco-iris, entre el número total de días de lluvia observados.

 El hecho que llueva no es causa determinante o automática de la aparición del arco-iris,  es un fenómeno que sólo se produce bajo determinadas condiciones de posibilidad estocásticas, las cuales se pueden medir estadísticamente en forma de probabilidad, en Probabilidad Imposible la probabilidad empírica.

De otro lado se pueden dar fenómenos en donde sin haber una relación unívoca o unidireccional de causa y efecto, se pueden dar correlaciones positivas o negativas, a causa de la interacción o retroalimentación mutua. En este tipo de escenarios, más que relaciones de causa y efecto,  en la medida que los fenómenos interactúan y se retroalimentan entre sí, lo más conveniente es hablar de correlación, la cual puede ser directa o inversa.

Se dice correlación directa cuando la relación entre una serie de elementos es directamente proporcional, en donde el factor de correlación es el valor cuantitativo en que se relacionan de forma positiva los elementos estudiados. Si en un modelo  se observa una serie de elementos un crecimiento, sea en igual o desigual medida o proporción, se dice que hay correlación positiva en la medida que todos incrementan su valor, ya sea un crecimiento igual o desigual, pero siempre que en todos se manifieste crecimiento, siendo el valor numérico de la correlación positiva el factor de correlación en el crecimiento entre las diferentes variables.

Correlación inversa es cuando hay una correlación inversamente proporcional, si disponemos de dos elementos, y en tanto que una crece el otro decrece, o varios elementos, en donde mientras un conjunto de elementos crece el otro decrece, se dice que hay correlación inversamente proporcional entre el valor que crece y el otro que decrece, o correlación inversamente correlacional entre el conjunto que crece y el otro conjunto que decrece.

Los motivos por los que dos o más variables pueden correlacionar son diversos, ya bien por simple simultaneidad coincidente, o bien porque dicha coincidencia se produce  por algún conjunto de factores subyacentes en un contexto común a los fenómenos, que los desconozcamos, y sea la causa probable de su aparición, o sea una correlación debida a la propia influencia mutua entre los factores que se estudian, interacción o retroalimentación. Además de que sea una correlación debida a un modelo de causalidad probable, en donde la ocurrencia de un suceso normalmente correlacione favorablemente con otro posterior del cual sea causa probable.

Una de las características de la ciencia contemporánea es  que frente los modelos deterministas clásicos de relaciones absolutas de causación, la ciencia contemporánea tiende más al estudio de los niveles de causación probable o correlación, ya sea en estudios sobre la relación entre dos variables, o multi-variable.

El hecho que se admita la existencia de ámbitos empíricos de indeterminación estocástica, ha sido utilizado por algunos paradigmas para oponerse frontalmente a cualquier visión nomotética y normativa, sin embargo es curioso que mientras los paradigmas idiográficos han hecho uso de este argumento para reivindicar una ciencia cualitativa, especialmente en ciencias sociales, en el campo de las ciencias naturales la aceptación de la incertidumbre y la indeterminación empírica, lejos de suponer el rechazo a la formulación de leyes naturales, ha sido un elemento sobre el cual se ha articulado una revisión conceptual de la estructura de la ciencia, que mantiene la necesidad de leyes sobre lenguaje matemático, tal como ya proponía Galileo, operando una redefinición en la función leyes científicas, adaptándose a los nuevos escenarios de incertidumbre y relatividad.

Mientras en ciencias sociales el impacto del relativismo y la incertidumbre, o las nuevas teorías de la complejidad y el caos, han llevado a nuevos modelos científico sociales en donde se pone en duda el valor de las leyes científicas y el uso de metodologías cuantitativas, en ciencias naturales la forma en que se ha operado esta transformación en la comprensión de la ciencia es hacia un modelo de ciencia en donde la interpretación de las leyes naturales queda sujeta a grandes márgenes de indeterminación e incertidumbre, entendiéndose un necesario margen de libertad a los fenómenos, comprendiendo que cualquier predicción posible carece de certeza absoluta, habiendo márgenes de error en las afirmaciones y predicciones.

Es precisamente en los años en que Planck, Einstein, Heisenberg, Schrondinger y los primeros grandes teóricos de la mecánica cuántica y la cosmología de principios del siglo XX hacen sus descubrimientos más importantes, cuando emerge con toda su fuerza el positivismo lógico, en un momento de las ciencias naturales en donde se avanza al relativismo y el indeterminismo, momento en que esta escuela desarrolla una ciencia claramente nomotética. Si se observa las revelaciones científicas de principios del siglo XX, ninguno de los grandes físicos teóricos de la época pone en cuestionamiento las leyes científicas, lo que hacen es advertir que lo que las leyes científicas manifiestan es que la ocurrencia de sucesos queda sujeta a grados de posibilidad. Lo que se opera es un cambio de un modelo nomotético determinista a un modelo nomotético indeterminista. En ningún momento se produce una ruptura frente a Galileo, quien ya propone en las ciencias naturales el establecimiento de leyes naturales sobre lenguaje matemático, sólo se produce una ruptura frente al determinismo aristotélico.

El determinismo clásico, el determinismo aristotélico, por el cual la realidad es una secuencia determinada y ordenada de relaciones causa-efecto, completamente predecibles en la teoría de probabilidad de Laplace, que en su origen se deben a un primer motor, o causa primera, lo que en la metafísica escolástica se vincula a la idea de Dios, es un determinismo que si bien todavía hoy tiene importantes defensores, la idea de que el universo y la realidad es una secuencia predecible de causas y efectos que tiene por origen el Big Bang, sin embargo a medida que las ciencias se desarrollan el determinismo clásico está siendo abandonado por nuevos modelos de determinismo más sofisticados, lo que sería en realidad un neo-determinismo.

El determinismo clásico aristotélico parte de la idea de que todo está determinado por relaciones de causalidad, ahora bien, en la medida que esta idea ha sido fuertemente criticada desde las ciencias en el siglo XX, el determinismo clásico ha sido abandonado por nuevos modelos neo-deterministas, en donde si bien admiten márgenes de indeterminación, incertidumbre, o relativismo, entienden la determinación de la realidad en base a determinados reduccionismos.

Mucho de los reduccionismos de las ciencias sintéticas del siglo XX, y que encuentran diversos correlatos a inicios del siglo XXI, son en realidad neo-determinismos adaptados a las nuevas circunstancias que rodean a la filosofía y la ciencia.

Un ejemplo de neo-determinismo es el fisicalismo del siglo XX, una corriente que surgirá dentro del positivismo, según la cual todos los procesos naturales o sociales están determinados por los procesos físicos subyacentes. El fisicalismo del siglo XX en ningún momento rechaza la incertidumbre o la indeterminación de la física, ahora bien, aceptando que la física es una ciencia estocástica, luego indeterminada, establece que todas las demás ciencias y disciplinas científicas de uno u otro modo quedan determinadas por las relaciones estocásticas de la física. El fisicalismo supone un neo-determinismo por cuanto ya no defiende el determinismo clásico de Aristóteles, en la medida que acepta la indeterminación, la incertidumbre y el relativismo, es decir, acepta que la física es una ciencia estocástica no sujeta a determinaciones causales universales, pero sin embargo determina que todo cuanto pueda suceder en la naturaleza y la sociedad, y pueda ser estudiado por las demás ciencias naturales o sociales, son procesos determinados y supeditados a las relaciones estocásticas de la física.

De igual modo, muchos de los reduccionismos del siglo XX, por ejemplo el biologismo, según el cual todo queda determinado por la biología, incluso la teoría del conocimiento que depende de la fisiología, fisiologismo, o el economicismo según el cual todo queda determinado por la economía, en el caso del conocimiento por los intereses económicos, el psicologicismo por el cual todo está determinado por la psicología, y por supuesto la psicología del conocimiento, o el sociologismo según el cual todo queda determinado por las relaciones sociales, siendo el conocimiento una construcción social. Todo reduccionismo a su forma, aceptando en aquello sobre lo que hace la reducción un margen de indeterminación, todo lo demás queda determinado .

Aunque el biologismo pueda entender un margen de indeterminación en las relaciones biológicas, posteriormente todas las demás funciones humanas, sociales, económicas, culturales, quedan determinadas sobre las funciones de indeterminación biológicas. Es un neodeterminismo por cuanto entiende que hay un margen de indeterminación biológica, pero es sobre ese margen de indeterminación biológica sobre lo que se determina todo lo demás. En el economicismo sucede exactamente lo mismo, entendiendo que en las leyes del mercado, o cualquier otra ley económica hay márgenes de indeterminación, es sobre los márgenes de indeterminación de la economía sobre lo que posteriormente determina todas las demás funciones humanas. En el psicologicismo, aunque hay márgenes de indeterminación en la psicología humana, todas las demás funciones se supeditan y quedan determinadas por la psicología. Y en el sociologismo, aunque haya un margen de incertidumbre social, es sobre la incertidumbre social lo que se determinan todas las demás funciones.

Las críticas a este tipo de neo-determinismos en la epistemología y la filosofía del siglo XX han sido diversas, por la complejidad a la que tienden las ciencias hoy en día que escapan a la reducción o simplificación de todo a unos pocos factores. De un lado las ciencias físicas avanzan hacia una explicación del todo, tal como propone la Teoría de Cuerdas, lo cual supone un progreso hacia la unificación de la ciencia, aunque dentro de este tipo de teorías siempre hay riesgo de fisicalismo, si es que no riesgo de pitagorismo, y de otro lado, las nuevas teorías de la complejidad, que avanzan hacia una visión compleja en principio no reductible, aunque en algunas interpretaciones de este paradigma hay riesgo de biologismo, aunque sería más correcto decir vitalismo, por lo importante que ha sido la biología, y las reminiscencias de la metafísica vitalista, en el origen de las ciencias de la complejidad.

En la dialéctica entre determinación e indeterminación, a menudo se observa como paradigmas en principio no deterministas evolucionan a postulados deterministas, y viceversa, una ciencia históricamente determinista como ha sido la física a partir de Heisenberg tendrá importantes desarrollos indeterministas en el campo de la mecánica cuántica.

 A lo largo de la historia de la filosofía y la ciencia se observa una sucesión de paradigmas, a veces en una evolución en ciclos pendulares, en donde la filosofía y la ciencia, en su evolución cíclica, evolucionan yendo de un extremo a otro. Siendo en sus inicios el determinismo parte integrante de la ciencia, hasta finales del siglo XIX y principios del siglo XX, momento en que la crítica a este tipo de modelos, junto con la crítica que en el siglo XIX se hace a la lógica lineal y la geometría euclidiana, llevará a nuevos modelos de lógica, y nuevas formas de entender la realidad, en donde al tiempo que aparecen nuevos neo-determinismos, la incidencia del indeterminismo ha sido de enorme influencia.

Este cambio de paradigma científico tendrá mucha relación con los cambios que se ha producido desde la Ilustración, en donde hay una clara reivindicación del concepto de libertad, abandonando cualquier determinación absoluta sobre el comportamiento humano, a diferencia de épocas anteriores, por ejemplo la Reforma calvinista, en donde el comportamiento humano era una función determinada por parámetros religiosos.

Indeterminación y libertad tendrán una amplia repercusión en ciencias sociales, y especialmente en política, donde a medida que desde el siglo XIX triunfen las revoluciones democráticas, aparecen nuevos discursos liberales, de social-democracia, socialistas, y libertarios, haciendo un discurso sobre la importancia de la libertad del ser humano, y como la voluntad debe quedar libre de cualquier tipo de atadura, especialmente supersticiosa o metafísica, surgiendo así nuevos paradigmas en la ciencia, como el materialismo moderno, el positivismo o el nihilismo.

La indeterminación en la medida que supone ausencia de determinación, implica un margen de escepticismo empírico o duda racional en el conocimiento de lo que sucede, que de facto en la teoría de Probabilidad Imposible lleva a un margen de nihilismo lógico, dentro de los márgenes de error de la razón crítica.

Rubén García Pedraza, Madrid a 4 de diciembre del 



http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible
 

sábado, 20 de diciembre de 2014

Sesgo negativo en modelos omega


Sesgo negativo en Probabilidad Imposible es cuando en el Nivel de Sesgo la diferencia de la probabilidad empírica menos probabilidad teórica es igual a resultado de signo negativo, de modo que la probabilidad empírica es inferior a la teórica. Y un modelo omega es aquel donde dada una muestra N de sujetos u opciones, hay un subconjunto de sujetos u opciones ideales, denominado omega, Ω, que tiende o debe tender a la probabilidad ideal, siendo aquel subconjunto de sujetos u opciones que a criterio de la política científica se definen ideales, ya sea por sus cualidades, o sean elementos de eficacia o eficiencia en un proceso o sistema, compartiendo todos el ideal en un mismo grado, o un mismo grado de eficacia o eficiencia . De no ser así y haber gradaciones jerárquicas en el modo de compartir el ideal, o el grado de eficacia o eficiencia, sería un modelo de Distribución Efectiva.

El número de sujetos u opciones ideales del subconjunto omega varía entre dos y N menos uno, en la medida que el conjunto omega sólo puede ser inferior a N y superior a uno. Para que se pueda hablar de subconjunto dentro de N, el subconjunto no puede ser igual a N, y en cualquier caso dicho subconjunto no puede estar formado por un solo miembro en particular, dado que entonces ya sería un modelo normal de sesgo positivo.

Para todos los sujetos u opciones comprendidos en omega, lo ideal es la tendencia a la probabilidad ideal, que es igual a la inversión de omega,” 1/Ω”, de modo que el sesgo ideal para cualquier ideal es igual a la diferencia de la probabilidad ideal menos la probabilidad teórica, “1/Ω - 1/N”, o lo que es lo mismo, inversión de omega menos inversión de N, en donde si en todos los sujetos u opciones comprendidos en omega se dieran estas condiciones, probabilidad empírica igual a probabilidad ideal y Nivel de Sesgo igual a sesgo ideal, entonces para todos los demás sujetos u opciones de la muestra N, no comprendidos en el conjunto omega, la probabilidad empírica tendería a cero, luego el Nivel de Sesgo tendería al Máximo Sesgo Negativo Posible.

La Mínima Probabilidad Empírica Posible es la probabilidad cero, “0”, Probabilidad Imposible, dado que ninguna probabilidad puede ser inferior a cero en la medida que no existen probabilidades de signo negativo, las probabilidades sólo pueden ser de signo positivo en la medida que representan grados de posibilidad de hechos positivos.  El Nivel de Sesgo de una probabilidad empírica que tiende a cero sólo puede ser de sesgo negativo, porque conforme tienda a cero aumentara su diferencial negativo con respecto la probabilidad teórica. Según tienda a cero una probabilidad empírica el Máximo Sesgo Negativo Posible sólo puede ser cuando la probabilidad empírica es igual  a cero, de modo que el Nivel de Sesgo sea igual a cero menos inversión de N, “0 – 1/N”, siendo por tanto su Nivel de Sesgo igual a menos inversión de N, “-1/N”, en términos absolutos inversión de N, “/-1/N/ = 1/N”, siendo la inversión de N en términos absolutos el Máximo Sesgo Negativo Posible, una función más añadir a la multi-funcionalidad de inversión de N en la teoría de Probabilidad Imposible.

En los estudios omega lo más frecuente es el estudio de la tendencia positiva del sesgo en aquellos sujetos u opciones ideales comprendidos en omega, ahora bien, otra forma alternativa de estudiar que dicha tendencia se verifica, es inversamente estudiar la tendencia a cero de los sujetos u opciones no ideales, de modo que a mayor tendencia a cero de los sujetos u opciones no ideales supondría la adecuada tendencia a los ideales de los sujetos u opciones omega.

Si en un examen tipo test se estudiara  todas las opciones de respuesta de todas las preguntas, el conjunto de opciones correctas sería el subconjunto omega dentro de N, en donde N sería el total de opciones de respuesta de todas las preguntas del test. La forma más convencional de verificar que las opciones de respuesta correctas han tenido una probabilidad más elevada que las respuestas incorrectas sería directamente estudiando la tendencia a la probabilidad ideal de cada opción de respuesta correcta.

Otra opción alternativa, complementaria a la convencional, una vez determinado el grado de tendencia a los ideales de las opciones de respuesta correctas, estudiar la tendencia a cero de las probabilidades empíricas asociadas a las opciones de respuesta incorrecta. Evidentemente en caso que se observase alguna contradicción entre el estudio del sesgo positivo y del sesgo negativo, sería una señal de alarma de que ha habido un error en el análisis, de modo que el estudio de la tendencia de sesgo negativo puede ser a su vez un modo de asegurar que no ha habido error en el estudio del sesgo positivo

Si en un examen tipo test, por cada pregunta hay más de una opción de respuesta correcta, estudiar por cada pregunta del test si el sesgo positivo en las opciones correctas demuestra una tendencia positiva suficientemente racional, un estudio que igualmente se podría compaginar con el análisis del sesgo negativo de las opciones de respuesta incorrecta por cada pregunta del test..

Si en un sistema o proceso hay una serie N de elementos, en donde todos los elementos hay algunos tipificados de ideales por su eficacia o eficiencia, y se quiere estudiar el grado de tendencia ideal de los elementos más eficaces o eficientes del proceso o sistema, el modo más directo es estudiar si los elementos ideales tienden al ideal de forma suficiente o racional, y un medio de garantizar que dichos resultados sean correctos es verificando, complementariamente, si en los elementos no ideales se verifica una tendencia inversa a cero, al menos en igual a proporción a la tendencia al ideal de los ideales.

Dado un modelo, si dentro del modelo hay un subconjunto de funciones ideales, el modo más habitual de estudiar la tendencia al ideal de las funciones ideales, es estudiando el grado de tendencia ideal de las funciones ideales. Ahora bien, un modo inverso de hacer este estudio, o un modo de corroborar que la tendencia a los ideales es correcta una vez analizada, es estudiando que a su vez, en la misma medida o proporción que los ideales tienden de forma racional y suficiente a los ideales, es estudiando si aquellos elementos no ideales tienden de forma racional o suficiente a cero.

Es más, se puede dar el caso que , los modelos omega puedan ser utilizados de forma diferente a la explicada, en donde lo realmente ideal no sean los sujetos u opciones omega, sino que lo realmente ideal sea la tendencia a cero de los sujetos u opciones no comprendidos en omega.

Supongamos que en una investigación sobre una vacuna, en lugar de hacer la clásica división entre grupo de control y grupo experimental , a la hora de tratar los datos, aunque a nivel de campo se haga la división entre grupo de control o experimental en diversas salas de un hospital o laboratorio, pero en el tratamiento de la información dicha división no se haga: todos los datos se vuelcan en una misma muestra, de forma que en la misma muestra están todos los sujetos u opciones, tanto de los que se ha aplicado el tratamiento experimental, y a los que no se ha aplicado el tratamiento experimental.

Supongamos que a los sujetos u opciones a los que no se les ha aplicado el tratamiento experimental lo denominamos omega, de modo que para este caso particular, todos los sujetos de omega son aquellos que no han recibido tratamiento experimental, mientras que los sujetos fuera de omega son los que han recibido tratamiento experimental.

Bajo estas condiciones, para que se verifique un efecto positivo suficientemente racional sobre los sujetos experimentales, sería necesario que, independientemente de la tendencia que se pueda observar en los sujetos omega no experimentales, siempre y cuando los sujetos experimentales fuera de omega observasen una tendencia suficiente a cero en la probabilidad empírica de síntomas, o en la probabilidad empírica de virus o bacterias por centímetro cúbico de sangre, se observaría una tendencia positiva en el tratamiento experimental.

El Nivel de Sesgo es explicado en los primeros apartados de la Introducción a la Probabilidad Imposible,  estadística dela probabilidad o probabilidad estadística, y los modelos omega se explican en diferentes apartados, una primera panorámica general se ofrece en el apartado10, así como en el apartado 11 para la crítica racional intramedicional, luego intramuestral, ya sea para la crítica racional de diferenciales o proporciones, así como su adaptación al Primer Método en el apartado 12, y posteriormente para estudios intermedicionales, intramuestrales o intermuestrales, en el apartado  20.

A nivel de pruebas estadísticas, la principal diferencia entre estudios de sesgo positivo o sesgo negativo en modelos omega, es que mientras para la crítica racional de sesgo positivo en modelos omega si hay ecuaciones propias, muchas de ellas ya explicadas en este blog, por ejemplo a nivel individual Validez Omega, a nivel muestral el Nivel Muestral Omega, para la crítica racional del sesgo negativo en modelos omega se utilizarían los mismos modelos que para la crítica racional de sesgo negativo en modelos normales, dado que si bien hay diferencias en la crítica racional del sesgo positivo, en función sea en modelos normales o modelos omega, dichas diferencias desaparecen a la hora de criticar el sesgo negativo, dado que tanto para sesgo negativo que se crítica siempre es la misma tendencia a cero de la probabilidad empírica, compartiendo los mismos modelos de contraste de hipótesis.

 Rubén García Pedraza, Madrid 21 de diciembre del 2014




http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible