PROBABILIDAD IMPOSIBLE


Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿ quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


imposiblenever@gmail.com

@imposiblenever

sábado, 23 de agosto de 2014

La metodología


 La metodología es el estudio del método científico, ya se entienda la existencia de un método general para toda la ciencia, desarrollado en los métodos particulares de cada ciencia en concreto, o de rechazarse la idea de un método general y otros particulares, y se entiende que depende de las particularidades de cada investigación, o paradigma o modelo de referencia, sería el estudio de  los métodos científicos según grado de adaptación a las diferentes investigaciones, o estudio de los métodos de los diferentes paradigmas y modelos.

Si se entiende la existencia de un método científico general, la metodología es el estudio de dicho método, el cual se desarrollará posteriormente en los métodos específicos de cada ciencia. Por ejemplo, ya se entienda que el método científico es deductivo, según el idealismo o el racionalismo, o sea inductivo, para el empirismo, positivismo, y materialismo, en función de la filosofía de partida la metodología es el estudio de dicho método, deductivo o inductivo, y la forma en que se aplica a los métodos particulares de las diferentes ciencias, por ejemplo, además del estudio del método deductivo o inductivo, la metodología estudiaría su modo de aplicación al método experimental, el método comparado, el método histórico, y así sucesivamente en todos los métodos más específicos.

En caso de rechazarse la idea de un método general desarrollado en métodos particulares, se entiende que en ausencia de método general depende de las características de cada investigación, a la que el método se adapta, luego la metodología sería el estudio de los diferentes métodos, y los criterios de selección del método según tipología de la investigación, o bien, en caso que se entienda que dada la variedad de paradigmas y modelos científicos la elección del método depende del paradigma o modelo científico de referencia, la  metodología sería el estudio de los diferentes métodos asociados a la diversidad de paradigmas y modelos de referencia.

Ya se entienda la metodología como el estudio del método científico y su desarrollo en métodos particulares, o el estudio de los métodos científicos según características concretas de cada investigación , o el estudio de los métodos de los diferentes paradigmas y modelos científicos, el origen de la metodología se encuentra en la filosofía, dependiendo en gran medida de la teoría del conocimiento, gnoseología de partida, y de la cual depende la epistemología de referencia, disciplinas, gnoseología y epistemología, que tienen su origen y han sido desarrolladas  en la filosofía de la ciencia.

La metodología depende de la gnoseología, teoría del conocimiento, por cuanto según la teoría del conocimiento la metodología tendrá rasgos propios. Dentro de la teoría del conocimiento ya en la filosofía clásica Platón y Aristóteles sientan las bases de los paradigmas idealistas y empiristas, el primero se basa en su profundo escepticismo sobre los sentidos, la información sensorial es falsa, mientras el segundo defiende los sentidos como la única vía de conocimiento válido, la única información que disponemos del mundo es la información sensorial. Dichas teorías en la modernidad evolucionan a nuevos modelos, por un lado las nuevas versiones modernas del idealismo, que se concretan en el racionalismo, el autor más importante Descartes, claramente deductivista. En el campo del inductivismo en la modernidad el empirismo evoluciona al escepticismo empiricista de Hume. La síntesis entre ambos, Descartes y Hume, la elabora Kant en el racionalismo crítico, aunque desde una visión claramente deductiva. En el siglo XIX se termina de formalizar el positivismo de Comte, y en el siglo XX el neopositivismo, el Círculo de Viena, desde unos parámetros claramente inductivistas, especialmente en el Círculo de Viena .

Además durante el siglo XIX de la fusión de idealismo hegeliano y materialismo surgirá el materialismo moderno, Marx y Engels, teoría en la cual el conocimiento no tiene por origen ni las ideas ni los sentidos, el  conocimiento surge de la actividad práctica, praxis. Si para Kant la razón se dividía en razón pura, cognoscitiva, y razón práctica, moral, esta división se supera en la praxis, donde se produce una síntesis entre la dimensión ético moral y cognoscitiva.

La revolución en la teoría del conocimiento que se opera en la modernidad, donde se pasa del sujeto pasivo al sujeto activo, tiene mucho que ver con la incorporación del método experimental por Roger Bacon, S. XIII. El experimentalismo moderno será una síntesis entre empirismo clásico aristotélico y una nueva noción en el concepto de investigación,  ahora la investigación moderna, filosófica o científica, ya no es la investigación de la antigüedad clásica, cuando la investigación se limitaba a la contemplación pasiva de las ideas o la naturaleza reservado a aquellas personas que por su status social se permiten dedicar su tiempo de ocio al estudio del mundo. En la época moderna la investigación, filosófica o científica, es una actividad, introduciendo un cambio significativo en la definición de experiencia. Mientras para Aristóteles y los empiristas clásicos el conocimiento es dado por la experiencia sensorial pasiva, a partir de Roger Bacon se pasa a un nuevo modelo de experiencia activa, ahora experiencia significa experimentación.

Aunque en la antigüedad clásica ya hay filósofos y científicos que utilizan el método experimental para poner a prueba algunas de sus teorías, sin embargo no existe una sistematización sobre el método experimental, que sólo se hará a partir de la tradición experimental moderna que inaugura Roger Bacon, y será desarrollada por todos los nuevos científicos de la nueva ciencia, siendo especialmente importantes Galileo y Newton.

Este cambio que se opera en la modernidad, el reconocimiento de que el origen del conocimiento es la propia actividad, llevará al nepositivismo, especialmente Wittgenstein, al reconocimiento de que la filosofía es una actividad, superando la etapa donde la filosofía es sólo contemplación de las ideas, Platón, o contemplación de la naturaleza, Aristóteles. En  la época moderna hay una clara distinción entre los que siguen defendiendo que la filosofía es contemplación, ya sea desde el idealismo o el empirismo, defendiendo la necesidad de la metafísica contemporánea en tanto que procedimiento o resultado de la contemplación del mundo de las ideas o la naturaleza, según sean metafísicos idealistas o empiristas, frente quienes rechazan la contemplación y defienden que la filosofía y la ciencia son una actividad.   Dentro de los defensores de que la filosofía y la ciencia son una actividad hay diferentes corrientes, desde los defensores que la filosofía y la ciencia son una actividad e implica acción social, las teorías del cambio social, entre ellas el materialismo moderno, o aquellas otras corrientes que defienden que la filosofía es sólo un tipo determinado de actividad científica, entre ellas el neopositivismo.

Una de las características de la epistemología a partir del siglo XX es que ahora la investigación científica será una actividad profesional, desarrollada por Estados y grandes empresas privadas, las universidades, todo tipo de instituciones públicas o privadas de investigación científica, y agencias de investigación internacionales. Universidades, agencias e instituciones, públicas o privadas, que elaboran planes de investigación liderados por científicos de renombre que dirigirán importantes instituciones científicas. Este tipo de fenómenos que empezarán a ser frecuentes en el siglo XX eran hasta entonces prácticamente desconocidos. Entre las agencias de investigación más emblemáticas cabe destacar aquellas que durante la Primera Guerra Mundial y la Segunda Guerra Mundial fueron creadas para la investigación y desarrollo de nuevas armas, las agencias de investigación espacial o de investigación en energía nuclear que fueron creadas después de la Segunda Guerra Mundial, por ejemplo el CERN ubicado en Suiza, y muchos de los organismos internacionales que desarrollan verdaderos planes de investigación independientes, desde la UNESCO a la Organización Mundial de la Salud, o los equipos de investigación internacionales que crean las agencias líderes de la gobernanza global, desde el informe PISA de la OCDE, a los departamentos de investigación del Fondo Monetario Internacional o el Banco Mundial, o los departamentos de investigación de importantes Organizaciones No Gubernamentales. Además de la profesionalización que ha experimentado la labor científica en todo tipo de laboratorios de investigación y departamentos de investigación en la empresa privada, buen ejemplo de ello la popularización de los departamentos de Investigación Más Desarrollo en la empresa privada desde finales del siglo XX, especialmente en campo de la biotecnología, robótica, nuevas energías, y las tecnologías de la información, la comunicación, y el transporte, que han experimentado importantes revoluciones en las últimas décadas.

La metodología por tanto es una disciplina que depende en gran medida de la teoría del conocimiento, gnoseología, si bien la teoría del conocimiento abarca un campo mucho más amplio que la metodología, por cuanto la metodología sólo se limita al método por el cual se logra conocimiento científico, mientras la teoría del conocimiento abarca cualquier conocimiento en general, sobre la propia vida y nosotros mismos, y que en definitiva se orientan a la construcción de toda una filosofía, incluyendo el sentido de la vida, si la tiene, y de la propia naturaleza, incluida humana, siendo la teoría del conocimiento, gnoseología, una parte importante de la cosmología y la antropología, además de parte importante de la metodología.

De igual manera la metodología formaría parte de la epistemología pero sólo una parte, la epistemología abarcaría mucho más, en la medida que la epistemología desarrolla de forma global y holística el discurso y al construcción de la ciencia.

En relación al debate sobre la existencia de un método científico general, que después pueda desarrollarse en los demás métodos particulares de las ciencias, analíticas o sintéticas, Probabilidad Imposible defiende la tradición cartesiana de la existencia del método científico, el cual, tal como se explica a lo largo de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, especialmente en el último apartado, continuando la filosofía cartesiana es el método deductivo, tanto para ciencias analíticas y ciencias sintéticas, sólo que en las ciencias sintéticas adopta la forma de hipotético deductivo.

Es a partir de la deducción el modo por el cual se producen las ideas objeto de análisis, y sólo serán aceptadas verdaderas provisionalmente una vez que hayan sido criticadas de forma racional, admitiendo en todo caso siempre un margen de duda proporcional al margen de error aceptado en la razón crítica.

La forma en que el método hipotético deductivo se pone en práctica en los métodos particulares de las ciencias concretas es a través de diferentes modelos de crítica racional adaptados a las propias características de los métodos de las diferentes ciencias, ya sea el método experimental, el método comparado, o el método histórico, en tanto que crítica racional si los datos manifiestan cambios significativos como para suponer tendencias racionales, en las variables experimentadas, los elementos que se comparan, y las tendencias históricas, o cualquier otro método particular.

En relación a si la metodología es el estudio del grado de compatibilidad entre método y tipo de investigación, sólo señalar que este debate es más propio de las ciencias sociales que en las ciencias naturales. Mientras durante la modernidad las ciencias naturales lograron el consenso unánime de que sólo se podrían llegar a descubrimientos sólidos utilizando métodos cuantitativos, para lo cual fueron importantes las contribuciones de la nueva ciencia desde Copérnico, y siendo esencial la introducción del método experimental por Roger Bacon, en ciencias sociales ha habido durante el siglo XX un debate profundo todavía no resuelto a principios del siglo XXI sobre si la metodología más adecuada para estas ciencias son metodologías cualitativas o cuantitativas.

Se podría decir que existen al menos dos razones de por qué las ciencias sociales no han logrado los mismos progresos que las ciencias naturales en el siglo XX, llevando a las ciencias sociales a principios del siglo XXI al cuestionamiento de casi los mismos interrogantes que durante el siglo XIX: la ausencia de consenso sobre la utilización de métodos cuantitativos, y la ausencia de consenso sobre el modo en que intervienen las variables ideológicas en la construcción de la ciencia.

Precisamente si una de las grandes luchas en ciencias naturales fue la liberación de las ciencias del predominio de la metafísica y la superstición, simbolizada por el triunfo del heliocentrismo sobre el geocentrismo, o el darwinismo sobre el creacionismo, las ciencias naturales han logrado progresar porque los científicos naturales fueron capaces de sintetizar métodos cuantitativos y la lucha contra el misticismo y el espiritualismo. Hoy en día ya nadie pone en duda los principales descubrimientos de las ciencias naturales modernas, si bien en un principio contaron con el rechazo de la Iglesia, los imperios y los Estados. Sin embargo, quizás porque las ciencias sociales surgieron muy a posterior de las ciencias naturales y todavía le queda mucho que madurar, este tipo de consenso que sí alcanzaron las ciencias naturales, la unión de métodos cuantitativos y la lucha contra los dogmas, todavía no se ha logrado en ciencias sociales.

De esta manera, si el debate en la metodología contemporánea es sobre cual es el método más conveniente según la tipología de la investigación, desde Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se ha defendido siempre la necesidad de superar la dicotomía entre ciencias naturales y ciencias sociales, tratar a todas las ciencias sintéticas de misma forma, aplicando el método hipotético deductivo a todas las ciencias sintéticas, naturales o sociales, utilizando para tal fin métodos cuantitativos en el desarrollo del método hipotético deductivo en sus métodos particulares correspondientes, experimentales, comparados, históricos, u otros cuales sean, sintetizando en el método científico el uso de métodos cuantitativos y la comprensión de variables ideológicas y políticas, síntesis que se produce en la razón crítica, en función de la cual la política científica establece los criterios de aceptación de una hipótesis.

Sobre si el debate en la metodología es si se dedica al estudio de los métodos de los diferentes paradigmas o modelos científicos de referencia, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística lo que se defiende es una síntesis de los principales paradigmas de la historia de la filosofía y la ciencia motivo por el cual, en coherencia con el paradigma positivista y neopositivista, Probabilidad Imposible defiende la necesidad de la equiparación del método de investigación a todas las ciencias sintéticas, la aplicación a las ciencias sociales de los métodos que han permitido importantes progresos a las ciencias naturales. El estudio por tanto de todas las ciencias sintéticas, naturales o sociales, debe partir de hechos positivos, sobre los cuales realizar una crítica racional, desde una razón crítica que integre variables ideológicas y políticas, la política científica.

En la medida que parte de la necesidad de la crítica racional a los datos positivos, la teoría de Probabilidad Imposible ya asume la síntesis de positivismo y racionalismo crítico, y en la medida que en la razón crítica se integran aspectos éticos y morales, la ideología política de la política científica, se entiende que la crítica es un tipo de praxis, sintetizando de esta forma el materialismo moderno al positivismo y al racionalismo crítico. En síntesis, la teoría de Probabilidad Imposible es una teoría ecléctica que recoge los aspectos más positivos del positivismo, el racionalismo crítico y el materialismo moderno.



La forma en que dicha síntesis se opera es a través del reconocimiento universal del método deductivo para todas las ciencias, analíticas o sintéticas, y dentro de las sintéticas, naturales o sociales, en las cuales adopta la forma de método hipotético deductivo, para el cual el principal método de estudio sintético será la estadística de la probabilidad o probabilidad estadística, la cual a su vez, en tanto que entidad matemática es en sí misma analítica.


La estadística y la probabilidad en tanto que disciplinas matemáticas son analíticas, y en tanto que métodos de estudio aplicado son métodos sintéticos.


La investigación pura en el campo de la estadística y la probabilidad tiene por objeto el desarrollo de nuevas teorías y modelos matemáticos de probabilidad y estadística, luego cualquier progreso en el desarrollo de nuevas teorías y modelos de estadística y la probabilidad sólo puede hacerse deduciendo dichas teorías y modelos a partir del análisis matemático de la estadística y probabilidad.

La investigación aplicada de la estadística y la probabilidad son todas aquellas investigaciones en el campo de las ciencias sintéticas, sean ciencias naturales o sociales, que para el desarrollo de nuevas teorías y modelos sintéticos aplican el método matemático de la estadística y la probabilidad para la formación de nuevas proposiciones sintéticas. Dichas proposiciones sintéticas a partir del uso de la estadística y la probabilidad pueden ser proposiciones sintéticas de carácter descriptivo o inferencial.

Las proposiciones sintéticas descriptivas únicamente describen una realidad empírica a partir de los datos cuantitativos de esa realidad obtenidos por la aplicación de métodos cuantitativos, en primer lugar la medición y en segundo lugar un método matemático, entre los cuales destacan la estadística y la probabilidad, y dentro de ellas la estadística descriptiva que nos permite una descripción estadística de lo que ocurre.

Las proposiciones sintéticas inferenciales permiten la inferencia de una serie de casos o situaciones particulares a todo el posible universo de casos o situaciones que guarden semejanza o similitud frente los casos o situaciones estudiadas. La inferencia no es otra cosa que la extrapolación o generalización de una serie de casos o situaciones particulares a todo el posible universo de casos o situaciones.

Si esa inferencia es inductiva, lo único que hace es sobre la descripción de una serie de casos o situaciones, siempre que en todas ellas halla una constante, generalizar a todos los casos o situaciones posibles del universo dicha constante.

Si la inferencia es deductiva, se parte de una hipótesis previa, síntesis de ideas y teorías previas y las nuevas informaciones obtenidas de los casos o situaciones observados, y la inferencia lo que pretende es validar en la serie de casos o situaciones que la hipótesis es provisionalmente verdadera, para lo cual desarrolla modelos de contraste de hipótesis, un modelo de prueba estadística en que en Probabilidad Imposible se denomina crítica racional, y que puede hacerse utilizando la estadística de la probabilidad o probabilidad estadística.

De esta manera la estadística y la probabilidad son en sí mismas disciplinas analíticas dependientes de las matemáticas cuyo desarrollo dependen del análisis deductivo o deducción analítica. Y la estadística y la probabilidad en relación a las ciencias sintéticas son métodos científicos particulares desde los que desarrollarse el método científico general de las ciencias sintéticas, el método hipotético deductivo.

El método analítico para el desarrollo de la estadística de la probabilidad o probabilidad estadística, en tanto que campo de conocimiento que fusiona estadística y probabilidad, campo de conocimiento desarrollado por la teoría de Probabilidad Imposible, es el método analítico denominado el silogismo de la tendencia, que no es otra cosa que el análisis lógico de la tendencia. El motivo por el que se denominó el silogismo de la tendencia es porque formula deducciones analíticas en forma de silogismos observando los diferentes modelos de tendencia en estadística y probabilidad.

Sobre las deducciones lógicas en el análisis de la tendencia, Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, desarrolla un nuevo modelo matemático de estadística y probabilidad, que para su aplicación a las ciencias sintéticas genera una serie de métodos cuantitativos, el Segundo Método, el Impacto del Defecto, la Distribución Efectiva, y los estudios de ranking.

Los diferentes métodos aplicados que genera el estudio analítico de la estadística de la probabilidad o probabilidad estadística, utilizan de modo universal el método deductivo, que al aplicarse a las ciencias empíricas adoptan la forma de hipotético-deductivo, desde parámetros cuantitativos, adaptándose a los diferentes métodos particulares de las diferentes ciencias, ya sean las ciencias estocásticas, las ciencias experimentales, las ciencias comparadas, las ciencias históricas, o cualquier otro tipo de ciencia, natural o social.

Rubén García Pedraza, agosto del 2014



http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible

sábado, 9 de agosto de 2014

Los factores




Las cualidades pueden definirse en tanto que propiedades o factores, características que definen un objeto o sujeto. Es ciencias naturales es más habitual el concepto propiedad, mientras en ciencias sociales la mención de factores, personales o sociales, individuales o colectivos, que definen un proceso o sistema, quizás dada la posible confusión entre propiedad como cualidad, y propiedad en tanto que modelo económico, sea privada, pública o social.

Ya se utilice la expresión propiedad o factor para la mención de características de un cuerpo, físico o social, hacemos siempre referencia a las cualidades que lo describen, la serie de detalles que lo definen e identifican..


Quizás la principal diferencia entre propiedad y factor para la mención de cualidades sea que el concepto propiedad es más cualitativo, y el factor más cuantitativo. En matemáticas al citar los factores de un algoritmo o ecuación hacemos referencia a cada uno de los elementos que participan.

Si en aritmética la suma de dos elementos es igual a la adición de ambos para la formación de un tercero, implica la adición de dos factores para la obtención de un tercer factor. Si A más B es igual  C, entonces tenemos tres factores, donde el factor C es igual a la suma de A y B, en donde el factor A es igual al algoritmo de resta de C menos B, o el factor B igual a la diferencia del factor C menos A. Si la relación de A y B fuera de producto, en donde A por B fuera igual a C, entonces A sería igual a C entre B, o B igual a C entre A. Y si la relación entre A y B fuera de un binomio al cuadrado C sería igual a la suma del cuadrado de ambos más el producto de dos por A y por B. A mayor cantidad de factores las relaciones matemáticas tienden a hacerse más complejas, pudiendo haber infinidad de relaciones entre infinidad de factores, en donde el tipo de relación queda determinada por el modelo de algoritmo o función.

En geometría los factores serían las distancias entre puntos localizados en ejes cartesianos, de forma que dados tres puntos, habría diferentes factores, ya bien tres factores proporcionales a la distancia entre los puntos, cuya suma es el perímetro, o ya bien una de las distancias es la base del triángulo, y otra distancia la altura, equivalente a la longitud entre punto medio de la base en relación al punto opuesto. El producto de la base por la altura a dividir entre dos es igual al área. Y el cociente resultado de la división entre tres del producto de multiplicar el área por la distancia que hay entre la base de la pirámide y el vértice de la pirámide, es igual al volumen. En este caso las diferentes distancias serían los diferentes factores de los que a través de diferentes ecuaciones y algoritmos se logra el cálculo de las dimensiones geométricas.

De la combinación de aritmética y proyecciones geométricas se forma el algebra, donde la tendencia de ecuaciones en el espacio-tiempo, se expresa de forma aritmética, en donde se puede decir que la función de “f(x)”, expresa en el eje vertical el correspondiente valor “y” dada una posición “x”, en modelos bidimensionales,   ecuaciones que se pueden hacer mucho más complejas según aumenta el número de dimensiones.

Mientras el concepto propiedad para definir una cualidad de un objeto físico es más de carácter cualitativo, el concepto factor es claramente cuantitativo. Si tengo que definir la cualidad de dureza de un determinado mineral, puedo decir que dicha propiedad es el grado de resistencia a cualquier tipo de erosión o intervención externa, de modo que dada esta definición cualitativa el diamante es más duro que el cobre. Si tuviera que dar una definición cuantitativa a la propiedad de dureza haría falta algún tipo de medición, que daría una serie de factores que comparativamente verifiquen que el diamante es más duro que el cobre. Por ejemplo, si aplicando una fuerza determinada sobre una barra de acero inoxidable, de grosor y longitud determinada, mido el grado de resistencia de un diamante, de un volumen determinado, y un trozo de cobre, del mismo volumen, en función del grado de intensidad de fuerza aplicado a la barra de acero inoxidable contra el diamante y el cobre, para hacer una muesca de iguales dimensiones, muy posiblemente el grado de fuerza necesario sobre el diamante para lograr una muesca de idénticas proporciones a la del cobre, sea mucho más grande. A partir de dicha medición ya tendría un factor cuantitativo, luego comparativo: fuerza aplicada a una barra de acero inoxidable, de determinado grosor y longitud, contra un trozo de diamante y otro de cobre, de igual volumen, para producir sobre la superficie del diamante y del cobre una muesca de igual magnitud

En ciencias sociales por ejemplo se dice que hay sociedades más herméticas que otras, siendo el hermetismo una de sus cualidades, en donde puedo definir cualitativamente el hermetismo en tanto que grado de impermeabilidad o impenetrabilidad de las influencias externas. Por ejemplo, la sociedad china durante miles de años hasta finales del siglo XX ha sido una sociedad fuertemente hermética, igualmente podríamos hablar de la sociedad india hasta finales del siglo XX, o lo mismo podríamos decir de España hasta los años 70´en que se inicia el proceso de apertura europea.

Tanto China, India, y España, hasta aproximadamente el segundo tercio del siglo XX, han sido sociedades herméticas, reacias a influencias exteriores. Dicho rechazo se debe a diferentes factores: predominancia de modelos culturales tradicionales escépticos frente las influencias externas, en España por una tradición católica que hasta finales del franquismo rechazaba la modernización, o en China y la India la hegemonía las culturas tradicionales autóctonas, en China confucianismo y  budismo, en la India las religiones tradicionales, fueran islámicas, budistas o hinduistas.

Además de los factores culturales tradicionales los factores históricos y políticos, el aislacionismo histórico de España desde el siglo XVI, cuando se convierte en el imperio más importante de Europa, liderando guerras religiosas por lo que cierra herméticamente sus fronteras a cualquier influencia subversiva, fuese de reforma religiosa o revolución social. En el caso de China y la India el rechazo de la población autóctona a los modelos culturales y económicos occidentales símbolo de colonialismo e imperialismo.

Esta definición de hermetismo social en las sociedades, española, china, e india, podría estudiarse también desde factores cuantitativos, por ejemplo, tipo de comercio exterior, en donde el hermetismo sería inversamente proporcional al tipo y volumen de su comercio exterior.

Mientras España desde el siglo XVI hasta mediados del XX ha sido exportadora de materias primas y productos agrícolas importando productos manufacturados, en China y la India durante el colonialismo se observa el mismo proceso, en tanto que regiones exportadoras de materias primas e importadoras de manufacturas, proceso que se invierte a partir que experimentan un cambio histórico después de los procesos democratizadores o descolonizadores.

En España el fin del aislacionismo será simbolizado por el paso de la dictadura a la apertura democrática y europea de los años 70´, coincidiendo con el fenómeno de la globalización. En China el paso del hermetismo a la apertura internacional se produce en los años ochenta una vez superada la Revolución Cultural,  cuando la globalización ya empieza a ser tangible, y en la India el paso del hermetismo a la apertura se opera igualmente durante los procesos de globalización económica.

En los tres países mencionados se observa como en las primeras décadas de la globalización se produce un cambio favorable de apertura internacional, que implican cambios en el comercio exterior. En el caso de España la entrada en la Comunidad Económica Europea, posteriormente la Unión Europea, y finalmente la entrada en la moneda única europea, donde el comercio exterior depende de las dinámicas europeas de comercio exterior. En China y la India la apertura internacional en la globalización viene asociada a un cambio en su política comercial más favorable al intercambio económico y cultural, que está haciendo de estas sociedades posibles potencias económicas mundiales.

Evidentemente la forma en que la globalización ha afectado a cada cultura y economía, china, india o española, ha sido diferente, dependiente de diferentes variables, históricas, políticas, sociales, culturales, económicas, regionales o densidad demográfica.

En ciencias sociales, lo que se podría llamar una propiedad cualitativa, el grado de hermetismo o apertura internacional de un grupo social, se puede estudiar en términos cuantitativos igualmente, por ejemplo, en la forma en que dichos cambios operan sobre factores económicos, que podría estudiarse desde la forma en que se produce un cambio en el patrón de comercio exterior, o en otros comportamientos sociales, no estrictamente conómicos, en hábitos de vida y de de consumo doméstico,  tendencias culturales que podrían estudiarse en investigaciones cuantitativas, en función de las modas y nuevos modelos de comportamiento social.

En la medida que una cualidad puede expresarse en tanto que propiedad o factor, toda propiedad puede definirse en tanto que factor matemático, y todo factor matemático en tanto que propiedad cualitativa, y en coherencia a la definición cualitativa de la propiedad es sobre lo que se estimarán las correspondientes mediciones, ya sea de propiedades o factores comunes, aquellos que definen a un conjunto o serie de sujetos u opciones, o propiedades o factores individuales, aquellos que definen a un sujeto u opción individual, en todas las ciencias sintéticas, naturales o sociales.

Hoy en día el concepto de factor ya se ha generalizado a todas las ciencias, y cuando se habla de cualquier fenómeno se alude a los factores que contribuyen al desarrollo de dicho suceso, por ejemplo cuando se alude a los factores del cambio climático se suelen nombrar desde factores sociales, derivados de la actividad productiva, a factores naturales, por ejemplo la observación en muestras geológicas de cambios climáticos en épocas anteriores, y que tuvieron una clara consecuencia afectando la biodiversidad y provocando extinciones masivas, cambios climáticos en la historia geológica debidas a múltiples factores, desde cambios en el comportamiento de la actividad solar, impactos de meteoritos, supernovas próximas a nuestro planeta, o, cambios climáticos positivos por el aumento de masa biológica en todo el planeta, por ejemplo efectos positivos sobre el clima a consecuencia del aumento de la masa forestal en determinadas épocas de la historia geológica, motivo por el cual la deforestación a causa de la actividad humana ahora supone un patrón de involución climática afectando seriamente la conservación de la biodiversidad.

Si bien este uso del concepto factor puede parecer más asociado al concepto de causalidad que de propiedad, en realidad lo que se estudia es la interacción entre diferentes cualidades de diferentes elementos. Si decimos que la actividad humana es un factor de cambio climático estamos afirmando que una cualidad del ser humano, la producción económica, es motivo constitutivo de cambios en la cualidad de otro elemento, la naturaleza. Si decimos que en épocas geológicas anteriores cambios en el comportamiento solar provocaron cambios en el clima, estamos afirmando que cambios en el comportamiento de las cualidades del sol generan cambios en las cualidades climáticas de nuestro planeta. Es más, la propia correlación en sí misma entre actividad solar, producción económica, y clima terrestre, se convierte a su vez en propiedad del comportamiento solar, de la economía, o el clima terrestre, luego dicha correlación es a su vez un factor para estudios ulteriores, donde dicha correlación intervenga como factor imprescindible de otros procesos o sistemas, inferiores o superiores, microsistemas o macrosistemas, de nuestro propio planeta, la galaxia, o el universo.

Si definimos el elemento A por sus cualidades objeto en nuestro de estudio, e igualmente definimos el elemento B por sus cualidades objeto en nuestro estudio, la definición cuantitativa de los factores de A y B dependerá de las mediciones, de modo que si observamos cambios en las cualidades de B según se registren cambios en las cualidades de A, estamos en disposición de afirmar una posible correlación, positiva o negativa, entre las cualidades de A y B, y es la correlación entre las cualidades lo que transformamos a su vez en factores de estudio de A y B, la correlación se convierte a su vez en propiedad de los elementos y cualidades que correlacionan.

Si decimos que una propiedad del clima es la temperatura, y una propiedad de la economía mundial es el crecimiento, una propiedad común del clima y la economía es su capacidad de interacción entre sí, de modo que descubrimos que la economía mundial tiene la propiedad de intervenir sobre el clima, y el clima tiene la propiedad de ser afectado por la economía mundial.

Además este modelo se puede complicar mucho más, porque muy posiblemente no sólo haya interacción entre las cualidades de los elementos A y B, y la forma en que la correlación entre A y B se convierte a su vez en una propiedad de A y una propiedad de B, muy posiblemente exista una infinidad de elementos, C, D, E,H, F…. algunos conocidos, y otros muchos quizás desconocidos.

En el cambio climático además del clima y la economía mundial habría que incluir otros muchos factores, aumento demográfico, migraciones, relaciones entre periferia y metrópoli, progreso científico tecnológico, cambio en los patrones culturales y sociales, la propia naturaleza humana…que a su vez se definan por múltiples cualidades, que a su vez correlacionen entre sí, generando nuevos factores de forma sistémica y holística en posible tendencia a infinito, una posible red de múltiples correlaciones complejas y simultáneas, en esencia, el complejo y caótico desenvolvimiento de la materia y la energía y el espacio tiempo, presente, la realidad, o universal, la historia.

De manera que para que el estudio sea lo más isomorfo posible habría que integrar la mayor cantidad de factores que intervengan a fin de hacer un modelo suficientemente objetivo, integrando en el margen de error de la razón crítica todas aquellas variables o cualidades que no se hayan incluido en el modelo, ya bien por las propias limitaciones del modelo, el ser humano no puede integrar infinitas computaciones, o simplemente por desconocimiento. Ya sean variables conocidas pero no integradas en el estudio, o variables desconocidas, todas aquellas variables no reconocidas en el modelo, por omisión o desconocimiento, forman parte del margen de error que acepte la política científica.

La medición de los factores será en coherencia a su definición cualitativa, no puede haber contradicción entre la definición cualitativa y aquello que se mide, en la medida que la medición del factor debe ser la transformación cuantitativa de la cualidad cualitativa, a fin de dar una mensuración cuantitativa de la cualidad, sobre la que se opera matemáticamente, a través de algoritmos y ecuaciones.

Dentro de los factores  habría que distinguir  entre los que dependen del contexto y los propios del sujeto u opción, y en cualquier caso, sean variables contextuales del sujeto u opción, o intrínsecas al sujeto u opción, la distinción entre factores constantes y factores variables.

El universo de sujetos u opciones infinitos es aquel que está formado por un posible universo tendente a infinito de elementos de los cuales se estima una puntuación directa o frecuencia en un momento determinado, pudiendo hacerse colecciones de mediciones en mediciones enésimas, lo que en Introducción a laProbabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se llamaría emésimas mediciones.

Si en un estudio tenemos una muestra de correlaciones entre: comportamiento climático y economía mundial; de modo que cada correlación es en sí misma un valor cuantitativo, “xi”, cada valor cuantitativo de cada correlación será interpretado como la puntuación directa de esa correlación en cada momento de su medición, siendo el conjunto de mediciones la muestra de sujetos u opciones, de modo que podemos medir una serie de correlaciones en un periodo de tiempo: x1, x2, x3……xi; donde cada una de las mediciones sería un sujeto u opción, y el valor cuantitativo de cada correlación su puntuación directa, pudiendo estudiarse en términos de estadística de la probabilidad o probabilidad estadística, en tanto que universo de sujetos u opciones infinitos, pudiendo calcularse las probabilidades empíricas, puntuación directa de sujeto u opción entre sumatorio de todas las probabilidades empíricas. Entendiendo que formaría un universo infinito por cuanto en cualquier periodo de tiempo son posibles infinitas mediciones, o se entienda que de haber una posible historia infinita serían posibles infinitas mediciones.

En los universos de opciones limitadas obviamente la propia frecuencia es la puntuación directa. Si en el estudio de cambio climático se hacen diferentes mediciones, y en una serie de mediciones se observa una determinada correlación positiva o negativa entre cambio climático y economía mundial, se podría hacer un estudio de opciones limitadas a dos opciones: correlación positiva o correlación negativa entre economía y clima; la frecuencia de la opción “correlación positiva entre economía y clima” sería igual al número de mediciones en que ha habido correlación positiva entre ambas variables, la frecuencia de la opción “correlación negativa entre economía y clima” sería igual al número de mediciones en que ha habido correlación negativa entre ambas variables.

En los factores contextuales, en la teoría de Probabilidad Imposible, un factor que juega un papel fundamental sin duda alguna es la magnitud de la muestra, en donde se distinguen dos tipos de muestra, la muestra de sujetos u opciones, N, y la muestra de puntuaciones directas o frecuencias, Σxi. En donde sea el tipo de universo que sea, de sujetos u opciones infinitos, o de opciones limitadas, indistintamente siempre la inversión de N, 1/N, ejercerá las funciones universales de media aritmética y probabilidad teórica en igualdad de oportunidades, y sólo en universos de sujetos u opciones infinitos la función de probabilidad de dispersión teórica, y de probabilidad de error de representatividad muestral. La inversión de puntuaciones directas o frecuencias, 1/Σxi, sólo en universos de opciones limitadas ejercerá la función de probabilidad de dispersión teórica, y probabilidad de error de representatividad muestral de las puntuaciones directas o frecuencias. Siempre y cuando N o Σxi sean constantes serán factores constantes, y siempre que N o Σxi sean variables serán factores variables, dependan o no de otros factores independientes.

Por ejemplo siendo N la población china, N dependerá de la política china en relación al número de hijos por matrimonio, o siendo N la población de ballenas en los océanos, la magnitud N dependerá de la aplicación de políticas conservacionistas de esta especie a nivel mundial.

En los factores de sujeto u opción, comunes o individuales, el proceso de medición transforma en puntuación directa o frecuencia la intensidad en que se expresa una cualidad. Si lo que mide es intensidad de magnitud el resultado es una puntuación directa, y si lo que mide es intensidad en la ocurrencia el resultado es la frecuencia. La medición indica el grado de intensidad en que se expresa la cualidad, común o individual, en los diferentes sucesos u ocurrencias observados donde dicha cualidad se manifiesta. La medición transforma la cualidad cualitativa en una cualidad cuantitativa, susceptible de convertirse en factor matemático, para el estudio cuantitativo de las relaciones entre sujetos u opciones según factores contextuales.

Igualmente, si un mismo sujeto u opción manifiesta una misma tendencia en todas las mediciones podría decirse que manifiesta un comportamiento constante, de no ser así sería variable.

Las variables a su vez se pueden clasificar en variables independientes y variables dependientes, se dice que un factor es variable dependiente cuando su comportamiento depende de una variable independiente o conjunto de variables independientes. Y se dice que una variable es independiente cuando los cambios en su comportamiento dependen del azar o de sí mismo. En la medida que en de las actuales teorías estocásticas, no lineales, del caos, y la complejidad, la tendencia es la explicación de la realidad como una red compleja de interacciones múltiples de manera sistémica y holística, cualquier cambio en cualquier elemento produce cambios en todo el sistema, quedando el concepto de variable independiente sujeto únicamente al método experimental, donde todavía hoy se utiliza. En la realidad real, fuera de laboratorio, lo que sucede es una interacción compleja de relaciones en red en forma de múltiples correlaciones simultáneas, donde ninguna variable es absolutamente independiente, dependiendo cada una de las interacciones de las demás.

En la medida que la realidad que se reproduce en laboratorio es virtual, donde no se integran las complejas relaciones de la realidad real, toda investigación en laboratorio que intente la validación de una variable independiente tendrá un margen de error igual a la diferencia entre la realidad reproducida en el laboratorio y la realidad real, siendo en la realidad real donde convergen una infinidad de variables no reproducidas en el laboratorio, y causa probable de infinidad de relaciones aleatorias cuando la variable independiente se aplique a la realidad real, variables aleatorias que se integran en el margen de error en el contraste de hipótesis.

La vigencia del método experimental reside en que a día de hoy, y siendo siempre conscientes que el margen de error integra la infinidad de variables de la realidad real no integradas en el modelo, sigue siendo práctico en múltiples ciencias, desde la física de partículas a la medicina y la puesta en práctica de nuevas tecnologías, por ejemplo en biotecnología y robótica.

En la verdadera realidad real lo más probable es que todas las variables, excepto las constantes, por ejemplo la constante de Planck, la constante de Hubble, o la constante cosmológica de Einstein, todos los factores que sean variables serán variables dependientes entre sí, no habiendo en la realidad real variables absolutamente independientes, siendo lo que llamamos realidad producto de una compleja red sistémica de múltiples correlaciones simultáneas.

Los factores, ya dependan del contexto o sean propios del sujeto u opción, pueden ser constantes o variables. Se dice que un factor es constante siempre y cuando no experimente ningún cambio en ninguna de las mediciones que se realicen, y se dice que un factor es variable si al menos en una de las mediciones manifiesta cambios. Dentro del modelo experimental se llamará variable independiente aquella sobre la cual el equipo científico produce cambios, estudiando el grado de cambio del comportamiento en las variables dependientes según los cambios operados en la independiente. Aunque en la realidad real lo más posible es que, a excepción de las constantes, todas las variables interactúen entre sí de forma inter-dependiente, siendo el grado de inter-dependencia lo que estudian los modelos correlacionales.

Además de la distinción entre factores: de contexto o sujeto u opción, y dentro de estos últimos, factores comunes o individuales, pudiendo todos los anteriores igualmente clasificarse en constantes y variables, dependientes o independientes, habría que distinguir entre factores empíricos y factores teóricos. En donde los factores empíricos serían aquellos cuya definición depende de los hechos empíricos, y los factores teóricos dependen ya bien del tamaño de las muestras o las proyecciones teóricas de las tendencias futuras, que en esencia lo que dibujan es una teoría del futuro, lo que normalmente llamamos predicción.

Los factores teóricos asociados a las dimensiones de las muestras, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, dependerían de N y la muestra de puntuaciones directas o frecuencias, de los cuales dependerán las estimaciones de la realidad teórica, mientras la realidad empírica dependerá directamente de las mediciones. 

Rubén García Pedraza, Madrid agosto del 2014
 

 

sábado, 2 de agosto de 2014

Sesgo negativo



Estudios de sesgo negativo son aquellos que estudian probabilidades empíricas inferiores a la probabilidad en igualdad de oportunidades, la probabilidad teórica, 1/N. Dada una probabilidad empírica cualquiera inferior a probabilidad en igualdad de oportunidades, inversión de N, 1/N, producirá un sesgo negativo proporcional a la diferencia de ambas probabilidades, empírica menos teórica. Cuando el objeto de estudio sea la investigación de las tendencias empíricas inferiores a lo que debería ser un comportamiento en igualdad de oportunidades, se dice que es un estudio de sesgo negativo.


La forma en que se calcula la magnitud de sesgo negativo es a través del Nivel de Sesgo, el cual es igual a la diferencia de probabilidad empírica menos probabilidad teórica, si dicha diferencia resulta igual a un valor de signo negativo se dice que manifiesta una tendencia de sesgo negativo, comportamiento empírico inferior a inversión de N, 1/N.
Que la probabilidad empírica esté por debajo de la probabilidad teórica implica tanto que el comportamiento empírico es inferior  al teórico en igualdad de oportunidades, e inferior a la media aritmética de las probabilidades empíricas.
El hecho que un sujeto u opción esté por debajo de la probabilidad teórica sin embargo no significa automáticamente que no por ello no tienda a igualdad de oportunidades, o a Probabilidad Imposible.
Un sujeto u opción puede demostrar sesgo negativo y sin embargo encontrarse dentro de un modelo de tendencia normal a igualdad de oportunidades, o incluso, en estudios de crecimiento, dentro de las primeras fases de investigación, encontrarse dentro de una dinámica de crecimiento en tendencia a sesgo positivo, aunque en las fases preliminares demuestre sesgo negativo.
En un estudio de sesgo negativo donde el objetivo que uno o más sujetos u opciones, o incluso toda la muestra, tiendan a probabilidad cero, Probabilidad Imposible, el hecho que un sujeto u opción muestre un comportamiento empírico ligeramente inferior a inversión de N no por ello no demuestra ausencia de tendencia a Probabilidad Imposible.
El hecho que un sujeto u opción manifieste un comportamiento empírico en una medición no es razón suficiente para por ello demostrar tendencia alguna más que la señalada en esa medición, la tendencia de esa posición a otra diferente deberá manifestarla dentro de la secuencia de mediciones que integran la investigación.
Bajo una medición únicamente los únicos proyectos de investigación sobre esa medición deberán efectuarse dentro de la hipótesis de estudio. Los modelos de proyecto de investigación están expuestos en el apartado 17 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística. Dada una hipótesis empírica que en “emésimas” mediciones un sujeto u opción demuestre en comportamiento “X”, partida de una única medición de momento conocida, cualquier proyecto desde esa medición a las subsiguientes mediciones proyectadas serán un proyecto de investigación que deberán demostrarse en la práctica.
La clasificación de los diferentes proyectos de investigación en función de la combinación de otras variables no sólo empíricas o lógico-matemáticas, incluyendo las ideológico-políticas, son explicadas en el apartado 24 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.
Dada una medición particular la tendencia real de un sujeto u opción cualquiera es la manifestada por su probabilidad empírica en esa medición en particular y nada mas. Dada dos mediciones diferentes de un mismo sujeto u opción la tendencia que dibujan dichas mediciones pueden ser ya objeto de manifestar una tendencia más allá de las propias mediciones, de las que pronosticarse mediciones futuras. Habiendo más de una medición sobre sujeto u opción particular entonces ya son posibles pronósticos, admitiendo márgenes de error en el que la no posible linealidad del comportamiento de la materia en el espacio-tiempo son integradas dentro de los márgenes de error de las funciones.
Puesto que un sesgo negativo por sí solo no implica necesariamente tendencia a Probabilidad Imposible o tendencia a incremento de sesgo negativo, cuando especialmente en las primeras fases de la investigación es temprano advertir la evolución futura de los acontecimientos, una forma de discernir si una tendencia empírica es suficiente para catalogarla de sesgo negativo es a través de la crítica racional de la realidad.
En los estudios de sesgo negativo, al igual que en cualquier otro objeto de estudio, sea en modelos normales o modelos omega, dentro de los modelos normales ya sea en igualdades de oportunidades o sesgo, positivo o negativo, la crítica racional puede ser doble, ya sea a nivel individual y a nivel muestral.
Dentro de este blog ya se han explicado algunos modelos de crítica racional a nivel individual de sesgo negativo. En líneas generales, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se distinguen dos modelos de crítica racional, ya bien sea sobre proporciones o diferenciales.
Una crítica racional sobre proporciones es cuando sobre la proporción entre dos valores se establece un valor crítico, dentro del cual, si el valor empírico de la proporción es igual o inferior al error crítico, o igual o superior a la fiabilidad crítica, entonces se acepta la tendencia manifestada por el modelo empírico dentro de nuestro modelo teórico establecido en la hipótesis empírica.
Una crítica racional sobre diferenciales es cuando sobre la diferencia entre dos valores se establece un valor crítico, siempre  y cuando la diferencia sea igual o inferior al margen de error, o igual o superior al margen de fiabilidad, se acepta el modelo de tendencia empírica dentro del modelo de tendencia teórica de la hipótesis empírica.
Tanto los modelos de crítica racional en forma de proporción o diferencial, para estudios intra-medicionales, luego intra-muestrales, son explicados extensamente a partir del apartado 11 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, sea para estudios inter-medicionales, intra-muestrales o inter-muestrales, son abordados a partir del apartado 16.
En la medida que el lector puede encontrar más profundamente desarrollados los diferentes modelos de crítica racional para estudio de sesgo negativo en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidadestadística, a continuación únicamente se expondrán algunos modelos de crítica racional diferencial para sesgo negativo, a nivel individual y a nivel muestral, en estudios intramedicionales.
A nivel intra-medicional se acepta que una tendencia manifiesta un comportamiento de sesgo negativo siempre y cuando a nivel individual y muestral manifieste una tendencia suficiente a sesgo negativo ya sea en Validez de Sesgo Negativo o en Significación de Sesgo Negativo.
La Validez de Sesgo Negativo es una ecuación de Probabilidad Imposible, al igual que absolutamente todas las que se exponen en este blog,  en donde,  siempre y cuando la diferencia de inversión de N menos probabilidad teórica sea igual o superior a probabilidad crítica, se acepta suficiente tendencia individual a sesgo negativo, siendo la probabilidad crítica igual al producto de inversión de N por un porcentaje de fiabilidad entre cien.
 
Validez de Sesgo Negativo:
(1/N – p(xi) ) – p(xc) = cero o positivo se acepta sesgo negativo
p(xc)= (X : 100)
X = porcentaje de fiabilidad
 
Por otro lado, si en lugar de contrastar el diferencial frente un valor de fiabilidad, lo queremos contrastar frente un valor de error, cabe la posibilidad de Significación de Sesgo Negativo, en donde la diferencia de inversión de N menos el resultado de la diferencia de inversión de N menos probabilidad empírica, siempre y cuando sea igual o inferior a un margen de error, se acepta suficiente tendencia individual a sesgo negativo.
Significación de Sesgo Negativo:
p(xc) – [ 1/N – (1/N – p(xi) ) ]= cero o positivo se acepta sesgo negativo
p(xc)= (X : 100)
X = porcentaje de error
 
Finalmente una forma mucho más sencilla, sería críticamente directamente la probabilidad empírica frente una probabilidad crítica de forma que, si la probabilidad empírica fuera igual o inferior a un margen de error se aceptaría la tendencia individual a sesgo negativo, siendo directamente la probabilidad crítica igual a un porcentaje de error entre cien.
p(xc) – p(xi) = cero o positivo se acepta sesgo negativo
p(xc)= (X : 100)
X = porcentaje de error                                                    
 
Además de las pruebas estadísticas de crítica racional a nivel individual sería absolutamente imprescindible pruebas estadísticas de crítica racional a nivel muestral, para evitar que se haya podido cometer errores de hecho, en la selección muestral, o cualquier otro error racional en la selección de los criterios racionales de contraste de hipótesis en la elección de las razones críticas expresadas en las probabilidades críticas a nivel individual.
En la medida que cualquier aumento del sesgo, positivo o negativo, en cualquier sujeto u opción de la muestra implica aumenta de la dispersión individual, que redunda en el aumento de la dispersión muestral, una forma de estudiar que evidentemente se ha producido un verdadero ascenso de la dispersión individual, suficiente como para producir un aumento en la dispersión muestral, es comprobando que el incremento de la dispersión muestral es suficiente de acuerdo a nuestra hipótesis empírica.
A nivel muestral el incremento racional del sesgo negativo debe producir un aumento de la dispersión muestral , ya sea un aumento igual inferior a nuestro margen de error, o igual o superior a nuestro margen de fiablidad, para aceptar que se ha producido, además de un incemento individual del sesgo, un verdadero aumento muestral de la dispersión, para lo cual dentro de la equifinalidad de Probabilidad Imposible hay variedad de vías de crítica racional de la dispersión a nivel muestral, una de ellas, explicada en este blog, el Nivel Muestral Crítico de Sesgo, igual a la diferencia de la Desviación Media o Típica, según se elija para la crítica la Desviación Típica o la Desviación Media, menos un valor crítico igual a Máxima Desviación, Media o Típica, Teórica Posible, por un porcentaje de fiabilidad entre cien. En primer lugar se mostrará el Nivel Muestral Crítico de Sesgo utilizado Desviación Media
 
Nivel Muestral Crítico de Sesgo utilizando Desviación Media
DM – p(xc) = cero o positivo se acepta sesgo
p(xc)= { [ ( 1 – 1/N) · 2 ] : N} · ( X : 100)
X = porcentaje de fiabilidad
 
El Nivel Muestral Crítico de Sesgo utilizando Desviación Típica es igual a utilizando Desviación Media sólo que donde expresa Desviación Media ahora se sustituye por Desviación Típica, y en cálculo de la probabilidad crítica, donde antes había Máxima Desviación Media Teórica Posible, ahora se sustituye por la Máxima Desviación Típica Teórica Posible.
Nivel Muestral Crítico de Sesgo utilizando Desviación Típica
S – p(xc) = cero o positivo se acepta sesgo
p(xc)= { { ( 1 – 1/N)  + [ 1/N · ( N –  1 ) ] } : N} · ( X : 100)
X = porcentaje de fiabilidad
 
En líneas generales, los modelos de crítica racional expuestos para el sesgo negativo son válidos tanto para estudios de sesgo negativo en modelos normales, o en el caso que en modelos omega se quiera realizar un estudio del sesgo negativo para los sujetos u opciones no ideales. E igualmente, en estudios normales, ya sea para cualquier tipo de objeto, se puede aplicar los modelos expuestos, ya sea cuando el objeto sea la moderación o la muestra de ceros.  Sea cual sea el tipo de estudio de sesgo negativo las ecuaciones expuestas son válidas, siendo tan sólo una pequeña muestra de la complejidad que puede alcanzar los estudios de sesgo negativo en los modelos de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

 Rubén García Pedraza, Madrid a 2 de agosto del 2014