Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 28 de noviembre de 2015

La variable independiente


Una variable es un factor de estudio mensurable, en tanto que medición de una cualidad, de la cual se puede extraer un conjunto de muestras, por la medición de la intensidad o grado de ocurrencia de esa misma cualidad en un conjunto de sujetos u opciones, o repetidas mediciones en un mismo objeto de estudio elaborando una muestra de puntuaciones directas o frecuencias, sobre la que existe al menos en teoría la hipótesis, que no siendo constante, es un factor al que se le atribuye un grado de causalidad en la sucesión de otros fenómenos, denominados variables dependientes.

Desde los modelos estadísticos clásicos de investigación experimental la variable independiente era la variable de cuya manipulación por se estudiaban sus efectos sobre las variables dependientes. De modo que la principal diferencia entre variable independiente y dependiente, es que mientras la independiente era de manipulación experimental, la variable dependiente era aquella sobre la que se observaban sus efectos. En un estudio médico, la variable independiente sería el tipo de tratamiento médico, la dependiente la evolución de la sintomatología en el paciente. En un estudio pedagógico, la variable independiente sería el tipo de método educativo, la dependiente el rendimiento escolar. En un estudio de astrofísica la variable independiente el tipo de manipulación sobre las partículas, la dependiente el tipo de comportamiento que manifiesten las partículas. En líneas generales, la variable independiente es aquella sobre la que opera el equipo de investigación, la dependiente aquella de cuyos resultados se observan los efectos de la manipulación experimental.

Esta definición clásica, variable independiente aquella objeto de manipulación, dependiente aquella objeto de observación de sus efectos, es una definición todavía hoy válida en determinados contextos en donde el método experimental clásico sea útil, pero después de los avances en epistemología en el siglo XX van apareciendo nuevas definiciones, acorde a los nuevos progresos en metodología de investigación, uno de ellos la aparición del método quasi-experimental, en ciencias sociales, y la aparición de nuevos paradigmas que sobre conceptos como incertidumbre, relatividad, caos, complejidad, van elaborando nuevas definiciones sobre los conceptos tradicionales que apuntan hacia nuevos marcos interpretativos.

En el caso de la estadística de la probabilidad o probabilidad estadística, en el momento que se mueve en el terreno de las ciencias estocásticas, el determinismo clásico de que para todo efecto hay una causa razonable se desvanece en una nube de multicausalidad compleja, en donde la supuesta linealidad se evapora en un cúmulo de factores multicausales, en donde a menudo lo más acertado sería el estudio en todo caso de las causas probables de un fenómeno, fuera de cualquier determinismo.

Frente los modelos clásicos de la probabilidad de carácter determinista, el paradigma claro esta Laplace, a lo largo del siglo XX aparecen nuevos modelos de estadística y probabilidad que lejos del determinismo desarrollan nuevos esquemas indeterministas, en donde la supuesta secuencia  lineal causa y efecto puede estar sujeta a alteraciones en función de la propia naturaleza aleatoria en la distribución caótica de los fenómenos.

De hecho en el apartado 13 de Introducción a la Probabilidad Imposible, estadística dela probabilidad o probabilidad estadística, se parte de una concepción cosmológica de la realidad en la que a partir de accidentes aleatorios hay posibilidad de surgimiento de contingencias que den lugar a patrones de regularidad estable: de múltiples accidentes en el universo por choques entre sí de polvo cósmico y pedazos de materia en el espacio puede surgir cuerpos celestes, galaxias, y planetas, contingencias que pueden lugar a patrones de regularidad estable, sistemas planetarios bajo unas órbitas, cuerpos celestes de cuyos accidentes dentro de sí pueden surgir diferentes contigencias, dinámicas geológicas, atmosféricas, o en el planeta Tierra la aparición de la vida, la biología, de cuya evolución, no exenta de accidentes aleatorios van surgiendo diferentes combinaciones biológicas, que unido a diferentes accidentes geológicos y atmosféricos, extinciones masivas, e impactos de meteoritos, van formando un lugar donde es posible la aparición de la vida humana, que a su vez, por diversos azares de la evolución va derivando a una sociedad compleja. La historia social, fiel reflejo de la historia natural, es la sucesión de accidentes aleatorios de los que sin embargo surgen contingencias capaces de dar lugar a patrones de regularidad estable, al menos hasta que otro accidente crea nuevas condiciones de posibilidad para nuevas contingencias y nuevos patrones de movimiento regular y dinámico de la materia y la energía en el tiempo y el espacio, en síntesis, lo que sería la historia.

En un modelo indeterminista como Probabilidad Imposible, cualquier atribución de causa absoluta o apodíctica a una variable independiente es cuestionable, entre otras razones porque en un mundo regido por las leyes del azar, la ley natural, siempre hay un margen de duda racional para el establecimiento de una ley universal salvo la ley del azar, la ley de probabilidades. En este sentido, la única relación lógica entre una variable y otra puede ser sólo en términos de probabilidad, una relación no siempre causal, por cuanto pueden ser relaciones simultaneidad o retroalimentación.

El hecho que dos variables coincidan en el tiempo o coincida que una sea posterior a la otra, aun en repetidas ocasiones, no implica que sean causa o efecto, pueden ser simplemente simultáneas. Supongamos que en un estudio médico una vez aplicado un tratamiento médico se observan dos efectos diferentes: salvo que tengamos pruebas que lo demuestren, no hay razón suficiente para el establecimiento de relaciones formales entre ambos efectos, y en todo caso la relación entre los efectos y el tratamiento médico será dentro de un margen de duda racional, proporcional a lo márgenes de error aceptados en la investigación científica.

En Probabilidad Imposible se distinguen dos tipos de error, el error de hecho y el error racional. En Introducción a la Probabilidad Imposible, estadística de laprobabilidad o probabilidad estadística, se denomina error de hecho al error que de hecho estamos aceptando cada vez que aceptamos una muestra, por cuanto aceptar la realidad en sí ya de por sí es un error: al aceptar la muestra que obtenemos de la realidad aceptamos el error de representatividad muestral, igual a la inversión de la muestra. En universos de sujetos u opciones infinitos la probabilidad de error de representatividad muestral es la propia inversión de N, 1/N, y en universos de opciones limitadas la probabilidad de error de representatividad muestral es igual a la inversión de la muestra de puntuaciones directas o frecuencias, 1/∑xi.

En Probabilidad Imposible se denomina error racional el que racionalmente aceptamos cuando se acepta la probabilidad crítica, en donde ya sea una probabilidad crítica para el contraste de hipótesis en la prueba estadística, en estadística inferencial, para la crítica racional de la realidad, sobre un margen de fiabilidad igual a porcentaje X de fiabilidad, entre cien, por la máxima tendencia, o margen de error igual a porcentaje X de error, entre cien, por la máxima tendencia, en cualquier caso ya sea estudio de error o fiabilidad siempre hay un margen de error racional, en estudio de error el porcentaje X de error, en estudio de fiabilidad la diferencia entre cien menos el porcentaje X de fiabilidad.

La relación lógica entre el tratamiento médico y los efectos es de un nivel de causalidad probable sujeto a un margen de incertidumbre proporcional al margen de error, luego siempre hay espacio suficiente para la duda, luego la variable independiente será aceptada racionalmente universal dentro de un marco de duda razonable, en donde haya casos en donde la variable independiente no surta los efectos deseados por diversos motivos.

Si en un estudio de N sujetos u opciones en el tratamiento médico no se ha incluido a pacientes con un determinado perfil genético, o determinadas complejidades medicas previas, o que tengan determinadas alergias o intolerancias a ciertos tratamientos médicos, en el momento que el tratamiento sea suministrado a personas con este tipo de perfil, el grado de error del tratamiento es muy elevado, luego no es completamente universal, luego su aceptación universalmente racional es relativo a la probabilidad de error, de hecho y racional.

Por otro lado, cualquier atribución causal entre fenómenos simultáneos, o sucesivos en el tiempo, sin suficientes pruebas racionales de alguna relación probablemente causal sería infundada, algo que a menudo sucede en la ciencia, la atribución causal a fenómenos que en realidad son sólo puras coincidencias sin haber en realidad relación formal alguna.

De otro lado otro tipo de relaciones que no tienen porque acomodarse al concepto clásico de variable independiente son las relaciones de retroalimentación. Si dos variables se retroalimentan entre sí, o por el contrario hay dinámicas de entropía negativa, cualquier atribución de causa y efecto en un sentido clásico carece de sentido. Si en un experimento educativo el desarrollo de la inteligencia matemática mejora la comprensión lectora, la atribución causal de la que la inteligencia matemática tiene por efecto la comprensión lectora carecería de fundamento siempre y cuando no se testase además que, en un experimento de mejora de la comprensión lectora mejora a su nivel el rendimiento en matemáticas.

En diversas investigaciones educativas se ha puesto de manifiesto como la mejora de las capacidades matemáticas mejora la capacidad de comprensión simbólica del alumno, lo que puede tener a su vez mejoras en la comprensión lectora, y viceversa, la mejora de la comprensión lectora puede repercutir positivamente en matemáticas por cuanto el alumno comprende mejor los enunciados de los ejercicios de matemáticas. En síntesis, las capacidades matemáticas y lingúisticas están interconectadas, habiendo relaciones de retroalimentación entre sí.

Hoy en día aunque todavía en libros de estadística siga apareciendo en su noción experimental clásica, es la variable objeto de manipulación cuyos efectos se observan en la variable dependiente, hay que entenderlo en un sentido más amplio. De hecho hoy en día este concepto de variable independiente escapa al método experimental.

Si estudiamos como las tormentas solares afectan a determinados fenómenos atmosféricos y climáticos en nuestro planeta, la variable independiente serían las tormentas solares, y la variable dependiente serían sus efectos sobre la Tierra, sin que en ningún momento al variable independiente pudiera ser objeto de manipulación científica.

Si estudiamos el efecto de la población de abejas sobre la biodiversidad de la flora de un bosque, y estudiamos el efecto de la biodiversidad de la flora del bosque sobre la fauna, y se establecen correlaciones de, en proporción a la población de abejas, proporción de biodiversidad en flora y faura,  estamos haciendo un estudio estadístico y de probabilidad en donde la base de la cadena es la población de abejas, sin que la población de abejas fuera necesariamente una variable objeto de manipulación experimental, salvo que un equipo de zoólogos aumentara la población de abejas por traer abejas de otros sitios, o se llevara a cabo un estudio experimental de cómo aumentar artificialmente la población de abejas utilizando técnicas de apicultura.

En definitiva, hoy en día por variable independiente no se entiende sólo la variable experimental o variable objeto de manipulación, hoy en día la variable independiente es la variable de la que se quiere estudiar su efecto sobre otras variables, denominadas dependientes. En donde ademá se da la complejidad que la variable independiente es sólo una causa probable, entre otras muchas, de modo que en realidad la variable independiente puede ser una covariable que actúe junto a otros en el resultado de un efecto.

A una variable independiente se la llamaría covariable de un efecto en un estudio multicausal o multifactorial donde diferentes variables interactuarían en la aparición de un fenómeno, de modo que podría atribuirse a cada variable un porcentaje de probabilidad causal en la ocurrencia del fenómeno.

Dentro de la naturaleza se dan infinidad de circunstancias en donde un fenómeno es producto de una combinación de diferentes factores, en donde en realidad lo que mide la probabilidad empírica del fenómeno es la probabilidad de que esa combinación se de en la naturaleza. Si estudiamos la probabilidad que surja el arcoíris un día de lluvia estamos estudiando la probabilidad de que se dé una adecuada combinación de lluvia y luz como para producir el efecto óptico del arcoíris.

Cuando diferentes variables interactúan para dar lugar a un fenómeno, la probabilidad del fenómeno es la probabilidad de que se dé la combinación de factores que lo hacen posible. Si en estudio sobre factores de bienestar social como tasas de empleo, renta per capita, nivel educativo… a factor se le atribuye un porcentaje de contribución al bienestar, podría estudiarse como la combinación de una serie de factores, donde cada factor contribuye en un determinado porcentaje, que podría ser ponderado y estudiado de forma cuantitativa.

Si en un estudio quasi-experimental quisiéramos estudiar el fenómeno del bienestar social en diferentes países, unidades de análisis, habría que identificar los factores que contribuyen a este fenómeno,  y proceder a la comparación entre su comportamiento en diferentes países, siendo las variables independientes de los cuales queremos conocer su efecto en el bienestar de las unidades de análisis.
 
Rubén García Pedraza, Madrid a 28 de noviembre del 2015

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

sábado, 14 de noviembre de 2015

La muestra de dos opciones


Una muestra de dos opciones es cuando la muestra N se limita sólo a dos posibles sujetos u opciones exclusivamente, ya sea en ciencias naturales o sociales. Si lanzamos una moneda al aire los resultados normalmente son cara o cruz, el ser humano sólo puede ser hombre o mujer, el estudio del comportamiento de los fotones puede ser como honda o partícula, la carga eléctrica de una partícula sólo puede ser positiva o negativa.

Si bien, se puede dar el caso que al lanzar una moneda al aire finalmente al caer se sostenga sobre el borde de la circunferencia luego no sea ni cara ni cruz, un ser humano sea hermafrodita, independientemente de la modalidad de estudio un fotón se comporte simultáneamente como honda y partícula, y además de los electrones y protones haya neutrones. Independientemente de que en el comportamiento de la realidad no sea reductible a dimensiones binarias, bajo determinadas circunstancias hay estudios donde la muestra N de sujetos u opciones se reduce a sólo dos opciones, siendo el paradigma de universo limitado, el universo limitado a dos opciones.

Un universo limitado de opciones es aquel en donde el objeto de la medición es el recuento del número de ocurrencias por cada opción, siendo el total de ocurrencias por opción igual a la frecuencia de la opción, y además es un tipo de universo que por su propia naturaleza no tiende a infinito. El número de opciones de ese universo será igual a la muestra N, de modo que la probabilidad empírica de cada opción será igual a la frecuencia de la opción entre la frecuencia total. Es dentro de los universos limitados donde el concepto de probabilidad empírica del Segundo Método guarda más similitudes con el concepto clásico de la estadística tradicional, el primer método, de frecuencia relativa. Si bien el concepto tradicional de frecuencia relativa no guarda absolutamente ninguna identidad con el modo en que el Segundo Método de Probabilidad Imposible aplica el concepto de probabilidad empírica a los universos de sujetos, donde la probabilidad empírica se calcularía sobre la puntuación directa de sujeto u opción entre el sumatorio de puntuaciones directas. Diferenciándose la puntuación directa de la frecuencia en que la frecuencia de una opción es el sumatorio del total de ocurrencias de una opción, mientras la puntuación directa es la magnitud obtenida sobre una escala de medida en la estimación de la intensidad de una cualidad en un sujeto.

Una de las principales diferencias entre la frecuencia relativa de la estadística tradicional, el primer método, y la probabilidad empírica del Segundo Método, es que en la probabilidad empírica se equiparan los conceptos de sujeto u opción, haciéndose el mismo tratamiento de los datos obtenidos de cualquier tipo de medición, ya sea en forma de frecuencia o puntuación directa, síntesis que se hace en el concepto de probabilidad empírica de sujeto u opción, igual a la puntuación directa o frecuencia de sujeto u opción entre el total de puntuaciones directas o frecuencias.

Una vez establecidas las diferencias entre el concepto de la estadística tradicional, primer método, de frecuencia relativa, y el concepto del Segundo Método de Probabilidad Imposible sobre probabilidad empírica de sujeto u opción, se distinguen así fácilmente los dos tipos de universos, los universos de opciones y los universos de sujetos tratados como si fueran opciones. Los universos de opciones son de naturaleza limitada, las opciones no infinitas. Y los universos de sujetos tratados como si fueran opciones son así entonces universos de sujetos u opciones que si tienen posibilidad no descartable de tendencia a infinito, ya sea dentro de una posible historia infinita del universo en sí mismo, como dentro de los estudios poblacionales, aunque el estudio se limite en el espacio-tiempo, la posibilidad de infinidad de mediciones entre un periodo de tiempo determinado.

Dentro de los universos limitados el número de opciones que integren el universo serán los límites de ese universo, en donde se dan cabida tanto universos formados por opciones naturales o sociales, como los estudios limitados a categorías discretas, donde de una escala magnitud se establecen categorías definidas por intervalos de magnitud según  límites inferiores o superiores por cada categoría, ordenándose así en forma de categorías discretas. En los estudios de categorías discretas se contabilizarían los sucesos cuya estimación de magnitud estuviera dentro de cada categoría, y el sumatorio del número de sucesos por categoría sería su frecuencia, formando así parte de los universos de opciones limitadas, en este caso, limitadas a categorías discretas. La definición de los universos de opciones limitadas se explica de forma más detallada en el apartado 10 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

De este modo los universos de opciones limitadas integran una enorme variedad de tipos de universos, en donde el número de opciones establecen los límites de ese universo, por ejemplo si lanzamos al aire un dado de seis caras es un universo formado por seis opciones. Si en ciencias sociales se define el estado civil según la persona sea: soltero, casado, separado, divorciado, viudo; el estado civil de una persona viene definido por un universo de  cinco opciones.

El número de opciones en un universo limitado es variable, aunque nunca tendente a infinito, siendo el mínimo posible de opciones igual a dos, una muestra N de sujetos u opciones para que sea susceptible de estudio estadístico debe tener como mínimo dos opciones, si hubiera menos de dos opciones no sería un estudio estocástica.

La primera cualidad de la muestra de dos opciones es que es la muestra más mínima a que pueda llegar N para que haya estudio estocástico, siendo la muestra N una dimensión variable entre dos e infinito, si bien, en caso que N tienda a infinito necesariamente deberá hacer una selección muestral para el estudio, comprendiendo un margen de error de representatividad muestral igual a inversión de N, 1/N.

Dos sería el mínimo indispensable para estudio estocástico, no pudiendo haber en absoluto muestras inferiores a dos en el método estadístico. Y es en muestras de dos opciones donde se observan una serie de cualidades propias.

En muestras de dos opciones de forma universal siempre la media aritmética es igual a “0,5”, y salgo que la probabilidad empírica de ambas opciones sea igual a probabilidad teórica, se daría el caso que siempre que tuvieran el más mínimo sesgo, entonces el Nivel de Sesgo de cada opción sería siempre igual al Máximo Sesgo Empírico Posible, el cual es igual al Sesgo Total entre N, en este caso Sesgo Total entre dos, independientemente de la magnitud del sesgo. Que de darse bajo condiciones de máxima dispersión, que un sujeto u opción tenga probabilidad uno, y el otro probabilidad cero, la Desviación Media sería también igual a “0,5”.

 

La muestra de dos opciones es el único tipo de muestra donde inversión de N, 1/N, sería, además de media aritmética, la Máxima Desviación Media Teórica Posible o Máxima Desviación Típica Posible. De modo que en universos de dos opciones coinciden la media aritmética y la máxima dispersión teórica posible de la muestra.

En la obra Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se menciona en numerosas ocasiones que el método analítico por el cual se ha ido elaborando la teoría es el silogismo de la tendencia, que en resumidas cuentas se puede sintetizar como la aplicación de la lógica al estudio de la tendencia, estudio que normalmente se centra en los límites de la tendencia.

Si estudiamos los límites de la tendencia en los conceptos que integran Probabilidad Imposible, uno de estos conceptos es precisamente el concepto N, que hace mención a la muestra N sujetos u opciones, en donde el estudio de la tendencia rápidamente indicaría que N es una variable que puede oscilar entre dos e infinito, dos porque es el número indispensable de opciones para que haya estudio estocástico, e infinito por la propia existencia de universos que pueden tender a infinito, de los cuales si acaso sólo estudiamos una muestra, la que finalmente se estudiará en la muestra de N sujetos u opciones, una muestra suficientemente grande como para que sea representativa y matemáticamente operativa.

El motivo por el cual no podemos trabajar con una muestra infinita es porque matemáticamente no sería operativa, en primer lugar porque la propia inversión de N no sería operativa. Si N tiende a infinito entonces la inversión de N, 1/N, la probabilidad teórica, sería igual a cero, además de que la muestra de puntuaciones directas o frecuencias tendería a cero, luego la probabilidad empírica sería igual a cero, luego tanto la probabilidad empírica y teórica serían igual a cero haciendo inoperativo cualquier cálculo matemático de la tendencia. Lo que a su vez genera problemas sobre el grado en que realmente un constructo matemático de muestras de sujetos no finitas son realmente representativas sobre lo que ocurre en el infinito, tal como se explica en los apartado 7, 8 y 9 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad o probabilidad estadística.

En el momento que se aplica la lógica a la tendencia de los conceptos de Probabilidad Imposible, a medida que todo tiende a infinito, tanto N y el sumatorio de puntuaciones directas o frecuencias, el modelo empírico tendería a cero, cuando en la realidad real, material y verdadera del universo no es así, un fenómeno que además de contradicciones lógicas, implica que aplicado a la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible, a medida que N aumenta en tendencia a infinito entonces la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible también tienden a cero.

De modo que cuando en muestras de dos opciones, la muestra más mínima e indispensable posible para que se pueda hablar de estudio estocástico, se da el caso que la Máxima Desviación Media Teórica Posible y la Máxima Desviación Media Teórica Posible es igual a “0,5”, entonces se concluye que la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible son dimensiones que sólo pueden oscilar entre “0,5”, y “0”, en donde el máximo valor que pueden alcanzar la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es igual a “0,5” bajo la condición exclusiva de que la muestra N sólo integre  dos opciones. Conforme N tiende a incrementarse, por el aumento de sujetos u opciones en el modelo matemático, necesariamente la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible entonces tienden a valores inferiores a “0,5”.

De modo que al igual que la propia probabilidad teórica igual a inversión de N, 1/N, es una variable matemática dependiente de la magnitud N, en donde conforme N tiende a infinito entonces la inversión de N, 1/N, tiende a cero, siendo el máximo valor posible de inversión de N, ¡/N, igual a “0,5” bajo supuesto que N sólo integre dos opciones. Del mismo modo la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es una variable dependiente de N, en donde tienden a cero conforme N tiende a infinito, de modo que el máximo valor que pueden alcanzar la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible es igual a “0,5”.

Por lo que tanto la probabilidad teórica como la Máxima Desviación Media Teórica Posible y la Máxima Desviación Típica Teórica Posible son dos variables dependientes de N, cuyo máximo valor es “0,5”, bajo supuesto que N sea igual a dos. Y conforme N tiende a infinito estas variables tenderán a cero, si bien, el único y exclusivo caso en donde probabilidad teórica y Máxima Desviación Media Teórica Posible y Máxima Desviación Típica Teórica Posible llegan a tener el mismo valor es sólo en su límite máximo de “0,5”, cuando N es igual a dos. Porque a medida que N sea superior a dos, en función de la magnitud N cada variable será inferior a “0,5”, pero representando magnitudes diferentes, ente otros motivos porque, una vez que N alcance un valor suficiente, dejando de ser la muestra de N opciones de un universo limitado, y pase a convertirse en la muestra N de sujetos u opciones de un universo de sujetos u opciones infinitos, dentro de la multifuncionalidad de inversión de N, 1/N, entonces la inversión de N, 1/N, pasará a ser un estadístico de probabilidad de dispersión teórica, y probabilidad de error de representatividad muestral. En tanto que probabilidad de dispersión teórica en universos infinitos inversión N, 1/N, siempre será inferior a la Máxima Desviación Media Teórica Posible, y la Máxima Desviación Típica Teórica Posible, una diferencia que sin embargo irá decreciendo conforme N tienda a infinito.

De modo que en sus límites extremos, que N sea igual a dos, y que N tienda a infinito, es en donde se produce la mayor coincidencia entre inversión de N y los estadísticos de máxima dispersión muestral teórica posible. En muestras de dos opciones porque ambos serán igual a “0,5”, y en universos de sujetos u opciones infinitos conforme N tienda a infinito tanto la inversión de N como los estadísticos de máxima dispersión muestral teórica posible tenderán a cero, en el caso de inversión de N por cuanto tenderá a uno entre infinito, mientras los estadísticos de máxima dispersión muestral teórica posible tenderán a dos entre infinito,  y en cualquier caso ambos tipos de estadísticos revelarán una tendencia indiscutible a cero.

 Rubén García Pedraza, Madrid a 14 de noviembre del 2015.

https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería

sábado, 17 de octubre de 2015

Máxima Puntuación Típica Teórica Posible


En la estadística tradicional, lo que en la teoría de Probabilidad Imposible se denomina el primer método,  la puntuación típica sería iguala la puntuación diferencial entre desviación típica. Debido a los cambios conceptuales que se operan en el Segundo Método de la teoría de Probabilidad Imposible, la puntuación típica pasaría a ser igual al Nivel de Sesgo normal dividido entre la Desviación Media o Desviación Típica.

En Probabilidad Imposible se da opción a utilización de Desviación Media o Desviación Típica allí donde un estadístico de dispersión muestral sea necesario, aconsejándose la Desviación Media, por una razón muy sencilla, la Desviación Media no altera el sumatorio del Sesgo Total tal como hace la Desviación Típica, que eleva al cuadrado cada Nivel de Sesgo, sumatorio de cuadrados a cuyo resultado a posteriori se hace la raíz cuadrada. La Desviación Media se mantiene más fiel a las diferencias originales.

En el momento que la puntuación típica del Segundo Método se conceptualiza como Nivel de Sesgo entre Desviación Media o Típica entonces, la Máxima Puntuación Típica Teórica Posible es la puntuación típica correspondiente a la Máxima Probabilidad Teórica Posible, p(xi) = 1, la probabilidad uno, y sería igual a su Nivel de Sesgo dividido entre Desviación Media o Típica, DMoS.
 

Máxima Puntuación Típica Teórica Posible=
( 1 – 1/N) : DMoS
 

La puntuación típica es una expresión normal de la estadística tradicional, lo que en Probabilidad Imposible se denomina Primer Método para diferenciarla del Segundo Método de Probabilidad Imposible. Tanto en el primer método como en el Segundo Método la puntuación típica de una medición indicaría su posición dentro de la campana normal, también denominada campana de Gauss, que es la curva de distribución de cualquier acontecimiento normal. La importancia de conocer la posición de una puntuación sobre la campaña de Gauss radicaría que de este modo podemos conocer el área explicada bajo la curva que logra la posición de esa puntuación típica, lo que resulta útil dentro de algunos modelos convencionales del primer método de contrate de hipótesis.

Se dice que la distribución de un acontecimiento se ajusta a una distribución normal, cuando al representarse sobre la gráfica la mayor concentración de puntuaciones típicas se produce en torno a la media aritmética con una Desviación Típica entre más o menos uno. Se dice normal porque lo más normal es que los hechos tiendan a distribuirse en torno a la media aritmética.

En el Segundo Método de Probabilidad Imposible la media aritmética de las probabilidades empíricas de puntuación directa de sujeto u opción es igual a la probabilidad teórica, la inversión de N, 1/N, dentro de las múltiples funciones de inversión de N, 1/N. De modo que el Nivel de Sesgo es igual a la diferencia de la probabilidad empírica menos la inversión de N, 1/N, de modo que el Máximo Sesgo Teórico Posible es igual a la unidad menos inversión de N.

 
Máximo Sesgo Teórico Posible = 1 – 1/N
 

La Máxima Probabilidad Empírica Posible, luego el Máximo Sesgo Teórico Posible, sólo se dan bajo condiciones de máxima dispersión: cuando de toda N sólo un sujeto u opción tiene puntuación directa o frecuencia distinta de cero, luego todos los demás sujetos u opciones, N menos uno, tienen probabilidad empírica igual a cero, la Mínima Probabilidad Empírica Posible.

Bajo las condiciones de máxima dispersión entonces es cuando se genera la Máxima Desviación Media Posible, la Máxima Varianza Teórica Posible, y la Máxima Desviación Típica Teórica Posible. La Máxima Desviación Media Teórica Posible será igual al promedio entre N, o producto por inversión de N, de la suma del Sesgo Total bajo condiciones de máxima dispersión, lo que es igual al promedio entre N, o producto por inversión de N, de la suma del Máximo Sesgo Teórico Posible más el producto de inversión de N por N menos uno. Lo cual es igual o bien al duplo del Máximo Sesgo Teórico Posible dividido entre N, o multiplicado por inversión de N. O bien es igual al producto de dividir entre N, o multiplicar por inversión de N, el resultado del producto de inversión de N por N menos uno.

 

Diferentes expresiones de la Máxima Desviación Media Teórica Posible:
 

Máxima Desviación Media Teórica Posible =
[ ( 1 – 1/N) + ( 1/N · ( N – 1 )) ] : N
 

Máxima Desviación Media Teórica Posible =
[ ( 1 – 1/N) + ( 1/N · ( N – 1 ) )] · 1/N
 

Máxima Desviación Media Teórica Posible =
[ ( 1 – 1/N ) · 2 ] : N
 

Máxima Desviación Media Teórica Posible =
[ ( 1 – 1/N ) · 2 ] · 1/N
 

Máxima Desviación Media Teórica Posible =
[ ( 1/N · ( N – 1 ) ) · 2] : N
 

Máxima Desviación Media Teórica Posible =
[ ( 1/N · ( N – 1 ) ) · 2] · 1/N
 

De todas estas expresiones el modo en que normalmente más comúnmente se utilice esta ecuación en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, será Máxima Desviación Media Teórica Posible igual al promedio del duplo de la Máxima Probabilidad Empírica Posible.
 

Máxima Desviación Media Teórica Posible =
[ ( 1 – 1/N ) · 2 ] : N

 
De modo que la Máxima Varianza Teórica Posible será igual al promedio entre N, o producto por inversión de N, de la suma obtenida del Máximo Sesgo Teórico Posible al cuadrado más el producto del cuadrado de inversión de N, 1/N, por N menos uno.
 

Máxima Varianza Teórica Posible =
[ ( 1 – 1/N)² + ( 1/N² · ( N – 1 )) ] : N

 
Máxima Varianza Teórica Posible = [
 ( 1 – 1/N)² + ( 1/N² · ( N – 1 )) ] · 1/N

 
Por lo que la Máxima Desviación Típica Teórica Posible será igual a la raíz cuadrada de la Máxima Varianza Teórica Posible.

 
Máxima Desviación Típica Teórica Posible =
√[ ( 1 – 1/N)² + ( 1/N² · ( N – 1 )) ] : N

 
Máxima Desviación Típica Teórica Posible =
√[ ( 1 – 1/N)² + ( 1/N² · ( N – 1 )) ] · 1/N
 

En el momento que sobre las condiciones de máxima dispersión conocemos cual es la Máxima Probabilidad Teórica Posible, el Máximo Sesgo Teórico Posible, y los estadísticos máximos de dispersión muestral, Máxima Desviación Media Teórica Posible, Máxima Varianza Teórica Posible, Máxima Desviación Típica Teórica Posible, entonces podemos conocer cual sería la Máxima Desviación Típica Teórica Posible, igual a Máximo Sesgo Teórico Posible entre Desviación Media o Típica. En la obra de Introducción a la Probabilidad Imposible, estadística dela probabilidad o probabilidad estadística, allí donde sea posible utilizar la Desviación Media en lugar de Desviación Típica, siempre se da preferencia al uso de la Desviación Media, por cuanto mantiene el sentido original de las diferencias, motivo por el cual, allí donde ambos estadísticos de dispersión muestral sean igualmente utilizables se utilizará el símbolo “DMoS” que viene a representar Desviación Media o Típica, si bien, en función se use Desviación Media o se use Desviación Típica, los resultados pueden diferir. Esa diferencia sería ocasionada por la transformación de las diferencias originales que genera el sumatorio de los diferenciales al cuadrado, sumatorio al que después se hace raíz cuadrada.

En el caso de la puntuación típica en Probabilidad Imposible se da tanto la opción de calcularse sobre la Desviación Media o Desviación Típica, de modo que utilizándose la Desviación Media en el cálculo de la puntuación típica entonces la Máxima Puntuación Típica Teórica Posible sería igual a Máximo Sesgo Teórico Posible entre Máxima Desviación Media Teórica Posible.

 
Máxima Puntuación Típica Teórica Posible utilizando Desviación Media =

( 1 – 1/N) : { [ ( 1 – 1/N) · 2 ] : N }
 

De utilizarse la Desviación Típica en el cálculo de la puntuación típica, entonces la Máxima Puntuación Típica Teórica Posible sería igual a Máximo Sesgo Teórico Posible entre Máxima Desviación Típica Teórica Posible.

 
Máxima Puntuación Típica Teórica Posible utilizando Desviación Típica =

( 1 – 1/N) : { √[ ( 1 – 1/N)² + ( 1/N² · ( N – 1 )) ] : N }
 

En el momento que conocemos cual es la Máxima Puntuación Típica Teórica Posible entonces los contrates de hipótesis sobre puntuación típica en modelos normales en Probabilidad Imposible ya no es necesario hacerlos sobre el área acumulada en la campana de Gauss, directamente se pueden hacer modelos de contrastes de hipótesis, diferenciales o de cociente, poniendo en relación la puntuación típica de cualquier sujeto u opción, igual a Nivel de Sesgo entre Desviación Media o Típica, y la Máxima Puntuación Típica Teórica Posible, guardando siempre coherencia que si se hacen los cálculos de puntuación típica sobre Desviación Media o Desviación Típica, debe ser sobre el mismo estadístico de tendencia muestral sobre el cual se calcule la Máxima Puntuación Típica Teórica Posible, modelos de contraste de hipótesis sobre la curva normal que se explican en el apartado número 15 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

 

Rubén García Pedraza, Madrid a 17 de octubre del 2015

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

sábado, 3 de octubre de 2015

Las variables


El concepto de variable es fundamental en la investigación científica, por cuanto en el estudio de los factores de cualquier hecho empírico se distinguen factores constantes, de naturaleza inalterable independientemente de cualquier otra circunstancia, permitiendo mediciones idénticas en el espacio y el tiempo, salvo en las constantes particulares a un determinado fenómeno que en tal caso sería invariable para ese fenómeno pudiendo presentar oscilaciones en cualquier otro, y los factores variables propiamente dichos, donde la medición siempre está sujeta a posibles variaciones.

El conjunto de los factores, constantes o variables, son las cualidades de un fenómeno objeto de estudio y seleccionadas para su medición, para la obtención de su puntuación directa o frecuencia, susceptible de operación matemática. En la teoría de Probabilidad Imposible, en el campo  de la estadística de la probabilidad o probabilidad estadística, la medición de las cualidades en forma de puntuación directa o frecuencia se transforma a su vez  en probabilidades empíricas.

Entre las diferencias de la probabilidad empírica y la probabilidad teórica se encuentra que mientras dada una muestra N constante de sujetos u opciones, la probabilidad teórica permanece constante. Es decir, la probabilidad teórica, inversión de N, sería una constante particular dada una muestra constante de sujetos u opciones. Mientras independientemente de que N sea constante, la probabilidad empírica está sujeta a posibles variaciones.

En el momento que en la medición de la cualidad objeto de estudio un sujeto u opción manifiesta un incremento o descenso en su probabilidad empírica, automáticamente todas las probabilidades empíricas de los demás sujetos u opciones experimentan cambios, aunque la N sea constante y la probabilidad teórica permanezca inalterable.

Cuando en dos mediciones sobre una misma muestra se registra que en la segunda medición al menos un sujeto u opción ha aumentado su puntuación directa o frecuencia, automáticamente la probabilidad empírica de ese sujeto u opción aumenta, y descienden las probabilidades empíricas de los demás sujetos u opciones. Y viceversa, si al menos en un sujeto u opción se registra un descenso en su puntuación directa o frecuencia, se produce un descenso en la probabilidad empírica de ese sujeto u opción, y un aumento en las probabilidades empíricas de los demás sujetos u opciones. La significación de los cambios en la magnitud de la probabilidad empírica, tanto de al menos el sujeto u opción que registre los cambios, como en los demás, será proporcional a la magnitud de los cambios en las mediciones. Cuanto más significativo el cambio en las puntuaciones directas o frecuencias, más significativo el cambio en las probabilidades empíricas, lo que permite la inferencia de que si se verifica un cambio significativo en las probabilidades empíricas, se valida la significación del cambio en la tendencia del sujeto u opción o la muestra, según sean contrastes individuales o muestrales.

Dependiendo del tipo de estudio y objeto de estudio, según sea sobre modelos omega o modelos normales, estudios de igualdad o estudios de sesgo, sea de sesgo positivo o sesgo negativo, en el contraste de hipótesis la razón crítica de la política científica establece si son cambios suficientemente racionales sobre el comportamiento de lo que se estudia.

Las variables de este modo son cualidades no constantes de un fenómeno, seleccionadas para un estudio, por lo que en función de las cualidades se selecciona una muestra de sujetos u opciones que entre sus características tengan esas cualidades, y que al ser objeto de la medición se convierten en factores susceptibles de operación matemática, en el campo de la estadística de la probabilidad o probabilidad estadística, en Probabilidad Imposible se convierten en probabilidades empíricas, sobre las cuales se pueden desarrollar tanto procesos descriptivos e inferenciales, en este último caso para su crítica racional sobre pruebas estadísticas.

Dentro de las variables a su vez se identifican normalmente dos tipos: variables independientes y variables dependientes. En el método experimental se llama variable independiente a la variable manipulable, de modo que sobre la manipulación de la variable independiente se observan los cambios en las otras variables denominadas dependientes. Si bien, junto las variables dependientes o independientes, pueden interactuar otras variables no definidas a priori en la investigación y que forman los factores de error. Lo que normalmente en el método experimental se conoce por factores error es la interferencia que en el proceso de manipulación experimental puede producir en las variables dependientes reacciones no atribuibles a la variable independiente, y dado que son factores desconocidos se engloban dentro de lo que sería dentro de los factores de error estadístico.

En las ciencias sintéticas, por ejemplo ciencias sociales o determinados campos de las ciencias naturales donde la manipulación experimental no sea del todo posible, a estos modelos de contrate de datos se denominará método quasi-experimental, diferenciándose del estrictamente experimental en que en el quasi-experimental los datos no son objeto de manipulación directa, son sólo el registro empírico de cambios observados a lo largo de un proceso en el que intervienen diversos factores, que aun siendo conocidos y cuantificados no pueden ser manipulados de forma directa por los investigadores.

La relación atribuida entre las variables dependientes e independientes depende del tipo de filosofía y paradigma de la política científica. Se puede decir que hay dos grandes paradigmas para entender las relaciones entre variables, deterministas e indeterministas. El determinismo moderno cuyo paradigma es Laplace parte de la tesis de que todo en la naturaleza, incluida la humana y la social, se encuentra regulado por cadenas causales, lo que en cierto modo retrotrae a la idea clásica aristotélica del primer motor, o causa primera, de modo que todo estaría determinado por cadenas de causa y efecto, por lo que bajo las condiciones científicas y tecnológicas precisas sería posible la averiguación de que factor ha motivado que efectos,  efectos que a su vez se pueden convertir en causas de subsiguientes efectos y así sucesivamente. Todo estaría determinado por relaciones de causa y efecto que darían lugar a leyes universales cuyo descubrimiento sería la finalidad de una ciencia nomotética y normativa.

Desde el indeterminismo cualquier atribución causal es compleja, y más que relaciones causales se habla de relaciones estocásticas, en donde el nivel de causalidad en todo caso estará asociado a términos de probabilidad, en donde las causas probables de cualquier fenómeno interactúan entre sí creando complejas redes de correlación múltiple, en donde  la realidad es un caos en donde todo está interconectado, y cualquier mínima variación en cualquier elemento del sistema puede producir reacciones sistémicas y globales, es lo que normalmente se llama teoría del caos o efecto mariposa, o más actualmente se llama teoría de la complejidad.

Tanto el determinismo clásico aristotélico, renovado en la época moderna por Laplace, como el indeterminismo, renovado en la época moderna por David Hume, y adaptado a la época contemporánea por las teorías del caos, la complejidad, y el postmodernismo, tienen sus defensores y detractores. La principal crítica al determinismo es por cuanto si realmente todo está ligado por estrictas leyes de causa-efecto no habría realmente espacio para el azar, cuando en la realidad hay situaciones que por su definición son estocásticas. Dentro de las ciencias sociales el determinismo lleva a un serio cuestionamiento sobre si realmente existe la libertad en el ser humano y la sociedad. La principal crítica al indeterminismo es que al sucumbir todo al caos, la incertidumbre, el azar, no habría posibilidad de leyes naturales, la ciencia dejaría de ser nomotética y normativa. Además otra crítica a la teoría complejidad, es por cuanto su concepto de auto-organización recoge el legado de las teorías vitalistas de principios del siglo XX, criticadas por el positivismo  por sus reminiscencias metafísicas.

En el apartado 13 de Introducción  a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se aporta una solución de síntesis a esta cuestión desde el indeterminismo, proponiendo que la realidad se estructura sobre fenómenos estocásticos, aleatorios, sujetos al azar y la incertidumbre, espacio donde se produce una sucesión de accidentes, que pueden producir contingencias que den lugar a patrones de comportamiento estable, de cuya observación, sintetizado a conocimientos e ideas previas, se elaboren hipótesis empíricas sobre el comportamiento de lo que ocurre, de modo que a partir de la crítica racional de la tendencia se determina la suficiencia de la hipótesis.

En esencia lo que propone el apartado 13 de Introducción a la Probabilidad Imposible es una adaptación a la ciencia contemporánea de la hipótesis platónica de que del caos surge el orden, abandonando cualquier reminiscencia metafísica. El modo que del caos surge el orden es por la propia sucesión aleatoria de occidentes que de forma completamente al azar genera patrones de comportamiento regulares y estables, tanto en la historia natural o social. Ya sea por ejemplo la formación de los cuerpos celestes, las galaxias, la aparición y evolución de la vida, y en nuestro planeta la aparición de la humanidad, o en el modo que ha evolucionado la sociedad.

Dentro del paradigma que propone Probabilidad Imposible la relación entre las variables más que guardar una relación causa-efecto estricta, estudia son las causas probables entre los fenómenos, sujetos a determinados niveles de incertidumbre y error estadístico, salvo aquellos casos donde la relación entre dos fenómenos sea de una probabilidad empírica igual a la unidad, que en tal caso sería una relación determinista: por ejemplo que el fenómeno B sólo y exclusivamente suceda siempre que a priori suceda A, de modo que fuera de toda incertidumbre haya certeza absoluta, probabilidad uno, de que siempre que suceda A no haya la menor duda que le seguirá B, por ejemplo la ley de la gravedad de Newton, deducida del famoso experimento atribuido a Galileo: siempre que lanzamos cualquier objeto desde la torre de Pisa, caen simultáneamente a la misma velocidad.

Salvo situaciones de certeza absoluta en cualquier otra situación bajo condiciones estocásticas hay un amplio abanico de posibilidades, sujeto a un nivel de incertidumbre y margen de duda racional, margen de error dentro del cual de forma provisional se acepte la hipótesis empírica.

Dentro de los estudios estocásticos más que estudios causa-efecto en su sentido clásico, se estudian las probables causas o causas probables de un fenómeno, en el cual pueden interactuar simultáneamente infinidad de factores, dentro de los cuales aquellos factores seleccionados en la medición serán sobre los que se realicen las atribuciones, permaneciendo el resto de factores dentro de lo que se denomine factor de error, el error estadístico.

Las atribuciones que se realicen pueden ser de varios tipos, o bien asociando un término de probabilidad a una posible relación causa y su efecto, o bien estimaciones de correlación entre factores sin que necesariamente haya atribuciones de causalidad, o se puede hacer una estimación de en qué porcentaje cada factor contribuye a un determinado fenómeno, o se estudie el modo en que los factores se retroalimentan entre sí.

Un ejemplo típico de Probabilidad Imposible de estudio estocástico asociando un margen de probabilidad a una posible relación causa y efecto , es sobre la relación entre las variables: luz, lluvia,  y arcoíris; se observará que no todos los días que llueve y después sale el sol se produce el arcoíris, si se estudia la probabilidad empírica de arcoíris sobre días de lluvia, se observará que la probabilidad es más elevada que sobre los días que no llueve. La probabilidad empírica que salga el arcoíris un día que no llueve  es cero, sin embargo no siempre que llueve sale el arcoíris, de modo que es una relación estocástica sujeta a determinados niveles de azar: que de forma accidental y estocástica se dé una determinada combinación de luz y lluvia que tenga por contingencia el efecto óptico del arcoiris. En este caso las variables independientes serían lluvia y luz, la variable dependiente sería el arcoiris, de modo que, lo que realmente mide la probabilidad empírica del arcoíris es la probabilidad empírica de que se produzca una adecuad combinación de luz y lluvia que genera el arcoiris.

En el caso del arcoiris realmente lo que se estudia es la probabilidad de que bajo determinadas circunstancias se produzca una determinada combinación de fenómenos, que de darse producen necesariamente dicho efecto. La relación entre la combinación y su efecto es prácticamente determinista, siempre que se produzca esa combinación el efecto es inmediato, obedeciendo a las leyes estocásticas, las leyes del azar, que se den las condiciones adecuadas para la formación de esa combinación, al igual que si jugamos a los dados, y lanzamos al aire dos dados y apostamos sobre un número, la probabilidad clásica de que ganemos será el equivalente al número de combinaciones cuya suma diera igual al número que hemos apostado entre al número total de combinaciones .

En el caso de lanzar dos dados al aire, o se produzca el arcoíris, se trataría de fenómenos en donde la aparición de condiciones favorables depende sólo de la acertada combinación de dos variables no demasiado compleja. Sin embargo en la realidad lo más habitual es que el grado de complejidad en la aparición de multitud de fenómenos sea mayor.  Si se estudia la combinación ideal de factores que han permitido la formación de los cuerpos celestes, las estrellas, las galaxias, la formación geológica y atmosférica de los planetas, o simplemente la combinación de factores que dieron lugar a la aparición de la vida en nuestro planeta, y una vez que surge las combinación de factores que hicieron posible su conservación,y evolución, y la aparición de la diversidad biológicas hacia formas de vida más complejas,  o la combinación de factores que dieron lugar a las extinciones masivas y finalmente la aparición de la especie humana, en cada uno de estos procesos tuvieron que participar infinidad de factores, de cuya combinación aleatoria dieron lugar unos resultados, donde no todos los factores contribuyeron en igual medida, hubo factores cuyo nivel de contribución causal tuvo que ser en mayor porcentaje que otros , en donde en el estudio del grado de atribución causal de cada factor sería un determinado porcentaje, pero que en suma dieron lugar a que estos acontecimientos tuvieran lugar.

De otro en los estudios correlacionales no siempre el objeto es la determinación de en que nivel de porcentaje las variables causales contribuyen en un efecto. Pueden ser estudios correlacionales en donde las variables entre sí no tengan relación directa, salvo una causa común a ambas, o sean estudios en donde en modo alguno se puede decir que haya una variable que actúe de causa y otra de efecto, siendo en realidad dos variables que se retroalimentan entre sí influenciándose mutuamente.

Un tipo de estudio correlacional entre dos variables sin que medie relación causa y efecto directa entre sí, aunque probablemente tengan una causa común, es por ejemplo el siguiente, también utilizado en otras ocasiones en Probabilidad Imposible, si estudiamos lo efectos de la lluvia sobre el comportamiento de los caracoles observaremos que cuando llueve aumenta la probabilidad de ver caracoles, o lo que es lo mismo, la probabilidad empírica de que los caracoles salgan a campo abierto aumenta cuando llueve, lo cual correlaciona positivamente con que los días de lluvia salga el arcoíris. De modo que se observa correlación positiva entre alta probabilidad empírica de que salgan los caracoles un día de lluvia, y alta probabilidad empírica de que salga el aroiris un día de lluvia. Entre ambos fenómenos, que salgan los caracoles y salga el arcoíris no hay relación causal, lo que se observa es una correlación positiva entre ambos fenómenos por un causa probable común, la lluvia.

En una investigación médica en donde se está estudiando los efectos de un determinado medicamento sobre una muestra de pacientes, se puede dar el caso que en el momento de la administración del tratamiento en la muestra se observe una correlación positiva entre dos posibles efectos diferentes y completamente independientes entre sí del fármaco. Sería un ejemplo parecido a los caracoles y el arcoíris, una misma causa común probable puede producir un cambio en el patrón del comportamiento de otras variables, aunque estas variables sean independientes entre sí, pudiendo estudiarse la correlación entre dichas variables, sin que tengan relación directa.

Y finalmente estudios donde la relación entre las variables sea de retroalimentación mutua, en modo alguno se puede decir en sentido estricto que una variable actúe de causa, y la otra actúe de efecto, por cuanto las variables entre sí se retroalimentan mutuamente. Supongamos que en una escuela un profesor aplica a sus alumnos un programa de desarrollo de la inteligencia matemática, y durante el tiempo que se aplica este programa el profesor de lenguaje y literatura descubre que han mejorado en sus alumnos las capacidades de comprensión lectora. En principio el programa del desarrollo de la inteligencia matemática no estaba destinado a la mejora de la comprensión lectora, sin embargo, entre los posibles efectos beneficiosos del programa de mejora de la inteligencia matemática se encuentre la mejora de la atención y la comprensión del lenguaje simbólico, elementos que pueden contribuir a la mejora global de las capacidades del alumno, y puede repercutir a mejoras en los resultados escolares en otras materias, por ejemplo en lenguaje y literatura. De igual modo, un programa de mejora de la comprensión lectora en lenguaje y literatura, podría tener importantes beneficios en otras materias, por ejemplo, una mayor comprensión del lenguaje en literatura puede tener por efecto una mejor comprensión de los enunciados de los problemas de los ejercicios de matemáticas, además de la mejora de la atención y en otras capacidades, elementos que pueden producir mejoras en el rendimiento matemático.

En realidad no se está hablando de que la mejora en matemáticas sea la causa de mejora en lenguaje y literatura, o las mejoras en lenguaje y literatura sean la causa de las mejoras en matemáticas, lo que se verificaría es la retroalimentación entre las capacidades matemáticas y las capacidades lecto-escritoras, de modo que una mejora en unas capacidades produciría mejoras en la otras, y viceversa, la mejora de las capacidades matemáticas produciría una mejora en las capacidades lecto-escritoras, y mejoras en las capacidades lecto-escritoras producirían mejoras en las capacidades matemáticas.

En un ecosistema en donde el equilibrio entre la diversidad biológica dependa de las relaciones de colaboración entre especies, el adecuado desarrollo de una especie contribuiría al adecuado desarrollado de las demás. Si la diversidad de flores en un prado depende de la polinización de las abejas, una adecuada población de abejas es condición indispensable al mantenimiento de la población de las flores del prado, y el mantenimiento de las flores del prado es condición indispensable para el mantenimiento de la población de abejas. En realidad no hay causa y efecto, ambas variables se retroalimentan entre sí.

Dentro de una concepción dialéctica, en la complejidad de las relaciones globales de un sistema, donde todos los factores se encuentran interconectados entre sí, cualquier cambio  en cualquier variable puede implicar cambios globales en todo el sistema, lo que supone una compleja combinación estocástica de correlaciones múltiples, a diversos niveles, de diferente grado de contribución y retroalimentación entre sí de las variables, en la formación y emergencia de nuevos fenómenos.

El concepto de variable es una cuestión trascendental en la ciencia, y su propia definición implica una concepción filosófica más trascendental, en el momento que definimos la realidad como un conjunto de factores, en donde se identifican constantes y variables, se da por hecho que la realidad no es inmutable, de manera dialéctica distinguimos lo variable en contraposición a su opuesto que es lo constante, siendo la naturaleza variable de lo que ocurre lo que hace que la realidad  está sujeta a cambios, y son en realidad los cambios de lo que es objeto la ciencia.

Rubén García Pedraza, Madrid, a 3 de octubre del 2015

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/