El
concepto de variable es fundamental en la investigación científica, por cuanto
en el estudio de los factores de cualquier hecho empírico se distinguen
factores constantes, de naturaleza inalterable independientemente de cualquier
otra circunstancia, permitiendo mediciones idénticas en el espacio y el tiempo,
salvo en las constantes particulares a un determinado fenómeno que en tal caso
sería invariable para ese fenómeno pudiendo presentar oscilaciones en cualquier
otro, y los factores variables propiamente dichos, donde la medición siempre
está sujeta a posibles variaciones.
Entre
las diferencias de la probabilidad empírica y la probabilidad teórica se
encuentra que mientras dada una muestra N constante de sujetos u opciones, la
probabilidad teórica permanece constante. Es decir, la probabilidad teórica,
inversión de N, sería una constante particular dada una muestra constante de sujetos
u opciones. Mientras independientemente de que N sea constante, la probabilidad
empírica está sujeta a posibles variaciones.
En
el momento que en la medición de la cualidad objeto de estudio un sujeto u
opción manifiesta un incremento o descenso en su probabilidad empírica,
automáticamente todas las probabilidades empíricas de los demás sujetos u
opciones experimentan cambios, aunque la N sea constante y la probabilidad teórica
permanezca inalterable.
Cuando
en dos mediciones sobre una misma muestra se registra que en la segunda
medición al menos un sujeto u opción ha aumentado su puntuación directa o
frecuencia, automáticamente la probabilidad empírica de ese sujeto u opción
aumenta, y descienden las probabilidades empíricas de los demás sujetos u
opciones. Y viceversa, si al menos en un sujeto u opción se registra un
descenso en su puntuación directa o frecuencia, se produce un descenso en la
probabilidad empírica de ese sujeto u opción, y un aumento en las
probabilidades empíricas de los demás sujetos u opciones. La significación de
los cambios en la magnitud de la probabilidad empírica, tanto de al menos el
sujeto u opción que registre los cambios, como en los demás, será proporcional
a la magnitud de los cambios en las mediciones. Cuanto más significativo el
cambio en las puntuaciones directas o frecuencias, más significativo el cambio en
las probabilidades empíricas, lo que permite la inferencia de que si se
verifica un cambio significativo en las probabilidades empíricas, se valida la
significación del cambio en la tendencia del sujeto u opción o la muestra,
según sean contrastes individuales o muestrales.
Las
variables de este modo son cualidades no constantes de un fenómeno,
seleccionadas para un estudio, por lo que en función de las cualidades se
selecciona una muestra de sujetos u opciones que entre sus características
tengan esas cualidades, y que al ser objeto de la medición se convierten en
factores susceptibles de operación matemática, en el campo de la estadística de
la probabilidad o probabilidad estadística, en Probabilidad Imposible se
convierten en probabilidades empíricas, sobre las cuales se pueden desarrollar
tanto procesos descriptivos e inferenciales, en este último caso para su
crítica racional sobre pruebas estadísticas.
Dentro
de las variables a su vez se identifican normalmente dos tipos: variables
independientes y variables dependientes. En el método experimental se llama
variable independiente a la variable manipulable, de modo que sobre la
manipulación de la variable independiente se observan los cambios en las otras
variables denominadas dependientes. Si bien, junto las variables dependientes o
independientes, pueden interactuar otras variables no definidas a priori en la
investigación y que forman los factores de error. Lo que normalmente en el
método experimental se conoce por factores error es la interferencia que en el
proceso de manipulación experimental puede producir en las variables
dependientes reacciones no atribuibles a la variable independiente, y dado que
son factores desconocidos se engloban dentro de lo que sería dentro de los
factores de error estadístico.
En
las ciencias sintéticas, por ejemplo ciencias sociales o determinados campos de
las ciencias naturales donde la manipulación experimental no sea del todo
posible, a estos modelos de contrate de datos se denominará método quasi-experimental, diferenciándose del estrictamente experimental en que en el
quasi-experimental los datos no son objeto de manipulación directa, son sólo el
registro empírico de cambios observados a lo largo de un proceso en el que
intervienen diversos factores, que aun siendo conocidos y cuantificados no
pueden ser manipulados de forma directa por los investigadores.
La
relación atribuida entre las variables dependientes e independientes depende del
tipo de filosofía y paradigma de la política científica. Se puede decir que hay
dos grandes paradigmas para entender las relaciones entre variables,
deterministas e indeterministas. El determinismo moderno cuyo paradigma es
Laplace parte de la tesis de que todo en la naturaleza, incluida la humana y la
social, se encuentra regulado por cadenas causales, lo que en cierto modo
retrotrae a la idea clásica aristotélica del primer motor, o causa primera, de
modo que todo estaría determinado por cadenas de causa y efecto, por lo que
bajo las condiciones científicas y tecnológicas precisas sería posible la
averiguación de que factor ha motivado que efectos, efectos que a su vez se pueden convertir en
causas de subsiguientes efectos y así sucesivamente. Todo estaría determinado
por relaciones de causa y efecto que darían lugar a leyes universales cuyo
descubrimiento sería la finalidad de una ciencia nomotética y normativa.
Desde
el indeterminismo cualquier atribución causal es compleja, y más que relaciones
causales se habla de relaciones estocásticas, en donde el nivel de causalidad
en todo caso estará asociado a términos de probabilidad, en donde las causas
probables de cualquier fenómeno interactúan entre sí creando complejas redes de correlación múltiple, en donde la
realidad es un caos en donde todo está interconectado, y cualquier mínima
variación en cualquier elemento del sistema puede producir reacciones sistémicas
y globales, es lo que normalmente se llama teoría del caos o efecto mariposa, o
más actualmente se llama teoría de la complejidad.
Tanto
el determinismo clásico aristotélico, renovado en la época moderna por Laplace,
como el indeterminismo, renovado en la época moderna por David Hume, y adaptado
a la época contemporánea por las teorías del caos, la complejidad, y el
postmodernismo, tienen sus defensores y detractores. La principal crítica al
determinismo es por cuanto si realmente todo está ligado por estrictas leyes de
causa-efecto no habría realmente espacio para el azar, cuando en la realidad
hay situaciones que por su definición son estocásticas. Dentro de las ciencias
sociales el determinismo lleva a un serio cuestionamiento sobre si realmente
existe la libertad en el ser humano y la sociedad. La principal crítica al
indeterminismo es que al sucumbir todo al caos, la incertidumbre, el azar, no
habría posibilidad de leyes naturales, la ciencia dejaría de ser nomotética y
normativa. Además otra crítica a la teoría complejidad, es por cuanto su
concepto de auto-organización recoge el legado de las teorías vitalistas de
principios del siglo XX, criticadas por el positivismo por sus reminiscencias metafísicas.
En
el apartado 13 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se aporta una solución de síntesis a esta cuestión desde el
indeterminismo, proponiendo que la realidad se estructura sobre fenómenos
estocásticos, aleatorios, sujetos al azar y la incertidumbre, espacio donde se
produce una sucesión de accidentes, que pueden producir contingencias que den
lugar a patrones de comportamiento estable, de cuya observación, sintetizado a
conocimientos e ideas previas, se elaboren hipótesis empíricas sobre el
comportamiento de lo que ocurre, de modo que a partir de la crítica racional de
la tendencia se determina la suficiencia de la hipótesis.
En
esencia lo que propone el apartado 13 de Introducción a la Probabilidad Imposible es una adaptación a la ciencia contemporánea de la hipótesis platónica
de que del caos surge el orden, abandonando cualquier reminiscencia metafísica.
El modo que del caos surge el orden es por la propia sucesión aleatoria de
occidentes que de forma completamente al azar genera patrones de comportamiento
regulares y estables, tanto en la historia natural o social. Ya sea por ejemplo
la formación de los cuerpos celestes, las galaxias, la aparición y evolución de
la vida, y en nuestro planeta la aparición de la humanidad, o en el modo que ha
evolucionado la sociedad.
Dentro
del paradigma que propone Probabilidad Imposible la relación entre las
variables más que guardar una relación causa-efecto estricta, estudia son las
causas probables entre los fenómenos, sujetos a determinados niveles de
incertidumbre y error estadístico, salvo aquellos casos donde la relación entre
dos fenómenos sea de una probabilidad empírica igual a la unidad, que en tal
caso sería una relación determinista: por ejemplo que el fenómeno B sólo y
exclusivamente suceda siempre que a priori suceda A, de modo que fuera de toda
incertidumbre haya certeza absoluta, probabilidad uno, de que siempre que
suceda A no haya la menor duda que le seguirá B, por ejemplo la ley de la
gravedad de Newton, deducida del famoso experimento atribuido a Galileo:
siempre que lanzamos cualquier objeto desde la torre de Pisa, caen
simultáneamente a la misma velocidad.
Salvo
situaciones de certeza absoluta en cualquier otra situación bajo condiciones
estocásticas hay un amplio abanico de posibilidades, sujeto a un nivel de
incertidumbre y margen de duda racional, margen de error dentro del cual de
forma provisional se acepte la hipótesis empírica.
Dentro
de los estudios estocásticos más que estudios causa-efecto en su sentido
clásico, se estudian las probables causas o causas probables de un fenómeno, en
el cual pueden interactuar simultáneamente infinidad de factores, dentro de los
cuales aquellos factores seleccionados en la medición serán sobre los que se
realicen las atribuciones, permaneciendo el resto de factores dentro de lo que
se denomine factor de error, el error estadístico.
Las
atribuciones que se realicen pueden ser de varios tipos, o bien asociando un
término de probabilidad a una posible relación causa y su efecto, o bien
estimaciones de correlación entre factores sin que necesariamente haya atribuciones
de causalidad, o se puede hacer una estimación de en qué porcentaje cada factor
contribuye a un determinado fenómeno, o se estudie el modo en que los factores
se retroalimentan entre sí.
Un
ejemplo típico de Probabilidad Imposible de estudio estocástico asociando un
margen de probabilidad a una posible relación causa y efecto , es sobre la
relación entre las variables: luz, lluvia,
y arcoíris; se observará que no todos los días que llueve y después sale
el sol se produce el arcoíris, si se estudia la probabilidad empírica de
arcoíris sobre días de lluvia, se observará que la probabilidad es más elevada
que sobre los días que no llueve. La probabilidad empírica que salga el
arcoíris un día que no llueve es cero,
sin embargo no siempre que llueve sale el arcoíris, de modo que es una relación
estocástica sujeta a determinados niveles de azar: que de forma accidental y
estocástica se dé una determinada combinación de luz y lluvia que tenga por contingencia
el efecto óptico del arcoiris. En este caso las variables independientes serían
lluvia y luz, la variable dependiente sería el arcoiris, de modo que, lo que
realmente mide la probabilidad empírica del arcoíris es la probabilidad
empírica de que se produzca una adecuad combinación de luz y lluvia que genera el
arcoiris.
En
el caso del arcoiris realmente lo que se estudia es la probabilidad de que bajo
determinadas circunstancias se produzca una determinada combinación de
fenómenos, que de darse producen necesariamente dicho efecto. La relación entre
la combinación y su efecto es prácticamente determinista, siempre que se
produzca esa combinación el efecto es inmediato, obedeciendo a las leyes
estocásticas, las leyes del azar, que se den las condiciones adecuadas para la
formación de esa combinación, al igual que si jugamos a los dados, y lanzamos
al aire dos dados y apostamos sobre un número, la probabilidad clásica de que
ganemos será el equivalente al número de combinaciones cuya suma diera igual al
número que hemos apostado entre al número total de combinaciones .
En
el caso de lanzar dos dados al aire, o se produzca el arcoíris, se trataría de fenómenos
en donde la aparición de condiciones favorables depende sólo de la acertada
combinación de dos variables no demasiado compleja. Sin embargo en la realidad
lo más habitual es que el grado de complejidad en la aparición de multitud de
fenómenos sea mayor. Si se estudia la
combinación ideal de factores que han permitido la formación de los cuerpos celestes,
las estrellas, las galaxias, la formación geológica y atmosférica de los
planetas, o simplemente la combinación de factores que dieron lugar a la
aparición de la vida en nuestro planeta, y una vez que surge las combinación de
factores que hicieron posible su conservación,y evolución, y la aparición de la
diversidad biológicas hacia formas de vida más complejas, o la combinación de factores que dieron lugar
a las extinciones masivas y finalmente la aparición de la especie humana, en
cada uno de estos procesos tuvieron que participar infinidad de factores, de
cuya combinación aleatoria dieron lugar unos resultados, donde no todos los
factores contribuyeron en igual medida, hubo factores cuyo nivel de
contribución causal tuvo que ser en mayor porcentaje que otros , en donde en el
estudio del grado de atribución causal de cada factor sería un determinado
porcentaje, pero que en suma dieron lugar a que estos acontecimientos tuvieran
lugar.
De otro
en los estudios correlacionales no siempre el objeto es la determinación de en
que nivel de porcentaje las variables causales contribuyen en un efecto. Pueden
ser estudios correlacionales en donde las variables entre sí no tengan relación
directa, salvo una causa común a ambas, o sean estudios en donde en modo alguno
se puede decir que haya una variable que actúe de causa y otra de efecto,
siendo en realidad dos variables que se retroalimentan entre sí influenciándose
mutuamente.
Un
tipo de estudio correlacional entre dos variables sin que medie relación causa
y efecto directa entre sí, aunque probablemente tengan una causa común, es por
ejemplo el siguiente, también utilizado en otras ocasiones en Probabilidad Imposible, si estudiamos lo efectos de la lluvia sobre el comportamiento de los
caracoles observaremos que cuando llueve aumenta la probabilidad de ver
caracoles, o lo que es lo mismo, la probabilidad empírica de que los caracoles
salgan a campo abierto aumenta cuando llueve, lo cual correlaciona
positivamente con que los días de lluvia salga el arcoíris. De modo que se
observa correlación positiva entre alta probabilidad empírica de que salgan los
caracoles un día de lluvia, y alta probabilidad empírica de que salga el
aroiris un día de lluvia. Entre ambos fenómenos, que salgan los caracoles y salga
el arcoíris no hay relación causal, lo que se observa es una correlación
positiva entre ambos fenómenos por un causa probable común, la lluvia.
En
una investigación médica en donde se está estudiando los efectos de un
determinado medicamento sobre una muestra de pacientes, se puede dar el caso
que en el momento de la administración del tratamiento en la muestra se observe
una correlación positiva entre dos posibles efectos diferentes y completamente
independientes entre sí del fármaco. Sería un ejemplo parecido a los caracoles
y el arcoíris, una misma causa común probable puede producir un cambio en el
patrón del comportamiento de otras variables, aunque estas variables sean
independientes entre sí, pudiendo estudiarse la correlación entre dichas
variables, sin que tengan relación directa.
Y
finalmente estudios donde la relación entre las variables sea de retroalimentación
mutua, en modo alguno se puede decir en sentido estricto que una variable actúe
de causa, y la otra actúe de efecto, por cuanto las variables entre sí se retroalimentan
mutuamente. Supongamos que en una escuela un profesor aplica a sus alumnos un
programa de desarrollo de la inteligencia matemática, y durante el tiempo que
se aplica este programa el profesor de lenguaje y literatura descubre que han
mejorado en sus alumnos las capacidades de comprensión lectora. En principio el
programa del desarrollo de la inteligencia matemática no estaba destinado a la
mejora de la comprensión lectora, sin embargo, entre los posibles efectos
beneficiosos del programa de mejora de la inteligencia matemática se encuentre
la mejora de la atención y la comprensión del lenguaje simbólico, elementos que
pueden contribuir a la mejora global de las capacidades del alumno, y puede
repercutir a mejoras en los resultados escolares en otras materias, por ejemplo
en lenguaje y literatura. De igual modo, un programa de mejora de la
comprensión lectora en lenguaje y literatura, podría tener importantes beneficios
en otras materias, por ejemplo, una mayor comprensión del lenguaje en
literatura puede tener por efecto una mejor comprensión de los enunciados de
los problemas de los ejercicios de matemáticas, además de la mejora de la
atención y en otras capacidades, elementos que pueden producir mejoras en el
rendimiento matemático.
En
realidad no se está hablando de que la mejora en matemáticas sea la causa de
mejora en lenguaje y literatura, o las mejoras en lenguaje y literatura sean la
causa de las mejoras en matemáticas, lo que se verificaría es la
retroalimentación entre las capacidades matemáticas y las capacidades
lecto-escritoras, de modo que una mejora en unas capacidades produciría mejoras
en la otras, y viceversa, la mejora de las capacidades matemáticas produciría
una mejora en las capacidades lecto-escritoras, y mejoras en las capacidades
lecto-escritoras producirían mejoras en las capacidades matemáticas.
En
un ecosistema en donde el equilibrio entre la diversidad biológica dependa de
las relaciones de colaboración entre especies, el adecuado desarrollo de una
especie contribuiría al adecuado desarrollado de las demás. Si la diversidad de
flores en un prado depende de la polinización de las abejas, una adecuada
población de abejas es condición indispensable al mantenimiento de la población
de las flores del prado, y el mantenimiento de las flores del prado es
condición indispensable para el mantenimiento de la población de abejas. En realidad
no hay causa y efecto, ambas variables se retroalimentan entre sí.
Dentro
de una concepción dialéctica, en la complejidad de las relaciones globales de
un sistema, donde todos los factores se encuentran interconectados entre sí,
cualquier cambio en cualquier variable puede
implicar cambios globales en todo el sistema, lo que supone una compleja combinación
estocástica de correlaciones múltiples, a diversos niveles, de diferente grado
de contribución y retroalimentación entre sí de las variables, en la formación
y emergencia de nuevos fenómenos.
El
concepto de variable es una cuestión trascendental en la ciencia, y su propia
definición implica una concepción filosófica más trascendental, en el momento
que definimos la realidad como un conjunto de factores, en donde se identifican
constantes y variables, se da por hecho que la realidad no es inmutable, de
manera dialéctica distinguimos lo variable en contraposición a su opuesto que
es lo constante, siendo la naturaleza variable de lo que ocurre lo que hace que
la realidad está sujeta a cambios, y son
en realidad los cambios de lo que es objeto la ciencia.
Rubén
García Pedraza, Madrid, a 3 de octubre del 2015