PROBABILIDAD IMPOSIBLE


Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿ quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


imposiblenever@gmail.com

@imposiblenever

sábado, 20 de septiembre de 2014

Sesgo positivo en modelos normales


En Probabilidad Imposible el Nivel de Sesgo es  la diferencia de probabilidad empírica menos probabilidad teórica, cuando esa diferencia es de signo positivo se dice que hay sesgo positivo. La probabilidad empírica es igual a la puntuación directa o frecuencia de sujeto u opción entre el sumatorio de todas las puntuaciones directas o frecuencias, y la probabilidad teórica igual a la inversión de N, 1/N, siendo N el número total de sujetos u opciones. Las funciones universales de la inversión de N para cualquier tipo de universo, sea infinito o limitado, es la de probabilidad teórica en igualdad de oportunidades, y media aritmética de las probabilidades empíricas.
 
Nivel de Sesgo =p(xi) – 1/N
 p(xi) > 1/N → p(xi) – 1/N = sesgo positivo
 
Modelos normales son aquellos en donde la dispersión de la muestra puede variar entre cero o máxima, dispersión cero cuando la tendencia de la muestra es a igualdad de oportunidades, a máxima cuando todos los sujetos u opciones tienden a su máximo sesgo posible. Los máximos sesgos posibles dependen del tipo de tendencia de cada sujeto u opción, en función si tienden a la Máxima Probabilidad Empírica Posible o Mínima Probabilidad Empírica Posible.
La Máxima Probabilidad Empírica Posible es la probabilidad empírica igual a la unidad, “1”, dado que la probabilidad es una dimensión que oscila entre cero, “0”, y uno, “1”, no pudiendo haber ninguna probabilidad por encima del valor uno, “1”, siendo por tanto el valor uno, “1” la Máxima Probabilidad Empírica Posible, y siendo cero, “0” la Mínima Probabilidad Empírica Posible dado que no puede haber probabilidades inferiores a cero, entre otros motivos porque las probabilidades son siempre relativas a sucesos positivos, nunca negativos.
Si el Nivel de Sesgo es igual a probabilidad empírica menos teórica,  y un sujeto u opción tiende a Máxima Probabilidad Empírica Posible, probabilidad uno, “1”, necesariamente la diferencia de la Máxima Probabilidad Empírica Posible menos la inversión de N, 1/N, es igual al Máximo Sesgo Teórico Posible.
 
 Máximo Sesgo Teórico Posible = 1 – 1/N
Máxima Probabilidad Empírica Posible = 1 → p(xi) = ( xi = Σxi) : Σxi
 
Luego si en una muestra N se da el caso que un sujeto u opción alcanza la Máxima  Probabilidad Empírica Posible, en la medida  que la probabilidad empírica es igual a puntuación directa o frecuencia entre sumatorio de puntuaciones directas o frecuencias, para que se de el caso que dicho cociente sea igual  a la unidad, es absolutamente imprescindible que la puntuación directa o frecuencia de ese sujeto u opción sea igual al sumatorio de puntuaciones directas o frecuencias, condición necesaria para que el resultado del cociente sea uno, que el valor de ambos factores del cociente sea idéntico, y si esto es así, y de N hay un sujeto u opción cuya puntuación directa o frecuencia es igual al sumatorio de puntuaciones directas o frecuencias lógicamente se debe a que el resto de sujetos u opciones, N menos unos, “N – 1”, es  decir, de N todos menos aquel sujeto u opción de probabilidad empírica igual a la unidad, todos los demás sujetos u opciones tienen probabilidad empírica cero, “0”, la Mínima Probabilidad Empírica Posible, luego si el Nivel de Sesgo es igual a probabilidad empírica menos teórica, y la empírica es igual a cero, entonces cero menos inversión de N es igual al Máximo Sesgo Negativo Posible.
 
0 – 1/N = Máximo Sesgo Negativo Posible
0 = Mínima Probabilidad Empírica Posible
 
Sólo y exclusivamente bajo condiciones que de toda N un único sujeto u opción tenga probabilidad empírica igual a uno, “1”, Máxima Probabilidad Empírica Posible, luego Máximo Sesgo Teórico Posible, luego todos los demás tengan probabilidad empírica igual a cero, Mínima Probabilidad Empírica Posible, luego Máximo Sesgo Negativo Posible, entonces la dispersión tiende a la máxima dispersión posible, lo cual se materializa en la Máxima Desviación Media Teórica Posible, Máxima Varianza Teórica Posible, y Máxima Dispersión Típica Teórica Posible
Máxima Desviación Media Teórica Posible = [ ( 1 –1/N) · 2 ] : N
Máxima Varianza Teórica Posible = {( 1 –  1/N )² + [1/N² ( N –  1) ]} :N
Máxima Desviación Típica Teórica Posible = √{{( 1 –  1/N )² + [1/N² ( N –  1) ]} :N}
 
Sólo bajo condiciones de tendencia de la muestra de sujetos u opciones a máxima dispersión posible, es decir, Máxima Desviación Media o Típica, Teórica Posible, entonces la muestra tiende a los máximos sesgos posibles, y viceversa.
Un modelo normal es aquel en donde la dispersión de la muestra oscila entre cero o máxima, si tiende a dispersión cero entonces es modelo normal de igualdad de oportunidades, si tiende a la dispersión máxima entonces es un modelo normal de sesgo.
Dentro de los estudios de sesgo normales hay que diferenciar entre estudios de sesgo positivo y estudios de sesgo negativo. Los estudios de sesgo negativo son aquellos que estudian la tendencia de los sujetos u opciones a sesgo negativo, mientras los estudios de sesgo positivo estudian la tendencia de los sujetos u opciones a sesgo positivo. En los estudios normales de sesgo positivo lo normal es que halla un sujeto u opción que por su condición ideal pretenda acumular toda la puntuación directa o frecuencia de la muestra, de modo que si la puntuación directa o frecuencia del sujeto u opción ideal fuera igual al sumatorio de puntuaciones directas o frecuencias entonces su probabilidad empírica sería la Máxima Probabilidad Empírica Posible.
Un ejemplo normal de modelo en donde cada sujeto u opción del modelo tiende a ser el que intente la acumulación de todas las puntuaciones directas o frecuencias es en las elecciones democráticas. Si en unas elecciones se presentan varios candidatos de diversos partidos, y el objetivo de cada partido en la campaña electoral es que todos los posibles votantes voten a su candidato, entonces lo que cada partido pretende es que la probabilidad empírica en la intención de voto a su candidato en las elecciones sea la Máxima Probabilidad Empírica Posible, lo que todos los partidos desean es que todos los votantes voten a su candidato, en lugar al resto de adversarios, luego el resto de adversarios logren la Mínima Probabilidad Empírica Posible.
Si en una economía de libre mercado una serie de corporaciones empresariales compiten por la venta de su producto para cubrir una determinada demanda específica, lo que cada compañía intentará es que la tendencia en la compra de su producto tiende a la Máxima Probabilidad Empírica Posible, y el resto de sus competidores tiendan a la Mínima Probabilidad Empírica Posible.
Si en un juego de competición, ya sea entre dos personas, como el tenis, o de equipo como el baloncesto, gana quien más puntos consiga, el objeto de cada contrincante, sea individual o grupal, es que logre la mayoría de puntos, y el adversario no logre ninguno, es decir, cada participante lucha por la Máxima Probabilidad Empírica Posible, lo cual implica que el adversario tienda a la Mínima Probabilidad Empírica Posible.
Si en un test de opciones múltiples, por cada pregunta sólo hay una opción correcta, y las demás son incorrectas, lo ideal sería que por cada pregunta toda las personas que respondan el test marquen la única opción correcta, de modo que cada opción correcta del test tienda a la Máxima Probabilidad Empírica Posible, y las demás a la Mínima Probabilidad Empírica Posible.
En el momento que en un modelo normal se da la circunstancia que dada una muestra N se da el caso que de toda N hay un sujeto u opción que tiende a Máxima Probabilidad Empírica Posible, luego Máximo Sesgo Positivo Posible, entonces se trataría de un modelo normal de sesgo positivo, en donde aquel sujeto u opción que se manifieste ideal tenderá a la mayor probabilidad empírica y el mayor sesgo positivo en comparación con los demás sujetos u opciones.
Para determinar que el sesgo positivo del  sujeto u opción ideal tiende de forma suficiente y racional a la Máxima Probabilidad Empírica Posible y Máximo Sesgo Teórico Posible, dentro de la teoría de Probabilidad Imposible se desarrollan diferentes pruebas estadísticas de contraste de hipótesis para la crítica racional de la tendencia observada, a fin de criticar si la tendencia manifestada por el sujeto u opción es suficientemente racional.
En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se explican los diferentes modelos de crítica racional, distinguiéndose entre crítica racional en estudios intramedicionales, a partir de una sóla medición, o intermedicionales, a partir de dos mediciones. Los estudios intramedicionales son necesariamente intramuestrales, una  única medición perteneciente a una única muestra, los estudios intermedicionales pueden ser intramuestrales o intermmuestrales. Los estudios intermedicionales intramuestrales son varias mediciones sobre una misma muestra, los estudios intermedicionales intermuestrales serían sobre varias mediciones en varias muestras.
Dentro de cada tipo de estudio inter/intra-medicional/muestral, la crítica racional debe hacerse tanto a nivel individual y a nivel muestral.  A nivel individual para determinar que la tendencia individual de cada sujeto u opción es suficientemente racional, que la tendencia a sesgo positivo del ideal es suficientemente racional para aceptarse provisionalmente, o que la tendencia a sesgo negativo de los demás sujetos u opciones es suficientemente racional como para representar una suficiente tendencia a dispersión máxima. A nivel muestral la crítica racional es necesaria para descartar cualquier otra variable de error en el contraste de hipótesis, a fin que si finalmente se acepta el ideal el margen de error se minimice, además de porque la razón crítica de la política científica sea moralmente exigente, porque además se ha controlado la incidencia de la dispersión asociada a la magnitud de la muestra.
Los modelos de crítica racional pueden ser de dos tipos, en forma de diferenciales o proporcionales. La crítica racional de diferenciales es cuando la contraposición entre valores teóricos y empíricos se hace sobre la diferencia entre ambos, y sólo se acepta racional la tendencia en la diferencia a partir de una razón crítica. La crítica racional proporcional es cuando la relación entre valores teóricos y empíricos se hace en forma de proporción, siendo la tendencia de la proporción lo que se crítica.
Los modelos de crítica racional intramedicional, para modelos normales y omega, y dentro de los modelos normales los estudios de sesgo positivo, tanto a nivel individual y muestral, criticando diferencias o proporciones entre valores empíricos y teóricos, se expone en el apartado 11 para el Segundo Método, adaptándose en el apartado 12 para el primer método, el que trabaja directamente con puntuaciones directas o frecuencias sin transformarlas a probabilidades.
En el apartado 14 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se exponen modelos de crítica racional para estadísticas relativas, y en el apartado 15 de forma adaptada a la curva normal.
Los modelos de crítica racional en modelos normales y omega, y dentro de los normales para sesgo positivo, para estudios intermedicionales, sean intramuestrales o intermuestrales, se exponen entre los apartados 16 y 20, de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, integrándose además las predicciones, ya sean proyectivas, proyectos ideales sobre un valor empírico, o pronósticas, pronósticos reales sobre dos valores empíricos.
 
Rubén García Pedraza, Madrid a 20 septiembre del 2014



http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible

sábado, 6 de septiembre de 2014

El significado de la ciencia


El significado es aquel concepto u operación que se entiende o conviene que representa un signo, en función de un sistema de atribuciones, de un significado a un signo, atribución que puede ser  causal, correlacional, o social. Dentro de los diferentes tipos de atribución la más exacta y exhaustiva es la científica.

Un significado es conceptual cuando el signo que lo representa simboliza un concepto, y es operacional cuando simboliza una operación. Por ejemplo la palabra “amor” representa el concepto asociado a un sentimiento, y el símbolo “+” en matemáticas representa la operación de suma.

Aunque la diferencia entre concepto u operación depende de la escuela filosófica. Hay paradigmas que entienden que los significados asociados a operaciones lo que simbolizan es el concepto asociado a la operación, de modo que todo signo representaría siempre un concepto, ya fuese cognoscitivo, operativo, o emocional. A estas posiciones se las denominaría conceptualistas.

En la teoría del operacionalismo sin embargo esta identificación no sería del todo válida, en la medida que lejos de basar la ciencia en el conceptualismo, lo basa en el positivismo operacionalista, la ciencia más que un conjunto de conceptos es un conjunto de operaciones bajo condiciones de control y neutralidad, para la obtención de resultados positivos.

Independientemente de que el paradigma de partida sea conceptualista u operacionalista, en la génesis del lenguaje se darán una serie de factores.

El signo que representa un significado puede ser de diversa índole, no necesariamente implica una lengua , si sale el sol probablemente se hará de día . Si en el bosque vemos la huella de un animal significa que ese animal ha pasado por ahí, y según el tipo de huella, si disponemos de una taxonomía de huellas, sabríamos a qué tipo de animal representa. La huella en sí misma es el símbolo del paso de ese animal por la realidad. Si los días se van haciendo largos significa que va llegando el verano, si se van haciendo cortos significa que va llegando el invierno.  De hecho, en función del número de días que han pasado desde que los días han empezado a hacerse más cortos o más largos podríamos saber aproximadamente, bajo un margen de error, cuando van a ser las próximas lluvias, cuando va a llegar la época de la siembra, la cosecha, y las inundaciones. En función de la repetición de sucesos de forma reiterada, aceptándose si acaso un margen de error, elaboramos significados sobre la realidad, en función de los cuales interpretamos lo que sucede,  y sobre las atribuciones sociales a determinados símbolos o conjuntos fónicos la formación del lenguaje.

La atribución por la cual la salida del sol o la huella de un animal significa que probablemente se hará de día o por ese sitio haya pasado ese animal, es una atribución causal o correlacional, en donde dicho signo es causa o efecto probable de otro fenómeno. Si sale el sol es causa probable de que se hará de día, aunque la intensidad de la luz dependerá de muchos factores, que ese día el cielo no esté  tan encapotado que a penas deje traspasar los rayos de sol por las nubes o la niebla, o se produzca un eclipse. Si hay huellas de animales se entiende que hay posibilidad de que algún animal haya pasado por ese sitio, la huella es el signo del probable efecto del paso de animales.

Del mismo modo que el sol o las huellas son un signo físico de un fenómeno, las pinturas rupestres que representan al sol y la luna, o el dibujo de unos animales en la pared de una cueva, antropológicamente fue la representación simbólica de unos signos, y la construcción social del lenguaje, una elaboración mucho más compleja de los procesos atribucionales.

En el momento que a una determinada combinación fonética, en lenguaje hablado, o símbolos, en lenguaje escrito, socialmente atribuimos un significado es cuando empezamos la elaboración del lenguaje, a  partir de una serie convenciones sociales, que se denomina convencionalismo social. El hecho que para el cálculo integral utilicemos el sistema de notación de Leibniz en lugar del sistema de Newton, es un ejemplo de convencionalismo social aplicado a la ciencia, sobre una determinada lectura del principio de eficiencia social del lenguaje científico.

La construcción de significados es una función psicológica que no es exclusiva de la especie humana, en función de su nivel de inteligencia las especies son capaces de atribuciones sobre su entorno, entendiendo el significado de lo que ocurre en función de su capacidad cognoscitiva, y en las especies más complejas o evolucionadas la construcción de lenguajes, por ejemplo el lenguaje de las ballenas, y dentro de los lenguajes de las diversas especies animales el paradigma de lenguaje es el lenguaje humano, dado su enorme potencial de expresión racional y emocional, y dentro del lenguaje racional el lenguaje lógico-matemático.

La lengua es producto de un largo proceso de construcción histórica, que abarca desde los primeros proto-lenguajes de las primeras culturas del paleolítico inferior, antesala de la posterior aparición de las primeras lenguas habladas, y de ahí el desarrollo de la escritura y la historia, progresando a los primeros sistemas de lenguaje lógico-matemático de la era antigua, pitagóricos, euclideos, aristotéticos, el sistema numérico hindu-árabe …, de cuya evolución y progreso surge la ciencia moderna.

Las matemáticas tienen la doble función de ser en sí misma una disciplina científica englobada dentro de las ciencias analíticas, para cuyo desarrollo y progreso es necesaria la investigación matemática pura, al  mismo tiempo que para el resto de ciencias sintéticas las matemáticas son un lenguaje que se utiliza en el plano de la investigación aplicada.

El proceso de construcción histórico del lenguaje matemático, en un principio tuvo que ser paralelo a la construcción de las lenguas, dado que según las sociedades sistematizan la atribución social de significados a determinados signos lingüísticos, uno de los primeros signos que las sociedades elaboran, necesariamente para resolver complicados problemas matemáticos, es la construcción del concepto de número, en un primer momento los números naturales, y determinados algoritmos básicos, de suma, resta, multiplicación y división. Unas primeras definiciones matemáticas de las que posteriormente surgirá una de las ciencias analíticas más importantes, las matemáticas, y de las cuales en el terreno de la filosofía surge la lógica.

Hay que diferenciar entre la lógica implícita en todo sistema lingüístico, que se produce de forma natural en la evolución natural de la lengua, y la lógica como disciplina científica, cuyo origen se remonta a los comienzos de la filosofía, y cuyo principal exponente durante milenios ha sido la lógica aristotélica, la lógica lineal. La crítica a la lógica lineal se formula en la era moderna paralelamente a la crítica de la geometría euclidiana. La relación entre lógica aristotélica y geometría euclidiana se debe a que Euclides es el paradigma matemático en la Grecia clásica, y lo seguirá siendo durante gran parte de la era moderna,  al  igual que el aristotelismo será el paradigma hegemónico de la metafísica escolástica . Euclides y Aristóteles representan los modelos de geometría y lógica lineal a los que se opondrán las matemáticas y la lógica moderna, por ejemplo, las geometrías no euclidianas del siglo XIX y la lógica dialéctica hegeliana.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se entiende que las matemáticas son una ciencia analítica, al mismo tiempo que lenguaje aplicado a las ciencias sintéticas, donde la lógica de fondo que subyace al modelo es una lógica no lineal de carácter dialéctica, razón por la cual sintetiza el materialismo dialéctico al positivismo y al racionalismo crítico. Dentro de la lógica dialéctica el modo en que se interpreta el silogismo,  basado en sus tres fases de: primera premisa, segunda premisa, y conclusión; es identificado las tres fases del silogismo a las tres fases de la dialéctica hegeliana: tesis, antítesis, síntesis; razón por la cual en Probabilidad Imposible se habla continuamente de sujeto u opción, la puntuación directa o frecuencia, en tanto que síntesis de la dialéctica de sujeto y objeto en matemáticas, sintetizando así estadística y probabilidad. En Probabilidad Imposible la permanente dialéctica de los opuestos se observa de forma continua, ya sea en el modo en que se diferencia entre tipos de universos opuestos,  infinitos o limitado, o tipos opuestos de estudios, de igualdad o sesgo, en dos tipos de modelos diferentes, normales u omega.

De este modo en coherencia a la clasificación de las ciencias que hace Probabilidad Imposible, ciencias analíticas y ciencias sintéticas, habría que distinguir entre dos tipos de significados, significados analíticos y significados sintéticos.

La propia clasificación de las ciencias que propone Probabilidad Imposible pone ya de manifiesto la síntesis entre materialismo dialéctico y racionalismo crítico, en la medida que coloca a los elementos analíticos y sintéticos, propios del racionalismo crítico, en relación de oposición e identidad. Oposición en tanto que los analíticos no dependen de valores empíricos,  y los sintéticos sí, siendo sintéticos en tanto que sintetizan conceptos analíticos y factores empíricos. La identidad entre los analíticos y los sintéticos se produce en el momento que se reconoce que la disciplina común a ambos modelos de ciencias son la lógica y las matemáticas.

Si bien no en todas las ciencias analíticas, por ejemplo las lingüísticas, o el análisis del arte, las matemáticas aparentemente no están presentes, lo que en análisis hay siempre de fondo es la necesidad de una lógica por mínima que sea, ya sea en el establecimiento de definiciones, en tanto que función de equidad entre lo que se define y la definición, o en la elaboración de clasificaciones que lógicamente siempre debe hacerse bajo algún criterio, por mínimo que sea, y cuyo resultado es la elaboración de conjuntos. Sin lógica no hay estructura posible del lenguaje, ya sea a nivel morfosintáctico o semántico. En todo lenguaje como mínimo debe haber una mínima definición de sus elementos y clasificación de su componentes, lo cual implica una mínima estructura basada en funciones de equidad y  teoría conjuntos.

En el momento que se integra la teoría de conjuntos en cualquier proceso o sistema se integra de facto la lógica y la teoría de la probabilidad, sea el análisis que sea, incluido el análisis del arte. Cuando a mediados del siglo XX empezaron los primeros críticos de arte la discusión sobre la postmodernidad, ya establecieron un criterio de clasificación en dos grandes conjuntos, arte moderno y postmoderno, y dentro de cada tipo sus variantes y clasificaciones.

El sistema analítico paradigmático de atribución de significados es el lógico-matemático, en la medida que es capaz de elaboración de complejos sistemas de atribución de significados sin necesidad de ninguna otra referencia más que a sí mismo. Un ejemplo de ello es la geometría euclidiana, en donde a partir de unas definiciones básicas desarrolla todo un sistema geométrico totalmente analítico sin una sola definición dependiente de factores empíricos o sistemas externos, teniendo por base la lengua materna, el griego clásico, pero sobre el que elabora un lenguaje geométrico mucho más abstracto.

Para la elaboración de su sistema geométrico Euclides prescindió de cualquier mención a cualquier fenómeno empírico, la principal característica analítica del modelo de Euclides es que sin mencionar ni un solo elemento factual , sólo y exclusivamente a través de la investigación pura, diseña un modelo geométrico que después en investigación aplicada se aplica a infinidad de ciencias sintéticas.

De igual modo la geometría proyectiva del siglo XVII, o los geometrías no euclidianas del siglo XIX, y las que van apareciendo posteriormente en el siglo XX, diseñan modelos geométricos puramente analíticos en donde sin referencia a elementos externos, más que el uso de la propia lengua del científico, en lugar de griego clásico las lenguas romances, son capaces de elaborar modelos matemáticos autónomos, sin ninguna necesidad de mención de la realidad material, son sistemas auto-referenciales.

Según progresan las matemáticas en la era moderna se irán desarrollando más campos analíticos, desde el álgebra, el cálculo diferencial,  el cálculo de áreas,  la teoría de conjuntos, la probabilidad, la estadística, en donde lo que hacen es crear sistemas totalmente analíticos, en donde a partir de la investigación pura en sus respectivos campos, sin necesidad de mención de factores empíricos, desarrollan una teoría analítica, exenta de elementos factuales, de las que sin embargo su aplicación a la realidad externa permite el desarrollo de las ciencias naturales primero, y posteriormente las ciencias sociales desde el siglo XIX.

La principal diferencia entre un significado analítico y un significado empírico, es que mientras en el significado analítico carece de factores empíricos, el sintético es ante todo un significado empírico.

Mientras la definición matemática de segmento es la de una línea recta, es decir sin curvas, que va de un punto a otro que delimita los extremos, la definición de partícula, átomo, cuerpo celeste, ser vivo, ser humano, grupo social, nación, Estado, relaciones internacionales, implica una definición empírica.

La definición analítica no tiene por qué tener significado empírico, salvo que se aplique a la realidad material, que en tal caso deja de ser analítica para ser sintética.  Las proposiciones científicas por tanto pueden ser de dos tipos, sin significado empírico, analíticas, o con significado empírico, sintéticas. O, dentro de las ciencias sintéticas, la posible aceptación de hipótesis teóricas sin pruebas empíricas, siempre y cuando, el número de hipótesis teóricas que formen una teoría sea en número inferior a las hipótesis empíricas de las que dispongamos de pruebas de su significado, y en todo caso las hipótesis teóricas no entren en contradicción con sus respectivos modelos, y sean fundamentales para el sostenimiento de toda la construcción teórica posterior de la que si disponemos de pruebas.

Salvo que se trate de una hipótesis teórica, bajo las características mencionadas, cualquier otra proposición sintética que no sea hipótesis teórica, y no disponga de significado empírico, se dirá que es metafísica y se rechazará de la ciencia.

Por ejemplo, toda la teoría de las ciencias del espíritu postuladas a partir de Dilthey, y que tendrán resonancia en las teorías vitalistas de principios del siglo XX son un ejemplo de metafísica moderna. Los discursos New Age a partir de conceptos difusos de libertad, igualdad, espíritu o conciencia, sin fundamentación empírica, sintetizados a vagos conceptos de cambio de mentalidad o estilos de vida, en base a una nueva bio-etica eco-sistémica, son una nueva lectura del vitalismo, sólo que ahora llenos de orientalismo como rechazo al euro-centrismo,  combinados al post-estructuralismo y nuevas teorías de pseudo-emancipación individual o social.

Igualmente dentro del discurso de muchas agencias de investigación internacionales a menudo se observa la permanencia de la metafísica. Las ciencias de la complejidad si bien han desarrollado un importante cuerpo de fundamentaciones lógico matemáticas,  sin embargo mantiene conceptos del vitalismo, un ejemplo la definición de los modelos dinámicos en la auto-organización de la materia, los seres vivos, las poblaciones, y los macro-sistemas, en donde a los macro-sistemas les llega a conferir las mismas cualidades de auto-equilibrio dinámico que a los seres vivos. No en vano la teoría de Gaia ha vuelto a ser recuperada por algunos científicos de la complejidad, además de su intento por sintetizar ciencia y religión.

Una proposición metafísica es aquella que teniendo por referencia un factor empírico sin embargo la proposición carece de significado empírico, y no se ajusta a la definición de hipótesis teórica, motivo por el cual dicha proposición quedaría fuera de la ciencia. Dentro del conjunto que formen las posibles infinitas proposiciones sin significado empírico, sólo pertenecen a la ciencia el subconjunto de proposiciones sin significado empírico porque sean analíticas, y no entren en contradicción con sus respectivos modelos lógicos, o porque sean hipótesis teóricas, todas las demás serían metafísicas.

Una proposición analítica sin significado empírico será científica mientras no entre en contradicción con su respectivo modelo lógico: la única razón por la que dentro de la geometría euclidiana se mantuvo la tesis que paralelas son todas aquellas líneas rectas que no se cortan entre sí, a pesar de que no hay prueba alguna que lo demuestre, es porque, aun no pudiendo demostrarse, sin embargo no entraba en contradicción con el resto del modelo, motivo por el cual, a pesar de no poder demostrarse, permanecía dentro  la ciencia, en tanto que proposición analítica de la geometría euclidiana.

La razón por la cual Kant defendía la tesis del infinito, a pesar de que supone una antinomia lógica para la razón pura, es porque aunque no pueda demostrarse, no entra en contradicción con el resto del modelo, es más, en cierto sentido es uno de los pilares de la razón práctica. La filosofía de Kant aunque parte de presupuestos metafísicos, sin embargo ha sido en gran medida una teoría de la que se ha originado la epistemología contemporánea. El positivismo en cierto sentido lo hace es una reinterpretación del racionalismo crítico eliminando la metafísica para que la ciencia progrese a definiciones estrictamente positivas.

La teoría de la relatividad de Einstein fue sólo posible una vez que se rechazan las postulados metafísicos sobre el espacio y tiempo, además de la linealidad de Newton, por definiciones más operativas y positivas. Muchos de los grandes avances de las ciencias naturales en el siglo XX serán gracias al importante impacto del positivismo en la física y la biología.

Aunque el progreso en ciencias sociales en el siglo XX no ha sido igual de espectacular que en ciencias naturales, en comparación a las cuales les queda mucho por desarrollarse, los avances más importantes en ciencias sociales del siglo XX han venido por la comprensión crítica de la variable política e ideológica en las ciencias sociales, y la sistematización de las metodologías cuantitativas a imagen y semejanza que las ciencias naturales.

Pero por otro lado, dentro de las posibles infinitas proposiciones que sí tienen significado empírico no todas ellas permanecerán siempre dentro de la ciencia, dado que si han sido aceptadas dentro de la ciencia bajo determinadas condiciones de posibilidad, en caso que dichas condiciones fuesen refutadas, quedarían igualmente fuera de la ciencia.

Dentro de las infinitas proposiciones posibles, sólo serían científicas, luego sólo pueden formar parte de teorías, aquellas que careciendo de significado empírico sean analíticas y no entren en contradicción, y aquellas que teniendo significado empírico no hayan sido refutadas, o sean hipótesis teóricas. Todas las demás quedarían relegadas de la teoría de la ciencia.

Partiendo de estas asunciones sobre el significado en la ciencia, Probabilidad Imposible es una teoría en el campo de la estadística de la probabilidad o probabilidad estadística, en donde el establecimiento de significados se hará de forma similar a otras teorías en las ciencias analíticas, partiendo de unas primeras definiciones, sin contradicción entre ellas,  de las cuales establecerá relaciones ulteriores, y que tendrá importantes aplicaciones prácticas.

Las primeras definiciones fundamentales dentro de la teoría es la definición sobre qué es sujeto y qué es opción, a partir de la dialéctica hegeliana de sujeto y objeto, de la que se debe la identificación entre puntuación directa o frecuencia, que supone la identidad entre suceso u ocurrencia, identidad que reside en el propio hecho empírico, objeto de estudio, definiendo por tal motivo el concepto de universo y los tipos de universo, y estableciendo las definiciones de probabilidad empírica y probabilidad teórica, sobre las que se establecen los diferentes tipos de estudio,  modelos de estudio, y diferentes modelos de crítica racional, dentro de la síntesis que propone entre los tres paradigmas más importantes de la filosofía contemporánea, materialismo dialéctico, positivismo y racionalismo crítico.

La principal cualidad común entre materialismo dialéctico y positivismo es el rechazo a la metafísica, entre el materialismo dialéctico y racionalismo crítico la necesidad de la crítica, que para el materialismo implica la crítica política y para el racionalismo crítico la crítica racional, que se sintetiza en Probabilidad Imposible estableciendo que la razón crítica de la crítica racional es ante todo crítica política en tanto que depende de la política científica, y la principal cualidad común entre positivismo y racionalismo crítico es la necesidad de que lo que hoy consideramos ciencia debe ser aquel computo de conocimientos que al menos de momento no haya sido refutado.

El proceso de construcción analítica de los significados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística será partiendo de una lógica no lineal, la lógica dialéctica, en donde del análisis de los componentes del campo que estudia elabora los significados y los símbolos matemáticos que los representan, partiendo de un determinado método analítico, el silogismo de la tendencia, recreando toda una nueva teoría y redefinición de la estadística y la probabilidad.

Rubén García Pedraza, Madrid a 6 de septiembre del 2014

domingo, 31 de agosto de 2014

La medición


La medición de la cualidad de un sujeto u opción es la transformación de una propiedad cualitativa en un factor de operaciones matemáticas, que se pueda convertir en un dato positivo, para la descripción, la inferencia, o predicción de los fenómenos estudiados en las ciencias.


La principal diferencia entre ciencias analíticas y sintéticas es que las analíticas se dedican a la formación y estudio de la forma del lenguaje, análisis formal, siendo la lógica y las matemáticas el paradigma de ciencia analítica. Las ciencias sintéticas son de carácter empírico, estudian los hechos empíricos que acontecen en la realidad, para lo cual utilizan métodos analíticos para el análisis de la realidad empírica, por lo que se denominan sintéticas, síntesis de elementos formales y factuales.


El método de estudio más objetivo en ciencias sintéticas es la utilización de métodos matemáticos, que reciben el nombre de cuantitativos, en oposición a las teorías que defienden los cualitativos.


Durante siglos en ciencias naturales hubo un debate sobre la necesidad de métodos cualitativos, Goethe fue uno de sus defensores en el siglo XIX, sin embargo, desde muy temprano estas corrientes han sido minoritarias, habiendo un consenso unánime, salvo escasas excepciones, sobre la necesidad de métodos cuantitativos, motivo por el cual las ciencias naturales han experimentado un gran progreso.


Dentro de las ciencias naturales los principales paradigmas han sido astronomía, física, y biología. Si bien en astronomía y la física el uso de métodos matemáticos fue temprano, se remonta a Eudoxo de Cnido, en biología será Mendel quien sistematiza el uso de estadística.


En ciencias sociales este debate todavía no se ha zanjado, y aunque desde temprano se entendió la necesidad de métodos matemáticos para el estudio de la economía, no ha sido así para el resto de ciencias sociales, si bien, debido al positivismo y la forma en que el materialismo moderno utiliza estadísticas y fórmulas para el estudio de las relaciones sociedad y economía, ha habido importantes núcleos  defensores  de este tipo de métodos, aunque no se ha alcanzado un consenso unánime.

La importancia de los métodos cuantitativos radica en su garantía de fiabilidad, que si bien nunca es absoluta, y dependen de la política científica, permiten mayor grado comparación y contrastabilidad, extrapolación e inferencia.

Para que un estudio sintético pueda ser cuantitativo requiere una serie de condiciones, la más importante que el objeto sea un hecho empírico. Si quisiéramos estudiar la naturaleza del espíritu humano debemos definir el concepto de forma empírica, y recoger muestras que lo evidencien, de no ser así rechazaríamos que el espíritu humano sea de naturaleza empírica, y su validez quedará limitada a aquellas actividades humanas no científicas, por ejemplo la poesía y la oratoria

El concepto de espíritu humano aunque no sea científico aparece de forma metafórica o alegórica en muchos libros de ciencia, por las influencias del idealismo en el deductivismo. De igual modo en muchos libros de ciencias aparece la alusión a las denominadas fuerzas de la naturaleza, otro concepto metafísico, que en términos positivistas o empiricistas carece de significado, en todo caso podríamos hablar de fuerzas específicas, la fuerza de la gravedad, la fuerza de un campo magnético, la fuerza de un meteorito al impactar sobre la superficie, la fuerza del viento…. Sin embargo es a partir de este tipo de conceptos metafísicos, de los que en filosofía surgirán nuevas definiciones empíricas que faciliten a las ciencias naturales convertirse en sintéticas.

Aunque el espíritu humano no sea empírico y no forme parte de la ciencia, las ideas que sobre espíritu se fueron forjando en la historia de la filosofía desde la antigüedad clásica a la modernidad, fueron la piedra sobre la que se forma en el siglo XIX la psicología científica por Wundt, siendo hoy una ciencia empírica, aunque hay corrientes defensoras de métodos cualitativos.

El uso de métodos cuantitativos en psicología ha permitido importantes avances, desde psicología del aprendizaje a la psicología de la instrucción, habiendo no obstante importantes resistencias. Al igual que en medicina la utilización de métodos cuantitativos ha facilitado la descripción estadística de enfermedades, determinación de probabilidades de incidencia, y experimentación de tratamientos, que después se adaptan a los casos particulares, en psicología clínica el uso de métodos cuantitativos debería tener el mismo fin, descripción estadística de casos y elaboración de protocolos, cuya aplicación depende de las características particulares.

Debido a la política científica de algunas farmacéuticas destinadas al lucro, las ciencias de la salud, entre ellas medicina y psicología, han sufrido un importante descrédito, lo cual evidencia de nuevo la naturaleza política e ideológica dela ciencia. La investigación cuantitativa en medicina y psicología no necesariamente tiene porque ser farmacológica. Por ejemplo el estudio experimental de las propiedades de los alimentos, plantas medicinales, o actividades deportivas o hábitos de vida saludables en la prevención y cura de enfermedades.

En cualquier caso la medicina y la psicología moderna experimentarán un cambio radical gracias a la biotecnología, que hará de las ciencias de la salud ciencias cada vez más positivas y racionales.

De otro lado, supongamos que queremos estudiar el fenómeno extraterrestre. Hoy en día ya hay una agencia de investigación estadounidense, el SETI, para este fenómeno, habiendo sido reformulado previamente hacia parámetros más científicos dentro de la astrobiología, superando el origen metafísico y místico de la ufología..

El motivo por el cual no se puede estudiar científicamente ni el espíritu humano, o las fuerzas de la naturaleza en abstracto, ni la posibilidad de civilizaciones extraterrestres dentro de la definición dada por la ufología, es por la inexistencia de registros empíricos de dichos conceptos. En el caso del espíritu humano o las fuerzas de la naturaleza, debido a la tradición metafísica idealista que defendía la existencia del espíritu, Platón, o la tradición metafísica empirista que defendían la existencia de las fuerzas de la naturaleza, Aristóteles, este tipo de conceptos todavía aparecen en muchos libros de ciencia y filosofía, a modo de metáfora o alegoría sobre el comportamiento humano o natural. Las teorías de la ufología pertenecen directamente a la tradición de la ciencia ficción liderada por el novelista británico H. G. Wells autor del libro La guerras de los mundos.

La única razón por la que puede haber en ciencias sintéticas hipótesis teóricas de las que no haya correlatos empíricos y sin embargo formen parte de las ciencias empíricas, es porque sean hipótesis dentro de un sistema de hipótesis más amplio, teoría, dentro de la cual, todas las hipótesis que dan forma a esa teoría tengan correlatos empíricos menos aquella hipótesis de la que no se puedan disponer prueba alguna, ya sea por las limitaciones fisiológicas humanas, o las limitaciones tecnológicas de la época. Un ejemplo claro, la idea del infinito en determinadas cosmologías astrofísicas.

Siempre y cuando en el conjunto de hipótesis que forman una teoría, el número de hipótesis contrastables sea significativamente superior al de hipótesis no contrastables, serán estudiadas por la ciencia, integrándose dentro de la ciencia las hipótesis no contrastables siempre y cuando se definan las condiciones de posibilidad bajo las cuales dichas hipótesis podrían contrastarse, o las limitaciones fisiológicas o tecnológicas por las cuales hoyno se pueden contrastar.

Al igual que de la metafísica del espíritu humano o las fuerzas de la naturaleza surgió la psicología moderna o la física moderna, de las viejas creencias de la ufología ha surgido la moderna astrobiología, no toda creencia por no ser de origen científico tiene porque no ser científica nunca, siempre y cuando abandone el mayor número posibles de proposiciones no contrastables, se limite sólo a las contrastables, o dentro de las no contrastables modifique su definición empírica hacia definiciones más racionales.

Hoy en día la astrobiología ha cambiado la definición del objeto de estudio: dada una serie de condiciones de posibilidad empírica sería posible la vida, aunque sólo  fuese bacteriana, en otros satélites o planetas distintos a la tierra; dada esa definición empírica de la que si podemos estimar mediciones, probabilidad de vida bajo determinadas condiciones, si disponemos de hechos empíricos y mediciones sobre temperatura, masa, presión, atmosfera, geología, de una importante cantidad de satélites y planetas, que dadas unas condiciones cabría posibilidad que albergasen vida.

Muy posiblemente el espíritu humano como tal no pueda estudiarse, pero si definimos las cualidades que lo componen en términos empíricos: inteligencia racional, inteligencia emocional, capacidad psicomotriz; y elaboramos escalas de medición para dichas cualidades, entonces si podemos hacer un estudio cuantitativo de la inteligencia racional, la inteligencia emocional, o la capacidad psicomotriz.

El concepto de fuerzas de la naturaleza es vago y difuso, pero si definimos el concepto de fuerza en cada tipo específico de suceso natural, y elaboramos escalas de medida, entonces estamos en disposición de hacer una verdadera ciencia física y astrofísica matemática.

El primer requisito para que un estudio sea científico es la posibilidad de definición de los factores en forma de hechos empíricos susceptibles de medición. Si es un estudio descriptivo las variables no están sujetas a ninguna hipótesis, la definición depende del tipo de descripción que se busque del fenómeno. Si es un estudio inferencial, hipotético-deductivo, las variables a definirse primeramente son las incluidas en la hipótesis, pudiendo definir igualmente cualquier otra variable que afecte al modelo, ya sean sujetas a algún tipo de control estadístico o de laboratorio, o cualquier otro proceso supuesto que contemple el modelo científico.

Sin este prerrequisito previo no hay ciencia. Como mucho, dentro de una teoría, se podría admitir un número muy restringido de supuestos o hipótesis solo teóricas de las que no podamos obtener mediciones precisas, y sólo se aceptarían siempre y cuando se definan bajo qué condiciones se podrían obtener mediciones, o los motivos, fisiológicos o tecnológicos, de por qué de momento no podemos obtener una noción directa, por ejemplo el infinito. Y en cualquier caso el  número de hipótesis o supuestos no contrastables debe ser lo más reducido posible, lo suficiente como para que el resto de la teoría pueda demostrarse, siendo razón suficiente para aceptar provisionalmente todas las hipótesis de la teoría, incluidas las no contrastadas, siempre y cuando las hipótesis contrastables sean racionales.

En el momento que se define el objeto de estudio sobre un fenómeno del que existen pruebas empíricas en forma de hechos, aun admitiendo un reducido número de variables teóricas, entonces si es posible la actividad científica, para lo cual habrá que realizar mediciones a las variables.

La definición de un hecho empírico es la definición de un tipo determinado de fenómeno que ocurre en la realidad del que se puedan estudiar sucesos concretos u ocurrencias concretas. Por ejemplo, un hecho empírico es la lluvia, supongamos que queremos conocer el comportamiento empírico de la lluvia, deberíamos estudiar cada suceso de lluvia o cada vez que ocurre un fenómeno de lluvia. Una vez definido el hecho empírico, y se identifica el tipo de suceso u ocurrencia donde se manifiesta ese hecho, iniciamos el proceso de selección de muestras de sucesos y ocurrencias donde el hecho empírico se manifiesta, y sobre la muestra seleccionada el proceso de medición, el cual puede ser de dos formas, en forma del estudio de la magnitud de la lluvia, por ejemplo, metros cúbicos de agua registrados por cada minuto de lluvia, y estudiar las fluctuaciones de la intensidad de la lluvia, ya sea el estudio de la curva de fluctuaciones de la lluvia en cada episodio de lluvia, o la curva de fluctuación en la intensidad de lluvia sobre una serie de episodios de lluvia, o estudiar el número de veces en que se produce un episodio de lluvia, es decir, la frecuencia de la lluvia, o la síntesis de ambos, sobre una serie de categorías discretas de magnitud de lluvia la clasificación de cada suceso de lluvia registrado en cada una de las categorías.

El estudio de este fenómeno podría hacerse más complejo, intentando localizar correlaciones entre lluvia y determinadas condiciones atmosféricas o ambientales.

Las mediciones a las variables empíricas pueden ser de dos tipos: medición de la intensidad de magnitud de la cualidad en una escala de medida, o intensidad en la ocurrencia de la cualidad, o la síntesis de ambas, estudio de la frecuencia del suceso según categorías discretas de magnitud. En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, a la medición en la escala de magnitud de un suceso dará como resultado lo que se denomina puntuación directa de ese suceso en la escala de medida, la medición del número de ocurrencias de un suceso dará igual a la frecuencia de ese suceso, y la medición del número de ocurrencias de un suceso dentro de una categoría discreta en una escala de magnitud dará lugar a la frecuencia de sucesos según categorías discretas en la escala de la magnitud.

Si queremos estudiar los terremotos en una determinada región, en primer lugar definimos el hecho empírico, el terremoto es un proceso sísmico ocasionado por los movimientos tectónicos que produce fuentes temblores de tierra. Una vez definido el hecho empírico, el estudio de cada suceso u ocurrencia natural que se ajuste a la definición del hecho empírico, y una vez localizados, efectuar la medición. La medición puede ser de dos formas, o la síntesis de ambas: la magnitud de los terremotos, la frecuencia de los terremotos, o frecuencia de los terremotos según grado de intensidad ordenados en categorías discretas.

Si estudiamos la magnitud de los terremotos sería necesario una escala para medir la intensidad de magnitud, y la medición particular de cada terremoto en dicha escala sería la puntuación directa de magnitud del terremoto en dicha escala. Si estudiamos la frecuencia de los terremotos, independientemente de su magnitud, la frecuencia de los terremotos en una zona sería igual al total de terremotos ocurridos en esa zona. Si estudiamos la frecuencia de terremotos según intensidad de magnitud, lo que haremos es un estudio en donde los terremotos se clasifiquen en una serie de categorías discretas de magnitud, el número de terremotos en cada categoría sería la frecuencia de dicha categoría.

En el primer caso propuesto, estudio de la magnitud de intensidad de cada terremoto, la puntuación directa de cada terremoto sería la intensidad que logre en la escala, la proporción empírica que guarda un determinado terremoto ocurrido bajo una intensidad dada es  lo que mediría en este caso la probabilidad empírica, cociente de la magnitud de  ese terremoto entre el sumatorio de todas las magnitudes de todos los terremotos registrados. Es importante remarcar el concepto proporción: si en una determinada zona, todos los terremotos que ocurren son de una misma magnitud, sea cual sea, mientras todas tengan la misma magnitud, el comportamiento de la probabilidad empírica será en tendencia a inversión de N, 1/N, independientemente de si la magnitud es muy elevada, o muy baja, o intensidad media. Mientras todos los terremotos sean próximos a una misma magnitud, la tendencia demostrada por su probabilidad empírica, será en tendencia a probabilidad teórica. Si en una zona los terremotos varían de intensidad de magnitud, la probabilidad empírica de la puntuación directa de cada terremoto en particular, manifestará la proporción de la magnitud de cada terremoto en relación a la suma de todas las puntuaciones directas. Este tipo de estudio sería un modelo estudio en un universo de sujetos u opciones infinitos.

El estudio de los terremotos según frecuencia sería un estudio de opciones limitadas, en donde la frecuencia de terremoto en cada zona sería igual al número total de terremotos ocurridos en cada zona. Dada una serie de zonas la probabilidad empírica de terremoto por zona sería igual al cociente del número de terremotos en esa zona entre número total de terremotos en todas las zonas del estudio.

Para los estudios de la frecuencia de los terremotos según categorías discretas de magnitud, la probabilidad empírica de terremotos de una determinada categoría discreta será igual a la frecuencia de los terremotos de esa categoría entre el total de la frecuencia de todas las categorías.

Es más, este estudio se hace más complejo a medida que introducimos más variables. Supongamos que queremos hacer un estudio de la frecuencia de terremotos según categorías discretas de magnitud según determinadas características de las zonas estudio, por ejemplo: frecuencia de terremotos en determinadas categorías discretas sobre la escala de magnitud en zonas localizadas sobre fallas volcánicas. O más complejo aun: la frecuencia de terremotos en determinadas categorías discretas en la escala de magnitud según determinadas características geológicas, por ejemplo, según el tipo de roca o minerales de la zona, o la existencia de reservas de petróleo o gas natural, u otras energías fósiles, carbón, o si en esas zonas hay una importante actividad industrial o humana. De modo que habría que hacer un estudio pormenorizado, en donde según se defina cada zona, por sus características geológicas, demográficas o económicas, se estudiaría la frecuencia de determinados seísmos en determinadas categorías discretas de magnitud en cada zona, según sus características geológicas, demográficas, o económicas.

Para aquellos estudios que únicamente se limiten a la medición de la intensidad de magnitud de cada terremoto particular, y la probabilidad empírica de la magnitud de cada terremoto sea igual a su puntuación directa entre la suma total de todas las puntuaciones directas, lo que se mide es la probabilidad empírica asociado a la magnitud de ese terremoto particular. Este tipo de estudios en Introducción a la Probabilidad Imposible estadística de la probabilidad o probabilidad estadística, se ubicarían dentro de los universos de sujetos u opciones infinitos, dentro de una escala de magnitud dada, por cada unidad de magnitud serían posibles infinitas subdivisiones de la unidad de magnitud ¿Cuántos tipos de terremotos de diferente escala de magnitud serían posibles? Infinitos.

En aquellos estudios en donde se investigue la frecuencia de terremotos dependiendo de las zonas, lo único que se estudia es qué zona es más propensa a actividad sísmica, frecuencia de terremotos en la zona entre el total de terremotos observados. En la teoría de Probabilidad Imposible pertenecería a un universo de opciones limitadas, limitándose las opciones donde puede suceder un terremoto sujeto de estudio, a los lugares seleccionados de estudio, todo terremoto en cualquier otro lugar no sujeto de estudio se descartaría, el estudio se limita a esas zonas de estudio y al estudio de los terremotos a dichas zonas, cualquier otro tipo de terremoto fuera de las zonas delimitadas estaría fuera del estudio.

Para los estudios de frecuencia de terremotos en determinadas categorías discretas de magnitud, en principio sería un universo de opciones limitadas a las categorías propuestas, ahora bien, en la medida que la unidad de medida es infinitamente subdivisible, luego son posibles infinitas subdivisiones en categorías discretas, conforme tienda a aumentar en tendencia a infinito el número de categorías discretas, dicho estudio pasaría de ser un estudio propio de un universo de opciones limitadas al estudio de un universo de sujetos u opciones infinitos.

Para que las ciencias sociales logren un progreso equiparable a las ciencias naturales es necesario un consenso unánime sobre la vigencia de los métodos cuantitativos, lo cual implica la necesidad de medición.

En ciencias naturales antes de que se llegara al consenso internacional sobre las escalas de medida relativas a distancias, pesos, volúmenes, etc… adoptándome internacionalmente el Sistema Métrico Decimal, en cada país y en cada lugar se utilizaban sistemas de medida tradicionales, y fue a partir de este consenso cuando se homogenizan los sistemas de medida, y se produce progreso exponencial.

Mientras las teorías de la postmodernidad afirman que hoy en día este tipo de postulados racionales, positivistas, y materialistas, han sido superados, nos encontramos ante una situación completamente diferente. Hoy en día en el terreno de las ciencias sociales cada vez surgen más instituciones y agencias, públicas o privadas, nacionales, transnacionales, o supranacionales, que se dedican al estudio de las sociedades desde parámetros cuantitativos, ya sea el famoso informe PISA de la OCDE, o los estudios cuantitativos de la Organización Mundial de la Salud, la Organización Internacional del Trabajo, la UNESCO, UNICEF, ACNUR, el Fondo Monetario Internacional, el Banco Mundial, o desde  organizaciones regionales, la Unión Europea, la Organización de Estados Americanos, o por Organizaciones No Gubernamentales de presencia internacional, Amnistía Internacional, Cruz Roja, Médicos Sin Fronteras, y otras muchas, además de los estudios cuantitativos internacionales que hoy en día se generan automáticamente por internet por el fenómeno Big Data por empresas privadas, las estadísticas mundiales que de forma diaria recopilan Amazon, Google, Mac, Facebook, twitter, Linkedin, sobre las tendencias mundiales a tiempo real sobre hábitos de consumo, de vida, modas, cambios en los patrones culturales y de relaciones sociales.

Estos fenómenos vinculados a la globalización evidencian la necesidad creciente de medición en las ciencias sociales, en todo tipo de actividades humanas, educativas, humanitarias, económicas, sociales, razón por la que cabe sospechar la tendencia en el uso de métodos cuantitativos en ciencias sociales, y llegado el momento en que maduren lo suficiente, el logro de consensos internacionales similares a los que hay en ciencias naturales.

El problema del estudio de los fenómenos sociales como entidades empíricas, y no metafísicas, no reside en la medición, la cual es necesaria, el problema de las ciencias sociales es la comprensión de que toda ciencia, aunque sea positiva, es política, y la dirección y gestión de la actividad científica profesional debe dirigirse desde políticas científicas que entiendan la dimensión social de la naturaleza humana, lo cual implica la necesidad que el objetivo y fin de las ciencias sociales no es el crecimiento económico privado, es el desarrollo  sostenible de las políticas de igualdad social y libertad positiva en armonía con el medio ambiente: la planificación científica para la promoción de la libertad en igualdad de condiciones sociales reales de manera sostenible.

Rubén García Pedraza, Madrid 31 agosto 2014




http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible