PROBABILIDAD IMPOSIBLE


Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿ quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


imposiblenever@gmail.com

@imposiblenever

sábado, 18 de octubre de 2014

Sesgo negativo en modelos normales



Sesgo negativo es cuando la probabilidad empírica de un sujeto u opción es inferior a la probabilidad teórica en igualdad de oportunidades. Debido que a la diferencia de probabilidad empírica menos teórica, en el Segundo Método de Probabilidad Imposible, se denomina Nivel de Sesgo normal, siempre y cuando el resultado de dicho diferencial sea negativo se dirá que el sesgo de ese sujeto u opción en particular es negativo.


En Probabilidad Imposible, siempre que se haga referencia a Nivel  de Sesgo, se hace referencia al Nivel de Sesgo normal, la diferencia de probabilidad empírica menos teórica, es importante hacer esta aclaración porque también existen los Niveles de Sesgo relativos, es decir, cada Nivel de Sesgo relativo de cada sujeto u opción con respecto cualquier otro valor arbitrario, ya sea la máxima, la mínima, la intermedia, cualquier otro valor de la muestra, o cualquier otro valor crítico. El Nivel de Sesgo normal en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se explica prácticamente desde los primeros apartados, y los diferentes modelos de Nivel de Sesgo relativo se explican en el apartado 14. Siempre que se haga referencia a Nivel de Sesgo sin añadir adjetivos se sobreentiende que se menciona el Nivel de Sesgo normal, dado que lo más normal es la comparación entre la probabilidad empírica y teórica, cualquier otra comparación directa, de la probabilidad empírica y cualquier otro valor, es relativa.


Lo que el Segundo Método de Probabilidad Imposible denomina Nivel de Sesgo, la diferencia entre probabilidad empírica menos teórica, es a lo que en el primer método, la estadística tradicional, aquella que opera bajo puntuaciones directas de sujeto u opción, se denominaría la puntuación diferencial. Si bien hay que recalcar importantes diferencias entre el Nivel de Sesgo del Segundo Método y la puntuación diferencial de la estadística tradicional, que en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se llamará primer método, y se explica en el apartado 4.


La diferencia más importante, entre el Nivel de Sesgo que propone Probabilidad Imposible y la puntuación diferencial de la estadística tradicional, es que dada una muestra en donde absolutamente todos los sujetos u opciones de la muestra N tengan puntuación directa o frecuencia igual a cero, luego todos los elementos del conjunto N tengan probabilidad empírica igual a cero, sin embargo, en tanto que el Nivel de Sesgo es igual a probabilidad empírica menos teórica, independientemente que de una muestra donde toda N tenga probabilidad empírica cero, luego la media aritmética de las probabilidades empíricas sea igual a cero, en tanto que la diferencia del Nivel de Sesgo es igual a probabilidad empírica menos teórica, e independientemente que la muestra tenga media aritmética igual cero, la probabilidad teórica en igualdad de oportunidades sigue siendo inversión de N, 1/N,  luego el Nivel de Sesgo de sujeto u opción será distinto de cero, será igual a menos inversión de N, en tanto que aun cuando toda la muestra sea igual a cero, lo que en Probabilidad Imposible se denomina una muestra de ceros, la probabilidad teórica de ocurrencia en igualdad de oportunidades sigue siendo inversión de N, 1/N.


En la teoría de Probabilidad Imposible se dice que la probabilidad cero es la Mínima Probabilidad Empírica Posible, por la sencilla razón de que no puede haber ninguna probabilidad inferior a cero, dado que no puede haber probabilidades negativas. La probabilidad cero es en esencia la Probabilidad Imposible,  en la medida que el cero opera de criterio de posibilidad: todo lo que sea distinto de cero es posible, todo lo que sea igual a cero es supuestamente imposible, y remarcó lo de que supuestamente imposible, dado que tal como se explica a partir del apartado 7 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, bajo determinadas condiciones un evento en principio catalogado imposible puede ser inevitable. El hecho que hasta ahora algo no haya sido posible, luego la probabilidad empírica de que ocurra, por el momento, sin otra observación que lo contradiga, es cero, imposible, no implica que, dadas una serie de condiciones de posibilidad sea absolutamente inevitable.

En los estudios de sesgo negativo lo que se pretende es que la probabilidad empírica de sujeto u opción tienda a cero. En los estudios normales, donde la dispersión varía entre cero y máxima, dicha tendencia negativa del sesgo en los sujetos u opciones no ideales puede deberse por dos motivos, ya bien porque dentro de N haya al menos un sujeto u opción ideal a potenciar al máximo su probabilidad, o se tienda a la muestra de ceros, donde en cualquier caso en el Segundo Método la dispersión empírica tenderá a inversión de N.

En cambio, en la estadística tradicional, si una muestra es una muestra de ceros, basta que todos los valores empíricos de todos los sujetos u opciones sean igual a cero, para que la media aritmética sea igual a cero, de modo que, si cada puntuación directa es cero, luego la media aritmética es igual a cero, lógicamente la puntuación diferencial de cada sujeto u opción será igual a la diferencia de puntuación directa cero menos media aritmética cero, luego la puntuación diferencial sería igual a cero. Algo que sin embargo no sucedería en el Segundo Método, donde aunque todos los valores empíricos fuesen igual a cero, el Nivel de Sesgo sería igual a menos probabilidad teórica.

 Al valor menos inversión de N, “ – (1/N)”, que normalmente se representará directamente sin poner corchetes después del signo, de modo que se expresará directamente, “ – 1/N”, se denominará el Máximo Sesgo Negativo Posible, dado que, si el Nivel de Sesgo es igual a la diferencia de probabilidad empírica menos teórica, y el Nivel de Sesgo negativo lo que expresa es cuan inferior es la probabilidad empírica en comparación a la teórica, necesariamente, la máxima diferencia negativa entre probabilidad empírica y teórica, sólo puede ser posible cuando la probabilidad empírica es igual a cero. Motivo por el cual se denominará Máximo Sesgo Negativo Posible.

El motivo por el  cual en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en los estudios de dispersión se prioriza la Desviación Media de los Niveles de Sesgo sobre la Varianza o la Desviación Típica, en la medida que la Desviación Media es aquel estadístico de dispersión más fiel a los datos originales, en cuanto no los transforma a valores cuadrados o raíces de cuadrados, es decir, mantiene la esencia del verdadero valor diferencial, es la razón por lo que el tratamiento que posteriormente reciben los Niveles de Sesgo para su computo en estadísticos de dispersión muestrales es en valor absolutos, en términos absolutos, ningún Nivel de Sesgo negativo puede tener un valor absoluto de sesgo superior a inversión de N, motivo por el cual se denomina Máximo Sesgo Negativo Posible.

Si se diera el caso que de toda N un único sujeto u opción tuviera sesgo negativo solamente, y todos los demás, N menos uno, “N – 1”, sesgo positivo, la suma del valor absoluto del sesgo positivo de todos los sujetos u opciones con sesgo positivo, dará como resultado un valor absoluto del sesgo de signo positivo equivalente al valor absoluto del sesgo negativo de aquel único sujeto u opción que tuviera sesgo negativo.

Dada una muestra N en donde normalmente por ley natural el sesgo positivo compensa al negativo y viceversa, lógicamente si cogemos todo el sesgo, sumatorio de valores absolutos de Niveles de Sesgo, “Σ/(p(xi) – 1/N)/”, el Sesgo Total, y lo dividimos entre dos, sería igual al Máximo Sesgo Empírico Posible, de modo que, ningún sujeto u opción puede tener un valor absoluto de Nivele de Sesgo superior a Máximo Sesgo Empírico Posible, y en cualquier caso, el Máximo Sesgo Empírico Posible es igual, o bien a la suma del valor absoluto de todos los Niveles de Sesgo positivos, o la suma del valor absoluto de todos los Niveles de Sesgo negativos.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, dentro de los tipos de estudios, que se especifican en el apartado 10, se señala que según objeto de estudio en modelos normales, los estudios se clasifican en estudios de igualdad de oportunidades y estudios de sesgo, y dentro de los estudios de sesgo se diferencia entre estudios de sesgo positivo y estudios de sesgo negativo.

Un estudio en modelos normales de sesgo negativo es cuando dado un fenómeno lo ideal sería reducir al mínimo posible, o en igualdad a cero, o al menos moderarla, incidencia de una puntuación directa o frecuencia, de modo que, especialmente si el objeto es reducir al máximo posible o reducir a cero directamente, serían casos típicos de estudio negativo. También los estudios de moderación de la incidencia del fenómeno puede ser de sesgo negativo en la medida que se intente reducir la puntuación directa o frecuencia de los sesgos positivos y nivelar la de los sesgos negativos. En puridad realmente de estudio negativo serían los que intentan reducir al máximo o igualar a cero un fenómeno. Por ejemplo, para el tratamiento de una enfermedad si se experimenta varios tratamientos, el tratamiento ideal será aquel que, dada una muestra de N sujetos infectados por la enfermedad, después del tratamiento experimental la puntuación directa o frecuencia de la sintomatología sea la mínima posible, o directamente igual a cero, de modo que el ideal del estudio sea la muestra de ceros, cero síntomas en la muestra de los N sujetos u opciones.

El caso paradigmático de estudios de sesgo sería la muestra de ceros, aunque no siempre es posible alcanzar de plano el ideal, hay momentos en donde del ideal debemos conformarnos con alcanzar una parte, sólo que para esa parte que se alcance sea mínimamente fiable, el error dispuestos a aceptar sobre el ideal debe ser mínimo, es decir, dado un tratamiento médico para la cura de una enfermedad, en caso que no sea posible la muestra de cero síntomas de la enfermedad en los N pacientes, seleccionar aquel tratamiento que reduzca al mínimo posible los síntomas, aunque no lo haga de forma absoluta, cosa que podría explicarse por la interacción de variables no controlables, ya sea por las características inmunológicas de cada sujeto, o el historial clínico que tengan, o por interacciones imprevistas entre el tratamiento y las condiciones de cada persona.

De otro lado, otra forma en que se pueden utilizar los estudios de sesgo negativo es como un punto de vista alternativo en los estudios de sesgo positivo, ya sea en modelos normales o en modelos omega.

Si en un estudio de sesgo positivo en modelos normales el objeto de estudio es que el sujeto u opción designado ideal por el equipo científico tienda a Máximo Sesgo Positivo Posible, lo cual implica que el resto de la muestra, N menos uno, “N – 1”, tienda a cero, una forma complementaria que el modelo tiende al ideal es, además de verificar la tendencia racional y suficiente del sujeto u opción ideal a Máxima Probabilidad Empírica Posible, el estudio de la tendencia del sesgo negativo de los demás sujetos u opciones no ideales. Si en un estudio de estas características se observa una tendencia racional favorable del resto de la opción a sesgo negativo sería un indicio suficiente de la tendencia positiva del sujeto u opción ideal.

Igualmente en estudios de sesgo positivo en modelos omega, aquellos donde dentro de la muestra N hay un subconjunto de sujetos u opciones ideales denominado omega, “Ω”, que tienden a la probabilidad ideal, “1/Ω”, una forma de verificar que los sujetos u opciones ideales comprendidos dentro del conjunto omega tienden a la probabilidad ideal, “1/Ω”, es estudiando como el resto de sujetos u opciones no ideales tienden a Máximo Sesgo Negativo Posible.

El modo en que los estudios de sesgo negativo verifican una tendencia racional al sesgo negativo de los sujetos u opciones no ideales, o cuyo ideal es la tendencia a sesgo negativo, es a través de la crítica racional, la cual debe ser realizada a nivel individual y a nivel muestral, la crítica racional del sesgo negativo a nivel individual permite confirmar una tendencia racional del sesgo negativo del sujeto u opción, la crítica racional a nivel muestral permite descartar cualquier error de inferencia por el tamaño de la muestra.

La crítica racional de las relaciones entre valores empíricos y teóricos ya sea a nivel individual o muestral, puede ser sobre las relaciones diferenciales o proporcionales entre valores empíricos y teóricos. Si es la crítica racional de relaciones diferenciales, entonces lo que se crítica es la diferencia entre valores empíricos y teóricos, y si es sobre relaciones proporcionales, lo que se crítica es la proporción entre valores empíricos y teóricos.

Ya sea sobre relaciones diferenciales o proporcionales entre valores empíricos o teóricos a nivel individual o muestral, la crítica racional puede ser sólo intramedicional, sobre los valores empíricos y teóricos de una sola medición, luego sería igualmente intramuestral, dado que sólo participa una sola muestra, o puede ser intermedicional, a partir de varias mediciones, ya sean diacrónicamente o sincrónicamente, y ya sean sobre una misma muestra, intermedicional intramuestral, o varias mediciones de varias muesras, intermedicional intermuestral, que en tal caso habrá que tener en cuenta el efecto de N en caso que las muestras tengan tamañas diferentes, en la medida que la probabilidad de error de representatividad muestral está directamente ligado a la magnitud de la muestra.

Las pruebas intramedicionales para sesgo negativo se explican entre los apartados11 y 15 de Introducción a la Probabilidad Imposible, estadística de laprobabilidad o probabilidad estadística, los estudios de sesgo negativo intermedicionales, sean intramuestrales o intermuestrales, se explican entre los apartados 16 y 20, tanto para modelos normales y modelos omega, incluyéndose las predicciones, ya sean en forma de proyecciones teóricas o pronósticos empíricos.

Dentro de las pruebas de contraste de hipótesis de Introducción a la Probabilidad Imposible, algunas de ellas ya han sido explicadas en este blog, aunque dada la gran diversidad de formulaciones lo que hasta el momento se ha explicado es sólo la mínima parte, para un conocimiento más detallado sería imprescindible la lectura de la obra completa, en cualquier caso a modo de ejemplo y de forma ilustrativa, a nivel intramedicional son buen ejemplo de crítica racional de diferenciales en estudio de sesgo negativo a nivel individual la Validez de Sesgo Negativo y la Significación de Sesgo Negativo, y a nivel muestral el Nivel Muestral Crítico de Sesgo y la Significación Muestral de Sesgo.


http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible
Rubén García Pedraza, Madrid a del 2014

sábado, 4 de octubre de 2014

Datos positivos


Un dato es positivo cuando su aceptación es independiente de cualquier diferencia ideológica o política entre diferentes escuelas o paradigmas. El ideal de la medición, o del contraste de hipótesis, es llegar a datos, que independientemente de la política científica de origen del modelo, sea aceptado por todos los participantes de la comunidad científica, de modo que la aceptación de hecho de un dato como positivo implica su aceptación universal aunque provisional.

Hay que decir, que si bien normalmente cuando se hace referencia a la naturaleza provisional del conocimiento lo más habitual es remitirse al conocimiento derivado de pruebas estadísticas de contraste de hipótesis, en líneas generales, en la medida que la ciencia carece de proposiciones absolutas, siempre hay un margen de error en toda afirmación, en tanto que no exenta de incertidumbre, toda formulación científica, ya sea inferencial y descriptiva, es provisional.

En el caso de las inferenciales, por cuanto se trata de hipótesis empíricas directamente aceptadas bajo un margen de error, dentro del cual, si bien se consideran universales, son provisionalmente universales en función inversamente proporcional al margen de error sobre el que se acepten. A menor margen de error las condiciones de posibilidad para la refutación son menores que aquellas que hayan sido aceptadas sobre un margen de error mayor. La provisionalidad del conocimiento inferencial es inversamente proporcional al margen de error, pero igualmente el conocimiento descriptivo es provisional, por cuanto toda medición está sujeta a una serie de posibles errores, por ejemplo, el más habitual en toda clase de medición es la pérdida de información en el truncamiento de secuencias decimales, o en probabilidad el error asociado a la representatividad de la muestra, en la teoría Probabilidad Imposible función de error de representatividad muestral inversamente proporcional a la magnitud de la muestra, ya sea la muestra N de sujetos u opciones, en universos infinitos, la muestra de puntuaciones directas o frecuencias en universos limitados. En función inversamente proporcionales a los errores posibles la información descriptiva será igualmente provisional, uno de ellos, la probabilidad de error de representatividad muestral, lo que en Probabilidad Imposible, se denomina error de hecho.

Aceptando un margen de error en las mediciones, por ejemplo aceptando un margen de incertidumbre en la medición de la velocidad de la luz de aproximadamente 300.000 metros por segundo, o que la aceleración por la gravedad sea aproximadamente de 9,81 m/s², independientemente de los márgenes de incertidumbre, estos datos son considerados a día de hoy positivos, dado que todas las escuelas filosóficas y paradigmas científicos, independientemente de su política científica e ideología de origen, aceptan estas mediciones de manera universal, de modo que las comunidades que participan de este tipo de proyectos utilizan este tipo de datos habitualmente en sus investigaciones sin ponerlas en duda.

Un dato es positivo cuando todas las escuelas y paradigmas,  que participan de la comunidad científica dedicada al estudio de un determinado campo del conocimiento o disciplina, lo aceptan de modo universal aunque provisionalmente, es decir, sin descartar que a futuro puedan refutarse,.

Mientras no se llegue a nuevas mediciones de la velocidad de la luz, y no haya mediciones alternativas que refuten la hipótesis actual, de forma provisional ha sido aceptado universalmente por  todas las agencias de investigación de todos los Estados, y agencias de investigación privadas, que la velocidad de la luz es aproximadamente 300.000 metros por segundo. Posiblemente el día que el progreso tecnológico desarrolle instrumentos de medida más sensibles, o se lleguen a nuevos descubrimientos en física de partículas, no cabe descartar la posibilidad que este hipótesis sea refutada, y pueda descubrirse, a partir de la utilización de nuevos instrumentos, o bien que la luz pueda alcanzar velocidades superiores, o bien se pueda llegar a un conocimiento mucho más exhaustivo de la secuencia decimal de la velocidad de la luz, alcanzándose un conocimiento exacto de la velocidad exacta, independientemente de la posición que ocupen los fotones.

Al igual que hoy en día no tenemos un conocimiento exacto de toda la secuencia decimal del número pi, a modo operativo trabajamos que pi es igual a 3, 14159…, o redondeando, 3,1416, y tomamos estas aproximaciones como verdaderas, aunque realmente desconocemos cual es el verdadero valor en tendencia a infinito de la secuencia decimal, hoy en día estas aproximaciones se utilizan como datos positivos en todo tipo de ciencias, independientemente de nuestra ideológica o pensamiento político, actuando tales datos entonces como datos positivos.

Un dato es positivo cuando, dentro del margen de error en que ha sido aceptado, es aceptado por todas las escuelas y paradigmas de la ciencia, independientemente de la política científica del Estado o agencia de investigación privada, independientemente de la ideología o filosofía del científico o equipo de investigación. Que la velocidad de la luz es aproximadamente 300.000 metros por segundo o pi es aproximadamente 3,14159…, o redondeando, 3,1416, son datos positivos porque, dentro de los márgenes de error en que se aceptan, ya sea en la inferencia o simplemente por la pérdida de información en el truncamiento, estos datos son aceptados por sus respectivas comunidades científicas, con total independencia de sus diferencias filosóficas, ideológicas o políticas, empleándolos en investigaciones ulteriores.

Para que un dato sea positivo es necesario que cumpla una serie de requisitos, que el margen de error para su aceptación sea el mínimo posible, y que el instrumento de medida sea mínimamente fiable. El error de la medición puede parecer una variable dependiente de la fiabilidad del instrumento, pero no necesariamente, si bien es cierto que un instrumento poco fiable incrementa el error de la medición, puede haber problemas en el instrumento de la medición que lo hagan poco fiable debido a sesgos ideológicos, este tipo de problemas es una de las razones de por qué los métodos cuantitativos han sido criticados en las ciencias sociales.

Evidentemente un instrumento de medida poco fiable incrementa el error de medición, pero ambos conceptos habría que delimitarlos. La fiabilidad del instrumento depende de que mida  sólo y exclusivamente aquello para lo que ha sido diseñado, y disponga de un elevado grado de sensibilidad en la detección de variaciones.

En el momento en que el instrumento sea muy fiable el error de medición se reduce, sin embargo siempre habrá por mínimo que sea un error de medición, ya sea por la propia selección muestral o por cualquier otro motivo de pérdida de información. De hecho la propia selección muestral genera automáticamente un error de pérdida de información, ya no se estudia todo el objeto universal, se limita a una pequeña muestra, de forma que se pierde información, reduciendo el estudio a una muestra cuyos resultados dependen de que la muestra sea suficientemente representativa.

La medición transforma en variables cuantitativas las cualidades, para operar matemáticamente sobre la realidad. A este tipo de métodos se les denomina cuantitativos, y una de las razones del importante progreso en ciencias naturales desde la modernidad ha sido por la forma en que rápidamente llegó al consenso sobre la utilización de este tipo de métodos, consenso que no se ha llegado a generalizar en ciencias sociales.

El mayor problema en ciencias sociales sobre el uso de métodos cuantitativos, y la generalización del uso de datos positivos, se debe a que algunos sectores de la comunidad científica critican a estas técnicas por lo que llaman el sesgo ideológico. Una crítica tampoco exenta de lógica, por cuanto a menudo se dan situaciones, en donde los gobiernos o las empresas privadas falsean estadísticas, ya bien para dar buena imagen, o presentar balances más proclives, aun cuando supongan un fraude.

Si por la posibilidad de fraude en los datos estadísticos se rechaza este tipo de métodos, por esta misma regla de tres habría que hacer desaparecer los sistemas democráticos, por la posibilidad de fraude electoral, pero incluso los propios defensores de los métodos cualitativos defienden las ventajas de la democracia frente a otro tipo de gobierno dictatorial, cuando en esencia la democracia es un claro ejercicio de Fe en la estadística, o al menos un ejercicio de Fe en la estadística aplicada a los procesos electorales.

Si bien es cierto que en ciencias sociales el debate es todavía relevante y se encuentra en la discusión epistemológica, hoy en día los métodos cuantitativos son habituales en los programas de investigación de toda clase agencias de investigación públicas o privadas, por parte de Estados, y entidades transnacionales y supranacionales, desde Naciones Unidas y sus agencias, UNICEF, ACNUR, OTI, UNESCO, a otras entidades transnacionales, Organización Mundial del Comercio, Banco Mundial,  Fondo Monetario Internacional, Organización para el Comercio y el Desarrollo Económico…

Hoy en día independientemente de la política científica o ideología política de los diferentes Estados o agencias de investigación públicas o privadas, cada vez que las agencias dependientes de Naciones Unidas lanzan una estadística sobre desarrollo mundial, son datos que son aceptados por todos los gobiernos y citados en sus propios discursos e investigaciones. Cada vez que la UNESCO lanza estadísticas sobre los niveles de alfabetización y escolarización en las diferentes etapas de los sistemas educativos, o datos concernientes al nivel de inversión pública en educación por los diferentes Estados, este tipo de datos rápidamente aparecen en los discursos oficiales de los presidentes de gobierno y ministros de educación de los diferentes países miembros de Naciones Unidas, y son utilizados en toda clase de comparaciones educativas, sin ser puestos en duda, es decir, se consideran datos positivos. Cuando la OCDE a través del programa PISA lanza una comparativa educacional entre los diferentes países miembros de la OCDE, rápidamente los países miembros lanzan comunicados oficiales explicando el porque de sus resultados en el informe PISA, y son datos utilizados por agencias de investigación educativa internacionales, es decir, hoy en día se considera de los datos que vierte PISA trianualmente son datos positivos.

Cada vez que el Fondo Monetario Internacional, el Banco Mundial, lanzan estadísticas sobre distribución de la riqueza, niveles de desarrollo, niveles de riqueza, estas estadísticamente son igualmente utilizadas de forma inmediata en discursos e investigaciones, o cada vez que la Organización Mundial del Trabajo saca estadísticas sobre empleo o desempleo a nivel mundial.

Lo que sí cabe decir es que si bien hoy en día los datos que ofrecen las agencias líderes de la gobernanza global son utilizados a modo de datos positivos por todos los gobiernos del mundo, desde Estados Unidos,  Brasil, Gran Bretaña, Alemania, Rusia, China, India…  y utilizados en toda clase de investigaciones de financiación pública o privada, y se considera que, dentro del margen de error, incluido de representatividad muestral, o truncamiento de la información, o cualquier otro, dichos datos son aceptados independientemente de la política científica de los equipos de investigación que los elaboran, y son aceptados por todos los gobiernos independientemente de su política ideológica, independientemente de que sean considerados de facto datos positivos, lo que este tipo de datos positivos permiten es una crítica sobre la intencionalidad y una crítica ética y moral.

La crítica sobre la intencionalidad revierte directamente sobre la propia naturaleza del método comparado ¿Qué Finlandia y Corea del Sur sean los países con mejores resultados educativos significa que todos los demás países deban imitarles, que Alemania o China sean los países aspirantes a futuras potencias económicas mundiales, significa que los demás países deban imitarles? El hecho que se acepte de plano la naturaleza positiva de un dato en ciencias sociales no exime de la crítica a lo que representan o significa, lo cual nos devuelve a la propia naturaleza y esencia del método comparado, fundamental en las ciencias sociales.

Evidentemente esto lo que significa es que se debe diferenciar entre naturaleza positiva del dato, el cual siempre y cuando el margen de error sea mínimo y el instrumento fiable, el dato debe ser aceptable, y de otro lado la utilización estructural o funcional de los datos, lo cual sí depende de la política y la ideología.

Muy posiblemente Alemania o China sean aspirantes a potencias mundiales, o posiblemente Finlandia o Corea del Sur dispongan de buenos sistemas educativos, pero en función de la política científica de cada escuela o paradigma después cada resultado debe compararse y criticarse independientemente, por ejemplo, comparar la tasa de éxito o fracaso escolar con el nivel de inversión pública o privada en educación, el grado de concienciación familiar en la educación de los hijos, el grado en que la educación contribuye al crecimiento económico, políticas de bienestar en dichos países, … es decir, quizás la solución a los problemas educativos de otro país  no sea imitar el modelo educativo finlandés, quizás el problema reside en imitar la política de bienestar social finlandesa que ha permitido una sociedad que se desarrolle favorablemente hacia un determinado modelo de educación. Quizás la cuestión no sea imitar la economía alemana o china, sino estudiar comparativamente toda la red del tejido social y económico de prestaciones sociales y políticas socio-económicas que permiten el progreso de determinadas economías y sociedades.

Igualmente, en ciencias naturales el hecho que se dispongan de determinados datos positivos no implica una dirección política de la ciencia, que dependerá de la política científica. En las ciencias especiales, dentro de los actuales programas de colonización espacial, el hecho que dispongamos de datos positivos sobre la composición de la Luna o Mate no exige una determinada política espacial, cada gobierno y agencia de investigación tenderá a un potencial uso de los recursos naturales de la Luna o Marte de acuerdo a su ideología política. Mientras haya agencias cuya investigación espacial se oriente a fines puramente científicos y cognoscitivos, habrá agencias de investigación cuya dirección política oriente los descubrimientos hacia fines puramente empresariales.

Una medición o inferencia obtenida de un instrumento de medición fiable, y dentro de un margen de error aceptable, se transforma en dato positivo, cuando es aceptado de forma universal por toda la comunidad científica que trabaja en un determinado campo científico o disciplina, aunque de manera provisional en función del margen de error. Ahora bien el potencial uso que las agencias de investigación y los gobiernos hagan de los datos positivos dependerá por entero de la ideología política subyacente a su política científica.

 
Rubén García Pedraza, Madrid a 5 de octubre 2014





http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible

sábado, 20 de septiembre de 2014

Sesgo positivo en modelos normales


En Probabilidad Imposible el Nivel de Sesgo es  la diferencia de probabilidad empírica menos probabilidad teórica, cuando esa diferencia es de signo positivo se dice que hay sesgo positivo. La probabilidad empírica es igual a la puntuación directa o frecuencia de sujeto u opción entre el sumatorio de todas las puntuaciones directas o frecuencias, y la probabilidad teórica igual a la inversión de N, 1/N, siendo N el número total de sujetos u opciones. Las funciones universales de la inversión de N para cualquier tipo de universo, sea infinito o limitado, es la de probabilidad teórica en igualdad de oportunidades, y media aritmética de las probabilidades empíricas.
 
Nivel de Sesgo =p(xi) – 1/N
 p(xi) > 1/N → p(xi) – 1/N = sesgo positivo
 
Modelos normales son aquellos en donde la dispersión de la muestra puede variar entre cero o máxima, dispersión cero cuando la tendencia de la muestra es a igualdad de oportunidades, a máxima cuando todos los sujetos u opciones tienden a su máximo sesgo posible. Los máximos sesgos posibles dependen del tipo de tendencia de cada sujeto u opción, en función si tienden a la Máxima Probabilidad Empírica Posible o Mínima Probabilidad Empírica Posible.
La Máxima Probabilidad Empírica Posible es la probabilidad empírica igual a la unidad, “1”, dado que la probabilidad es una dimensión que oscila entre cero, “0”, y uno, “1”, no pudiendo haber ninguna probabilidad por encima del valor uno, “1”, siendo por tanto el valor uno, “1” la Máxima Probabilidad Empírica Posible, y siendo cero, “0” la Mínima Probabilidad Empírica Posible dado que no puede haber probabilidades inferiores a cero, entre otros motivos porque las probabilidades son siempre relativas a sucesos positivos, nunca negativos.
Si el Nivel de Sesgo es igual a probabilidad empírica menos teórica,  y un sujeto u opción tiende a Máxima Probabilidad Empírica Posible, probabilidad uno, “1”, necesariamente la diferencia de la Máxima Probabilidad Empírica Posible menos la inversión de N, 1/N, es igual al Máximo Sesgo Teórico Posible.
 
 Máximo Sesgo Teórico Posible = 1 – 1/N
Máxima Probabilidad Empírica Posible = 1 → p(xi) = ( xi = Σxi) : Σxi
 
Luego si en una muestra N se da el caso que un sujeto u opción alcanza la Máxima  Probabilidad Empírica Posible, en la medida  que la probabilidad empírica es igual a puntuación directa o frecuencia entre sumatorio de puntuaciones directas o frecuencias, para que se de el caso que dicho cociente sea igual  a la unidad, es absolutamente imprescindible que la puntuación directa o frecuencia de ese sujeto u opción sea igual al sumatorio de puntuaciones directas o frecuencias, condición necesaria para que el resultado del cociente sea uno, que el valor de ambos factores del cociente sea idéntico, y si esto es así, y de N hay un sujeto u opción cuya puntuación directa o frecuencia es igual al sumatorio de puntuaciones directas o frecuencias lógicamente se debe a que el resto de sujetos u opciones, N menos unos, “N – 1”, es  decir, de N todos menos aquel sujeto u opción de probabilidad empírica igual a la unidad, todos los demás sujetos u opciones tienen probabilidad empírica cero, “0”, la Mínima Probabilidad Empírica Posible, luego si el Nivel de Sesgo es igual a probabilidad empírica menos teórica, y la empírica es igual a cero, entonces cero menos inversión de N es igual al Máximo Sesgo Negativo Posible.
 
0 – 1/N = Máximo Sesgo Negativo Posible
0 = Mínima Probabilidad Empírica Posible
 
Sólo y exclusivamente bajo condiciones que de toda N un único sujeto u opción tenga probabilidad empírica igual a uno, “1”, Máxima Probabilidad Empírica Posible, luego Máximo Sesgo Teórico Posible, luego todos los demás tengan probabilidad empírica igual a cero, Mínima Probabilidad Empírica Posible, luego Máximo Sesgo Negativo Posible, entonces la dispersión tiende a la máxima dispersión posible, lo cual se materializa en la Máxima Desviación Media Teórica Posible, Máxima Varianza Teórica Posible, y Máxima Dispersión Típica Teórica Posible
Máxima Desviación Media Teórica Posible = [ ( 1 –1/N) · 2 ] : N
Máxima Varianza Teórica Posible = {( 1 –  1/N )² + [1/N² ( N –  1) ]} :N
Máxima Desviación Típica Teórica Posible = √{{( 1 –  1/N )² + [1/N² ( N –  1) ]} :N}
 
Sólo bajo condiciones de tendencia de la muestra de sujetos u opciones a máxima dispersión posible, es decir, Máxima Desviación Media o Típica, Teórica Posible, entonces la muestra tiende a los máximos sesgos posibles, y viceversa.
Un modelo normal es aquel en donde la dispersión de la muestra oscila entre cero o máxima, si tiende a dispersión cero entonces es modelo normal de igualdad de oportunidades, si tiende a la dispersión máxima entonces es un modelo normal de sesgo.
Dentro de los estudios de sesgo normales hay que diferenciar entre estudios de sesgo positivo y estudios de sesgo negativo. Los estudios de sesgo negativo son aquellos que estudian la tendencia de los sujetos u opciones a sesgo negativo, mientras los estudios de sesgo positivo estudian la tendencia de los sujetos u opciones a sesgo positivo. En los estudios normales de sesgo positivo lo normal es que halla un sujeto u opción que por su condición ideal pretenda acumular toda la puntuación directa o frecuencia de la muestra, de modo que si la puntuación directa o frecuencia del sujeto u opción ideal fuera igual al sumatorio de puntuaciones directas o frecuencias entonces su probabilidad empírica sería la Máxima Probabilidad Empírica Posible.
Un ejemplo normal de modelo en donde cada sujeto u opción del modelo tiende a ser el que intente la acumulación de todas las puntuaciones directas o frecuencias es en las elecciones democráticas. Si en unas elecciones se presentan varios candidatos de diversos partidos, y el objetivo de cada partido en la campaña electoral es que todos los posibles votantes voten a su candidato, entonces lo que cada partido pretende es que la probabilidad empírica en la intención de voto a su candidato en las elecciones sea la Máxima Probabilidad Empírica Posible, lo que todos los partidos desean es que todos los votantes voten a su candidato, en lugar al resto de adversarios, luego el resto de adversarios logren la Mínima Probabilidad Empírica Posible.
Si en una economía de libre mercado una serie de corporaciones empresariales compiten por la venta de su producto para cubrir una determinada demanda específica, lo que cada compañía intentará es que la tendencia en la compra de su producto tiende a la Máxima Probabilidad Empírica Posible, y el resto de sus competidores tiendan a la Mínima Probabilidad Empírica Posible.
Si en un juego de competición, ya sea entre dos personas, como el tenis, o de equipo como el baloncesto, gana quien más puntos consiga, el objeto de cada contrincante, sea individual o grupal, es que logre la mayoría de puntos, y el adversario no logre ninguno, es decir, cada participante lucha por la Máxima Probabilidad Empírica Posible, lo cual implica que el adversario tienda a la Mínima Probabilidad Empírica Posible.
Si en un test de opciones múltiples, por cada pregunta sólo hay una opción correcta, y las demás son incorrectas, lo ideal sería que por cada pregunta toda las personas que respondan el test marquen la única opción correcta, de modo que cada opción correcta del test tienda a la Máxima Probabilidad Empírica Posible, y las demás a la Mínima Probabilidad Empírica Posible.
En el momento que en un modelo normal se da la circunstancia que dada una muestra N se da el caso que de toda N hay un sujeto u opción que tiende a Máxima Probabilidad Empírica Posible, luego Máximo Sesgo Positivo Posible, entonces se trataría de un modelo normal de sesgo positivo, en donde aquel sujeto u opción que se manifieste ideal tenderá a la mayor probabilidad empírica y el mayor sesgo positivo en comparación con los demás sujetos u opciones.
Para determinar que el sesgo positivo del  sujeto u opción ideal tiende de forma suficiente y racional a la Máxima Probabilidad Empírica Posible y Máximo Sesgo Teórico Posible, dentro de la teoría de Probabilidad Imposible se desarrollan diferentes pruebas estadísticas de contraste de hipótesis para la crítica racional de la tendencia observada, a fin de criticar si la tendencia manifestada por el sujeto u opción es suficientemente racional.
En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se explican los diferentes modelos de crítica racional, distinguiéndose entre crítica racional en estudios intramedicionales, a partir de una sóla medición, o intermedicionales, a partir de dos mediciones. Los estudios intramedicionales son necesariamente intramuestrales, una  única medición perteneciente a una única muestra, los estudios intermedicionales pueden ser intramuestrales o intermmuestrales. Los estudios intermedicionales intramuestrales son varias mediciones sobre una misma muestra, los estudios intermedicionales intermuestrales serían sobre varias mediciones en varias muestras.
Dentro de cada tipo de estudio inter/intra-medicional/muestral, la crítica racional debe hacerse tanto a nivel individual y a nivel muestral.  A nivel individual para determinar que la tendencia individual de cada sujeto u opción es suficientemente racional, que la tendencia a sesgo positivo del ideal es suficientemente racional para aceptarse provisionalmente, o que la tendencia a sesgo negativo de los demás sujetos u opciones es suficientemente racional como para representar una suficiente tendencia a dispersión máxima. A nivel muestral la crítica racional es necesaria para descartar cualquier otra variable de error en el contraste de hipótesis, a fin que si finalmente se acepta el ideal el margen de error se minimice, además de porque la razón crítica de la política científica sea moralmente exigente, porque además se ha controlado la incidencia de la dispersión asociada a la magnitud de la muestra.
Los modelos de crítica racional pueden ser de dos tipos, en forma de diferenciales o proporcionales. La crítica racional de diferenciales es cuando la contraposición entre valores teóricos y empíricos se hace sobre la diferencia entre ambos, y sólo se acepta racional la tendencia en la diferencia a partir de una razón crítica. La crítica racional proporcional es cuando la relación entre valores teóricos y empíricos se hace en forma de proporción, siendo la tendencia de la proporción lo que se crítica.
Los modelos de crítica racional intramedicional, para modelos normales y omega, y dentro de los modelos normales los estudios de sesgo positivo, tanto a nivel individual y muestral, criticando diferencias o proporciones entre valores empíricos y teóricos, se expone en el apartado 11 para el Segundo Método, adaptándose en el apartado 12 para el primer método, el que trabaja directamente con puntuaciones directas o frecuencias sin transformarlas a probabilidades.
En el apartado 14 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se exponen modelos de crítica racional para estadísticas relativas, y en el apartado 15 de forma adaptada a la curva normal.
Los modelos de crítica racional en modelos normales y omega, y dentro de los normales para sesgo positivo, para estudios intermedicionales, sean intramuestrales o intermuestrales, se exponen entre los apartados 16 y 20, de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, integrándose además las predicciones, ya sean proyectivas, proyectos ideales sobre un valor empírico, o pronósticas, pronósticos reales sobre dos valores empíricos.
 
Rubén García Pedraza, Madrid a 20 septiembre del 2014



http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible

sábado, 6 de septiembre de 2014

El significado de la ciencia


El significado es aquel concepto u operación que se entiende o conviene que representa un signo, en función de un sistema de atribuciones, de un significado a un signo, atribución que puede ser  causal, correlacional, o social. Dentro de los diferentes tipos de atribución la más exacta y exhaustiva es la científica.

Un significado es conceptual cuando el signo que lo representa simboliza un concepto, y es operacional cuando simboliza una operación. Por ejemplo la palabra “amor” representa el concepto asociado a un sentimiento, y el símbolo “+” en matemáticas representa la operación de suma.

Aunque la diferencia entre concepto u operación depende de la escuela filosófica. Hay paradigmas que entienden que los significados asociados a operaciones lo que simbolizan es el concepto asociado a la operación, de modo que todo signo representaría siempre un concepto, ya fuese cognoscitivo, operativo, o emocional. A estas posiciones se las denominaría conceptualistas.

En la teoría del operacionalismo sin embargo esta identificación no sería del todo válida, en la medida que lejos de basar la ciencia en el conceptualismo, lo basa en el positivismo operacionalista, la ciencia más que un conjunto de conceptos es un conjunto de operaciones bajo condiciones de control y neutralidad, para la obtención de resultados positivos.

Independientemente de que el paradigma de partida sea conceptualista u operacionalista, en la génesis del lenguaje se darán una serie de factores.

El signo que representa un significado puede ser de diversa índole, no necesariamente implica una lengua , si sale el sol probablemente se hará de día . Si en el bosque vemos la huella de un animal significa que ese animal ha pasado por ahí, y según el tipo de huella, si disponemos de una taxonomía de huellas, sabríamos a qué tipo de animal representa. La huella en sí misma es el símbolo del paso de ese animal por la realidad. Si los días se van haciendo largos significa que va llegando el verano, si se van haciendo cortos significa que va llegando el invierno.  De hecho, en función del número de días que han pasado desde que los días han empezado a hacerse más cortos o más largos podríamos saber aproximadamente, bajo un margen de error, cuando van a ser las próximas lluvias, cuando va a llegar la época de la siembra, la cosecha, y las inundaciones. En función de la repetición de sucesos de forma reiterada, aceptándose si acaso un margen de error, elaboramos significados sobre la realidad, en función de los cuales interpretamos lo que sucede,  y sobre las atribuciones sociales a determinados símbolos o conjuntos fónicos la formación del lenguaje.

La atribución por la cual la salida del sol o la huella de un animal significa que probablemente se hará de día o por ese sitio haya pasado ese animal, es una atribución causal o correlacional, en donde dicho signo es causa o efecto probable de otro fenómeno. Si sale el sol es causa probable de que se hará de día, aunque la intensidad de la luz dependerá de muchos factores, que ese día el cielo no esté  tan encapotado que a penas deje traspasar los rayos de sol por las nubes o la niebla, o se produzca un eclipse. Si hay huellas de animales se entiende que hay posibilidad de que algún animal haya pasado por ese sitio, la huella es el signo del probable efecto del paso de animales.

Del mismo modo que el sol o las huellas son un signo físico de un fenómeno, las pinturas rupestres que representan al sol y la luna, o el dibujo de unos animales en la pared de una cueva, antropológicamente fue la representación simbólica de unos signos, y la construcción social del lenguaje, una elaboración mucho más compleja de los procesos atribucionales.

En el momento que a una determinada combinación fonética, en lenguaje hablado, o símbolos, en lenguaje escrito, socialmente atribuimos un significado es cuando empezamos la elaboración del lenguaje, a  partir de una serie convenciones sociales, que se denomina convencionalismo social. El hecho que para el cálculo integral utilicemos el sistema de notación de Leibniz en lugar del sistema de Newton, es un ejemplo de convencionalismo social aplicado a la ciencia, sobre una determinada lectura del principio de eficiencia social del lenguaje científico.

La construcción de significados es una función psicológica que no es exclusiva de la especie humana, en función de su nivel de inteligencia las especies son capaces de atribuciones sobre su entorno, entendiendo el significado de lo que ocurre en función de su capacidad cognoscitiva, y en las especies más complejas o evolucionadas la construcción de lenguajes, por ejemplo el lenguaje de las ballenas, y dentro de los lenguajes de las diversas especies animales el paradigma de lenguaje es el lenguaje humano, dado su enorme potencial de expresión racional y emocional, y dentro del lenguaje racional el lenguaje lógico-matemático.

La lengua es producto de un largo proceso de construcción histórica, que abarca desde los primeros proto-lenguajes de las primeras culturas del paleolítico inferior, antesala de la posterior aparición de las primeras lenguas habladas, y de ahí el desarrollo de la escritura y la historia, progresando a los primeros sistemas de lenguaje lógico-matemático de la era antigua, pitagóricos, euclideos, aristotéticos, el sistema numérico hindu-árabe …, de cuya evolución y progreso surge la ciencia moderna.

Las matemáticas tienen la doble función de ser en sí misma una disciplina científica englobada dentro de las ciencias analíticas, para cuyo desarrollo y progreso es necesaria la investigación matemática pura, al  mismo tiempo que para el resto de ciencias sintéticas las matemáticas son un lenguaje que se utiliza en el plano de la investigación aplicada.

El proceso de construcción histórico del lenguaje matemático, en un principio tuvo que ser paralelo a la construcción de las lenguas, dado que según las sociedades sistematizan la atribución social de significados a determinados signos lingüísticos, uno de los primeros signos que las sociedades elaboran, necesariamente para resolver complicados problemas matemáticos, es la construcción del concepto de número, en un primer momento los números naturales, y determinados algoritmos básicos, de suma, resta, multiplicación y división. Unas primeras definiciones matemáticas de las que posteriormente surgirá una de las ciencias analíticas más importantes, las matemáticas, y de las cuales en el terreno de la filosofía surge la lógica.

Hay que diferenciar entre la lógica implícita en todo sistema lingüístico, que se produce de forma natural en la evolución natural de la lengua, y la lógica como disciplina científica, cuyo origen se remonta a los comienzos de la filosofía, y cuyo principal exponente durante milenios ha sido la lógica aristotélica, la lógica lineal. La crítica a la lógica lineal se formula en la era moderna paralelamente a la crítica de la geometría euclidiana. La relación entre lógica aristotélica y geometría euclidiana se debe a que Euclides es el paradigma matemático en la Grecia clásica, y lo seguirá siendo durante gran parte de la era moderna,  al  igual que el aristotelismo será el paradigma hegemónico de la metafísica escolástica . Euclides y Aristóteles representan los modelos de geometría y lógica lineal a los que se opondrán las matemáticas y la lógica moderna, por ejemplo, las geometrías no euclidianas del siglo XIX y la lógica dialéctica hegeliana.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se entiende que las matemáticas son una ciencia analítica, al mismo tiempo que lenguaje aplicado a las ciencias sintéticas, donde la lógica de fondo que subyace al modelo es una lógica no lineal de carácter dialéctica, razón por la cual sintetiza el materialismo dialéctico al positivismo y al racionalismo crítico. Dentro de la lógica dialéctica el modo en que se interpreta el silogismo,  basado en sus tres fases de: primera premisa, segunda premisa, y conclusión; es identificado las tres fases del silogismo a las tres fases de la dialéctica hegeliana: tesis, antítesis, síntesis; razón por la cual en Probabilidad Imposible se habla continuamente de sujeto u opción, la puntuación directa o frecuencia, en tanto que síntesis de la dialéctica de sujeto y objeto en matemáticas, sintetizando así estadística y probabilidad. En Probabilidad Imposible la permanente dialéctica de los opuestos se observa de forma continua, ya sea en el modo en que se diferencia entre tipos de universos opuestos,  infinitos o limitado, o tipos opuestos de estudios, de igualdad o sesgo, en dos tipos de modelos diferentes, normales u omega.

De este modo en coherencia a la clasificación de las ciencias que hace Probabilidad Imposible, ciencias analíticas y ciencias sintéticas, habría que distinguir entre dos tipos de significados, significados analíticos y significados sintéticos.

La propia clasificación de las ciencias que propone Probabilidad Imposible pone ya de manifiesto la síntesis entre materialismo dialéctico y racionalismo crítico, en la medida que coloca a los elementos analíticos y sintéticos, propios del racionalismo crítico, en relación de oposición e identidad. Oposición en tanto que los analíticos no dependen de valores empíricos,  y los sintéticos sí, siendo sintéticos en tanto que sintetizan conceptos analíticos y factores empíricos. La identidad entre los analíticos y los sintéticos se produce en el momento que se reconoce que la disciplina común a ambos modelos de ciencias son la lógica y las matemáticas.

Si bien no en todas las ciencias analíticas, por ejemplo las lingüísticas, o el análisis del arte, las matemáticas aparentemente no están presentes, lo que en análisis hay siempre de fondo es la necesidad de una lógica por mínima que sea, ya sea en el establecimiento de definiciones, en tanto que función de equidad entre lo que se define y la definición, o en la elaboración de clasificaciones que lógicamente siempre debe hacerse bajo algún criterio, por mínimo que sea, y cuyo resultado es la elaboración de conjuntos. Sin lógica no hay estructura posible del lenguaje, ya sea a nivel morfosintáctico o semántico. En todo lenguaje como mínimo debe haber una mínima definición de sus elementos y clasificación de su componentes, lo cual implica una mínima estructura basada en funciones de equidad y  teoría conjuntos.

En el momento que se integra la teoría de conjuntos en cualquier proceso o sistema se integra de facto la lógica y la teoría de la probabilidad, sea el análisis que sea, incluido el análisis del arte. Cuando a mediados del siglo XX empezaron los primeros críticos de arte la discusión sobre la postmodernidad, ya establecieron un criterio de clasificación en dos grandes conjuntos, arte moderno y postmoderno, y dentro de cada tipo sus variantes y clasificaciones.

El sistema analítico paradigmático de atribución de significados es el lógico-matemático, en la medida que es capaz de elaboración de complejos sistemas de atribución de significados sin necesidad de ninguna otra referencia más que a sí mismo. Un ejemplo de ello es la geometría euclidiana, en donde a partir de unas definiciones básicas desarrolla todo un sistema geométrico totalmente analítico sin una sola definición dependiente de factores empíricos o sistemas externos, teniendo por base la lengua materna, el griego clásico, pero sobre el que elabora un lenguaje geométrico mucho más abstracto.

Para la elaboración de su sistema geométrico Euclides prescindió de cualquier mención a cualquier fenómeno empírico, la principal característica analítica del modelo de Euclides es que sin mencionar ni un solo elemento factual , sólo y exclusivamente a través de la investigación pura, diseña un modelo geométrico que después en investigación aplicada se aplica a infinidad de ciencias sintéticas.

De igual modo la geometría proyectiva del siglo XVII, o los geometrías no euclidianas del siglo XIX, y las que van apareciendo posteriormente en el siglo XX, diseñan modelos geométricos puramente analíticos en donde sin referencia a elementos externos, más que el uso de la propia lengua del científico, en lugar de griego clásico las lenguas romances, son capaces de elaborar modelos matemáticos autónomos, sin ninguna necesidad de mención de la realidad material, son sistemas auto-referenciales.

Según progresan las matemáticas en la era moderna se irán desarrollando más campos analíticos, desde el álgebra, el cálculo diferencial,  el cálculo de áreas,  la teoría de conjuntos, la probabilidad, la estadística, en donde lo que hacen es crear sistemas totalmente analíticos, en donde a partir de la investigación pura en sus respectivos campos, sin necesidad de mención de factores empíricos, desarrollan una teoría analítica, exenta de elementos factuales, de las que sin embargo su aplicación a la realidad externa permite el desarrollo de las ciencias naturales primero, y posteriormente las ciencias sociales desde el siglo XIX.

La principal diferencia entre un significado analítico y un significado empírico, es que mientras en el significado analítico carece de factores empíricos, el sintético es ante todo un significado empírico.

Mientras la definición matemática de segmento es la de una línea recta, es decir sin curvas, que va de un punto a otro que delimita los extremos, la definición de partícula, átomo, cuerpo celeste, ser vivo, ser humano, grupo social, nación, Estado, relaciones internacionales, implica una definición empírica.

La definición analítica no tiene por qué tener significado empírico, salvo que se aplique a la realidad material, que en tal caso deja de ser analítica para ser sintética.  Las proposiciones científicas por tanto pueden ser de dos tipos, sin significado empírico, analíticas, o con significado empírico, sintéticas. O, dentro de las ciencias sintéticas, la posible aceptación de hipótesis teóricas sin pruebas empíricas, siempre y cuando, el número de hipótesis teóricas que formen una teoría sea en número inferior a las hipótesis empíricas de las que dispongamos de pruebas de su significado, y en todo caso las hipótesis teóricas no entren en contradicción con sus respectivos modelos, y sean fundamentales para el sostenimiento de toda la construcción teórica posterior de la que si disponemos de pruebas.

Salvo que se trate de una hipótesis teórica, bajo las características mencionadas, cualquier otra proposición sintética que no sea hipótesis teórica, y no disponga de significado empírico, se dirá que es metafísica y se rechazará de la ciencia.

Por ejemplo, toda la teoría de las ciencias del espíritu postuladas a partir de Dilthey, y que tendrán resonancia en las teorías vitalistas de principios del siglo XX son un ejemplo de metafísica moderna. Los discursos New Age a partir de conceptos difusos de libertad, igualdad, espíritu o conciencia, sin fundamentación empírica, sintetizados a vagos conceptos de cambio de mentalidad o estilos de vida, en base a una nueva bio-etica eco-sistémica, son una nueva lectura del vitalismo, sólo que ahora llenos de orientalismo como rechazo al euro-centrismo,  combinados al post-estructuralismo y nuevas teorías de pseudo-emancipación individual o social.

Igualmente dentro del discurso de muchas agencias de investigación internacionales a menudo se observa la permanencia de la metafísica. Las ciencias de la complejidad si bien han desarrollado un importante cuerpo de fundamentaciones lógico matemáticas,  sin embargo mantiene conceptos del vitalismo, un ejemplo la definición de los modelos dinámicos en la auto-organización de la materia, los seres vivos, las poblaciones, y los macro-sistemas, en donde a los macro-sistemas les llega a conferir las mismas cualidades de auto-equilibrio dinámico que a los seres vivos. No en vano la teoría de Gaia ha vuelto a ser recuperada por algunos científicos de la complejidad, además de su intento por sintetizar ciencia y religión.

Una proposición metafísica es aquella que teniendo por referencia un factor empírico sin embargo la proposición carece de significado empírico, y no se ajusta a la definición de hipótesis teórica, motivo por el cual dicha proposición quedaría fuera de la ciencia. Dentro del conjunto que formen las posibles infinitas proposiciones sin significado empírico, sólo pertenecen a la ciencia el subconjunto de proposiciones sin significado empírico porque sean analíticas, y no entren en contradicción con sus respectivos modelos lógicos, o porque sean hipótesis teóricas, todas las demás serían metafísicas.

Una proposición analítica sin significado empírico será científica mientras no entre en contradicción con su respectivo modelo lógico: la única razón por la que dentro de la geometría euclidiana se mantuvo la tesis que paralelas son todas aquellas líneas rectas que no se cortan entre sí, a pesar de que no hay prueba alguna que lo demuestre, es porque, aun no pudiendo demostrarse, sin embargo no entraba en contradicción con el resto del modelo, motivo por el cual, a pesar de no poder demostrarse, permanecía dentro  la ciencia, en tanto que proposición analítica de la geometría euclidiana.

La razón por la cual Kant defendía la tesis del infinito, a pesar de que supone una antinomia lógica para la razón pura, es porque aunque no pueda demostrarse, no entra en contradicción con el resto del modelo, es más, en cierto sentido es uno de los pilares de la razón práctica. La filosofía de Kant aunque parte de presupuestos metafísicos, sin embargo ha sido en gran medida una teoría de la que se ha originado la epistemología contemporánea. El positivismo en cierto sentido lo hace es una reinterpretación del racionalismo crítico eliminando la metafísica para que la ciencia progrese a definiciones estrictamente positivas.

La teoría de la relatividad de Einstein fue sólo posible una vez que se rechazan las postulados metafísicos sobre el espacio y tiempo, además de la linealidad de Newton, por definiciones más operativas y positivas. Muchos de los grandes avances de las ciencias naturales en el siglo XX serán gracias al importante impacto del positivismo en la física y la biología.

Aunque el progreso en ciencias sociales en el siglo XX no ha sido igual de espectacular que en ciencias naturales, en comparación a las cuales les queda mucho por desarrollarse, los avances más importantes en ciencias sociales del siglo XX han venido por la comprensión crítica de la variable política e ideológica en las ciencias sociales, y la sistematización de las metodologías cuantitativas a imagen y semejanza que las ciencias naturales.

Pero por otro lado, dentro de las posibles infinitas proposiciones que sí tienen significado empírico no todas ellas permanecerán siempre dentro de la ciencia, dado que si han sido aceptadas dentro de la ciencia bajo determinadas condiciones de posibilidad, en caso que dichas condiciones fuesen refutadas, quedarían igualmente fuera de la ciencia.

Dentro de las infinitas proposiciones posibles, sólo serían científicas, luego sólo pueden formar parte de teorías, aquellas que careciendo de significado empírico sean analíticas y no entren en contradicción, y aquellas que teniendo significado empírico no hayan sido refutadas, o sean hipótesis teóricas. Todas las demás quedarían relegadas de la teoría de la ciencia.

Partiendo de estas asunciones sobre el significado en la ciencia, Probabilidad Imposible es una teoría en el campo de la estadística de la probabilidad o probabilidad estadística, en donde el establecimiento de significados se hará de forma similar a otras teorías en las ciencias analíticas, partiendo de unas primeras definiciones, sin contradicción entre ellas,  de las cuales establecerá relaciones ulteriores, y que tendrá importantes aplicaciones prácticas.

Las primeras definiciones fundamentales dentro de la teoría es la definición sobre qué es sujeto y qué es opción, a partir de la dialéctica hegeliana de sujeto y objeto, de la que se debe la identificación entre puntuación directa o frecuencia, que supone la identidad entre suceso u ocurrencia, identidad que reside en el propio hecho empírico, objeto de estudio, definiendo por tal motivo el concepto de universo y los tipos de universo, y estableciendo las definiciones de probabilidad empírica y probabilidad teórica, sobre las que se establecen los diferentes tipos de estudio,  modelos de estudio, y diferentes modelos de crítica racional, dentro de la síntesis que propone entre los tres paradigmas más importantes de la filosofía contemporánea, materialismo dialéctico, positivismo y racionalismo crítico.

La principal cualidad común entre materialismo dialéctico y positivismo es el rechazo a la metafísica, entre el materialismo dialéctico y racionalismo crítico la necesidad de la crítica, que para el materialismo implica la crítica política y para el racionalismo crítico la crítica racional, que se sintetiza en Probabilidad Imposible estableciendo que la razón crítica de la crítica racional es ante todo crítica política en tanto que depende de la política científica, y la principal cualidad común entre positivismo y racionalismo crítico es la necesidad de que lo que hoy consideramos ciencia debe ser aquel computo de conocimientos que al menos de momento no haya sido refutado.

El proceso de construcción analítica de los significados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística será partiendo de una lógica no lineal, la lógica dialéctica, en donde del análisis de los componentes del campo que estudia elabora los significados y los símbolos matemáticos que los representan, partiendo de un determinado método analítico, el silogismo de la tendencia, recreando toda una nueva teoría y redefinición de la estadística y la probabilidad.

Rubén García Pedraza, Madrid a 6 de septiembre del 2014