Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 20 de septiembre de 2014

Sesgo positivo en modelos normales

En Probabilidad Imposible el Nivel de Sesgo es  la diferencia de probabilidad empírica menos probabilidad teórica, cuando esa diferencia es de signo positivo se dice que hay sesgo positivo. La probabilidad empírica es igual a la puntuación directa o frecuencia de sujeto u opción entre el sumatorio de todas las puntuaciones directas o frecuencias, y la probabilidad teórica igual a la inversión de N, 1/N, siendo N el número total de sujetos u opciones. Las funciones universales de la inversión de N para cualquier tipo de universo, sea infinito o limitado, es la de probabilidad teórica en igualdad de oportunidades, y media aritmética de las probabilidades empíricas.


 Nivel de Sesgo =p(xi) – 1/N

 p(xi) > 1/N → p(xi) – 1/N = sesgo positivo
 

Modelos normales son aquellos en donde la dispersión de la muestra puede variar entre cero o máxima, dispersión cero cuando la tendencia de la muestra es a igualdad de oportunidades, a máxima cuando todos los sujetos u opciones tienden a su máximo sesgo posible. Los máximos sesgos posibles dependen del tipo de tendencia de cada sujeto u opción, en función si tienden a la Máxima Probabilidad Empírica Posible o Mínima Probabilidad Empírica Posible.

La Máxima Probabilidad Empírica Posible es la probabilidad empírica igual a la unidad, “1”, dado que la probabilidad es una dimensión que oscila entre cero, “0”, y uno, “1”, no pudiendo haber ninguna probabilidad por encima del valor uno, “1”, siendo por tanto el valor uno, “1” la Máxima Probabilidad Empírica Posible, y siendo cero, “0” la Mínima Probabilidad Empírica Posible dado que no puede haber probabilidades inferiores a cero, entre otros motivos porque las probabilidades son siempre relativas a sucesos positivos, nunca negativos.

Si el Nivel de Sesgo es igual a probabilidad empírica menos teórica,  y un sujeto u opción tiende a Máxima Probabilidad Empírica Posible, probabilidad uno, “1”, necesariamente la diferencia de la Máxima Probabilidad Empírica Posible menos la inversión de N, 1/N, es igual al Máximo Sesgo Teórico Posible.
 

 Máximo Sesgo Teórico Posible = 1 – 1/N

Máxima Probabilidad Empírica Posible = 1 → p(xi) = ( xi = Σxi) : Σxi
 

Luego si en una muestra N se da el caso que un sujeto u opción alcanza la Máxima  Probabilidad Empírica Posible, en la medida  que la probabilidad empírica es igual a puntuación directa o frecuencia entre sumatorio de puntuaciones directas o frecuencias, para que se de el caso que dicho cociente sea igual  a la unidad, es absolutamente imprescindible que la puntuación directa o frecuencia de ese sujeto u opción sea igual al sumatorio de puntuaciones directas o frecuencias, condición necesaria para que el resultado del cociente sea uno, que el valor de ambos factores del cociente sea idéntico, y si esto es así, y de N hay un sujeto u opción cuya puntuación directa o frecuencia es igual al sumatorio de puntuaciones directas o frecuencias lógicamente se debe a que el resto de sujetos u opciones, N menos unos, “N – 1”, es  decir, de N todos menos aquel sujeto u opción de probabilidad empírica igual a la unidad, todos los demás sujetos u opciones tienen probabilidad empírica cero, “0”, la Mínima Probabilidad Empírica Posible, luego si el Nivel de Sesgo es igual a probabilidad empírica menos teórica, y la empírica es igual a cero, entonces cero menos inversión de N es igual al Máximo Sesgo Negativo Posible.
 

0 – 1/N = Máximo Sesgo Negativo Posible

0 = Mínima Probabilidad Empírica Posible

 
Sólo y exclusivamente bajo condiciones que de toda N un único sujeto u opción tenga probabilidad empírica igual a uno, “1”, Máxima Probabilidad Empírica Posible, luego Máximo Sesgo Teórico Posible, luego todos los demás tengan probabilidad empírica igual a cero, Mínima Probabilidad Empírica Posible, luego Máximo Sesgo Negativo Posible, entonces la dispersión tiende a la máxima dispersión posible, lo cual se materializa en la Máxima Desviación Media Teórica Posible, Máxima Varianza Teórica Posible, y Máxima Dispersión Típica Teórica Posible

Máxima Desviación Media Teórica Posible = [ ( 1 –1/N) · 2 ] : N

Máxima Varianza Teórica Posible = {( 1 –  1/N )² + [1/N² ( N –  1) ]} :N

Máxima Desviación Típica Teórica Posible = √{{( 1 –  1/N )² + [1/N² ( N –  1) ]} :N}

 

Sólo bajo condiciones de tendencia de la muestra de sujetos u opciones a máxima dispersión posible, es decir, Máxima Desviación Media o Típica, Teórica Posible, entonces la muestra tiende a los máximos sesgos posibles, y viceversa.

Un modelo normal es aquel en donde la dispersión de la muestra oscila entre cero o máxima, si tiende a dispersión cero entonces es modelo normal de igualdad de oportunidades, si tiende a la dispersión máxima entonces es un modelo normal de sesgo.

Dentro de los estudios de sesgo normales hay que diferenciar entre estudios de sesgo positivo y estudios de sesgo negativo. Los estudios de sesgo negativo son aquellos que estudian la tendencia de los sujetos u opciones a sesgo negativo, mientras los estudios de sesgo positivo estudian la tendencia de los sujetos u opciones a sesgo positivo. En los estudios normales de sesgo positivo lo normal es que halla un sujeto u opción que por su condición ideal pretenda acumular toda la puntuación directa o frecuencia de la muestra, de modo que si la puntuación directa o frecuencia del sujeto u opción ideal fuera igual al sumatorio de puntuaciones directas o frecuencias entonces su probabilidad empírica sería la Máxima Probabilidad Empírica Posible.

Un ejemplo normal de modelo en donde cada sujeto u opción del modelo tiende a ser el que intente la acumulación de todas las puntuaciones directas o frecuencias es en las elecciones democráticas. Si en unas elecciones se presentan varios candidatos de diversos partidos, y el objetivo de cada partido en la campaña electoral es que todos los posibles votantes voten a su candidato, entonces lo que cada partido pretende es que la probabilidad empírica en la intención de voto a su candidato en las elecciones sea la Máxima Probabilidad Empírica Posible, lo que todos los partidos desean es que todos los votantes voten a su candidato, en lugar al resto de adversarios, luego el resto de adversarios logren la Mínima Probabilidad Empírica Posible.

Si en una economía de libre mercado una serie de corporaciones empresariales compiten por la venta de su producto para cubrir una determinada demanda específica, lo que cada compañía intentará es que la tendencia en la compra de su producto tiende a la Máxima Probabilidad Empírica Posible, y el resto de sus competidores tiendan a la Mínima Probabilidad Empírica Posible.

Si en un juego de competición, ya sea entre dos personas, como el tenis, o de equipo como el baloncesto, gana quien más puntos consiga, el objeto de cada contrincante, sea individual o grupal, es que logre la mayoría de puntos, y el adversario no logre ninguno, es decir, cada participante lucha por la Máxima Probabilidad Empírica Posible, lo cual implica que el adversario tienda a la Mínima Probabilidad Empírica Posible.

Si en un test de opciones múltiples, por cada pregunta sólo hay una opción correcta, y las demás son incorrectas, lo ideal sería que por cada pregunta toda las personas que respondan el test marquen la única opción correcta, de modo que cada opción correcta del test tienda a la Máxima Probabilidad Empírica Posible, y las demás a la Mínima Probabilidad Empírica Posible.

En el momento que en un modelo normal se da la circunstancia que dada una muestra N se da el caso que de toda N hay un sujeto u opción que tiende a Máxima Probabilidad Empírica Posible, luego Máximo Sesgo Positivo Posible, entonces se trataría de un modelo normal de sesgo positivo, en donde aquel sujeto u opción que se manifieste ideal tenderá a la mayor probabilidad empírica y el mayor sesgo positivo en comparación con los demás sujetos u opciones.

Para determinar que el sesgo positivo del  sujeto u opción ideal tiende de forma suficiente y racional a la Máxima Probabilidad Empírica Posible y Máximo Sesgo Teórico Posible, dentro de la teoría de Probabilidad Imposible se desarrollan diferentes pruebas estadísticas de contraste de hipótesis para la crítica racional de la tendencia observada, a fin de criticar si la tendencia manifestada por el sujeto u opción es suficientemente racional.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se explican los diferentes modelos de crítica racional, distinguiéndose entre crítica racional en estudios intramedicionales, a partir de una sóla medición, o intermedicionales, a partir de dos mediciones. Los estudios intramedicionales son necesariamente intramuestrales, una  única medición perteneciente a una única muestra, los estudios intermedicionales pueden ser intramuestrales o intermmuestrales. Los estudios intermedicionales intramuestrales son varias mediciones sobre una misma muestra, los estudios intermedicionales intermuestrales serían sobre varias mediciones en varias muestras.

Dentro de cada tipo de estudio inter/intra-medicional/muestral, la crítica racional debe hacerse tanto a nivel individual y a nivel muestral.  A nivel individual para determinar que la tendencia individual de cada sujeto u opción es suficientemente racional, que la tendencia a sesgo positivo del ideal es suficientemente racional para aceptarse provisionalmente, o que la tendencia a sesgo negativo de los demás sujetos u opciones es suficientemente racional como para representar una suficiente tendencia a dispersión máxima. A nivel muestral la crítica racional es necesaria para descartar cualquier otra variable de error en el contraste de hipótesis, a fin que si finalmente se acepta el ideal el margen de error se minimice, además de porque la razón crítica de la política científica sea moralmente exigente, porque además se ha controlado la incidencia de la dispersión asociada a la magnitud de la muestra.

Los modelos de crítica racional pueden ser de dos tipos, en forma de diferenciales o proporcionales. La crítica racional de diferenciales es cuando la contraposición entre valores teóricos y empíricos se hace sobre la diferencia entre ambos, y sólo se acepta racional la tendencia en la diferencia a partir de una razón crítica. La crítica racional proporcional es cuando la relación entre valores teóricos y empíricos se hace en forma de proporción, siendo la tendencia de la proporción lo que se crítica.

Los modelos de crítica racional intramedicional, para modelos normales y omega, y dentro de los modelos normales los estudios de sesgo positivo, tanto a nivel individual y muestral, criticando diferencias o proporciones entre valores empíricos y teóricos, se expone en el apartado 11 para el Segundo Método, adaptándose en el apartado 12 para el primer método, el que trabaja directamente con puntuaciones directas o frecuencias sin transformarlas a probabilidades.

En el apartado 14 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se exponen modelos de crítica racional para estadísticas relativas, y en el apartado 15 de forma adaptada a la curva normal.

Los modelos de crítica racional en modelos normales y omega, y dentro de los normales para sesgo positivo, para estudios intermedicionales, sean intramuestrales o intermuestrales, se exponen entre los apartados 16 y 20, de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, integrándose además las predicciones, ya sean proyectivas, proyectos ideales sobre un valor empírico, o pronósticas, pronósticos reales sobre dos valores empíricos.

 

Rubén García Pedraza, Madrid a 20 septiembre del 2014

 


https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/                                     

sábado, 6 de septiembre de 2014

El significado de la ciencia



El significado es aquel concepto u operación que se entiende o conviene que representa un signo, en función de un sistema de atribuciones, de un significado a un signo, atribución que puede ser  causal, correlacional, o social. Dentro de los diferentes tipos de atribución la más exacta y exhaustiva es la científica.

Un significado es conceptual cuando el signo que lo representa simboliza un concepto, y es operacional cuando simboliza una operación. Por ejemplo la palabra “amor” representa el concepto asociado a un sentimiento, y el símbolo “+” en matemáticas representa la operación de suma.

Aunque la diferencia entre concepto u operación depende de la escuela filosófica. Hay paradigmas que entienden que los significados asociados a operaciones lo que simbolizan es el concepto asociado a la operación, de modo que todo signo representaría siempre un concepto, ya fuese cognoscitivo, operativo, o emocional. A estas posiciones se las denominaría conceptualistas.

En la teoría del operacionalismo sin embargo esta identificación no sería del todo válida, en la medida que lejos de basar la ciencia en el conceptualismo, lo basa en el positivismo operacionalista, la ciencia más que un conjunto de conceptos es un conjunto de operaciones bajo condiciones de control y neutralidad, para la obtención de resultados positivos.

Independientemente de que el paradigma de partida sea conceptualista u operacionalista, en la génesis del lenguaje se darán una serie de factores.

El signo que representa un significado puede ser de diversa índole, no necesariamente implica una lengua , si sale el sol probablemente se hará de día . Si en el bosque vemos la huella de un animal significa que ese animal ha pasado por ahí, y según el tipo de huella, si disponemos de una taxonomía de huellas, sabríamos a qué tipo de animal representa. La huella en sí misma es el símbolo del paso de ese animal por la realidad. Si los días se van haciendo largos significa que va llegando el verano, si se van haciendo cortos significa que va llegando el invierno.  De hecho, en función del número de días que han pasado desde que los días han empezado a hacerse más cortos o más largos podríamos saber aproximadamente, bajo un margen de error, cuando van a ser las próximas lluvias, cuando va a llegar la época de la siembra, la cosecha, y las inundaciones. En función de la repetición de sucesos de forma reiterada, aceptándose si acaso un margen de error, elaboramos significados sobre la realidad, en función de los cuales interpretamos lo que sucede,  y sobre las atribuciones sociales a determinados símbolos o conjuntos fónicos la formación del lenguaje.

La atribución por la cual la salida del sol o la huella de un animal significa que probablemente se hará de día o por ese sitio haya pasado ese animal, es una atribución causal o correlacional, en donde dicho signo es causa o efecto probable de otro fenómeno. Si sale el sol es causa probable de que se hará de día, aunque la intensidad de la luz dependerá de muchos factores, que ese día el cielo no esté  tan encapotado que a penas deje traspasar los rayos de sol por las nubes o la niebla, o se produzca un eclipse. Si hay huellas de animales se entiende que hay posibilidad de que algún animal haya pasado por ese sitio, la huella es el signo del probable efecto del paso de animales.

Del mismo modo que el sol o las huellas son un signo físico de un fenómeno, las pinturas rupestres que representan al sol y la luna, o el dibujo de unos animales en la pared de una cueva, antropológicamente fue la representación simbólica de unos signos, y la construcción social del lenguaje, una elaboración mucho más compleja de los procesos atribucionales.

En el momento que a una determinada combinación fonética, en lenguaje hablado, o símbolos, en lenguaje escrito, socialmente atribuimos un significado es cuando empezamos la elaboración del lenguaje, a  partir de una serie convenciones sociales, que se denomina convencionalismo social. El hecho que para el cálculo integral utilicemos el sistema de notación de Leibniz en lugar del sistema de Newton, es un ejemplo de convencionalismo social aplicado a la ciencia, sobre una determinada lectura del principio de eficiencia social del lenguaje científico.

La construcción de significados es una función psicológica que no es exclusiva de la especie humana, en función de su nivel de inteligencia las especies son capaces de atribuciones sobre su entorno, entendiendo el significado de lo que ocurre en función de su capacidad cognoscitiva, y en las especies más complejas o evolucionadas la construcción de lenguajes, por ejemplo el lenguaje de las ballenas, y dentro de los lenguajes de las diversas especies animales el paradigma de lenguaje es el lenguaje humano, dado su enorme potencial de expresión racional y emocional, y dentro del lenguaje racional el lenguaje lógico-matemático.

La lengua es producto de un largo proceso de construcción histórica, que abarca desde los primeros proto-lenguajes de las primeras culturas del paleolítico inferior, antesala de la posterior aparición de las primeras lenguas habladas, y de ahí el desarrollo de la escritura y la historia, progresando a los primeros sistemas de lenguaje lógico-matemático de la era antigua, pitagóricos, euclideos, aristotéticos, el sistema numérico hindu-árabe …, de cuya evolución y progreso surge la ciencia moderna.

Las matemáticas tienen la doble función de ser en sí misma una disciplina científica englobada dentro de las ciencias analíticas, para cuyo desarrollo y progreso es necesaria la investigación matemática pura, al  mismo tiempo que para el resto de ciencias sintéticas las matemáticas son un lenguaje que se utiliza en el plano de la investigación aplicada.

El proceso de construcción histórico del lenguaje matemático, en un principio tuvo que ser paralelo a la construcción de las lenguas, dado que según las sociedades sistematizan la atribución social de significados a determinados signos lingüísticos, uno de los primeros signos que las sociedades elaboran, necesariamente para resolver complicados problemas matemáticos, es la construcción del concepto de número, en un primer momento los números naturales, y determinados algoritmos básicos, de suma, resta, multiplicación y división. Unas primeras definiciones matemáticas de las que posteriormente surgirá una de las ciencias analíticas más importantes, las matemáticas, y de las cuales en el terreno de la filosofía surge la lógica.

Hay que diferenciar entre la lógica implícita en todo sistema lingüístico, que se produce de forma natural en la evolución natural de la lengua, y la lógica como disciplina científica, cuyo origen se remonta a los comienzos de la filosofía, y cuyo principal exponente durante milenios ha sido la lógica aristotélica, la lógica lineal. La crítica a la lógica lineal se formula en la era moderna paralelamente a la crítica de la geometría euclidiana. La relación entre lógica aristotélica y geometría euclidiana se debe a que Euclides es el paradigma matemático en la Grecia clásica, y lo seguirá siendo durante gran parte de la era moderna,  al  igual que el aristotelismo será el paradigma hegemónico de la metafísica escolástica . Euclides y Aristóteles representan los modelos de geometría y lógica lineal a los que se opondrán las matemáticas y la lógica moderna, por ejemplo, las geometrías no euclidianas del siglo XIX y la lógica dialéctica hegeliana.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se entiende que las matemáticas son una ciencia analítica, al mismo tiempo que lenguaje aplicado a las ciencias sintéticas, donde la lógica de fondo que subyace al modelo es una lógica no lineal de carácter dialéctica, razón por la cual sintetiza el materialismo dialéctico al positivismo y al racionalismo crítico. Dentro de la lógica dialéctica el modo en que se interpreta el silogismo,  basado en sus tres fases de: primera premisa, segunda premisa, y conclusión; es identificado las tres fases del silogismo a las tres fases de la dialéctica hegeliana: tesis, antítesis, síntesis; razón por la cual en Probabilidad Imposible se habla continuamente de sujeto u opción, la puntuación directa o frecuencia, en tanto que síntesis de la dialéctica de sujeto y objeto en matemáticas, sintetizando así estadística y probabilidad. En Probabilidad Imposible la permanente dialéctica de los opuestos se observa de forma continua, ya sea en el modo en que se diferencia entre tipos de universos opuestos,  infinitos o limitado, o tipos opuestos de estudios, de igualdad o sesgo, en dos tipos de modelos diferentes, normales u omega.

De este modo en coherencia a la clasificación de las ciencias que hace Probabilidad Imposible, ciencias analíticas y ciencias sintéticas, habría que distinguir entre dos tipos de significados, significados analíticos y significados sintéticos.

La propia clasificación de las ciencias que propone Probabilidad Imposible pone ya de manifiesto la síntesis entre materialismo dialéctico y racionalismo crítico, en la medida que coloca a los elementos analíticos y sintéticos, propios del racionalismo crítico, en relación de oposición e identidad. Oposición en tanto que los analíticos no dependen de valores empíricos,  y los sintéticos sí, siendo sintéticos en tanto que sintetizan conceptos analíticos y factores empíricos. La identidad entre los analíticos y los sintéticos se produce en el momento que se reconoce que la disciplina común a ambos modelos de ciencias son la lógica y las matemáticas.

Si bien no en todas las ciencias analíticas, por ejemplo las lingüísticas, o el análisis del arte, las matemáticas aparentemente no están presentes, lo que en análisis hay siempre de fondo es la necesidad de una lógica por mínima que sea, ya sea en el establecimiento de definiciones, en tanto que función de equidad entre lo que se define y la definición, o en la elaboración de clasificaciones que lógicamente siempre debe hacerse bajo algún criterio, por mínimo que sea, y cuyo resultado es la elaboración de conjuntos. Sin lógica no hay estructura posible del lenguaje, ya sea a nivel morfosintáctico o semántico. En todo lenguaje como mínimo debe haber una mínima definición de sus elementos y clasificación de su componentes, lo cual implica una mínima estructura basada en funciones de equidad y  teoría conjuntos.

En el momento que se integra la teoría de conjuntos en cualquier proceso o sistema se integra de facto la lógica y la teoría de la probabilidad, sea el análisis que sea, incluido el análisis del arte. Cuando a mediados del siglo XX empezaron los primeros críticos de arte la discusión sobre la postmodernidad, ya establecieron un criterio de clasificación en dos grandes conjuntos, arte moderno y postmoderno, y dentro de cada tipo sus variantes y clasificaciones.

El sistema analítico paradigmático de atribución de significados es el lógico-matemático, en la medida que es capaz de elaboración de complejos sistemas de atribución de significados sin necesidad de ninguna otra referencia más que a sí mismo. Un ejemplo de ello es la geometría euclidiana, en donde a partir de unas definiciones básicas desarrolla todo un sistema geométrico totalmente analítico sin una sola definición dependiente de factores empíricos o sistemas externos, teniendo por base la lengua materna, el griego clásico, pero sobre el que elabora un lenguaje geométrico mucho más abstracto.

Para la elaboración de su sistema geométrico Euclides prescindió de cualquier mención a cualquier fenómeno empírico, la principal característica analítica del modelo de Euclides es que sin mencionar ni un solo elemento factual , sólo y exclusivamente a través de la investigación pura, diseña un modelo geométrico que después en investigación aplicada se aplica a infinidad de ciencias sintéticas.

De igual modo la geometría proyectiva del siglo XVII, o los geometrías no euclidianas del siglo XIX, y las que van apareciendo posteriormente en el siglo XX, diseñan modelos geométricos puramente analíticos en donde sin referencia a elementos externos, más que el uso de la propia lengua del científico, en lugar de griego clásico las lenguas romances, son capaces de elaborar modelos matemáticos autónomos, sin ninguna necesidad de mención de la realidad material, son sistemas auto-referenciales.

Según progresan las matemáticas en la era moderna se irán desarrollando más campos analíticos, desde el álgebra, el cálculo diferencial,  el cálculo de áreas,  la teoría de conjuntos, la probabilidad, la estadística, en donde lo que hacen es crear sistemas totalmente analíticos, en donde a partir de la investigación pura en sus respectivos campos, sin necesidad de mención de factores empíricos, desarrollan una teoría analítica, exenta de elementos factuales, de las que sin embargo su aplicación a la realidad externa permite el desarrollo de las ciencias naturales primero, y posteriormente las ciencias sociales desde el siglo XIX.

La principal diferencia entre un significado analítico y un significado empírico, es que mientras en el significado analítico carece de factores empíricos, el sintético es ante todo un significado empírico.

Mientras la definición matemática de segmento es la de una línea recta, es decir sin curvas, que va de un punto a otro que delimita los extremos, la definición de partícula, átomo, cuerpo celeste, ser vivo, ser humano, grupo social, nación, Estado, relaciones internacionales, implica una definición empírica.

La definición analítica no tiene por qué tener significado empírico, salvo que se aplique a la realidad material, que en tal caso deja de ser analítica para ser sintética.  Las proposiciones científicas por tanto pueden ser de dos tipos, sin significado empírico, analíticas, o con significado empírico, sintéticas. O, dentro de las ciencias sintéticas, la posible aceptación de hipótesis teóricas sin pruebas empíricas, siempre y cuando, el número de hipótesis teóricas que formen una teoría sea en número inferior a las hipótesis empíricas de las que dispongamos de pruebas de su significado, y en todo caso las hipótesis teóricas no entren en contradicción con sus respectivos modelos, y sean fundamentales para el sostenimiento de toda la construcción teórica posterior de la que si disponemos de pruebas.

Salvo que se trate de una hipótesis teórica, bajo las características mencionadas, cualquier otra proposición sintética que no sea hipótesis teórica, y no disponga de significado empírico, se dirá que es metafísica y se rechazará de la ciencia.

Por ejemplo, toda la teoría de las ciencias del espíritu postuladas a partir de Dilthey, y que tendrán resonancia en las teorías vitalistas de principios del siglo XX son un ejemplo de metafísica moderna. Los discursos New Age a partir de conceptos difusos de libertad, igualdad, espíritu o conciencia, sin fundamentación empírica, sintetizados a vagos conceptos de cambio de mentalidad o estilos de vida, en base a una nueva bio-etica eco-sistémica, son una nueva lectura del vitalismo, sólo que ahora llenos de orientalismo como rechazo al euro-centrismo,  combinados al post-estructuralismo y nuevas teorías de pseudo-emancipación individual o social.

Igualmente dentro del discurso de muchas agencias de investigación internacionales a menudo se observa la permanencia de la metafísica. Las ciencias de la complejidad si bien han desarrollado un importante cuerpo de fundamentaciones lógico matemáticas,  sin embargo mantiene conceptos del vitalismo, un ejemplo la definición de los modelos dinámicos en la auto-organización de la materia, los seres vivos, las poblaciones, y los macro-sistemas, en donde a los macro-sistemas les llega a conferir las mismas cualidades de auto-equilibrio dinámico que a los seres vivos. No en vano la teoría de Gaia ha vuelto a ser recuperada por algunos científicos de la complejidad, además de su intento por sintetizar ciencia y religión.

Una proposición metafísica es aquella que teniendo por referencia un factor empírico sin embargo la proposición carece de significado empírico, y no se ajusta a la definición de hipótesis teórica, motivo por el cual dicha proposición quedaría fuera de la ciencia. Dentro del conjunto que formen las posibles infinitas proposiciones sin significado empírico, sólo pertenecen a la ciencia el subconjunto de proposiciones sin significado empírico porque sean analíticas, y no entren en contradicción con sus respectivos modelos lógicos, o porque sean hipótesis teóricas, todas las demás serían metafísicas.

Una proposición analítica sin significado empírico será científica mientras no entre en contradicción con su respectivo modelo lógico: la única razón por la que dentro de la geometría euclidiana se mantuvo la tesis que paralelas son todas aquellas líneas rectas que no se cortan entre sí, a pesar de que no hay prueba alguna que lo demuestre, es porque, aun no pudiendo demostrarse, sin embargo no entraba en contradicción con el resto del modelo, motivo por el cual, a pesar de no poder demostrarse, permanecía dentro  la ciencia, en tanto que proposición analítica de la geometría euclidiana.

La razón por la cual Kant defendía la tesis del infinito, a pesar de que supone una antinomia lógica para la razón pura, es porque aunque no pueda demostrarse, no entra en contradicción con el resto del modelo, es más, en cierto sentido es uno de los pilares de la razón práctica. La filosofía de Kant aunque parte de presupuestos metafísicos, sin embargo ha sido en gran medida una teoría de la que se ha originado la epistemología contemporánea. El positivismo en cierto sentido lo hace es una reinterpretación del racionalismo crítico eliminando la metafísica para que la ciencia progrese a definiciones estrictamente positivas.

La teoría de la relatividad de Einstein fue sólo posible una vez que se rechazan las postulados metafísicos sobre el espacio y tiempo, además de la linealidad de Newton, por definiciones más operativas y positivas. Muchos de los grandes avances de las ciencias naturales en el siglo XX serán gracias al importante impacto del positivismo en la física y la biología.

Aunque el progreso en ciencias sociales en el siglo XX no ha sido igual de espectacular que en ciencias naturales, en comparación a las cuales les queda mucho por desarrollarse, los avances más importantes en ciencias sociales del siglo XX han venido por la comprensión crítica de la variable política e ideológica en las ciencias sociales, y la sistematización de las metodologías cuantitativas a imagen y semejanza que las ciencias naturales.

Pero por otro lado, dentro de las posibles infinitas proposiciones que sí tienen significado empírico no todas ellas permanecerán siempre dentro de la ciencia, dado que si han sido aceptadas dentro de la ciencia bajo determinadas condiciones de posibilidad, en caso que dichas condiciones fuesen refutadas, quedarían igualmente fuera de la ciencia.

Dentro de las infinitas proposiciones posibles, sólo serían científicas, luego sólo pueden formar parte de teorías, aquellas que careciendo de significado empírico sean analíticas y no entren en contradicción, y aquellas que teniendo significado empírico no hayan sido refutadas, o sean hipótesis teóricas. Todas las demás quedarían relegadas de la teoría de la ciencia.

Partiendo de estas asunciones sobre el significado en la ciencia, Probabilidad Imposible es una teoría en el campo de la estadística de la probabilidad o probabilidad estadística, en donde el establecimiento de significados se hará de forma similar a otras teorías en las ciencias analíticas, partiendo de unas primeras definiciones, sin contradicción entre ellas,  de las cuales establecerá relaciones ulteriores, y que tendrá importantes aplicaciones prácticas.

Las primeras definiciones fundamentales dentro de la teoría es la definición sobre qué es sujeto y qué es opción, a partir de la dialéctica hegeliana de sujeto y objeto, de la que se debe la identificación entre puntuación directa o frecuencia, que supone la identidad entre suceso u ocurrencia, identidad que reside en el propio hecho empírico, objeto de estudio, definiendo por tal motivo el concepto de universo y los tipos de universo, y estableciendo las definiciones de probabilidad empírica y probabilidad teórica, sobre las que se establecen los diferentes tipos de estudio,  modelos de estudio, y diferentes modelos de crítica racional, dentro de la síntesis que propone entre los tres paradigmas más importantes de la filosofía contemporánea, materialismo dialéctico, positivismo y racionalismo crítico.

La principal cualidad común entre materialismo dialéctico y positivismo es el rechazo a la metafísica, entre el materialismo dialéctico y racionalismo crítico la necesidad de la crítica, que para el materialismo implica la crítica política y para el racionalismo crítico la crítica racional, que se sintetiza en Probabilidad Imposible estableciendo que la razón crítica de la crítica racional es ante todo crítica política en tanto que depende de la política científica, y la principal cualidad común entre positivismo y racionalismo crítico es la necesidad de que lo que hoy consideramos ciencia debe ser aquel computo de conocimientos que al menos de momento no haya sido refutado.

El proceso de construcción analítica de los significados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística será partiendo de una lógica no lineal, la lógica dialéctica, en donde del análisis de los componentes del campo que estudia elabora los significados y los símbolos matemáticos que los representan, partiendo de un determinado método analítico, el silogismo de la tendencia, recreando toda una nueva teoría y redefinición de la estadística y la probabilidad.

Rubén García Pedraza, Madrid a 6 de septiembre del 2014
 

 
https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/