PROBABILIDAD IMPOSIBLE


Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿ quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


imposiblenever@gmail.com

@imposiblenever

sábado, 6 de diciembre de 2014

Estadística de la Probabilidad


 
La estadística y la probabilidad son dos disciplinas que aparecen históricamente en épocas diferentes, y tienden a fusionarse. La teoría de la probabilidad surge en la Edad Media, para el estudio de los juegos de azar, motivo por el cual la definición clásica es número de casos favorables entre total de casos. El uso de la estadística en cambio data de la Antigüedad,  aunque como teoría matemática en la era moderna, en un principio para la elaboración de censos poblacionales, práctica que deviene de las primeras grandes civilizaciones.

 

Si bien los primeros matemáticos de la antigüedad, Pitágoras, Euclides, Arquimedes, Deofonte… nunca se preocuparon por la probabilidad y la estadística, en la era moderna se observa un importante desarrollo de ambas, evolucionando de forma conjunta. Hoy en día en los manuales de estadística es habitual la mención de la teoría de la probabilidad, y aunque la probabilidad ha sido integrada en la estadística, sin embargo, no toda estadística implica probabilidad.

 

La tendencia a la fusión de estadística y probabilidad se observa en diferentes momentos de la historia de las matemáticas, la curva normal de Gauss transforma el cálculo integral en cálculo de probabilidades en función de la frecuencia acumulada, y a principios del siglo XX el uso de la frecuencia relativa para la estimación de la probabilidad estadística. Una de las razones de  por qué el positivismo se interesa en la probabilidad es para la determinación de la probabilidad de certeza de una proposición empírica, lo cual lleva al contraste de hipótesis.

 

Probabilidad Imposible tiende a la síntesis completa de probabilidad y  estadística . Hasta el momento ha habido teorías que tienden a la fusión de ambas, pero respetado sus límites tradicionales, mientras para Probabilidad Imposible toda probabilidad es estadística y toda estadística es probabilidad, en esencia, la aparición de un nuevo campo de conocimiento, la estadística de la probabilidad o probabilidad estadística.

 

El concepto de probabilidad estadística se refiere a un tipo de probabilidad, a principios del siglo XX asociada a probabilidad frecuencial, que no era otra cosa que la frecuencia relativa, mientras en Probabilidad Imposible el concepto de probabilidad estadística se redefine, en la medida que se integran diversos tipos de probabilidades estadísticas, no ajustándose ninguna de ella de forma estricta a la noción de frecuencia relativa, salvo parcialmente la probabilidad empírica, y sólo parciamente. La semejanza que pueda haber entre probabilidad empírica y frecuencia relativa  se  debe únicamente a que dentro del concepto de probabilidad empírica se integran las frecuencias, aunque en igualdad de condiciones que las puntuaciones directas. Mientras la frecuencia relativa es igual a la frecuencia de un elemento entre frecuencia total, en Probabilidad Imposible la probabilidad empírica de sujeto u opción es igual a la puntuación directa o frecuencia del sujeto u opción entre el sumatorio de las puntuaciones directas o frecuencias de todos los  sujetos u opciones, de modo que el trato estadístico que se da a la frecuencia es exactamente el mismo que se da a la puntuación directa, no habiendo diferencias en el tratamiento de la información según sean puntuaciones directas o frecuencias, todo dato, independientemente que sea de la medición de la frecuencia o la medición de la puntuación directa, todo información derivada de una medición recibe el mismo tratamiento estadístico en la probabilidad empírica.

 

La probabilidad estadística hace referencia a un concepto de la probabilidad, o a un modo de operación o cálculo de la probabilidad, en cualquier caso qué entendemos en estadística por probabilidad, y lo que Probabilidad Imposible entiende por probabilidad estadística es toda aquella estimación de posibilidad, sea empírica, teórica, crítica o ideal, que se genere del estudio de relaciones entre hechos o fenómenos en condiciones estocásticas. De modo que integra al conjunto de probabilidades estadísticas de: probabilidad empírica, probabilidad teórica, probabilidad ideal, y probabilidad crítica.

 

Mientras el concepto de probabilidad estadística hace referencia a que entendemos por probabilidad, estadística de la probabilidad hace referencia al uso de técnicas estadísticas para el estudio de la probabilidad, independientemente de nuestro concepto de probabilidad

 

A la estadística tradicional en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se denomina primer método, para diferenciarlo del Segundo Método de Probabilidad Imposible. Si en un estudio estadístico que utilice la estadística tradicional o primer método, una vez que se ha hecho un tratamiento tradicional de la información, se somete a técnicas de probabilidad como la curva normal, o se hacen estudios de probabilidad sobre frecuencias relativas, lo que dentro de la estadística tradicional se estaría haciendo es un estudio estadístico de la probabilidad, sólo que aplicando métodos tradicionales, la puntuación Z en la curva de Gauss o la probabilidad frecuencial.

 

En la estadística tradicional, la estadística de la probabilidad más habitual se basa en la curva normal, calculando probabilidades sobre áreas que reflejan frecuencias acumuladas, o bien el empleo de frecuencias relativas.

 

En el segundo Método de Probabilidad Imposible la estadística de la probabilidad adquiere una dimensión mucho más desarrollada, en la medida que el modo en que se estudia el comportamiento de los sujetos u opciones a través de sus probabilidades empíricas, es exactamente aplicando las mismas técnicas estadísticas que para puntuaciones directas. De modo que sobre las probabilidades empíricas, ya sean calculadas de frecuencias o puntuaciones directas, independientemente del origen de las mediciones, se aplican técnicas de estadística descriptiva y estadística inferencial.

 

La estadística descriptiva sobre las probabilidades empíricas se inicia a partir de la diferenciación entre cada probabilidad empírica y la probabilidad teórica, que se denomina Nivel de Sesgo de sujeto u opción, siendo en esencia similar a la puntuación diferencial del primer método, la estadística tradicional, pero con una diferencia notoria, con independencia de que la muestra sea una muestra de ceros, es decir, todos los sujetos u opciones tuvieran probabilidad empírica igual a cero, el Nivel de Sesgo nunca será igual a cero, algo que nunca sucedería en la puntuación diferencial de la estadística tradicional, el primer método, donde si toda la muestra es igual a cero entonces la puntuación diferencial es igual a cero, luego la dispersión es igual a cero. En el Segundo Método en la medida que el Nivel de Sesgo es la comparación entre probabilidad empírica y teórica, e independientemente que todas las probabilidades empíricas de todos los sujetos u opciones tuvieran probabilidad empírica igual a cero sin embargo la probabilidad teórica seguiría siendo igual a inversión de N, aunque una muestra fuera una muestra de ceros, es decir, todas las probabilidades empíricas igual a cero, se daría el caso que el Nivel de Sesgo de todo sujeto u opción sería igual a menos inversión de N, - 1/N, el Máximo Sesgo Negativo Posible, luego la dispersión de la muestra igual a inversión de N, 1/N, siendo esta una diferencia importante entre Segundo Método y primer método, que la dispersión al calcularse sobre una probabilidad estadística de carácter teórico, la probabilidad teórica, inversión de N, 1/N, la dispersión nunca sería cero por el simple motivo que la muestra de puntuaciones directas o frecuencias fuera igual a cero. La única razón que justifica que la dispersión sea cero es que el comportamiento de la muestra tienda a igualdad de oportunidades de forma absoluta.

 

A partir de la aplicación de técnicas de estadística descriptiva sobre las probabilidades empíricas del Segundo Método de Probabilidad Imposible, se pueden realizar procesos ulteriores de crítica racional a través de la estadística inferencial, de modo que la estadística de la probabilidad en Probabilidad Imposible, significa que dada una definición de probabilidad estadística, la posibilidad de aplicar a las probabilidades estadísticas el mismo trato estadístico que a cualquier otro conjunto de datos que estuvieran en formato diferente al de probabilidad.

 

Mientras probabilidad estadística significa una determinada definición y concepto de probabilidad, que en su formato tradicional implica probabilidad frecuencial, y en Probabilidad Imposible un conjunto de probabilidades estadísticas que incluyen probabilidad empírica, teórica, ideal y crítica, la estadística de la probabilidad implica el uso de técnicas estadísticas para estudiar las probabilidades, en de Probabilidad Imposible sobre su propia definición de probabilidad estadística, sobre las que se aplican técnicas de estadística descriptiva e inferencial

 
Rubén García Pedraza, Madrid  7 de diciembre del 2014





http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible
 

sábado, 15 de noviembre de 2014

Sesgo positivo en modelos omega


Sesgo positivo es cuando la diferencia entre la probabilidad empírica de sujeto u opción menos la probabilidad teórica o inversión de N es igual a un valor de signo positivo. A dicha diferencia se le denomina Nivel de Sesgo en el Segundo Método de la teoría de Probabilidad Imposible, los modelos en los que se aplica son dos, modelos normales y modelos omega.

Los modelos normales son aquellos en donde la dispersión puede variar entre cero o máxima, dispersión cero cuando se dan condiciones de igualdad de oportunidades, lo que en la estadística tradicional, el Primer Método se ha conocido por principio de indiferencia, y dispersión máxima cuando la dispersión tiende a su máximo valor posible. En el Segundo Método de Probabilidad Imposible el cálculo de la máxima dispersión se hace  a partir de considerar que bajo condiciones normales la máxima dispersión se produce cuando de toda N hay al menos un sujeto u opción, que por el motivo que sea tiende a Máxima Probabilidad Empírica Posible, cuando la probabilidad es iguala uno, “1”, luego su Nivel de Sesgo tiende a Máximo Sesgo Teórico Posible, igual a “1 –1/N”, de modo que los demás sujetos u opciones, N menos uno, “N –1”, tienden a la Mínima Probabilidad Empírica Posible, probabilidad igual a cero, “0”, que es la Probabilidad Imposible, de modo que generan el Máximo Sesgo Negativo Posible, cero menos inversión de N, “0 – 1/N”. Bajo estas condiciones de máxima dispersión el modelo tendería a Máxima Desviación Media Teórica Posible, Máxima Varianza Teórica Posible, y Máxima Desviación Típica Teórica Posible.

 

Máxima Desviación Media Teórica Posible =  [ ( 1 – 1/N) · 2 ] : N

 

Máxima Varianza Teórica Posible = {  ( 1 – 1/N)² + [ 1/N² · ( N – 1 ) ] } : N

 

Máxima Desviación Típica Teórica Posible =√ { {  ( 1 – 1/N)² + [ 1/N² · ( N – 1 ) ] } : N  }

 

Cualquier modelo en donde lo normal sea que la dispersión varía entre cero o máxima sería un modelo normal, mientras que en los modelos omega la  dispersión tiende a localizarse entre modelos de dispersión omega.

En la teoría de Probabilidad Imposible se denomina omega a todo modelo en donde dada una muestra N de sujetos u opciones, dentro del conjunto N hay un subonjunto de sujetos u opciones ideales, a ese subconjunto se llamará omega, y se representará con la letra omega, Ω, del alfabeto griego. El motivo por el cual en Probabilidad Imposible se denomina omega a dicho subconjunto de sujetos u opciones dentro de N se debe a que, dentro del idealismo matemático de Probabilidad Imposible, se entiende que dado un conjunto N en donde haya un subconjunto de ideales, cuya naturaleza ideal radica ya bien porque son un ideal de logro, perfección, o un ideal en la realización de una acción, ya sea en términos de eficiencia o eficacia, sea por el motivo que sea lo ideal es que para ese conjunto de elementos omega lo ideal es que su probabilidad empírica sea la más elevada de toda N.

Para que se pueda hablar de modelo omega por tanto es necesario un subconjunto omega, Ω, dentro de N, que por el motivo que sea hay que elevar al máximo a todos los elementos omega por igual su probabilidad empírica, a la probabilidad empírica ideal a la que deberían tender los sujetos u opciones omega se llamará probabilidad ideal, y dado que se parte del supuesto que todos los demás sujetos u opciones no omega en tanto que no ideales deberían tender a probabilidad empírica igual a cero, entonces toda la distribución de puntuaciones directas o frecuencias debería repartirse sólo entre los sujetos u opciones omega, que en tanto disfruten por igual de un mismo valor ideal, la tendencia ideal para todo sujeto u opción omega debería ser la misma, de modo que si se repartiera por igual la distribución de puntuaciones directas o frecuencias entre los sujetos u opciones omega, la probabilidad ideal para todo sujeto u opción omega sería igual a la inversión de omega, “1/Ω”, de modo que el sesgo positivo ideal de la probabilidad ideal será igual a inversión omega o probabilidad ideal menos inversión de N o probabilidad teórica.

Sesgo Ideal = 1/Ω  - 1/N

 

En la medida que conocemos cual debería ser el sesgo ideal estamos en condiciones de conocer cual sería la Máxima Desviación Media Ideal, la Máxima Varianza Ideal, y la Máxima Desviación Típica Ideal.

 

Máxima Desviación Media Ideal = [ (1/Ω  - 1/N ) · 2 ] : N

 

Máxima Varianza Ideal = { (1/Ω  - 1/N )² + [ 1/N² · ( N – 1 ) ] } : N

 

Máxima Desviación Típica Ideal = √ { { (1/Ω  - 1/N )² + [ 1/N² · ( N – 1 ) ] } : N }

 

La razón por la cual es posible calcular en el Segundo Método de Probabilidad Imposible cual debería ser la dispersión ideal para modelos omega, en función de la magnitud de los ideales, se debe a que en el momento que conocemos cual debería ser el sesgo ideal, entonces podemos hacer una deducción lógica de los demás estadísticos de dispersión muestrales.

El motivo por el cual el estudio de la tendencia ideal de los sujetos u opciones omega es un estudio de sesgo positivo, aunque adaptado a las condiciones omega, se debe a que, bajo condiciones omega, que en una muestra N el subconjunto de sujetos u opciones ideales sea inferior a N y superior a uno, un subconjunto de sujetos u opciones omega entre dos y N menos uno, es un estudio en donde la tendencia ideal de los sujetos u opciones omega es a repartirse por igual la distribución de la muestra de puntuaciones directas o frecuencias, de modo que todos tenderían a una misma probabilidad empírica, la probabilidad ideal, la cual a su vez es una probabilidad cuyo sesgo positivo es igual a la diferencia de la probabilidad ideal menos la probabilidad teórica.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se abordan los modelos omega de forma más detallada, explicándose su lógica en el apartado 10 en donde se expone algún ejemplo en este tipo de investigaciones, así como por supuesto en el apartado 11 en donde se abordan de forma más detenida los procedimientos de crítica racional en estudios intramedicionales, normalmente intramuestrales, así como en los demás apartados dedicados a los estudios intramedicionales, al igual que en el apartado 20 se desarrollan modelos omega para estudios intermedicionales, ya sean intermuestrales o intramuestrales.

La diferencia entre estudios intermuestrales o intramuestrales radica en que en los estudios intermuestrales al haerse sobre más de una muestra, en el momento en que haya variaciones sobre el valor N, entonces habrá que calcular el efecto de N en los diversos valores de la investigación, tanto en probabilidades y estadísticos de dispersión.

El ejemplo más habitual de estudio de sesgo positivo en modelos omega es la de un examen tipo test en donde por cada pregunta del test hay diferentes ítems, de modo que en el conjunto del test, las opciones ideales del test son aquellos ítems de respuesta adecuada, de modo que si en un test donde hay una serie de preguntas, el número total de opciones es el número total de ítems, de modo que N son los ítems u opciones totales del test, integrando en el conjunto N todos los ítems u opciones de respuesta de todo el test, entonces de todos los ítems u opciones N sólo se considerarán omega aquellos, Ω, ítems u opciones correctas, cuyo ideal sería que su probabilidad empírica tendiera. a la probabilidad ideal, mientras que todos los demás ítems u opciones incorrectas lo ideal es que tendieran a probabilidad empírica igual a cero.

Otro ejemplo, pero ahora valorando cada pregunta del test de forma individual, es que si dentro de una pregunta de un test con posibilidad de opciones múltiples, para las opciones en particular de una pregunta en concreto hubiera más de una opciones correcta, aunque no todas, de igual modo sería un modelo omega. Si dada una pregunta hay N opciones de respuesta posible, y más de una es correcta, aunque no todas lógicamente, lo ideal es que todas las opciones de respuesta incorrecta para esa pregunta tiendan a probabilidad empírica cero, mientras las opciones correctas de esa misma preguntan tiendan a probabilidad ideal, dado que el conjunto de opciones correctas de esa pregunta sería igual al subconjunto omega de esa pregunta en particular.

El estudio de sesgos positivos de los sujetos u opciones ideales en modelos omega son estudios de sesgo positivo por cuanto se parte del principio ideal de que, siempre y cuando los ideales tiendan a un comportamiento ideal, el sesgo asociado a cada valor ideal será positivo.

En cualquier caso hay que remarcar que serán modelos omega aquellos  en donde dado un conjunto N de sujetos u opciones, hay un subconjunto de sujetos u opciones omega, inferior a N y superior a uno, entre dos y N menos uno, en donde todos los sujetos u opciones que se definan ideales tenderán a la misma probabilidad empírica, la probabilidad ideal igual a inversión de omega, 1/Ω. En caso que hubiera un modelo en donde hubiera más de un ideal en gradación de idealismo, eficacia o eficiencia, en donde en función del grado de idealismo, eficacia o eficiencia en una escala, le correspondiera un valor jerárquico diferente, entonces no sería un modelo omega, sería una Distribución Efectiva, las cuales son explicadas en el apartado 22 de la Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

 Rubén García Pedraza, Madrid a 15 de noviembre del  2014




http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible
 

 

sábado, 1 de noviembre de 2014

La lógica


La lógica es aquella disciplina analítica que se dedica al estudio de las relaciones formales, habiendo diversos paradigmas sobre el modo de operar  de la lógica, los paradigmas más importantes a este respecto son la lógica inductiva, la lógica deductiva, y la lógica dialéctica.

El estudio de la lógica hunde sus raíces en la filosofía clásica, del cual Aristóteles será uno de sus máximos exponentes, desarrollando un modelo de lógica lineal, muy acorde al paradigma matemático de la época, la geometría euclidiana. A medida que los modelos lógicos lineales han sido discutidos a la par que la geometría euclidiana, han surgido nuevos modelos de lógica no lineal, del mismo modo que  han surgido nuevos modelos de geometría no euclidiana.

La crítica a la geometría euclidiana se puede decir que toma vigor a partir de la geometría proyectiva en el siglo XVII, y posteriormente los modelos geométricos no lineales del siglo XIX, especialmente la geometría de Lobachevsky, siguiendo sugerencias de Gauss, y de Riemann, iniciándose un nuevo modo de entender las relaciones espacio-temporales que tendrán una honda repercusión en la teoría de la relatividad, que toma un modelo de espacio-tiempo curvo en contradicción con el espacio-tiempo lineal de Newton.

Al mismo tiempo que en geometría, las matemáticas y la física, y en general las ciencias naturales, la crítica a la lógica lineal lleva al redescubrimiento de nuevos modelos de relaciones espacio-temporales, en la filosofía la principal crítica a la lógica lineal aristotélica vendrá de parte de la lógica dialéctica de Hegel, que en oposición  a la lógica lineal aristotélica basada en el principio de no contradicción, Hegel desarrolla una lógica dialéctica establecida sobre la base de la contradicción dialéctica, en cierto sentido un desarrollo ulterior de la antinomia kantiana a la cual supera en la medida que integra la noción de síntesis,  en virtud de la cual toda relación de identidad se basa en una relación de contradicción. En lógica dialéctica el concepto de identidad se establece sobre la oposición de las ideas, los opuestos son idénticos.

La lógica dialéctica es en esencia un desarrollo ulterior de la filosofía kantiana. Un desarrollo más profundo del racionalismo crítico de Kant sólo puede suponer una vuelta al idealismo, de hecho se puede decir que Kant será el principal precursor de todo el idealismo alemán del siglo XIX, de igual modo que Descartes será el principal precursor del racionalismo en todo el continente y especialmente Francia.

Aunque hay distintos modelos de lógica, y dentro de la lógica matemática una de las que tendrá especial importancia para la teoría de la probabilidad es la lógica de conjuntos, la lógica booleana o la lógica bayesiana, habría que diferenciar entre teorías propias de lógica, o modelos lógico-matemáticos concretos, y los principales paradigmas de referencia.

El hecho que apliquemos las tablas de la verdad en un supuesto o cualquier otra herramienta propia de la lógica no supone la aceptación o rechazo de un paradigma, simplemente son diversas formas de operar la lógica, operaciones lógico-matemáticas cuyo valor o modo de interpretación dependerá del paradigma de referencia.

Al igual que el hecho que apliquemos un algoritmo en particular para la solución de un problema matemático no implica un paradigma determinado para la resolución del problema, de igual modo el hecho que se aplique una u otra operación lógica no pre-determina el paradigma, lo que ocurre es que cada paradigma tendrá una forma diferente de entender las operaciones lógico-matemáticas.

Los principales paradigmas lógicos como se ha mencionado son la lógica inductiva, la lógica deductiva, y la lógica dialéctica. La lógica inductiva es aquella que dada una serie de observaciones realiza una generalización sólo y exclusivamente válida para las observaciones realizadas. Cualquier otro fenómeno quedaría exento de aplicarse dicha generalización. Evidentemente esto produce serios problemas a la hora de generar un conocimiento universal, dado que una proposición general sólo será válida sólo y exclusivamente sobre una serie de observaciones realizadas, y no sobre cualquier otro fenómeno.

La principal operación lógica a la cual la filosofía se ha dedicado a su estudio desde la antigüedad es el silogismo, aquel en donde a partir de unas premisas se llega a una conclusión, en donde dichas premisas se catalogan en premisa primera o mayor, y premisa segunda o menor, en donde normalmente la premisa mayor es una proposición de orden general, la premisa menor un hecho particular, y la conclusión es la relación concreta entre el hecho particular y la proposición general.

El modo de operar la lógica inductiva es que, si dada una serie N de observaciones todas comparten una misma cualidad, la conclusión lógica es que esa cualidad es propia de N. Ahora bien, en el momento que el conjunto N es un conjunto limitado de observaciones, esa cualidad atribuida a N es sólo válida para esa N concreta y particular, lo cual invalidaría una extrapolación universal, uno de los problemas por los que el conocimiento inductivo no puede llegar a proposiciones universales.

El hecho que la lógica inductiva sólo parta de premisas empíricas, luego rechace de facto cualquier premisa sólo formal, sin valor empírico, no invalida que la lógica sea la disciplina que estudia las relaciones formales, lo único que significa es que el paradigma inductivo sólo estudia posibles relaciones formales entre proposiciones empíricas. A diferencia de otros paradigmas lógicos, deductivos o dialécticos, en donde se estudia todas las posibles relaciones formales entre todas las hipotéticas proposiciones  empíricas y formales.

La lógica deductiva parte de una relación entre premisas, mayor y menor, general y particular, en donde la forma de operarse sobre la realidad concreta es a través de generar conclusiones universales. Las premisas de la deducción no se restringen sólo a observaciones empíricas, pudiendo ser premisas de orden teórico, filosófico, y dentro de la teoría de Probabilidad Imposible se comprende que a menudo dichas premisas son ideológicas o políticas, tal como se explica en el apartado 10, el apartado 24, y el apartado 25, de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

En el modo de entender la lógica deductiva en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, sobre la síntesis de premisas empíricas y premisas ideológico-políticas, o de otro orden filosófico o creencial, sobre dicha síntesis se opera la conclusión lógica a contrastar, la hipótesis empírica, la cual deberá demostrarse verdadera o falsa en la práctica, la crítica racional.

En cualquier caso en Probabilidad Imposible tampoco se niega de forma absoluta el valor de la lógica inductiva, la cual puede tener algún tipo de uso determinado en contextos exploratorios descriptivos, en lo que sería la primera fase de la investigación científica, conclusiones a las que se puede llegar inductivamente en la fase de descripción de la realidad pero que al sintetizarse después junto las premisas ideológico-políticas de la política científica darán lugar a la hipótesis empírica a contrastar en las ciencias sintéticas.

En cualquier caso la importancia del método deductivo radica en que, mientras el método inductivo sólo es aplicable a ciencias sintéticas, por cuanto sólo opera sobre observaciones empíricas, registros empíricos, sin embargo la importancia del método deductivo radica en que es un método aplicable tanto a ciencias sintéticas, para la elaboración de hipótesis empíricas, y en las ciencias analíticas, para el desarrollo de deducciones lógicas sobre las relaciones formales.

La lógica inductiva y la lógica deductiva por tanto se diferencian sobre la naturaleza de las premisas, mientras en la lógica inductiva las premisas sólo y exclusivamente pueden ser observaciones empíricas, para la lógica deductiva la premisas pueden ser tanto observaciones empíricas como cualquier otro tipo de premisa filosófica, formal, o ideológico-política, motivo por el cual la lógica deductiva permite operar tanto en ciencias analíticas y sintéticas, porque el método deductivo no se cierra sólo a las ciencias sintéticas, como hace el método inductivo, dado que el deductivo también puede operar en ciencias analíticas sobre premisas exclusivamente formales.

La principal diferencia entre lógica inductiva y deductiva es sobre si las premisas son sólo empíricas, inductivismo, o no, admitiéndose premisas formales además de las empíricas, deductivismo. Y la diferencia entre la lógica dialéctica frente la lógica inductiva o deductiva, es que mientras la lógica inductiva o deductiva parten del principio de no contradicción, sin embargo la lógica dialéctica rechaza dicho principio sirviéndose del principio de contradicción para la elaboración de identidades dialécticas.

Tanto la lógica inductiva o deductiva, ya bien sea sólo sobre premisas empíricas, inductivismo, o premisas empíricas y formales, deductivismo, todas las conclusiones lógicas son de naturaleza lineal no pudiendo haber contradicción entre sus conclusiones y las premisas, y en cualquier caso las funciones de equidad que definan los conjuntos no admiten contradicción alguna.

En cambio para la lógica dialéctica las funciones de equidad que definen los conjuntos se basa en el principio de contradicción dialéctico según el cual los opuestos son idénticos.

Dentro del paradigma dialéctico hay dos grandes interpretaciones, el idealismo dialéctico y el materialismo dialéctico. El idealismo dialéctico arranca de Hegel y tiene enormes repercusiones en todo el idealismo alemán, que tendrá una gran influencia en la física, por ejemplo el principio de incertidumbre de Heisenberg. En esencia  la dialéctica idealista tiene por principal precedente las antinomias lógicas de Kant, dentro de la cual se ubica la antinomia del infinito, fundamental para entender el infinito en las matemáticas modernas. Mientras en la antigüedad clásica hay un profundo escepticismo sobre la idea de infinito, en la  modernidad se avanza hacia una nueva concepción del infinito, en donde se pasa de la sospecha a la aceptación, teniendo importantes aplicaciones prácticas en Cantor o en Schrödinger.

El materialismo dialéctico será desarrollado por los filósofos Marx y Engels, que harán una lectura invertida del idealismo hegeliano, en donde si Hegel aplicaba la dialéctica a las relaciones formales entre las ideas, lo que harán Marx y Engels será aplicar las leyes de la dialéctica a las relaciones materiales, lo cual en ciencias sociales dará lugar al materialismo histórico. En general, la forma en que Marx y Engels aplican el método dialéctico sobre las relaciones materiales generará un nuevo modo de entender el materialismo, el cual pasa del clásico empirismo basado en la contemplación pasiva de la realidad, la observación, a la transformación activa de la realidad, dando lugar a una visión revolucionaria de la ciencia y la filosofía, la función del filósofo no es describir, es transformar. A esta nueva visión del materialismo sus autores, Marx y Engels, la denominaran materialismo moderno.

La lógica dialéctica, ya sea en su versión idealista, Hegel, o materialista, Marx y Engels, partirá en cualquier caso de la identidad de los opuestos, motivo por el cual se parte de la ley dialéctica por la que se establece la identidad entre lo cualitativo y lo cuantitativo, toda transformación cualitativa es cuantitativa y viceversa.

Cada uno de los tres principales paradigmas de la lógica, han tenido desarrollos en diferentes escuelas filosóficas desde la antigüedad clásica. La lógica inductiva ha sido ampliamente defendida por el empirismo clásico y el positivismo lógico, la lógica deductiva ha sido apoyada siempre por las escuelas idealistas y racionalistas, y la lógica dialéctica ha sido desarrollada por el idealismo dialéctico a partir de Hegel, y el materialismo moderno. El hecho que cada escuela filosófica desarrolle un paradigma u otro de la lógica, inductivo, deductivo, dialéctico, no supone en modo alguno un cambio en el modo de proceder en las operaciones lógicas,  lo que supone es un cambio en la forma de interpretar la naturaleza de sus premisas y sus conclusiones. Es decir, la operación lógica en sí misma no varía, lo que varía es la forma de entender la naturaleza de las premisas sobre las que se opera, y la forma de entender el valor de sus conclusiones.

La teoría de Probabilidad Imposible en tanto que una teoría ecléctica síntesis de los principales paradigmas de la filosofía contemporánea, positivismo, racionalismo y materialismo moderno, parte de una concepción de la lógica para el desarrollo de proposiciones formales que se sintetiza en el silogismo de la tendencia en tanto que método formal para el desarrollo del campo de la estadística de la probabilidad o probabilidad estadística en tanto que disciplina analítica perteneciente a las matemáticas.

En el apartado 13 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se hace alguna mención al valor de la inducción en los procesos descriptivos, aunque por lo general, tal como se expone en el apartado 10 y sobre todo el apartado 25, la principal perspectiva lógica de Probabilidad Imposible es la lógica deductiva, a la cual se funde la lógica dialéctica en la interpretación de la identidad de los opuestos, siendo a partir de la aplicación de la lógica dialéctica sobre la que se construye los conceptos de sujeto u opción, puntuación directa o frecuencia, probabilidad empírica y probabilidad teórica, universos infinitos y universos limitados, y toda una concepción dialéctica de la realidad en donde la definición de cada elemento se basa a partir de su contrario, para que finalmente la operación lógica sobre uno u otro sea la misma. Sea un universo infinito o limitado da igual, la forma de operar la probabilidad empírica, la probabilidad teórica, el Nivel de Sesgo, y todos los estadísticos de dispersión y crítica racional será exactamente la misma, habiendo sólo variaciones en aquellos aspectos en que sean diametralmente opuestos, por ejemplo, en la valoración de la dispersión teórica en función del tipo de universo, variaciones por lo demás lógicas en coherencia a sus diferencias. En esencia, una síntesis entre lógica no lineal dialéctica, basada en el principio de contradicción, y lógica lineal deductiva, admitiéndose sólo la lógica inductiva en descripciones preliminares en ciencias sintéticas, como paso previo a la síntesis de la descripción y las ideas previas, ya sean filosóficas, ideológicas, o políticas.
 

Rubén García Pedraza, Madrid a 1 de noviembre del 2014



http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible
 
 

 

 

 

 

sábado, 18 de octubre de 2014

Sesgo negativo en modelos normales



Sesgo negativo es cuando la probabilidad empírica de un sujeto u opción es inferior a la probabilidad teórica en igualdad de oportunidades. Debido que a la diferencia de probabilidad empírica menos teórica, en el Segundo Método de Probabilidad Imposible, se denomina Nivel de Sesgo normal, siempre y cuando el resultado de dicho diferencial sea negativo se dirá que el sesgo de ese sujeto u opción en particular es negativo.


En Probabilidad Imposible, siempre que se haga referencia a Nivel  de Sesgo, se hace referencia al Nivel de Sesgo normal, la diferencia de probabilidad empírica menos teórica, es importante hacer esta aclaración porque también existen los Niveles de Sesgo relativos, es decir, cada Nivel de Sesgo relativo de cada sujeto u opción con respecto cualquier otro valor arbitrario, ya sea la máxima, la mínima, la intermedia, cualquier otro valor de la muestra, o cualquier otro valor crítico. El Nivel de Sesgo normal en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se explica prácticamente desde los primeros apartados, y los diferentes modelos de Nivel de Sesgo relativo se explican en el apartado 14. Siempre que se haga referencia a Nivel de Sesgo sin añadir adjetivos se sobreentiende que se menciona el Nivel de Sesgo normal, dado que lo más normal es la comparación entre la probabilidad empírica y teórica, cualquier otra comparación directa, de la probabilidad empírica y cualquier otro valor, es relativa.


Lo que el Segundo Método de Probabilidad Imposible denomina Nivel de Sesgo, la diferencia entre probabilidad empírica menos teórica, es a lo que en el primer método, la estadística tradicional, aquella que opera bajo puntuaciones directas de sujeto u opción, se denominaría la puntuación diferencial. Si bien hay que recalcar importantes diferencias entre el Nivel de Sesgo del Segundo Método y la puntuación diferencial de la estadística tradicional, que en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se llamará primer método, y se explica en el apartado 4.


La diferencia más importante, entre el Nivel de Sesgo que propone Probabilidad Imposible y la puntuación diferencial de la estadística tradicional, es que dada una muestra en donde absolutamente todos los sujetos u opciones de la muestra N tengan puntuación directa o frecuencia igual a cero, luego todos los elementos del conjunto N tengan probabilidad empírica igual a cero, sin embargo, en tanto que el Nivel de Sesgo es igual a probabilidad empírica menos teórica, independientemente que de una muestra donde toda N tenga probabilidad empírica cero, luego la media aritmética de las probabilidades empíricas sea igual a cero, en tanto que la diferencia del Nivel de Sesgo es igual a probabilidad empírica menos teórica, e independientemente que la muestra tenga media aritmética igual cero, la probabilidad teórica en igualdad de oportunidades sigue siendo inversión de N, 1/N,  luego el Nivel de Sesgo de sujeto u opción será distinto de cero, será igual a menos inversión de N, en tanto que aun cuando toda la muestra sea igual a cero, lo que en Probabilidad Imposible se denomina una muestra de ceros, la probabilidad teórica de ocurrencia en igualdad de oportunidades sigue siendo inversión de N, 1/N.


En la teoría de Probabilidad Imposible se dice que la probabilidad cero es la Mínima Probabilidad Empírica Posible, por la sencilla razón de que no puede haber ninguna probabilidad inferior a cero, dado que no puede haber probabilidades negativas. La probabilidad cero es en esencia la Probabilidad Imposible,  en la medida que el cero opera de criterio de posibilidad: todo lo que sea distinto de cero es posible, todo lo que sea igual a cero es supuestamente imposible, y remarcó lo de que supuestamente imposible, dado que tal como se explica a partir del apartado 7 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, bajo determinadas condiciones un evento en principio catalogado imposible puede ser inevitable. El hecho que hasta ahora algo no haya sido posible, luego la probabilidad empírica de que ocurra, por el momento, sin otra observación que lo contradiga, es cero, imposible, no implica que, dadas una serie de condiciones de posibilidad sea absolutamente inevitable.

En los estudios de sesgo negativo lo que se pretende es que la probabilidad empírica de sujeto u opción tienda a cero. En los estudios normales, donde la dispersión varía entre cero y máxima, dicha tendencia negativa del sesgo en los sujetos u opciones no ideales puede deberse por dos motivos, ya bien porque dentro de N haya al menos un sujeto u opción ideal a potenciar al máximo su probabilidad, o se tienda a la muestra de ceros, donde en cualquier caso en el Segundo Método la dispersión empírica tenderá a inversión de N.

En cambio, en la estadística tradicional, si una muestra es una muestra de ceros, basta que todos los valores empíricos de todos los sujetos u opciones sean igual a cero, para que la media aritmética sea igual a cero, de modo que, si cada puntuación directa es cero, luego la media aritmética es igual a cero, lógicamente la puntuación diferencial de cada sujeto u opción será igual a la diferencia de puntuación directa cero menos media aritmética cero, luego la puntuación diferencial sería igual a cero. Algo que sin embargo no sucedería en el Segundo Método, donde aunque todos los valores empíricos fuesen igual a cero, el Nivel de Sesgo sería igual a menos probabilidad teórica.

 Al valor menos inversión de N, “ – (1/N)”, que normalmente se representará directamente sin poner corchetes después del signo, de modo que se expresará directamente, “ – 1/N”, se denominará el Máximo Sesgo Negativo Posible, dado que, si el Nivel de Sesgo es igual a la diferencia de probabilidad empírica menos teórica, y el Nivel de Sesgo negativo lo que expresa es cuan inferior es la probabilidad empírica en comparación a la teórica, necesariamente, la máxima diferencia negativa entre probabilidad empírica y teórica, sólo puede ser posible cuando la probabilidad empírica es igual a cero. Motivo por el cual se denominará Máximo Sesgo Negativo Posible.

El motivo por el  cual en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, en los estudios de dispersión se prioriza la Desviación Media de los Niveles de Sesgo sobre la Varianza o la Desviación Típica, en la medida que la Desviación Media es aquel estadístico de dispersión más fiel a los datos originales, en cuanto no los transforma a valores cuadrados o raíces de cuadrados, es decir, mantiene la esencia del verdadero valor diferencial, es la razón por lo que el tratamiento que posteriormente reciben los Niveles de Sesgo para su computo en estadísticos de dispersión muestrales es en valor absolutos, en términos absolutos, ningún Nivel de Sesgo negativo puede tener un valor absoluto de sesgo superior a inversión de N, motivo por el cual se denomina Máximo Sesgo Negativo Posible.

Si se diera el caso que de toda N un único sujeto u opción tuviera sesgo negativo solamente, y todos los demás, N menos uno, “N – 1”, sesgo positivo, la suma del valor absoluto del sesgo positivo de todos los sujetos u opciones con sesgo positivo, dará como resultado un valor absoluto del sesgo de signo positivo equivalente al valor absoluto del sesgo negativo de aquel único sujeto u opción que tuviera sesgo negativo.

Dada una muestra N en donde normalmente por ley natural el sesgo positivo compensa al negativo y viceversa, lógicamente si cogemos todo el sesgo, sumatorio de valores absolutos de Niveles de Sesgo, “Σ/(p(xi) – 1/N)/”, el Sesgo Total, y lo dividimos entre dos, sería igual al Máximo Sesgo Empírico Posible, de modo que, ningún sujeto u opción puede tener un valor absoluto de Nivele de Sesgo superior a Máximo Sesgo Empírico Posible, y en cualquier caso, el Máximo Sesgo Empírico Posible es igual, o bien a la suma del valor absoluto de todos los Niveles de Sesgo positivos, o la suma del valor absoluto de todos los Niveles de Sesgo negativos.

En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, dentro de los tipos de estudios, que se especifican en el apartado 10, se señala que según objeto de estudio en modelos normales, los estudios se clasifican en estudios de igualdad de oportunidades y estudios de sesgo, y dentro de los estudios de sesgo se diferencia entre estudios de sesgo positivo y estudios de sesgo negativo.

Un estudio en modelos normales de sesgo negativo es cuando dado un fenómeno lo ideal sería reducir al mínimo posible, o en igualdad a cero, o al menos moderarla, incidencia de una puntuación directa o frecuencia, de modo que, especialmente si el objeto es reducir al máximo posible o reducir a cero directamente, serían casos típicos de estudio negativo. También los estudios de moderación de la incidencia del fenómeno puede ser de sesgo negativo en la medida que se intente reducir la puntuación directa o frecuencia de los sesgos positivos y nivelar la de los sesgos negativos. En puridad realmente de estudio negativo serían los que intentan reducir al máximo o igualar a cero un fenómeno. Por ejemplo, para el tratamiento de una enfermedad si se experimenta varios tratamientos, el tratamiento ideal será aquel que, dada una muestra de N sujetos infectados por la enfermedad, después del tratamiento experimental la puntuación directa o frecuencia de la sintomatología sea la mínima posible, o directamente igual a cero, de modo que el ideal del estudio sea la muestra de ceros, cero síntomas en la muestra de los N sujetos u opciones.

El caso paradigmático de estudios de sesgo sería la muestra de ceros, aunque no siempre es posible alcanzar de plano el ideal, hay momentos en donde del ideal debemos conformarnos con alcanzar una parte, sólo que para esa parte que se alcance sea mínimamente fiable, el error dispuestos a aceptar sobre el ideal debe ser mínimo, es decir, dado un tratamiento médico para la cura de una enfermedad, en caso que no sea posible la muestra de cero síntomas de la enfermedad en los N pacientes, seleccionar aquel tratamiento que reduzca al mínimo posible los síntomas, aunque no lo haga de forma absoluta, cosa que podría explicarse por la interacción de variables no controlables, ya sea por las características inmunológicas de cada sujeto, o el historial clínico que tengan, o por interacciones imprevistas entre el tratamiento y las condiciones de cada persona.

De otro lado, otra forma en que se pueden utilizar los estudios de sesgo negativo es como un punto de vista alternativo en los estudios de sesgo positivo, ya sea en modelos normales o en modelos omega.

Si en un estudio de sesgo positivo en modelos normales el objeto de estudio es que el sujeto u opción designado ideal por el equipo científico tienda a Máximo Sesgo Positivo Posible, lo cual implica que el resto de la muestra, N menos uno, “N – 1”, tienda a cero, una forma complementaria que el modelo tiende al ideal es, además de verificar la tendencia racional y suficiente del sujeto u opción ideal a Máxima Probabilidad Empírica Posible, el estudio de la tendencia del sesgo negativo de los demás sujetos u opciones no ideales. Si en un estudio de estas características se observa una tendencia racional favorable del resto de la opción a sesgo negativo sería un indicio suficiente de la tendencia positiva del sujeto u opción ideal.

Igualmente en estudios de sesgo positivo en modelos omega, aquellos donde dentro de la muestra N hay un subconjunto de sujetos u opciones ideales denominado omega, “Ω”, que tienden a la probabilidad ideal, “1/Ω”, una forma de verificar que los sujetos u opciones ideales comprendidos dentro del conjunto omega tienden a la probabilidad ideal, “1/Ω”, es estudiando como el resto de sujetos u opciones no ideales tienden a Máximo Sesgo Negativo Posible.

El modo en que los estudios de sesgo negativo verifican una tendencia racional al sesgo negativo de los sujetos u opciones no ideales, o cuyo ideal es la tendencia a sesgo negativo, es a través de la crítica racional, la cual debe ser realizada a nivel individual y a nivel muestral, la crítica racional del sesgo negativo a nivel individual permite confirmar una tendencia racional del sesgo negativo del sujeto u opción, la crítica racional a nivel muestral permite descartar cualquier error de inferencia por el tamaño de la muestra.

La crítica racional de las relaciones entre valores empíricos y teóricos ya sea a nivel individual o muestral, puede ser sobre las relaciones diferenciales o proporcionales entre valores empíricos y teóricos. Si es la crítica racional de relaciones diferenciales, entonces lo que se crítica es la diferencia entre valores empíricos y teóricos, y si es sobre relaciones proporcionales, lo que se crítica es la proporción entre valores empíricos y teóricos.

Ya sea sobre relaciones diferenciales o proporcionales entre valores empíricos o teóricos a nivel individual o muestral, la crítica racional puede ser sólo intramedicional, sobre los valores empíricos y teóricos de una sola medición, luego sería igualmente intramuestral, dado que sólo participa una sola muestra, o puede ser intermedicional, a partir de varias mediciones, ya sean diacrónicamente o sincrónicamente, y ya sean sobre una misma muestra, intermedicional intramuestral, o varias mediciones de varias muesras, intermedicional intermuestral, que en tal caso habrá que tener en cuenta el efecto de N en caso que las muestras tengan tamañas diferentes, en la medida que la probabilidad de error de representatividad muestral está directamente ligado a la magnitud de la muestra.

Las pruebas intramedicionales para sesgo negativo se explican entre los apartados11 y 15 de Introducción a la Probabilidad Imposible, estadística de laprobabilidad o probabilidad estadística, los estudios de sesgo negativo intermedicionales, sean intramuestrales o intermuestrales, se explican entre los apartados 16 y 20, tanto para modelos normales y modelos omega, incluyéndose las predicciones, ya sean en forma de proyecciones teóricas o pronósticos empíricos.

Dentro de las pruebas de contraste de hipótesis de Introducción a la Probabilidad Imposible, algunas de ellas ya han sido explicadas en este blog, aunque dada la gran diversidad de formulaciones lo que hasta el momento se ha explicado es sólo la mínima parte, para un conocimiento más detallado sería imprescindible la lectura de la obra completa, en cualquier caso a modo de ejemplo y de forma ilustrativa, a nivel intramedicional son buen ejemplo de crítica racional de diferenciales en estudio de sesgo negativo a nivel individual la Validez de Sesgo Negativo y la Significación de Sesgo Negativo, y a nivel muestral el Nivel Muestral Crítico de Sesgo y la Significación Muestral de Sesgo.


http://probabilidadimposible.wordpress.com/
                                          La Librería Matemática de Probabilidad Imposible
Rubén García Pedraza, Madrid a del 2014