Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


Mostrando entradas con la etiqueta crítica racional. Mostrar todas las entradas
Mostrando entradas con la etiqueta crítica racional. Mostrar todas las entradas

sábado, 10 de febrero de 2018

The database in Artificial Research by Application


A database is a collection of information for some particular purpose or over some particular field. In statistics, every single category or option must be defined or limited in quantitative terms, given an exact definition of what information we need to measure, and later, the results of these measurements must be added to the database.

In Impossible Probability the measurement of any quality of a subject or option is the transformation of a qualitative property into a factor of mathematical operations, which can be converted into positive data, for the description,  inference, or prediction of the phenomena studied in synthetic sciences.

The definition of any data in quantitative terms is a warranty as well, which is defined in a positive way. Data is positive when its acceptance is independent of any ideological or political difference between different schools or paradigms.

Once we have a general definition of the database through the theory of Impossible Probability, it is time to give a definition of the database in the Artificial Research by Application, that, generally speaking, would be a collection of: information, taxonomies, classifications, files, categorizations, events, facts, phenomenon, characteristics of individuals and populations (physically, behavioural, psychologically), or any other thing, even any tool to use later; necessary in any artificial research processes made by the Artificial Research by Application, which through the information collected in its database, is going to be able to automatize the formation of empirical hypothesis within the synthetic science or synthetic academic field for what it has been created, and able therefore to criticize rationally the empirical hypothesis in order to make further rational decisions.

If the application finds some category, event, or phenomenon without a high percentage of similarity with those ones stored in the database, this new one must then be integrated into the database as a new one.
This process of including new categories, events, or phenomena in the database constitutes an auto-replication process, as the application can improve its components—particularly the database—without human intervention.

As first stage in the formation process of any Artificial Intelligence, either specific or global, for artificial research or any other purpose, a good definition of the concept of database is necessary according to the purpose for which it is going to be designed.

In order to have a clear idea about what kind of database is going to be necessary in Specific Artificial Intelligence for Artificial Research by Application, firstly is important to clarify what different models of database are going to be developed, taking the theory of Impossible Probability as a theoretical model, applied to Artificial Intelligence, Specific or Global. And among all possible databases, the exact purpose of the database in Specific Artificial Intelligence for Artificial Research by Application.

In Impossible Probability is necessary to distinguish, at least, among these models of databases:

- Database in Artificial Research by Application in a Specific Artificial Intelligence. In those Specific Artificial Intelligences for artificial research in synthetic sciences or synthetic academic fields where the artificial research is done by Artificial Research by Application, the database should include all information, data, taxonomies, classifications, files, categorizations, events, facts, phenomena, or characteristics of individuals or populations, or any other thing, even, tools if its necessary, that are going to be needed in the investigations with this technology. This is the model developed in this post.

- A unified database of Artificial Research by Application. In the future, after the completion of the unification process of all Specific Artificial Intelligence for Artificial Research by Application into a Global Artificial Intelligence. Once the creation of a Global Artificial Intelligence has finished the completion of a global database, in addition to this global database it is going to be necessary the process of integration of the rest of specific databases of the rest of Specific Artificial Intelligences for artificial research in synthetic sciences and synthetic academic fields, into the GlobalArtificial Intelligence. This integration process should have different phases. In the first one the unification of all Specific Artificial Intelligences for ArtificialResearch by Application, and after that, the integration of all of them into the Global Artificial Intelligence. The unification process should finish with the integration of all these specific databases by application in only one, a unified database of Artificial Research by Application. Upon it, all the Specific Artificial Intelligences for Artificial Research by Application, from any synthetic science or synthetic academic field, could work together on only one unified database for Artificial Research by Application, the Unified Application. All Specific Artificial Intelligences for Artificial Research by Application, in any synthetic science or synthetic field, could match the measurements taken from real objects with the categories, events, and phenomena included in the unified database, forming and contrasting hypotheses at the same time from the unified database. And in case a new category, event, or phenomenon should be included, introducing improvements across the unified database at the same time. One unified database for all Specific Artificial Intelligence for Artificial Research by Application, whose hypothesis and decisions could automatically be integrated into the Global Artificial Intelligence.

- The database of Specific Artificial Intelligence for Artificial Research by Deduction in any synthetic science or synthetic academic field. In this case, the database is going to be a matrix, where each Specific Artificial Intelligence for Artificial Research by Deduction of each synthetic science or academic field must have its own matrix. The matrix should be formed by the definition of every factor, subject, option, category or any key point relevant to the research, that later on, in the second stage, the replication stage, is going to be measured constantly, receiving a flow of continuous measurements at any time. So, in the second stage, replication, this Specific Artificial Intelligence for Artificial Research by Deduction would fill directly the matrix with the flow of measurements related to every factor, subject, option, category, etc., storing all the information in the memory. And upon the measurements, by statistical methods, the automatic identification of high levels of correlations, identifying probabilities of cause and effect, and stochastic relations, which could be formulated automatically as a hypothesis, that later could be criticised rationally.

- The database of the Global Artificial Intelligence for Artificial Research by Deduction. A gigantic global database, a global matrix, firstly perhaps over a nation as an experiment that later could be extended over a whole continent, the entire planet, finishing with the inclusion of information that could come from the whole universe. Every single piece of information included must be defined in very exact and quantitative terms, allowing the necessary measurements constantly all the time, getting a flow of measurements at any time, stored continually in the memory, which, by statistics methods, and studying the evolution of the flow, the Global Artificial Intelligence could find high levels of correlations among factors, subjects, options, categories, or probable causes and effects, and stochastic relations. Upon the results, the formation of the empirical hypothesis contrasted later with the critical reason, in order to make further rational decisions.

Among all of these models of database developed under the Artificial Intelligence theory in Impossible Probability, the database object of this post is the first one: the database in Artificial Research by Application in a Specific Artificial Intelligence.

In other posts, I had set out some examples of Artificial Research by Application in Specific Artificial Intelligence for medical problems or astronomy. In this one, I will expose some others for different purposes, focusing on the explanation of how the database in this model of artificial research could work

The first example is applied to mineralogy, and the second one is to the physics of particles.

The first example would be a model of Specific Artificial Intelligence for Artificial Research by Application in Mineralogy. Firstly, the database would be an exact and full taxonomy of all kinds of minerals, rocks, pebbles, and every single kind of mineral, rock, pebbles, would be a category described in quantitative terms: from its possible chemical composition, resistance, hardness, to a definition of the colour in quantitative terms, or any possible other quality described in quantitative terms able to help in the artificial identification of any rock, mineral, pebble, from the reality, the synthetic world.

The description of every mineral, rock, or pebble in the database would be a category (in this case, the subject). Any mineral, rock, or pebble found in the synthetic world, the reality, would be a real object.

In the second stage of Artificial Research by Application, the replication of the research skills necessary for a scientific investigation, given the measurements of any real object, in this case, mineral, rock, or pebble collected from the real world, the Specific Artificial Intelligence could compare the measurements taken from the real object with the quantitative descriptions of every category in the database.

As a result of this comparison, the Artificial Research by Application should give a list of categories with the highest percentage of similarity between their quantitative descriptions and the measurements from the real object, categories as empirical hypotheses about the very nature of the real object taken from reality. Empirical Hypotheses that, if after rational criticism, are true, become rational hypotheses, forming part, at the same time, universally and provisionally, of the rational truth.

In case the real object found in reality, the synthetic world, does not match with any category in the database, the hypothesis must be formulated under the idea that this object belongs to a new category that must be included in the database. This automatic improvement in the database in the Specific Artificial Intelligence for Artificial Research in mineralogy must be considered as an auto-replication, improving its own database. One way, among others, of auto-replication, which means auto-improvement, and in much more developed models of auto-enhancement.

In this first example of the database in a Specific Artificial Intelligence for Artificial Research by Application in mineralogy, as application, the database would be a collection of categories (in this specific example, each category from the database corresponds to each kind of mineral, rock, pebble, taken from the mineral taxonomy). As a second stage of replication, upon the measurements of a real object, the comparison of the empirical measurements from the real object and the quantitative description of every category included in the database: that or those categories or categories with the highest percentage of similarity between its quantitative description with the quantitative measurements from the real object, is the category or are the categories taken as an empirical hypothesis about the very nature of the real object.

Using the same database, within the same application for Artificial Research by Application, the same Specific Artificial Intelligence could work in thousands of locations at the same time.

Thousands of robotic devices specialised in mineralogy, linked all together to the same Specific Artificial Intelligence, with the same Artificial Research by Application in mineralogy, using the same database: in thousands of locations around the Earth, or in space exploration on board of artificial satellites or spaceships, robotic devices specialised in mineralogy working in thousands of planets, satellites, asteroids, or comets, or any other celestial body; could allow us to have a deep knowledge about this specific science beyond Earth and our human limits, and what is really important, reducing constantly the margin of error through decisions more and more rationals.

This Specific Artificial Intelligence, specialised in mineralogy through Artificial Research by Application, could make thousands of thousands of hypotheses at the same time, making thousands of thousands of rational contrasts of hypotheses, using thousands and thousands of robotic devices taking measurements and preparing samples for further rational contrasts and rational decisions, wherever we would like to know the mineral structure of geological formations across the Earth or the entire universe.

And, at any time that any robotic device finds any real object that does not match anything in the database, it could then be possible the automatic inclusion of new discoveries in the database, after rational contrast. New discoveries are available automatically for any other robotic device.

This would mean that thousands of thousands of auto-replications through improvements in the database, adding new categories would be able to be possible at the same time. Under this supposition, the database could be replicated every minute or every second. The increment of knowledge in synthetic sciences and synthetic academic fields, thanks to the automation of scientific research, would give us a very powerful tool in order to have incredible knowledge at a very high speed.

The second example of the database under such a Specific Artificial Intelligence for Artificial Research by Application is its possible application to particle physics.

The first stage of such a Specific Artificial Intelligence would be the creation of a database including a list of categories in quantitative terms for each kind of particle. Secondly, the replication process of all research skills for the formation and rational contrastation of empirical hypotheses: measuring any property of the real object, in this case, the measurement of the properties of any particle, and studying the similarities between empirical measurements from real particles and the quantitative description of every category. Those categories with a high level of similarity between them and a particle or group of particles can be formulated as possible empirical hypotheses about the nature of a particle or group of particles. Once the hypothesis is formulated, over a sample of particles according to the hypothesis, the hypothesis is rationally contrasted, and if it is true, within a rational margin of error, it is rationally accepted.

In case the particle found would have not matched with any category in the database, under the hypothesis that this kind of particle Is a new one, automatically, the artificial research should proceed to the collection of a sample of particles like this one in order to contrast, within a margin of error, that it is a new kind of particle not included yet in the database, so this new one should be included as a new category in the database, describing the new category according to the measurements taken from this new kind of particle as quantitative terms of description. The auto-replication of the database could be done automatically, something really important if thousands of robotic devices in thousands of laboratories and accelerators of particles across the world, or even astrophysics telescopes, would be working with the same database, in the same application of Artificial Research by Application, in the same Specific Artificial Intelligence.

The way in which the database would work is the same as the first example in mineralogy. Given a list of categories in quantitative terms as a database, the replication of rational processes should allow the Artificial Research by Application the possibility that, after the measurement of the properties of a real object, the contrast between the measurements and the categories, and that or those categories with high similarity could be formulated as a possible hypothesis in order to contrast them. In case that after the measurements, the new object does not match with any category, the inclusion of the new object as a new category considering the measurements as the quantitative description of this new category. Inclusion that should be done after further contrastations with samples or particles like this one that could ensure that it is a new kind of category and not a mistake during the measurement process.

It is very important every time that some new real object does not match with any category in the database to discard that this has not happened as a result of a mistake in the measurement process, or for any other reason, such as robotic problems or mechanical problems in the robotic device which has taken the measurements. If gathering samples of real objects like the new one, all of them reveal the same characteristics, within the lowest margin of error, only then, automatically, the new category should be included in the database as a new category. According to the general quantitative properties common to all the samples collected from this specific new object.

Using the same Specific Artificial Intelligence for Artificial Research by Application in any synthetic science or synthetic academic field, thousands of thousands of robotics devices at the same time could work together online. So at the same time, it would be possible that the same Specific Artificial Intelligence for Artificial Research by Application could do as much research simultaneously as robotic devices could work with the same Specific Artificial Intelligence for Artificial Research in any synthetic science or synthetic academic field. What that means is that thousands of thousands of hypotheses could be formulated and rationally contrasted at the same time, making thousands of thousands of further rational decisions at same time, at the very same time that every minute, or every second, or even in a inferior period of time, the database in a Specific Artificial Intelligence for Artificial Research by Application in a synthetic science or synthetic academic field could be auto-replicated by itself through improvements in the database, including new categories based on new real objects found that would have not matched with the current ones.

The importance of the database in Artificial Research by Application is the fact that the same value that the previous bibliographical revision has in any human investigation in order to know what kind of advancements have been made in the field where the investigation is going to be done, in Artificial Research by Application all this previous work is made directly by the database because all new discoveries are already included automatically in the database, and after inclusion, ready and available for any other robotic device working with the same Specific Artificial Intelligence for Artificial Research by Application in any synthetic science or synthetic academic field where this application is useful.

If all discoveries in any synthetic science or synthetic academic field are completely available and ready to be used for other robotic devices, or any human scientists, or even human scientists could share their new discoveries directly into the database, followings investigations in the same synthetic field or synthetic academic field, would be easier to do, because all the new advancements and discoveries are completely ready and available automatically, through an automatic system of auto-replication that could improve, or even enhance, the database, every minute, or even every second.

The database in any specific synthetic science or synthetic academic field could be renewed constantly, including continually, without pause, new discoveries and advancements. The automation of all sciences, starting first with the synthetic sciences, could bring a permanent and automatic scientific revolution.



 Rubén García Pedraza, London 10th of February of 2018
Reviewed 1 August 2019, Madrid
Reviewed 8 August 2023, Madrid
Reviewed 3 May 2025, London, Leytostone


sábado, 3 de enero de 2015

Indeterminación





Indeterminación se dice en ausencia de determinación, porque las relaciones entre los elementos no son estrictamente causales, o son causas asociadas a un nivel de probabilidad,  causas probables, o simplemente variables correlacionales, en cualquier caso se llama indeterminación a todo contexto estocástico donde lo que sucede está asociado a algún grado de posibilidad.

En el siglo XX el concepto de indeterminación ha estado ligado al concepto de incertidumbre, entre otras razones, gracias al principio de Heisenberg, al cual, dependiendo del tipo de manuales o libros de divulgación científica, se le denomina principio de incertidumbre o principio de indeterminación.

El motivo por el que indeterminación e incertidumbre se han encontrado ligadas en la física, y en general al positivismo, se debe a que si certeza es cuando la probabilidad asociada a un acontecimiento es igual a uno, “1”, lo que en Probabilidad Imposible se denomina Máxima Probabilidad Empírica Posible, dado que la probabilidad es un término matemático que sólo puede oscilar entre cero, “0”, y uno, “1”, cuando se dice que la probabilidad de ocurrencia de un suceso es igual a uno, “1”, entonces hay absoluta certeza de que ese suceso vaya a ocurrir, no habiendo la más mínima duda de que pueda no suceder. En tal caso la certeza de ocurrencia es absoluta, determinación.

Sólo si la probabilidad de un fenómeno es inferior a la unidad, “1”, aunque mayor a cero, “0”, se dice que se hay un nivel de incertidumbre proporcional a la diferencia de la unidad, “1” menos esa probabilidad.

En función del nivel de incertidumbre, diferencia de uno, “1”, menos la probabilidad de ocurrencia, se asignará un grado de incertidumbre al fenómeno, y sólo si el nivel de incertidumbre es cero habría certeza absoluta. Salvo este caso, la incertidumbre es proporcional a la diferencia de la unidad, “1”, menos la probabilidad de ocurrencia.

A esta probabilidad de ocurrencia en Probabilidad Imposible se la denomina probabilidad empírica, y es igual a la puntuación directa o frecuencia de sujeto u opción entre sumatorio de puntuaciones directas o frecuencia. La teoría de Probabilidad Imposible en la medida que está enfocada a la crítica racional de lo que sucede, la realidad, o ha sucedido, la historia, la forma en que se calcula el margen de incertidumbre es a través del margen de error, de modo que cualquier hipótesis aceptada sobre un margen de error, es una hipótesis con un nivel de incertidumbre idéntico al margen de error, el cual previamente ha establecido la política científica en función de su razón crítica, y matemáticamente en el contraste de hipótesis se representa en forma de probabilidad crítica.

Siempre que en un modelo de ciencias sintéticas, naturales o sociales, no hay absoluta certeza de lo que puede suceder, es un modelo de indeterminación estocástica cuyo estudio depende de la utilización de métodos estocásticos, la estadística y la probabilidad. En el caso de Probabilidad Imposible, a través del campo de estudio que supone la estadística de la probabilidad o probabilidad estadística, para lo cual se genera una serie de métodos de estudio alternativos, el Segundo Método, el Impacto del Defecto, la Distribución Efectiva, y los estudios de ranking, todos ellos explicados en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

Se dice que un modelo de causalidad está sujeto a índices de probabilidad, causas probables, cuando no hay evidencia suficiente empírica que demuestre una vinculación clara y directa entre causa y efecto, de modo que la relación de causa y efecto es sólo probable. El ejemplo que suele citarse en Introducción ala Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, es la probabilidad del arco-iris . Si bien sabemos que cuando un rayo de luz penetra una gota de agua produce el efecto óptico de la fragmentación del espectro de colores de la luz, el hecho que llueva durante el día, dándose las condiciones de posibilidad del arco-iris, no es motivo o causa suficiente que determine la aparición del arco-iris, lo único que podemos saber es, sobre número total de días de lluvia observados, cuantos días ha salido el arco-iris, luego la probabilidad empírica de aparición del arco-iris será igual a número de días de lluvia observados que ha salido el arco-iris, entre el número total de días de lluvia observados.

 El hecho que llueva no es causa determinante o automática de la aparición del arco-iris,  es un fenómeno que sólo se produce bajo determinadas condiciones de posibilidad estocásticas, las cuales se pueden medir estadísticamente en forma de probabilidad, en Probabilidad Imposible la probabilidad empírica.

De otro lado se pueden dar fenómenos en donde sin haber una relación unívoca o unidireccional de causa y efecto, se pueden dar correlaciones positivas o negativas, a causa de la interacción o retroalimentación mutua. En este tipo de escenarios, más que relaciones de causa y efecto,  en la medida que los fenómenos interactúan y se retroalimentan entre sí, lo más conveniente es hablar de correlación, la cual puede ser directa o inversa.

Se dice correlación directa cuando la relación entre una serie de elementos es directamente proporcional, en donde el factor de correlación es el valor cuantitativo en que se relacionan de forma positiva los elementos estudiados. Si en un modelo  se observa una serie de elementos un crecimiento, sea en igual o desigual medida o proporción, se dice que hay correlación positiva en la medida que todos incrementan su valor, ya sea un crecimiento igual o desigual, pero siempre que en todos se manifieste crecimiento, siendo el valor numérico de la correlación positiva el factor de correlación en el crecimiento entre las diferentes variables.

Correlación inversa es cuando hay una correlación inversamente proporcional, si disponemos de dos elementos, y en tanto que una crece el otro decrece, o varios elementos, en donde mientras un conjunto de elementos crece el otro decrece, se dice que hay correlación inversamente proporcional entre el valor que crece y el otro que decrece, o correlación inversamente correlacional entre el conjunto que crece y el otro conjunto que decrece.

Los motivos por los que dos o más variables pueden correlacionar son diversos, ya bien por simple simultaneidad coincidente, o bien porque dicha coincidencia se produce  por algún conjunto de factores subyacentes en un contexto común a los fenómenos, que los desconozcamos, y sea la causa probable de su aparición, o sea una correlación debida a la propia influencia mutua entre los factores que se estudian, interacción o retroalimentación. Además de que sea una correlación debida a un modelo de causalidad probable, en donde la ocurrencia de un suceso normalmente correlacione favorablemente con otro posterior del cual sea causa probable.

Una de las características de la ciencia contemporánea es  que frente los modelos deterministas clásicos de relaciones absolutas de causación, la ciencia contemporánea tiende más al estudio de los niveles de causación probable o correlación, ya sea en estudios sobre la relación entre dos variables, o multi-variable.

El hecho que se admita la existencia de ámbitos empíricos de indeterminación estocástica, ha sido utilizado por algunos paradigmas para oponerse frontalmente a cualquier visión nomotética y normativa, sin embargo es curioso que mientras los paradigmas idiográficos han hecho uso de este argumento para reivindicar una ciencia cualitativa, especialmente en ciencias sociales, en el campo de las ciencias naturales la aceptación de la incertidumbre y la indeterminación empírica, lejos de suponer el rechazo a la formulación de leyes naturales, ha sido un elemento sobre el cual se ha articulado una revisión conceptual de la estructura de la ciencia, que mantiene la necesidad de leyes sobre lenguaje matemático, tal como ya proponía Galileo, operando una redefinición en la función leyes científicas, adaptándose a los nuevos escenarios de incertidumbre y relatividad.

Mientras en ciencias sociales el impacto del relativismo y la incertidumbre, o las nuevas teorías de la complejidad y el caos, han llevado a nuevos modelos científico sociales en donde se pone en duda el valor de las leyes científicas y el uso de metodologías cuantitativas, en ciencias naturales la forma en que se ha operado esta transformación en la comprensión de la ciencia es hacia un modelo de ciencia en donde la interpretación de las leyes naturales queda sujeta a grandes márgenes de indeterminación e incertidumbre, entendiéndose un necesario margen de libertad a los fenómenos, comprendiendo que cualquier predicción posible carece de certeza absoluta, habiendo márgenes de error en las afirmaciones y predicciones.

Es precisamente en los años en que Planck, Einstein, Heisenberg, Schrondinger y los primeros grandes teóricos de la mecánica cuántica y la cosmología de principios del siglo XX hacen sus descubrimientos más importantes, cuando emerge con toda su fuerza el positivismo lógico, en un momento de las ciencias naturales en donde se avanza al relativismo y el indeterminismo, momento en que esta escuela desarrolla una ciencia claramente nomotética. Si se observa las revelaciones científicas de principios del siglo XX, ninguno de los grandes físicos teóricos de la época pone en cuestionamiento las leyes científicas, lo que hacen es advertir que lo que las leyes científicas manifiestan es que la ocurrencia de sucesos queda sujeta a grados de posibilidad. Lo que se opera es un cambio de un modelo nomotético determinista a un modelo nomotético indeterminista. En ningún momento se produce una ruptura frente a Galileo, quien ya propone en las ciencias naturales el establecimiento de leyes naturales sobre lenguaje matemático, sólo se produce una ruptura frente al determinismo aristotélico.

El determinismo clásico, el determinismo aristotélico, por el cual la realidad es una secuencia determinada y ordenada de relaciones causa-efecto, completamente predecibles en la teoría de probabilidad de Laplace, que en su origen se deben a un primer motor, o causa primera, lo que en la metafísica escolástica se vincula a la idea de Dios, es un determinismo que si bien todavía hoy tiene importantes defensores, la idea de que el universo y la realidad es una secuencia predecible de causas y efectos que tiene por origen el Big Bang, sin embargo a medida que las ciencias se desarrollan el determinismo clásico está siendo abandonado por nuevos modelos de determinismo más sofisticados, lo que sería en realidad un neo-determinismo.

El determinismo clásico aristotélico parte de la idea de que todo está determinado por relaciones de causalidad, ahora bien, en la medida que esta idea ha sido fuertemente criticada desde las ciencias en el siglo XX, el determinismo clásico ha sido abandonado por nuevos modelos neo-deterministas, en donde si bien admiten márgenes de indeterminación, incertidumbre, o relativismo, entienden la determinación de la realidad en base a determinados reduccionismos.

Mucho de los reduccionismos de las ciencias sintéticas del siglo XX, y que encuentran diversos correlatos a inicios del siglo XXI, son en realidad neo-determinismos adaptados a las nuevas circunstancias que rodean a la filosofía y la ciencia.

Un ejemplo de neo-determinismo es el fisicalismo del siglo XX, una corriente que surgirá dentro del positivismo, según la cual todos los procesos naturales o sociales están determinados por los procesos físicos subyacentes. El fisicalismo del siglo XX en ningún momento rechaza la incertidumbre o la indeterminación de la física, ahora bien, aceptando que la física es una ciencia estocástica, luego indeterminada, establece que todas las demás ciencias y disciplinas científicas de uno u otro modo quedan determinadas por las relaciones estocásticas de la física. El fisicalismo supone un neo-determinismo por cuanto ya no defiende el determinismo clásico de Aristóteles, en la medida que acepta la indeterminación, la incertidumbre y el relativismo, es decir, acepta que la física es una ciencia estocástica no sujeta a determinaciones causales universales, pero sin embargo determina que todo cuanto pueda suceder en la naturaleza y la sociedad, y pueda ser estudiado por las demás ciencias naturales o sociales, son procesos determinados y supeditados a las relaciones estocásticas de la física.

De igual modo, muchos de los reduccionismos del siglo XX, por ejemplo el biologismo, según el cual todo queda determinado por la biología, incluso la teoría del conocimiento que depende de la fisiología, fisiologismo, o el economicismo según el cual todo queda determinado por la economía, en el caso del conocimiento por los intereses económicos, el psicologicismo por el cual todo está determinado por la psicología, y por supuesto la psicología del conocimiento, o el sociologismo según el cual todo queda determinado por las relaciones sociales, siendo el conocimiento una construcción social. Todo reduccionismo a su forma, aceptando en aquello sobre lo que hace la reducción un margen de indeterminación, todo lo demás queda determinado .

Aunque el biologismo pueda entender un margen de indeterminación en las relaciones biológicas, posteriormente todas las demás funciones humanas, sociales, económicas, culturales, quedan determinadas sobre las funciones de indeterminación biológicas. Es un neodeterminismo por cuanto entiende que hay un margen de indeterminación biológica, pero es sobre ese margen de indeterminación biológica sobre lo que se determina todo lo demás. En el economicismo sucede exactamente lo mismo, entendiendo que en las leyes del mercado, o cualquier otra ley económica hay márgenes de indeterminación, es sobre los márgenes de indeterminación de la economía sobre lo que posteriormente determina todas las demás funciones humanas. En el psicologicismo, aunque hay márgenes de indeterminación en la psicología humana, todas las demás funciones se supeditan y quedan determinadas por la psicología. Y en el sociologismo, aunque haya un margen de incertidumbre social, es sobre la incertidumbre social lo que se determinan todas las demás funciones.

Las críticas a este tipo de neo-determinismos en la epistemología y la filosofía del siglo XX han sido diversas, por la complejidad a la que tienden las ciencias hoy en día que escapan a la reducción o simplificación de todo a unos pocos factores. De un lado las ciencias físicas avanzan hacia una explicación del todo, tal como propone la Teoría de Cuerdas, lo cual supone un progreso hacia la unificación de la ciencia, aunque dentro de este tipo de teorías siempre hay riesgo de fisicalismo, si es que no riesgo de pitagorismo, y de otro lado, las nuevas teorías de la complejidad, que avanzan hacia una visión compleja en principio no reductible, aunque en algunas interpretaciones de este paradigma hay riesgo de biologismo, aunque sería más correcto decir vitalismo, por lo importante que ha sido la biología, y las reminiscencias de la metafísica vitalista, en el origen de las ciencias de la complejidad.

En la dialéctica entre determinación e indeterminación, a menudo se observa como paradigmas en principio no deterministas evolucionan a postulados deterministas, y viceversa, una ciencia históricamente determinista como ha sido la física a partir de Heisenberg tendrá importantes desarrollos indeterministas en el campo de la mecánica cuántica.

 A lo largo de la historia de la filosofía y la ciencia se observa una sucesión de paradigmas, a veces en una evolución en ciclos pendulares, en donde la filosofía y la ciencia, en su evolución cíclica, evolucionan yendo de un extremo a otro. Siendo en sus inicios el determinismo parte integrante de la ciencia, hasta finales del siglo XIX y principios del siglo XX, momento en que la crítica a este tipo de modelos, junto con la crítica que en el siglo XIX se hace a la lógica lineal y la geometría euclidiana, llevará a nuevos modelos de lógica, y nuevas formas de entender la realidad, en donde al tiempo que aparecen nuevos neo-determinismos, la incidencia del indeterminismo ha sido de enorme influencia.

Este cambio de paradigma científico tendrá mucha relación con los cambios que se ha producido desde la Ilustración, en donde hay una clara reivindicación del concepto de libertad, abandonando cualquier determinación absoluta sobre el comportamiento humano, a diferencia de épocas anteriores, por ejemplo la Reforma calvinista, en donde el comportamiento humano era una función determinada por parámetros religiosos.

Indeterminación y libertad tendrán una amplia repercusión en ciencias sociales, y especialmente en política, donde a medida que desde el siglo XIX triunfen las revoluciones democráticas, aparecen nuevos discursos liberales, de social-democracia, socialistas, y libertarios, haciendo un discurso sobre la importancia de la libertad del ser humano, y como la voluntad debe quedar libre de cualquier tipo de atadura, especialmente supersticiosa o metafísica, surgiendo así nuevos paradigmas en la ciencia, como el materialismo moderno, el positivismo o el nihilismo.

La indeterminación en la medida que supone ausencia de determinación, implica un margen de escepticismo empírico o duda racional en el conocimiento de lo que sucede, que de facto en la teoría de Probabilidad Imposible lleva a un margen de nihilismo lógico, dentro de los márgenes de error de la razón crítica.

 
 


Rubén García Pedraza, Madrid a 4 de diciembre del 


https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 

 
 
http://probabilidadimposible.wordpress.com/                                     


 

domingo, 2 de marzo de 2014

Margen de error


Margen de error de una medición o cómputo matemático es el intervalo cuantitativo de oscilación aceptable en unos resultados, aceptándose que no sean absolutamente exactos o precisos,  en tanto que nivel o grado de flexibilidad en el que se aceptan divergencias entre la realidad y sus expresiones cuantitativas, un margen de inconmensurabilidad entre lenguaje científico, matemático, y la verdadera realidad real.

En Probabilidad Imposible en el estudio del campo de la estadística de la probabilidad o probabilidad estadística, el margen de error puede ser sólo uno o doble, dependiendo de si es sólo un estudio sólo de estadística descriptiva o además inferencial.

El primer tipo de margen de error que se explica en los primeros apartados de Introducción a la Probabilidad Imposible es la probabilidad de error de representatividad muestral, siendo inexorable  en cualquier investigación estadística o probabilidad, en la medida que por error de representatividad muestral se entenderá el margen de error en la representación del universo en la muestra.

Si en teoría cualquier selección muestral de un universo dado tiene por objeto representar al universo, pero lógicamente la muestra no es el universo, sólo una selección, que además para ser válida debe ser aleatoria, la forma más fiable de representar toda la diversidad de casos, sujetos u opciones, variables, que forman el universo, es que la muestra sea lo más grande posible.

A mayor dimensión cuantitativa entonces la muestra se vuelve más fiable, al contar una mayor representación de toda la diversidad de sujetos u opciones que forman el universo. Luego si a mayor magnitud muestral mayor fiabilidad representativa, a menor magnitud muestral, menor tamaño de selección, menor fiabilidad en la representación del universo en la muestra.

En la medida que si a mayor muestra hay mayor fiabilidad y menor error de representatividad, a menor muestra entonces menor fiabilidad y mayor error de representatividad, luego de aquí se deduce una relación inversamente proporcional entre magnitud de la muestra y probabilidad de error de representatividad muestral, dado que a mayor muestra menor probabilidad de error de representatividad muestral, y a menor muestra mayor probabilidad de error de representatividad muestral

La primera estructura del margen de error en Probabilidad Imposible es la que se configura en el mismo instante de proceder a la selección muestral, y matemáticamente se expresa en una relación inversamente proporcional entre magnitud de la muestra y probabilidad de error de representatividad muestral. Si la relación entre error de representatividad y magnitud de la muestra, es una relación inversa, esto significa que la inversión de la muestra es igual a la probabilidad de error de representatividad muestral.

Dado que la probabilidad de error de representatividad muestral es igual a la inversión de la muestra, entonces la probabilidad de error de representatividad muestral será igual al cociente de la unidad, uno, “1”,entre la magnitud de la muestra, y la forma de medir la magnitud de la muestra dependerá del tipo de universo.

En universos de sujetos u opciones infinitos la muestra seleccionada será la muestra de N sujetos u opciones, luego si la magnitud de representación muestral depende de la variable N, número de sujetos u opciones que forman la muestra, en universos de sujetos u opciones infinitos, en la que se integran también poblaciones, tal como se explica en Introducción a la Probabilidad Imposible, la probabilidad de error de representatividad muestral será igual a la inversión de N, 1/N, dentro de las múltiples funciones que la inversión de N desempeña en Probabilidad Imposible.

Hay que recordar además que la inversión de N, 1/N, en Probabilidad Imposible es una ecuación multifuncional, en donde además, para cualquier tipo de universo, infinito o limitado, ejerce la función de media aritmética y probabilidad teórica, y particularmente en universos de sujetos u opciones infinitos es además probabilidad de dispersión teórica.

En universos de opciones limitadas dado que las opciones ya vienen limitadas por la propia naturaleza del universo, la verdadera selección muestral es la muestra de puntuaciones directas o frecuencias, de modo que si a mayor magnitud de puntuaciones directas o frecuencias mayor probabilidad de verse representadas todas las opciones del universo, entonces necesariamente la probabilidad de error de representatividad muestral en universos de opciones limitadas es igual a la inversión de la muestra de puntuaciones directas o frecuencias, 1/Σxi.

De esta manera el primer margen de error que explica Probabilidad Imposible, en los capítulos preliminares de Introducción a la Probabilidad Imposible, es el margen de error relativo a la probabilidad de error de representatividad muestral, inversión de N , 1/N, en universos de sujetos u opciones infinitos, e inversión de las puntuaciones directas o frecuencias, 1/Σxi, en universos de opciones limitadas.

Sea cual sea el objetivo político de cualquier investigación científica que utilice estadística y probabilidad en tanto que método sintético, en la primera fase de la investigación, la estadística descriptiva, necesariamente en el mismo instante que se define la magnitud de la muestra, la política científica ya está aceptando unos márgenes de error, el margen de error asociado a la propia fiabilidad en la representación muestral.

En la medida que la probabilidad de error de representatividad muestral es igual a la inversión de la muestra, lógicamente la fiabilidad de la representación muestral será igual a la diferencia de la unidad menos la inversión dela muestra, la unidad menos inversión de N , “1 – 1/N”, en universos de sujetos u opciones infinitos, la unidad menos  la inversión de las puntuaciones directas o frecuencias, “1 – 1/Σxi”, en universos de opciones limitadas.

A mayor magnitud de la muestra, sea N en universos de sujetos u opciones infinitos o sea la muestra de puntuaciones directas o frecuencias en universos de opciones limitadas, la muestra será más fiable, y a menor magnitud de la muestra el margen de error se incrementa. Sea cual sea la naturaleza de la investigación, siempre que utilice métodos estadísticos o de probabilidad, al menos en la teoría de Probabilidad Imposible, el primer margen de error que ya acepta la política científica es el margen de error de representatividad muestral. Esto lo que significa es que cualquier juicio moral de verdad sobre el universo, dentro de estos márgenes, es relativo a estos márgenes de error, dentro de los cuales, posiblemente dicho juicio moral sobre la verdad del universo sea falsa, en la medida que la representación muestral extraída de dicho universo no fue absolutamente isomorfa, haciéndose cualquier juicio moral que se haga sobre un margen de error de representatividad muestral. La probabilidad de falsedad del juicio moral descriptivo sobre el universo en base a una muestra, será igual a la propia inversión de la muestra, de forma que la única forma de ampliar el horizonte de fiabilidad en los juicios de verdad descriptivos es ampliando lo más posible la muestra.

Si bien la fiabilidad nunca es absoluta, porque siempre existirán unos márgenes de error relativos a la propia dimensión de la muestra, lo único que puede hacer la política científica es ampliar en lo más posible los límites de magnitud muestrales, para conseguir proposiciones descriptivas lo más isomorfas posibles, si bien el isomorfismo nunca será absoluto, porque por muy grande que sea la muestra, la muestra nunca será idéntica al universo, habiendo siempre motivos para una duda verdaderamente racional sobre los juicios de verdad.

En el momento que se acepta un primer margen de error, ya hay serias dudas racionales y un nivel de escepticismo empírico,  para pensar que posiblemente cualquier juicio moral sobre la verdad del universo que se haga sobre la muestra, en un margen de error, posiblemente sea falso.

En cualquier caso la probabilidad de error de repesentatividad muestral, si bien es inexorable, únicamente afectaría a las valoraciones descriptivas, porque en el  momento que se pasara a una segunda fase de la investigación científica, siempre que la contemplase, la estadística inferencial, en la prueba estadística de contraste de hipótesis, la crítica racional de las ideas, se generaría un segundo margen de error, el que la política científica fije a priori en la razón crítica y sea expresado matemáticamente en forma de probabilidad crítica.

El contraste de hipótesis es un modelo de crítica racional, de carácter cuantitativo, en donde sólo se acepta una hipótesis empírica, siempre y cuando su valor empírico, puesto en relación a un criterio racional, demuestre una fiabilidad suficiente, aunque no necesariamente absoluta, motivo por el cual se vuelve a generar un segundo margen de error.

En Introducción a la Probabilidad Imposible los diferentes modelos de crítica racional, expuestos a partir del apartado 11, siempre se hacen a partir de poner en relación el valor empírico de la hipótesis extraído de la muestra, en relación a un criterio racional, una razón crítica que la política científica fija en el proceso de crítica racional delas ideas, y expresado cuantitativamente en forma de probabilidad crítica, de manera que siempre y cuando el valor empírico sea igual o superior a la  probabilidad crítica entonces se acepta la hipótesis.

La probabilidad crítica es la expresión matemática de la razón crítica, y en síntesis es el margen de error que la política científica está dispuesta a aceptar en el contraste de hipótesis. Dependiendo del tipo de estudio la probabilidad crítica se podrá  calcular sobre un porcentaje de error, directamente el margen de error en la prueba estadística inferencial, o sobre un porcentaje de fiabilidad, que, en cualquier caso, ya se calcule la probabilidad crítica sobre un porcentaje de error o fiabilidad, en el caso de calcularse sobre un porcentaje de fiabilidad entonces el margen de error será igual a la diferencia de cien menos el porcentaje de fiabilidad. E inversamente, toda razón crítica que use en la crítica racional una probabilidad crítica sobre un porcentaje de error, tendrá un nivel de fiabilidad igual a cien menos el porcentaje de error en la crítica racional de las ideas.

De esta forma, en Probabilidad Imposible se genera una doble estructura del error, en primer lugar el margen de error asociado a la fiabilidad de representación muestral del universo, la probabilidad de error de representatividad muestral, igual a la inversión de la muestra, sea  N en universos de sujetos u opciones infinitos, sea la muestra de puntuaciones directas o frecuencias en universos de opciones limitadas, y el margen de error asociado a la razón crítica en la prueba estadística de contraste de hipótesis en la crítica racional.

El primer margen de error, de representatividad muestral, sólo afectaría a la estadística descriptiva, y el segundo margen de error, de la razón crítica, aceptaría a la estadística inferencial. En cualquier caso, aunque un nivel de política científica, moralmente muy exigente en la razón crítica del contraste de hipótesis, sólo aceptará 100% fiabilidad, luego 0% de error en la crítica racional, en cualquier caso, la fiabilidad de la hipótesis quedaría igualmente comprometida por la probabilidad de error de representatividad muestral, luego ya sea por el primer tipo de margen de error, de representatividad muestral, o el segundo, en la crítica racional, cualquier definición de verdad hipotética queda sujeto a un margen de duda racional y escepticismo empírico, ya sea de forma doble porque comprende dos posibles errores en el estudio, en la representación descriptiva de la muestra y la inferencia estadística, o porque aunque fuera tan sumamente exigente de no aceptar ningún error posible en la inferencia, en cualquier caso quería sujeto al error descriptivo de la representación de la muestra.

La necesidad de porque la política tiene que aceptar márgenes de error se debe al propio origen antropológico del error, tal como se explica en el apartado 7 de la Introducción a la Probabilidad Imposible, el origen del error es la propia contradicción entre naturaleza humana limitada frente realidad infinita, que en la medida que no podemos trabajar directamente con la infinitud de cualidades singulares de  los sujetos particulares, únicamente nos queda como recurso la selección de información, la primera de ellas, la selección muestral. No podemos conocer todos los átomos, neutrones, electrones o protones del universo, ni todos los quarks o partículas de Higgs, u otras partículas atómicas, ni podemos estudiar estadísticamente a todas las estrellas del universo, o de estudiar el comportamiento de una moneda lanzada al aire no podemos lanzarla infinitamente, el ser humano tiene límites, motivo por el cual sólo puede estudiar una selección del universo, ya sea una selección de sujetos u opciones, si son infinitos, o si es un universo opciones limitadas estudiar una muestra de puntuaciones directas o frecuencias.

El origen del error, la contradicción humana, exige la selección de información, generando un error en las afirmaciones sobre el comportamiento del universo, en donde, dichos juicios de verdad  sólo  serán moralmente verdaderos, la hipotética verdad del universo, aceptando unos márgenes de error en el cual somos conscientes que posiblemente todo conocimiento sea falso, pero a falta de refutarse, mientras no se demuestre lo opuesto, por nuevos avances en la ciencia, o nuevos avances en la tecnología que permita refutarlos, el conocimiento aceptamos verdadero, si bien somos plenamente conscientes que hay un margen racional de duda en que posiblemente lo que creemos verdadero sea falso, un margen de escepticismo empírico en el que posiblemente, si ponemos en duda toda hipótesis de causa, es porque lo que realmente ponemos en duda es la misma idea de causa, y donde creemos ver relaciones causales ,  quizás sólo haya relaciones estocásticas, caos y complejidad, relaciones no lineales, y más que determinación causal sólo haya causas probables o posibles orígenes de lo que creemos que son fenómenos reales, aunque quizás ni siquiera sólo sean reales, y sean sólo apariencias.

La aceptación del margen de error en las proposiciones sintéticas del universo lleva inexorablemente a una visión relativista de la verdad, en donde las afirmaciones de verdad sólo son verdades universales, una verdad sobre el universo, pero sólo de forma provisional, pero nada nos garantiza que vayan a ser verdades eternamente universales, dado que, al construirse sobre un margen de error, pueden refutarse en cualquier momento, y lo que hoy creemos verdad ser en realidad falso en el momento que dispongamos los conocimientos necesarios o adelantos tecnológicos que lo refute, luego siempre hay un margen de incertidumbre en el que lo que creemos ciencia quizás sea una especulación subjetiva.

El margen de error establece los parámetros cuantitativos sobre los que tener serias dudas racionales sobre la verdad de la ciencia, un motivo suficiente de escepticismo empírico sobre la idea de causa, y una definición relativa de la verdad, en donde la verdad es una variable temporal, luego efímera, dependiendo del progreso, luego un margen de incertidumbre en que posiblemente nada se puede definir de forma absoluta. En definitiva ideas que ya apuntaron filósofos e historiadores de la ciencia, como Popper, el falsacionismo, o Khun, al explicar las revoluciones científicas, en donde la ciencia lejos de ser un fenómeno gradual, avanza más bien por ensayo y error, reconociendo sus errores al refutarse los conocimientos previos y ensayando nuevos paradigmas, pero siempre aceptando un margen de equivocación en nuestros actos, que supone en definitiva un margen de nihilismo lógico, en donde posiblemente nada de la ciencia sea verdadero, pero al menos, de momento, es útil,  porque aunque progresivamente los conocimientos sean cada vez más isomorfos, nunca lo serán de forma absoluta, siempre habrá márgenes de error, donde nada sea verdadero, todo sea falso, y la ciencia una ideología asentada sobre el progreso en la fiabilidad.

La aceptación del margen de error supone la aceptación antropológica de la condición humana, no siempre perfecta, pero que se perfecciona progresivamente hacia una mayor fiabilidad de los enunciados, aunque si bien es una fiabilidad relativa,  es el lento progreso de las proposiciones hacia el isomorfismo ciencia y realidad aceptando nuestras  propias imperfecciones humanas.

Lo importante de la ciencia quizás no sea si es absolutamente verdadera, porque posiblemente, dentro de un margen de error, nunca lo sea, la cuestión sea seguir progresando en la fiabilidad de la ciencia, aunque seamos que nunca será absoluta, porque si bien quizás el progreso sólo sea una ideología, al menos es una ideología que, a diferencia de otras, sólo busca una mayor tendencia en el isomorfismo de las proposiciones sintéticas, y un mayor avance tecnológico, progresos científicos y tecnológicos, que si bien lo serán dentro de un margen de nihilismo, permitan un mayor avance físico y moral de la sociedad.
 
Rubén García Pedraza, Madrid a 2 de marzo del 2014
 
https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/