SciELO - Scientific Electronic Library Online

 
vol.15 issue24Determinable properties, determined properties and likenessThe speech of fiction in the theory of speech acts: an approach from john searle author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Discusiones Filosóficas

Print version ISSN 0124-6127

discus.filos vol.15 no.24 Manizales Jan./June 2014

 

Creer en lo inobservable: una mirada a los orígenes del realismo científico moderno*

Believing in the unobservable: a look at the origins of modern scientific realism

Bruno Borge
Universidad de Buenos Aires, Argentina. brunojborge@gmail.com

* El presente trabajo fue posible gracias al apoyo de la Agencia Nacional de Promoción Científica y Tecnológica (ANPCyT). Quiero además expresar mi agradecimiento hacia el evaluador anónimo por sus valiosos comentarios.

Recibido el 9 de marzo de 2014 y aprobado el 25 de junio de 2014

Resumen

Las discusiones acerca de cómo interpretar metafísicamente las teorías científicas hunden profundamente sus raíces en la historia de la ciencia y la filosofía. El debate realismo vs. antirrealismo científico, sin embargo, se instituyó como un campo autónomo en la segunda mitad del siglo pasado. En el presente trabajo se indagará en lo que, se considera, son las dos fuentes principales del realismo científico moderno: las interpretaciones filosóficas de nuevas teorías a partir de fines del siglo XIX y la organización del campo epistemológico luego de que el empirismo lógico abandonara su posición dominante. Se sostiene que puede identificarse una tendencia general hacia la valoración de las cuestiones metafísicas en el análisis de las teorías científicas; tanto en la evaluación de la teoría atómica de Dalton y la mecánica cuántica como en la recepción crítica de la llamada 'concepción heredada'.

Palabras clave

Antirrealimo científico, instrumentalismo, realismo científico, mecánica cuántica, teoría atómica.

Abstract

Discussions about how to interpret scientific theories metaphysically are deeply rooted in the history of science and philosophy. The Scientific Realism vs. Anti-Realism debate, however, was instituted as an autonomous field in the second half of last century. In this paper I intend to explore what I believe are the two main sources of modern Scientific Realism: the philosophical interpretations of new theories since the late nineteenth century, and the organization of the epistemological field after Logical Empiricism leave its dominant position. I maintain that a general trend toward the assessment of metaphysical questions in the analysis of scientific theories can be identified, both in the evaluation of Dalton's atomic theory and quantum mechanics, and in the critical reception of called "received view".

Key words

Scientific anti-realism, scientific realism, instrumentalism, quantum mechanics, atomic theory.



Introducción

En 1543, a instancias de uno de los discípulos más cercanos de Copérnico, veía la luz la primera edición de De revolutionibus orbium coelestium. Su autor coexistió apenas unos meses con su obra publicada y se tiene por cierto que su deteriorada salud le impidió llegar siquiera a conocer alguno de sus ejemplares. A pesar de la prudencia que resultaba de uso por aquellos días, Copérnico dejó traslucir en varios pasajes del libro su intención de postular el sistema heliocéntrico no solo como un sistema de cálculo que superase las dificultades que el modelo ptolemaico arrastraba desde hacía siglos, sino como una descripción del comportamiento físico real de los cuerpos celestes. Sin embargo, este espíritu realista se vio opacado durante algunos años por un prólogo sin firma que antecedía a la obra y que se atribuyó, sin más, al mismo Copérnico. En dicho prólogo se aclaraba explícitamente que las hipótesis expuestas a lo largo del texto habían sido concebidas con el solo objeto de calcular los movimientos celestes a partir de los principios de la geometría y que "...no es necesario que estas hipótesis sean verdaderas, ni siquiera que sean verosímiles, sino que basta con que muestren un cálculo coincidente con las observaciones" (Copérnico 33). Esta advertencia había sido introducida por el teólogo alemán Andreas Osiander, como un modo de atemperar las posibles reacciones adversas que el revolucionario sistema copernicano pudiera suscitar. Pese a su anonimato, serían precisamente esas líneas las que terminarían por darle a su nombre un lugar destacado en la historia de la astronomía y de la ciencia en general. Aun cuando sus rasgos coyunturales la dotaban de un carácter más bien político que filosófico, muchos han visto en la advertencia de Osiander el primer antecedente explícito de una posición antirrealista respecto de una teoría científica: el heliocentrismo copernicano no necesitaba ser una teoría verdadera para ser empíricamente adecuada. De hecho ni siquiera pretendía serlo, por lo que al postulado antirrealista que desliga el éxito predictivo de la verdad se agregaba otro netamente instrumentalista: la construcción del sistema no tenía por objeto brindar ningún relato acerca del mundo, sino solo una herramienta de cálculo, por lo que no debía "tomarse como verdad lo imaginado para otro uso" (Copérnico 33).

Otros, como por ejemplo Duhem (1990), han rastreado las manifestaciones de esta postura mucho más lejos. Para él, tanto la postura realista como instrumentalista se remontan a dos tradiciones alternativas en la historia de la astronomía. Por una parte, una tradición de cuño platónico que, partiendo de la convicción de que los astros se desplazan describiendo órbitas circulares y a velocidades uniformes, pretendía elaborar modelos geométricos que permitieran dar cuenta del movimiento aparente de los planetas, sin que ello tuviese un correlato con la estructura física del universo real. Por otra parte, una tradición de espíritu aristotélico en la que los meros artificios matemáticos para describir los movimientos celestes no resultan suficientes si no se los constriñe al criterio más riguroso de la realidad física. A sabiendas de que un mismo movimiento podría ser descripto a través de sistemas distintos, la explicación aristotélica requería de la apelación a la naturaleza de los elementos que entraban en esa explicación y, por ende, a la realidad misma de esos movimientos.

En esta arqueología del realismo/antirrealismo científico no han faltado las voces que buscaron relacionar diferentes episodios de la historia de la ciencia y la filosofía con los términos de la polémica actual. Con razón o sin ella, y por más notable que el caso de Osiander sea a la mirada contemporánea, debe admitirse que los debates en torno al realismo científico han estado profundamente imbricados en las disputas generales acerca del realismo y el idealismo, así como no han cobrado real independencia ni densidad filosófica hasta fines del siglo XIX y, principalmente, comienzos del XX.

Es allí, en coincidencia con el surgimiento de algunas de las teorías más importantes e influyentes para la ciencia contemporánea, que se abre el juego a interpretaciones y reflexiones filosóficas acerca de esas teorías y de la ciencia en general. Con todo, no es sino hasta mediados del siglo XX con la declinación del positivismo lógico como referencia filosófica dominante, que el campo de batalla entre realistas y antirrealistas científicos comienza a tomar la forma que hoy resulta familiar. Es por ello que más allá de las posibles reconstrucciones conceptuales del modo en que las raíces del realismo científico moderno se hunden en la historia, considero que dos son las fuentes principales a partir de las que se ha instituido como un campo de debate autónomo. Por una parte, los intentos que algunos científicos con vocación filosófica han llevado a cabo por defender alguna interpretación (realista o instrumentalista) respecto de teorías sobre el mundo inobservable, de cara a la constante afluencia de nuevos resultados experimentales. En esta línea, cabe reconocer dos momentos fundamentales. En primer lugar, el debilitamiento paulatino de las interpretaciones fuertemente instrumentalistas de la teoría atómica a fines del siglo XIX y comienzos del XX ante los avances obtenidos por la física y la química. En segundo lugar, el complejo campo de disputas que sostuvieron los padres de la teoría cuántica respecto de sus posibles interpretaciones a lo largo de su rica y ardua historia, disputas que hoy en día siguen siendo de las más desafiantes para cualquier filósofo de la ciencia. En este punto es de vital importancia considerar los fundamentos de la resistencia que realistas como Einstein y Schödringer mostraron hacia la llamada interpretación de Copenhague de la mecánica cuántica —que a pesar de no ser una posición compacta y unificada hegemonizó el campo de la filosofía de la física por décadas— y sus posteriores derivaciones en las disputas en torno al principio de localidad luego de los influyentes resultados alcanzados por John Bell.

Otra fuente no menos relevante para la configuración actual de las piezas en el tablero del debate está dada por el polo crítico generado en torno al positivismo lógico a partir de los años sesenta y el posterior desarrollo del campo filosófico en las décadas siguientes. El foco en este caso amerita ser puesto sobre el modo en que la polarización de los filósofos de la ciencia —en torno a reconstrucciones de la actividad científica de espíritu realista o más cercanas a la historia y la sociología de la ciencia— contribuyó al desarrollo más preciso y detallado de alguno de los argumentos centrales en favor del realismo o antirrealismo científicos. En tal sentido, se sostiene que la posición realista toma forma instituyéndose como una instancia crítica ante ciertas consecuencias relativistas del enfoque histórico, recuperando bajo un nuevo espíritu la rigurosidad de los criterios lógico-empíricos de los padres de la llamada 'concepción heredada'.

Nuevos retos de la ciencia

La idea de que la realidad física pudiese explicarse a partir de la postulación de pequeñísimas unidades indivisibles no ha sido, en modo alguno, extraña a occidente. Desde Leucipo hasta Newton muchos filósofos y científicos defendieron una u otra forma de atomismo. Sin embargo, fue la obra del químico inglés John Dalton la que instaló las hipótesis atomistas en el centro de la escena científica, lugar que (al menos en sentido amplio) no ha abandonado hasta nuestros días. Varios son los factores que pueden mencionarse como concurrentes a esa consolidación. En cuanto a los méritos estrictamente vinculados a su producción, Dalton pudo conjugar satisfactoriamente la doctrina atómica con el todavía difuso concepto de elemento químico para dar cuenta de muchas observaciones conocidas sobre las reacciones químicas. Así, se enfrentó a la llamada teoría de las afinidades, que postulaba disposiciones o tendencias intrínsecas de los elementos a combinarse en ciertas proporciones, que en sus diversas formas había monopolizado el campo de la química durante el siglo XVIII. Asimismo, su propuesta permitía explicar muchas regularidades empíricas vinculadas con las reacciones químicas recogidas en leyes ya conocidas, como la ley de Proust, que describía el modo en que dos o más elementos se combinan dando un determinado compuesto siempre en una relación de masas constantes. Así, dicha ley era explicada a partir de las proporciones definidas del número de átomos de cada elemento que se combina. Por otra parte, el atomismo de Dalton era notoriamente funcional al cada vez más pujante mecanicismo de raigambre cartesiana que dominaba el clima científico de la época, circunstancia que no debe omitirse al considerar las razones de una acogida que, si bien no fue inmediata, se expandió con notoria rapidez. Sin embargo, a pesar de que su poder explicativo y valor heurístico fueron ampliamente reconocidos, en modo alguno las hipótesis atómicas fueron tomadas por más que meras ficciones útiles. Las tablas de pesos atómicos y las leyes de equivalencia para la formación de compuestos que Dalton había derivado a partir de ella tenían plena concordancia con los resultados experimentales, pero la opinión general de la época era que eso solo bastaba para aceptar un atomismo químico, esto es, la explicación de los procesos de composición por medio de la adscripción de pesos a las partículas atómicas, pero no era suficiente para sostener un atomismo físico en el que dichas partículas elementales fueran consideradas como entidades físicamente existentes. Los aportes de Maxwell y Boltzmann al desarrollo de la teoría cinético-molecular de los gases a partir de 1850, hicieron de la discusión en torno a los átomos un tema de difusión generalizada también en física. A pesar de la concordancia de muchos resultados obtenidos en el marco de esta teoría con las propuestas originales de Dalton (como la atribución de pesos atómicos a partir de la hipótesis de la paridad en el número de moléculas en volúmenes iguales de gases, defendida por el físico italiano Amedeo Avogadro) todavía a fines del siglo XIX muchos de los exponentes más salientes de la ciencia de la época se mostraban escépticos respecto de la realidad de los átomos. Wilhelm Ostwald, en parte como respuesta al creciente fervor atomista, pero también como rechazo al mecanisismo imperante en física, desarrolló una alternativa centrada en la reducción de toda explicación mecánica a los principios de la termodinámica, que bautizó energetismo. El concepto mismo de materia debía ser desalojado de las explicaciones físicas en favor de la más plástica noción de energía; el vocabulario referente a átomos era, en el mejor de los casos, un modo abreviado de expresar las operaciones reales de la energía. Estas ideas, si bien no directamente inspiradas en algunos presupuestos del fenomenalismo de Mach, habían claramente sufrido su influencia. También en esa línea se encontraba Pierre Duhem, para quien los enunciados acerca de átomos (como acerca de cualquier otra entidad inobservable) no pueden ser verdaderos ni falsos, sino más o menos convenientes para la investigación según la convención vigente. Los únicos enunciados que portan valores veritativos son aquellos que refieren a hechos de experiencia. Así, su convencionalismo positivista derivaba en una posición instrumentalista respecto al atomismo. Con las variaciones propias del marco de su pensamiento, idéntica era la posición de Poincaré al respecto, para quien la hipótesis atómica era una suerte de metáfora, un medio para hacer cálculos empíricos por medio de imágenes del entendimiento.

Tal vez el ya aludido fenomenalismo de Mach (1986) sea la posición filosóficamente más rica a la hora de listar las evaluaciones críticas de la teoría de Dalton. Frecuentemente, insistió en que el átomo no debe ser considerado más que como un signo o función que remite a fenómenos y que los ordena de cierta forma y que por ello "debe permanecer como una herramienta para representar fenómenos, como las funciones de las matemáticas" (Mach 206). De hecho su reduccionismo fenomenalista no se restringía a los aspectos teóricos, sino que se trataba de una tesis ontológica de carácter general. Todos los objetos de la experiencia son meras abreviaturas conceptuales de cierto rango de fenómenos, los que son en última instancia los únicos constituyentes de la realidad. Así que, aun cuando se aceptase la existencia de los átomos (concesión a la que él se resistía), estos no serían diferentes a las piedras en cuanto a ser solo signos mentales que reúnen cierta conjunción de experiencias.

La nueva física que comenzó a tomar forma a partir de principios del siglo XX no decidió la controversia entre mecanicismo y energetismo, de hecho la materia y la energía fueron declaradas equivalentes por la teoría de la relatividad y así fue diluida toda pretensión de prioridad ontológica de una respecto de la otra. Sin embargo, la explicación que Einstein brindó en 1905 sobre el movimiento aleatorio de partículas en un fluido, conocido como movimiento browniano, inclinó la balanza en favor de la existencia real de los átomos y las moléculas para buena parte de los actores del debate. Según el artículo, el desplazamiento medio de las partículas podía ser calculado a partir de una constante que representa el número de moléculas que hay en un mol. En la década posterior a su publicación varias investigaciones hallaron valores para esa constante por métodos independientes al ensayado por Einstein, los cuales resultaron sorprendentemente aproximados al original. A menos que tal coincidencia fuera fruto del mero azar, las moléculas y, por tanto, los átomos, debían existir. De ello se convencieron tanto Ostwald como Poincaré, aunque Mach y Duhem permanecieron siempre escépticos al respecto.

El relativo consenso alcanzado sobre la realidad física de los átomos no cambió la impronta de neutralidad metafísica de la que los filósofos intentaron dotar a la ciencia en aquel momento. Pero la teoría cuántica puso nuevamente bajo la mirada de la comunidad científica una serie de problemas metodológicos y metafísicos que se tenían por superados. Buena parte de la importancia que el debate Einstein-Bohr sobre los fundamentos ontológicos de la teoría cuántica ha tenido para la historia de la ciencia, reside en ser testimonio de la vastedad y profundidad de las discusiones filosóficas que, abiertamente o enmascaradas bajo cuestiones técnicas, acompañaron la marcha de los revolucionarios desarrollos de la teoría cuántica.

La nueva generación de físicos aceptaba de buena gana la realidad de los átomos, para Bohr (1988), por ejemplo:
las dudas expresadas con frecuencia respecto de la realidad de los átomos eran exageradas […] Con todo, ha sido el reconocimiento mismo de la divisibilidad limitada de los procesos físicos, simbolizada por el cuanto de acción, lo que ha justificado las dudas […] relativas al alcance de nuestras formas ordinarias de intuición cuando se las aplica a fenómenos atómicos. Ahora bien, puesto que en la observación de esos fenómenos no podemos despreciar la interacción entre el objeto y el instrumento de medida, de nuevo pasan a primer plano las cuestiones que se refieren a las posibilidades de observación. Así, nos enfrentamos aquí, bajo una nueva luz, al problema de la objetividad de los fenómenos. (134)

Los problemas ahora se habían trasladado a los procesos microfísicos dentro del mundo atómico, en donde muchos de los conceptos de la física clásica y de la intuición ordinaria parecían ya no ser aplicables debido a una serie crecientemente compleja de fenómenos que requirieron (y requieren aún) de una precisa interpretación. El primer problema con el que se toparon los teóricos cuánticos fue la interpretación de la función de onda de Schödringer. Dicha función es una forma de representar el estado físico de un sistema de partículas y es capaz de adoptar valores complejos en los que aparece la unidad imaginaria. El mismo Schödringer proporcionó una ecuación determinista para explicar la evolución temporal de la función de onda y, por tanto, del estado físico del sistema en el intervalo comprendido entre dos medidas. En un primer término esta ecuación fue interpretada en clave realista por su autor, de acuerdo a la idea de que las partículas podían entenderse como una onda física que se propagaba en el espacio. Pero esta propuesta fue rápidamente abandonada y la función pasó a ser representada en un espacio de Hilbert de dimensión infinita. El problema de cómo entender al correlato físico de la función de onda se vincula estrechamente con otro de los problemas centrales de los fenómenos cuánticos: su naturaleza dual, que permite entenderlos alternativamente como ondas o partículas.

Un segundo problema conceptual es el problema de la medición, también conocido como 'colapso de la función de onda'. De acuerdo con la mecánica cuántica, un sistema microfísico se encuentra, respecto de algunas variables que eventualmente podemos medir (la orientación del spin de un electrón), en una serie de estados combinados que son descriptos de modo determinista por la función de onda de Schödringer, dicho de otro modo, el sistema evoluciona de modo determinista mediante una suerte de superposición de sus estados posibles. Pero al tomar efectivamente la medida de esa variable, obtenemos un valor único que no es determinado por la función ni por medio alguno y que tan solo puede anticiparse estadísticamente. Esto es lo que se conoce como 'colapso de la función de onda'. Ese factor de discontinuidad y azar en la medición ha sido fruto de múltiples interpretaciones. La más tradicional establece una continuidad indisoluble entre el instrumento de medición y la magnitud medida, de modo que fuera del proceso mismo de medición no es posible hablar de atributos objetivos de un sistema microfísico. Los fenómenos observados no pueden ser descriptos fuera del proceso de interacción entre el sistema y el aparato de medición. Esta idea, cultivada primordialmente por Bohr y Heisenberg, ha sido uno de los componentes nucleares de la denominada interpretación de Copenhague (u 'ortodoxa') de la mecánica cuántica. A ella debe adicionarse el principio de incertidumbre que, sumariamente, expresa la imposibilidad de determinar conjuntamente los valores para la posición y el momento de una partícula, ya que nuestro grado de conocimiento de una de esas variables va necesariamente en detrimento de nuestro conocimiento de la otra.

Einstein nunca se mostró a gusto con las implicaciones indeterministas y antirrealistas de la teoría cuántica. Especialmente, se preocupó por demostrar que si no podemos adscribir ciertas propiedades a un sistema que no se encuentra siendo medido, sino de modo estadístico, entonces la descripción que la teoría cuántica hacía de la realidad no podía ser completa. En otras palabras, podría ser completada por una teoría más expresiva, que aludiera a variables todavía no consideradas. En un artículo publicado en 1935 en colaboración con Boris Podolsky y Nathan Rosen desarrolló un argumento para probar este punto que pronto se bautizó como argumento EPR. Sintéticamente, exponía el hecho de que cuando dos sistemas microfísicos que se encuentran alejados, pero que han interaccionado en el pasado, las mediciones de la posición o momento en uno de ellos permite inferir el valor que la misma variable tendrá en el otro, aun cuando este no sea efectivamente sometido a una medición. Pero si un sistema tiene valores determinados para sus variables cuando no está siendo medido, y la teoría cuántica no los describe, entonces no es completa. Existen variables ocultas a dicha teoría. Las discusiones en torno al argumento EPR se prolongaron durante el resto del siglo XX y subsisten hoy día, aunque en una forma bastante diferente. Ya desde el momento de su misma formulación se hizo notar que el argumento EPR estaba sostenido en algunos supuestos, entre ellos, el de localidad, que eliminaba la posibilidad de que la medición en un sistema afectara a distancia al sistema con el que previamente había interactuado, pero del que luego se encontraba alejado. Los resultados obtenidos por Bell en 1964 mostraron la imposibilidad de formular una teoría de variables ocultas local, pero lejos de echar por tierra las aspiraciones realistas, esto abrió un nuevo y amplio campo de interpretaciones de la teoría cuántica dispuestas a conservar alguna forma de realismo respecto de los estados cuánticos, a costa de renunciar al postulado de localidad1; campo que se muestra hasta nuestros días tan concurrido como fructífero.

La irrupción en la historia de la ciencia de la teoría atómica y la mecánica cuántica ha propiciado buena parte de las polémicas que hoy son moneda corriente en el debate entre realistas y antirrealistas científicos. Salvando las distancias históricas y las peculiaridades propias de sus pormenores, hay ciertos paralelos que pueden ser trazados. La teoría atómica fue inicialmente recibida como una mera especulación cuyo único mérito era su adecuación empírica: su poder explicativo/predictivo permitía reunir una serie de regularidades conocidas que permanecían virtualmente inexplicadas, pero nadie tomaba en serio la posibilidad de que los átomos tuviesen una existencia real. Sin embargo, y aun cuando ya en los umbrales del siglo XX muy poco quedaba en pie de la original formulación de Dalton, los resultados experimentales terminaron por desplazar la interpretación instrumentalista en favor de un realismo metafísico respecto de las partículas atómicas. Las aporías conceptuales a las que parecen conducir algunos de los postulados fundamentales de la mecánica cuántica la han hecho nacer bajo la sombra de una interpretación que, más allá de algunas particularidades, puede ser tenida por instrumentalista. Si bien las interpretaciones no locales han acaparado buena parte de la atención en la segunda mitad del siglo pasado —y aún hoy—, sería exagerado equiparar esta tendencia con el vuelco hacia el realismo que tiñó a las interpretaciones de la teoría atómica. Sin embargo, sí puede señalarse que tanto en el caso de la teoría atómica como en el de la mecánica cuántica, el arco de evaluaciones filosóficas que suscitaron fue evolucionando desde un antirrealismo de marcada tendencia positivista que pretendía atenerse a los aspectos empíricos de las teorías hacia la valoración paulatina de los compromisos ontológicos que dichas teorías implican, si no para abrazar una lectura realista, al menos, para reconocer la importancia de las cuestiones metafísicas como parte constituyente de la evaluación de una teoría.

Nuevas perspectivas filosóficas

La segunda pieza clave en la construcción del debate contemporáneo entre realistas y antirrealistas corresponde netamente a la filosofía y se relaciona de un modo mucho más directo al abandono de las tesis positivistas y la revitalización de las discusiones metafísicas. Consiste de hecho en el rumbo que han tomado las reflexiones filosóficas acerca de la ciencia y su práctica luego del ocaso del positivismo lógico. Nada de lo que pueda decirse en una síntesis tan apretada como la que aquí se presenta puede constituir un análisis valorable del trabajo de los miembros del Círculo de Viena. Me limitaré a señalar algunos matices en su posición respecto de la cuestión central de este trabajo.

Más allá de que la riqueza de las opiniones de muchos de sus exponentes hace dificultoso hablar de una posición unificada, los empiristas lógicos han sido siempre ubicados más cerca de posiciones antirrealistas. A decir verdad, varios de sus desarrollos en semántica (el principio verificacionista del significado en sus distintas versiones, la reducción del vocabulario teórico al observacional, entre otros) procuraban constituir una postura más bien neutral respecto de la disputa. Carnap (1950), por ejemplo, había desarrollado una interesante clasificación respecto de las cuestiones que pueden plantearse en el seno de un campo determinado de investigación. Para el filósofo alemán, la aceptación de una teoría implica la adopción de un marco lingüístico que le es propio, en el que pueden definirse sus términos descriptivos y establecerse relaciones diversas a partir de ciertas reglas. Una vez aceptado el marco, las cuestiones que se pueden plantear a partir de él son de dos tipos: internas y externas. Mientras que las primeras pueden investigarse lógica o empíricamente y responderse a partir de las herramientas que el propio marco ofrece, las segundas son meras especulaciones metafísicas sin valor cognitivo. Aceptado el marco de los números naturales tiene sentido preguntar si existe un número primo máximo, se trata de una cuestión interna cuya respuesta debe buscarse mediante el razonamiento matemático, pero sí en cambio preguntásemos si existen los números o si el nueve es una entidad real, estaríamos aventurándonos a una cuestión externa para la que el marco lingüístico que adoptamos no puede tener respuesta. Lo mismo haríamos si indagásemos acerca de la existencia de los átomos: ello tiene sentido como una cuestión interna al marco lingüístico de la física, pero como problema metafísico es cognitivamente vacío. De ese modo la controversia sobre el realismo científico es reducida a una mera cuestión de formas de hablar, para Carnap:

decir que una teoría es un instrumento de confianza —esto es, que se confirmarán las predicciones de sucesos observables deducidas de ellas— es esencialmente lo mismo que decir de la teoría que es verdadera y que las entidades inobservables de las que habla existen. Así, no hay ninguna incompatibilidad entre la tesis de los instrumentalistas y la de los realistas. (218)2

Pero más allá de su pretendida neutralidad, la resistencia respecto de cualquier compromiso metafísico y, en algunos casos, la adopción explícita del instrumentalismo han acercado al empirismo lógico a una toma de posición más cercana al antirrealismo.

En el abandono de su posición dominante el empirismo lógico dio lugar, a partir de los años sesenta, a múltiples variaciones en el tono y el objeto de la filosofía de la ciencia. Aunque lo heterogéneo de las propuestas hace ardua cualquier clasificación, creo que es posible distinguir dos tendencias bastante bien definidas. Por una parte, un creciente número de filósofos de la ciencia se ocupó de señalar la importancia que la historia y la sociología de la ciencia tenían en la reflexión epistemológica. Su denominador común fue el abandono del normativismo empirista en pos de una consideración de la ciencia que resaltara sus aspectos prácticos y su inserción, en tanto actividad humana, en una compleja red de determinaciones sociales, lingüísticas, culturales, entre otras. Autores como Hanson, Feyerabend y Goodman han estado a la cabeza de esta corriente, aunque, en parte por la originalidad de sus ideas, en parte porque su expansión ha alcanzado campos muy distantes de la filosofía e incluso de otras disciplinas, el pensamiento de Kuhn ha ejercido más influencia que ningún otro. Tal difusión se ha debido en buena medida al impacto de su tesis de la inconmensurabilidad, una de las más radicales de su propuesta ya que —cuestionando la continuidad semántica, epistémica y metodológica en el desarrollo histórico de la práctica científica— ponía en jaque la noción misma de progreso científico. Como contraparte, muchos autores buscaron revitalizar un enfoque empírica y lógicamente riguroso respecto de la práctica científica, destacando su racionalidad y el carácter acumulativo del conocimiento que tiene por producto. Todo ello configuró un espectro de propuestas heterogéneas que, sin embargo, se aunaron bajo la defensa de alguna forma de realismo respecto de la ciencia. Karl Popper fue sin dudas uno de los iniciadores y más importantes exponentes de esta corriente. Sellars, el primer Putnam y Bunge fueron continuadores de esta empresa filosófica de la que hoy son herederos autores como Psillos, Kitcher o Niiniluoto. En el marco de las críticas a (y alegatos en favor de) estas nuevas ideas se han desarrollado muchos de los argumentos hoy clásicos en el debate realismo vs. antirrealismo científicos.

La propuesta que Kuhn expuso en su segundo libro, La estructura de las revoluciones científicas, orientó a la epistemología hacia un rumbo que muchos filósofos de la ciencia siguieron con entusiasmo. Tanto su idea de que la ciencia funciona cíclicamente como una actividad centrada en la resolución de problemas relativos a ciertos marcos conceptuales-lingüísticos-prácticos (denominados 'paradigmas') como su convicción respecto de que esos marcos representan unidades epistémica y metodológicamente independientes, en cuya sucesión la investigación científica se desarrolla respondiendo a "mundos diferentes" (Kuhn 176), sacudieron fuertemente dos pilares de la epistemología tradicional: la creencia en la continuidad del conocimiento ofrecido por la ciencia y en la racionalidad de su ejercicio. Si bien su ataque a la concepción de la ciencia como una actividad racionalmente guiada causó gran resistencia3, fueron las consecuencias relativistas de su tesis de la inconmensurabilidad las que suscitaron todo un arco de críticas que, sin conformar una posición unificada, fueron cristalizando en un polo de oposición realista. Si efectivamente los sucesivos paradigmas en los que la ciencia se ha desplegado históricamente son inconmensurables entre sí, si no existe posibilidad alguna de valorarlos mediante criterios (epistémicos, lógicos, empíricos, metodológicos, entre otros) independientes de las propias cosmovisiones que configuran, si el lenguaje de la ciencia cambia con cada nuevo paradigma, entonces toda pretensión de progreso científico acumulativo debe ser descartada. Las reacciones críticas ante estas ideas frecuentemente echaron mano del innegable éxito predictivo y práctico de la ciencia como testimonio de algún tipo de continuidad en su discurso sobre el mundo, lo que en menos de dos décadas decantó en la formulación del llamado 'argumento del no milagro', el arma intuitivamente más poderosa a favor del realismo científico. Debemos a Hilary Putnam (1975) —entre tantas otras cosas— su primera enunciación. Según él "[el realismo] es la única filosofía que no hace del éxito de la ciencia un milagro" (73). Aunque no haya quedado explícito en esta formulación germinal, dicho argumento es una instancia de lo que (a partir de la expresión con la que Harman lo bautizó en 1965) se conoce como 'inferencia a la mejor explicación': la verdad (aunque sea aproximada) de nuestras mejores teorías es la mejor explicación de su creciente éxito predictivo. Es por ello que versiones posteriores del argumento del no milagro (Boyd 1989; Lipton 1994) se centraron en la defensa de la inferencia a la mejor explicación como forma legítima de razonamiento.

Otro punto estrechamente vinculado a las tesis kuhnianas es la puesta en duda del carácter empírico de las teorías científicas. Nelson Goodman insistió en que las teorías ofrecen una suerte de 'versión del mundo', pero ninguna de estas versiones se contrasta directamente con la experiencia, puesto que aquello que llamamos 'experiencia' no es más que otra versión posible del mundo. Ya que en otros términos, las teorías no pueden ser puestas en correlación directa con la experiencia, sino siempre con una batería de enunciados que la describen, pero esos enunciados no tienen ningún carácter privilegiado respecto de cualquier otra descripción posible. Lo que llamamos contrastación empírica es un juego que queda clausurado en el lenguaje y, por tanto, el adjetivo 'empírica' es simplemente un modo de hablar. Popper (1959), al igual que Goodman, rechazó la idea de una base empírica inamovible para la ciencia tal como había quedado plasmada para muchos empiristas lógicos en la idea de un conjunto de 'enunciados protocolarios' que podrían ser establecidos por medio de la observación directa y que describirían hechos inmutables e independientes de las teorías. Sin embargo, abordó este problema de una manera interesante. Para él, todo reporte observacional puede ser puesto a prueba, pero cada prueba debe parar en cierto enunciado u otro que decidimos aceptar:

the basic statements at which we stop, which we decide to accept as satisfactory [...] have admittedly the character of dogmas, but only in so far as we may desist from justifying them by further arguments (or by further tests). (Popper 105)

La aceptación de un enunciado básico no puede ser justificada por nuestras experiencias de observación, pero la decisión de aceptar un enunciado básico está causalmente conectada con nuestras experiencias. Así, el carácter empírico de las versiones científicas reside en su vinculación causal con el mundo independiente de la mente que las motiva. El desarrollo y defensa de la teoría causal de la percepción como pilar para el realismo científico resultó un tópico frecuente en la literatura posterior, principalmente en relación con algunas variantes específicas del realismo científico como el realismo estructural y el realismo de entidades4.

El rechazo explícito de la pretensión empirista de fundamentar la existencia de un vocabulario privilegiado —fenomenalista o fisicalista— capaz de bridar una base observacional neutral e inamovible para la contrastación de cualquier teoría, no siempre condujo a las conclusiones relativistas propias del constructivismo de Goodman o Kuhn. Para Sellars, la tesis de un lenguaje observacional puro tenía serios inconvenientes tanto en su origen equívoco como en las consecuencias ontológicas que los empiristas lógicos habían sacado de ella. En cuanto a su origen, la tesis se sustentaba en una distinción teórico/observacional en la que los términos teóricos eran concebidos como meras abstracciones que permitían organizar y vincular generalizaciones formuladas en el lenguaje observacional, sin un valor cognitivo o descriptivo propio. Es por ello que, así concebida la distinción entre el contenido empírico y el vocabulario teórico, este último pasa a jugar un papel accesorio en la conformación de las teorías: el de un mero instrumento para el cálculo de predicciones empíricas, no respaldado por ningún compromiso ontológico. En opinión de Sellars (1963) todo este cuadro está errado. La distinción teórico/observacional es relevante solo en una dimensión metodológica y es en sí misma eminentemente pragmática. No tiene, por ello, la fuerza ontológica para delimitar un campo de garantía epistémica constituido por lo fenoménicamente 'dado'. Los significados son solamente roles funcionales que van determinándose en el uso del lenguaje, por lo que un término originalmente concebido en el marco de una teoría puede luego formar parte del reporte inmediato de una observación. La clave reside en su eficiencia para organizar compresivamente lo percibido. Así, lo que resulta accesorio y en última instancia prescindible son las generalizaciones empíricas 'neutras' y no el lenguaje teórico con el que se ordena explicativamente el contenido empírico. Es por ello que "tener buenas razones para sostener una teoría es ipso facto tener buenas razones para sostener que las entidades postuladas por la teoría existen" (Sellars 91). La revisión crítica de los postulados empiristas termina así en una defensa del realismo científico.

Aunque la variedad de sus indagaciones no haya permitido una identificación inmediata bajo un rótulo común, posiciones reactivas ante el giro sociológico-histórico en epistemología, dispuestas a su vez a reformar radicalmente el legado de los empiristas lógicos, terminaron por constituir una batería de argumentos en defensa del realismo científico. En torno a ella se abrió todo un campo de discusión filosófica que conjugó nuevas y viejas ideas para sustentar una creciente variedad de posiciones realistas y antirrealistas. A la fuerza intuitiva del argumento del no milagro le fue contrapuesta la de la meta-inducción pesimista (cuya formulación canónica se encuentra en Laudan 1981): la historia de la ciencia nos muestra toda una serie de teorías exitosas, pero luego refutadas, que nos permite inferir la futura refutación de las teorías actuales. A su vez, el espíritu instrumentalista de los primeros empiristas fue recuperado en el agnosticismo ontológico de una posición que, desde 1980, luce como una de las alternativas más sólidas del antirrealismo: el empirismo constructivo de van Fraassen. El debate realismo vs. antirrealismo científicos terminó por instituirse como un fructífero y complejo campo de discusión enriquecido por múltiples vertientes que incluyen a las filosofías especiales, concepciones estructuralistas y disputas presentes en el seno mismo de ciencias como la física o la biología.

Conclusiones

El presente trabajo ha tenido como objeto remontarse a los orígenes del realismo científico moderno, a partir de lo que, sostengo, son sus dos fuentes fundamentales: las disputas en torno a la interpretación de nuevas teorías científicas desde fines del siglo XIX y la evolución de la epistemología sobre la base del legado de los empiristas lógicos. En cuanto a la primera, se ha intentado mostrar cómo, a pesar de sus diferencias, puede trazarse un paralelo en la recepción de la teoría atómica de Dalton y el rumbo en las disputas sobre la mecánica cuántica. En ambos casos la hegemonía de interpretaciones instrumentalistas decantó en un progresivo avance de las cuestiones metafísicas sobre el campo de la discusión filosófica acerca de los fundamentos y el valor de las teorías, que tuvo a la alternativa realista, si no como la posición triunfante, al menos, como voz central en el debate. En cuanto a la segunda fuente, se procuro mostrar cómo la salida histórica al positivismo lógico ha dado lugar a una tendencia filosófica que asumió rápidamente una posición adversa a la incursión del historicismo en epistemología y en particular a sus consecuencias relativistas. Las banderas del realismo, en versiones más o menos radicales, se levantaron a favor de la racionalidad de la empresa científica, como así también para defender su carácter continuo y acumulativo. El sacrificio de la pretensión positivista de desterrar las cuestiones metafísicas de la filosofía de la ciencia no implicaba el abandono del rigor lógico y empírico del que los padres de la 'concepción heredada' la habían dotado.

Ambas líneas de desarrollo de la historia conjunta de la ciencia y la filosofía de la ciencia pueden revisarse cuidadosamente para, haciendo los énfasis adecuados, aprender más de una lección. En estas páginas, nos hemos contentado con resaltar solo una de ellas: la discusión filosófica de las teorías científicas es un ámbito del que resulta sumamente arduo desalojar las cuestiones metafísicas. En particular el compromiso ontológico con las entidades inobservables de las que nuestras teorías hablan parece un tema ineludible para cualquier reflexión filosófica sobre la ciencia, sea empirista, constuctivista, realista o lo que se prefiera. Después de todo, todos hemos de decidir si creer o no en aquello que no podemos ver. Y claro, explicar por qué.



Notas al Pie

1 Cabe mencionar entre ellas la teoría de variables ocultas no locales de Bohm y la interpretación de los muchos mundos de Everett.
2 Esta idea ilustra lo que Psillos (1999) llama la 'tesis fuerte de la compatibilidad' entre el realismo y antirrealismo científicos, que Carnap defendió en la primera edición de The Philosophical Foundations of Physics, de 1966; posición que —según el mismo Psillos documenta (58)— Carnap abandonó en la edición de 1974 omitiendo el párrafo final.
3 Prueba de ello es que incluso partidarios de la concepción historicista, como Imre Lakatos, procuraron conjugar los aspectos descriptivistas de la nueva tradición con el supuesto de la racionalidad de la ciencia.
4 El realismo estructural y el realismo de entidades son dos vertientes contemporáneas de la tradición realista respecto de la ciencia. El primero consiste en la afirmación de que solo conocemos las relaciones existentes en el mundo inobservable, i.e. su estructura, pero no su naturaleza y, asimismo, ese es el factor de continuidad epistémica en la historia de la ciencia (algunas de sus formulaciones pueden encontrarse en Russell 1927; Worrall 1989; Votsis 2003). El segundo sostiene que debemos tener una actitud realista solo respecto de aquellas entidades del mundo inobservable que podemos manipular (su formulación canónica se encuentra en Hacking 1982).



Referencias biliográficas

Bohr, N. El cuanto de acción y la descripción de la naturaleza. Madrid: Alianza, 1988. Impreso.         [ Links ]

Boyd, R. N. "What Realism Implies and What it Does Not". Dialectica. 1989: 5-29. Print.         [ Links ]

Carnap, R. Fundamentación lógica de la física. Barcelona: Alianza, 1985. Impreso.         [ Links ]

Copérnico, N. Sobre las revoluciones. Madrid: Tecnos, 1987. Impreso.         [ Links ]

Duhem, P. Sozein ta phainomena: Essai sur la notion de théorie physique de Platon à Galilée. Paris: J. Vrin, 1990. Imprimé         [ Links ].

Hacking, I. "Experimentation and Scientific Realism". Philosophical Topics. 1982: 71-87. Print.         [ Links ]

Harman, G. "The Inference to the Best Explanation". Philosophical Review. 1965: 88-95. Print.         [ Links ]

Kuhn, T. La estructura de las revoluciones científicas. México: Fondo de Cultura Económico, 1975. Impreso.         [ Links ]

Laudan, L. "A Confutation of Convergent Realism". Philosophy of Science. 1981: 19-48. Print.         [ Links ]

Lipton, P. "Truth, Existence, and the Best Explanation". A. A. Derksen (ed.). The Scientific Realism of Rom Harré. Tilburg: Tilburg University Press, 1994. Print.         [ Links ]

Mach, E. "The Economical Nature of Physical Inquiry". Popular Scientific Lectures. La Salle: Open Court, 1986. Print.         [ Links ]

Popper, K. R. The logic of scientific discovery. New York: Harper and Row, 1959. Print.         [ Links ]

Psillos, S. Scientific realism: how science tracks truth. London: Routledge, 1999. Print.         [ Links ]

Putnam, H. Mathematics, Matter and Method. Cambridge: Cambridge University Press, 1975. Print.         [ Links ]

Russell, B. The Analysis of Matter. London: George Allen & Unwin, 1927. Print.         [ Links ]

Sellars, W. F. Phenomenalism. Science, Perception and Reality. New York: The Humanities Press, 1963. Print.         [ Links ]

Votsis, I. "Is structure not enough?" Philosophy of Science. 2003: 879-890. Print.         [ Links ]

Worrall, J. "Structural Realism: The Best of Both Worlds?" Dialectica. 1989: 99-124. Print.         [ Links ]


Como citar:
Borge, Bruno. "Creer en lo inobservable: una mirada a los orígenes del realismo científico moderno". Discusiones Filosóficas. Ene.-jun. 2014: 163-180.