0 análisis epistemológico ii, 2011

188

Transcript of 0 análisis epistemológico ii, 2011

Page 1: 0 análisis epistemológico ii, 2011
Page 2: 0 análisis epistemológico ii, 2011
Page 3: 0 análisis epistemológico ii, 2011

Análisis Epistemológico II

Editorial Martín

Mar del Plata

Page 4: 0 análisis epistemológico ii, 2011
Page 5: 0 análisis epistemológico ii, 2011

José María Gil y Gastón Julián Gil

(Editores)

Análisis Epistemológico II

Trabajos del Grupo dirigido por Manuel Comesaña

Page 6: 0 análisis epistemológico ii, 2011

José María Gil y Gastón Julián Gil: Análisis Epistemológico II. Trabajos del Grupo dirigido por Manuel Comesaña.

Mar del Plata: Editorial Martín, 2011. 196 p.; 23x15.

ISBN: 978-987-553-292-5 CDD: A860

Diseño: Ricardo Martín, Gastón Julián Gil y José María Gil Primera edición: © José María Gil, Gastón Julián Gil y Ricardo Martín Queda hecho el depósito que marca la ley 11723. Queda prohibida la reproducción total y/o parcial de este libro sin la autorización previa del autor y/o editor

Page 7: 0 análisis epistemológico ii, 2011

ÍNDICE

Prefacio

9

Manuel Eduardo Comesaña: ¿Para qué sirve la filosofía? 11 José María Gil: Limitaciones de la pragmática y la semiótica

19

Gustavo Fernández Acevedo: ¿Cómo debe entenderse la

condición de evidencia en el autoengaño?

35 Boris Kogan: Neuronas en espejo: pertinencia y

contribuciones para la psicología

47 Nicolás Agustín Moyano Loza: Una consecuencia iontológica

del concepto de simultaneidad

55 César Luis Vicini: Filósofos y hablantes

63

Nicolás Trucco: Sobre la (supuesta) necesidad de formalizar

el lenguaje

69

Lucas Martín Andisco: La metodología de las ciencias

deductivas según Tarski

73 Esteban Guio Aguilar: Arte y conocimiento: El mensaje

estético contemporáneo y su vínculo con el conocimiento

85 Federico Emmanuel Mana: Las ventajas de la enseñanza de la

prueba formal de validez según la metodología de Gamut

95 Carolina García: ¿Ha llegado la ciencia a la verdad? Crítica a

la tesis del fin de las ciencias de John Horgan

103 Daniela Suetta: El marco epistemológico de los sistemas

conceptuales en la teoría interpretativa davidsoniana

109

Page 8: 0 análisis epistemológico ii, 2011

8

Emiliano Aldegani: Castoriadis: el signo como conjunto de coparticipaciones y su status ontológico

119

Adolfo Martín García: Cómo la neurolingüística puede contribuir al saber traductológico

127

María Soledad Schiavini: Plausibilidad neurológica de la

teoría de las cuatro etapas de la lectura de Emilia Ferreiro

137 Fabrizio Zotta: Representación y comunicación: hacia una

(des)ontología de lo real

145 Patricia Britos: El marxismo analítico

153

María Belén Hirose: Universalismo y relativismo en

antropología anglosajona de fines del siglo XX. Una aproximación desde la semiótica

163 Gastón Julián Gil: Ciencia, cientificismo y liberación

nacional. Las ciencias sociales y los debates epistemológicos de los sesenta y los setenta en la Argentina

175

Información sobre los autores del libro

187

Page 9: 0 análisis epistemológico ii, 2011

9

PREFACIO

La compilación que aquí se te ofrece, amable lector, es la tercera de lo que ya podemos denominar “una serie”, iniciada por Estudios sobre el lenguaje (Estanislao Balder, de 2008) y Análisis Epistemológico (Editorial Martín, 2009).

Todos los trabajos de este nuevo volumen (que de forma poco original pero prolija se titula Análisis Epistemológico II) tienen en común la labor analítica que es propia del grupo dirigido por Manuel Comesaña desde que se iniciara la carrera de Filosofía en la Universidad de Mar del Plata, en 1994. El primer capítulo es justamente la reedición de un trabajo para nosotros fundamental de Comesaña; en “¿Para qué sirve la filosofía?” se establecen nociones claves para entender la diferencia entre el trabajo del filósofo y el trabajo del científico.

El libro intenta ser una muestra sencilla pero concreta de la finalidad educativa de nuestros gratos y deliberados esfuerzos. Los estudiantes avanzados de hace dos o tres años ya son graduados, becarios de investigación, estudiantes de doctorado y docentes en los niveles medio y universitario.

La base lógica y la concepción realista y racionalista del conocimiento están presentes, a veces de forma explícita y otras de forma más sugerente, a lo largo de todo el libro. Gracias a esa base y a esa concepción, creemos, pueden alcanzarse varios objetivos imprescindibles, como mejorar la capacidad para expresar ideas, formular razonamientos con rigor y examinar esos razonamientos críticamente. La concepción realista-racionalista nos obliga a pensar por nuestra propia cuenta y a combatir toda clase de fanatismo: Un razonamiento será bueno (o malo) independientemente de quién lo exponga. En otros ámbitos, por ejemplo en el dogma religioso, en el dogma político, y aun en el dogma académico, nada importa más que la posición de poder de quien viene a decirnos algo. Que este libro ofrezca alguna contribución para distinguir los razonamientos buenos de los razonamientos malos, y que nos ayude a entender que el verdadero problema no es (como cree Humpty Dumpty) “ver quién manda”.

José María Gil

Mar del Plata, 28 de febrero de 2010

Page 10: 0 análisis epistemológico ii, 2011
Page 11: 0 análisis epistemológico ii, 2011

M. Comesaña, Análisis Epistemológico II, Martín, Mar del Plata, 2011, pp. 11-19.

¿PARA QUÉ SIRVE LA FILOSOFÍA? 1

Manuel Eduardo Comesaña

I

La filosofía consiste en discusiones interminables sobre problemas que no se pueden resolver. Por supuesto, no todos están de acuerdo con esta manera de entender la filosofía: los que proponen alguna solución para un problema filosófico suelen estar convencidos de que en efecto lo han resuelto. Justamente, uno de los problemas filosóficos no resueltos es el que se expresa en la pregunta "¿Qué es la filosofía?". Yo suscribo una concepción de la filosofía muy difundida según la cual los problemas filosóficos no son solucionables, esto es, no sólo no se han resuelto hasta ahora sino que no se pueden resolver. A veces un problema filosófico se torna solucionable; es lo que sucede cuando los especialistas en el tema se ponen de acuerdo en cómo hay que tratarlo, en cuál es el método para tratar de resolverlo. Pero, cuando ocurre esto, el problema deja de ser filosófico y pasa a formar parte de una disciplina científica independiente de la filosofía -aunque ésta no es una cuestión de todo o nada, y algunos problemas se ubican en una difusa zona intermedia-. Esta es la diferencia fundamental entre la ciencia y la filosofía. Para decirlo con la demasiado célebre terminología de Kuhn, la filosofía se encuentra siempre en el período anterior al paradigma, y cada vez que el tratamiento de un tema por parte de los especialistas supera ese estadio, el tema deja de ser filosófico para convertirse en científico, debido a que, como dice Peter Medawar, "la ciencia es el arte de lo solucionable". Uno de los que compartieron esta concepción de la filosofía fue Austin, que la expresó con las siguientes palabras:

En la historia de las indagaciones humanas la filosofía ocupa el lugar de un sol central originario, seminal y tumultuoso. De tanto en tanto ese sol arroja algún trozo de sí mismo que adquiere el status de una ciencia, de un planeta frío y bien regulado, que progresa sin pausa hacia un distante

1 Reproducido con el amable permiso de Editorial Biblos. 1° edición: Francisco Naishtat y Oscar Nudler (editores) El filosofar hoy, Buenos Aires, Biblos, 2003.

Page 12: 0 análisis epistemológico ii, 2011

Manuel Eduardo Comesaña

12

estado final. Esto ocurrió hace ya mucho tiempo cuando nació la matemática, y volvió a ocurrir cuando nació la física; en los últimos cien años hemos sido testigos una vez más del mismo proceso, lento y casi imperceptible, que presidió el nacimiento de la lógica matemática a través de los esfuerzos conjuntos de los matemáticos y de los filósofos. Me pregunto si no es posible que los próximos cien años puedan asistir al nacimiento, merced a los esfuerzos conjuntos de los filósofos, de los gramáticos y de otros muchos estudiosos, de una genuina ciencia del lenguaje. Entonces nos liberaremos de otra parte de la filosofía (todavía quedarán muchas) de la única manera en que es posible liberarse de ella: dándole un puntapié hacia arriba.2

Esta diferencia entre ciencia y filosofía no es un capricho terminológico; se trata de actividades distintas, que requieren vocaciones también distintas. Para decirlo de nuevo con el servicial léxico de Kuhn, una cosa es ser un investigador "normal", que se dedica a resolver problemas, y otra cosa muy distinta es participar en discusiones interminables sobre temas que se encuentran en un estado permanente de "crisis" (o de "preciencia", lo que para el caso es lo mismo). La mayor parte de los que desarrollan alguna actividad teórica prefieren, muy razonablemente, lo primero, y entonces optan por dedicarse a la ciencia. A una minoría, en cambio, las interminables discusiones filosóficas le producen un placer intelectual difícil de explicar. Y no son pocos los que, dedicándose a la filosofía debido a un error vocacional, se ubican en una categoría mixta: tienen la necesidad psicológica de desarrollar una actividad "normal" y se impacientan frente a discusiones que no terminan y problemas que no se resuelven, pero se ocupan de problemas filosóficos. Estos últimos suelen resolver el conflicto mediante una mezcla indebida de ambas cosas: cada vez que se convencen de algo se sienten absolutamente seguros de haber resuelto el problema respectivo, y son, así, filósofos llenos de certezas y con pocas dudas.

II Voy a considerar a continuación algunas posibles objeciones a lo que acabo de de decir.

2 Philosophical Papers, editado por G. J. Warnock y J. O. Urmson, Oxford, Clarendon Press, 1961, pp. 179-80, citado por Genaro Carrió y Eduardo Rabossi, “La filosofía de John L. Austin”, en Austin, Cómo hacer cosas con palabras, Barcelona, Paidós, 1990, p. 27.

Page 13: 0 análisis epistemológico ii, 2011

¿Para qué sirve la filosofía?

13

1. Al sostener que los problemas filosóficos no son solucionables, ¿no estoy tratando de resolver un problema filosófico, y, en consecuencia, no estoy incurriendo en autorrefutación? Tal vez esta objeción admita alguna de las siguientes respuestas, formuladas en un orden que me parece de plausibilidad creciente.

Este es el único problema filosófico solucionable (por supuesto, habría que explicar por qué, y eso podría resultar difícil o imposible).

a) Es uno de esos problemas filosóficos que terminan por volverse solucionables y científicos, y proponer soluciones es una manera de contribuir a que eso ocurra.

b) No es un problema filosófico sino una parte o un aspecto del problema expresado por la pregunta "¿Qué es la filosofía?", de modo que, si yo lograra resolver la cuestión de si los problemas filosóficos son solucionables, no habría resuelto un problema filosófico. Esta respuesta da por resuelta otra cuestión que en realidad no lo está y de la cual depende la plausibilidad de varias afirmaciones que hago en este trabajo: la cuestión de si hay un tamaño mínimo para los problemas filosóficos -de si hay algo así como átomos de filosofía tales que, si se los divide, los subproblemas no son filosóficos-.

c) Estoy proponiendo una solución, pero no estoy solucionando el problema, ni volviéndolo solucionable -eso no depende solamente de mí-. Es probable que la solución que propongo no sea objetivamente la solución del problema; y, aun si lo fuera, es probable que no obtenga consenso en la comunidad filosófica. Esto último le pasó, por ejemplo, a Demócrito: la solución que él propuso para el problema expresado por la pregunta "¿De qué está hecho el mundo?", en lo sustancial y de acuerdo con la filosofía y la ciencia actuales, era la solución correcta, pero durante siglos su propuesta fue aceptada sólo por unos pocos y por eso no puede decirse que él haya resuelto el problema. Y si la solución que propongo fuera correcta y, además, fuera aceptada por todos, elíjase cualquiera de las otras respuestas de esta lista.

Page 14: 0 análisis epistemológico ii, 2011

Manuel Eduardo Comesaña

14

d) Como lo ha sugerido John Lange,3 tal vez no sea posible discutir estos temas sin autorrefutaciones o paradojas. Y si fuera así, entonces, ¿qué? Como dice el Superagente 86, lo más probable es que quién sabe.

2. Si la filosofía tiene las características que yo le atribuyo, ¿cómo se explica que haya "filosofía aplicada"? Ahora se habla, en efecto, de filosofía aplicada, y en particular de ética aplicada, pero yo no he logrado entender de qué se trata. Por supuesto, es posible aplicar una teoría filosófica, pero no es posible aplicar una rama entera de la filosofía si en ella hay teorías que rivalizan sobre los fundamentos mismos de la disciplina; dicho de otro modo, es posible aplicar una propuesta de solución, pero no una discusión abierta sobre un problema no resuelto. La diferencia entre esas dos cosas está muy bien expresada en esta observación de Kuhn: "Cuando digo que la filosofía no ha progresado, no quiero decir que no haya progresado el aristotelismo; quiero decir que todavía hay aristotélicos". La frase citada no se refiere a la aplicabilidad sino al progreso, pero ambas cuestiones son enteramente análogas: cuando digo que la filosofía no es aplicable, no quiero decir que no sea aplicable el aristotelismo.

3. Algunos dudan de que un problema insolucionable pueda convertirse en solucionable; piensan que si ahora es solucionable, entonces lo fue siempre, o bien que no es en realidad el mismo problema, aunque a primera vista pueda parecerlo. Creo que, para los fines de este trabajo, la objeción admite una respuesta sencilla, a saber: hay dos clases de insolucionabilidad, la absoluta y la relativa. Los problemas absolutamente insolucionables nunca se vuelven solucionables; los relativamente insolucionables, sí, al cambiar ciertas condiciones. Este cambio en las condiciones no acarrea necesariamente ningún cambio en la formulación del problema, que puede muy bien seguir siendo el mismo. Problemas filosóficos hay de las dos clases: los que nunca se tornan

3 The Cognitivity Paradox: An Inquiry Concerning the Claims of Philosophy, Princeton University Press, 1970.

Page 15: 0 análisis epistemológico ii, 2011

¿Para qué sirve la filosofía?

15

solucionables y los que sí, con lo cual dejan de ser filosóficos y se convierten en problemas científicos.

Una respuesta más complicada a la misma objeción consiste en decir que las propiedades disposicionales -incluidas las propiedades disposicionales negativas- pueden perderse, y pueden no ser definitorias o esenciales. Un vaso irrompible puede dejar de serlo sin dejar de ser el mismo vaso y sin que su fragilidad sea retroactiva. ¿Qué quiere decir que un vaso es irrompible? Si le creemos a Quine,4 quiere decir que su estructura microscópica impide que se rompa a causa de golpes que los vasos comunes no resistirían. Y, obviamente, si esa estructura cambia y el vaso deja de ser irrompible, el cambio no es retroactivo. Si no le creemos, su concepción de las disposiciones basta para mostrar que la cuestión es opinable, como lo son todas las cuestiones filosóficas. Dicho sea de paso, Quine es seguramente uno de los que no estarían de acuerdo con esta última afirmación; más bien opinaría, con Wittgenstein, que las discusiones filosóficas son la escalera que se tira después de haber subido. Pero hasta ahora la filosofía consiste solamente en escaleras, y no se sabe de nadie que ya esté arriba.

Por supuesto, los problemas filosóficos no se vuelven solucionables de golpe. Se trata de procesos largos, con etapas intermedias durante las cuales se tiene la fundada impresión de que los datos empíricos influyen en la discusión filosófica; desde hace tiempo es imposible, por ejemplo, elaborar una buena teoría de la percepción sin tener en cuenta ciertos datos de la física y la neurofisiología. Creo que esta impresión es una de las fuentes del naturalismo filosófico, pero me parece que se equivocan los que defienden versiones extremas de este naturalismo según las cuales todos los problemas filosóficos, en cualquier etapa de su historia, pueden ser resueltos por la investigación científica. Desde luego, uno puede hacer verdadera esta última afirmación decidiendo que los problemas no solucionables son en realidad seudoproblemas de los cuales no vale la pena ocuparse. Pero esta maniobra constituye una petición de principio en contra de la filosofía. Algunos problemas filosóficos, por ser demasiado básicos y generales, nunca se tornan solucionables; esto es lo que ocurre, por ejemplo, con la cuestión de si hay un mundo externo.

4 Cf. From Stimulus to Science, Cambridge, Harvard University Press, 1995, p. 21.

Page 16: 0 análisis epistemológico ii, 2011

Manuel Eduardo Comesaña

16

4. Si los problemas filosóficos no son solucionables, y esto se aplica también al problema expresado por la pregunta "¿Qué es la filosofía?", ¿cómo se sabe cuáles son los problemas filosóficos? Yo no pretendo responder a la pregunta "¿Qué es la filosofía?", esto es, no pretendo decir qué otras características, aparte de ser insolucionable, tiene que tener un problema para ser filosófico, y tampoco sostengo que baste para eso con que sea insolucionable (seguramente hay problemas insolucionables que no son filosóficos). Pero es obvio que los filósofos pueden estar de acuerdo en cuáles son los problemas filosóficos sin estar de acuerdo en qué es lo que los hace filosóficos; es lo que de hecho ocurre (en alguna medida: la lista de Heidegger no es idéntica a la de Carnap). La mayoría de los filósofos -al menos, la mayoría de los que le reconocen a la filosofía su derecho a existir- incluyen en la lista de problemas filosóficos la cuestión de si hay un mundo externo, el problema de la inducción, el problema mente-cuerpo, el problema de los universales, los problemas expresados por las preguntas "¿Qué es el conocimiento?", "¿Qué es la verdad?", "¿Qué es la filosofía?", etc. La amplia coincidencia que hay entre los filósofos con respecto a esta lista es lo que permite formular y poner a prueba la tesis de que los problemas filosóficos no son solucionables. La mejor refutación de esta tesis sería un contraejemplo. Pero si, por el contrario, en dos mil quinientos años de filosofía occidental no se encontrara ningún caso de problema filosófico solucionado (y por lo tanto solucionable) que se siga considerando un problema filosófico, eso parecería una razón inductiva bastante buena para creer que los problemas filosóficos no son solucionables, salvo cuando se convierten en problemas científicos. 5. De ningún problema (filosófico, científico o lo que fuere) tenemos la certeza de que haya sido solucionado ni la certeza de que sea solucionable, aunque más no sea debido a la falibilidad humana. Pero esto no borra la diferencia entre ciencia y filosofía. En la ciencia, los especialistas en cada tema consideran en forma unánime que muchos problemas han sido solucionados, cosa que no ocurre nunca en la filosofía. Hay un sentido en el que todos los problemas, o al menos la mayoría, parecen tener solución. Por ejemplo, dado un problema matemático de cierto tipo, hay un número que es la solución del problema, aunque

Page 17: 0 análisis epistemológico ii, 2011

¿Para qué sirve la filosofía?

17

nadie pueda averiguar cuál es ese número. Creo que en este sentido los problemas filosóficos tienen solución: hay un mundo externo o no lo hay, la relación mente-cuerpo es la que es, los razonamientos inductivos están bien vaya uno a saber en qué casos, etc. Pero hay algunos problemas tales que no es posible averiguar cuál es su solución, y en este sentido son insolucionables: no es que sean intrínsecamente insolucionables sino que los seres humanos no podemos solucionarlos. El consenso en una comunidad profesional con respecto a cuál es la solución de un problema no garantiza que ésa sea efectivamente la solución; pero sin duda es mejor que nada, y en la filosofía no tenemos ni siquiera eso. Por otra parte, en la ciencia hay, además del consenso, otras pruebas de que algunos problemas han sido solucionados, a las que hace referencia el llamado "argumento del éxito de la ciencia": algunas disciplinas científicas tienen un notable éxito predictivo y tecnológico, y la mejor explicación de tal éxito parece la que consiste en admitir que es consecuencia del éxito cognoscitivo de dichas disciplinas. 6. A veces los filósofos logran probar ciertas tesis; en consecuencia, no parece razonable negar que haya progreso en la filosofía. Si se admite que cualquier tesis probada por un filósofo en el ejercicio de su actividad profesional es la solución de un problema filosófico, entonces hay un montón de problemas filosóficos solucionados -y, por lo tanto, solucionables- que no se han convertido en problemas científicos. Pero, por supuesto, no parece razonable admitir semejante cosa. Aun prescindiendo de las afirmaciones que los filósofos establecen en el marco de tareas historiográficas y exegéticas que suelen desarrollar como parte de su actividad profesional -afirmaciones que no resuelven problemas filosóficos-, lo que a veces se prueba en las discusiones filosóficas de tal modo que la prueba es aceptada en forma unánime por los especialistas en el tema no es la solución de algún problema filosófico sino que algún filósofo se equivocó al formular una propuesta de solución. Por supuesto, esto constituye un progreso, pero, como lo ha señalado John Woods,5 se trata de un progreso en "virtuosismo técnico", no en resolución de problemas. Así, por ejemplo, Kneale le mostró a

5 "Is Philosophy Progressive?", Argumentation 2 (1988), pp. 157-174.

Page 18: 0 análisis epistemológico ii, 2011

Manuel Eduardo Comesaña

18

Popper, mediante la noción de "accidente a escala cósmica", que se había equivocado al sostener que bastaba que un enunciado verdadero fuera estrictamente universal para que fuera una ley, en vez de un accidente; pero no resolvió el problema de cómo distinguir las leyes de los accidentes cósmicos.

III ¿Y para qué sirve, entonces, la filosofía? O, dicho de otro modo, ¿por qué participar en discusiones interminables sobre problemas que no se pueden resolver? Por varias razones. En primer lugar, a algunos les gusta, y, dentro de ciertos límites, todo el mundo tiene derecho a hacer lo que le gusta. Como dice Tarski, "la cuestión del valor de una investigación cualquiera no puede contestarse adecuadamente sin tener en cuenta la satisfacción intelectual que producen los resultados de esa investigación a quienes la comprenden y estiman". En segundo término, al ponernos frente a problemas sin solución, la filosofía nos permite explorar los límites de nuestra capacidad de comprender el mundo, aunque no lleguemos a establecer con precisión esos límites. Tercero, la filosofía cumple una función crítica con respecto a todas las pretensiones de conocimiento, función crítica que en algunos casos resulta útil: "Es preferible -decía Bertrand Russell- una incertidumbre fundada a una certidumbre infundada". No creo que esto se aplique a todas las situaciones: en la vida cotidiana, dar por sentada la existencia de objetos externos -es decir, comportarse como "realista ingenuo", o aceptar lo que Quine llama "la teoría de los objetos físicos"- parece más práctico que ponerla en duda. Pero en algunas situaciones resulta útil cuestionar certezas, por ejemplo, certezas políticas -aunque más no sea porque siempre se asesina en nombre de certezas, nunca en nombre de dudas-, y el filósofo es, ceteris paribus, el mejor entrenado de los cuestionadores (tal vez sea esta actividad de cuestionamiento lo que algunos llaman "filosofía aplicada"). Y, cuarto, a veces los problemas filosóficos se tornan, como ya se dijo, solucionables, y la discusión filosófica cede el lugar a una especialidad científica. En estos casos, como dice Keith Lehrer, "la filosofía pierde algunos de sus temas de estudio a causa de su propio éxito".

Page 19: 0 análisis epistemológico ii, 2011

J. M. Gil, Análisis Epistemológico II, Ed. Martín, Mar del Plata, 2011, pp. 19-34.

LIMITACIONES DE LA PRAGMÁTICA Y LA SEMIÓTICA

José María Gil Trataré de mostrar que las teorías pragmáticas y las teorías semióticas enfrentan limitaciones que les impiden constituirse en teorías generales de la comunicación y la comprensión verbales.

Por un lado, la pragmática filosófico-cognitiva ha sobredimensionado la importancia de la intención del hablante a pesar de que muchos de los significados que se transmiten y muchos de los significados que se comprenden a partir de un enunciado no son consecuencia de lo que el hablante quiso comunicar.

Por otro lado, las teorías semióticas suponen (implícita o explícitamente) no sólo que los diversos tipos de signos son objetos del mundo real sino que además hay signos en la mente (o en el sistema cognitivo) de los individuos, por ejemplo en las mentes de los hablantes de Saussure o de los interpretantes de Peirce. Sin embargo, por un lado, es difícil justificar que los signos como tales existen en el mundo exterior y, por el otro, la evidencia neurológica permite refutar la hipótesis de que los signos puedan estar en el sistema de conocimiento de una persona. (La evidencia neurológica es muy pertinente aquí porque nuestro “sistema de conocimiento” tiene que tener su asiento en el cerebro).

Como alternativa a la pragmática y la semiótica, dentro de la quizá incomprendida tradición de Hjelmslev, la lingüística neurocognitiva adopta un enfoque conectivista y relacional que se respalda en la siguiente hipótesis: el sistema de conocimiento de de un individuo no consta de signos de ninguna clase, sino más bien de los medios adecuados para producir e interpretar signos (Lamb 1999, 2004, 2005, 2006). A diferencia de la hipótesis según la cual el cerebro almacena signos, las hipótesis conectivistas-relacionales tienen plausibilidad en términos operativos, de desarrollo y neurológicos.

En este contexto, todo lo que se llama “social”, “cultural”, “semiótico”, etc. tiene que estar representado en forma relacional dentro del inmensamente complejo sistema

Page 20: 0 análisis epistemológico ii, 2011

José María Gil

20

semológico de un individuo, es decir, tiene que haber una base física para el mundo semiótico.

1. La pragmática filosófico-cognitiva y la falacia intencional

La pragmática filosófico-cognitiva es una importante corriente teórica que busca describir y explicar el uso del lenguaje y los procesos cognitivos que lo hacen posible. Tiene sus orígenes fundamentales (aunque no excluyentes) en la obra de Grice (1957, 1967, 1982, 1989) y, en relación con ella, se propone el objetivo de caracterizar los procesos inferenciales que le permiten al oyente reconocer la intención del hablante. Así se explica la primera parte del nombre de esta corriente: Sus orígenes se remontan a la filosofía del lenguaje de Grice (y también de otros importantes autores como Strawson, Austin y Searle). Además, esta corriente se considera cognitiva porque (habiendo supuesto que la intención del hablante es el núcleo de la comunicación humana) propone que, para que la comunicación efectivamente exista, el oyente tiene que identificar la intención del hablante, por lo que aquí entran en juego los procesos cognitivos que se desarrollan en la mente/el cerebro del oyente. En este contexto, la pragmática filosófico-cognitiva (también conocida como pragmática griceana o anglosajona) necesita estudiar el sistema de conocimiento de los usuarios del lenguaje, precisamente para caracterizar el reconocimiento de las intenciones por parte de los oyentes. Así, tal como afirma Marcelo Dascal, la teoría de la relevancia de Sperber y Wilson es una corriente arquetípica de la pragmática cognitiva:

El estudio de la pragmática de la comunicación les sirve a Sperber y Wilson de trampolín para llegar a principios cognitivos generales, directamente relacionados con el modelo representacional/ computacional de la mente defendido por Fodor y otros, modelo que caracteriza la cognición como un proceso inferencial de representaciones mentales (Dascal 1999: 26).

En el contexto de la pragmática filosófico-cognitiva queda

claramente establecido que la comunicación es el proceso a través del cual el auditorio tiene que reconocer la intención que

Page 21: 0 análisis epistemológico ii, 2011

Limitaciones de la pragmática y la semiótica

21

el comunicador ha hecho mutuamente manifiesta (para el comunicador y el auditorio). En palabras de Dascal:

[L]o que propongo es definir como tarea de la pragmática el estudio del uso de los medios lingüísticos (u otros) por los cuales un hablante vehicula sus intenciones comunicativas y un oyente las reconoce. El objeto de la pragmática, por lo tanto, es el conjunto de / mecanismos relacionados directa y específicamente con la transmisión del “significado del hablante” (Dascal 1999: 27-28).

Con esta concepción se excluye, desde luego, lo que el

mismo Dascal llama “algunos aspectos implícitos de la acción lingüística”, no comunicados “aunque inferibles de la acción del hablante” (Dascal 1999: 26). Debe enfatizarse que para la pragmática cognitivo-filosófica estos significados no son significados comunicados por el hablante y por ello deben excluirse de los estudios sobre el uso del lenguaje, porque la interpretación pragmática busca reconocer cuál es la intención comunicativa, es decir, “aquellos aspectos del significado vehiculado por la actividad lingüística en que el sujeto es tratado como agente intencional pleno” (Dascal 1999: 33).

De este modo, la “exclusión de Grice”, tal como la llama Dascal (1999: 32), deja fuera del objeto de estudio de la pragmática un buen número de producciones lingüísticas espontáneas en las cuales no se hace mutuamente manifiesta la intención del hablante. Es decir, según la pragmática filosófico-cognitiva, estas producciones (no intencionales) no comunican significados, y por lo tanto no le interesan al estudio del uso del lenguaje. Entre esas producciones “no comunicativas” podemos mencionar, por ejemplo, los errores del habla, los juegos de palabras no buscados, los lapsus linguae, el acento y la calidad de voz del hablante, la elección involuntaria de palabras, etc.

Ahora bien, las producciones que “no comunican significados” no son valoradas por la pragmática filosófico-cognitiva. ¿Nos habilita eso a excluir dichas producciones? ¿No son parte del uso del uso del lenguaje y, por lo tanto, dignas de ser estudiadas? Y lo más importante, ¿no son significados que en efecto se transmiten por medio de un enunciado (más allá de la intención que el hablante hubiera podido tener)? Así:

Page 22: 0 análisis epistemológico ii, 2011

José María Gil

22

(a) Los errores del habla, los juegos de palabras no buscados, los lapsus linguae proveen información sobre el pensamiento “no consciente” del hablante.

(b) El acento revela el lugar de origen de un hablante. (c) La calidad de voz puede revelar el estado de ánimo. (d) La elección de palabras ofrece información acerca del

nivel educativo del hablante o de la valoración que el hablante hace del contexto.

Lo cierto es que parece haber buenas razones para dudar de

la tesis según la cual esos los significados “no comunicados (intencionalmente)” deban excluirse de los estudios sobre el uso del lenguaje: transmiten significados que son por lo general son muy importantes en la comprensión verbal. De hecho, la lingüística neurocognitiva considera que los fenómenos de (a) revelan información muy valiosa sobre el sistema cognitivo del hablante, mientras que los fenómenos de (b)-(d) han sido de fundamental interés para la sociolingüística norteamericana representada entre otros por William Labov. Y lo más importante tal vez: ¿hasta qué punto una teoría tiene derecho a seleccionar los datos tan discrecionalmente? ¿No se le exige a una teoría física que dé cuenta de todos los hechos del mundo físico? ¿Por qué no habrá de exigírsele a una teoría pragmática que dé cuenta de todos los hechos del lenguaje? Al argumento de Dascal, según el que la pragmática tiene que concentrarse en los aspectos del significado transmitidos por un “agente intencional pleno” le falta todavía una profunda justificación filosófica. Además, los mismos Sperber y Wilson admiten lo siguiente:

Consideramos que todo estudio de la comunicación humana enfrenta el gran desafío de brindar una descripción y una explicación precisas de los efectos vagos de la comunicación humana. La distinción entre significado y comunicación, la aceptación de que algo puede comunicarse sin que un comunicador o su conducta hayan querido decir ese algo es un primer y fundamental paso (Sperber and Wilson 2005: 371, la traducción es mía).

Consideremos un ejemplo en el que se comunica algo sin

que el comunicador haya querido decir eso. Hace unos años, en

Page 23: 0 análisis epistemológico ii, 2011

Limitaciones de la pragmática y la semiótica

23

una playa de Mar del Plata, un concejal cordobés que estaba de vacaciones charlaba con un carpero del balneario, también cordobés. El diputado y el carpero hablaban con familiaridad porque ambos habían nacido en Ciudad de Córdoba y empleaban en su charla el acento característico de esta gran ciudad, que por lo general resulta fácil de identificar en Argentina debido, por ejemplo, al pronunciado alargamiento de sílabas no finales, como en soy cordooobés. En aquel diálogo, el carpero le preguntó al concejal cómo iba cierto proyecto, y el concejal respondió lo siguiente:

Con ese proyecto recién estamos levantando la cometa

La reacción del auditorio (el carpero y tres testigos de la charla) fue una carcajada estentórea, ante la cual nuestro concejal se manifestó visiblemente sorprendido e incómodo y salió de la situación con algún comentario adicional. Lo importante es que quienes estábamos ahí interpretamos que el concejal transmitió, sin querer decirlo, la información de que el proyecto en cuestión podía reportarle dinero a través de una coima o soborno: cometa es una palabra que se usa con frecuencia en el habla ordinaria de Argentina para hacer referencia a un soborno. En otras palabras, el concejal dijo levantando la cometa y el auditorio interpretó que el concejal estaba pensando en un soborno o una coima. Pero nadie del auditorio interpretó que había querido decir eso. Todos interpretamos que estábamos ante un “acto fallido” más de los políticos, cuyas emisiones estaban muy de moda en la década del noventa. Valgan como ejemplo la compilación de actos fallidos, juegos verbales no intencionales y disparates de Las patas de la mentira, de Miguel Rodríguez Arias (1996/97).

Pero a pesar de que nuestro concejal no tuvo la intención de comunicar que él estaba considerando la alternativa de un soborno, su enunciado sí provocó que los destinatarios evocaran significados relativos al soborno. Dicho en términos de la pragmática filosófico-cognitiva: el hablante no comunicó nada acerca de una coima, pero (en términos del sentido común) los oyentes sí interpretaron que el concejal estaba hablando de/pensando en una coima. ¿Cómo es eso posible? Esta situación puede explicarse si se concibe que el sistema

Page 24: 0 análisis epistemológico ii, 2011

José María Gil

24

lingüístico (al igual que el sistema cognitivo en general, donde se incluye el sistema lingüístico) tiene la forma de una vasta y compleja red relacional (Lamb 1999, 2004, 2005, 2006).

En este sentido, la Figura 1 muestra qué debe haber ocurrido en el sistema lingüístico de nuestro concejal, quien dijo cometa en lugar de barrilete (la opción léxica más común en nuestro medio, también por supuesto en Córdoba). La expresión levantar el barrilete cuenta como metáfora de un proyecto que se inicia. Como se activaron el significado LEVANTAR y su correspondiente nodo léxico levantar también hubo una activación de BARRILETE y su correspondiente nodo léxico barrilete. Sin embargo, también se activó el nodo léxico cometa (“sinónimo de barrilete) que está conectado con el significado de SOBORNO. La conexión entre SOBORNO y cometa tuvo una activación más fuerte que la de BARRILETE Y barrilete, por eso está marcada con una línea gruesa en la figura y esta activación hizo que el hablante dijera levantando la cometa (que se entiende como metáfora del cobro de un soborno) en lugar de levantando el barrilete (metáfora de un proyecto incipiente).

Figura 1: Conexiones y activaciones en el sistema lingüístico del concejal cordobés

De acuerdo con la teoría de redes relacionales, las

conexiones pueden tener fuerzas diferentes y tanto las conexiones como los nodos deben implementarse en términos

Page 25: 0 análisis epistemológico ii, 2011

Limitaciones de la pragmática y la semiótica

25

neurológicos. El cerebro ejecuta procesamientos paralelos y distribuidos en áreas diferentes, no es un procesador serial (Churchland & Churchland 2000). Por lo tanto, resulta plausible que haya activaciones y conexiones que funcionen, en términos generales, como las que se representan en la Figura 1.

Ahora bien, vimos que los mismos creadores de la teoría de la relevancia, Sperber y Wilson, admiten que pueden evocarse significados aunque el hablante no haya querido evocar esos significados, y que una teoría pragmática debería describir y explicar estos casos. Aquellos significados que se transmiten independientemente de la intención del hablante se llaman, en términos de Sperber y Wilson, “implicaturas débiles” (2005: 370). Sin embargo, para conseguir el fundamental objetivo de describir y explicar la “comunicación vaga” o “las implicaturas débiles”, la pragmática cognitivo-filosófica debería abandonar la hipótesis misma de que la intención es el núcleo de la comunicación humana (Gil 2011):

• Si (el reconocimiento de) la intención del hablante rige la comunicación humana, entonces no hay implicaturas débiles o “comunicación vaga”.

• Pero si hay implicaturas débiles o “comunicación vaga”, entonces (el reconocimiento de) la intención del hablante no rige la comunicación humana.

En conclusión, podría afirmarse que la pragmática

anglosajona ha incurrido en la falacia intencional: la idea de que la comunicación se reduce a la expresión manifiesta de intenciones y al reconocimiento de estas intenciones. 2. Las teorías semióticas

No viene al caso extenderse sobre las conocidas teorías semiológicas/semióticas. Benefícienos la idea de que una imagen dice más que mil palabras y consideremos las Figuras 2 y 3. La Figura 2 representa el signo lingüístico biplánico de Saussure y el Figura 3 el signo triádico de Peirce. En ambos casos se toma como ejemplo de signo la palabra castellana gato.

El signo de Saussure excluye el referente externo: su naturaleza es puramente formal y mental. Si los signos de

Page 26: 0 análisis epistemológico ii, 2011

José María Gil

26

Saussure existen como objetos, tienen que ser objetos mentales, en el sistema de la lengua de cada uno de los hablantes de una comunidad. Por su parte, el signo de Peirce parece tener una existencia tanto mental como externa. A este punto me referiré a continuación.

Figura 2: La palabra gato como signo biplánico de Saussure

Signo

Objeto

Interpretante

La palabra gato

El conjunto o

la categoría

de los gatosEl significado evocado en

el sistema de conocimiento

del individuo: felino,

doméstico, etc.

Figura 3: La palabra gato como signo triádico de Peirce 2.1. Los signos como objetos externos. La palabra gato escrita en un texto, el humo de un incendio, la luz roja del semáforo, el cuadro de la Gioconda, son apenas algunos de los innumerables o ilimitados ejemplos de signos. Resulta claro que los signos como tales tienen una existencia externa de acuerdo con la concepción triádica de Peirce, y en la que pueden incluirse también autores como Frege y Morris. En la Tabla 1 se analizan algunos ejemplos.

Ahora bien, para que algo sea un signo, debe haber un sistema de interpretación. Dicho toscamente, alguna cosa pasará pasar inadvertida para alguien y será un signo para otra persona. Así que, en principio, en el mundo externo sólo habría

Page 27: 0 análisis epistemológico ii, 2011

Limitaciones de la pragmática y la semiótica

27

objetos, es decir, muestras del Objeto (muestras del Referente del signo triádico). En otras palabras, hay un signo cuando alguien (el interpretante) asigna un Objeto, con mayúscula, (una referencia) a un objeto-muestra.

Tabla 1: Ejemplos del signo triádico

Signo Objeto (referente)

Interpretante Comentarios

La luz roja de un semáforo

La orden de detener la marcha

Un conductor que llega a la intersección donde está el semáforo

La luz roja podría ser un misterio (o el signo de otra cosa) para un aborigen del Amazonas

Un hundimiento en los pastos

El índice de que un caballo sin jinete ha pasado por allí

Un peón rastreador que distingue los tipos de huellas

La marca en el pasto de seguro pasará desapercibida para otros.

La inscripción DAMAS en una puerta que da a un gran vestíbulo

La información de que esa es la entrada al baño de mujeres

Una persona que pasea por un shopping

La inscripción no será cabalmente entendida de ese modo por un hablante extranjero o por un hablante analfabeto

Humo en el cielo

La información de que hay bisontes en el río.

Un indio sioux El humo podría ser un misterio (o el signo de otra cosa) para alguien de la ciudad.

El llanto de un bebé

El bebé se ha despertado y tiene hambre

La mamá del bebé

Para un vecino, tal vez no haya diferencia con el grito de un gato

Pero más allá de estas cuestiones de orden ontológico, puede haber una teoría de los signos en tanto objetos concretos. Por ejemplo, en términos de Peirce puede explicarse que un crucifijo es un ícono (porque representa a su Objeto por analogía: la cruz en la que padeció Cristo), un índice (porque puede representar la creencia religiosa de su portador) y un símbolo (porque representa la fe cristiana de mucha gente).

Sin embargo, proveer explicaciones como las referidas al crucifijo no es lo mismo que efectuar una caracterización del sistema de conocimiento del individuo que es capaz de

Page 28: 0 análisis epistemológico ii, 2011

José María Gil

28

interpretar (y producir) signos. ¿Y puede haber signos en el sistema de conocimiento, en la mente, de una persona? De eso se trata el inciso que sigue.

2.2. ¿Puede haber signos en la mente de una persona? Diversas e influyentes tradiciones semiológicas y semióticas parecen suponer (implícita o explícitamente) que el sistema cognitivo de una persona consta de diversas clases de signos (Peirce 1934, Barthes 1964, Culler 1975, Eco 1976, Lotman 1990, Deely 2003). Sin duda esta afirmación puede requerir desarrollos extensos, aunque parece bastante clara en el caso de Peirce, para quien la semiótica es una lógica o una teoría del pensamiento. Y ciertamente es verdadera en el caso de Saussure y en la tradición estructuralista: los signos lingüísticos (que constituyen un tipo particular de signo) son entidades mentales integradas por la representación del sonido (o de otro medio de expresión) y la representación del significado. En otras palabras, hay semiólogos para quienes los signos interpretados y producidos por una persona están en el sistema cognitivo de esa persona. Sin embargo, este supuesto es incompatible con evidencia neurológica fundamental, y la evidencia neurológica no es impertinente aquí porque nuestro ‘sistema cognitivo’ tiene que tener su base física en el cerebro. Veamos por qué puede refutarse la hipótesis de que hay signos en el cerebro:

(i) Se requiere de un mecanismo en el cerebro que lea la información en forma de signos, pero nuestros cerebros no tienen un dispositivo de esa clase.

(ii) Se requiere de un espacio para almacenar signos, un depósito, pero nuestro cerebro no almacena signos de ninguna clase (como una computadora, donde sí se almacenan signos).

(iii) El proceso de interpretación de signos requiere mecanismos adicionales, no sólo un depósito de signos, sino también un buffer donde se almacene un input mientras se da el proceso de reconocimiento y otro mecanismo para efectuar comparaciones. Pero nuestros cerebros no tienen esos mecanismos adicionales.

Page 29: 0 análisis epistemológico ii, 2011

Limitaciones de la pragmática y la semiótica

29

Figura 4: El concepto GATO y la “palabra” gato como nexiones del sistema lingüístico y algunas conexiones con información de otros

sistemas cognitivos, del cuerpo y el mundo externo Por otra parte, la conectividad de las computadoras más

poderosas es muy inferior a la del cerebro humano. En el prólogo a la segunda edición del libro de von Neumann La Computadora y el Cerebro, Paul y Patricia Churchland (2000) explican que, hasta donde sabemos, el cerebro cuenta con unas

Page 30: 0 análisis epistemológico ii, 2011

José María Gil

30

1014 conexiones sinápticas, cada una de las cuales regula la señal de axón que recibe llega antes de pasársela a la neurona receptora. Los Churchland destacan que estas diminutas actividades de regulación (o modulación) se dan simultáneamente, lo cual significa que, con cada sinapsis activa 100 veces por segundo, el número total de actividades de procesamiento de información desplegadas en el cerebro debe tener un piso de 100 veces 1014 operaciones por segundo. Esto constituye un logro sorprendente para cualquier sistema, y resiste bastante bien la comparación con los cómputos de 109

operaciones básicas por segundo de las computadoras más nuevas. Tenemos, entonces, que la hipótesis de que en el cerebro hay signos sólo puede ser compatible con la idea de que el cerebro funciona como una computadora y esta idea se ve refutada por la evidencia neurológica. Por el contrario, la lingüística neurocognitiva defiende la tesis de que en el sistema lingüístico no hay objetos (tampoco signos) de ninguna clase. En palabras de Hjelmslev (1943: 61):

La postulación de que hay objetos diferentes de las relaciones es un axioma superfluo y en consecuencia una hipótesis metafísica de la cual debe liberarse la ciencia lingüística (la traducción es mía).

La notación abstracta de las redes relacionales, que se usó de forma muy general en la Figura 1 y se usa ahora en la Figura 4, sirve para ilustrar esta concepción del sistema lingüístico:

• No hay significados, “palabras”, morfemas, fonemas, ni rasgos fonológicos en tanto unidades: sólo hay relaciones. Los rótulos al lado de las nexiones y conexiones son meras indicaciones para entender qué parte de la red se está representando.

• El rótulo gato, por ejemplo, indica que allí se representa la nexión correspondiente a esta palabra/este lexema, que ocupa un lugar en la red pero sólo en relación con los demás (lo que le da un sentido todavía más rico y preciso a valor de Saussure).

• Las nexiones son los nodos fundamentales de las redes relacionales neurocognitivas. Tienen una línea central que conecta dos nodos, uno con una ramificación hacia

Page 31: 0 análisis epistemológico ii, 2011

Limitaciones de la pragmática y la semiótica

31

arriba y otro con una ramificación hacia abajo. (A nivel neurológico, las nexiones tienen las características de las columnas corticales).

• Las conexiones son las líneas que conectan las nexiones. • Los corchetitos representan relaciones O, es decir,

relaciones paradigmáticas. • Los triangulitos representan relaciones Y, es decir,

relaciones sintagmáticas, tanto ordenadas como simultáneas. Por ejemplo, para representar un morfema como gat- se usa un nodo Y ordenado en la parte inferior porque los fonemas ocurrirán de forma ordenada, mientras que para representar la información de un fonema como /t/ se usa un nodo Y no-ordenado porque los rasgos fonológicos se dan en forma simultánea.

• El sistema de notación de Lamb permite representar que el sistema lingüístico es un complejo sistema de tres grandes estratos donde el subsistema léxico-gramatical permite conectar los SIGNIFICADOS con los medios de expresión que provee el sistema fonológico.

• El significado se define en términos de nodos umbrales representados aquí con semicírculos y un número n de conexiones entrantes que deberían activarse para que una muestra de algo se reconozca como integrante de cierta categoría. (Para que algo se reconozca como GATO podría bastar la audición de un maullido).

Sobre la base de esta concepción relacional/conectivista del lenguaje pueden ofrecerse explicaciones atendibles para las preguntas del filósofo del lenguaje:

• La primera referencia de una expresión lingüística son sus significados, como los de gato en la Figura 4.

• La referencia de las expresiones al mundo externo está muy mediatizada. Como puede verse en la Figura 4, el lexema gato se refiere a los significados; uno de ellos, el concepto de FELINO, ANIMAL, MASCOTA se conecta con perceptos provenientes de modalidades visuales, auditivas y somato-sensoriales. A su vez, estos sistemas

Page 32: 0 análisis epistemológico ii, 2011

José María Gil

32

cognitivos, que están conectados con el lenguaje, tienen su conexión con los órganos sensoriales, como los ojos y los oídos, los cuales sí están en contacto (tal vez directo) con el mundo externo. Sólo por medio de otras modalidades mentales (conceptuales, perceptivas y motoras) las “palabras” se vinculan a las cosas.

• El significado de una “palabra”, como gato, está constituido por TODOS los nodos semánticos conectados con un nodo léxico. Las “palabras” no significan nada, sino que se conectan con significados. Desde el punto de vista cognitivo, los significados de los lexemas se manifiestan como representaciones de red distribuidas en otras modalidades mentales con las cuales a su vez las nexiones léxicas se conectan directa o indirectamente.

3. Conclusiones: la lingüística neurocognitiva como alternativa a la pragmática y la semiótica 3.1. Realismo. La teoría neurocognitiva es una teoría realista del lenguaje porque sus hipótesis fundamentales son plausibles en al menos tres sentidos distintos (Lamb 1999: 293-294):

• Plausibilidad operativa: Esta teoría del lenguaje es realista porque provee una explicación de cómo el sistema lingüístico puede comprender y producir el habla en tiempo real (algo plausible si hay nexiones y conexiones en actividad paralelas).

• Plausibilidad de desarrollo: La teoría es realista porque presenta una explicación de cómo los niños pueden aprender el sistema lingüístico (algo plausible si se entiende que el niño va reclutando nexiones y estableciendo conexiones, cuya fuerza puede incrementarse o debilitarse).

• Plausibilidad neurológica: La teoría es realista porque resulta compatible con lo que se sabe del crebro gracias a las neurociencas. A diferencia de las teorías que asumen que sí hay (o puede haber) signos en el sistema lingüístico de un individuo, la teoría de redes relacionales concibe que el sistema lingüístico es una red de relaciones, sin objetos ni

Page 33: 0 análisis epistemológico ii, 2011

Limitaciones de la pragmática y la semiótica

33

signos de ninguna clase, con conexiones, umbrales y grados de fuerza para las activaciones.

3.2. Argumento de la plausibilidad neurológica. Sobre la base de lo explicado al final del inciso anterior, puede proveerse el siguiente argumento a favor de las redes relacionales:

i. Las nexiones de las redes relacionales se implementan (con un alto grado de abstracción y generalidad) como columnas corticales (Lamb 2005).

ii. Las conexiones de las redes relacionales se implementan (con un alto grado de abstracción y generalidad) como fibras y conexiones neuronales (Lamb 2005).

iii. Las columnas corticales y las fibras neurales integran conexiones corticales reales.

iv. Por lo tanto, las redes relacionales representan (con un alto grado de abstracción y generalidad) conexiones corticales reales.

3.3. El sistema vs. sus productos. Los productos del sistema no tienen por qué ser idénticos a los medios de producción del sistema. Lo más probable es que los medios del sistema sean bien diferentes de los signos que el sistema produce e interpreta, y esto es una hipótesis fundamental de la teoría de redes relacionales. En este sentido, no hay “semióticas internas”. La semiótica seguirá siendo la disciplina que estudia los signos; en el sistema cognitivo de un individuo se representan los significados, esto es, hay una semología.

3.4. El lugar de la filosofía de lenguaje. ¿Qué queda para la filosofía del lenguaje? Se sugieren aquí algunas respuestas:

1. No parece viable querer entender “qué es el lenguaje” a partir de la reflexión “apriorística”.

2. La filosofía del lenguaje tiene valor en sí misma, como

mínimo, como un capítulo fundamental en la historia de la filosofía y del conocimiento científico.

3. La filosofía del lenguaje ha tenido o tiene valor en el

sentido de Austin: promueve la aparición de “genuina

Page 34: 0 análisis epistemológico ii, 2011

José María Gil

34

ciencia del lenguaje” (véase al respecto la cita a la que refiere Comesaña, en lasff páginas 11 y 12 de este libro).

4. Puede constituirse (o de hecho es) una rama de la

filosofía de la ciencia: filosofía de la lingüística. Por ejemplo, nos dirá si las hipótesis de una teoría lingüística son plausibles o si, en efecto, la lingüística tiene que tener una base neurobiológica.

Referencias bibliográficas Barthes, Roland (1964) Elements of Semiology. London: Jonathan Cape, 1967. Churchland, Paul & Patricia Churchland (2000) “Foreword to second edition”,

en John von Neuman (1958) The Computer and the Brain, Yale Univ. Press. Culler, Jonathan (1975) Structuralist Poetics: Structuralism, Linguistics and the

Study of Literature. Londres, Routledge & Kegan Paul. Dascal, Marcelo (1999b) “La pragmática y las intenciones comunicativas”, en

Filosofía del Lenguaje II. Pragmática. Madrid: Trotta, pp. 21-51. Deely, John (2003) The Impact on Philosophy of Semiotics. S. Bend: St. Augustine.. Eco, Umberto (1976) A Theory of Semiotics. Londres: Macmillan. Grice, H. Paul (1957) Meaning. Philosophical Review 66: 377-388. Grice, H. Paul (1967) “Logic and conversation”, en: D. J. Levitin (ed.),

Foundations of cognitive psychology: Core readings, Cambridge, MIT Press, pp. 719-732.

Grice, H. Paul (1982) Meaning revisited. In Neil Smith (ed.) Mutual Knowledge. Academic Press, London: pp. 223-43.

Grice, H. Paul (1989) Studies in the Way of Words. Harvard University Press, Cambridge MA.

Lamb, Sydney M. (1999) Pathways of the Brain: The Neurocognitive Basis of Language. Amsterdam: John Benjamins.

Lamb, Sydney M . (2004) Language and Reality. London: Continuum Books. Lamb, Sydney M. (2005) “Language and Brain: When experiments are

unfeasible, you have to think harder”. Linguistics and the Human Sciences 1, pp. 151-178.

Lamb, Sydney M. (2006) “Being Realistic, Being Scientific”. In Shin Ja Hwang, William J. Sullivan & Arle R. Lommel (eds.) LACUS Forum 32, pp. 201-209.

Lotman, Yuri (1990) Universe of the Mind: A Semiotic Theory of Culture. Londres: Tauris.

Peirce, Charles S. (1934) Collected papers: Volume V. Pragmatism and pragmaticism. Cambridge, MA, USA: Harvard University Press.

Rodríguez Arias, Miguel (1996/7) Las patas de la mentira (conducido por Lalo Mir, para América TV). En VHS y DVD.

Sperber, Dan y Deirdre Wilson (2005) “Pragmatics”, en UCL Working Papers in Linguistics 17, 353-388.

Page 35: 0 análisis epistemológico ii, 2011

G. Fernández Acevedo, Análisis Epistemológico II, Martín, MDQ, 2011, pp. 35-46.

¿CÓMO DEBE ENTENDERSE LA CONDICIÓN DE EVIDENCIA EN EL

AUTOENGAÑO?

Gustavo Fernández Acevedo

El problema del autoengaño, como cualquier problema de origen filosófico, se manifiesta en primer lugar al intentar caracterizar el fenómeno al que se hace referencia con este término. ¿Es el autoengaño un fenómeno básicamente similar al engaño interpersonal? ¿Requiere del agente una acción, u ocurre sin un esfuerzo conciente y voluntario de su parte? ¿Implica el autoengaño la posesión simultánea, por parte del agente, de una creencia p y su negación? Los esfuerzos en la caracterización del autoengaño, por otra parte, no sólo han tenido como objetivo una definición precisa de este fenómeno, sino también el logro de una distinción entre ésta y otras formas de presunta irracionalidad motivada, como el pensamiento desiderativo.

En este trabajo quiero ocuparme de uno de los problemas que plantea la caracterización del autoengaño, esto es, el referente al requisito de evidencia. Este requisito suele enunciarse, de una forma simplificada, de la siguiente manera: quien se autoengaña debe sustentar su creencia engañosa en presencia de evidencia contraria a ésta. En particular, quiero exponer algunos argumentos en favor de la tesis según la cual, para que sea posible hacer una atribución de autoengaño, es necesario que el agente esté en posesión de la evidencia contraria a la creencia que favorece y adopta. Trataré de mostrar que, en ausencia de esta condición, la categoría de autoengaño se torna inaceptablemente difusa y se dificulta la distinción entre el autoengaño y otras formas de irracionalidad que conviene diferenciar. Sugeriré, por último, un criterio de evidencia que evite algunas de las dificultades que presentan los criterios existentes y los problemas que trae el considerarlo una condición meramente suficiente para el autoengaño.

II

Muchos filósofos han sostenido que la posesión de la evidencia contraria a la creencia favorecida por el agente es un requisito

Page 36: 0 análisis epistemológico ii, 2011

Gustavo Fernández Acevedo

36

necesario para la definición del autoengaño. Cito al respecto un ejemplo ilustrativo:

[U]n agente está en un estado de autoengaño si y sólo si sostiene una creencia que a) es contraria a lo que sus normas epistémicas, en conjunción con la evidencia disponible, usualmente dictarían y b) un deseo por la obtención de cierto estado de cosas, o por poseer cierta creencia, hacen una diferencia causal para que la creencia sea sustentada en un modo epistémicamente ilegítimo (Van Leeuwen, 2007, p. 332. Cursivas mías).

Obsérvese, no obstante, que el hecho de que de la evidencia

esté disponible no es equivalente a la posesión de la evidencia por parte del agente, ni a la inteligibilidad de la evidencia (esto es, que la información en cuestión sea susceptible de ser reconocida y comprendida como evidencia por parte del agente), ni tampoco a la competencia del agente (esto es, que éste sea capaz de reconocer que un fragmento de información constituye evidencia en favor o en contra de una determinada creencia). Sin embargo, a veces sí se especifica la condición de evidencia de modo tal que se limita de manera importante la ambigüedad de las implicaciones de este requisito. La definición de Davidson proporciona un buen ejemplo al respecto:

Un agente A se autoengaña con respecto a una proposición P bajo las siguientes condiciones: A posee evidencia sobre la base de la cual cree que P es más verosímil que su negación; el pensamiento de que P, o de que debería creer racionalmente que P, ofrece a A motivos para actuar con vistas a causar en sí mismo la creencia en la negación de P. (…) Todo lo que el autoengaño exige de la acción es que el motivo tenga su origen en una creencia en la verdad de P (o en el reconocimiento de que la evidencia hace más probable la verdad de P que su falsedad) y que se lleve a cabo con la intención de producir una creencia en la negación de P (Davidson, 1985, pp. 111-112. Cursivas mías).

Puede advertirse que la caracterización de Davidson supone no sólo que el agente es conciente de la existencia de evidencia contraria a su creencia, sino que la interpreta correctamente como evidencia que sustenta la creencia opuesta a la que finalmente adopta.

Como anticipé, la especificación de los requisitos del autoengaño ha supuesto también la posibilidad de distinguir

Page 37: 0 análisis epistemológico ii, 2011

¿Cómo debe entenderse la condición de evidencia en el autoengaño?

37

este fenómeno de otras clases de pensamiento supuestamente irracional, como el pensamiento desiderativo. Veamos algunos de estos intentos:

La persona a la que adscribimos un pensamiento desiderativo no pervierte los procedimientos por medio de los cuales establecemos verdad y falsedad. Cuando la evidencia presentada frente a él entra en conflicto con su creencia reconocerá, quizás de manera reticente, que cuenta en contra de su creencia. Entonces, un punto crucial de disimilitud entre pensamiento desiderativo y autoengaño es que en el autoengaño la evidencia es contraria a la creencia sostenida. Una vez que se ha hecho notar esto a la persona involucrada, si ella procede a resistir, por medio de tácticas ingeniosas, las implicaciones naturales de la evidencia, sentimos que está autoengañada (Szabados, 1974, p. 205). [El autoengaño] (1) no es pensamiento desiderativo y, si lo es, es un caso muy especial. El pensamiento desiderativo no involucra ningún razonamiento o semblanza de razonamiento. El pensador desiderativo imagina algún estado de cosas, le agrada aquello que imagina, y supone que eso sucederá. No trata de justificar esta suposición, quizás por contentarse con la ausencia de evidencia en uno u otro sentido. En caso que sea conciente de la evidencia en contrario y la necesidad de lidiar con ella, tendríamos un caso especial de autoengaño. (2) No es el autoengaño simplemente un caso de ceguera intelectual. Esta consiste en el fracaso en percibir hacia dónde apuntan la evidencia o las razones, mientras que el autoengañado percibe todo esto muy bien, al menos al principio (Bach, 1981, p. 351-352).

Según estas caracterizaciones, en síntesis, el autoengaño parece requerir del agente la creencia de que la evidencia es contraria a la creencia que favorece, y en esto se diferencia el autoengaño del pensamiento desiderativo.

III

Ahora bien, no todos los autores están de acuerdo con la

tesis de que el autoengaño debe requerir necesariamente que el agente sea conciente de que la evidencia es contraria a la creencia preferida. Un ejemplo especialmente destacado de este desacuerdo es el de Alfred Mele. Mele (2001) sugiere que las condiciones que se exponen a continuación son conjuntamente suficientes para que alguien adquiera de manera autoengañosa una creencia de que p:

Page 38: 0 análisis epistemológico ii, 2011

Gustavo Fernández Acevedo

38

1. ‘La creencia de que p que S adquiere es falsa 2. S trata datos relevantes, o al menos aparentemente

relevantes, respecto del valor de verdad de p, de un modo motivacionalmente sesgado.

3. El tratamiento sesgado es una causa no desviante de que S adquiera la falsa creencia de que p.

4. El cuerpo de datos poseídos por S en ese momento provee mayor garantía para ¬ p que para p’ (p. 50-51).

Mele cuestiona la objeción de algunos autores respecto de

que la condición 4 es demasiado débil. Según esta objeción, la condición 4 debe formularse de modo tal que permita atribuir al sujeto un reconocimiento de que su evidencia proporciona mayores garantías para ¬p que para p. La objeción se basa en que, si es el caso que nos engañamos a nosotros mismos al creer que p, debemos ser concientes de que la evidencia que poseemos favorece a ¬p, y es esta conciencia lo que explica nuestro tratamiento tendencioso de los datos. Sin esa conciencia, se argumenta, no habría razones para tratar los datos de modo motivacionalmente sesgado, ya que éstos no serían percibidos como amenazantes y, en consecuencia, no nos comprometeríamos con una cognición motivacionalmente desviada.

Mele considera que una exigencia tal tiende a estar ligada a una concepción intencionalista del autoengaño: el agente se fija una meta, determina los medios para promover su logro y procede en consecuencia. Sin embargo, objeta, este modelo establece exigencias excesivas sobre quienes se autoengañan. La cognición fría o no motivada no es explicada sobre la base de la acción intencional, y la motivación puede poner en marcha y sostener el funcionamiento de mecanismos que sesgan de manera ‘fría’ los datos, sin que seamos concientes o lleguemos a creer que la evidencia que poseemos favorece a una determinada proposición por sobre otra.

Más aun, Mele observa explícitamente que esta cuarta condición no debe ser considerada una condición necesaria para que sea posible hablar de autoengaño respecto de p (cosa que sí ocurre, según él, con la condición 1). Mele considera que, en algunos casos de recolección motivacionalmente sesgada de la evidencia, las personas pueden llegar a creer en una

Page 39: 0 análisis epistemológico ii, 2011

¿Cómo debe entenderse la condición de evidencia en el autoengaño?

39

proposición falsa aun cuando la proposición contradictoria con ella está mucho mejor sustentada en la evidencia que podrían obtener fácilmente; debido a la selectividad en el proceso de recolección, observa, la evidencia que ellos efectivamente poseen favorece a la creencia falsa, y no a la verdadera. No obstante, en su opinión esas personas son evaluadas naturalmente, en igualdad de circunstancias, como autoengañadas. La ignorancia, como sostiene en Irrationality (1987), no excluye al autoengaño; por el contrario, hay casos en los que parece contribuir con éste.

Así como la ignorancia de la evidencia no es excluyente del autoengaño, Mele tampoco considera que el autoengaño pueda ser nítidamente diferenciado del pensamiento desiderativo en base a este requisito. En Irrationality, Mele discute brevemente el intento de Szabados de diferenciar ambos fenómenos. Señala que, si hay alguna diferencia entre pensamiento desiderativo y autoengaño, esta puede radicar simplemente en que el primero constituye un género denotado por el término ‘autoengaño’. Observa que, si Szabados está en lo correcto en lo referente a la ausencia de evidencia en el pensamiento desiderativo, esto puede deberse a que este fenómeno consiste en una clase de autoengaño en la cual, a causa de una conducta apropiada e influenciada por el deseo, quien se autoengaña carece de buenas bases para rechazar la proposición que sostiene autoengañosamente. Si bien, agrega, la expresión ‘pensamiento desiderativo’ tiene un aire inofensivo del que carece el término ‘autoengaño’, se trata simplemente de una cuestión terminológica, y se pregunta retóricamente que ocurriría si, en vez de ‘pensamiento desiderativo’, habláramos de ‘falsa creencia desiderativa’, expresión que le parece correcta si nos basamos en el análisis que hace Szabados.

IV

Lo expuesto, en síntesis, parece fijar de manera bastante nítida dos posiciones. La primera, sostenida por un buen número de autores, tiende a considerar a la condición de evidencia como requisito necesario del autoengaño y también como criterio para distinguirlo de otras formas de irracionalidad, como el pensamiento desiderativo. Mele, por

Page 40: 0 análisis epistemológico ii, 2011

Gustavo Fernández Acevedo

40

otra parte, niega claramente la necesidad del requisito y no considera que pueda establecerse sobre su base una distinción clara con el pensamiento desiderativo. Creo que Mele está en lo correcto al señalar que la posibilidad de una falta de captación de la evidencia a causa de un sesgo en su recolección difumina en alguna medida la distinción entre los fenómenos en cuestión. Sin embargo, hay varias razones por las cuales considero que la condición de evidencia debe ser mantenida como requisito necesario, y no sólo suficiente, del autoengaño.

En primer lugar, no es obligatorio conceder que las personas que adquieren una falsa creencia motivada a causa de una recolección de evidencia sesgada sean evaluadas ‘naturalmente’ como autoengañadas, tal como sostiene Mele. Si ‘naturalmente’ hace referencia a los usos comunes del término en el lenguaje ordinario, considero dudoso que tal referencia pueda ser de mucha ayuda en la discusión de distinciones como la que nos ocupa. En el caso de que una persona acepte una determinada proposición sin percibir, debido a un deseo o temor, que una parte importante de la evidencia es contraria a esa proposición, entiendo que, así como podríamos decir que se autoengaña, con igual derecho podríamos afirmar que se trata de una persona ‘cegada por el deseo’ o ‘cegada por la pasión’, distinguiendo este fenómeno del caso en el cual la persona percibe claramente la evidencia contraria a su creencia y la interpreta de manera irracional y distorsionada, de modo de sustentar la creencia predilecta. En este sentido, el posible empleo de expresiones como ‘autoengaño ciego’ o ‘autoengaño infundado’ y análogas no sería más que un subterfugio lingüístico que demostraría la necesidad de distinguir entre fenómenos que, si bien están cercanamente emparentados, no son idénticos.

En segundo lugar, su rechazo del carácter necesario del requisito de evidencia tiene consecuencias negativas que no conviene soslayar.

Notemos en primer término que la categoría de autoengaño resultante de las condiciones suficientes de Mele parece redundar en una clase abarcativa casi tan amplia como es ‘irracionalidad motivada’, y ser tan vaga e incluyente como la de ‘ilusiones’ propuesta por algunos psicólogos (Taylor y Brown, 1988). Admite desde casos en los cuales el sujeto que se

Page 41: 0 análisis epistemológico ii, 2011

¿Cómo debe entenderse la condición de evidencia en el autoengaño?

41

autoengaña ignora de manera involuntaria una parte importante de la evidencia contraria a su creencia hasta los (raros) casos de autoengaño intencional y deliberado, pasando por los casos en los cuales el sujeto percibe la existencia de evidencia extremadamente sólida en contra de su creencia preferida. No parece imposible afirmar que todos estos son casos de autoengaño, pero sí parece haber diferencias importantes entre ellos que, creo, son significativas, y que se traducen en otras diferencias de importancia, tanto desde el punto de vista filosófico como desde la perspectiva psicológica.

La primera diferencia filosófica se relaciona con la atribución de racionalidad, y puede ser explicada mediante un análisis de dos de los casos mencionados que caen dentro de la categoría de autoengaño. Estos casos son, en primer lugar, el autoengaño en el cual el agente no percibe, a causa de procedimientos sesgados en la recolección de la información, la evidencia contraria a su creencia, esto es, el caso de autoengaño que ya hemos descripto; en segundo lugar, el autoengaño que, empleando un término utilizado por Mele, llamaremos ‘extremo’. Mele no caracteriza de manera particular este ‘subtipo’ de autoengaño, sino que se limita a presentar casos en los cuales la evidencia contraria a la creencia favorecida por el agente posee es extremadamente fuerte. Mele no considera que esta variante, aun notable, deba ser explicada siguiendo un modelo intencionalista, esto es, partiendo de la base de que la explicación requiere de una intención conciente de autoengañarse por parte del agente. Ahora bien, si consideramos que el autoengaño es un fenómeno básicamente irracional, parecería que esta forma de autoengaño constituye una variante máximamente irracional; esto es, el agente enfrenta evidencia extremadamente sólida contraria a la creencia que favorece, lo que necesariamente conduce a un tratamiento sesgado igualmente extremo de ésta. En este aspecto, entonces, esta variante de autoengaño difiere cuantitativamente, pero en gran medida, de la modalidad en la cual el agente ignora la evidencia existente en contra de su creencia.

Concedamos que, a los fines del argumento, Mele está en lo correcto respecto de que este tratamiento extremadamente sesgado de la evidencia no es el producto de una intención del

Page 42: 0 análisis epistemológico ii, 2011

Gustavo Fernández Acevedo

42

agente de inducir en sí mismo una creencia contraria a aquella. Sin embargo, parece poco plausible la suposición de que tal tratamiento no genera ninguna consecuencia en absoluto en el funcionamiento cognitivo del agente; por el contrario, estos casos parecen especialmente aptos para la producción de un estado que, según algunos autores, es característico del autoengaño. Me refiero aquí a la existencia de una tensión psíquica peculiar que acompañaría al estado de autoengaño y que se manifestaría, por ejemplo, por dudas recurrentes acerca de la creencia en cuestión o por un estado de conflicto cognitivo producido por la coexistencia de la sospecha de que p y la creencia de que ¬p. Mele considera que tal estado de tensión no es un requisito conceptualmente necesario para la caracterización del autoengaño y, en consecuencia, puede no estar presente en todos los casos. Estoy de acuerdo con esta última limitación. No obstante, aunque no esté presente en todos los casos es plausible suponer (aunque esto debe ser objeto de investigación empírica) que su probabilidad de ocurrencia será muy desigual en los distintos casos de autoengaño admitidos por Mele. Por ejemplo, parece probable que no esté presente en los casos de autoengaño en los cuales el agente, a causa de la actuación de mecanismos de recolección sesgada de la evidencia, tiende a percibir sólo la evidencia favorable a su creencia y no la contraria; por el contrario, es muy probable que esté presente en los casos de autoengaño extremo, en los cuales el agente debe lidiar con evidencia muy sólida y consistente en contra de su creencia.

Las diferencias en términos de irracionalidad y tensión psíquica hacen posible, entiendo, una tercera diferencia de importancia, referente a la posibilidad de atribuir responsabilidad moral por el autoengaño. La concepción tradicional sobre el problema de la responsabilidad moral ha sido la de considerar a quien se autoengaña como responsable, y no como víctima, de su estado. Sin embargo, contemporáneamente se han expuesto argumentos tendientes a defender la idea de que quien se autoengaña no tiene típicamente más responsabilidad por su estado que quien es víctima de cualquier error intelectual. En lo sucesivo seguiré a Levy (2004) en esta línea de pensamiento. Esta perspectiva se basa en el rechazo de la concepción tradicional sobre el

Page 43: 0 análisis epistemológico ii, 2011

¿Cómo debe entenderse la condición de evidencia en el autoengaño?

43

autoengaño (que atribuye intencionalidad al agente en el proceso e impone el requisito de creencias contradictorias) y, en particular, en la adopción de teorías que conciben este fenómeno como resultado de procesos motivacionales y cognitivos que están más allá del control volitivo del agente. Esto es, si el agente carece de control sobre los procesos que generan el autoengaño, parecería que no es posible atribuirle responsabilidad por encontrarse en este estado.

Ahora bien, lo anterior no elimina por completo la posibilidad de atribuir responsabilidad moral por el autoengaño; si bien implica que el considerar a quien se autoengaña típicamente responsable por su estado es erróneo, no excluye la posibilidad de atribución de responsabilidad moral en casos específicos. Si alguien adquiere una creencia falsa a partir de un acto intencional consistente en el rechazo a indagar en una cuestión (por ejemplo, la persona que omite deliberadamente revisar la evidencia relativa a la infidelidad de su pareja), es posible sustentar la acusación de responsabilidad moral por su estado (Levy, 2004). No obstante, no son estos casos los ejemplos más típicos de autoengaño, sino aquellos en los cuales el agente adquiere de manera autoengañosa una creencia sin la participación de procesos intencionales. Puede argumentare, en favor de la tesis de que quien se autoengaña es típicamente responsable por su estado, que es posible conocer los posibles sesgos de nuestros procesos cognitivos y, en consecuencia, ejercer cierto grado de control sobre ellos. Sin embargo, el carácter fuertemente contraintuitivo de algunos de estos sesgos redunda en que parece muy difícil hacer una atribución de responsabilidad por no evitar su actuación. Levy considera que puede ser verdadero que en ocasiones nos recordamos a nosotros mismos la necesidad de considerar ambos lados de una cuestión antes de formarnos una opinión, pero para que esto sea el caso dos condiciones deben ser satisfechas, y sólo en caso que ambas tengan lugar es posible considerar a alguien responsable por su autoengaño: 1) la creencia en juego es importante (por razones morales u otras), y 2) existen dudas en el agente acerca de la verdad de la creencia en cuestión.

Ahora bien, aun cuando se limite tan estrictamente la posibilidad de atribución de responsabilidad moral a un rango

Page 44: 0 análisis epistemológico ii, 2011

Gustavo Fernández Acevedo

44

tan acotado de casos, parece posible realizar tal atribución en el caso del autoengaño extremo. En efecto, éste parece cumplir las dos condiciones expuestas; la condición 1) ya que, de lo contrario, no habría manera de explicar por qué el agente se encuentra en un estado de autoengaño extremo; la condición 2) que se ve satisfecha por la existencia de una tensión psíquica relativa la verdad de la creencia (esto es, se cree que ¬p y se sospecha que p). En base a lo anterior, una atribución de responsabilidad moral parece muy plausible en el caso del autoengaño extremo.

Por el contrario, una atribución de responsabilidad moral parece notoriamente más dudosa para el caso de quien adquiere una creencia falsa a partir de la actuación de mecanismos de recolección de evidencia motivacionalmente sesgados que están más allá de su control voluntario y conciente, y que redundan en la ignorancia de una parte importante de la evidencia existente.

V

Parece haber razones bastante buenas para pensar, en resumen, que hay diferencias importantes entre los ejemplos de autoengaño extremo y autoengaño por omisión de la evidencia como para admitir la conveniencia de no incluirlas en una misma categoría de fenómenos. Creo que nada de lo expuesto constituye un argumento concluyente en contra de las consecuencias abarcativas de la perspectiva de Mele, que se desprenden de su negativa a considerar necesario el requisito de evidencia. Sin embargo, entiendo que lo anterior indica que la clasificación resultante es peor de lo que podría ser si se aceptara alguna restricción subordinada al empleo de ese criterio.

Quizás podría afirmarse que las diferencias entre los presuntos casos de autoengaño que hemos mencionado son de grado y no de clase, esto es, podríamos tratar de establecer grados de irracionalidad y grados de responsabilidad, pero una distinción de esa clase requeriría previamente una perspectiva dimensional de lo que, a los fines del argumento, hemos estado considerando como subtipos de autoengaño. Por otra parte, para que una distinción de grado y no de clase resulte

Page 45: 0 análisis epistemológico ii, 2011

¿Cómo debe entenderse la condición de evidencia en el autoengaño?

45

cognoscitivamente útil debe reunir requisitos que Mele (suponiendo que considerara plausible e interesante tal tipo de distinción) no enuncia ni discute.

Si se admite que es importante mantener, por las razones expuestas, la necesidad del requisito de evidencia y, en base a éste, una posible distinción entre pensamiento desiderativo y autoengaño, resulta necesario determinar, o al menos esbozar, qué formulación de esta condición puede cumplir esta función de manera satisfactoria.

En primer lugar, y contra quienes sostienen que la condición 4 debe ser fortalecida, entiendo que no puede exigirse que el sujeto interprete correctamente que la evidencia que posee no sustenta la creencia que él preferiría adoptar. Aun cuando se considere que una interpretación correcta de la evidencia no deba estar atada a un modelo intencionalista, parece una restricción excesiva el considerar como autoengaño sólo a aquellos casos en los cuales el agente está en posesión de la evidencia contraria a su creencia y evalúa correctamente la dirección en la cual apunta (suponiendo que tales casos fueran posibles). Entiendo que el requisito sólo debe exigir, en consecuencia, que el agente esté en posesión de la evidencia contraria a la creencia que finalmente adopta.

Ahora bien, es posible que el agente esté en posesión de cierto tipo de información que constituye evidencia contraria a su creencia, pero no ser capaz de interpretar que tal información constituye evidencia pertinente para la evaluación de su creencia. Es verdad que este caso puede tratarse, al igual que en el caso de la omisión de evidencia relevante, de una incapacidad motivada, y no de una mera ignorancia o error cognitivo. Sin embargo, entiendo que no hay una diferencia de importancia entre estos casos y aquellos en los cuales el agente omite la consideración de evidencia pertinente debido a una recolección sesgada de la información; en ambos el agente no está en posición de evaluar la información pertinente relativa a su creencia. En consecuencia sugiero, para la especificación del requisito de evidencia, que tales casos sean considerados similares a aquellos en los cuales el agente omite la consideración de evidencia relevante.

En base a lo expuesto, propongo la siguiente formulación del requisito de evidencia para el autoengaño: a) el agente debe

Page 46: 0 análisis epistemológico ii, 2011

Gustavo Fernández Acevedo

46

estar en posesión del cuerpo de datos pertinente respecto de su creencia; b) este cuerpo de datos provee mayor garantía para ¬p que para p; y c) el agente debe ser capaz de interpretar estos datos como pertinentes para la evaluación de su creencia.

Quiero sugerir, por último, que creo que la condición de evidencia así formulada debe valer como requisito para la adquisición autoengañosa de creencias falsas, y no necesariamente para su mantenimiento. Esto se debe a que es una suposición plausible que, una vez que el agente ha adquirido por medios autoengañosos una creencia falsa (o al menos no sustentada por la evidencia), esta convicción actuará poniendo en marcha el funcionamiento de ‘filtros’ (perceptivos, cognitivos o de otras clases) que limiten la entrada de evidencia contraria a la creencia adquirida. Referencias Bach, Kent (1981). An Analysis of Self-Deception. Philosophy and

Phenomenological Research, 41, 3. 351-370. Davidson, Donald (1985). Engaño y división. En D. Davidson, Mente, mundo y

acción. Barcelona, Paidós. Gur, R. & H. Sackeim (1979). Self-Deception: A Concept in Search of a

Phenomenon. Journal of Personality and Social Psychology 37:147–69. Levy, Neil (2004). Self-Deception and Moral Responsibility. Ratio (new series),

XVII. 294-311. Mele, Alfred (1987). Irrationality. An Essay on Akrasia, Self-Deception, and Self-

Control. New York-Oxford, Oxford University Press. Mele, Alfred (2001). Self-deception Unmasked. Princeton, Princeton University

Press. Szabados, Bela (1973). Wishful Thinking and Self-Deception. Analysis, Vol. 33,

No. 6, pp. 201-205. Taylor, Shelley & Jonathon Brown (1988). Illusion and Well-Being: A Social

Psychological Perspective on Mental Health. Psychological Bulletin 103, 2. 193-210.

Van Leeuwen, D. S. Neil (2007b). The Spandrels of Self-Deception: Prospects for a Biological Theory of a Mental Phenomenon. Philosophical Psychology 20, 3. 329–348.

Page 47: 0 análisis epistemológico ii, 2011

Boris Kogan, Análisis Epistemológico II, Mar del Plata, Martín, pp. 47-54.

NEURONAS EN ESPEJO: PERTINENCIA Y CONTRIBUCIONES PARA

LA PSICOLOGÍA

Boris Kogan

El objetivo del presente trabajo es resaltar la importancia del descubrimiento del sistema de neuronas en espejo y enumerar sus posibles contribuciones a los estudios del pensamiento y de la conducta humana (normal y patológica). Primero, intentaré dar razones de por qué las neuronas en espejo están siendo objeto de numerosas investigaciones que, cuanto menos, invitan a reflexionar sobre su pertinencia dentro del dominio de la psicología. Luego, pasaré revista a las hipótesis y estudios más significativos que han surgido en torno a dicho descubrimiento. Por último, y de manera muy escueta, trataré de precisar los posibles aportes de los que puede valerse la ciencia psicológica a la hora de elaborar y re-elaborar teorías.

El creciente número de investigaciones sobre neuronas en espejo en estos últimos años es alentador. Cada vez son más los científicos que se interesan en este complejo sistema neuronal que, prima facie, parece arrojar un manto de luz sobre diversas cuestiones ligadas al aprendizaje, el desarrollo humano, la imitación, el lenguaje, las habilidades sociales, la empatía y la Teoría de la Mente (ToM). Ahora bien, dado que este hallazgo tiene origen en el campo de la neurología y las neurociencias, es preciso mencionar las razones que llevan a reflexionar sobre su pertinencia dentro del campo de la psicología. Más específicamente, la pregunta es por qué el psicólogo debería tener en consideración aquellos datos que provienen de terrenos “ajenos” a su disciplina y, además, incluirlos dentro de sus teorizaciones. Esta ciencia que, a grandes rasgos, pretende dar cuenta de la mente y la conducta, trabaja con constructos que involucran diversas estructuras del organismo humano, en especial el sistema nervioso. Surge aquí un punto muy importante: Las razones por las cuales los asuntos vinculados a las neurociencias, deben ser o no de incumbencia psicológica, estarán sesgadas en buena medida por la posición que se adopte frente a uno de los problemas más importantes de la filosofía de la mente: El problema mente-materia, mente-cuerpo, o mente-cerebro. Según Bunge (1985), existen dos tipos

Page 48: 0 análisis epistemológico ii, 2011

Boris Kogan

48

de soluciones al problema mente-cerebro: el monismo psicofísico y el dualismo psicofísico. Cada una de estas concepciones posee al menos cinco doctrinas distintas. Para el caso que nos ocupa, sólo me limitaré a decir que las soluciones dualistas son aquellas que entienden al constructo mente-cerebro como algo conformado por entidades cualitativamente diferentes, mientras que las soluciones monistas conciben dicho constructo como una unidad, existiendo sólo lo físico. De esto se sigue que aquellos que consideran adecuado un estudio de la mente sin prestar atención a los datos neurológicos, probablemente no encuentren razones para incursionar dentro de las neurociencias y mucho menos teorizar al respecto. Por otra parte, los que pretenden dar cuenta de la mente y la conducta en relación con el cerebro, encontrarán en las neurociencias un campo rico en herramientas de las que podrán valerse para desarrollar sus lineamientos teóricos.

Los resultados arrojados por las investigaciones sobre neuronas en espejo, entonces, serán pertinentes para este último grupo. Para el otro, en cambio, quedarán relegados al dominio de las neurociencias, mediante la invocación de un criterio jurisdiccional. De todos modos, creo que se trata de un descubrimiento de tal magnitud que exige dejar a un lado las diferencias e invita a la reflexión sobre una posible conciliación disciplinar, a los fines de proporcionar una visión más completa y acabada del ser humano en todas sus vertientes. En algunos casos, las restricciones y los prejuicios que son impuestos desde determinado campo de conocimiento conducen a que mucha información vital sea perdida de vista. Quizás sea tiempo de limar asperezas y fomentar la interdisciplina, cuyo pilar se construya a partir del diálogo abierto dentro de la comunidad científica.

Pasaré ahora a exponer brevemente algunos de los estudios e hipótesis más relevantes que han surgido en torno al descubrimiento del sistema de neuronas en espejo.

Las neuronas en espejo fueron descubiertas en la región ventral anterior de la corteza premotora del mono macaco, más específicamente en el área F5 (Rizzolatti y Craighero 2004). Investigaciones posteriores mostraron que también se hallan presentes en el lóbulo parietal inferior de este animal (Rizzolatti et al. 2001).

Page 49: 0 análisis epistemológico ii, 2011

Neuronas en espejo…

49

Figura 1 Vista lateral del cerebro del mono. Los sectores sombreados muestran las áreas motoras del lóbulo frontal y las áreas de la corteza parietal posterior. Para nomenclatura y definiciones de las áreas motoras frontales (F1 – F7) y las áreas posteriores parietales (PE, PEc, PF, PFG, PG, PF op, PG op, y Opt) ver Rizzolatti et. al (1998). AI, surco arcuato inferior; AS, surco arcuato superior; C, surco central; L, fisura lateral; Lu, surco semilunar; P, surco principal; Pos, surco parieto-occipital; STS, surco superior temporal (Rizzolatti y Craighero 2004:192. Traducción mía).

Se observó que estas neuronas iniciaban una descarga no sólo cuando el mono realizaba una acción determinada (como agarrar un objeto o intentar alcanzarlo), sino también cuando éste observaba a otro mono o individuo realizar la misma acción. Ahora bien, hay dos tipos de neuronas visomotoras en el área F5 del macaco: las canónicas, que se activan ante la presentación de un objeto; y las neuronas espejo, que descargan cuando el mono observa una acción orientada hacia un objeto. De esto se desprende que las neuronas espejo requieren de una interacción entre un efector y un objeto para ser activadas mediante estímulo visual (Rizzolatti y Craighero 2004). Estos datos se apoyan en los resultados arrojados por los estudios de Gallese et al. (1996). Éstos grabaron la actividad eléctrica de 532 neuronas en la parte anterior del área F5 de dos monos macacos. Con el primero se utilizaron ambos hemisferios, con el segundo, sólo el hemisferio izquierdo. De esas 532 neuronas, sólo 92 descargaban tanto cuando el mono realizaba una acción como cuando éste observaba al experimentador realizar

Page 50: 0 análisis epistemológico ii, 2011

Boris Kogan

50

acciones similares orientadas a un fin. A este tipo de neuronas que poseen propiedades visuales y motoras (por eso se dice que son neuronas visomotoras) se las denominó neuronas espejo. Gallese et al. (1996:593. Traducción mía) concluyeron que “las neuronas espejo conforman un sistema que combina la observación y la ejecución de acciones motoras”. La primera hipótesis que se desarrolló a los fines de explicar el rol funcional de las neuronas espejo sostiene que éstas sirven a la comprensión de acciones (Rizzolatti et al. 1996; Gallese et al. 1996; Rizzolatti 2005). El sistema motor debe activarse para que el individuo pueda reconocer una acción, dado que sin la participación de dicho sistema, una mera percepción visual provee solamente una descripción de los aspectos visibles de los movimientos del agente. Lo que no brinda es la información vinculada a otras asociaciones (e.g., indexicales, señales de alerta, etc.), a su significado, y a los puntos de conexión entre las acciones observadas y acciones similares. Por consiguiente, ubicar a la acción observada dentro de una red semántica motora es absolutamente necesario si se la quiere comprender realmente. Lo que aporta el sistema de neuronas espejo, dice Rizzolatti (2005:419. Traducción mía), es “una copia motora de las acciones observadas”. Cada vez que un individuo observa a otro realizar una acción, las neuronas que representan dicha acción se activan en la corteza premotora de éste. Esta activación neuronal se corresponde con la representación motora que se genera cuando el individuo realiza dicha acción en vez de observarla. Rizzolatti y Craighero (2004:172. Traducción mía) proponen que “el sistema de neuronas espejo transforma la información visual en conocimiento”.

Hasta aquí me he referido específicamente al sistema de neuronas en espejo descubierto originalmente en el mono macaco. Continuaré mi breve exposición, entonces, poniendo el foco de atención en las discusiones sobre la posibilidad de que exista un sistema similar en humanos. Estudios recientes demuestran que aún no hay evidencia directa de ello. Sin embargo, hay una gran cantidad de datos que, indirectamente, prueban que sí existe un sistema de neuronas espejo en el ser humano (Fadiga et al. 1995; Gallese et al. 1996; Rizzolatti et al. 1998, 2001). Los experimentos neurofisiológicos demuestran que la corteza motora de un individuo se activa cuando éste

Page 51: 0 análisis epistemológico ii, 2011

Neuronas en espejo…

51

observa (en ausencia de actividad motora) a otro individuo realizar una acción (Gastaut y Bert 1954; Cochin et al. 1998,1999; Hari et al. 1998). Las técnicas utilizadas fueron el electroencefalograma (EEG) y la magnetoencefalografía (MEG). Evidencia más directa fue provista por estudios basados en estimulación magnética transcraneal (TMS) aplicados sobre la corteza motora. Fadiga et al. (1995) grabaron los potenciales motores evocados (MEPs) de la mano derecha y los músculos de los brazos mediante estimulación de la región izquierda de la corteza motora. Se pedía al grupo experimental que observara al experimentador realizar acciones transitivas con su mano (tales como agarrar un objeto), y acciones intransitivas con su brazo (movimientos sin demasiada importancia). El grupo control debía detectar el brillo de un pequeño haz de luz y observar objetos tridimensionales. Los resultados mostraron que la observación de acciones transitivas e intransitivas determinó un incremento de los MEPs con respecto al grupo control. Este incremento involucraba específicamente a los músculos que usualmente utilizan los participantes para realizar las acciones observadas. Strafella y Paus (2000), por medio de TMS de doble pulso, encontraron una correspondencia entre la duración de la inhibición recurrente intracortical que ocurre tanto en la observación de acciones como en la ejecución de ellas. Baldissera et al. (2001) descubrieron un mecanismo inhibitorio en la médula espinal que impide la ejecución de la acción observada, permitiéndole al sistema motor cortical reaccionar ante esa acción eliminando el riesgo de que se produzca un movimiento voluntario. Gangitano et al. (2001) grabaron los MEPs de los músculos de las manos de unos sujetos mientras éstos observaban a otros individuos realizar acciones de prensión. La grabación de los MEPs se realizó en diferentes intervalos siguiendo el recorrido del movimiento de principio a fin. Los resultados mostraron que la excitación motora cortical se producía en consonancia con las fases del movimiento de prensión observado. En resumen, los estudios de TMS indican que existe un sistema de neuronas en espejo en los seres humanos con propiedades que no se observan en el del mono. Primero, el sistema de neuronas en espejo en seres humanos es activado por movimientos transitivos e intransitivos, mientras que el del macaco sólo se

Page 52: 0 análisis epistemológico ii, 2011

Boris Kogan

52

activa ante acciones transitivas, orientadas a un fin. Segundo, las características temporales de la excitación cortical durante la observación de acciones, sugieren que el sistema de neuronas en espejo de los humanos codifica también la secuencia de movimientos que conforman la acción observada, y no sólo la acción como sucede con el sistema de neuronas en espejo del mono. Estas diferencias, según Rizzolatti (2001), brindan una posible explicación de por qué el sistema de neuronas en espejo puede constituir el mecanismo ideal para la imitación en los seres humanos y no en los primates.

Por último, numerosos estudios de neuroimágenes (Iacoboni et al. 1999; Nishitani y Hari 2000; Rizzolatti et al. 1996) muestran que la observación de acciones realizadas por otros sujetos activa una compleja red neuronal en los humanos. Esta red está conformada por áreas visuales parietales, temporales y occipitales, y dos regiones corticales cuya función es predominantemente motora. Más específicamente, se trata de la parte anterior del lóbulo parietal inferior y la más baja del giro precentral en conjunción con la parte posterior del giro frontal inferior. Estas regiones conforman el núcleo central del sistema de neuronas en espejo de los seres humanos. (Rizzolatti y Craighero 2004). Se discute, además, sobre una posible homología entre el área F5 del mono macaco y al área de Broca en los seres humanos (Rizzolatti et al. 1996).

Habiendo expuesto muy escuetamente algunos de los experimentos e hipótesis más relevantes sobre las neuronas espejo, me dedicaré ahora a desarrollar la parte final de mi trabajo. En este último apartado, hablaré sobre los posibles aportes de los que puede valerse la ciencia psicológica a la hora de elaborar y re-elaborar teorías. Comenzaré por el que considero más obvio (pero no por eso menos importante). El sistema de neuronas en espejo proporciona una base neural que puede ser útil a los fines de elucidar y explicar constructos teóricos, sobre todo para aquellas teorías que aspiren a tener plausibilidad neurológica. Asimismo, este complejo sistema puede ser tomado como referencia por los investigadores a los efectos de testear la compatibilidad de dichos constructos. Es importante destacar que el sistema de neuronas espejo constituye un objeto de estudio que parece deslizarse transversalmente a través de múltiples áreas de la psicología, a

Page 53: 0 análisis epistemológico ii, 2011

Neuronas en espejo…

53

saber: psicología del aprendizaje, psicología evolutiva, psicolingüística, psicología clínica, psicología social, psicología cognitiva, neuropsicología, etc. Cada vez son más los estudios que enfatizan sobre el posible rol de las neuronas espejo (tanto en su buen funcionamiento como en su aspecto disfuncional) en el aprendizaje por imitación, la empatía, el lenguaje, la percepción, la Teoría de la Mente (ToM), la comprensión de acciones, el trastorno autista, las relaciones interpersonales, etc. (Rizzolatti et al. 1996,1998,2001; Rizzolatti y Craighero 2004,2007; Iacoboni et al. 1999; Fadiga et al. 1995; Craighero et al. 2007; Rizzolatti 2005; Melrose 2005; Cornelio Nieto 2009; Braten 2009). También puede servir a los fines de realizar una mirada retrospectiva de diversas teorías del aprendizaje tales como la de Piaget, Vygotksy o Bandura, con el objetivo de rever y/o reformular algunas de sus respectivas tesis. Por otra parte, se debate sobre las consecuencias de su disfunción, lo cual puede llegar a influir en trastornos tales como el autismo y la apraxia ideomotora. Además, es menester su injerencia en la práctica psicoterapéutica. Más específicamente en el vínculo que se establece entre paciente y terapeuta y, a un nivel macro, en el que se establece en toda relación interpersonal. A su vez, estos vínculos se nutren de una de las cualidades humanas indispensables que sirven a la interacción: la empatía.

He arribado aquí al final de mi exposición. La cantidad de información que se ha publicado en estos últimos años en torno al descubrimiento del sistema de neuronas espejo es abrumadora. Por eso, espero que mi selección arbitraria les haya brindado un breve panorama de la cuestión que, personalmente, encuentro sumamente estimulante.

Referencias bibliográficas Baldissera, F., Cavallari, P., Craighero L., Fadiga, L. (2001). Modulation of

spinal excitability during observation of hand action in humans. Eur. J. Neurosci. 13, 190,94.

Braten, Stein. (2009). The intersubjective Mirror in Infant Learning and the Evolution of Speech. Advances in consciousness research. 76. pp. 343.

Bunge, Mario (1985). El Problema Mente-Cerebro. Un enfoque Psicobiológico. Madrid: Tecnos.

Cochin, S., Barthelemy, C., Lejeune, B., Roux, S., Martineau, J. (1998). Perception of motion and qEEG activity in human adults. Electroencephalogr. Clin. Neurophysiol. 107, 287-95.

Page 54: 0 análisis epistemológico ii, 2011

Boris Kogan

54

Cochin, S., Barthelemy, C., Roux, S., Martineau, J. (1999). Observation and ejecution of movementes: similarities demonstrated by quantified electroencephalography. Eur. J. Neurosci. 11, 1839-42.

Cornelio Nieto, J.O. (2009). Autismo infantil y neuronas en espejo. REV. NEUROL. 48 (Supl. 2), 27-9.

Craighero, L., Metta, G., Sandini, G., Fadiga, L. (2007). The mirror-neurons system: data and models. Progress in brain research, Vol. 164, 39-59.

Fadiga, L., Fogassi, L., Pavesi, G., Rizzolatti, G. (1995). Motor facilitation during action observation: a magnetic stimulation study. J. Neurophysiol. 73, 2608-11.

Gallese, V., Fadiga, L., Fogassi, L., Rizzolatti, G. (1996). Action recognition in the premotor cortex. Brain. 119, 593-609.

Gangitano, M., Mothaggy, F.M., Pascual Leone, A. (2001). Phase specific modulation of cortical motor output during movement observation. NeuroReport. 12, 1489-92.

Gastaut, H.J., Bert, J. (1954). EEG changes during cinematographic presentation. Clin. Neurophysiol. 6, 433-44.

Hari, R., Forss, N., Avikainen, S., Kirveskary, S., Salenius, S., Rizzolatti, G. (1998). Activation of human primary motor cortex during action observation: a neuromagnetic study. Proc. Natl. Acad. Sci. USA 95, 15061-65.

Iacoboni, M., Woods, R.P., Brass, M., Bekkering, H., Mazziota, J.C., Rizzolatti, G. (1999). Cortical mechanisms of human imitation. Science. 286, 2526-28.

Melrose, R. (2005). Protolanguage, mirror neurons and the ´front heavy´brain: exploration in the evolution and functional organization of language. Linguistics and the Human Sciences 2, pp. 89-109.

Nishitani, N., Hari, R. (2000). Temporal dynamics of cortical representation for action. Proc. Natl. Acad. Sci. USA 97, 913-18.

Rizzolatti, G., Fadiga, L., Fogassi, L., Gallese, V. (1996a). Premotor cortex and the recognition of motor actions. Cogn. Brain Res. 3, 131-41.

Rizzolatti, G., Luppino, G., Matelli, M. (1998). The organization of the cortical motor system: new concepts. Electroencephalography and clinical Neurophysiology. 106, 283-296.

Rizzolatti, G., Fogassi, L., Gallese, V. (2001). Neurophysiological mechanisms underlying the understanding and imitation of action. Nature reviews. Neuroscience. 2, 661-670.

Rizzolatti, G., Craighero, L. (2004). The mirror neuron system. Annu. Rev. Neurosci. 27, 169-92.

Rizzolatti, G. (2005). The mirror neuron system and its function in humans. Anat. Embryol. 210, 419-421.

Strafella, A.P., Paus, T. (2000). Modulation of cortical excitability during action observation: a transcranial magnetic stimulation study. NeuroReport. 11, 2289-92.

Page 55: 0 análisis epistemológico ii, 2011

N. Moyano Loza, Análisis Epistemológico II, Martín, MDQ, 2011, pp. 55-62.

UNA CONSECUENCIA ONTOLÓGICA DEL CONCEPTO DE

SIMULTANEIDAD

Nicolás Agustín Moyano Loza 1. La Relatividad de la Simultaneidad

La Teoría de la Relatividad Especial, propuesta por Einstein en Sobre la Electrodinámica de los Cuerpos en Movimiento, descansa en dos postulados:

(I) Principio de Relatividad: Todos los sistemas inerciales

son equivalentes en la descripción de los fenómenos físicos. Las leyes de la naturaleza son las mismas en todo sistema de referencia inercial.

(II) Ley de Propagación de la Luz: La luz (en el vacío) se propaga con una velocidad fija c, independientemente del estado de movimiento del cuerpo emisor.

Aunque ya Galileo había usado una versión del Principio de Relatividad, la formulación de Einstein es más general: en (I) el concepto de ‘fenómeno físico’ incluye en su extensión tanto a fenómenos mecánicos como electromagnéticos.

La Ley de Propagación de la Luz surge de la constante c que figura en las leyes que gobiernan los fenómenos electromagnéticos (las ecuaciones de Maxwell). Ahora bien, como la luz es un tipo de radiación electromagnética, y éstas tienen velocidad constante, se sigue que la velocidad de la luz es constante en esas leyes de la naturaleza. De lo anterior y (I) obtenemos:

(III) Constancia de la Velocidad de la luz: La luz se propaga

en el vacío con una velocidad fija c en todos los sistemas de referencia inerciales.

De estos postulados se deduce la conocida tesis de la relatividad de la simultaneidad. El argumento que conduce a Einstein a sostener tal tesis se basa en que los juicios que implican al tiempo son juicios referentes a sucesos simultáneos. Por

Page 56: 0 análisis epistemológico ii, 2011

Nicolás Moyano Loza

56

ejemplo, si digo ‘A ocurre en t’ quiero decir ‘el instante t de mi reloj es simultaneo con A’. Cuando sólo se pretende especificar el tiempo para el lugar en el que está el reloj, la definición anterior es suficiente. Pero no es muy útil cuando se trata de evaluar el tiempo de sucesos distantes. La razón de esto es que la visión simultánea de sucesos que ocurren en diferentes lugares no es independiente de la posición del observador: siempre que dos sucesos parecen simultáneos, existe la posibilidad de que uno esté más lejos y, por tal motivo, sea temporalmente anterior al otro.

Para solucionar este problema, Einstein propuso usar diferentes relojes distribuidos en diferentes puntos de un sistema de referencia. Sean A y B los extremos de una barra que se encuentra en reposo con respecto a un sistema de referencia inercial K. Si hay un reloj en A, un observador situado allí puede asignar el tiempo que marca el reloj a todos lo sucesos que ocurren en la inmediata vecindad de A. Por otro lado, si en el punto B hay otro reloj, de funcionamiento similar al que hay en A, entonces un observador en B puede asignar un tiempo determinado a todos los sucesos que ocurren en la inmediata vecindad de B. De este modo, se ha definido un tiempo-A y un tiempo-B. Si ahora logramos establecer un “tiempo” común para A y B, sería posible que el observador situado en A asigne un valor temporal a los sucesos en B. Este tiempo común queda determinado si es posible encontrar una manera de sincronizar los dos relojes. El método estándar, propuesto por Einstein, consiste en sincronizar los relojes distantes haciendo uso de señales de luz. Para esto, se establece por definición que la velocidad de la luz es isotrópica:

(DEF) Isotropía de la Velocidad de la Luz: La luz se mueve con la misma velocidad en todas las direcciones.

Aceptando esto, podemos afirmar que el tiempo que tarda la luz en recorrer AB es igual al tiempo que tarda en recorrer BA. Imaginemos, entonces, que una señal luminosa parte de A en el instante tA, se refleja en B en el instante tB, y retorna a A en t’A. Dada (DEF), es posible inferir la igualdad tB – tA = t’A – tA. Así, un observador en A puede afirmar que la llegada de la señal luminosa a B es simultánea al tiempo ½ (t’A + tA) de su reloj; es

Page 57: 0 análisis epistemológico ii, 2011

Una consecuencia ontológica del concepto de simultaneidad

57

decir, el reloj en A permite determinar el tiempo en el que ocurre un suceso en B dentro del sistema de referencia K.

Figura 1: Representación espacio-temporal de la sincronización estándar. Las líneas punteadas representan el rayo de luz que parte de A, se refleja en B, y vuelve a A. Las flecas verticales son las líneas de universo de los puntos A y B.

Lo que importa destacar es que al sincronizar los relojes siguiendo este procedimiento podemos definir la medida de tiempo para todos los puntos de K por medio de relojes en reposo en este sistema. Sin embargo, esta definición no vale para sistemas de referencia en movimiento relativo uniforme con respecto a K. Sea K’ uno de tales sistemas. Supongamos que K’ se desplaza en dirección al reloj situado en el punto B. De acuerdo con el postulado (III), la velocidad de la luz medida en K’ también tiene el valor c. De esto se sigue que en el sistema de referencia K’ los relojes no están sincronizados, ya que tB – tA < t’A – tA. De este modo, sucesos distantes que ocurren al mismo tiempo – que son simultáneos – en K, ocurren en tiempos diferentes en K’. Además, por el postulado (I), las medidas hechas en los dos sistemas de referencia tienen el mismo derecho a ser consideradas válidas. Por lo tanto, no es posible atribuir un significado absoluto al concepto de simultaneidad;

Page 58: 0 análisis epistemológico ii, 2011

Nicolás Moyano Loza

58

la asignación de valor temporal a un suceso no tiene sentido si no se indica el sistema de referencia al que remite.

Figura 2: En el sistema de referencia en reposo con respecto a B, la llegada del rayo de luz que parte de A es simultáneo con ½ (t’A + tA) del reloj en A; el mismo suceso, en el sistema de referencia K’, es simultáneo con t’’< ½ (t’A + tA) del reloj en A. Ahora bien, si desaparece la simultaneidad absoluta, no

tiene sentido hablar de un presente absoluto. El presente, considerado como una colección de sucesos simultáneos, es relativo a un sistema de referencia. Esto nos conduce a abandonar el presentismo y a adoptar el espacio-tiempo como una imagen más adecuada de lo que es la realidad. 2. La Convencionalidad de la Simultaneidad.

Como vimos, el procedimiento de sincronización imaginado por Einstein supone, por definición, que la velocidad de la luz es la misma en todas las direcciones. Ahora bien, ¿qué razones tenemos para aceptar este supuesto? Esta pregunta fue analizada por Reichenbach. Su respuesta fue que, más allá de la

Page 59: 0 análisis epistemológico ii, 2011

Una consecuencia ontológica del concepto de simultaneidad

59

simplicidad en la formulación matemática de la teoría de la relatividad, no tenemos razones para afirmar (DEF) sea verdadera.

Su argumento es tan sencillo como ingenioso. Reichenbach comienza preguntándose por el modo en que medimos la velocidad de la luz. Un primer procedimiento consistiría en enviar una señal desde A hacia B. La velocidad estaría dada por el cociente del intervalo de tiempo tB – tA y la distancia B – A. Pero en esto hay una dificultad: para conocer el intervalo de tiempo, es necesario tener dos relojes, uno en A y otro en B, y que estén sincronizados. Ahora bien, para poder sincronizar estos relojes es necesario conocer la velocidad de la luz de antemano. Esto nos conduce a un círculo lógico: si queremos determinar la velocidad de la luz debemos tener relojes sincronizados; pero para tener relojes sincronizados debemos conocer la velocidad de la luz. Por lo tanto, no es posible realizar la medición.

Una posible solución sería colocar un espejo en B y utilizar únicamente un reloj en A. Esto evita la necesidad de tener que disponer de relojes sincronizados. El procedimiento consistiría, entonces, en enviar la señal a B y esperar a que vuelva al punto A. Si suponemos que es enviada en tA y que regresa en t’A, la velocidad de la luz estaría dada por la fórmula

Este procedimiento, sin embargo, contiene un supuesto: la velocidad de la luz es la misma en la dirección AB y en la dirección BA. Este es, justamente, el supuesto hecho por Einstein en (DEF). Pero, ¿cómo lo probamos? Parece que la única manera es conociendo el tiempo en el que la señal llega a B. Pero para esto necesitaríamos, nuevamente, dos relojes sincronizados. Por lo tanto, no es posible medir la velocidad de la luz.

A partir del razonamiento anterior, Reichenbach concluye que la definición de simultaneidad ofrecida por Einstein no es epistemológicamente necesaria. Si estipulamos que la velocidad de la luz es la misma en todas las direcciones, entonces ‘tB = ½ (t’A + tA)’ es una definición adecuada de la llegada de la señal

Page 60: 0 análisis epistemológico ii, 2011

Nicolás Moyano Loza

60

luminosa a B. Sin embargo, cualquier posibilidad permitida por la fórmula

tB = tA + ε (t’A – tA), donde 0 < ε < 1 también sería correcta. La elección ε = ½, que es la que realiza Einstein, se corresponde con la tesis de isotropía de la velocidad de la luz, y permite la sincronización estándar.

Esta tesis se conoce como convencionalidad de la simultaneidad. Desde esta perspectiva, es un error suponer que la relatividad se sigue del estado de movimiento relativo entre diferentes sistemas de referencia: en principio, sería posible acomodar la definición de simultaneidad en un sistema de referencia K, de manera tal que conduzca a resultados similares a los de otro sistema de referencia K’ en movimiento relativo a K. En este caso, el valor asignado a ε no sería ½, sino algún otro que resulte conveniente. 3. Consecuencia para la el debate entre presentistas y eternalistas. El eternalismo, que afirma la tetradimensionalidad ontológica de la realidad. Con tan aparatosa expresión se quiere dar a entender que los objetos de tiempos pasados y futuros son tan reales como los que existen ahora. Algunas veces se intenta clarificar esta idea imaginando que a un eternalista le encargamos la colosal tarea de escribir el catálogo de todo lo que hay: en éste deberían figurar Sócrates, los argentinos nacidos en el año 2500 (suponiendo que en 2028 la vida en la Tierra no sea aniquilada por el impacto de un asteroide) y, aun antes de finalizarlo, el propio catálogo. El eternalismo concibe la realidad catalogada como un bloque tetra-dimensional en el que todos los sucesos tienen una posición fija e inalterable.

En el universo eternalista no hay, desde el punto de vista ontológico, creación ni destrucción, nacimiento ni muerte; en él está todo y fuera de él, nada. Pasado, presente y futuro son sólo formas vacías generadas por una ilusoria percepción tridimensional. El tiempo es sólo la manera en que se nos devela una realidad atemporal completamente ajena a las preocupaciones humanas; no es el río de Heráclito ni el tirano

Page 61: 0 análisis epistemológico ii, 2011

Una consecuencia ontológica del concepto de simultaneidad

61

que devora a sus hijos, sino más bien la “imagen móvil de la eternidad” que describía Platón en el Timeo.

La tesis contraria, el presentismo, niega la extensión temporal del universo, y sostiene que sólo existen los objetos presentes. Desde esta perspectiva, el universo es visto como una serie de agregados tridimensionales que existen sucesivamente. Si a un presentista le encargamos que corrija el catálogo eternalista, la tarea no tendría fin, porque en cada instante debería realizar nuevas correcciones. Esto se debe a que la realidad presentista es ontológicamente dinámica: los objetos comienzan a existir, tienen una cierta duración, y luego desaparecen.

A diferencia de la imagen eternalista, el presentismo finge una dócil adecuación de la ontología con el mundo percibido: no vemos un mundo estático, poblado siempre por los mismos objetos; las cosas se degradan hasta la muerte o la disolución y dejan de existir; cada instante deja su lugar en la existencia al que le sucede, y de él sólo queda una referencia opaca en la memoria.

Si prestamos atención a la relatividad de la simultaneidad, la verdad del presentismo parece poco probable: Si K y K’ se encuentran en movimiento relativo, los conjuntos de simultaneidad que aceptan en cada sistema de referencia serán muy diferentes. No es posible, además, privilegiar uno de esos conjuntos por sobre el otro. De manera que la tridimensionalidad de lo real parece no tener sustento físico.

Por su parte, el eternalismo tiene más chances de adecuarse a la relatividad. El espacio-tiempo relativista no es el galileano. En este último era posible establecer de manera absoluta, para todo sistema de referencia, un conjunto de sucesos simultáneos. En el espacio-tiempo relativista, en cambio, el presente espacialmente extenso pierde su significado objetivo. Cada observador va acompañado en su movimiento de su propio corte tridimensional de la realidad. Algunas partes de estos cortes son futuros o pasados para los otros observadores, y no hay ningún hecho físico que nos permita afirmar que sólo uno es real. Como todo sistema de referencia es válido para la descripción del mundo físico, no es posible negar la existencia de mi futuro cuando es simultáneo con un observador que se mueve con respecto a mí. Esto no significa que mi futuro sea

Page 62: 0 análisis epistemológico ii, 2011

Nicolás Moyano Loza

62

simultáneo con mi presente, sino que coexiste – cae bajo el alcance de ∃ – con mi presente. A diferencia del presentismo, el eternalismo podría ser tomado como la condición que debe satisfacer la realidad para permitir la existencia de todos estos sucesos de tiempos diferentes. De este modo, la modificación que sufre el concepto de tiempo bajo el análisis de Einstein nos lleva a aceptar la imagen eternalista de la realidad.

Algunos autores se niegan a aceptar que el presentismo sea refutado por la relatividad. Por ejemplo, Hinchliff afirma que aunque la relatividad especial no pueda especificar un marco de referencia en reposo absoluto, no se deduce de eso que no exista tal marco. Lo único que se sigue es que no hay medios físicos para detectarlo. Esto se pone en evidencia en el carácter convencional de la definición dada por Einstein. Sin embargo, si no se toma un valor absoluto para ‘ε’, sino que en cada sistema de referencia se hacen las modificaciones pertinentes de su valor, entonces se podría establecer una simultaneidad absoluta.

Creo que esta defensa del presentismo es errónea. Por un lado, aún en el caso de que se pueda hacer una modificación en el valor que cada sistema de referencia asigna a ε, quedaría por determinar con respecto a qué sistema se van a corregir los valores. Éste debe ser considerado como un sistema en reposo absoluto, pero justamente es eso lo que no se puede detectar por medios físicos. Por otro lado, la tesis de convencionalidad también parece apoyar la imagen eternalista de la realidad. Porque si la realidad es tridimensional y la simultaneidad es convencional, entonces la realidad dependería de nuestros supuestos de medición. Pero sería bastante extraño que lo que existe dependa del valor que asignamos a una variable dentro de una definición. En cambio, si el eternalismo es verdadero, la convención acerca de qué es simultáneo estaría relacionada solamente con la elección de un corte tridimensional de una realidad temporalmente extensa. Así, el eternalismo se vería favorecido ya que no implica la convencionalidad de lo que existe.

Page 63: 0 análisis epistemológico ii, 2011

César Vicini, Análisis Epistemológico II, Martín, Mar del Plata, 2009, pp. 63-68.

FILÓSOFOS Y HABLANTES

César Luis Vicini Si es verdad que la filosofía puede ser concebida como la problematización de lo obvio, sea lo que sea un lenguaje, si se le reconoce su innegable carácter inmediato, entonces es necesario que se parezca, en muchos aspectos cruciales, al que hablamos cotidianamente.

Putnam sostiene, con razón según creo, que la teoría semántica debe abarcar la contribución de la sociedad y del mundo real. Un concepto importante que propone, y que podemos emplear para nuestros fines, es el de División del Trabajo Lingüístico, que quedará ejemplificado en lo que él llama ‘Hipótesis de la universalidad de la división del trabajo lingüístico’, a saber: Toda comunidad lingüística posee al menos algunos términos cuyos criterios asociados son conocidos solamente por un subconjunto de los hablantes que adquieren los términos, y cuyo uso por otros hablantes depende de una cooperación estructurada entre los hablantes de los subconjuntos relevantes1.

La fundamentación de esta hipótesis es incompleta, aunque hace explícitas algunas directrices para favorecer su comprensión. Por qué dice Putnam que el uso por otros hablantes depende de una cooperación estructurada entre los subconjuntos de hablantes relevantes, y en qué consiste tal cooperación es algo que queda sin resolver, por lo menos, en el artículo citado. Supongamos que por ‘cooperación’ se entiende algo similar a lo sostenido por De Saussure, que la lengua es cambiante y le pertenece a la masa, y que el hablante a su vez tiene relativa libertad en el habla, entre otras cosas, independientemente del análisis gramatical estructuralista.

Lo que me interesa rescatar es que el texto explicita un aspecto importante de la reflexión sobre el lenguaje que ha sido resaltado en gran parte de la literatura filosófica al respecto, en primer lugar, los términos se profieren y, en segundo lugar, hay

1 Putnam, Hilary; ‘Significado y Referencia’, trad. Valdés Villanueva, en Valdés Villanueva, ‘La Búsqueda del significado’, Madrid, Tecnos, 1999.

Page 64: 0 análisis epistemológico ii, 2011

César Luis Vicini

64

un subconjunto de hablantes al que le interesa postular criterios asociados a esos términos. Entonces, podemos distinguir, entre los subconjuntos de hablantes, el de los hablantes comunes y el de los filósofos. Tal distinción se acepta generalmente, sin exigir mayores precisiones, como una cuestión de hecho. De este modo, se puede ver una cooperación en tanto que hablantes de una misma lengua, en el sentido en el que los filósofos toman esos significados y usos pero, de ningún modo, se puede creer que los filósofos legislan sobre el uso de otros hablantes.

El criterio, puesto que nos ocupa el aspecto sociolingüístico, podría residir en los recursos que emplearían y la argumentación que ofrecerían estos hablantes si se les preguntara a modo de encuesta, por ejemplo, ¿que relación hay entre las palabras y las cosas? ¿Qué tan lejos de la media está el filósofo? Y, por consiguiente, ¿qué tan lejos de la media están las explicaciones filosóficas? En definitiva, la Filosofía del Lenguaje, ¿desde dónde y cómo habla acerca de la lengua?

Establezcamos, como punto de partida, algunas caracterizaciones: Por su parte, los hablantes comunes deben ser reconocidos como teniendo un conocimiento ‘teórico-filosófico’ explícito sobre la lengua. No debe entenderse esto en relación a Chomsky, lo que postulo es que los hablantes pueden reflexionar y caracterizar explícitamente el lenguaje. Esto no quiere decir que, necesariamente, deban ofrecer una teoría semántica formal, pero perfectamente pueden responder a preguntas sobre ¿en virtud de qué tiene una palabra significado?, ¿sólo en el contexto de una oración tiene una palabra significado?, etc.

Por supuesto, no es de esperar que sus explicaciones conformen a los filósofos ya que éstos son usuarios competentes2 del lenguaje y, en este sentido, si bien el lenguaje

2 Este es el concepto central al que habría que atender de acuerdo a la tarea que emprendo. Debido al carácter programático de lo que propongo y dadas las complicaciones del concepto, lo dejaré para otra oportunidad, haciendo explícito que es muy probable que todo lo que pueda decir gire alrededor de ‘la competencia lingüística’. Por el momento, no debe entenderse que los filósofos son los únicos hablantes competentes. Sea lo que sea que se entienda por competencia lingüística, hay que reconocer que es una cuestión de grado, aceptar esto ya es suficiente.

Page 65: 0 análisis epistemológico ii, 2011

Filósofos y hablantes

65

se nos impone a todos, en tanto que competentes son capaces de efectuar re-significaciones importantes y gozan de una capacidad de expresión admirable y, si a esto se le agrega el severo entrenamiento en generar problemas y en preguntar, se obtienen personas capaces de realizar fundamentaciones abstractas, complejas e ingeniosas.

En la primera mitad del siglo XX, los criterios asociados a los empleos de las palabras tal y como éstas funcionan cotidianamente fueron algo desvalorizados y, sin más, se ofrecieron algunos criterios sobre las palabras convertidas en tecnicismos por la labor filosófica. El análisis del lenguaje fue esencialmente una actividad intra-filosófica. Como era de esperar, esta actividad, principalmente recursiva, condujo a innumerables problemas metodológicos, posiblemente, dada la existente disparidad con el lenguaje cotidiano. Si bien se ofrecieron ciertos criterios legislativos sobre la lengua, estos postulados nunca fueron fundacionales, es decir, que a partir de ellos se constituyera la disciplina, sino que se vieron atravesados por los problemas filosóficos y los fines que se perseguían en el análisis. Desde sus cimientos, parecía una actividad incompleta. Natural y finalmente, dicha disparidad fue considerada y, de este modo, se dio lugar a una actividad filosófica de marcado carácter descriptivo que procede por estudio de casos e intenta, en la medida de lo posible, encontrar regularidades en el uso cotidiano del lenguaje.

Resumiendo, puede esquematizarse esta labor filosófica del siguiente modo: Los filósofos de orientación lógica intentan una teoría semántica formal, comenzando por la teoría y avanzando hacia las complicaciones del lenguaje natural, y los lingüistas y filósofos contemporáneos parten del lenguaje natural avanzando hacia la teoría3.

En este contexto, el principal problema al que se enfrentó la Filosofía del Lenguaje, en sus inicios y en relación a sus aspectos extra-filosóficos, fue el de cómo conciliar a) La depuración lingüística de los recursos empleados en Filosofía clásica compatible con los postulados de las nacientes Lógica y

3 Esta idea pertenece a Donald Davidson, postulada a mediados del siglo pasado en un artículo llamado ‘Verdad y Significado’. Cuánto se ha avanzado en estos últimos cincuenta años es algo que hay que valorar.

Page 66: 0 análisis epistemológico ii, 2011

César Luis Vicini

66

Epistemología contemporáneas, con b) una reflexión filosófica sobre las Lenguas.

Reconociendo la inmediatez del lenguaje, no puede resultar imposible parafrasear (en sentido débil) o traducir (en sentido fuerte) las tesis filosóficas que conforman el corpus de la FL de modo que pueden ser comprendidas (independientemente de qué es comprender, etc.) por el hablante medio, sino que, incluso, parece ser necesario. Pocos emprenden tal tarea y, cuando se emprende, el filósofo debe despojarse de los tecnicismos y vérselas con las palabras cotidianas para expresar su pensamiento. Al hacer esto, en general, las teorías filosóficas manifiestan su carácter trivial o redundante y, en el peor de los casos, no puede llevarse tal traducción ni siquiera con un mínimo aceptable de precisión. Todo esto puede parecer ingenuo, pero representa un serio problema, ¿cómo puede ser que con la riqueza de la lengua no pueda hacerse? Veo allí una de las manifestaciones de un espíritu sectario, dónde la minoría es más en virtud de una autoproclamación.

Sería interesante analizar los textos relevantes con el objeto de hallar estas alusiones sobre lo que se llama sentido común, con el fin de explicitar su genuina correspondencia con explicaciones comunes, tal y como las ofrecerían los hablantes comunes. La filosofía del lenguaje adscribe explicaciones al sentido común que por lo general siempre consisten en ingenuidades cuya única función es servir de introducción en un escrito que las va a superar ampliamente. A menudo se hace esto, sin necesidad de llevar a cabo un estudio sociológico que recolecte ningún dato.

Dejando para otro momento la ejemplificación de lo que propongo, supongo que, si se dispone de tiempo, es posible encontrar explicaciones similares a las de los filósofos del lenguaje en el discurso de los hablantes comunes. Siempre me pareció que la mejor manera de empezar a elucidar la conciliación entre filósofos y hablantes es tomar la experiencia inmediata como punto de partida, por lo menos en relación a los problemas de la referencia y, específicamente, en relación a respuestas conductuales puesto que, cualquier ruido en la comunicación puede solucionarse señalando. Por supuesto, no se resuelven problemas filosóficos señalando, pero creo que funciona muy bien cotidianamente.

Page 67: 0 análisis epistemológico ii, 2011

Filósofos y hablantes

67

Una manera de enunciar los puntos de contacto con el lenguaje común parece residir en las palabras de uso cotidiano que son más difíciles de insertar en una semántica formal. Puede objetarse, y con razón, que el punto de encuentro que propongo está, precisamente, donde no se encuentran. Russell sostiene algo interesante cuando dice que un sensible se convierte en dato sensible mediante un acto de conocimiento a la manera en que un hombre se convierte en marido por un acto matrimonial4. ¿Sucede algo similar con las palabras? Y, si es así, ¿cuál es el acto filosófico que las instituye? Avanzar en esta dirección exige postular tal punto de contacto. Es algo así como salir de la filosofía a través de sus puntos de escape.

Es común que el filósofo intente, a través de una legislación sobre la lengua, evitar la imposición de la lengua y la inadecuación de las palabras cotidianas. Al respecto, es conveniente recordar una frase de Davidson ‘La omnisciencia puede permitirse obviamente teorías del significado más extravagantes que la ignorancia; pero, entonces, la omnisciencia tiene menos necesidad de comunicación’. Retomando el enfoque sociolingüístico, es posible plantear la siguiente hipótesis: Cuanto más ingeniosa u omnisciente es la conversación, hay menos probabilidades de que sé efectivamente. Teniendo en cuenta esto, habría que preguntarse cuánta importancia se le otorga a la jerga filosófica puesto que, como fenómeno lingüístico, cuenta con muy pocos representantes.

Retomando la hipótesis de Putnam, advierto en los ámbitos académicos una existente sobrevaloración de la labor científica en relación a la introducción de términos nuevos en la lengua. Como todos saben, el empleo de ciertos términos en estos ámbitos bien delimitados suele ser muy preciso. Putnam parece indicar que los descubrimientos científicos, tienen gran repercusión en lo cultural, hasta tal punto que la lengua puede ir cambiando en virtud de éstos. De todo esto no hay duda, y no sería conveniente negarlo. La cuestión reside en cambiar de polo y ver el movimiento inverso, es decir, reconocer que el filósofo o el científico se nutren de la lengua, y luego ver cómo

4 Russell, B., ‘La relación de los datos sensibles con la Física’, en ‘Misticismo y Lógica’, trad. Santiago Jordan, Barcelona, Edhasa, 2001.

Page 68: 0 análisis epistemológico ii, 2011

César Luis Vicini

68

las palabras comunes operan en los ámbitos académicos y cuáles son las estrategias que se emplean para instituirlas. Por supuesto, la epistemología se ocupa de estas cuestiones. Tal vez, todo lo que digo pueda reducirse a una cuestión de actitud, pero es una actitud que tiene consecuencias en el ámbito académico. ¿Cuándo llegará el día en el que el lenguaje cotidiano sea algo más que simple lenguaje objeto?

A menudo, se ha planteado que las palabras sólo tienen significado en el contexto de una oración, otros han preferido postular que las oraciones sólo tienen significado en el contexto del lenguaje como un todo, otros lo han contextualizado en el ámbito científico. Lo que propongo es averiguar cuál es el papel operativo de ciertas palabras u oraciones en el contexto de las explicaciones triviales (si es que realmente lo son). Resumiendo, se trata de reconocer la importancia del saber explícito sobre el lenguaje por parte del hablante común y ver qué papel cumplen ciertas palabras en ese contexto. Tal vez de este modo hallemos lo que buscamos: la naturaleza no arbitraria del tecnicismo. Los cimientos de una verdadera filosofía del lenguaje crítica.

Seguramente, habría que comenzar con investigaciones empíricas, recolectando datos en base a objetivos bien definidos. Pero no creo que toda la investigación deba reducirse a esto, ni mucho menos a una formalización de esos datos. Es, antes bien, una actividad reflexiva que necesita de la comprensión pero, lo que es más difícil, necesita de hablantes con competencia lingüístico-filosófica, y esto implica que no pueden darse muchas directrices metodológicas al respecto, pues es una cuestión de idiosincrasia, principalmente.

Page 69: 0 análisis epistemológico ii, 2011

Nicolás Trucco, Análisis Epistemológico II, Martín, Mar del Plata, 2011, pp. 69-72.

SOBRE LA (SUPUESTA) NECESIDAD DE FORMALIZAR EL LENGUAJE

Nicolás Trucco

El problema que le da título a esta nota siempre me ha inquietado (aunque sin sacarme el sueño). Veo que durante años, días y horas, y horas enteras, un grupo de filósofos desde Pródico hasta hoy se ha devanado los sesos para resolver el problema que creen que suscita, especialmente en la ciencia, la utilización del lenguaje materno, ordinario, o de fondo, el que todos, absolutamente todos aprendimos de niños y con el cual nos desenvolvimos hasta ancianos, lenguaje con el que, según cuenta la leyenda (lo que demuestra que se trata de un problema antiguo), en un acto de soberbia, los humanos quisimos alcanzar los cielos construyendo la célebre Torre de Babel.

Me he imaginado en una reunión con los filósofos preocupados por la formalización del lenguaje haciéndoles, con cautela o inocencia, la siguiente pregunta:

¿Por qué, si les ha preocupado tanto el lenguaje científico, siempre o casi siempre han utilizado ejemplos del lenguaje cotidiano y no lo han hecho con ejemplos del lenguaje que se pretende formalizar?

Veamos sólo un par de esos ejemplos: • ‘El agua hierve a 100 grados’, o ‘el H2O hierve a 100ºC’

(excepto ‘hierve’ el resto está formalizado por un lenguaje científico). Esta una proposición que está más cerca del ámbito científico que del poético.

• ‘El autor de Don Qujote era manco’ es otra proposición

que, en este caso, está más cerca de la literatura que de las matemáticas.

Page 70: 0 análisis epistemológico ii, 2011

Nicolás Trucco

70

Ahora bien, ambas proposiciones están escritas en lenguaje ordinario y en lenguaje materno (el mío); se entienden perfectamente sin estar formalizadas. Además alguien familiarizado con la física o la química y porque no también con la literatura podría decir con razones justificadas que ambas son verdaderas (o que son ambiguas, incompletas o falsas aun cuando, como dije antes, no estén formalizadas). Pero lo que importa es que pueden comprenderse claramente (eso creo), sin rodeos.

Para Frege ambas proposiciones serían verdaderas porque los signos que las constituyen tienen referencia/denotación (‘agua’, ‘hierve’, ‘100 grados’; ‘Don Quijote’ [el libro], ‘autor, ‘era’, ‘manco´). (Las dos proposiciones en cuestión se refieren a “lo verdadero”). ¿Dónde está la formalización en estas, según mi modesta opinión, ideas sumamente claras con respecto al signo?

Russell nos dio una lección extraordinaria con su teoría de las descripciones. Para el el segundo ejemplo, por caso, puede caracterizarse su conocida expansión sin necesidad de formalizar:

1. hay un individuo que es el autor de Don Quijote 2. hay un único individuo que es el autor de Don Quijote 3. ese individuo es el autor de Don Quijote era manco

También me atrevería a preguntarle expresamente por qué

le preocupa tanto que el rey Jorge hubiera querido saber, ya que se trataba de un hombre culto, si ‘Scott es el autor de Waverley’, pues no debió saberlo (a priori) sino, hasta después de aprenderlo (creo que nadie nace sabio).

Le preguntaría también por qué le preocupó tanto que Francia tuviera rey (calvo o no, aunque los reyes de Francia acostumbraran usar peluca y aclaro que tampoco soy hegeliano), ya que después de la guillotina tuvieron la precaución de contar con un emperador plebeyo (a menos que esto que sea una cuestión más de competencia anglo-francesa, como el rugby).

Y me animaría a decirle que me parece imposible pensar en un cuadrado redondo, pues resulta totalmente absurdo e inimaginable, aun en el Reino del Revés de María Elena Walsh.

Page 71: 0 análisis epistemológico ii, 2011

Sobre la (supuesta) necesidad de formalizar el lenguaje

71

Por último me atrevería a preguntarle el por qué de esa dureza con Meinong. La teoría de los objetos subistentes se basa en la creencia de que éstos, aunque sean inexistentes, son aun "totalmente abstractos pero subsistentes”, se fundamenta en que es posible pensar en un objeto como la “montaña de oro” o Le Petit Chaperon Rouge”, aunque no existan entes así en el mundo externo. Y la sola idea de que existan en la mente de alguien me parece bastante atractiva, sumamente razonable y digna de estudio.

Quine probablemente intentaría formalizar todo, por medio de términos con y sincategoremáticos, pero luego creo que volvería, como él mismo lo llama, al lenguaje de fondo, al lenguaje materno; no forzaría la "naturalidad" del lenguaje ordinario, pues no se saldría del lenguaje en cuestión, ni inventaría otro nuevo.

Wittgenstein seguramente me contaría que al comienzo sus pensamientos estaban muy cerca de los de Russell, pero con los años, había cambiado y que por lo tanto dejaría los ejemplos anteriores tal como están, es decir que recomendaría la humilde terapia del lenguaje ordinario para resolver los problemas filosóficos.

Carnap concibe al lenguaje como algo dado, ideado o construido para ponerlo al servicio de la ciencia, así el lenguaje no es expresión del pensar, sentir o querer, la formalización para él sería sinónimo de excelencia. Y la pregunta que cae de maduro aquí es la siguiente: ¿cómo formalizar este presupuesto?

Heidegger, objeto de las ironías de Carnap, se opone a éste y propone la “experiencia hermenéutico-especulativa del lenguaje”: “surgida la cuestión de que haya de ser experimentado para el pensar de la filosofía como la cosa misma y cómo esta cosa (el ser como ser) haya de decirse”. Según Heidegger, al lenguaje hay que experimentarlo dejarse dar por él la indicación para pensar lo no pensado. Para Heidegger, “qué sea lo que hay lo dice siempre la palabra que lo nombra”. A Heidegger lo atrajo siempre el lenguaje poético (desde los años 30 en sus estudios sobre Hölderlin) porque entiende que en él se hace presente la verdad en su sentido pleno de desocultamiento. “En la obra (de arte) está la verdad en obra, no pues sólo lo verdadero”. De ahí que en la palabra

Page 72: 0 análisis epistemológico ii, 2011

Nicolás Trucco

72

de los poetas se recoge lo determinante de una época: para Heidegger se escucha ahí escuche aún la iluminación del ser y no impere en absoluto su olvido. (Tal vez aquí pudiera ser necesaria una formalización que nos ayudara a entender qué quiso decir Heidegger o qué entienden los que dicen entenderlo, pero creo que una buena paráfrasis en lenguaje ordinario y materno podría bastar).

Este escenario torpemente imaginado por mí deja ver que mi pensamiento me lleva a una crítica a la posibilidad de formalizar el lenguaje como una “necesidad filosófica” aun cuando de lenguaje científico se trate, porque la visión del “Mundo” es algo que se da en la misma cotidianeidad. Entiendo desde este punto de vista que la formalización del lenguaje sólo puede ser contingente, y que se transforma en necesaria para alguien en un determinado momento simplemente porque lo necesita para algún fin concreto, o tal vez porque genuinamente le gusta, como le podría gustar hacer crucigramas o estudiar filosofía.

Page 73: 0 análisis epistemológico ii, 2011

Lucas Andisco, Análisis Epistemológico II, Martín, Mar del Plata, 2011, pp. 73-84.

LA METODOLOGÍA DE LAS CIENCIAS DEDUCTIVAS SEGÚN TARSKI

Lucas Martín Andisco I. Metodología de las ciencias deductivas y fundamentos de la

geometría

Durante las últimas décadas del siglo XIX las investigaciones “metodológicas” recibieron un fuerte impulso a través de los estudios dedicados a los fundamentos de la geometría. Es sabido que la aparición de las geometrías no-euclideanas generó en el seno de la matemática un interés especial, aún mayor que el de épocas anteriores, en el rol desempeñado por los axiomas (“postulados”) y términos utilizados en esta área. Así, a través de este interés, el descubrimiento de las nuevas geometrías tuvo como efecto secundario el posterior hallazgo (re-descubrimiento en algunos casos) de pequeñas imperfecciones en el desarrollo deductivo de la geometría clásica. Desde el punto de vista histórico, por supuesto, estas imperfecciones de la geometría de Euclides consisten en meros “detalles” dentro de una obra que se mantuvo intacta durante más de 2000 años (y que aún se conserva firme en la inmensa mayoría de sus deducciones), pero el hincapié en las mismas y en su corrección colaboró a la postre en la constitución de una idea más exacta del rol y funcionamiento de los sistemas axiomáticos. Concretamente en el ámbito de los fundamentos de la geometría, sólo hacia fines del siglo XIX, principalmente a partir de los trabajos de los matemáticos Pasch, Peano, Hilbert y Pieri, se presentaron axiomatizaciones totalmente completas de la geometría euclideana.1 1 Los “axiomas de Hilbert” constituyen una de las axiomatizaciones más importantes, debido al gran número de estudios metodológicos que se hicieron sobre ella y, claro está, por ser de las primeras. Sin embargo, durante el siglo XX se han presentado muchas otras con diversas características (si bien todas comparten, por supuesto, el núcleo fundamental ya establecido por Euclides a través de sus cinco postulados). Entre las más conocidas en la actualidad se encuentran las de Tarski y Birkhoff. Cabe señalar que uno de los aspectos más importantes en el que se diferencian los distintos tipos de axiomatizaciones reside en la lógica sobre las que éstas se apoyan (y, también, en el carácter de los términos primitivos involucrados).

Page 74: 0 análisis epistemológico ii, 2011

Lucas Martín Andisco

74

Las “imperfecciones” descubiertas en la geometría de

Euclides consistían sobre todo en escasas omisiones de pasos intermedios, que requerían la invocación de otros postulados (cuya “evidencia” o “trivialidad empírica” justificaba el que pasaran inadvertidos). Así, por ejemplo, en la demostración de la primera proposición de los Elementos, Euclides utilizaba que, si se diesen dos circunferencias congruentes cuyos centros distaran una longitud igual a sus radios, dichas circunferencias se intersectarían, es decir, compartirían algún punto en común. Sin embargo, este hecho, evidente desde la percepción intuitiva de las figuras involucradas, no podía ser justificado a través de los postulados (y nociones comunes) consignados por Euclides. Una carencia similar, o falta leve de precisión, estaba presente también en la demostración de la proposición IV del primer libro. De aquí la necesidad de nuevos axiomas adicionales, quizás de un carácter más “evidente” aún desde el punto de vista “intuitivo” que el de los propios postulados (y “nociones comunes”) originales, pero que se requerían para terminar de completar definitivamente la construcción o exposición del sistema euclideano.

A este respecto, Pasch, quien fue el primero en desarrollar sistemáticamente investigaciones de este tipo, descubrió la utilización por parte de Euclides de algunos supuestos tácitos vinculados con la ordenación de puntos en una recta, como el principio según el cual “dados tres puntos alineados siempre hay exactamente uno que está entre los otros dos”, y también el llamado “axioma de Pasch”:

Si una recta intersecta a un lado de un triángulo, y no pasa por ninguno de sus vértices, entonces también intersecta a alguno de los otros dos lados.

O, en una formulación distinta pero equivalente: si dos segmentos conectan cada uno un vértice distinto de un triángulo con un punto cualquiera en su lado opuesto, entonces estos segmentos se intersectan dentro del triángulo. Formulado

Page 75: 0 análisis epistemológico ii, 2011

La metodología de las ciencias deductivas según Tarski

75

en la axiomatización de Tarski (una de las más simples para la geometría euclideana elemental2):

Este axioma quizás sea uno de los mejores ejemplos de una proposición que no puede derivarse de los postulados de Euclides pese a cumplir un rol deductivo en dicha teoría.

Junto con las investigaciones de Pasch llegaron muchas otras que dieron lugar a las axiomatizaciones “totales” a las que nos referíamos más arriba, pero lo que nos interesa señalar es que, desde el ámbito de la geometría, se hizo palpable la necesidad de fundar todas las teorías deductivas de la matemática en términos primitivos y axiomas más precisos. En particular, se explicitó la condición metodológica de no apelar a supuestos tácitos vinculados con el modo de entender, “intuitivamente”, los distintos términos involucrados en dichas teorías. A este respecto, Pasch en su obra sobre fundamentos de 1882, insistía en particular en la necesidad de no apelar a las interpretaciones físicas de los términos primitivos de la geometría como recta, círculo, etc. (como referimos el error de Euclides de incurrir en un supuesto tácito en la demostración de su primera proposición estaba enlazado a este aspecto). De este modo, accedemos a una característica central de las teorías deductivas estudiadas por la metodología: las proposiciones deben fundamentarse únicamente en las manipulaciones formales permitidas por los axiomas y el aparato deductivo de la teoría.

Señala Pasch con respecto a la geometría: Indeed, if geometry is to be really deductive, the deduction must everywhere be independent of the meaning of geometrical concepts, just as it must be independent of the diagrams; only the relations specified in the propositions and definitions employed may legitimately be taken into account. During the deduction it is useful and legitimate, but in no way necessary, to think of the meanings of

2 El dominio de las variables en esta axiomática es únicamente el conjunto de los puntos del plano. La relación B es una relación triádica primitiva de la teoría equivalente a “estar entre” (es decir, “alineación” más “ordenamiento”): Bijk = “j está entre i y k”. (La teoría cuenta con una segunda relación primitiva que sirve para expresar congruencia de segmentos).

Page 76: 0 análisis epistemológico ii, 2011

Lucas Martín Andisco

76

the terms; in fact, if it is necessary to do so, the inadequacy of the proof is made manifest. If, however, a theorem is rigorously derived from a set of propositions -the basic set- the deduction has a value which goes beyond its original purpose. For if, on replacing the geometric terms in the basic set of propositions by certain other terms, true propositions are obtained, then corresponding replacements may be made in the theorem; in this way we obtain new theorems as consequences of the altered basic propositions without having to repeat the proof.3

Estos dos aspectos fundamentales exceden el marco de la geometría y se aplican a las teorías deductivas en general. En este punto, la coincidencia con Tarski no puede ser mayor, pues el lógico polaco también señala en su exposición del método deductivo que:

Nuestro conocimiento de los objetos denotados por los términos primitivos… es muy amplio y… [puede no estar agotado] por los axiomas adoptados. Pero este conocimiento es, por decir así, asunto privado nuestro y no ejerce la más mínima influencia sobre la construcción de nuestra teoría. En particular, al deducir teoremas de los axiomas no hacemos ningún empleo de este conocimiento, y nos comportamos como si no comprendiéramos el contenido de los conceptos involucrados en nuestras consideraciones, y como si no supiéramos nada de ellos que ya no hubiera sido expresamente afirmado en los axiomas. Despreciamos, como se dice generalmente, el significado de los términos primitivos que hemos adoptado, y enfocamos nuestra atención exclusivamente sobre la forma de los axiomas en que se dan estos términos. Esto implica una consecuencia muy significativa e interesante…4

Tarski resalta luego la importante consecuencia ya señalada por Pasch, a saber: Si, en particular, reemplazamos los términos primitivos de una teoría por otros términos que también satisfagan las relaciones establecidas por los axiomas de la teoría original, podremos convertir toda otra proposición de dicha teoría en una proposición igualmente verdadera pero que refiera a nuevos objetos, y toda deducción de la misma podrá transformarse de igual modo preservando su carácter deductivo.

3 Vorlesungen über neue Geometrie, 1882, cita extraída de Suppes (1988), pp. 82-3. Aparentemente, la traducción del alemán se debe a E. Nagel. 4 Tarski, op. cit., p. 154.

Page 77: 0 análisis epistemológico ii, 2011

La metodología de las ciencias deductivas según Tarski

77

Es decir, dadas las características de las teorías deductivas, podemos interpretar una teoría en otra, siempre y cuando obtengamos que el reemplazo de los términos usados en una por los términos usados en la otra preserva la validez5 de sus axiomas. En este caso, decimos que la primera teoría admite una interpretación dentro de la segunda, o bien que la segunda (o, mejor dicho, el conjunto de sus proposiciones que “adaptan” los axiomas de la otra al realizar el cambio de términos) es un modelo de la primera.

Estas propiedades metodológicas asociadas a la concepción “refinada” de los sistemas axiomáticos supieron ser aprovechadas, y en cierto sentido “aplicadas”, en la consecución de importantes resultados de carácter metodológico e incluso propiamente matemático. Así, por ejemplo, se descubrió a fines del siglo XIX que las geometrías no-euclideanas admitían una interpretación dentro de la geometría euclideana, y viceversa.

Es clara la importancia de estos y otros resultados para la investigación de los fundamentos de la matemática, pues permite asociar propiedades de un sistema en otro.

Generalizando esta clase de indagaciones aparece también el llamado teorema de la deducción, introducido independientemente por Tarski y Herbrand durante la década de 1920. Este resultado en alguna medida da cuenta formalmente de la idea original de Pasch que venimos discutiendo: enunciado en forma simplificada, el teorema establece la posibilidad de asociar a cada demostración de una teoría deductiva un enunciado general perteneciente a la lógica que afirme la implicación de un modo en el que los términos de la teoría son tratados como variables. Es decir, a toda demostración se le puede asignar un enunciado condicional de la lógica que hace referencia a objetos cualesquiera, y que, en el fondo, asegura que el teorema en cuestión es satisfecho por cualquier modelo del sistema de axiomas de la teoría.

5 Con validez entendemos aquí el hecho de que, una vez adaptados los axiomas de la primera teoría a los términos de la segunda, las nuevas proposiciones así obtenidas sean o bien axiomas o bien proposiciones demostradas dentro de la segunda teoría, es decir, teoremas.

Page 78: 0 análisis epistemológico ii, 2011

Lucas Martín Andisco

78

Las características metodológicas hasta aquí señaladas acentúan sin dudas los rasgos formales de las teorías deductivas. El carácter formal de una teoría deductiva (y, de los razonamientos involucrados en ella) viene dado, según lo entiende Tarski, por el hecho ya mencionado de que en la construcción de dicha clase de teorías no tomamos en cuenta el significado de sus términos y axiomas si no únicamente su forma. Esta idea, sin embargo, requiere aún mayores precisiones, y, debido a su importancia, a ello nos abocaremos en el parágrafo siguiente.

II. Carácter formal de las teorías deductivas Hemos insistido entonces en que en el desarrollo de las teorías deductivas se debe prescindir del significado que se le asocien a sus términos y proposiciones, concentrándose en la forma (sintaxis) de estos enunciados. Pero, ahora bien, ¿no implica esto realmente que los mencionados términos y proposiciones carecen en el fondo de significado? Esto fue sugerido, con variados matices, por la escuela formalista en filosofía de la matemática, y también, en ciertas ocasiones, por Bertrand Russell (cuya “afiliación” filosófica es materia compleja). A esta idea se refiere Tarski en la siguiente cita, siendo su posición en este punto central para el modo en el que la gran mayoría de los lógicos polacos entendían la función del método deductivo, y de los lenguajes formales en los que dicha clase de teorías se expresan:

De tiempo en tiempo se hallan proposiciones que recalcan el carácter formal de la matemática de modo paradójico y exagerado; si bien son fundamentalmente correctas, estas proposiciones pueden llegar a ser una fuente de oscuridad y confusión. Es así como se oye y hasta ocasionalmente se lee que no se puede atribuir ningún contenido definido a los conceptos matemáticos; que en las matemáticas no sabemos realmente de qué estamos hablando, y que no estamos interesados en saber si nuestras aserciones son verdaderas. Tales juicios deberían ser encarados más bien críticamente. Si al construir una teoría uno se comporta como si no comprendiera el significado de los términos de esa disciplina, esto no es lo mismo que negar a esos términos todo significado. Se admite que algunas veces se desarrolla una teoría deductiva sin atribuir un significado definido a sus términos primitivos, tratando así a estos últimos como si fueran variables; en este caso decimos que tratamos a la teoría como un SISTEMA

Page 79: 0 análisis epistemológico ii, 2011

La metodología de las ciencias deductivas según Tarski

79

FORMAL. Pero ésta es una situación comparativamente rara (ni ha sido tomada en cuenta en nuestra caracterización general de las teorías deductivas…), y solamente ocurre cuando es posible dar varias interpretaciones al sistema de axiomas de dicha teoría, es decir, si se dispone de varias maneras de atribuir significados concretos a los términos que se presentan en la teoría, pero cuando no deseamos dar preferencia por adelantado a ninguna de esas maneras. Por otra parte, es de suponer que un sistema formal para el que no pudiéramos dar ninguna interpretación no interesaría a nadie.6

De este modo, Tarski rechaza explícitamente la idea de que en las disciplinas deductivas se trabaja, por lo general, con “conceptos vacíos”. Una cosa es la construcción de la teoría, y otra es la teoría como tal. El que una vez establecidos los axiomas y términos primitivos se proceda a desarrollar la teoría sin atender al significado “intuitivo” de sus expresiones, no les quita este significado, y la teoría no deja por eso de ser “significativa”.

Por otra parte, hay un sentido en el que, debe aclararse, no es del todo correcta la afirmación que hemos hecho al comienzo de este parágrafo, a saber, que al desarrollar una teoría (justificar sus proposiciones y definir sus términos) sólo se apela a la forma o sintaxis de sus enunciados. Como mencionamos en la presentación de los principios del método deductivo, la lógica es por lo general una disciplina precedente incluida en nuestras teorías deductivas. Es decir, las proposiciones de las teorías deductivas así consideradas (por ejemplo, las proposiciones de cualquier teoría dentro de la matemática) incluyen términos lógicos además de los términos propios de dicha teoría. Y, en una primera instancia del método deductivo, la manera en la que se justifican las proposiciones (y también el modo en el que se definen sus expresiones) apela sí al significado de estos términos lógicos.

En este sentido, tal como señala Tarski7, la evaluación de un razonamiento de la matemática no difiere esencialmente de otras consideraciones de la vida cotidiana, ya que lo que se procede a analizar es si, dadas cualesquiera cosas, se cumplirá o no que, de satisfacer una serie de relaciones preestablecidas, también deberán satisfacer necesariamente cierta otra serie de

6 Tarski op. cit., p.162 (las cursivas son nuestras). 7 Ibid., p. 166.

Page 80: 0 análisis epistemológico ii, 2011

Lucas Martín Andisco

80

relaciones dadas. En esto consistiría evaluar un razonamiento, y para ello, si bien omitimos apelar al significado de los términos propiamente involucrados en las proposiciones de nuestra teoría (pues consideraríamos “cualesquiera cosas” que cumplirían “una serie de relaciones dadas” sean cuales sean), sí necesitamos recurrir al significado de los términos lógicos.

Desde ya, esta manera de justificar las proposiciones de una teoría deductiva puede no ser suficientemente segura, pues es natural pensar en la posibilidad de equivocarse en este tipo de evaluaciones de nuestros razonamientos (dependiendo éstas del buen criterio de quien las efectúa). Y la misma dificultad se presenta para el caso de la clarificación o introducción de términos a través de definiciones.

En conexión con esto surge una manera de extender el método deductivo que permite asegurar sobre una base más firme la corrección de las deducciones y definiciones llevadas a cabo. Este paso se da a través de dos postulados metodológicos más: los postulados de formalización de definiciones y demostraciones.

Estos postulados exigen la enunciación de reglas precisas de definición y demostración (o inferencia). Las primeras establecen la forma que tienen que tener las proposiciones de la teoría que se utilicen para definir términos nuevos (es decir, reglamentan la estructura de las mentadas definiciones de la teoría), y las segundas nos dicen el tipo de transformaciones que pueden llevarse a cabo sobre los enunciados de la teoría para derivar a partir de ellos otras proposiciones. De este modo, la adecuación de las definiciones y demostraciones queda reducida al correcto seguimiento o no de reglas exactamente especificadas. La comprobación de una demostración se limita a la inspección de aspectos puramente externos de los enunciados, sin que deba ni pueda apelarse ya, tampoco, al significado de los términos lógicos. Si una teoría es construida atendiendo a estos nuevos postulados, se dice que se trata de una teoría deductiva formalizada.8 8 En la práctica, pocas teorías deductivas, al menos en el ámbito de la matemática, se construyen formalizando su aparato deductivo y sistematizando de igual modo sus definiciones. Como es sabido, la posibilidad misma de formalizar completamente una teoría sobrevino sólo con el desarrollo de la lógica moderna. Sin embargo esta posibilidad es de por sí de gran interés

Page 81: 0 análisis epistemológico ii, 2011

La metodología de las ciencias deductivas según Tarski

81

El carácter formal de las teorías deductivas se acentúa aún más, por supuesto, con la introducción de dichos postulados, es decir, con la formalización de las teorías y sus lenguajes. ¿Pero se modifican por esto las consideraciones anteriormente mencionadas respecto de dicho carácter? Desde la óptica de Tarski la respuesta es un rotundo no.

Por un lado, el hecho de que una teoría deductiva formalizada se desarrolle como una mera manipulación de símbolos cuyo contenido no consideramos no debe hacernos olvidar que los métodos y reglas con los que tales procedimientos se realizan han sido seleccionados para cumplir propósitos bien “significativos”, al menos desde el punto de vista de Tarski: (a) garantizar la verdad de las proposiciones a partir de la verdad de los axiomas, (b) clarificar con máxima exactitud el contenido de los términos a partir del contenido (significado) de los términos primitivos. No se trata de la mera postulación y aplicación de los procedimientos válidos de un juego, si no que es el empleo de técnicas que han sido estudiadas y sistematizadas para cumplir fines específicos de la investigación.

Por otro lado, tampoco la selección de los axiomas es totalmente arbitraria. Por supuesto, siempre pueden reemplazarse unas proposiciones por otras con tal de que ambos grupos puedan derivarse mutuamente mediante los mecanismos inferenciales que hemos aceptado como válidos. Pero hay un aspecto en el que la selección de axiomas está estrechamente vinculada con la propia elección del método deductivo, y que no puede dejar de considerarse: se busca otorgar a un conjunto de conocimientos de un orden y precisión que permita, por un lado, justificar la mayor parte de los mismos a partir de un conjunto reducido de ellos, y, a la

teórico, a tal punto que, como también señala Tarski, actualmente en el establecimiento de las disciplinas deductivas, si bien las mismas se desarrollan por lo general de un modo “informal”, se pretende que este desarrollo respete en lo esencial los requerimientos de corrección introducidos por los postulados de formalización. (La sola sospecha de que un argumento o una definición, por no decir que una teoría completa, no pudiesen ser formalizados, incitaría a una revisión atenta de la teoría involucrada, al menos en la gran mayoría de los casos.)

Page 82: 0 análisis epistemológico ii, 2011

Lucas Martín Andisco

82

vez, servir de medio efectivo para el desarrollo y descubrimiento de nuevos conocimientos.

En cierto modo, los axiomas tienen que, a través de su “forma”, establecer conexiones entre los términos primitivos que, podríamos decir, “absorban” el contenido de los objetos denotados por estos términos que es relevante y necesario para la teoría o el conjunto de conocimientos que estamos intentando sistematizar y expandir. Es decir, al conjunto de proposiciones que asumamos como axiomas, además de los mencionados requerimientos comentados en los parágrafos precedentes, se les exige de algún modo que puedan dar cuenta de las relaciones primordiales entre los objetos que estudiamos en la teoría. (Podría decirse que sólo de esta forma el método deductivo consigue justificar las verdades conocidas y, a la vez, establecer nuevas relaciones, a partir de dichas relaciones primordiales.) También por eso a veces se habla de los axiomas como “definiciones implícitas” de los términos primitivos.

Finalmente, nos interesa señalar la profunda vinculación que puede encontrarse entre las ideas de Tarski con respecto a estos puntos (y el referido “carácter formal”) con la particular doctrina de Lésniewski, su maestro, conocida como “formalismo intuicionista”. Puede decirse que gran parte del análisis y desarrollo que hemos presentado hasta aquí encuentra de hecho remarcable sostén en la citada expresión de Lésniewski:

Having no predilection for ‘various mathematical games’ that consist in writing out according to one or another conventional rule various more or less picturesque formulae which need not be meaningful or even – as some of the ‘mathematical gamers’ might prefer – which should necessarily be meaningless, I would not have taken the trouble to systematize and to often check quite scrupulously the directives of my system, had I not imputed to its theses a certain specific and completely determined sense, in virtue of which its axioms, definitions and final directives [...] have for me an irresistible intuitive validity. I see no contradiction therefore, in saying that I advocate a rather radical ‘formalism’ in the construction of my system even though I am an obdurate ‘intuitionist’. Having endeavoured to express my thoughts on various particular topics by representing them as a series of propositions meaningful in various deductive theories, and to derive one proposition from others in a way that would harmonize with the way I finally considered intuitively binding, I know no method more effective for acquainting the reader with my logical intuitions than the

Page 83: 0 análisis epistemológico ii, 2011

La metodología de las ciencias deductivas según Tarski

83

method of formalizing any deductive theory to be set forth. By no means do theories under the influence of such formalizations cease to consist of genuinely meaningful propositions which for me are intuitively valid. But I always view the method of carrying out mathematical deduction on an ‘intuitionistic’ basis of various logical secrets as considerably less expedient method.9

Lésniewski intentaba desarrollar en esta obra (escrita casi completamente en lenguaje simbólico) algo así como la “más perfecta lógica posible”. Su sistema era en verdad un sistema de lógica proposicional con cuantificadores (lógica proposicional de segundo orden), al que había denominado Protothetic, y formaba parte, como piedra fundamental, de un extenso proyecto en el que el autor se proponía, entre otras cosas, fundamentar la matemática por completo.10 En opinión de Woleński (2009), la actitud de Lésniewski hacia su sistema, a favor al mismo tiempo de la formalización y de la “validez intuitiva” detrás de los axiomas (y del por qué de la elección de los mismos y de sus términos primitivos), tuvo buena acogida en gran parte de la escuela polaca de filosofía, y, por tanto, podemos considerar su obra como una de las principales influencias de Tarski en torno a estas reflexiones. Referencias bibliográficas Kennedy, H. (2002) Twelve Articles on Giuseppe Peano, San Francisco, Peremptory

Publications (ebook). Klimovsky, G. y Boido G. (2005) Las desventuras del conocimiento matemático.

Filosofía de la matemática: una introducción, Buenos Aires, AZ. Mancosu, P. (2009) “Tarski’s Engagement with Philosophy”, Lapointe, S.,

Woleński, J., et al. (eds) The Golden Age of Polish Philosophy. Kazimierz Twardowski’s Philosophical Legacy, Dordrecht, Springer.

Patterson, D. (2008) (ed.) New Essays on Tarski and Philosophy, Oxford, Oxford University Press.

Suppes, P. (1988) “Philosophical Implications of Tarski’s Work”, Journal of Symbolic Logic, 53, 80-91.

Tarski, A. (1941) Introduction to Logic and to the Methodology of the Deductive Sciences, New York, Oxford University Press. Traducción castellana

9 Lésniewski “Grundzüge eines neuen Systems der Grundlagen der Mathematik”, 1929, p. 487, citado en Woleński (2009), pp. 49-50. 10 Quizás no esté de más mencionar que el propio Tarski fue uno de los lógicos que más colaboraron con Lésniewski en la construcción de su sistema (en virtud de la importancia de sus contribuciones, una de las cuales constituyó la tesis doctoral de Tarski). Cf. Patterson (2008).

Page 84: 0 análisis epistemológico ii, 2011

Lucas Martín Andisco

84

conforme a la tercera edición de T. R. Bachiller y J. R. Fuentes: Introducción a la lógica y a la metodología de las ciencias deductivas, Madrid, Espasa-Calpe, 1968.

Tarski, A. (1969) “Truth and Proof”, Scientific American, 220, 63–77. Traducción castellana de C. Oller: Verdad y demostración, Buenos Aires, Oficina de publicaciones del C.B.C, 1996.

Woleński, J. (2009) “The Rise and Development of Logical Semantics in Poland”, Lapointe, S., Woleński, J., et al. (eds) The Golden Age of Polish Philosophy. Kazimierz Twardowski’s Philosophical Legacy, Dordrecht, Springer.

Page 85: 0 análisis epistemológico ii, 2011

E. Guio Aguilar, Análisis Epistemológico II, Martín, MDQ, 2011, pp. 85-94.

ARTE Y CONOCIMIENTO: EL MENSAJE ESTÉTICO CONTEMPORÁNEO

Y SU VÍNCULO CON EL CONOCIMIENTO

Esteban Guio Aguilar Introducción Históricamente se ha vinculado al arte con la transmisión de contenidos cognitivos y con la verdad. Esto presupone, para el arte, una función comunicativa y la posibilidad de establecer para el mensaje estético ciertas particularidades denotativas. Ya en Platón y Aristóteles existía plena conciencia de la existencia de una función comunicativa en el arte. Sus temores y prescripciones para con el arte se veían siempre asociados a la necesidad de cumplir con una tarea específica. En Platón era la de ser útil a la formación de ciudadanos virtuosos “obedeciendo” a la verdad (1974: 398d). En Aristóteles lo pretendido era lograr un efecto purificador en el espectador mediante una estructuración narrativa verosímil (1977: 49). La necesidad por parte del arte de exponer la verdad se consolida en las Lecciones de Estética de Hegel (1989: 13). Arte y verdad también se retoman con nueva fórmula en las teorías estéticas de Heidegger (1996), proseguidas en el desarrollo de la hermenéutica gadameriana. Asimismo y desde una perspectiva analítica, es Nelson Goodman quien comprende a la experiencia artística como, además de expresiva y formal, cognitiva (1990).

Pero saber si es posible asignarle al arte la propiedad de transmitir un determinado conocimiento implicaría, primero, explicar que particularidades se dan en su denotación. Esto sólo sería posible si se describe las características del mensaje estético y se revela el proceso por el cual los intérpretes pueden asignar significados y sentidos a la obra.

Sin embargo, esta tarea se ha complejizado en los últimos años. Iniciado el siglo XX, la poética en general y su objeto de representación, parecen dar un vuelco definitivo al promover cambios esenciales en los procesos que vinculan al artista con el espectador. El nuevo mensaje estético, además de abandonar

Page 86: 0 análisis epistemológico ii, 2011

Esteban Guio Aguilar

86

con la semejanza su herramienta interpretativa más poderosa, parece referir a algo que no se encuentra claramente definido. Comienza a estructurarse así, un mensaje provisto de sólo sugerencia y mucha indeterminación, para el cual no parece existir algún procedimiento que garantice una significación medianamente unívoca.

Entonces, si la denotación de la obra de arte contemporánea tiene tales características de indeterminación y multiplicidad, la posibilidad de que ésta sea vehículo de conocimiento se debilita. La obra de arte contemporánea no podría ser de la clase de ítems que transmite conocimiento y porta verdad.

Ahora bien, para justificar esto debería ser necesario definir obra de arte y, fundamentalmente, explicitar a qué nos referimos con conocimiento y verdad. Tamaña empresa sólo intentará ser resuelta de forma parcial. Por un lado, derivando el problema de la definición del arte hacia su dimensión semántica. Por el otro, mostrando que los procesos de significación de la obra de arte contemporánea configuran una denotación donde el contenido no depende de la obra misma sino que, dentro del marco general que establecen las contingencias socioculturales, lo definitorio es cada particularidad cognitiva del intérprete, imposibilitando la construcción de una referencia medianamente estable.

De este modo, sin ser necesario precisar una definición de conocimiento o de verdad, la inestabilidad referencial que propone la obra desfavorece este tipo de tareas cognitivas. Pues, independientemente de la definición de verdad que se adopte y a menos que se subscriba a un relativismo absoluto, es esperable que aquellos ítems encargados de transmitir conocimiento mantengan una referencia medianamente estable, al menos al interior de un contexto dado. 1. La definición del arte

La pretensión de una definición del arte por parte de la filosofía resulta, en la actualidad, una tarea de difícil resolución. Desde que el arte, fundamentalmente a partir de la modernidad, se manifestara como una actividad autónoma, vale decir, desde que la disciplina paulatinamente se retirara de aquellas obligaciones –primordialmente religiosas y políticas- alrededor

Page 87: 0 análisis epistemológico ii, 2011

Arte y conocimiento

87

de las cuales se estructuraba, las construcciones teóricas al respecto comienzan a perder eficacia. Los efectos del desplazamiento de la esfera artística hacia una actividad no vinculante pueden observarse, no solo en la extrema libertad que promueve la incesante innovación estética, sino, también, en la ausencia de legitimación para la disciplina por parte de teorías estéticas que, si buscan su definición, no puede dar cuenta del fenómeno en su totalidad.

Históricamente –quizás haciendo una salvedad con Kant- las reflexiones filosóficas acerca del arte habían sido generalmente normativas o proponían alguna condición esencial o propiedad primera para determinar la artisticidad de un objeto dado. Sin embargo, si acordamos en que la actividad se ha transformado en algo fundamentalmente autónomo, no le cabría prescripción alguna. ¿Qué es el arte? no podría responderse exponiendo para qué sirve el arte y, asociado a ello, de qué modo debe alcanzarse tal fin. Por otro lado, desde comienzos del siglo XX y hasta hoy en día se ha puesto en evidencia que las propiedades que otorgan el estatuto de obra de arte no pueden estar exclusivamente en el objeto. Una misma cosa puede presentar una configuración ambigua, exhibiendo relaciones ontológicas radicalmente opuestas dependiendo del contexto de aparición (Danto, 2004; Oliveras, 2001).

De modo que un arte completamente autónomo que, además, presenta la posibilidad de exhibir objetos ontológicamente ambiguos, desecha cualquier intento de estéticas normativas/teleológicas -donde lo definitorio es el objetivo a cumplir por parte de la obra-, y de estéticas esencialistas -donde lo pretendido sea captar la propiedad que otorga la especificidad al objeto-.

Sin embargo, si atendemos al fenómeno artístico en su totalidad, articulando todos los factores que la determinan, es posible vislumbrar un elemento que, a lo largo de la historia, ha acompañado a la disciplina permanentemente. La existencia de la obra de arte implica, constantemente, un proceso o circuito formado por el autor, la obra y los receptores. De esta forma no resulta posible concebir la obra de arte sin un productor y, especialmente, sin una comunidad receptora concreta.

Page 88: 0 análisis epistemológico ii, 2011

Esteban Guio Aguilar

88

En este contexto, Nelson Goodman sugiere que plantear “¿qué es el arte?” es un nuevo equívoco de las pretensiones filosóficas. El solo hecho de que una cosa pueda funcionar como obra de arte en algunos momentos y en otros no (ambigüedad ontológica), hace pensar que la pregunta pertinente sería “¿cuándo hay arte?” (Goodman, 1999).

Desde esta nueva perspectiva, cuando hay arte siempre parece existir un proceso o circuito formado por el autor, la obra y los intérpretes, quienes asignan significados a la obra artística. Se configura de este modo una dimensión semántica para el estudio del objeto estético con la cual, sin la exclusiva pretensión de definición para el arte, se intentará describir su funcionamiento.

El arte puede re-presentar, a la manera de hacer presente algo que no está. También puede estar-en-lugar-de y manifestar su característica de signo. Puede suscitar en el espectador un sentimiento, una impresión, de la cual se transforma en símbolo. Pero lo que parecería no suceder es que el arte carezca en absoluto de una significación posible. Aun aquellas obras puramente abstractas, desde el momento en que ostensiblemente se presentan a la percepción pública, son susceptibles de ser dotadas de algún sentido por la comunidad.

De todos modos, resulta obvio que este hecho no es condición suficiente para determinar que algo sea arte. Es claro que una gran cantidad de cosas poseen características referenciales y simbólicas, sin por ello pertenecer a la esfera artística. Pero si acordamos en que necesariamente los objetos funcionan como obras de arte sólo cuando poseen esta particularidad, no resultaría ociosa una línea de investigación en este sentido.

Goodman entiende que “las cosas operan como obra de arte sólo cuando su funcionamiento simbólico tiene determinadas características” (Goodman, 1999: 98). En esta línea, propone como visible en el arte cinco síntomas fundamentales, aunque no necesarios: 1) densidad sintáctica; 2) densidad semántica; 3) plenitud relativa; 4) ejemplificación y 5) referencia múltiple y compleja.

De modo que, junto a esta propuesta, diremos que nos encontramos frente a una obra de arte cuando el objeto exhibido presenta este tipo de funcionamiento simbólico. En lo

Page 89: 0 análisis epistemológico ii, 2011

Arte y conocimiento

89

que respecta a nuestra investigación, intentaremos dar cuenta del modo de abordar el quinto síntoma: la referencia múltiple y compleja.

2. Interpretación y significado en el mensaje estético contemporáneo.

A partir de lo que podría considerarse la teoría fundacional de la estética moderna, vale decir, desde la aparición de Crítica del Juicio (1790) en adelante, podemos reconocer fácilmente una nota común en la mayoría de los intentos por explicar el funcionamiento del arte. La comunidad, el contexto sociocultural, la específica y contingente situación de aparición de un fenómeno artístico resultan fundamentales para la valoración y significación de la obra de arte. Desarrollaremos muy brevemente dos modelos teóricos que abordan el fenómeno desde distintos enfoques pero compartiendo la importancia de la influencia del medio.

La semiótica entiende que un destinatario cualquiera tiene la posibilidad de significar, de dotar de sentido una determinada señal, desde el momento en que posee un código. Lo que establece el código en un sistema de probabilidades finitas que asegura los objetivos de la comunicación. En general y en un primer acercamiento, Umberto Eco plantea al código como una “regla de equivalencias, término por término, entre dos sistemas de oposiciones” (Eco, 1999: 63). Según este modelo, el proceso de significación para una señal dada sólo será posible a partir de una convención preexistente.

Un mensaje estético, siguiendo el lineamiento de la semiótica, es aquel que se estructura de manera ambigua y se muestra auto reflexivo. La ambigüedad que la obra propone proyecta sobre el espectador las posibles interpretaciones pero, según la semiótica, estas no podrían escapar a las opciones que un determinado sistema de reglas ofrece. A pesar de ello, cuando nos referimos a la esfera artística, las posibilidades interpretativas parecen quebrar cualquier sistema posible de combinaciones finitas. Es esta la razón por la cual la semiótica entiende que, además de ambigua, una obra de arte es auto reflexiva.

Page 90: 0 análisis epistemológico ii, 2011

Esteban Guio Aguilar

90

Umberto Eco entiende que en el mensaje estético, las soluciones posibles que conducen a cierto éxito comunicativo, resultan de un código particular, el cual es producto de un sistema de relaciones que, generado desde la propia obra, destruye el código preexistente. La imposibilidad de decodificar la obra desde el reconocimiento de la convención, hace que la solución se genere desde un idiolecto, un código de obra particular e inédito.

Como podrá advertirse, un idiolecto contradice la propia definición de código lingüístico. Pues este código de obra, por ser particular a la obra y novedoso, de ninguna forma puede ser parte de una convención. Es por esto que Eco entiende que, más que desde un sistema completamente novedoso, el mensaje ambiguo opera a través de un movimiento entre el idiolecto y el sistema convencional precedente.

Ahora bien, ¿Cómo explica la semiótica, a que código, sub-código o idiolecto debe remitirse el espectador? ¿Cómo se establece la relación entre sistemas tradicionales y novedosos al interpretar un determinado mensaje? Aparece en esta tesis el concepto de situación. La selección del sistema de relaciones que permite encontrar una posible solución, será en función del contexto específico de cada receptor.

A pesar de ello, resulta claro que no existe un sistema de reglas que asegure una referencia medianamente estable. Aún cuando una “situación” similar predisponga soluciones comunicativas emparentadas, la no existencia de una convención interpretativa posibilita que las referencias construidas a partir de la misma obra, sean distintas entre artista y espectador o entre dos espectadores diferentes.

Desde otra perspectiva de análisis, Sperber & Wilson, en La relevancia, han desarrollado un modelo comunicativo al que denominan ostensivo-inferencial, donde el reconocimiento de la intención informativa del emisor es la clave del éxito comunicativo.

Es un proceso ostensivo porque se entiende que cualquier acto comunicativo tiene que partir del hecho de hacer explícita nuestra intención de transmitir algo. El hablante modifica ostensiblemente el entorno físico del oyente de manera que éste lo pueda percibir. Es inferencial pues el reconocimiento de la intención informativa del emisor se produce a partir de una

Page 91: 0 análisis epistemológico ii, 2011

Arte y conocimiento

91

serie de premisas específicas que implican la solución comunicativa adecuada. El destinatario construye una serie de supuestos en función de las pruebas que la conducta del emisor provoca e infiere una solución. Las premisas que suscita un acto comunicativo más los supuestos auxiliares que puedan desprenderse de éstas, son denominados implicaturas.

Cabe preguntar de qué forma el oyente logra identificar en cada enunciado la forma proposicional correcta que concuerde con la intención del hablante. Para dar respuesta a este interrogante, Sperber & Wilson introducen los conceptos de entorno cognitivo y relevancia.

A diferencia del modelo comunicacional del código, donde lo compartido es un sistema convencional de reglas, el concepto de “entorno cognitivo” estipula la necesidad de contar con cierta información compartida, aunque no necesariamente debe saberse que se comparte. Un grupo de personas comparte un entorno cognitivo cuando sus capacidades cognitivas y sus entornos físicos poseen características similares. No se piensa con esto que las personas compartan la totalidad de sus entornos cognitivos, es decir, que sus entornos cognitivos sean idénticos. Pero cuanto más parecidas sean sus capacidades y condiciones de existencia, cuanto más grande sea la participación respecto de una determinada visión del mundo en un misma comunidad, mayor será la intersección entre los entornos cognitivos particulares.

Cuando un individuo accede en un acto comunicativo a nueva información, parte de ésta será completamente novedosa, mientras que otra podrá tener alguna conexión con la representación del mundo del sujeto. Las implicaturas derivadas del nuevo mensaje son combinados con los viejos supuestos que pertenecen al entorno cognitivo, generando las premisas del proceso inferencial con las que podrá deducirse una posible solución. Si existe esta interconexión y generación de supuestos entre el mensaje nuevo y el entorno cognitivo del oyente, el mensaje es relevante. Cuanta mayor multiplicidad de supuestos suscita el mensaje, mayor será el grado de relevancia. Los autores dirán que todo acto ostensivo se presenta con una garantía tácita de relevancia, propiedad “que hace que para los seres humanos merezca la pena procesar la información” (Sperber & Wilson, 1994: 63). De esta forma, el entorno

Page 92: 0 análisis epistemológico ii, 2011

Esteban Guio Aguilar

92

cognitivo se transforma en una herramienta que orienta hacia un punto de convergencia entre las dos partes del proceso, el cual permitiría acercarse a la intención informativa del emisor.

Sin embargo, el éxito comunicativo frente al mensaje estético contemporáneo no radica en identificar la intención informativa de artista. Existe un espacio de innovación semántica donde está permitido crear sentido libremente. Si bien es plausible que desde entornos cognitivos similares se produzcan soluciones comunicativas afines, nuevamente no se puede describir un procedimiento seguro que garantice la estabilidad de la referencia. Y esto puede advertirse frente a la imposibilidad de determinar si un significado propuesto por algún interprete, pueda ser correcto o incorrecto, mejor o peor. Cualquiera sea el significado extraído de la obra es válido. 3. Arte, conocimiento y verdad.

Atendiendo a las razones expuestas, parece difícil sostener que la significación de la obra de arte contemporánea se configure principalmente desde el reconocimiento de un código o la identificación de la intención.

No parece existir para estos casos, ningún sistema de reglas ni la posibilidad de elaborar ciertos supuestos necesarios que fijen la referencia. El artista organiza voluntariamente una serie de elementos narrativos que promueven un mensaje ambiguo donde la interpretación queda liberada y a cargo principalmente del espectador.

Sin embargo, como ya se examinara, resultaría ser una característica necesaria para que un artefacto cualquiera actúe como objeto estético, poseer algún tipo de función simbólica. Pero si la significación en tal función, no es coherente ni con un determinado código ni con la intención del artista, ¿qué es lo definitorio para su generación?

Si lo que otorgara tal determinación fuera el artefacto en sí, no sería posible explicar con solidez las características de ambigüedad y polisemia. Resulta poco convincente que un artefacto, dotado de una estructura física inalterable, pueda evocar sólo a partir de sí mismo una multiplicidad de sentidos e impresiones.

Page 93: 0 análisis epistemológico ii, 2011

Arte y conocimiento

93

En consecuencia, sólo resta pensar que lo definitorio para la significación de la obra de arte se encuentra en el destinatario. Cada individuo que, atravesado por una determinada situación espaciotemporal, contempla la obra, produce un sentido singular. Esta variedad de significaciones puede ser explicada al comprender que los entornos cognitivos nunca pueden ser idénticos en dos personas distintas. Puesto que, aún en seres de la misma especie y de una misma comunidad, tanto las distintas capacidades cognitivas como las contingencias en las que cada individuo se desarrolla forman entornos cognitivos que, en mayor o menor grado, difieren.

Esto sugiere que la obra de arte contemporánea no puede ofrecer en sí, contenidos cognitivos. Aquellas teorías estéticas que aún sigan sosteniendo para el arte funciones asociadas a la transmisión de conocimiento y verdades no son consistentes con la configuración del mensaje actual.

El arte hoy puede tener efectos cognitivos pero carece de contenidos. Éste podría operar como catalizador, es decir, como desencadenante de procesos que provocan una modificación en nuestro entorno cognitivo. En términos de la teoría de la Relevancia, produce efectos contextuales donde lo definitorio son aquellos supuestos alojados en la memoria del espectador. Pero de ningún modo puede asegurarse que, a través del arte, pueda transmitirse algún tipo de conocimiento. Dependiendo primordialmente del entorno cognitivo del receptor, la obra podrá estimular asociaciones entre contenidos ya adquiridos. De modo que la obra en sí no vehiculiza conocimiento ni porta verdad.

Referencias bibliográficas

� ARISTÓTELES . Poética. Buenos Aires: emecé ed., 1977. � DANTO, C. ARTHUR La transfiguración del lugar común. Buenos

Aires: Paidós, 2004. � DAVIDSON, DONALD. De la verdad y de la interpretación. Barcelona:

Gedisa, 2001. � ECO UMBERTO. -La estructura ausente, Introducción a la semiótica.

Barcelona: ed. Lumen, 1999 -Obra Abierta. Barcelona: Planeta-Agostini, 1985. � GIL, JOSÉ MARÍA. “La teoría de las implicaturas conversacionales”,

en Introducción a las teorias lingüísticas del siglo XX. Santiago de Chile: RIL editores, 2001.

Page 94: 0 análisis epistemológico ii, 2011

Esteban Guio Aguilar

94

� GOODMAN, NELSON. Maneras de hacer mundos. Madrid: Visor, 1990.

� HEGEL G. W. F. Lecciones de estética. Barcelona: ed. Península, 1989, tomos I y II.

� KANT, IMMANUEL. Crítica del juicio. Buenos Aires: Losada, 2005. � LOPEZ, FAVIO E. “El problema de la interpretación y la significación

metafóricas” en: Ideas y Valores nº123. Bogotá, diciembre 2003. � MUKAROVSKÝ. JAN. Escritos de estética y semiótica del arte.

Barcelona: Talleres Gráficos Ibero-Americanos, 1977. � OLIVERAS, ELENA. “Hermetismo y ambigüedad en el arte

contemporáneo” en: Revista de Cine nº 0, Buenos Aires, octubre 2001. � PLATÓN La República. , Santiago de Chile: ed. Delfín, 1974. � SPERBER & WILSON. La Relevancia. Madrid: Gráficas Rogar, 1994.

Page 95: 0 análisis epistemológico ii, 2011

F. E. Mana, Análisis Epistemológico II, Martín, Mar del Plata, 2011, pp. 95-101.

LAS VENTAJAS DE LA ENSEÑANZA DE LA PRUEBA FORMAL DE

VALIDEZ SEGÚN LA METODOLOGÍA DE GAMUT: UNA NOTA

SOBRE LA ENSEÑANZA DE LA LÓGICA

Federico Emmanuel Mana

Este trabajo es, más que la presentación de una hipótesis acabada, la apertura a una discusión que puede llegar a tener varios capítulos. Ahora bien, el trabajo está pensado para ofrecer una mirada filosófica hacia la enseñanza de la lógica, sobre todo en las escuelas secundarias, en el contexto del currículum de Filosofía. Cabe entonces la siguiente pregunta: ¿para qué se enseña lógica?

Si nos dejamos guiar tanto por Irving Copi como por Gamut, podemos contestar fundadamente que para enseñar a “razonar mejor”, esto es, para desarrollar y mejorar la capacidad argumentativa, para brindar las herramientas que faciliten la concreción de razonamientos válidos.

No obstante hay que tener en cuenta, además, que la inclusión de la materia Filosofía dentro del currículum escolar tiene como una de sus metas favorecer y generar el pensamiento crítico en los estudiantes. Qué se entiende al utilizar este concepto es tema para un trabajo aparte, sin embargo podemos entenderlo en principio como la capacidad de analizar lo dado, pensando en lo no-dado, es decir, sintetizar los fenómenos de nuestro alrededor, generar un nuevo producto, especulando con los cambios que se pueden llegar a dar a partir de este proceso de síntesis, tanto en nuestras conciencias como en nuestras sociedades. Como se verá, para llevar a cabo tal acción se requiere de una creatividad suficientemente desarrollada:

El desarrollo de la capacidad de reflexionar críticamente sobre las cuestiones filosóficas socialmente significativas supone el dominio de un conjunto de procedimientos e instrumentos que permitirían abordar dichas cuestiones, delimitarlas, analizarlas, establecer relaciones, juzgar argumentos diversos de acuerdo con su coherencia lógica y en relación con un contexto mayor de asociaciones de sentido. Sin embargo, el objetivo de favorecer el desarrollo del pensamiento crítico no se satisfaría meramente

Page 96: 0 análisis epistemológico ii, 2011

Federico Mana

96

proporcionando al joven una batería de operaciones analíticas, un método. No hay una mecánica crítica que pudiera aprenderse de una vez para ser aplicada sobre una variedad posible – en el límite, infinita – de cuestiones con las cuales mantendría una relación de exterioridad en virtud de la cual ella misma permanecería intocable. Hay, en cambio, una actitud crítica, que no podría ser enseñada-aprendida, sino en el sentido de que pensamos que se ve favorecida cuando los sujetos se ven implicados en un proceso de enseñanza-aprendizaje con determinadas características (Sokolovsky 2003, p. 14.)

A partir de esta pequeña contextualización, la hipótesis

será entonces que, para sincronizar lógica y pensamiento crítico, al momento de demostrar la validez de un razonamiento por medio de una deducción natural (cadena de inferencias), o (en términos de Copi) una prueba formal de validez, el método de Gamut favorece más la creatividad que el propuesto por Copi y, por ende, la capacidad de pensar críticamente.

Para sostener tal hipótesis se desarrollarán algunos argumentos que surgen de la comparación del sistema de Copi con el de Gamut. El primero de ellos hará referencia a la cantidad de reglas propuestas por cada uno; el segundo se referirá a reglas específicas más abstractas que otras.

Las reglas de inferencia Si hacemos un repaso por las reglas que propone Irving Copi, encontraremos que esta lista de diecinueve reglas de inferencia:

…constituye un sistema completo de lógica funcional-veritativa, en el sentido de que permite la construcción de una prueba formal de validez para cualquier razonamiento funcional-veritativo válido (Copi 1969, p. 337).

El resultado de llevar a cabo el uso de estas reglas para

comprobar la validez de un razonamiento dan como resultado un procedimiento mecánico, en el sentido de que:

No se necesita pensar ni acerca de lo que los enunciados de la sucesión “significan” ni en el sentido de usar la intuición lógica para juzgar la validez de cualquiera de los pasos (Copi 1969, p. 337).

Page 97: 0 análisis epistemológico ii, 2011

Ventajas de enseñar la prueba formal de validez según la metodología de Gamut

97

Ahora bien, Copi toma el resguardo de afirmar que lo mecánico se da por el hecho de utilizar estas reglas como herramientas fijas, pero que en sí la construcción de una prueba formal conlleva un proceso donde cabe pensar cómo iniciar y proseguir tal prueba.

Por su parte, en el texto de Gamut, podremos encontrar, sin contar las reglas de cuantificación, nueve reglas de inferencia que también conforman un sistema completo, sólo que, a diferencia del otro autor, podemos encontrar cuatro reglas de eliminación, cuatro de introducción y una que es EFSQ que si bien podría ser de introducción (introducción de cualquier cosa) no es introducción de un conector como las demás.

De esta manera, si comparamos ambos sistemas, podemos afirmar que el sistema presentado por Copi requiere un trabajo de tipo memorístico, ya que para comenzar a aplicarlo, el primer paso es memorizar las diecinueve reglas. La metodología requiere de un trabajo de repetición constante hasta el momento de la fijación de tales reglas para posteriormente comenzar a delinear la estrategia de aplicación para comprobar la validez de un resultado.

Por otra parte, si bien el sistema de Gamut también requiere una memorización, podríamos decir que las reglas se aprehenden con mayor celeridad, ya que desde los nombres propios de cada regla se nota una menor dificultad para adquirirlos; para alguien que no esté familiarizado con la lógica, la frase “eliminación de la flecha” posiblemente le sea más amigable que “dilema constructivo”.

Llegados a este punto, podemos afirmar que la ventaja con la que cuenta el sistema de Gamut, vista desde el desarrollo de la creatividad, radica en que la cantidad de reglas propuestas por Copi conforman un cúmulo de herramientas determinadas que requiere la memorización de su uso y aplicabilidad específica, mientras que las de Gamut, si bien necesitan de la memoria, son menos y facilitan el uso de la creatividad para su aplicación. “Memoria” no es antónimo de “creatividad”, de hecho hasta se puede decir que es condición de posibilidad, sin embargo, en ámbitos como el escolar el ejercicio memorístico se puede transformar en repetitivo, dando lugar a lo que Castoriadis llama “repetición de lo mismo”, repetir algo tantas

Page 98: 0 análisis epistemológico ii, 2011

Federico Mana

98

veces hasta que pierda el sentido y no se pueda pensar nada nuevo.

Para graficar tal argumento se puede decir que el sistema de Copi representa un taller mecánico repleto de herramientas específicas para cada parte del auto, de manera tal que los mecánicos deberán retener el uso específico de cada una para llevar a cabo cualquier reparación, teniendo que guardar en sus memorias una gran cantidad de información. Repitiendo en cada refacción el método necesario para que las herramientas sean efectivas. Por su parte, el sistema de Gamut podría representarse con otro taller mecánico, sólo que en sus instalaciones cuenta con herramientas especiales capaces de ser usadas de diferentes maneras, según la voluntad de los mecánicos; por ello este taller poseerá menos cantidad de herramientas y sus trabajadores deberán, además de memorizar cómo usarlas (aunque posiblemente el trabajo de memorización sea menor que en el otro taller), aplicar su creatividad para arreglar cualquier cosa con ellas.

Ahora bien, quizá el argumento de que el sistema de Gamut deja más espacio para la imaginación que el de Copi, puede llegar a ser un tanto débil, sobre todo si tenemos en cuenta que se basa en el procedimiento de uso de cada uno, el cual es bastante similar; memorizar las reglas y a partir de un razonamiento dado estipular estrategias para su resolución y comprobar así su validez.

No obstante, ese margen que se puede vislumbrar en Gamut para aplicar a la creatividad un tanto más que en el otro autor, se ve maximizado si tenemos en cuenta el siguiente argumento: algunos elementos de Gamut son más abstractos que los de Copi.

La abstracción en Gamut

Al momento de enseñar lógica, uno de los primeros pasos es mostrar que ella misma es una disciplina absolutamente abstracta ya que trabaja sobre las formas lógicas de los razonamientos; por ello al afirmar que algunos elementos en Gamut son más abstractos no se quiere decir que el de Copi carezca de tal rasgo, sino que, si nos atrevemos a determinar “niveles de abstracción”, elementos como el “supuesto”, “lo

Page 99: 0 análisis epistemológico ii, 2011

Ventajas de enseñar la prueba formal de validez según la metodología de Gamut

99

falso” o la regla “ex falso sequitur quodlibet (EFSQ)” podrían llegar a encontrarse en un nivel superior.

En tal caso, esta “superioridad abstracta” se da porque para aplicar estos elementos en una prueba formal de validez las condiciones de posibilidad de aplicación son mínimas, por ejemplo: los supuestos pueden surgir del razonamiento que debemos comprobar, pero una vez descompuesto éste en las partes necesarias, existen casos en los que hace falta suponer otra variable individual, propia del razonamiento, pero que no esté relacionada a ningún conectivo. De esta manera se pueden suponer una enorme cantidad de variables pero no todas nos conducirán a la meta a la cual queremos arribar, por tal motivo, elegir qué vamos a suponer y, sobre todo, cómo vamos a cancelar el supuesto que requiere tal método, es una tarea que exige una gran capacidad de abstracción y mucha creatividad a la hora de establecer estrategias.

Por su parte, en el sistema de Copi, que como se dijo también es abstracto, para aplicar un silogismo disyuntivo, por ejemplo, se tienen que dar las condiciones determinadas, esto es, una disyunción y la negación del primer disyunto para poder afirmar la negación del segundo disyunto. Como se ve, en este caso, como en el resto de las reglas de inferencia, se trata de conectar los elementos dados en la cadena deductiva.

Otro elemento fuertemente difuso es “lo falso”: Esta fórmula puede ser vista como la contradicción favorita o la oración indisputablemente falsa, tal como 0=1, por ejemplo, o Yo no existo (Gamut 2004, p. 145).

Para poder eliminar la negación necesitamos utilizar lo

falso como emergente de una contradicción absoluta. Ahora bien, lo falso no es una variable, una constante, ni tampoco una conectiva, no obstante es un elemento lógico, una fórmula atómica indispensable para llevar a cabo derivaciones según Gamut. Por ello aprender a utilizarlo es, al principio, complejo, ya que se deben adaptar nuestras estructuras a un nuevo elemento con el cual no contábamos y este proceso conlleva un esfuerzo mental considerable, tanto como cuando nuestra mente se encuentra a situaciones imprevistas debiendo recurrir a su ingenio para tratar de resolver y aprender de ellas.

Page 100: 0 análisis epistemológico ii, 2011

Federico Mana

100

Sin embargo, “lo falso” da lugar a una regla que supera el supuesto en cuanto indeterminación se refiere: EFSQ, de lo falso se sigue cualquier cosa. Es decir, si logramos llegar a lo falso en una cadena de inferencias podremos deducir cualquier cosa de ella, sólo que hay que tener resguardo de qué deducir porque no todo nos va a conducir a demostrar la validez de un razonamiento, así éste sea una tautología. Por ello pensar qué se debe deducir no es para nada intuitivo, nos obliga a repensar todo el procedimiento de manera tal que apliquemos una variable que sea apropiada. Esta metodología, si bien está condicionada por el razonamiento dado, no está para nada determinada y sólo podrá ser llevada a cabo a partir de pensar lo no-dado, las posibilidades de cada elemento que podremos colocar en la prueba. Parecería entonces, que ninguna regla de inferencia propuesta por Copi nos permita tanta libertad a la hora de elegir cómo actuar como lo hace EFSQ.

Otro argumento que se puede citar es que posiblemente sean más intuitivas las reglas de introducción y eliminación de Gamut, ya que, según Sperber y Wilson, nuestros procesos de manipulación de información funcionen, en parte, de manera lógica a partir de reglas de eliminación, lo que otorgaría una “ventaja” al sistema de Gamut, ya que si es algo propio de nuestras mentes, no resulta tan complejo absorber estas reglas:

Un postulado fuerte en este contexto es que las únicas reglas deductivas que aparecen en la entrada lógica de un concepto dado son reglas de eliminación para ese concepto. Esto es: las reglas deductivas de la entrada lógica se aplican a una premisa o a conjuntos de premisas donde hay una aparición específica de un concepto y establecen conclusiones a partir de la eliminación de ese concepto (Sperber y Wilson 1995, p. 95).

No obstante, no es menor el hecho que las tres reglas de

eliminación ejemplificadas por Sperber y Wilson están en el sistema de Copi: eliminación de la “y” (simplificación), eliminación de la “flecha” (modus ponens) y el silogismo disyuntivo (ausente como regla en Gamut). Sin embargo en el primer autor mencionado tales reglas se ven complementadas con otras dieciséis reglas que “ocultan” esta naturalidad a la hora de utilizarlas, cuestión que no es tan evidente en el otro sistema.

Page 101: 0 análisis epistemológico ii, 2011

Ventajas de enseñar la prueba formal de validez según la metodología de Gamut

101

Este argumento requiere de un desarrollo más extenso, pero en el marco del actual trabajo se hace pertinente para otorgar una perspectiva más a la hora de llevar adelante la comprobación de la hipótesis propuesta.

Es por todo lo aquí expuesto que sostenemos que enseñar el método de Gamut en la escuela secundaria a la hora de comprobar formalmente la validez de un razonamiento sin utilizar las tablas de verdad, favorecerá más que los estudiantes puedan desarrollar un pensamiento crítico, en especial si sostenemos que en el sistema Gamut la creatividad juega un rol un tanto más preponderante que en el de Copi.

Sin embargo, como se dijo desde un principio, lo que aquí se pretendió exponer es, más que una afirmación deliberada, un posible camino de investigación en el cual confluyan tanto el estudio de la lógica como la didáctica de la filosofía, entendiendo como elemento constitutivo de ésta al pensamiento crítico como manera de interpelar las prácticas sociales que se dan a nuestro alrededor.

Referencias bibliográficas Copi, I., Introducción a la Lógica, Buenos Aires: EUDEBA, 1969 Gamut, L.T.F., Introducción a la lógica, Buenos Aires: EUDEBA, 2004 Socolovsky, Y., Espacio Curricular Filosofía, Dirección General de

Escuelas de la Provincia de Buenos Aires, 2003. Sperber, D. y Wilson D., Relevance. Communication and Cognition,

Cambridge. Segunda edición. Massachusetts: Harvard University Press, 1995.

Page 102: 0 análisis epistemológico ii, 2011
Page 103: 0 análisis epistemológico ii, 2011

Carolina García, Análisis Epistemológico II, Mar del Plata, Martín, pp. 103-108.

¿HA LLEGADO LA CIENCIA A LA VERDAD? CRÍTICA A LA TESIS DEL

FIN DE LAS CIENCIAS DE JOHN HORGAN.

Carolina García El siguiente trabajo presenta como objetivo principal discutir las tesis postuladas por John Horgan acerca del fín de la ciencia. Para este cometido mostraré cómo John Horgan realiza una interpretación inadecuada del conocido libro de Kuhn La Estructura de las Revoluciones Científicas.

A modo de conclusión utilizaré argumentos sostenidos por Kuhn y Wittgenstien para criticar y mostrar cómo cae la tesis de Horgan acerca del fín de la ciencia. Principales Argumentos de Horgan contra Kuhn En El fin de la ciencia Horgan presenta una serie de argumentos por medio de los cuales trata de justificar que que la ciencia ha llegado a su fin:

A) La ciencia progresa lineal y acumulativamente hacia un fin que es alcanzar la verdad de lo que es la naturaleza y ese fin se ha logrado.

B) Tanto la teoría de la relatividad, como la mecánica cuántica, así como la teoría de la evolución de las especies de Darwin proveen el marco teórico final, el cual no ha de ser cambiado o abandonado porque son verdaderos. Por ello la ciencia no seguirá progresando, no habrá cambios de teorías o de paradigmas radicalmente nuevos.

La conclusión de Horgan es que se ha llegado al fin de la ciencia. Horgan acusa a Kuhn de ser relativista conceptual por el hecho de señalar que no se puede alcanzar la verdad. Presenta los siguientes argumentos en contra de Kuhn:

• Si la teoría de Kuhn es verdadera entonces los científicos nunca podrán comprender la verdad del mundo real y ni siquiera se podrán entender los unos a los otros.

Page 104: 0 análisis epistemológico ii, 2011

Carolina García

104

• Si la teoría de kuhn es verdadera entonces Aristóteles presentaba sólo unos conceptos básicos con significados distintos de los que presentaba la física de Newton. La elección entre estos dos paradigmas resulta relativa para los científicos por lo que no hay ningún progreso científico ni mejora en la resolución de enigmas.

• Si la teoría de Kuhn es verdadera entonces la ciencia no es un proceso de construcción permanente que se aproxima cada vez más a la verdad, ya que Kuhn sostiene que la ciencia evoluciona alejándose de algo, no dirigiéndose a algo como la verdad.

• Si la teoría de Kuhn es verdadera entonces los paradigmas cambian, conforma cambian nuestras culturas, grupos distintos y grupo propiamente tal en momentos distintos pueden tener experiencias distintas y por tanto vivir en cierto sentido en mundos distintos.

• Si la teoría de Kuhn es verdadera entonces la realidad es incognoscible y cualquier intento por debelarla oscurece tanto como ilumina. Por ello se ve obligado a adoptar la postura insostenible de que, como ninguna teoría científica alcanza la verdad absoluta o misteriosa, todas ellas son igualmente falsas o como no podemos descubrir la respuesta, no podemos encontrar ninguna respuesta. Su misticismo lo condujo a una postura tan absurda como la de sus sofistas literarios que sostienen de todos los textos son igualmente insignificantes o significantes.

• Su libro es un obra literaria y como tal esta sujeta a muchas interpretaciones, por lo que no podemos fiarnos de que el propio Kuhn sea capaz de suministrar una interpretación definitiva de su obra.

La conclusión general de Horgan es que Kuhn es un

relativista conceptual ya que la ciencia nunca podrá conocer la verdad de lo que es el mundo y ni siquiera los científicos se podrán entender los unos a los otros. La elección y el cambio de un paradigma en una comunidad científica dependen en última instancia de las creencias culturales, históricas y contextuales en que nos situemos, no existiendo entre el paradigma nuevo y el antiguo ninguna clase de progreso, ni mejora en la resolución

Page 105: 0 análisis epistemológico ii, 2011

Crítica a la tesis del fin de las ciencias de John Horgan

105

de enigmas y problemas que se nos presentan. Por lo que la elección de un paradigma resulta azarosa dando lo mismo la elección de uno u otro paradigma por parte de la comunidad científica. Tesis realmente sostenidas por Kuhn Trataré de mostrar que la interpretación que Horgan hace de Kuhn es inadecuada:

• Kuhn sostiene que la ciencia normal se dedica a resolver problemaas, así un paradigma entra en crisis cuando no puede resolver un problema importante, de esta manera surge otro paradigma. Los nuevos paradigmas nacen de los antiguos, incorporando ordinariamente gran parte del vocabulario y de los aparatos tanto conceptuales como de manipulación. Pero es raro que emplee exactamente del modo tradicional a esos elementos que han tomado prestados. En el nuevo paradigma, los términos, los conceptos y los experimentos antiguos entran en relación diferente unos con otros. Por tanto los nuevos paradigmas no surgen de la nada como sugiere Horgan, existe una relación parasitaria entre lo viejo y lo nuevo, lo que sugiera una mejora entre el viejo y el nuevo paradigma. Recordemos que Kuhn se inspira en Wittgenstein, quien dice que ningún lenguaje nuevo surge de la nada sido que tiene una relación con uno anterior. Por lo tanto no hay tal relativismo, sino daría igual qué paradigma se elige y las cosas no son así para Kuhn.

• Existe una relación causal entre el viejo paradigma y el nuevo, ya que las revoluciones científicas surgen cuando los retos a los que el viejo paradigma se enfrenta hacen que la investigación tropiece con dos situaciones anómalas diferentes. En primer los retos a ser resueltos por el antiguo paradigma se transforman de un problema a ser resuelto a una anomalia. En segundo lugar la cuidadosa exploración de zonas estrechas de la realidad conducen a encontrar hechos que entran en contradicción radical con el paradigma, casos no

Page 106: 0 análisis epistemológico ii, 2011

Carolina García

106

previstos e incompatibles para los marcos conceptuales paradigmáticos. Por tanto el nuevo paradigma no surge de la nada, sino que surge por causa de los problemas que no puede resolver el viejo, entonces Kuhn no es un relativista conceptual.

• Kuhn además sostiene que las teorías científicas posteriores son mejores para la resolución de enigmas y problemas que las anteriores, por lo que no es un relativista.

• La otra forma de progreso para Kuhn es a través de la ciencia normal, esta progresa acumulativamente en la resolución de problemas que determinado paradigma define.

En síntesis, según Kuhn, una teoría científica es mejor

que su predecesora porque de alguna manera constituye una representación de lo que en realidad es la naturaleza. Kuhn no duda de que la mecánica de Newton sea mejor que la de Aristóteles y que la de Einstein sea mejor que la de Newton como instrumento para resolver enigmas y problemas

Kuhn contra Horgan La idea de que la ciencia ha llegado a su fin parece propia del realismo ingenuo, para el cual entre la relación entre teorías y hechos es transparente. Parece suponer que el hombre puede trascender y elevarse e ir más allá de si mismo, del mismo modo que lo haría Dios, por lo que cae en una posición dogmática.

Ante estas tesis me pregunto: ¿Cómo puede Horgan determinar y justificar que el fin de la ciencia es la verdad y que esta se ha alcanzado? ¿Cómo puede Horgan determinar y justificar que las teorías existentes son las últimas y las mejores a las que se puede arribar?

Sus tesis son injustificadas, cae en circularidad y no puede responderle al escéptico de Wittgenstein. Recordemos que el escéptico de Wittgenstein, según la interpretación dada por Kripke argumentaba lo siguiente: ”cuando yo respondía “125” al problema 68 +57, mi respuesta era un injustificado salto en la oscuridad, mi historía mental pasada es igualmente

Page 107: 0 análisis epistemológico ii, 2011

Crítica a la tesis del fin de las ciencias de John Horgan

107

compatible, por lo tanto debería haber dicho “5”... nada justifica una inclinación bruta por responder de una manera antes que de otra” (Kripke 1972, p. 23). Luego dice esto:

Que yo responda de una u otra manera al problema 68+57, no puede justificar una respuesta más que otra; puesto que no se puede responder al escéptico que supone que yo hablaba de tás, no hay ningún hecho acerca de mi que distinga entre mi hablar de más y mi hablar de tás. En verdad , no hay ningún hecho acerca de mi que distinga entre mi referencia mediante más a una función definida (la cual determina mi respuesta en nuevos casos) y mi no referirme a nada en absoluto (Kripke 1972, p. 23).

La paradoja escéptica de Wittgentein socava la visión

realista o representacionalista del lenguaje, demostrando que no existe ningún hecho, ninguna relación isomorfica entre teoría y hecho, por lo que el escéptico demuestra que actuamos a ciegas, cuando seguimos una regla. Horgan por el contrario se aferra a una ilusión y cree en la relación trasparente entre teoría y hecho, su postura es realista ingenua, y se endurece cuando señala que la ciencia ha llegado a su fín, que es la verdad. Pero vimos que parece que no puede responder al desafío escéptico y que sus argumentos son circulares e injustificados.

En cambio Kuhn resuelve el desafio escéptico, no orienta la ciencia a un fin como la verdad del mundo, porque en su opinión de eso no va la cosa. Produce un cambio de tema, como lo hace Wittgenstein cuando reemplaza la pregunta de qué debe pasar para que esta oración sea verdadera (cosa que no hace Horgan) por otras dos:

1. ¿bajo qué condiciones puede esta formación de

palabras ser aseverada (o negadas) de manera apropiada?

2. dada una respuesta a la primera pregunta ¿cúal es el papel y la utilidad en nuestras vidas de nuestra práctica de afirmar o negar la formación de palabras bajo estas condiciones?

Por tanto Kuhn sale del realismo dogmático, para pasar a

ocuparse de cosas humanas, como resolver enigmas. No pretende ocuparse de la Verdad (con mayúscula), concede al

Page 108: 0 análisis epistemológico ii, 2011

Carolina García

108

escéptico que no hay en el mundo ninguna condición de verdad o hecho objetivo correspondiente que haga verdadero a un enunciado o teoría, ya que esto seria asunto de Dioses. Además, para saber qué es la naturaleza deberíamos traspasar nuestros límites, salirnos del mundo, en definitiva dejar de ser hombres para pasar a ser Dios. La tesis del fin de la ciencia también alienta al fin de la creatividad humana, cosa que tampoco es concedida por Kuhn o Wittgenstein, quienes saben que los paradigmas o los juegos del lenguaje se pueden derrumbar mañana y ser reemplazados por otros. Bibliografía Horgan. El fin de las ciencias. Paidos. Buenos Aires. 1998. Kuhn. La estructura de las revoluciones científicas. Fondo de cultura económica. Buenos Aires. 2002. Kripke,Saul. Wittgenstein: Reglas y lenguaje privado. Fondo de cultura económico. México. 1971. Lorenzano,César Julio. La estructura del conocimiento científico. Zavalia. Buenos Aires. 1988.

Page 109: 0 análisis epistemológico ii, 2011

Daniela Suetta, Análisis Epistemológico II, Mar del Plata, Martín, pp. 109-117.

EL MARCO EPISTEMOLÓGICO DE LOS SISTEMAS CONCEPTUALES

EN LA TEORÍA INTERPRETATIVA DAVIDSONIANA

Daniela Suetta Introducción

En “La idea misma de un esquema conceptual” y “El mito de lo subjetivo”, Davidson cancela la dicotomía esquema-contenido por propiciar un relativismo epistemológico, ya que no permitiría una concepción intersubjetiva del conocimiento.

Por consiguiente es necesario teorizar y reflexionar desde diferentes descripciones que expresarían la totalidad del ámbito del conocimiento humano y que serían intercomunicables entre si, lo que implica en Davidson desplazar el relativismo epistemológico al conceptual desde donde puede dar cuenta de lo intersubjetivo.

El punto es explicitar lo que de hecho el lenguaje realiza, comunicar lo que pensamos y hacemos, sobre la base intersubjetiva de la relación entre creencia, significado y verdad en un mundo objetivo compartido. Conceptos en el marco total del lenguaje como espacio de una posible explicación del acto de conocer.

En otros términos, para Davidson son entonces las creencias y deseos en tanto actitudes proposicionales junto al criterio de verdad, las que juegan un papel central en la concepción intersubjetiva del conocimiento, ya que las creencias al portar veracidad significan, es decir son las actitudes por las cuales conocemos. Esto implica que no es el lenguaje de las ciencias que se sostienen en la dicotomía esquema –contenido , las capaces de expresar dichas actitudes, pues esquema y contenido es un dualismo que análogo a subjetivo –objetivo, sientan las bases de argumentos de un tipo de conocimiento por un lado subjetivista y por otro en un realismo extremo.

El problema es que las actitudes proposicionales se expresan en oraciones que implican la idea de un sistema de conceptos que de cuenta de dichas actitudes.

Page 110: 0 análisis epistemológico ii, 2011

Daniela Suetta

110

Por lo tanto entendemos que la cancelación es pertinente por un lado, en el ámbito epistemológico tradicional, doctrinas cerradas que propician un relativismo conceptual, pero por el otro lado la cancelación no es pertinente, pues lo intersubjetivo implica a la relación esquema y contenido ya que es una dicotomía apta para teorizar acerca de las actitudes proposicionales de creencias, intenciones y deseos.

Además, Davidson da lugar dentro de su teoría interpretativa al concepto de intencionalidad en carácter de acción intencional. Concepto que explicita el conocimiento en la interpretación. Esto compromete a Davidson con la idea de que es necesario hablar de un conjunto de conceptos para iniciar la interpretación, ya que darían la pauta de reconocer las actitudes proposicionales.

Este compromiso nos lleva a preguntarnos, ¿si de hecho el sistema o conjunto de conceptos son los que iniciarían la interpretación, como explica Davidson su inclusión en su teoría interpretativa?

En este trabajo intentaremos responder a esta pregunta siguiendo las pautas de la interpretación y sobre la base de sostener la idea de que un conjunto de creencias, o actitudes proposicionales se entiende como conjunto subsumido a un holismo epistemológico y a un holismo semántico respectivamente. La cancelación de las dicotomías subjetivo-objetivo y esquema-contenido

Delineemos brevemente algunos puntos del proceso en el que Davidson cancela ambas dicotomías:

1- El ámbito del conocimiento, es para Davidson el ámbito de la comunicación, cuyo sostén seria el lenguaje en tanto posible candidato a dar cuenta de una teoría que de con la verdad o falsedad de lo que afirmamos conocer, es decir que nos permita concebir una idea de mundo, y esa teoría es la interpretativa.

2- El conocer no es una simple reacción entre el mundo y el sujeto, entre un esquema conceptual y lo dado. En este proceso las relaciones lógicas, permiten dar con la

Page 111: 0 análisis epistemológico ii, 2011

Marco epistemológico de los sistemas conceptuales en la teoría davidsoniana

111

posibilidad de efectivizar esas relaciones. Estas relaciones constituyen las formas del conocer, aunque no alcanzan para explicar cómo conocemos.

3- Existen varias formas del conocimiento. En su articulo Tres variedades de conocimiento, Davidson argumenta que el conocimiento se construye en diferentes discursos de acuerdo a sus diferentes áreas prácticas y que estas no se agotan en el lenguaje de las ciencias naturales, ni en el de las ciencias humanísticas o sociales. Por lo tanto las dicotomías no permiten idear un discurso que relacionalmente signifique lo que conocemos por que limitan, de acuerdo a su concepción subjetivista, el conocimiento desde lo intersubjetivo.

4- Consecuentemente las dicotomías también limitan la interpretación, el entendimiento y la comprensión, objetivos básicos de la filosofía davidsoniana, pues al propiciar un relativismo, la realidad es relativa a un esquema conceptual. El punto es que si nos obstaculizan el conocimiento intersubjetivo es tiempo de desechar dichas parejas epistemológicas. Ahora bien, esbocemos algunos de los objetivos de la

teoría davidsoniana:

1- Refutar la viabilidad epistemológica del relativismo conceptual, propiciado por un empirismo que favorece la experiencia como única fuente de conocimiento. Davidson esta de acuerdo que la experiencia es la fuente básica del conocer, pero no es la fuente de nuestras explicaciones de nuestro conocer ya que no tiene el alcance teórico explicativo ni descriptivo de todo lo que implica el conocimiento que de hecho expresamos cuando nos comunicamos debido a que se sostienen en un subjetivismo que no puede dar cuenta de lo que sostiene como evidente.

2- Concebir que son las creencias en el proceso de interpretación las que juegan un papel epistemológico seguro para dar cuenta de la dimensión de lo intersubjetivo. Las creencias, son actitudes proposicionales, cuyas descripciones no poseen la

Page 112: 0 análisis epistemológico ii, 2011

Daniela Suetta

112

previsibilidad que proveen los términos fiscos, pero de hecho las creencias expresan sentido y explicitan significado, por lo tanto veracidad, lo que permite reconocer la acción intencional.

3- Aceptando que es en el ámbito de la comunicación donde es posible la interpretación, el tema es entender el papel del observador y del agente desde una teoría sustentada en lo intersubjetivo.

Sobre estos puntos centrales del pensamiento

davidsoniano, la acción que para serlo ha de ser intencional, explicita la interpretación, pues cada acto es realizado por un agente que tiene la intención, entendida ésta por la interpretación de sus acciones bajo descripciones que se adscriben al hablante. Es decir, el observador dona de sentido, de intención la acción del otro, porque es así como se reconoce a si mismo actuando, en tanto las creencias del otro significan tanto como significan sus creencias, es decir son en su mayoría verdaderas. Principio básico para comenzar la interpretación.

La acción intencional no es un tipo de acción eventual desvinculada del sujeto, sino que es posible de individualizar a partir de describirla y por lo tanto de conocerla solo cuando la reconocemos en el otro cuando somos observadores, lo que implica formarnos como agentes. Cuando interpretamos somos observadores y agentes al mismo tiempo, dialéctica que opera a modo de interpretación.

Esto significa que si doy por verdadero lo que el otro emite, en tanto creencia en un conjunto de creencias, lo que hago es hacer de su acción lingüística algo propio por considerar intencional su acción, eso propio es algo que reconozco también en mi acción de observador, intencionalidad explicita en el juego del lenguaje, es decir en el uso del lenguaje y no en la idea de un lenguaje fundamentado desde lo subjetivo, o de un esquema conceptual.

Llegamos así, por un lado a afirmar que sin comunicación, no hay conocimiento del mundo, mundo que intersubjetivamente surge cuando al menos dos personas interactúan lingüísticamente. Por otro lado, si hablamos de verdad hablamos de significado, propiciado por la verdad que portan las creencias. Ahora bien, para dar cuenta teóricamente

Page 113: 0 análisis epistemológico ii, 2011

Marco epistemológico de los sistemas conceptuales en la teoría davidsoniana

113

de estos aspectos de la comunicación, es necesario un lenguaje que no delimite ninguna detalle de su acción, es decir que sea un sistema abierto.

Por lo tanto para entender el conjunto de conceptos como parte del movimiento intersubjetivo del conocer, es necesario reformular el papel epistemológico de esquema y contenido, o subjetivo-objetivo.

Subjetivo-objetivo, esquema-contenido

Esquema y contenido hacen al sujeto por un lado un receptor de estímulos descriptos en un lenguaje reducido a las cualidades de los objetos, por otro lado hacen de lo subjetivo una instancia organizadora capaz de dar cuenta de lo verdadero en descripciones en relación al objeto pero que no pueden justificar que es lo evidente que organizan de dicho objeto, pues lo que conocen del objeto es relativo al lenguaje u organización esquemática subjetiva.

Los contenidos u objetos a interpretar, son los intermediarios epistemológicos, ideas, estímulos sensoriales, que permitirían que un esquema interpretara dicho contenido. El punto es que también para ser teóricamente plausible, es necesaria la idea de esquemas diferentes la cual pierde sentido cuando entendemos que compartimos un mundo objetivo, en la medida de, que al reconocer que hay varios esquemas de organización, suponemos que para que se comuniquen ente si damos por hecho un esquema en común, por lo tanto la idea de diferentes esquemas conceptuales es ininteligible y afirmar que hay un solo esquema no puede fundamentarse.

Por lo tanto la idea misma de un esquema total hay que eliminarla.

Pues bien, a raíz de lo expuesto podríamos argumentar primero, que en las dicotomías señaladas, los intermediaros epistemológicos se presentan bajo formas teóricas necesarias para lo que precisamente Davidson propugna en Tres variedades del conocimiento, la veracidad de los diferentes discursos de las diversas disciplinas que conforman el ámbito explicativo o sistemático del conocimiento. Segundo, suponemos que la cancelación de estas dicotomías en Davidson es una especulación teórica que tiene como eje eliminar la postura

Page 114: 0 análisis epistemológico ii, 2011

Daniela Suetta

114

epistemológica del relativista con la finalidad de justificar en la dimensión del lenguaje, la acción comunicativa.

Tercero, si consideramos las dicotomías como supuestos fundamentales del ámbito teórico, no estaríamos entendiendo que pueden ser redescriptas en el ámbito de su necesaria utilización, en un sentido operativo. Como recursos teóricos lingüísticos y epistemológicos intersubjetivos.

Por lo tanto el dualismo esquema y contenido es pertinente eliminarlo en tanto entendido en el marco de una epistemología reducida a un empirismo o racionalismo extremo, y eso es lo que Davidson propugna para dar lugar a lo intersubjetivo como plano configurador.

Ahora bien, volviendo a lo dicho en la introducción ¿cuál es el papel de la intención en el conocer, que obliga a la teoría interpretativa teorizar bajo sistemas conceptuales? La intención como la creencia y el deseo, en la medida en que causan la acción la significan y permite distinguir el papel del agente en la triangulación, proceso y relación comunicativa entre el objeto o mundo, y dos personas. Es decir, es aquél que emite y actúa intencionalmente porque porta creencias que son las causas de sus acciones intencionales. Desde estas relaciones, se entiende lo intersubjetivo, y para ello se requiere un conjunto de conceptos aptos para dar cuenta de acciones intencionales y actitudes proposicionales, que forman parte del total del conocimiento del mundo objetivo.

Básicamente, la relación esquema y contenido es adecuada para dar cuenta de la acción intencional de las personas, cuando interpretamos su comportamiento general y su comportamiento lingüístico en el ámbito de teorías cuyo lenguaje implique términos como intención, deseo y creencias. Ya que cuando interpretamos debemos de suponer que las emisiones del hablante son verdaderas como las que proferiríamos nosotros como hablantes.

Pero ¿cómo reformulamos la relación esquema-contenido, subjetivo-objetivo, desde un suelo intersubjetivo?

El holismo semántico y el holismo epistemológico En primer lugar, el criterio de verdad que toda actitud proposicional conlleva significa a las emisiones de creencias e

Page 115: 0 análisis epistemológico ii, 2011

Marco epistemológico de los sistemas conceptuales en la teoría davidsoniana

115

intenciones dándole el carácter de ser aptas para el conocimiento, no hace falta comprobar una creencia y otra creencia en referencia a su contenido, basta con que las mayoría de las creencias de un hablante sean verdaderas en la totalidad el lenguaje que estamos interpretando para que el significado de las emisiones explicite una concepción del mundo y expresen sentido.

Este conjunto de actitudes proposicionales de creencias, se basan en que las oraciones que un hablante emite tienen consistencia lógica en el total del lenguaje, en el total de acciones lingüísticas posibles del lenguaje en el que se ubican las emisiones y aunque luego puedan ser falsas, es necesario que sean verdaderas para que tenga sentido el emitirlas.

Este holismo semántico le permite a Davidson refutar cualquier posición que propicie un subjetivismo o un relativismo conceptual.

Por lo tanto, la cancelación de esquema y contenido imposibilita un relativismo conceptual que pretende desde una subjetividad fundacionista sostener la idea de mundo descripto bajo un tipo de lenguaje que confiere verdad a las descripciones respecto ese mundo que a la vez funda.,donde mundo requiere entenderse como realidad .

Por otra parte, el holismo epistemológico indica que las tres formas de conocer: nuestra mente, el mundo y la mente de otros, se relacionan de tal manera que un discurso que teorice acerca de estas acciones, no puede excluir a otro.

El conocimiento como acto de conocer indica que aquello que sostenemos fuera de un lenguaje como acción intersubjetiva, no es más que una manera de obstruir la teorización acerca de lo que conocemos. Por lo tanto las relaciones de las tres formas del conocimiento como totalidad de lo que de hecho comunicamos, es decir de lo que pensamos, de lo que conocemos es el holismo, lo intersubjetivo.

Sin embargo parece posible afirmar que hablar de lo subjetivo y objetivo y de esquema y contenido, son conceptualizaciones a las cuales recurrimos cuando teorizamos bajo descripciones que permiten dar cuenta de actitudes proposicionales de creencias, deseos e intenciones.

Justamente de eso se trata, de entender que sistemas conceptuales hacen referencia al papel del agente en el proceso

Page 116: 0 análisis epistemológico ii, 2011

Daniela Suetta

116

de interpretación sobre la base de lo intersubjetivo, donde el papel del agente es el del observador que adscribe verdad a las emisiones en el mismo momento que se lleva a cabo la interpretación, triangulación comunicativa que explicita el mundo objetivo en el cual emerge las formas de teorizar el conocimiento.

Conclusión

Hemos delineado muy concisamente los parámetros

reflexivos de la filosofía davidsoniana en torno a la cancelación de las dicotomías subjetivo- objetivo y esquema y contenido. Hemos aclarado que el punto central de estas dicotomías yace en la idea de que el conocimiento es relativo a un esquema conceptual, que la realidad es relativa a un esquema, y en consecuencia que el mundo es relativo a lo que experimentamos y a los que los sujetos tomamos del mundo y ordenamos.

Por lo tanto esquema y contenido hay que eliminarlos, debido a que no justifican el conocimiento que pretenden justificar, más aun la idea de esquema total no es inteligible, pues niega la interpretación de un lenguaje a otro, de un esquema a otro, es decir niega un hecho cotidiano, el de la comunicación.

A esta altura podemos afirmar que, el sujeto no es un portador de categorías que comparte con otros sujetos, y que a la hora de observar lo haría de manera neutral. Ni tampoco es un sujeto capaz de representar en imágenes lo que el otro observa para dar lugar a la interrelación entre esquemas. Sino que es un agente- observador que requiere para conocer de actitudes proposicionales en tanto acciones intencionales interpretables por ser descriptas en términos que expresen la posibilidad misma de la interpretación.

En otras palabras lo intersubjetivo es el suelo epistemológico de los diferentes discursos que se requieren para dar cuenta de lo que conocemos.

Y son las relaciones que se establecen en un sistema las que promueven el conocimiento, ya que permiten eventualmente interpretar como verdadero aquello que en el proceso de comunicación se elucida.

Page 117: 0 análisis epistemológico ii, 2011

Marco epistemológico de los sistemas conceptuales en la teoría davidsoniana

117

Eso significa que hablar de conjunto de conceptos o sistema de conceptos para iniciar la interpretación, es aunque no suficiente, un supuesto teórico necesario para explicar y describir la idea de concebir lo que llamamos mundo bajo diferentes descripciones. Lo que es necesario y suficiente es lo intersubjetivo, lo relacional.

Por lo tanto esto implica que la idea de mundo no depende de sistemas conceptuales, sino que los sistemas conceptuales dependen de la idea de mundo objetivo. La dicotomía esquema – contenido supeditado a las relaciones en la totalidad del lenguaje es decir a las relaciones y partes que relacionan el proceso de comunicación donde el lenguaje es estrictamente acción, es una teorización que da lugar a sistemas de conceptos pero claramente no es explicación del conocimiento por lo tanto de la veracidad de nuestras afirmaciones.

BIBLIOGRAFIA DAGFINN FOLLESDAL Triangulación Publicación en Revista Latinoamericana

de Filosofía. Volumen 30. 2000. Buenos Aires. DONALD DAVIDSON 1992 Mente, mundo y acción, Introducción de Carlos

Moya. Paidós. -------------------------------Respuesta a Dagfinn Follesdal. Publicada en Revista

Latinoamericana de Filosofía. Volumen 30.2000.Buenos Aires ............................1980.Filosofía de la Psicología. Introducción de Miguel Candel

1994. Anthropos. Madrid. .............................1984.De la Verdad y De la Interpretación. Gedisa

.............................1980Ensayos sobre Acciones y Sucesos. Instituto de Investigaciones filosóficas. UNAM.

.............................1980 Subjetivo, Intersubjetivo, Objetivo. Colección Teorema. Cátedra. Barcelona.

HERNÁNDEZ IGLESIAS 1991 La semántica de Davidson. Una introducción crítica Visor, Madrid

GARCÍA CARPINTERO, MANUEL.1996 Las palabras, las Ideas y las Cosas. Ariel Barcelona.

PUTNAM, HILARY 1995 Representación y Realidad. Un balance crítico del funcionalismo. Gedisa. Barcelona

………………………1987.Las mil caras del realismo. Paidós. Barcelona QUINE, W. 1953 Dos dogmas del empirismo, en L. M. Valdés Villanueva(comp.) RORTY RICHARD 1991 Objetividad, relativismo y verdad. Paidos Barcelona

Page 118: 0 análisis epistemológico ii, 2011
Page 119: 0 análisis epistemológico ii, 2011

E. Aldegani, Análisis Epistemológico II, Martín, Mar del Plata, 2011, pp. 119-126.

CASTORIADIS: EL SIGNO COMO CONJUNTO DE

COPARTICIPACIONES Y SU STATUS ONTOLÓGICO

Emiliano Aldegani Introducción El presente trabajo busca indagar la comprensión de las relaciones que se establecen entre los signos, sus objetos y los hablantes desde el enfoque histórico social desarrollado por Cornelius Castoriadis. Evaluar las ideas que el autor aporta al estudio del leguaje, puede resultar de gran utilidad para continuar su proyecto de un estudio interdisciplinar de lo social histórico y a su vez para clarificar la interpretación de sus ideas sobre el lenguaje y la significación en general.

Efectivamente, es necesario aclarar antes de sumergirse en los conceptos principales de su análisis de la significación, que su elucidación referente el lenguaje parte de una distinción anterior en el estudio sobre el mundo social; que es la división entre los aspectos estables del hacer social y los aspectos estables del decir o representar social. Denominados en su conceptografía como el teukhein y el legein sociales que constituyen una serie de operaciones instituidas históricamente que instrumentan y se establecen en todo el conjunto de instituciones y normas que componen una sociedad.

Este legein instituido históricamente instrumenta y articula las operaciones, que constituyen lo que Castoriadis denominará esquemas operadores, que son fundamentales para la construcción del signo mediante el que se realiza la significación y a su vez para producir el objeto con el cual el signo entra en relación; y el nexo que se establece entre ambos y que los incluye que es la relación signitiva.

En los siguientes apartados se expondrán de manera sistemática las principales categorías desde las que Castoriadis indaga la comunicación y los procesos de significación, a fin de establecer una interpretación que reúna ideas que el autor ha desplegado de manera fragmentaria a lo largo de su obra. Para ello se comenzará por la descripción de la construcción del

Page 120: 0 análisis epistemológico ii, 2011

Emiliano Aldegani

120

lenguaje como un Código frente al Habla. Luego de ello se abordará el carácter del signo y su objeto como noemas, su relación signitiva y los principales esquemas operadores que actúan sobre ellos, y por último algunas reflexiones sobre el modo en que cabe interpretar estas ideas frente a otras propuestas teóricas que intentan comprender la significación desde la esfera subjetiva. Estas aproximaciones intentan a su vez, ofrecer una interpretación sobre la manera en la que puede comprenderse la realidad ontológica de las significaciones. El lenguaje como un código y la significación: En tanto se presenta como una institución social, el lenguaje cuenta ya con algunas caracterizaciones propias de la institución en general que resulta necesario esclarecer a fin de no alterar el sentido original de estos conceptos. Por empezar, la institución surge como una creación que emerge del devenir histórico social, y como tal requiere para poder autofigurarse reflexivamente establecer un grado de clausura sobre sí misma. Es decir, para poder instituirse como un parámetro firme compartido por una comunidad, debe poder postularse como una norma esencialmente invariable; lo que inicia el proceso mediante el cual la institución agota su ser en su identidad consigo misma.

Por su parte, aún cuando se trate de una de las formas primeras de institución social, el lenguaje comparte esta característica con las demás instituciones, y la realiza en la conformación sincrónica de sí como un Código: un sistema coherente y cerrado, de parámetros estables e incuestionables.

Sin embargo, aún cuando es necesario establecer un cierto grado de estabilidad en el Código, como condición de que este pueda ser compartido y reproducido por una comunidad, la esencia misma del ser palabra o signo impide que este pueda cerrarse sobre sí mismo de un modo absoluto. Pues una palabra es una palabra, tiene una significación o se refiere a una significación sólo en la medida que puede referir a otra significación1. En caso contrario ni siquiera es una palabra o signo. Y esta tendencia a

1 C. Castoriadis, Institución imaginaria de la sociedad, TusQuets, Buenos Aires, 2010. Pág. 345

Page 121: 0 análisis epistemológico ii, 2011

El signo como conjunto de coparticipaciones y su status ontológico

121

la apertura que poseen los mismos elementos que conforman el lenguaje denominada por el autor como productividad léxica, impide que la tendencia del código a clausurar su sentido sobre sí pueda concretarse de un modo absoluto; y a su vez posibilita la incorporación de nuevos sentidos y significaciones al lenguaje como una apertura a su dinamismo diacrónico.

Precisamente, si se atiende esta característica del lenguaje en términos ontológicos, puede asimilarse la tendencia a la clausura del código en una lógica de conjuntos identitaria, como la tendencia del Ser a agotarse en su identidad y determinación; mientras que el segundo momento se asimila a la posibilidad del Ser de ser lo Otro de sí, en tanto pluralidad e indeterminación intrínseca.

De este modo se despliegan las dos dimensiones en las que opera el lenguaje: La dimensión del Habla, compuesta por las redes de significaciones imaginarias sociales que forman el magma de significaciones que atraviesa y es encarnado por una sociedad; y la dimensión del Código en referencia al ordenamiento identitario en conjuntos de los elementos que forman el sistema. Este segundo elemento será efectivamente el que garantice la referencia biunívoca entre los elementos de diferentes conjuntos como se da en el caso de la designaciones nominales, ya sea que se trate de correspondencia con cosas, procesos, estados, individuos, clases, el código garantiza una relativa biunivocidad respecto del uso.

Pero a su vez, el Código también avanza en el terreno de las significaciones, sin llegar nunca agotarlas. Pues al garantizar la estabilidad de los usos de los signos y los parámetros de la comunicación, garantiza la unidad de una significación consigo y permite que se opere con ella dentro de parámetros estables. Aún cuando el carácter significativo del Habla nunca pueda ser capturado por la lógica de conjuntos que opera en el Código, sólo puede establecerse sobre la base de esta. El signo y su objeto como sensibles sin materia Ahora bien, hablamos del Legein como un conjunto de operaciones y estas pueden enumerarse de un modo general como la capacidad de: distinguir – elegir – poner – reunir –

Page 122: 0 análisis epistemológico ii, 2011

Emiliano Aldegani

122

contar - decir, que posee una sociedad. Pero esta caracterización no logra captar la especificidad de sus operaciones, sino que más bien muestra el producto final de la acción conjunta de los esquemas operadores que se articulan en el Legein social.

Precisamente, la operación nuclear que contiene el conjunto de operaciones que se desarrollan dentro del Legein es la designación. Pero la misma designación requiere para postularse que se hayan puesto en marcha otro tipo de operaciones que proporcionen el grado de individualización y distinción de elementos, necesario para poder establecerla. Operaciones que serán caracterizadas principalmente como la realización de tres esquemas operadores, necesarios para la construcción del signo y de su objeto.

Por empezar, el esquema operador de la reunión. Postulado como el proceder efectivo de las operaciones mediante las cuales un conjunto de elementos indisociables entre sí, se reúnen como una unidad, e internamente se reúnen como elementos. Y a su vez, se reúnen coparticipando de un elemento nuevo. (Puede pensarse en estos elementos como en merismas, grafías, caracteres, etc.). De este modo, el esquema se constituye como el conjunto de operaciones mediante las cuales se realiza la creación del signo o del objeto como conjunto de elementos que coparticipan, mediante la construcción de la unidad de los elementos extrayéndolos de una multiplicidad indistinta.

En segundo lugar, aunque necesariamente en simultáneo, Castoriadis postula al esquema operador de la discreción/separación; que permite desde un principio la distinción y separación de los conjuntos reunidos. Es decir, para poder considerarse a un conjunto de elementos como reunidos y coparcipando de una unidad o elemento mayor, en necesario poder distinguirlos y separarlos del resto de los conjuntos, elementos y de la multiplicidad indefinida. Y a su vez, el poder considerarlos de un modo atemporal como apartados del devenir y del cambio. Sólo así puede establecerse el signo como un elemento esencialmente invariable e ingresar a una sintaxis de operaciones determinada y predeterminada donde tendrá sentido.

Page 123: 0 análisis epistemológico ii, 2011

El signo como conjunto de coparticipaciones y su status ontológico

123

Y en tercer lugar, articulando los esquemas anteriores se constituye el esquema operador en cuanto a…; como la operación por la cual el signo o el objeto se reúnen como un conjunto de elementos y se separan a su vez del resto “respecto de…”, “en cuanto a…”, “en vistas a…” determinada operación que se realizará con ese elemento. Y nunca como una reunión o separación en sí misma, incitada por el estrato natural o inmotivada en la esfera social.

Precisamente, será esta relación de todas las operaciones del Legein a un esquema establece en cuanto a…, lo que atraviese todas las operaciones vinculadas a la coparticipación tanto del signo como del objeto, y en torno a ella se realiza el vaciamiento de contenido y especificidad de ambos elementos que los constituye como creaciones genuinas. Y esto se observa efectivamente en el carácter del signo como noema, que supera cualquier emisión particular y su inevitable especificidad, y a su vez, en tanto que refiere a una operación indistintamente de la nomenclatura, el código o idioma específico en el que se manifiesta2. Sin embargo, esta doble condición de noema de los signos, en tanto sensibles sin materia que se construyen configuración particular de lo perceptible, construida en cuanto a… determinadas operaciones, no se agota en la caracterización del signo sino que se aplica también a la construcción del objeto.

Es decir, el objeto designado por la relación signitiva que se establece con un signo, también debe hallarse vaciado de sus rasgos específicos de aparición, pues sólo de ese modo logra establecerse entre el signo y el objeto una correspondencia biunívoca, en la medida que el objeto pueda configurarse como una coparticipación abstracta de elementos respecto de… las operaciones que establecen en torno a determinado signo. Y será sólo en la medida que se realice este vaciamiento que el signo y el objeto podrán someterse a todo el conjunto posterior de operaciones en las que se inserten.

Así la sustituibilidad y la iteración necesarias para la articulación de todo lenguaje se proyectan sobre este vaciamiento y esta copartipación. De modo que fenómenos

2 C. Castoriadis, Sujeto y verdad, Fondo de Cultura Económica, Bs. As., 2004

Page 124: 0 análisis epistemológico ii, 2011

Emiliano Aldegani

124

diferentes puedan sustituirse entre sí, y a su vez que un mismo signo pueda mediante la iteración significar algo diferente en determinadas ocasiones. Pese a no existir un listado exhaustivo de los esquemas operadores en la propuesta de Castoriadis, puede comprenderse a estos últimos dos (iteración y sustituibilidad o equivalencia) como los cinco principales entre los nueve esquemas que menciona. Ahora bien, sobre el status ontológico de estos esquemas es importante hacer algunas aclaraciones, pues no se encuentran contenidos en el sujeto (aunque este pueda contar claramente con un correlato que le permita identificarlos, utilizarlos, reproducirlos, etc.), ni constituyen características objetivas de la relación signitiva. Por el contrario, en tanto esquemas operadores, están dados en la esfera intersubjetiva en la que están encarnado; en el accionar concreto de los individuos que interactúan, no como un agregado o ideal regulador, sino en el accionar mismo efectivo en el que se realizan.

Cabe hacer sobre este aspecto algunas aclaraciones, a fin de no confundir el sentido de estos conceptos. El signo y el objeto como productos imaginarios de la significación Ahora bien, explicadas las operaciones que determinan la construcción del signo y su objeto, resulta necesario explicitar como cabe interpretar su existencia. Pues, no puede dentro de la conceptografía del autor afirmarse que la existencia del signo y de su objeto se produce dentro de la esfera subjetiva, ni mucho menos como una característica objetiva de la realidad empírica. Por el contrario, su ser se sostiene en la relación signitiva a la que pertenecen y en su vínculo con una determinada significación imaginaria social, que se instituye y reproduce en la esfera intersubjetiva. Así el conjunto de significaciones imaginarias que atraviesa una sociedad constituye redes de significaciones desde las cuales los individuos forman su percepción de un mundo intencional.

De este modo, estas redes de significaciones de construyen por la interacción social conforman el imaginario social donde se encuentran el signo y su objeto. Como producto de un conjunto

Page 125: 0 análisis epistemológico ii, 2011

El signo como conjunto de coparticipaciones y su status ontológico

125

de operaciones, y a su vez, como un conjunto de parámetros que autodetermina el modo en el que pueden emplearse e introducirse en la estructura sintáctica a la que pertenecen. Describiendo operaciones similares a las reglas de subcategorización estrictas y selectivas a las que refiere Chomsky, pero situadas fuera del ámbito subjetivo, como un conjunto de parámetros compartidos que constituye el Código sobre el que opera el lenguaje.

Precisamente, al situar a las significaciones dentro de la esfera intersubjetiva, Castoriadis advierte: Por un lado, que una significación no puede ser producto ni derivarse de la psique individual, sin importar el inmenso valor que posean las aportaciones que esta ofrezca al campo de la acción, en la medida que estas aportaciones deben ser siempre recuperadas y transformadas en la esfera intersubjetiva en la que se instituyen. Y por otro lado, que las significaciones no pueden derivarse o deducirse de la experiencia, en la medida que constituyen su condición de posibilidad3, formando el esquema interpretativo mediante el cual el individuo interactúa con los otros y percibe su realidad.

De este modo, se elimina la posibilidad de considerar a las redes de significaciones como el producto de un lenguaje privado o sustentado en el sujeto, sin negar por otro lado la necesidad de considerar un correlato subjetivo o neurológico que permita al individuo fijar y reproducir estos parámetros de acción. Efectivamente, la necesidad de atravesar un periodo de socialización o adiestramiento del individuo para poder introducirse en diferentes prácticas sociales, da cuenta de la necesidad de establecer un registro subjetivo de la estructura sintáctica con la que ésta se desenvuelve. Y a su vez, desatiende la posibilidad de considerarlas inmanentes a la realidad empírica, apoyando la posición de Saussure sobre la arbitrariedad de la asignación del significante y la idea wittgensteiniana de la arbitrariedad de las reglas de la gramática.

Sin embargo, parece desatender una idea defendida por este último, y es que las reglas no se apoyan en ninguna

3 C. Castoriadis, Ciudadanos sin brújula, Coyoacán, México, 2005.

Page 126: 0 análisis epistemológico ii, 2011

Emiliano Aldegani

126

entidad metafísica. Pues parece evidente que estas redes de significaciones que conforman el imaginario social sólo pueden ser catalogadas desde una lógica u ontología tradicional como entidades metafísicas, al no corresponder con categorías subjetivas ni objetos de la experiencia. Pero puede interpretarse, como de hecho intenta mostrar este trabajo, que este imaginario social está dado en la ejecución efectiva de sus operaciones, sin necesidad de apoyarse en entidades metafísicas, sino que por el contrario, se manifiesta y agota como figura, en los conjuntos de interacciones que lo encarnan y reproducen. Y esta interpretación de su concepción de signo y el objeto puede defenderse en este aspecto, sin necesidad de ingresar en la controversia sobre el status ontológico de lo imaginario, en la medida que éste se halle siempre determinado a lo que el accionar efectivo que se realiza en la esfera intersubjetiva. Bibliografía Cabrera D., Imaginarios de lo imaginario, (En: Fragmentos del Caos,

Biblios, Bs. As., 2008) Castoriadis C., Ciudadanos sin brújula, Coyoacán, México, 2005. ------------------, Institución imaginaria de la sociedad, TusQuets, Buenos

Aires, 2010 ------------------, Figuras de lo pensable, Fondo de Cultura Económica, Bs.

As., 2001 ------------------, Sujeto y verdad, Fondo de Cultura Económica, Bs. As.,

2004 ------------------, Ventana al caos, Fondo de cultura Económica, Bs. As.

2008 Chomsky N., Aspectos de la teoría de la sintaxis, Gedisa, España, 1997 Gil J.M., Introducción a las teorías lingüísticas del siglo XX, Ril, Buenos

Aires, 2001 Wittgenstein L., Investigaciones filosóficas, Crítica, Barcelona 2007.

Page 127: 0 análisis epistemológico ii, 2011

A. M. García, Análisis Epistemológico II, Martín, Mar del Plata, 2011, pp. 127-136.

CÓMO LA NEUROLINGÜÍSTICA PUEDE CONTRIBUIR AL SABER

TRADUCTOLÓGICO: DE LA AFASIOLOGÍA A LA NOCIÓN DE

EQUIVALENCIA

Adolfo Martín García 1. La traductología, una interdisciplina Si bien hoy multifacética y autónoma, la traductología aún constituye una ciencia joven. Cierto es que las reflexiones en torno a la traducción hallan registro escrito desde hace más de dos mil años, con las cavilaciones de Cicerón y Horacio (en el siglo I a.C.) y, más tarde, de San Jerónimo (en el siglo IV d.C.). No obstante, el establecimiento de la traductología, o los Estudios de Traducción, como campo formal del saber, data de finales del siglo XX.

Los traductólogos coinciden en que el hecho instituyente de la disciplina tuvo lugar en 1972, con la presentación del artículo “The Name and Nature of Translation Studies” (Holmes, 1988); luego hubo que esperar hasta 1983 para que la expresión ‘Translation Theory’ se incluyera como entrada individualizada en la Modern Language Association International Bibliography; y en tanto que Snell-Hornby (1988) se hacía eco de presiones multisectoriales para que la traductología deviniera campo independiente, dos años después Bassnett y Lefevere (1990: ix. Trad. mía) concluían que “la emergencia de los Estudios de Traducción como disciplina autónoma es uno de los éxitos alcanzados en la década del 80”.

Atentos a las necesidades teóricas de su complejo objeto de estudio, los popes no tardaron en percatarse de que tal logro era insuficiente. El mismo Holmes (1988: 101. Trad. mía) ya había hecho un llamado a la cooperación interdisciplinar de campos tan dispares como “los estudios textuales, la lingüística (en especial, la psico- y la socio-lingüística), los estudios literarios, la psicología y la sociología”. Sus palabras no pasaron desapercibidas: el israelí Gideon Toury tomó la iniciativa y fue el primero en apuntar que un campo tan complejo con el de la traductología debía considerarse una “interdisciplina” antes que una mera disciplina (Snell-Hornby, 2006). De inmediato dicho rótulo se convirtió en la palabra clave del Congreso de

Page 128: 0 análisis epistemológico ii, 2011

Adolfo Martín García

128

Estudios de Traducción de Viena en 1992, y desde entonces, a pesar de diversas dificultades, limitaciones y aun renuencias teóricas, el carácter interdisciplinar de la traductología es difícilmente cuestionable.

Según Kaindl (2004), una interdisciplina idealmente pasa por tres etapas sucesivas en su desarrollo, a saber: (i) una etapa de dominación (imperialistic), en la que un campo engloba al otro; (ii) luego una etapa de importación (importing), en la que una de las disciplinas se vale de las herramientas y los métodos de la otra; y, finalmente, (iii) una etapa de reciprocidad (reciprocal), en la que la cooperación permite que ambos campos se nutran mutuamente. Habiendo ya superado su momento de total dependencia de la lingüística en los ochenta, la traductología hoy atraviesa una etapa de importación. Nadie duda de cuán valiosas son para la traductología las contribuciones teóricas y metodológicas de áreas como la pragmática, la lingüística textual, los estudios culturales e incluso la psicología, por mencionar algunas. Sin embargo, muchos son los traductólogos que se muestran reticentes a los posibles aportes que pudieran hacerse desde las llamadas ciencias duras y, en especial, desde las neurociencias.

En este breve trabajo se sugerirá que tales reservas son infundadas, al demostrarse cómo un estudio de caso proveniente de una rama de la neurolingüística puede proveer sustento empírico a una hipótesis puntual de la traductología. Específicamente, consideraremos el peculiar fenómeno de restitución antagónica alternada (Paradis, Goldblum y Abidi, 1982) documentado en la literatura afasiológica y lo propondremos como evidencia confirmatoria de la hipótesis de la no-reciprocidad de las relaciones de equivalencia lexémica.

2. La noción de equivalencia en traductología A pesar de las interminables controversias que ha desatado la noción de equivalencia1 en la traductología (cf. Snell-Hornby, 1988), por no mencionar los rechazos categóricos que la misma 1 Para aquellos que son ajenos a la jerga traductológica, no es ocioso aclarar que el término ‘equivalencia’, en esta interdisciplina, no remite de modo alguno a su acepción etimológica de ‘identidad de valor’, como sucede en matemática, por ejemplo.

Page 129: 0 análisis epistemológico ii, 2011

Cómo la neurolingüística puede contribuir al saber traductológico

129

ha sufrido (e.g., Arrojo, 1997), muchos son los autores que la han defendido y la siguen defendiendo como el constructo crucial de esta interdisciplina (e.g., Jakobson, 1959/2000; Rabadán, 1991; Koller, 1995; Hurtado Albir, 2001). Es verdad que la etiqueta “equivalencia” ha sido predominantemente empleada en enfoques lingüístico-formales y prescriptivos, con lo cual muchas de las críticas realizadas en su contra no carecen de asidero. Con todo, Reiss y Vermeer (1984: 111. Trad. mía) traen un poco de sensatez al debate al recordarnos que “no se trata de renunciar al término ‘equivalencia’, sino de precisar su contenido y restringir su uso de forma adecuada”.

Las primeras teorizaciones sobre la equivalencia se focalizaban en comparaciones estructurales entre lenguas, es decir, entre diferentes sistemas lingüísticos abstractos (e.g., Vinay y Darbelnet, 1958). Así, la equivalencia supo homologarse con la transcodificación directa (e.g., entre el español y el francés, siete y sept, en el plano léxico monosémico; o me dejaron plantado y on m’a posé un lapin, en el plano lexémico clausular). Las limitaciones de este enfoque pronto fueron advertidas, y distintas corrientes incidieron en el carácter textual y contextual de la equivalencia (e.g., Coseriu, 1977), la cual sólo se establecería en el plano del habla (parole); así, por ejemplo, podría explicarse cómo y por qué la palabra one se tradujo, con buen tino, como primer inciso durante una conferencia de la UNESCO.2

Las décadas del ochenta y el noventa serían testigos de la consolidación de la perspectiva contextual. Nuevos modelos (e.g., Neubert, 1985) profundizaron los aspectos comunicativos, pragmáticos y culturales de la equivalencia. En este periodo se caracterizaron con considerable precisión los actores que participan del proceso comunicativo que supone la traducción y se estableció que, al sopesarse los múltiples factores semióticos que intervienen en la búsqueda de equivalentes

2 El ejemplo al que se hace alusión tuvo lugar durante la Conferencia sobre Estandarización Internacional de Estadísticas, celebrada en las oficinas de la UNESCO en París, en junio de 1978. El orador dijo: “Amendment number ten… eh… eh… deals with the first paragraph… one…”; su intérprete tradujo: “Eh… eh… la enmienda diez se refiere al… primer párrafo… al… primer inciso…” (Nolan, 2007: 48). Evidentemente, una consideración estrictamente estructural no podría dar cuenta de la relación de equivalencia en cuestión.

Page 130: 0 análisis epistemológico ii, 2011

Adolfo Martín García

130

funcionales, siempre se instituye una jerarquía de elementos textuales que sean relevantes de cara a cada encargo de traducción particular. En resumidas cuentas, hoy puede afirmarse que la equivalencia traductora es de naturaleza dinámica, funcional, comunicativa, relativa al contexto sociohistórico que enmarca al acto traductor y única para cada binomio textual.

Los enfoques referidos han contribuido de diversas maneras a nuestra comprensión de ciertos aspectos de los fenómenos traductológicos. Sin embargo, todos ellos conciben la equivalencia en tanto un conjunto de relaciones abstractas intertextuales, interlingüísticas, interpersonales y/o interculturales. Ahora, si asumimos que la búsqueda de equivalencias (sean éstas de la naturaleza que fuere) tiene lugar dentro de la mente del traductor y si, por añadidura, adoptamos una visión emergentista de la mente (i.e., si consideramos que toda actividad mental es el resultado de procesos electroquímicos a nivel cerebral), entonces resulta sensato indagar en la literatura neurocientífica en aras de hallar datos que permitan precisar las propiedades de este constructo. A eso vamos.

3. Contribuciones cognitivas y neurológicas a la traductología

La traducción es, sin lugar a dudas, un proceso mental. Varias son las propuestas teóricas que intentan modelizar las fases y las condiciones del procesamiento de información en el acto traductor. Para ello, se emplean diversos instrumentos, como entrevistas, cuestionarios, medidas psicofisiológicas y la técnica de Think-Aloud Protocols (TAP), entre otros. Ciertamente, los estudios puramente cognitivos son mucho más fecundos que los neurocognitivos. Dentro de los primeros, podemos destacar la Teoría del Sentido de la Ecole Supérieure d’Interprètes et Traducteurs (ESIT) (e.g., Seleskovitch y Lederer, 1984) y la aplicación de la Teoría de la Relevancia por parte de Gutt (1991). Los estudios cognitivos han deparado algunas conclusiones generales de amplia aceptación. Se ha establecido que la traducción comparte varias características con el resto de las actividades de procesamiento de información en el ser humano (e.g., la intervención de la memoria, el empleo de

Page 131: 0 análisis epistemológico ii, 2011

Cómo la neurolingüística puede contribuir al saber traductológico

131

constantes procesos inferenciales). A su vez, se han establecido algunas de sus propiedades específicas: sabemos, entre otras cosas, que los tiempos de procesamiento varían según la modalidad de traducción; que las unidades de procesamiento son de extensión variable, pero siempre inferiores al texto completo; y que existe una fase no verbal de procesamiento que media entre la comprensión y la reexpresión lingüísticas. Si bien las metodologías empleadas por muchos de estos estudios no son de lo más férreas (Hurtado Albir, 2001), el enfoque cognitivo indiscutiblemente ha generado un cuerpo de datos cuantitativamente superior al que hasta hoy han producido las investigaciones de base neurológica. De hecho, hay pocos antecedentes de estudios sobre la base neural de la traducción. Entre los escasos trabajos que versan sobre el tema se destacan, por ejemplo, los realizados por Bouton (1984), Paradis (1984, 1994) y Kurz (1994).3 Las principales dificultades a las que se enfrenta el estudio de la base neural de la traducción son de orden tecnológico (las técnicas de neuroimágenes disponibles en la actualidad no ofrecen mapeos lo suficientemente precisos de los flujos de activación cerebral), económico (dichas tecnologías suponen costos elevadísimos), metodológico (la multiplicidad de variables que entran en juego en el proceso traductor son harto difíciles de controlar en diseños experimentales, lo cual atenta contra la validez y la confiabilidad de los estudios) y enciclopédicas (no son muchos los traductólogos que conocen el metalenguaje y los procedimientos de las neurociencias y/o la neurolingüística). Sin embargo, como veremos a continuación, es posible recurrir a datos neurolingüísticos como fuente de contrastación empírica de hipótesis traductológicas.

4. Evidencia afasiológica como respaldo de una hipótesis sobre la equivalencia Considérese el siguiente postulado, que denominaremos “Hipótesis de la No-Reciprocidad”: el potencial de evocación

3 En su mayoría, estos estudios se basan en análisis de instancias de interpretación (i.e., traducción oral), pero es de presumirse que al menos algunos de los procesos caracterizados en base a la evidencia de la traducción oral también serán válidos para modelizar el proceso de traducción escrita.

Page 132: 0 análisis epistemológico ii, 2011

Adolfo Martín García

132

entre representaciones lexémicas equivalentes no es recíproco (es decir, la facilidad con que una representación lexémica A en L1 evoca una representación lexémica B en L2 jamás es igual a aquella con que la segunda evoca la primera. En términos menos esotéricos, diríase que para un traductor que es hablante nativo de español suele resultar más fácil traducir de forma directa (i.e., del inglés al español) que en dirección inversa (i.e., del español al inglés). Se trata de una hipótesis que surge de la práctica cotidiana, de la experiencia pedagógica y de estudios basados en TAP.

Un peculiar tipo de afasia nos servirá como parte de la evidencia empírica que permitiría conferirle plausibilidad neurológica a esta hipótesis. Paradis, Goldblum y Abidi (1982) documentan dos casos de lo que ellos llaman restitución antagónica alternada con conducta traductora paradójica (alternate antagonism with paradoxical translation behavior). A continuación nos referiremos sólo a uno de ellos.

La paciente A.D. era una monja francoparlante que aprendió árabe en su juventud. Era diestra y poseía un alto grado de instrucción académica. Vivió toda su vida en Marruecos, y desde los 24 años trabajaba como enfermera pediátrica en Rabat. En su vida diaria se comunicaba en francés con sus hermanas y algunos doctores, y en árabe con los pacientes y la gente en la calle. El 24 de noviembre de 1978, a los 48 años, A.D. fue atropellada por un automóvil, golpeó su cabeza contra el asfalto, sufrió una fractura temporo-parietal y quedó inconsciente por quince minutos. Al despertarse, presentaba un cuadro de afasia global (era incapaz de producir y comprender enunciados en las dos lenguas que manejaba).

A los pocos días, la paciente dio muestras de lo que en afasiología se denomina restitución alternada: por momentos manifestaba síntomas de anomia en francés mientras se manejaba con fluidez en árabe; por momentos, el patrón se invertía (su comprensión, no obstante, se mantenía intacta en ambas lenguas). Lo que resulta particularmente interesante del caso de A.D. es que, en cada etapa de su restitución alternada, era capaz de traducir (de forma adecuada y sin titubeos) hacia la lengua a cuyas representaciones léxicas no podía acceder para la producción espontánea, a la vez que le resultaba imposible traducir hacia la lengua a cuyas representaciones

Page 133: 0 análisis epistemológico ii, 2011

Cómo la neurolingüística puede contribuir al saber traductológico

133

léxicas sí podía acceder sin esfuerzo en el habla espontánea. Dicho de otro modo, cuando no podía hablar espontáneamente en francés, sí podría traducir del árabe al francés, y viceversa. Ante tal conducta traductora paradójica, Paradis (1984: 66. Trad. mía) concluye que

las conexiones establecidas entre expresiones equivalentes pueden ser independientes de aquellas que corresponden a cada lengua en particular. Parece que [en el cerebro del traductor] hay 4 sistemas neurofuncionales independientes: un sistema para la L1, un segundo sistema para la L2, un tercer sistema para las conexiones entre equivalentes de la L1 a la L2, y un cuarto sistema para las conexiones entre equivalentes de la L2 a la L1.

Esto implica que los circuitos neuronales que sirven de asiento al procesamiento de equivalencias desde L1 hacia L2 son distintos de los que se activan en el procesamiento desde L2 hacia L1. Esta observación, sumada a los siguientes hechos neurocientíficos, nos permite confirmar la Hipótesis de la No-Reciprocidad. Primero, sabemos que diversos cambios bioquímicos y aun estructurales en las neuronas modifican la fuerza de las conexiones sinápticas (Kandel, 1991). Tal modificación puede darse de tres maneras: (a) el montículo del axón, donde una neurona lleva a cabo sus computaciones, puede cambiar sus requisitos metabólicos de modo que se requieran menores cantidades de neurotransmisores para satisfacer el umbral de la neurona; (b) las neuronas eferentes pueden aumentar la cantidad de neurotransmisores enviados a la neurona receptora; o (c) las neuronas receptoras pueden aumentar su receptividad de neurotransmisores mediante cambios químicos en la membrana post-sináptica. A su vez, como aduce Paradis (1984: 64. Trad. mía), “cada vez que se traduce una expresión determinada, el requisito de activación del sustrato que la vincula con su equivalente se ve reducido, de suerte que será más fácil de traducir en una próxima oportunidad”. Ya que las conexiones establecidas en el subsistema L1-L2 son neurofuncionalmente independientes de aquellas que se incluyen en el sistema L2-L1, no hay razón para creer que, en un momento dado, habrá un nivel idéntico de fuerza en ambas direcciones entre las conexiones que vinculan

Page 134: 0 análisis epistemológico ii, 2011

Adolfo Martín García

134

a un par de representaciones procesadas en tanto equivalentes (e.g., thus y por ello, en inglés y español, respectivamente).

De hecho, sería casi imposible que así fuera. Sucede que, salvo contadas excepciones, todo traductor tiende a traducir mucho más en una dirección que en la otra. Así, en el caso de un traductor que tradujera más hacia su L1 (digamos, inglés) que hacia su L2 (digamos, español), las conexiones que llevan de por ello a thus estarán establecidas con mayor fuerza o peso que aquellas que llevan de thus a por ello. Además, cuanto mayor sea la cantidad de veces que envía activación de por ello a thus, en comparación con el número de veces en que envía activación de thus a por ello, tanto mayor será la fuerza de las conexiones que vinculan al primer par en comparación con el segundo. En la Figura 1 (página 135) se presentan dos sencillas redes relacionales que grafican el ejemplo en cuestión.

De este modo, la hipótesis abstracta de la no-reciprocidad halla evidencia confirmatoria, lo cual contribuye a precisar una propiedad de las relaciones de equivalencia que todo traductor advierte en su práctica pero que poco se ha estudiado desde un enfoque empírico. 5. A modo de cierre El presente trabajo no hace sino corroborar la afirmación de que la traductología es una interdisciplina en etapa de importación (Kaindl, 2004). El hecho de que la traducción es una actividad cognitiva, sumado a la adopción de una perspectiva emergentista de la mente, invita a revisar la literatura neurocientífica y neurolingüística en busca de datos que permitan precisar las propiedades de sus constructos centrales. En particular, un caso llamativo y más bien recóndito de restitución alternada en una paciente bilingüe nos condujo a postular la independencia funcional de las redes neurales que sirven de base al procesamiento de los mismos equivalentes en traducción directa e inversa. Dicho hallazgo, en combinación con hechos establecidos por la neurología, se convirtió en evidencia empírica a favor de la Hipótesis de la No-Reciprocidad. Lejos está este breve artículo de agotar las posibilidades de cooperación interdisciplinar entre la traductología y las neurociencias; eso está bien claro. No

Page 135: 0 análisis epistemológico ii, 2011

Cómo la neurolingüística puede contribuir al saber traductológico

135

obstante, acaso sí sirva para demostrar que no es descabellado imaginar una teoría de la traducción que, con el tiempo, pueda interactuar de manera fructífera con el cuerpo general de las ciencias duras.

Figura 1. No-reciprocidad entre thus y por ello (las líneas sólidas indican conexiones más fuertes; las líneas punteadas indican

conexiones más débiles). Bibliografía Arrojo, Rosemary (1997) “The ‘Death’ of the Author and the Limits of the

Translator’s Visibility”. En Mary Snell-Hornby et al. (eds), Translation as Intercultural Communication, 21-32.

Bassnett, Susan y Lefevere, André (eds) (1990). Translation, History and Culture. Londres: Pinter.

Bouton, Charles (1984). Le cerveau du traducteur : de quelques propositions sur ce thème. Meta : journal des traducteurs 29(1), 44-56.

Coseriu, Eugenio (1977). “Lo erróneo y lo acertado en la teoría de la traducción”. En Eugenio Coseriu, El hombre y su lenguaje. Madrid: Gredos, 214-239.

Page 136: 0 análisis epistemológico ii, 2011

Adolfo Martín García

136

Gutt, Ernst-August (1991). Translation and Relevance: Cognition and Context. Oxford: Blackwell.

Holmes, James S. (1988). Translated! Papers on Literary Translation and Translation Studies. Ámsterdam: Rodopi.

Hurtado Albir, Amparo (2001). Traducción y Traductología: Introducción a la Traductología. Madrid: Cátedra.

Jakobson, Roman (1959/2000). “On Linguistic Aspects of Translation”. En Lawrence Venuti (ed.) The Translation Studies Reader, 113-118. Londres & Nueva York: Routledge.

Kaindl, Klaus (2004). Übersetzungswissenschaft im interdisziplinären Dialog. Am Beispiel der Comicübersetzung. Tübingen: Stauffenburg.

Kandel, Eric (1991). “Nerve Cells and Behavior”. En Eric Kandel, James Schwartz y Thomas Jessell (eds) Principles of Neural Science. 3ra. ed. Nueva York: Elsevier, 18-34.

Kurz, Ingrid (1994). “A Look into the ‘Black Box’ – EEG Probability Mapping during Mental Simultaneous Interpreting”. En Mary Snell-Hornby et al. (eds), Translation Studies. An Interdiscipline, 199-207.

Koller, Werner (1995). “The Concept of Equivalence and the Object of Translation Studies”. Target 7(2), 191-222.

Neubert, Albrecht (1985). Text and Translation. Leipzig: VEB Verlag Enzyklopädie.

Nolan, James (2007). Interpretation: Techniques and Exercises. Professional Interpreting in the Real World. London: Multilingual Matters.

Paradis, Michel (1984). “Aphasie et traduction”. Meta: International Translators’ Journal 29, 57-67.

Paradis, Michel (1994). “Toward a Neurolinguistic Theory of Simultaneous Translation: The Framework”. International Journal of Psycholinguistics 10 (3/29), 319-335.

Paradis, Michel, Goldblum, Marie-Claire, y Abidi, Raouf (1982). “Alternate Antagonism with Paradoxical Translation Behavior in Two Bilingual Aphasic Patients”. Brain and Language 15, 55-69.

Rabadán, Rosa (1991). Equivalencia y traducción: Problemática de la equivalencia translémica inglés-español. Universidad de León.

Reiss, Katharina y Vermeer, Hans J. (1984). Grundlegung einer allgemeinen Translaationstheorie. Tübingen: Niemeyer.

Seleskovitch, Danica y Lederer, Marianne (1984). Interpréter pour traduire. Col. Traductologie, 1. París: Didier Érudition.

Snell-Hornby, Mary (1988). Translation Studies: An Integrated Approach. Ámsterdam y Filadelfia: John Benjamins.

Snell-Hornby, Mary, Jettmarová, Zuzana y Kaindl, Klaus (eds) (1997). Translation as Intercultural Communication. Selected Papers from the EST Congress – Prague 1995. Ámsterdam y Filadelfia: John Benajmins.

Snell-Hornby, Mary (2006). The Turns of Translation Studies: New Paradigms or Shifting Viewpoionts?. Amsterdam: John Benjamins.

Vinay, Jean-Paul y Darbelnet, Jean (1958). Stylistique comparée du Français et de l’Anglais. Méthode de traduction. París: Didier.

Page 137: 0 análisis epistemológico ii, 2011

M. S. Schiavini, Análisis Epistemológico II, Martín, MDQ, 2009, pp. 137-144.

PLAUSIBILIDAD NEUROLÓGICA DE LA TEORÍA DE LAS CUATRO

ETAPAS DE LA LECTURA DE EMILIA FERREIRO

María Soledad Schiavini El objetivo de esta breve presentación es mostrar que la teoría de las cuatro etapas de la lectura de Emilia Ferreiro parece tener plausibilidad neurológica a la luz de los datos empíricos provistos por las investigaciones de la neurociencia actual.

Parece que “no nacimos para leer”. Así dice varias Maryanne Wolf en su difundido libro Cómo aprendemos a leer (2008) y también en otras publicaciones donde da cuenta de la importancia de las investigaciones neurocientíficas para la comprensión del aprendizaje de la lectoescritura (Wolf 2008; Wolf y Bowers 2000; Wolf, Bowers y Biddle 2000; Wolf, Miller y Donnelly 2000). Esa hipótesis y sus matices resultarán fundamentales para evaluar la adecuación empírica, la naturaleza cognitiva y la plausibilidad neurológica la teoría de las etapas de la lectura de Emilia Ferreiro, un modelo de base (supuestamente) cognitiva que ha sido fundamental para la enseñanza de la lectoescritura en nuestro país y se encuadra y se respalda en la teoría del desarrollo cognitivo de Jean Piaget.

Si aprender a leer y escribir no es proceso natural (o tan natural) como aprender a hablar, surgen al menos las siguientes preguntas:

• ¿De qué forma incide lo social en el aprendizaje de la lectoescritura?

• ¿Qué funciones tiene que desarrollar el cerebro del niño para aprender a leer y escribir?

• ¿De qué modo el desarrollo del cerebro del niño se complementa con las etapas del desarrollo cognitivo propuestas Ferreiro?

Las investigaciones actuales (Wolf y O’Brien 2006; Wolf

2005; Pae et al 2005) permiten empezar a entender cómo es posible que el cerebro humano haya aprendido a leer y escribir. Dentro de este contexto, las investigaciones también ayudan a comprender cómo ha sido la evolución del cerebro desde las tablillas de arcilla de la antigüedad hasta las más recientes

Page 138: 0 análisis epistemológico ii, 2011

María Soledad Schiavini

138

tecnologías. Obsérvense, en este sentido, las siguientes asociaciones:

• Los productos de la conducta lingüística (por ejemplo las tablillas de arcilla) han sido y son posibles gracias al sistema lingüístico y, de modo más general, gracias al sistema cognitivo en su conjunto.

• No parece plausible que el sistema lingüístico y el

sistema cognitivo general (que de hecho están representados en el cerebro) “contengan” los elementos que se manifiestan en la conducta lingüística (por ejemplo, en el cerebro no están los símbolos cuneiformes de las tablillas de arcilla o las letras del alfabeto latino).

• Más bien, lo que probablemente ocurre es que tanto

el sistema lingüístico como el sistema cognitivo en su conjunto (que están representados en el cerebro) proveen los medios adecuados para (i) entender los textos orales y escritos y (ii) producir textos. Como explica el neurolingüista Sydney Lamb (1999, 2004) los productos de la conducta verbal pueden representarse por medio de símbolos (como letras y palabras), pero sólo son posibles gracias al sistema lingüístico. Sin embargo, el sistema lingüístico de un individuo no contiene símbolos de ningún tipo.

La lectoescritura es (¡vaya novedad!) un proceso

increíblemente complejo. Es además uno de los procesos más difíciles para el niño a lo largo de la escolaridad. Como se dijo antes, el aprendizaje de la lectoescritura no es (tan) natural como el aprendizaje del lenguaje (esto es, como el aprendizaje del lenguaje propiamente dicho: el “lenguaje oral”). Es así que el cerebro ha tenido y tiene que desarrollar estrategias “nuevas” para poder aprender a leer y escribir.

La experiencia docente permite de algún modo avalar uno de los objetivos que repetidamente se ponen de manifiesto las investigaciones neurocientíficas más actuales: la necesidad de

Page 139: 0 análisis epistemológico ii, 2011

Plausibilidad neurológica de la teoría de las 4 etapas de la lectura de Emilia Ferreiro

139

entender las insospechadas capacidades de los niños. Ellos demuestran que pueden aprender a leer antes de los 6 años (la edad que en general se estipula para el aprendizaje de la lectoescritura en el sistema escolar). Y aprenden a leer de un modo que puede llegar a compararse con el modo en el que aprenden a hablar: En definitiva, el cerebro de cada niño que aprende a leer está reorganizándose para desarrollar una nueva función intelectual. En este sentido, el niño puede entender el habla ajena, puede hablar y (después) puede leer y escribir, todo ello gracias a que su cerebro va desarrollándose, es decir, incorporando funciones nuevas.

En síntesis, los procesos cognitivos son posibles gracias al sistema cognitivo (valga la redundancia). Y, por último, lo que llamamos “sistema cognitivo” de un individuo tiene que tener un correlato físico y biológico en el cerebro de ese individuo (Damasio 2005, 2006).

En términos rudimentariamente neurológicos: la aptitud del cerebro para aprender a leer es el resultado de su capacidad para establecer nuevas conexiones entre estructuras y circuitos dedicados originalmente a otros procesos cerebrales más básicos y que han disfrutado de una existencia más prolongada en la evolución humana, como la visión, la audición, la percepción somato-sensorial, e incluso el habla. Se puede aprender a leer gracias a la plasticidad del cerebro y, cuando puede leer, el cerebro cambia para siempre, tanto emotiva como intelectualmente. La flexibilidad del cerebro permite coordinar aspectos visuales, auditivos, fonológicos, sintácticos y semánticos que de otro modo no entrarían en relación. Las zonas cerebrales que se activan varían según las exigencias del sistema de lectura: así, el cerebro lector chino difiere notablemente del cerebro lector de una lengua indoeuropea.

La capacidad del niño para adquirir el lenguaje está presente en él desde su nacimiento. En efecto, el niño cuenta con la capacidad de construir su propio sistema lingüístico (el cual no debe confundirse con los productos elaborados por ese sistema). El aporte de lo social contribuye al desarrollo del sistema lingüístico: Los significados que en él se representan guardan relación con el entorno social (Halliday 1978, 2004). (Obviamente, el desarrollo del sistema lingüístico no se termina en la temprana infancia: Aunque no es asunto de este proyecto,

Page 140: 0 análisis epistemológico ii, 2011

María Soledad Schiavini

140

vale destacar que el sistema lingüístico se va desarrollando a lo largo de toda la vida).

Mientras el niño aprende a leer y escribir, entonces, el cerebro va reconstruyendo distintos caminos, distintas conexiones que lo llevan a activar distintas zonas. Esto es lo novedoso: las conexiones neuronales que se van creando con la lectura y los centros cerebrales que esta actividad va “despertando”. En efecto, el proceso de la lectura va desarrollando y enriqueciendo otros procesos previos, por ejemplo, el reconocimiento de sonidos, la comprensión de símbolos o el cultivo de la imaginación.

Aprender a leer y escribir es para el niño es un verdadero esfuerzo intelectual. Sin saberlo, el niño reedita los pasos que tuvo que dar la humanidad para concretar esta proeza. Pero el niño moderno logra hacer en algunos pocos años lo que a la humanidad le llevó varios siglos. En este sentido es que Maryanne Wolff dice que “no nacimos para leer”: Nuestro cerebro se viene adaptando para hacerlo. A partir de la interacción entre distintos centros cerebrales, cuya función original era otra, nuestro cerebro aprende a leer. Esto es, muy básicamente, lo que determina el conjunto de procesos cognitivos complejos que hacen posible “el milagro de la lectura”.

Desde luego, la lectura no es la mera decodificación de signos, y tampoco un proceso acabado en sí, porque se estaría rompiendo con la estructura lingüística y el significado. Nuestra lengua funciona como un todo y no por unidades segmentables separadas. Lo que llamamos lectura involucra necesariamente la comprensión del significado, el acceso al nivel semántico del lenguaje.

Aquí se tendrá que evaluar también (no para condenar, sino para revalorar o reubicar) la conocida teoría psicogenética de Piaget y, desde luego, los desarrollos que se han hecho a partir de ella y que llegan hasta nuestros días. A partir de datos empíricos con una base biológica fuerte (muchos de ellos provenientes de experimentaciones) la teoría psicogenética explica cómo el individuo interactúa con el medio y cómo va construyendo su conocimiento a partir de sus estructuras cognitivas. Dichas estructuras cognitivas evolucionan a través del proceso de adaptación al medio, que se logra mediante la

Page 141: 0 análisis epistemológico ii, 2011

Plausibilidad neurológica de la teoría de las 4 etapas de la lectura de Emilia Ferreiro

141

previa “asimilación” y “acomodación” del sujeto. La teoría del desarrollo cognitivo de Piaget plantea que el individuo alcanza el equilibrio cuando accede a un nivel de conocimiento superior, esto es, autónomo. Dicho toscamente, el individuo evoluciona de un período de conocimiento elemental a otro de mayor conocimiento, de naturaleza independiente. Pero para que se dé este aprendizaje resulta necesario que el sujeto alcance cierto nivel de desarrollo. En lo referido a la lectoescritura, la teoría psicogenética considera que el niño dispone de una capacidad precoz para leer y escribir. También considera que el niño vive en un mundo alfabetizado que le permite elaborar hipótesis sobre el sistema lingüístico. (Estos comentarios resultan válidos aunque Piaget no haya formulado una teoría “particular” de la lectoescritura).

Como es bien sabido, Emilia Ferreiro recurrió a los fundamentos del modelo psicogenético para desarrollar una teoría original de la lectoescritura (Ferreiro 1991, 1997, 1999a, 1999b, 2001, 2005). Tiene mucha difusión la teoría de que el niño atraviesa cuatro grandes etapas en sus intentos por aprender a leer. Dichas etapas se correlacionan con un proceso madurativo y son las siguientes: (i) Etapa Logográfica, (ii) Etapa Alfabética, (iii) Etapa Ortográfica y (iv) Etapa Fluida-expresiva.

Se acepta que la teoría de Ferreiro es cognitiva porque busca caracterizar el desarrollo de las estructuras mentales del niño a medida éste que va aprendiendo a leer y escribir. Al igual que en el caso de otras importantes teorías que se consideran cognitivas, lo que propone Ferreiro se corresponde con la observación directa de cómo en efecto aprenden los niños. Ahora bien, a partir de los enormes avances que se están dando en las neurociencias, las denominadas teorías cognitivas de la lectoescritura pueden empezar a evaluarse además en términos de la plausibilidad neurológica. En función de lo dicho, se proponen aquí las tres siguientes hipótesis de trabajo:

• Hipótesis 1: La teoría de Ferreiro tiene adecuación

empírica porque sus descripciones se ajustan a la conducta y las producciones (orales y escritas) de los niños que están aprendiendo a leer y escribir. (Entre las producciones de los chicos se destacan

Page 142: 0 análisis epistemológico ii, 2011

María Soledad Schiavini

142

los ejercicios de lectura en voz alta y las exposiciones orales de las interpretaciones de los textos, tanto formales como no formales).

• Hipótesis 2: La teoría de Ferreiro es en efecto una excelente teoría de la conducta del niño que aprende a leer y escribir. No es, sin embargo, una teoría genuinamente cognitiva, porque en verdad no da cuenta de cómo se configura el sistema de conocimiento del niño para aprender a leer, ni mucho menos da cuenta del desarrollo neuronal (aunque tampoco se lo propone). (Esto no implica, digámoslo una vez más, que haya que descartar la teoría de Ferreiro sino que, por el contrario, nos exige buscar las bases cognitivas y neurológicas de una teoría sumamente valiosa acerca de la conducta y las producciones orales de los niños).

• Hipótesis 3: La teoría de Ferreiro tiene plausibilidad neurológica porque las etapas evolutivas que ella propone y que se ajustan para la conducta tienen un correlato con las etapas de desarrollo del “cerebro lector”.

La Tabla 1 presenta un bosquejo de la forma en que se

puede empezar a contrastar esas hipótesis. De manera preliminar, se establece allí una relación entre las cuatro etapas de Emilia Ferreiro y cuatro de las cinco etapas propuestas en las investigaciones neurolingüísticas de Maryanne Wolff.

Las investigaciones de Ferreiro terminan en la “etapa fluida-expresiva”, principalmente porque no se centran en el aprendizaje por parte de los niños. Sin entrar en incompatibilidad alguna, las teorías de base neurológica actuales reconocen, en la palabras de Wolf, una quinta etapa: la del cerebro lector experto, donde se siguen profundizando y extendiendo, sin límite definido alguno y a lo largo de toda la vida, las conexiones en las zonas de asociación heteromodal.

Page 143: 0 análisis epistemológico ii, 2011

Plausibilidad neurológica de la teoría de las 4 etapas de la lectura de Emilia Ferreiro

143

Tabla 1: Comparación de las cuatro etapas de Ferreiro y cuatro de las cinco etapas de Wolf

TEORÍA DE LAS CUATRO ETAPAS

DE FERREIRO CUATRO DE LAS CINCO

ETAPAS DE WOLF Etapa logográfica. El niño hace “pre-lectura”: No se da la correspondencia entre el sonido y la letra escrita. El niño logra interpretar las cadenas de letras como objetos sustitutos y hacer una clara distinción entre la representación icónica y la escritura (no icónica).

Etapa del “cerebro pre-lector incipiente”. Los sistemas logográficos parecen activar partes bien diferentes de los lóbulos frontal y temporal del cerebro, especialmente las involucradas en las capacidades de la memoria motriz.

Etapa alfabética. El niño empieza a reconocer la correspondencia entre la letra como símbolo y el sonido que se representa. Desarrolla así la “conciencia fonológica”.

Etapa del “cerebro lector novel”. Se revela la extraordinaria capacidad del cerebro para establecer nuevas conexiones: Regiones diseñadas en principio para otras funciones (en especial la visión, la motricidad, la producción fonológica oral, el reconocimiento fonológico oral) “aprenden” a interactuar a una velocidad cada vez más creciente.

Etapa ortográfica. El niño capta grupos de letras y luego palabras en un solo “golpe de vista”. Hay un fuerte desarrollo de lo aprendido anteriormente y el niño puede, cuando sólo reconoce el principio de una palabra, identificar palabra completa. Hay una evolución que permitirá la conexión entre lo incorporado a nivel de escritura y de sonido para lograr una integración eficaz.

Etapa del “cerebro lector descifrador”. Se enriquecen las conexiones entre las zonas cerebrales destinadas originalmente para otras funciones. Participan, como mínimo, los siguientes sistemas: la visión (lóbulos occipitales), la comprensión auditiva (lóbulos temporales) y las áreas motoras (lóbulos frontales).

Etapa fluida-expresiva. El niño puede hacer una lectura global del texto: Tiene en cuenta la puntuación, la expresión y el contexto. Ya no sólo es capaz de descifrar, sino que ya entiende los significados de las partes y del texto como un todo; en especial, es capaz de hacer manifiesta esa comprensión a los otros.

Etapa del cerebro lector de comprensión fluida. Aquí, el lector no necesita invertir tanto esfuerzo, porque sus regiones de especialización han aprendido a representar la información visual, fonológica y semántica y a recuperar esta información a una elevada velocidad. Intervienen de forma espléndida las grandes áreas de asociación heteromodal de los lóbulos frontales y temporales, que por cierto ocupan la mayor parte de la corteza cerebral.

Page 144: 0 análisis epistemológico ii, 2011

María Soledad Schiavini

144

Un primer análisis de la evidencia empírica parece respaldar la hipótesis de que la teoría de Ferreriro es una buena teoría de la conducta gracias a la cual habrá desarrollos con plausibilidad neurológica. En este contexto, surgen las siguientes preguntas para los caminos de investigación que se abren antre nosotros:

1. ¿Es la teoría de Ferreiro una teoría cognitiva?, ¿o es una teoría de la conducta con adecuación empírica?

2. ¿Guarda relación la teoría de Ferreiro con los datos empíricos provistos por la neurociencia (como en principio sugiere la Tabla 1)?

3. ¿Hay una teoría general del aprendizaje de la lectoescritura? ¿Puede haber una planificación general del modo de enseñar la lectoescritura en la escuela primaria?

Referencias bibliográficas Ferreiro, E. (1991) Los niños construyen su lectoescritura. Buenos Aires: Aique. Ferreiro, E. (1997). Alfabetización. Teoría y práctica. México: Siglo XXI. Ferreiro, E. (1999a) Cultura escrita y educación, México: FCE. Ferreiro, E. (1999b) Vigencia de Jean Piaget. México: Siglo XXI. Ferreiro, E. (2001) Pasado y presente de los verbos "leer" y "escribir", Bs. As.: FCE. Ferreiro, E. (2005) Librarians and Basic Education Teachers in the Context of ‘Digital

Literacy’. International Foundation of Librarians Associations Journal. 31 (1): 35. Halliday, M. A. K. (1978). El lenguaje como semiótica social. México: FCE. Halliday, M. A. K. (2004) An Introduction to Functional Grammar, Lond. Arnold. Lamb, S. (1999) Pathways of the Brain, Amsterdam: Benjamins. Lamb, S. M. (2004) Language and Reality. London: Continuum Books. Wolf, M. (2005). “I have always been a teacher”. In W. Vufkist, B. Beins, C.

Burke, T. Benson, R.. Siney, and A. Amdstadter (Eds.), The teaching of psychology in autobiography: Perspectives from psychology’s best teachers. American Psychological Association.

Wolf, M. (2008) Cómo aprendemos a leer. Barcelona. Ediciones B. Wolf, M., Bowers, P., & Biddle, K. (2000). Naming-speed processes, timing, and

reading: A conceptual review. Journal of Learning Disabilities, 33, p. 387-407. Wolf, M. & Bowers, P. (2000). The question of naming-speed deficits in

developmental reading disability: An introduction to the Double-Deficit Hypothesis. Journal of Learning Disabilities, 33, p. 322-324.

Wolf, M., L. Miller & K. Donnelly (2000). RAVE-O: A comprehensive fluency-based reading intervention program. J. of Learning Disabilities, 33, 375-386.

Wolf, M., & O’Brien, B. (2006). From the Sumerians to images of the reading brain: Insights for reading theory and intervention. In G. Rosen (Ed.), The dyslexic brain. Timonium: York Press.

Page 145: 0 análisis epistemológico ii, 2011

F. Zotta, Análisis Epistemológico II, Ed. Martín, Mar del Plata, 2011, pp. 145-151.

REPRESENTACIÓN Y COMUNICACIÓN: HACIA UNA

(DES)ONTOLOGÍA DE LO REAL

Fabrizio Zotta

“La semiología deberá examinar las representaciones colectivas, no la realidad a la que estas refieren; de la realidad se encarga ya la sociología, por ejemplo, a través de la encuestas.”

ROLAND BARTHES, El grano de voz.

“He tratado de poner en práctica lo que Barthes llamaba el ‘olfato semiológico’ esa capacidad que todos deberíamos tener de captar un sentido allí donde estaríamos tentados de ver solo hechos, de identificar unos mensajes allí donde sería más cómodo reconocer solo cosas […] Considero mi deber político invitar a mis lectores a que adopten frente a los discursos cotidianos una sospecha permanente.”

UMBERTO ECO, La estrategia de la ilusión.

El mundo de las comunicaciones no puede analizarse desde ninguna ontología de lo natural. Tal afirmación supone dos conceptos diferenciados y diferenciables: existe un universo ontológico, al que se le suele llamar Real, conformado por el total de las cosas creadas. Este espacio ha sido objeto de estudio de ciencias diversas, desde la filosofía y la teología hasta la sociología, como sostiene Barthes en el epígrafe.

Pero podemos reconocer otra existencia, menos visible: es la constituida por el conjunto de las prácticas de la comunicación, que ordena la experiencia cotidiana, y dentro del cual encontramos dos elementos de gran relevancia: la representación y el signo. Estos dos conceptos se relacionan, pues la primera hace posible al segundo y cobran juntos un carácter de necesarios: la representación como sustrato de orden simbólico, el signo como elemento material. La relación entre ellos nos sitúa frente al problema de la apropiación significativa de lo real: la forma en la que percibimos el mundo.

El problema de las relaciones entre lo que habitualmente se llama realidad y los procesos de percepción que los sujetos

Page 146: 0 análisis epistemológico ii, 2011

Fabrizio Zotta

146

hacen de ella es un matiz de la ciencia que ha dejado más preguntas que respuestas. Durante el siglo XX la aparición de la Lingüística como cuerpo ordenado de estudios sobre el signo, de los analistas del discurso, de los pensadores estructuralistas y posestructuralistas y de los especialistas en comunicación social, le quitó el centro de atención a la filosofía y a las explicaciones metafísicas del mundo. El cambio de enfoque radica en que no sólo se toma el lenguaje como centro de los sistemas sígnicos, sino que se identifican procesos culturales y sociales como textos: entramados de signos con gramáticas específicas de construcción.

La teoría de la representación es imprescindible para la cuestión de la percepción de la realidad, pues sólo a través de ella los sujetos pueden abordar el mundo de las cosas creadas. La semiótica tradicional no niega la existencia de lo natural: las cosas están en el mundo, pero en un espacio de la realidad que no puede ser referido por el sujeto, pues está completamente escindido del fenómeno perceptivo.

Es por eso que para entender la dinámica de la percepción subjetiva de lo real es necesario abrevar en las características de los signos lingüístico y semiótico, como realidades percibibles, producto de la instancia de orden simbólico (con implicancias bien reales) que llamamos representación.

Este concepto es plurisignificante dentro del campo cultural de la Modernidad, pero en todos los casos está vinculado con la edificación de un orden, una organización que es, a la vez, material y simbólica. Por un lado, la clásica acepción relacionada con la dimensión que posibilita ordenar la realidad, a partir de otorgarle sentido a las cosas del mundo. Por otro lado, la tradición republicana ha utilizado a la representación como principio interno de organización política para las sociedades complejas.

Pero ¿estamos hablando de un mismo concepto? ¿Puede usarse el mismo término para designar la delegación de derechos ciudadanos que para la simbolización de lo real? Las respuestas implican aclarar los diferentes universos de aplicación del concepto de representación, desde su nivel de canal/vínculo simbólico del sujeto con el mundo; su asimilación semiótica con el concepto de signo: en tanto algo que está en lugar de otra cosa; su acepción artística, según la cual se puede hablar de una

Page 147: 0 análisis epistemológico ii, 2011

Representación y comunicación

147

representación teatral, pictórica, fotográfica, puesta en relieve desde la célebre Ceci n'est pas une pipe, de Magritte en La trahison des images; y su utilización republicana a partir de la Modernidad, con la llegada de las democracias liberales representativas.

Con todo, el problema de la representación no sólo es teórico, sino que tiene una incidencia puntual y material sobre las cosas reales. Esa es precisamente su característica más significativa: la doble valoración de las cosas. Aquello que representa debe representar algo, distinto de sí, y que supone –a priori- la homologación del efecto, es decir que sea lo mismo la presencia del objeto o de su representación.

Entonces, cualquier representación podría definirse como lo que ocupa el lugar de otra cosa: el soporte simbólico o material que designa a otra instancia igualmente simbólica o material, haciéndola presente, aún en ausencia, o justamente gracias a su ausencia.

En estos términos, la representación queda homologada a la noción de signo. La tradicional definición de signo tripartito: representamen, objeto e interpretante supone un elemento material que refiere a un objeto (ocupa su lugar) y genera una cadena de pensamientos asociados. Pero, como veremos, ambos conceptos no son equivalentes.

Lo que permite la representación es la duplicación del mundo por el lenguaje, la distancia entre la representación y lo representado, pues el vínculo entre el signo y la cosa no se produce por lógica de la semejanza: no hay una unión natural, sino que esa unión es un producto de la propia representación.

Sin embargo, el lenguaje es insuficiente para el análisis de la relación entre lo subjetivo y lo real. La necesidad de construir una estructura más amplia se plasma en la aparición de la semiótica, como ciencia general de los signos, que sostiene que el fenómeno de las representaciones necesarias para la percepción de la realidad supone dos instancias: aquello que está allí afuera, que no forma parte de la subjetividad, y los mecanismos que se ponen en marcha a la hora de la apropiación subjetiva del objeto.

Los idealistas, por ejemplo, defienden la doctrina metafísica que sostiene que lo real es de la naturaleza del pensamiento, que toda realidad es psíquica. El solipsismo radicaliza esta

Page 148: 0 análisis epistemológico ii, 2011

Fabrizio Zotta

148

posición subjetivista, y se opone al realismo, que se basa en las esencias de las cosas naturales. En tanto que el catolicismo ha incorporado la epistemología del realismo escolástico que sostiene la existencia real del mundo como independiente de todo acto de pensamiento acerca de él.

La semiótica clásica surge como un intento de superación de estas gnoseologías. Para Charles Peirce, el padre de la semiótica anglosajona, el objeto de la ciencia de los signos es desentrañar cómo se hace posible el conocimiento de la realidad, e intenta una síntesis entre las posiciones realistas y solipsistas.

Para Peirce existen los objetos en sí mismos, pero también en el proceso de conocimiento, y en esto basa sus esfuerzos para demostrar la correlación entre los movimientos de la naturaleza y los procesos mentales. Toda realidad es captada como signo o proceso de significación. “Siempre que llegamos a conocer un hecho es porque se nos resiste”, sostiene Peirce. En otras palabras, esa resistencia del objeto es el momento del conocimiento del signo, cuando por primera vez la representación se asocia al objeto. Allí comienza a conocerse, y la existencia real de ese objeto es irrelevante.

Cade y O’Halon afirman que se puede diferenciar entre las cosas y los hechos (de base sensorial), y los significados atribuibles a esas experiencias objetivas. Estas posiciones no suponen desconocer los problemas que presenta hablar de una realidad física, pues es científicamente posible sostener la desustancialización de la materia:

“Al descender en la escala hasta los niveles subatómicos, tropezamos inmediatamente con problemas relacionados con la definición de realidad. Por sólido que parezca un trozo de roca cuando se tiene la experiencia de él a través de los sentidos humanos desnudos, si se lo sondea en el nivel subatómico se vuelve más insustancial y elusivo. Parece estar formado por relaciones entre partículas minúsculas que existen brevemente en un mundo de probabilidades y que quizá sólo adquieran existencia en virtud del proceso mismo de la observación” 1

A los problemas del mundo físico se le suman los problemas del significado, pues los esquemas de percepción transforman 1 CADE, Brien y O’HALON, William H. (1995). Guía breve de terapia breve. Barcelona: Paidos, pp.50, 51.

Page 149: 0 análisis epistemológico ii, 2011

Representación y comunicación

149

sentido. Nuestra vida está sustentada en representaciones de representaciones, modificaciones significativas sobre signos. El ser humano no necesita de entidades objetivas para ejecutar su capacidad de semiosis: puede construir el sentido de realidades que nunca fueron reales para él, conceptos de una abstracción extrema: la nacionalidad, la identidad, la muerte. Y también puede entender la noción de alma, de sustancias incompletas. Puede, además, adaptar en su sistema perceptivo realidades irrepresentables, a pesar de sus limitaciones cognitivas, aunque sea como meras ficciones.

El concepto de representación ha servido a lo largo de la historia como el principio de explicación de las relaciones entre el símbolo y la cosa, es decir ha sido la respuesta a la pregunta de cómo un signo está relacionado a lo que significa. Desde los estudios platónicos sobre la propiedad de los nombres2 hasta la semiótica y el posestructuralismo actuales se ha revisado de qué manera el lenguaje –o los discursos entendidos como textos de la cultura- designan al universo de las cosas creadas.

Como apunta Foucault, durante la etapa premoderna, de neto corte teocéntrico, la explicación sobre la existencia del signo había que buscarla en el carácter sagrado de la Palabra, en tanto manifestación de las cosas para el conocimiento del hombre. Palabra y objeto tenían una correlación absoluta, dado que existía una relación de analogía entre la Naturaleza y el Verbo, “formando un gran texto único.”3

La representación tenía entonces la capacidad de existir en el objeto y no ser escindible de él. Incluso no necesitaba ser captada como signo que ocupa el lugar del objeto, ni interpretada. La representación y el objeto se entrecruzaban de manera tal que era el hombre quien debía desentrañar el misterio divino que encerraban los signos del mundo, pues una infinita Sabiduría los había puesto allí para él. Cosas y palabras eran semejantes, y las vinculaciones entre el signo y su objeto existían en el orden de lo natural.

2 PLATÓN, Cratilo, o de la propiedad de los nombres, en Obras completas. Buenos Aires: Omeba, 1967, tomo 2, p. 263-345. 3 Cfr. FOUCAULT, Michel (1966). Las palabras y las cosas. Una arqueología de las ciencias humanas. Buenos Aires: Siglo XXI, 2005.Pp. 42-52.

Page 150: 0 análisis epistemológico ii, 2011

Fabrizio Zotta

150

A partir del advenimiento de los siglos XVI y XVII, la representación ocupa el centro del fenómeno simbólico. Ocurre, pues, un corrimiento en el análisis del fenómeno de la representación, porque cambia la noción de signo, a partir de las ideas incorporadas por los neogramáticos, principales antecesores de la lingüística del siglo XX. Este corrimiento consiste en la aparición de las díadas que separan (aunque solo desde el punto de vista metodológico) al objeto de su manifestación simbólica. Aparece el concepto de significación, que luego será delineado por Saussure como la unión de un significante con su significado. Desde ese entonces, y hasta nuestros días, el lenguaje se ha separado cada vez más de las cosas del mundo.

En este sentido, la lingüística iniciada a principios del siglo XX ha contribuido a la instauración de una conciencia respecto de la diferencia entre los planos de lo real y los universos simbólicos que se desprenden de ellos.

La vinculación entre el signo y la cosa que designa es enteramente arbitraria, según Saussure, con la única excepción del símbolo que se define como una forma de signo en la que se puede rastrear una vinculación relativamente arbitraria o, por eso mismo, parcialmente natural.4

Así, la arbitrariedad comienza a ser la ley en los estudios de los signos. A partir del estructuralismo saussuriano objetos y signos se separan hasta convertirse en dos niveles que pugnan por imponerse y los estudios semióticos se encargan de desentrañar cuál de los planos determina al otro: si es del objeto desde donde se determina al signo, o es el signo quien termina construyendo a un objeto diferente del real. Aquí se acoplan las ciencias del conocimiento, la epistemología, los paradigmas cognitivos, etcétera.

Con la llegada de la Modernidad y de las ciencias positivas ya no hay signo desconocido. El signo solo existe cuando se conoce, nunca se constituye sino por su acto de conocimiento. La semiótica de Peirce establece la inevitabilidad de esta cadena 4 Según el texto del Cours de Linguistique Générale en el símbolo es rastreable la significación dada cierta vinculación natural entre signo y objeto: así una balanza refiere a la justicia, el color blanco tiene el valor de la pureza, la paloma vehiculiza la paz. Más allá de esta vinculación relativamente natural, cualquier forma de signo siempre contiene un lazo arbitrario con el objeto que designa.

Page 151: 0 análisis epistemológico ii, 2011

Representación y comunicación

151

de significados, que permite percibir el signo y dotarlo de sentido a partir de otros signos que se tienen previamente. Es decir, cualquier existencia de un signo es inseparable de su análisis.

La homologación entre el objeto y el signo es propia de todo pensamiento posmoderno y supone olvidar que la cultura se edifica únicamente en el espacio de orden que permite la representación, y ese espacio de orden no es el único posible, ni siquiera es el mejor.

Por ello, más allá del devenir histórico del concepto de representación, es importante entenderlo como el principio que hace posible el orden de lo real, a partir del orden simbólico, y que es variable en el tiempo. El sentido se genera en el vínculo, de carácter representacional, entre los objetos del mundo y los mecanismos de percepción que el sujeto pone en funcionamiento. Bibliografía AUSTIN, J.L (1971). Palabras y acciones. Cómo hacer cosas con palabras. Buenos

Aires: Paidós. BARTHES, R. (1953). El grado cero de la escritura. Buenos Aires: Siglo XXI. (1957). Mitologías. Buenos Aires: Siglo XXI, 2003. BAYLON, Christian; MIGNOT, Xavier (1996). Lingüística general. Madrid:

Cátedra CADE, Brien, O’HALON, William H. (1995). Guía breve de terapia breve.

Barcelona: Paidos EAGLETON, TERRY (1983). Una introducción a la teoría literaria. México, D.F.,

Fondo de Cultura Económica, 2001. ECO, Umberto (1968). La estructura ausente. Barcelona: Lumen, 1994 (1973). Signo. Barcelona: Labor, 1994. FERRARIS, Maurizio (1998). La hermenéutica. México: Taurus, 2001. FOUCAULT, Michel (1966). Las palabras y las cosas. Una arqueología de las ciencias

humanas. Buenos Aires: Siglo XXI, 2005 GRÜNER, Eduardo (2002) El fin de las pequeñas historias. De los estudios culturales al retorno (imposible) de lo

trágico. Buenos Aires: Paidós (2005). La cosa política, o el acecho de lo Real. Buenos Aires, Paidós. JAKOBSON, Roman (1963) Ensayos de lingüística general. Barcelona: Ariel, 1984 MARAFIOTI, Roberto (2004). Charles S. Peirce. El éxtasis de los signos. Buenos Aires: Biblos. (2005). Recorridos semiológicos. Buenos Aires, Eudeba PLATÓN, Cratilo, o de la propiedad de los nombres, en Obras completas. Buenos

Aires: Omeba, 1967, tomo 2.

Page 152: 0 análisis epistemológico ii, 2011
Page 153: 0 análisis epistemológico ii, 2011

Patricia Britos, Análisis Epistemológico II, Martín, Mar del Plata, pp. 153-161.

EL MARXISMO ANALÍTICO

Patricia Britos

I

Surge en la década del 70, una corriente de pensamiento cuyos exponentes forman parte de lo que se denominó el “Grupo de Septiembre” ya que sus reuniones se hacían ese mes, también se los conocía por un nombre menos formal “the non-bullshit Marxist Group” o más delicadamente “Marxismo sine stercore tauri”. El grupo era interdisciplinario y estudiaba, analizaba y discutía temas de la tradición marxista, su coherencia interna y su rigor intelectual. Jon Elster fue el primero en denominar a esta corriente como “Marxismo Analítico” y el tuvo la iniciativa de invitar al resto al primer encuentro que data de septiembre de 1979. Dentro de la lista de exponentes, se pueden percibir muchas diferencias y contradicciones, y una lista de los más firmes exponentes es la que sigue: Jon Elster, Gerry Cohen, Philippe van Parijs, John Roemer, Alan Przeworski, John Roemer, Erik Olin Wright y Robert Brenner. A esta lista, se le puede agregar otros nombres tales como: Allen Wood, Norman Geras, Pranab Bardhan, Samuel Bowles, Hillel Steiner, Robert van der Veen, Andrew Levine, Elliot Sober, y otros.

Según Elster, el análisis social marxista debería analizar qué hay de valioso o disvalioso en la ciencia social burguesa y así tener fundamentos para el rechazo que declara, sin embargo, sostiene que la ciencia social marxista ha hecho lo opuesto, es decir, todos los marxistas han rechazado la teoría de la elección racional en general y la teoría de los juegos en particular, ambas basadas en el individualismo metodológico o racionalidad individual. Cito aquí a Ordeshook cuando dice que

[e]l supuesto del individualismo metodológico no es sino un recordatorio de que sólo la gente elige, prefiere, comparte objetivos, aprende, etc. , y que todas las explicaciones y descripciones de acción grupal, si son teóricamente sólidas, finalmente se deben aentender en términos de elección individual1.

1 Ordeshook (1989), p. 1.

Page 154: 0 análisis epistemológico ii, 2011

Patricia Britos

154

II

A raíz de la posición de Jon Elster surge un profundo y amplio debate con respecto a lo que él denomina la “explicación funcional” del marxismo ortodoxo y debido a su insistencia de hacer uso de las herramientas de la teoría de los juegos, que implican la aceptación del individualismo metodológico, obviamente en las antípodas de la teoría marxista. Aquí recuerdo la afirmación de Elster: "la teoría de los juegos es inestimable para cualquier análisis del proceso histórico que se centre en la explotación, la lucha, las alianzas y la revolución"2; esto significa que se incluyen elementos de la metodología de la racionalidad instrumental en la teoría marxista, y, por ende, se deben debilitar algunos principios de la teoría para poder hacerlo. Lo que resulta debilitado es el concepto de "lucha de clases". Elster rechaza el supuesto de que existe una relación causal entre la existencia de intereses grupales o necesidades comunes y acciones colectivas. Y, sostiene que este tipo de errores surge de inferir ilegítimamente propiedades colectivas de las individuales.

Elster sostiene que el marxismo favorece “un pensamiento abúlico y aproblemático”, opuesto a una teoría racional. Cree que esto es un error de parte del marxismo contemporáneo ya que, la teoría de los juegos como método y la elección racional son invalorables para el “análisis del proceso histórico que se centre en la explotación, la lucha, las alianzas y la revolución”3. Creo que en el siguiente párrafo, Elster demuestra cuál es su preocupación y la causa de que acuda a la teoría de los juegos para resolver problemas que acechan al materialismo histórico:

En una racionalidad paramétrica, cada persona se considera a sí misma como una variable y considera a todos los demás como constantes, mientras que en una racionalidad estratégica todos se consideran y consideran a los demás como variables. La esencia del pensamiento estratégico es que nadie puede considerarse como un privilegiado en comparación con los demás: cada uno tiene que

2 Elster (1984), p. 21. 3 Elster (1984), p.21.

Page 155: 0 análisis epistemológico ii, 2011

Marxismo analítico

155

decidir partiendo del supuesto de que los otros son racionales en la misma medida que él4.

A través del dilema del prisionero, Elster juega con las diferentes posibilidades que se pueden dar entre los capitalistas y los obreros, entre diferentes posturas y emociones tales como la solidaridad, la cooperación o el conflicto de intereses. Encuentra que la teoría de los juegos puede ayudar a comprender “la mecánica de la solidaridad y de la lucha de clases, sin suponer que trabajadores y capitalistas tienen un interés y una necesidad comunes de cooperación, cosa que no tienen”5. Un problema que aparece cuando se trata de acciones colectivas es que aparece el “colado”, alguien que no participa de las acciones de todos, pero se beneficia de ellas (ej.: no va a la huelga, pero se beneficia de lo que consiguen sus compañeros con esa medida); este colado se puede beneficiar no sólo de un aumento de sueldo sino también de una revolución, entonces, ¿quién hace la revolución? Para Elster, la objeción más importante, sin embargo, es que no existen hipótesis verificables en la teoría de los juegos, aunque confía que en el futuro se puedan explicar las interacciones dentro del sistema capitalista.

III

Las explicaciones funcionales, denominación usada por Elster que Gerry Cohen considera como explicaciones de consecuencia, son del tipo de las que las consecuencias se usan para explicar las causas. Cohen explica que Elster deplora la asociación entre marxismo y explicación funcional porque realmente cree que ésta no es útil en las ciencias sociales a diferencia de la biología, por ejemplo, donde se justifica su uso dado los fenómenos a estudiar.

Marx tenía una teoría de la historia incrustada en una filosofía de la historia: una teoría empírica de los cuatro modos de producción basada en la división en clases y una idea especulativa de que antes y después de esta división hubo y habrá una unidad. En esta última idea está también claramente presente la noción hegeliana y

4 Elster (1984), p. 39. 5 Elster (1984), p. 62.

Page 156: 0 análisis epistemológico ii, 2011

Patricia Britos

156

leibniziana de que la división es necesaria para conseguir la unidad y puede ser explicada por esta función latente6.

El debate generado por Elster, tendrá diferentes respuestas; Cohen apuesta a la explicación funcional diciendo que el desarrollo de la capacidad productiva del hombre y que las formas de sociedad surgen y desaparecen en la medida en que permiten y promueven, o impiden y obstaculizan, ese desarrollo7. Para justificar su adhesión a la explicación causal que ha sido tan criticada por Elster, Cohen la explica como sigue:

Supongamos que tenemos una causa, e, y su efecto, f. En ese caso la forma de la explicación no es: ocurrió e porque ocurrió f (esto haría de la explicación funcional la imagen invertida de una explicación causal ordinaria, con lo que la explicación funcional tendría el defecto fatal de presentar un hecho ocurrido después como explicación de otro anterior). Tampoco se debe decir que la forma de explicación es “ocurrió e porque causó f”. Imperativos similares de la explicación y el orden temporal descartan esta posibilidad: en el momento en que e ha causado f, ha ocurrido e, de modo que el hecho de que causara f no puede explicar que ocurriera. La única posibilidad restante, que por consiguiente elegimos, es: ocurrió e porque causaría f, o, dicho menos concisamente pero con más propiedad, ocurrió e porque la situación era tal que cualquier suceso del tipo E causaría un suceso del tipo F. (Las minúsculas representan frases que dan cuenta de sucesos particulares y las mayúsculas, tipos de sucesos)8.

Cohen concluye que una explicación funcional es una explicación en la que un hecho disposicional explica que ocurriera el tipo de suceso mencionado en el antecedente de la hipótesis que especifica la disposición. Las llama “leyes de consecuencia” y la forma es (E�F)�E. Lo curioso es que tras exponer que las principales tesis del marxismo son explicativas porque las superestructuras mantienen unidas las bases y las relaciones de producción, controlan el desarrollo de las fuerzas productivas, de lo que Marx era consciente, recuerda que sin embargo afirma que el carácter de la superestructura se explica por la naturaleza de las fuerzas productivas. Por ende, Cohen afirma que “[s]i las explicaciones propuestas son funcionales,

6 Elster (1984), p. 27. 7 Cohen (1984), ver p. 64. 8 Cohen (1984), p. 67.

Page 157: 0 análisis epistemológico ii, 2011

Marxismo analítico

157

nos encontramos con una coherencia entre el efecto de A sobre B y la explicación de A por B, y no conozco otra manera de hacer que el materialismo histórico sea coherente”9.

IV

En este trabajo insisto especialmente con la crítica de Elster a la explicación funcional y de Cohen a la posición de de Elster ya que me parece que el debate está muy bien representado por ellos dos. Cohen no desecha de plano la teoría de los juegos en el análisis marxista, sino que la ubica en relación con tesis cercanas al centro del materialismo histórico, pero no en el centro de éste. Ahora, pasemos a comentar cuáles son las ventajas y desventajas de las teorías que se basan en el individualismo metodológico y por qué es rechazada muchas veces más por cierto prejuicio moral que por su utilidad. Existiría un error al relacionar al individualismo metodológico con el individualismo en el sentido político y ético; esto es un error muy común entre los que no han estudiado suficientemente la metodología aludida. Elster dice que, en realidad, es “la doctrina de que todos los fenómenos sociales (su estructura y su cambio) sólo son en principio explicables en términos de individuos (sus propiedades, sus objetivos y sus creencias)”10. Siguiendo con este argumento, sostiene que esta doctrina no es incompatible con tres enunciados verdaderos: 1) que los individuos a veces tienen objetivos que afectan el bienestar de otros; 2) que se puede prensar algo sobre una entidad supraindividual aunque no se piense lo mismo de un integrante de ese grupo o entidad; 3) que las propiedades son relacionales ya que se es poderoso, por ejemplo, en referencia a otros. Además, agrego, es muy común escuchar críticas que se basan en el hecho de que la teoría de los juegos y la de la decisión se desarrollan a través de los instrumentos de la matemática y esto no tiene buena recepción por parte de algunos investigadores, como tampoco tiene buena recepción la idea de que estas teorías son de tipo estratégico y, por ende, se ocupa de cómo hacer algo y no de si está bien hacerlo.

9 Cohen (1984), p. 68. 10 Elster (1984), p. 22.

Page 158: 0 análisis epistemológico ii, 2011

Patricia Britos

158

En realidad, la teoría económica marxista actualmente está en busca de microfundamentos que puedan ofrecer una base sólida para teoría y aquí es donde se ubica el individualismo metodológico. La teoría del Estado y de la ideología marxistas están en crisis, según Elster, porque no ayuda a crear y reforzar la hegemonía ideológica a nivel del individuo. A pesar de tener una gran disidencia con Elster, comparto su posición cuando insiste en que “la psicología social debería ser a la teoría marxista de la ideología lo que la microeconomía es a la teoría económica marxista. Sin un profundo conocimiento de los mecanismos que actúan al nivel individual, las grandes reivindicaciones marxistas acerca de las macroestructuras y el cambio a largo plazo están condenadas a permanecer en un nivel especulativo”11.

Marx creía que a la clase capitalista le convenía tener un Estado no capitalista (por ejemplo, aristocrático en Inglaterra, de jerarquía imperial en Francia), un Estado aparentemente por encima de las clases. ¿Por qué elegimos hacer una cosa y no otra? Esto es la acción a través de filtros; se descartan las acciones que no podemos emprender por restricciones físicas, económicas, legales o psicológicas y se analiza qué acción puede realizarse realmente. Los principales mecanismos para alcanzar los mejores resultados son la elección racional y las normas sociales, aunque estas últimas tienen menos importancia. Las acciones se explican mediante oportunidades y deseos por lo que la gente desea hacer y por lo que puede hacer, obviamente, esta es una posición muy distinta de la metodología marxista clásica que tiene una visión más comprensiva y determinista, de hecho la teoría marxista es una filosofía de la historia a través de la cual se plantea una única idea que tendrá su evolución a través del acontecer histórico y que no podrá ser desviada por intereses individuales.

A Elster le atrae la teoría racional por su carácter normativo ya que ofrece imperativos condicionales resultado de la racionalidad instrumental que sólo se ocupa de cómo alcanzar lo que se quiere y no de cuáles deberían ser las metas, es decir, no se trata de una racionalidad de los fines. Hay tres elementos que forman parte de un conjunto de conceptos

11 Elster (1984), pp. 22-3.

Page 159: 0 análisis epistemológico ii, 2011

Marxismo analítico

159

básicos: 1) el conjunto de cursos de acción factibles que satisfacen constreñimientos lógicos, físicos y económicos; 2) el conjunto de creencias racionales, la estructura de la situación que determina los cursos de acción; 3) el ranqueo subjetivo las alternativas factibles. Así, actuar racionalmente, entonces, simplemente significa elegir el elemento más alto en el ranqueo en el conjunto factible.

V

Adam Przeworski12 remarca que ya no se diferencia el marxismo y la “ciencia social burguesa”. Sostiene que la conducta individual era considerada por los marxistas como la realización de unas posiciones de clase, y por los economistas burgueses como una acción racional egoísta. Le parece sumamente difícil “la tarea de comprender la historia como resultado de unas acciones individuales”, él cree que la teoría de la acción individual debe contener más información contextual de lo que admite el actual paradigma de elección racional si se quiere decir que hay una teoría de la historia. Aquí está presente, como ya antes lo he comentado, la idea del marxismo de que todo lo que sucede en la historia es producto de acciones colectivas exclusivamente; entonces, el individualismo metodológico atenta contra la teoría marxista y contra la de la historia. El problema surge porque no se puede pensar en las acciones individuales suscitadas por la pertenencia a una clase. Las explicaciones histórico-políticas son extremadamente difíciles de enunciar. Si se es individualista metodológico resulta difícil explicar por qué se producen acciones colectivas, de qué forma se comunican y solidarizan los individuos alrededor de un tema que les interesa; si se es clasista no es fácil explicar que algunas acciones no responden a intereses de clase, que probablemente son otros los incentivos que llevan a los individuos a actuar conjuntamente, sin pertenecer a la misma clase social.

Con respecto a la cuestión de los cálculos estratégicos, Przeworski dice que en la mayor parte del tiempo, son posibles y se cumplen, y por esta razón, no rechaza la teoría de los

12 Przeworski (1987).

Page 160: 0 análisis epistemológico ii, 2011

Patricia Britos

160

juegos en general y el concepto de equilibrio en particular. Sin embargo, se pregunta ¿qué equilibrio?13

Marcur Olson se interesó en el motivo por el cual un obrero decide agremiarse, ¿es acaso por conciencia de clase? Su opinión sobre las probables acciones clasistas es que no son tales en tanto los individuos que componen la clase actúan racionalmente. No concibe la idea de que una persona racional actúe en grupo para alcanzar beneficios colectivos, y sostiene que sólo un incentivo individual para conseguir bienes privados sirve de motivación para reunirse y actuar como si compartieran idénticos intereses. Es decir, si creen que reunirse y actuar juntos les va a dar mayores beneficios individuales, optan por esta alternativa, de otra forma, no actúan colectivamente de forma espontánea. En esta polémica entre decisiones individuales o colectivas, parece que ganan las primeras a la hora de intentar hacer demostraciones rigurosas porque no se puede encontrar una metodología adecuada que exprese las preferencias de cada uno de los miembros de la sociedad y, además, respete los principios ideológicos marxistas.

VI

Aquí voy a explicar cuál es mi opinión sobre esta cuestión. En definitiva, yo concibo las explicaciones desde el individualismo metodológico, por lo tanto, me resulta difícil lidiar con decisiones colectivas que no se abren para ver las tuercas y tornillos. Y, como creo en que toda etapa histórica está invadida por individualidades, opino que cuando se dan cambios muy fuertes, es porque no había muchas alternativas a elegir y, en la mayoría de los casos, se dio una elección estratégica. No se dan muchas decisiones del tipo “ganador Condorcet” en la sociedad, es difícil pensar en algo como la unanimidad. Es probable que en situaciones donde las condiciones políticosocioeconómicas son totalmente inadecuadas, hay necesidades básicas insatisfechas, pérdida de derechos y libertades, se pueda producir un consenso de realizar una revolución, pero el concepto de consenso en ese caso no sería el

13 Ver. Przeworski (1987), p. 131.

Page 161: 0 análisis epistemológico ii, 2011

Marxismo analítico

161

de unanimidad ya que seguramente aparecerían excepciones. Este término es polémico porque la política utiliza mayormente palabras de tipo coloquial al hacer referencia a ciertos fenómenos, por ende, cuando hablamos de consenso dentro de la sociedad, seguramente se está tratando con la idea de la mayor cantidad de gente posible, difícilmente con la preferencia sobre una alternativa de parte de todos y cada uno de los miembros del grupo.

He planteado la exposición sobre el marxismo analítico para mostrar un problema metodológico con difícil solución, especialmente porque tropieza con un intenso sentimiento ideológico. No parece muy fácil que la mayoría de los marxistas dejen de lado ciertos aspectos de la doctrina para reacomodarla a un modelo que puede darles ciertos resultados investigativos. No ocurre eso con los marxistas analíticos que hacen un gran esfuerzo para encajar el individualismo metodológico extrayendo del marxismo la lucha de clases que resulta un obstáculo para este cambio de horizonte. Hay fuertes objeciones desde el marxismo que sostienen que este entusiasmo por el individualismo metodológico no justifica el abandono de principios tan fuertes como el motor de la historia. También desde otras posiciones teóricas que directamente no comprenden esta vuelta de tuerca (me incluyo en este grupo).

Bibliografía Acuña, Carlos (1987), “¿Racionalidad política versus racionalidad económica?

Notas sobre el modelo neoclásico de acción colectiva y su relación con la teoría y método del análisis político”, Revista Argentina de Ciencia Política, nº 1, noviembre.

Casal, Paula (2010), “Marxismo Analítico”, en Román Reyes (Dir.), Diccionario crítico de ciencias sociales, ucm.es/info/…/marxismo_analítico.htm, pp. 1-5.

Cohen, G. A. (1984), “Réplica a « Marxismo, funcionalismo y teoría de juegos» de Elster”, Zona Abierta 33, (octubre-diciembre), pp. 63-80.

Elster, Jon (1984), “Marxismo, funcionalismo y teoría de juegos. Alegato a favor del individualismo metodológico”, Zona Abierta 33, (octubre-diciembre), pp. 21-62.

Elster, Jon (Ed.) Rational Choice Gargarella, Roberto (1995), “Marxismo Analítico, el marxismo claro”, Doxa¸ 17-

18, pp. 231-55. Przeworski, Alan, "Marxismo y elección racional", Zona Abierta, N° 45,

diciembre de 1987, pp. 97-136..

Page 162: 0 análisis epistemológico ii, 2011
Page 163: 0 análisis epistemológico ii, 2011

M. B. Hirose, Análisis Epistemológico II, Martín, Mar del Plata, pp. 163-173.

UNIVERSALISMO Y RELATIVISMO EN ANTROPOLOGÍA

ANGLOSAJONA DE FINES DEL SIGLO XX. UNA APROXIMACIÓN

DESDE LA SEMIÓTICA1

María Belén Hirose

Introducción: “Un espectro atormenta al pensamiento humano: el relativismo” (Ernest Gellner, 1986)

La antropología, en la tradición académica occidental, surge cuando las sociedades no occidentales son tomadas como objeto de indagación científica. La diferenciación entre "nosotros y ellos" provino principalmente de la percepción de diferencias empíricas. Ahora bien, algunos se apoyaron en estas diferencias para enfatizar los elementos en común subyacentes a la diversidad, focalizando sus esfuerzos en la formulación de reglas universales, mientras que otros se concentraron en la riqueza de la diversidad en sí misma, ubicándose en la postura conocida como relativismo cultural.

Durante las décadas de 1980-1990, se dio un debate alrededor de la posición de los relativistas culturales, especialmente en su versión posmoderna. Bajo el rótulo de posmodernos se ubicó a un conjunto heterogéneo de tendencias que pusieron en cuestión la forma tradicional de realizar antropología. Sus propuestas iban desde un abandono total del naturalismo en favor del historicismo, hasta una total negación de la posibilidad de acceder a la realidad más allá de los sistemas de significado, focalizándose primordialmente en la escritura de las etnografías (este punto extremo representado por Derrida y sus seguidores). Como señala Barnard "Lo que estas tendencias tienen en común es una visión de la Antropología como un rechazo del método científico, el reconocimiento de la importancia de la escritura, y un intento de obtener una comprensión profunda a través del entendimiento humano antes que de métodos formales de investigación y análisis" (2000: 159, mi traducción). Estas

1 Este artículo fue escrito como monografía final del curso "Background to Contemporary Anthropology" dictado por Alan Barnard, en la University of Edinburgh de octubre a diciembre de 2001.

Page 164: 0 análisis epistemológico ii, 2011

María Belén Hirose

164

posiciones han creado una sensación de estancamiento en la capacidad de la antropología para generar conocimiento inteligible, útil o incluso interesante (Jarvie 1984; Gellner 1992; Spiro 1992; Layton 1997).

Partiré de un texto literario, "El etnógrafo" de Jorge Luis Borges (1969), para iluminar y discutir las diversas aristas del debate, centrándome en el racionalismo propuesto por Ernest Gellner (1985; 1992), el anti-antirrelativismo de Clifford Geertz y, finalmente, en las posturas desarrolladas en Writing Culture, compilación de James Clifford y Georges Marcus. (El relato de Borges se reproduce en la página 173). Contra el relativismo: el racionalismo

Ernest Gellner, uno de los principales críticos del relativismo cultural, argumenta que la posición relativista es una contradicción ya que “(…) no hay lugar para la afirmación del relativismo en un mundo donde el relativismo es verdadero” (Gellner 1992: 85, mi traducción). Ahora bien, como intuición que nace a partir del hecho de la diversidad, la encuentra entendible. Sin embargo, rechaza de llano que una intuición sea regla de la explicación científica, ya que si la intuición de que “toda verdad es relativa a la cultura en la que cobra sentido” fuera correcta, una práctica como la antropología intercultural no tendría razón de ser y todos los etnógrafos deberían seguir el camino recorrido por el etnógrafo borgeano. Por el contrario, lo que Gellner observa es que “(…) ningún antropólogo, que yo sepa, ha regresado del trabajo de campo con el siguiente informe: sus conceptos son tan diferentes que es imposible describir su sistema de posesión de tierras, su sistema de parentesco, sus rituales… hasta lo que conozco, no existe semejante admisión de fracaso.” (1985: 86, mi traducción). Su evidencia en contra de la imposibilidad de explicación no sólo se sustenta en la existencia de abundantes y crecientes textos antropológicos que tratan de comprender sociedades extranjeras (que, al fin y al cabo, podrían ser intentos malogrados), sino principalmente en su convicción en la inevitabilidad de un tipo cognitivo, el utilizado por las ciencias sociales occidentales, que hace al conocimiento posible y necesario. Su posición, que denomina Fundamentalismo

Page 165: 0 análisis epistemológico ii, 2011

Universalismo y relativismo en antropología anglosajona de fines del siglo XX

165

Racional Iluminista, es una clara opción por la Ciencia Occidental como la mejor manera de construir el mundo a ser comprendido. Su crítica más fuerte al relativismo es que impide diagnosticar cómo es el mundo hoy:

“(…) la pregunta sobre por qué el mundo es tan asimétrico, por qué hay un deseo desesperado de imitar el éxito de una forma de cognición, y por qué hay una discrepancia entre los campos en los que el éxito es alcanzado y aquellos en los que está ausente. La objeción real y contundente al relativismo no es que proponga una falsa solución (aunque lo hace), sino que impide que veamos y formulemos nuestro problema.” (1992: 62, mi traducción).

En otras palabras, Gellner afirma que en el mundo académico no hay lugar para dar igual valor hermenéutico a todos los sistemas de significados en los que los problemas del mundo contemporáneo – como la asimetría, una característica no relativa – no pueden ser formulados con justeza.

Antropología interpretativa: Clifford Geertz

La antropología interpretativa plantea una solución diferente a la disyuntiva planteada por Borges. Tras su regreso del campo, Fred Murdock encuentra que las categorías de la ciencia occidental ya no tienen sentido para él y opta por el silencio total. Muy por el contrario, Geertz (1973) profesa una profunda fe en la antropología, en tanto medio para encontrar las respuestas que otros han dado a las preguntas que motivan a la indagación científica. Así, la perspectiva geertziana puede ser pensada como un escape a la trampa de inefabilidad de un sistema cognitivo que resulta a primera vista opaco. Él considera que “La noción de que una sólida compresión de casos particulares, amorfos e incongruentes, incluso únicos, es un objetivo tan propio de las ciencias como la formulación abstracta de regularidades sin excepciones - y que es, comúnmente, más iluminador - ha crecido en aceptación en el último cuarto de siglo en tanto que el racionalismo trastabilló, el positivismo se evaporó, y «la cara prismática de Newton» (la imagen es de Wordsworth) se desvaneció.” (Geertz 2000: x, mi traducción). Por otro lado, Geertz sostiene que el etnógrafo nunca deja de ser un investigador y no puede, como sí hizo

Page 166: 0 análisis epistemológico ii, 2011

María Belén Hirose

166

Murdock, sentir y pensar como un nativo. Al considerar su investigación sobre las diferentes construcciones de la persona sostiene: “El etnógrafo no percibe, y en mi opinión en general no puede percibir, lo que sus informantes perciben.” Y en el párrafo siguiente: “y en cada caso, intenté llegar a las nociones más íntimas no imaginándome ser otro, (…), y luego observando qué pensé (…)”. Alternativamente, su esfuerzo interpretativo se concentra en “descubrir y analizar las formas simbólicas (…) en términos de las cuales, en cada lugar, la gente se presenta ante sí misma y entre sí.” (Geertz 2000: 58, mi traducción2). En otras palabras, él nunca deja de ser un investigador, nunca se convierte en un nativo. Es a través de sus propios recursos culturales que intenta comprender los mecanismos a través de los cuales otras personas construyen conceptos y significados.

Writing Culture La etnografía, o cualquier informe escrito, es central al método etnográfico, ya que es el momento en que el investigador cristaliza su investigación, haciendo públicos sus hallazgos. Durante el proceso despliega estrategias específicas – conscientemente o no – para seleccionar, presentar y analizar los datos que generó durante su trabajo de campo. La atención exclusiva a este proceso fue la característica de los antropólogos reunidos en el congreso “The making of Ethnographic Texts” que tuvo lugar en Santa Fe, Nueva México, Estados Unidos de America, y que dio lugar a la compilación editada por James Clifford y Georges Marcus, titulada “Writing Culture” (1986). En la introducción, los editores sostienen que “Los ensayos en este volumen no afirman que la etnografía sea sólo «literatura». Sí insisten en que es siempre escritura” (1986: 26, mi traducción3). Este ramillete de aproximaciones asociadas al giro

2 Edición castellano de 1994. Conocimiento Local. Barcelona: Paidós. Pp. 76-77. 3 Writing Culture fue traducido como Retóricas de la antropología. La traducción no logra reflejar las ideas de los autores. Sólo, a modo de ejemplo, la oración que acabo de citar fue traducida de la siguiente manera: "No sugieren estos ensayos que la etnografía sea sólo literatura. Lo demuestran a través de su escritura" (!!!).

Page 167: 0 análisis epistemológico ii, 2011

Universalismo y relativismo en antropología anglosajona de fines del siglo XX

167

lingüístico en antropología, han hecho uso de conceptos lingüísticos para el análisis de la antropología.

Los ensayos reunidos en Writing Culture, se observa críticamente el rol del etnógrafo en tanto escritor:

“La escritura y lectura de una etnografía están sobredeterminadas por fuerzas que, en última instancia, están más allá del control del autor o de la comunidad interpretativa. Estas contingencias – de lenguaje, retórica, poder e historia – deben ser abiertamente confrontadas en el proceso de escritura” (1986: 25, mi traducción). Estas limitaciones permean el entramado del texto a

través del autor, cuando éste intenta retratar otras culturas. En esta línea de pensamiento, el escritor se convierte en una figura central en la construcción del texto – y por “escritor” en este contexto no sólo se entiende a la persona que escribe y su idiosincrasia personal, sino las fuerzas lingüísticas, retóricas, históricas y de poder que se expresan a través de él.

Las posturas pensadas en términos lingüísticos

Podemos recurrir al modelo lingüístico de Ferdinand de Saussure (1998[1916]) para traducir el debate a términos sencillos. Tradicionalmente, la etnografía fue considerada como el significante de una “realidad” significada (ver la figura más abajo). Es mi hipótesis que cuando se planteó el problema del escritor (y lo escrito), los analistas trataron de posicionar al etnógrafo-escritor en la estructura saussureana del signo lingüístico. Al hacerlo, quitaron al significante su pretensión de representar objetivamente la realidad, y lo substituyeron por la figura del etnógrafo-escritor. La consecuencia de este enroque, fue que no quedara espacio para la realidad, lo que provocó las acusaciones sobre oscurantismo e imposibilidades de conocimiento antropológico desde esta perspectiva.

Para continuar con el análisis del debate, introduciré el modelo peirceano del signo. A diferencia de Saussure, la principal preocupación de Peirce no era el lenguaje, sino los signos en general (su ontología era de un mundo de terceridad, es decir, de signos). Su modelo de signo tiene tres componentes: un objeto o representamen, un interpretamen y un signo (el nombre del tercer componente es el mismo que el conjunto).

Page 168: 0 análisis epistemológico ii, 2011

María Belén Hirose

168

Muy brevemente: el representamen es aquello que es representado, el interpretamen (que no es el intérprete) es una convención o regla de interpretación; el tercer elemento o signo, es el resultado de la relación entre los otros dos términos y está simétricamente relacionado con ellos. Con este modelo, no hace falta desentenderse de la realidad (o del estímulo que percibimos, más allá del nombre que reciba en cada teoría) para poder introducir al etnógrafo. Éste ingresaría en el lugar del interpretamen, en tanto que es a través de él que las convenciones y las fuerzas históricas, políticas, retóricas, etc, entrarían a conformar el signo. La representación sería la siguiente:

De esta manera, la etnografía no sería un reflejo del etnógrafo, sino que se presenta como resultado de la interacción entre las convenciones de investigación desplegadas por el etnógrafo (con todas las fuerzas que lo atraviesan) y la cultura que intenta

Page 169: 0 análisis epistemológico ii, 2011

Universalismo y relativismo en antropología anglosajona de fines del siglo XX

169

comprender. No es mi intención reducir la crítica posmoderna a este único problema. Mi intención fue postularlo de manera diferente (y desde mi punto de vista sencillamente) para evitar el desmembramiento del trabajo antropológico en relación con la realidad. En cierto sentido, este modelo trata de reconciliar las valiosas contribuciones del posmodernismo con la posibilidad de conocimiento antropológico programático en un lenguaje que les es familiar: el de la semiología.

Las diferentes perspectivas en interacción Ahora que delineé las tres posiciones, me gustaría considerarlas en relación a la pregunta sobre la posibilidad de la antropología después de posmodernismo.

lo que generalmente la caracteriza [a la ciencia] (…) es que a las verdades establecidas son etiquetas y ordenadas en los estantes mentales de los científicos (…) mientras que las ciencias en sí mismas, el proceso viviente, está ocupada mayormente con las conjeturas, que están siendo enmarcadas o testeadas. Cuando ese conocimiento sistematizado de los estantes es usado, es usado exactamente de la misma manera en que un fabricante o un médico lo podría usar; es decir, es simplemente aplicado. Si alguna vez se convierte en el objeto de la ciencia, es porque en el avance de la ciencia ha llegado el momento en el que tiene que sufrir un proceso de purificación o transformación. (Peirce 1957 (1902): 189, mi traducción).

El debate alrededor del relativismo ha llegado al punto

descripto por Peirce a principios del siglo XX. El posmodernismo (especialmente tal como se manifiesta en Writing Culture pero también en otras tendencias que no traté aquí, como el feminismo), ha focalizado su mirada hacia el conocimiento “en los estantes”: ¿se buscará una purificación o transformación?

Encuentros y divergencias Entre los artículos que participan del debate entre relativistas y no relativistas, hay acuerdos evidentes. En efecto, todos participan de la tradición occidental y, como Gellner resalta enfáticamente, las culturas han estado en contacto hace tiempo

Page 170: 0 análisis epistemológico ii, 2011

María Belén Hirose

170

y hay una prevalencia del patrón desarrollado por la sistema cognitivo occidental. Por otro lado, sin importar cuál posición epistemológica defienden, ninguno cree que el conocimiento sea irrefutable o permanente. En la misma dirección, tanto Geertz como Gellner creen que el tipo cognitivo occidental es sólo “un caso entre otros” (Geertz 1983: 16). La diferencia consiste en que mientras que el objetivo de Geertz es relativizar el conocimiento establecido ampliando el discurso humano con el conocimiento de otras miradas, Gellner argumenta porqué la occidental es la más adecuada.

También hay encuentros en la manera en que se describen. El debate no surge de una incomprensión sobre lo que el otro dice, sino de la evaluación que hacen sobre cuál es la mejor manera de comprender a los grupos humanos, en sus dimensiones culturales y sociales. La preferencia se reflejará en las técnicas y/o métodos que elijan. Una persona interesada en los universales optará por el método científico para generar conocimiento público replicable (si algo es universal, podrá testearse tantas veces como sea querido). En cambio, si la posición es que las generalizaciones inter-culturales no son válidas (y si lo fueran no tendrían poder explicativo porque serían muy superficial) el interés se volcará a las particularidades y una aproximación interpretativa se elevará como el método más adecuado.

El rol de la teoría también será evaluado diferencialmente. Jarvie (1984), del lado del racionalismo, considera que uno siempre parte de una teoría. Por eso, es necesario ser consciente de ella para estar atentos a cómo esa teoría puede moldear la manera en que leemos la realidad. Del lado del posmodernismo, la teoría está bajo sospecha. Las teorías no servirían para discernir qué hechos son más relevantes a un tema sino que, por el contrario, serían una fuente de distorsión: uno selecciona los hechos y genera datos para confirmarlos. Esta es la posición expresada por Marcus (1986) en su artículo “Problemas Contemporáneos de la Etnografía en el Sistema Mundial Contemporáneo” sobre los intentos de combinar teorías estructurales inter-culturales con técnicas de investigación cualitativas.

Page 171: 0 análisis epistemológico ii, 2011

Universalismo y relativismo en antropología anglosajona de fines del siglo XX

171

¿Cómo se define una disciplina? ¿Se requiere o necesita una reconciliación? ¿Cuántas diferencias pueden existir al interior de una disciplina? ¿Son las miradas irreconciliables? Mientras los participantes del debate tengan posturas extremas, no pareciera que puedan mantenerse unidos. Geertz parece preso de su propia retórica y su pretensión de liderar una revolución metodológica. Aunque admire su intención de buscar nuevas maneras de entender lo humano, su postura epistemológica (a diferencia de su trabajo etnográfico) es extrema. En relación a Writing Culture, el reconocimiento –importantísimo- de los límites de nuestra comprensión no debe ser un motivo para abandonar el intento por conseguir la mayor objetividad posible. Finalmente, más allá del reconocimiento del carácter provisional de toda explicación científica, la postura general de Gellner, su fuerte convicción en que el tipo cognitivo occidental es el mejor, el más poderoso e inevitable, resulta intimidante y rígida.

Pero cuando las diferencias son de grado, una aproximación combinada puede ser negociada. A este respecto, Melfor Spiro (1997) distinguió tres tipos de relativismo cultural: descriptivo, normativo y epistemológico. Es este último que socava las posibilidades del conocimiento antropológico. Spiro reorganiza los elementos del debate diferenciando método de técnica:

Si las técnicas científicas consisten en procedimientos empíricos usados para obtener datos, el método científico consiste en la lógica o racionalidad de acuerdo con la cual esos datos son juzgados relevantes, adecuados o suficientes para la aceptación o refutación de una hipótesis, ya sea explicativa o interpretativa. Teniendo en cuenta esta distinción, argumentaré que cuando la tradición hermenéutica sostiene que la comprensión, imaginación, empatía, etc. marcan un hito entre las ciencias humanas y físicas, confunde su rol como método en el contexto de validación. (Spiro 1997: 139, mi traducción).

Al hacer esto, Spiro no desestima las críticas hermenéuticas. Por el contrario, las incorpora al método científico como forma de generación de información. Y va un paso más allá considerando que “es sólo al asumir que los motivos, intenciones, etc. son

Page 172: 0 análisis epistemológico ii, 2011

María Belén Hirose

172

causas, que no es sólo importante, sino crucial, el estudio de los significados.” (Spiro 1997: 138). Así, la explicación y la interpretación (en el sentido weberiano) como objetivos de la ciencia no son necesariamente excluyentes.

Conclusión Sin duda, la antropología ha ganado desde el posmodernismo y sus precursores (como la hermenéutica, el feminismo, la reflexividad, el orientalismo) pero tiene que mirar hacia adelante. Esto no significa volver a los viejos modelos, sino asumir las revisiones críticas para incorporarlas y seguir generando conocimiento útil o interesante. Bibliografía Barnard, A. 2000. History and Theory in Anthropology. Cambridge: Cambridge

University Press. Borges, J.L. 1969. Elogio de la Sombra. Buenos Aires: Emecé. Clifford, J. and Marcus, G. (ed) 1986 Writing Culture. University of California

Press: California. Foulcault, M. 1999. (1970). El orden del discurso. Barcelona: Tusquets. Geertz, C. 1973. The interpretation of Cultures. New York: Basic Books. Geertz, C. 2000. (1983). Local Knowledge. Further essays in Interpretive

Anthropology. New York: Basic Books. Geertz, C. 1984. “Anti anti relativist” American Anthropology, N84: 263-68. Gellner, E. 1985. Relativism and the social sciences. Cambridge: Cambridge

University Press. Gellner, E. 1992. Postmodernism, Reason and Religion. London, New York:

Routledge. Greenlee, D. 1973. Peirce’s concept of Sign. Mouton: Paris. Jarvie, I.C. 1984. Rationality and Relativism. London: Routledge and Kegan Paul Layton, R. 1997. An Introduction to Theory in Anthropology. Cambridge:

Cambridge University Press. Peirce, C. S. 1957. Essays in the philosophy of science. USA: Liberal Arts Press. Saussure, F. 1998. (1916). Curso de Lingüística General. Buenos Aires: Losada Spiro, M. 1992. “Cultural Relativism and the Future of Anthropology” In

Marcus, G. E. (ed) Re reading cultural Anthropology. Durham and London: Durkle University Press.

Verón, E. 1997. La Semiosis Social. Gedisa: Barcelona.

Page 173: 0 análisis epistemológico ii, 2011

Universalismo y relativismo en antropología anglosajona de fines del siglo XX

173

EL ETNÓGRAFO El caso me lo refirieron en Texas, pero había acontecido en otro estado. Cuenta con un solo protagonista, salvo que en toda historia los protagonistas son miles, visibles e invisibles, vivos y muertos. Se llamaba, creo Fred Murdock. Era alto a la manera americana, ni rubio ni moreno, de perfil de hacha, de muy pocas palabras. Nada singular había en él, ni siquiera esa fingida singularidad que es propia de los jóvenes. Naturalmente respetuoso, no descreía de los libros ni de quienes escriben los libros. Era suya esa edad en que el hombre no sabe aún quién es y está listo a entregarse a lo que le propone el azar; la mística del persa o el desconocido origen del húngaro, las aventuras de la guerra o el álgebra, el puritanismo o la orgía. En la universidad le aconsejaron el estudio de las lenguas indígenas. Hay ritos esotéricos que perduran en ciertas tribus del oeste; su profesor, un hombre entrado en años, le propuso que hiciera su habitación en una reserva, que observara los ritos y que descubriera el secreto que los brujos revelan al iniciado. A su vuelta, redactaría una tesis que las autoridades del instituto darían a la imprenta. Murdock aceptó con alacridad. Uno de sus mayores había muerto en las guerras de la frontera; esa antigua discordia de sus estirpes era un vínculo ahora. Previó, sin duda, las dificultades que lo aguardaban; tenía que lograr que los hombres rojos lo aceptaran como uno de los suyos. Emprendió la larga aventura. Más de dos años habitó en la pradera, entre muros de adobe o a la intemperie. Se levantaba antes del alba, se acostaba al anochecer, llegó a soñar en un idioma que no era el de sus padres. Acostumbró su paladar a sabores ásperos, se cubrió con ropas extrañas, olvidó los amigos y la ciudad, llegó a pensar de una manera que su lógica rechazaba. Durante los primeros meses de aprendizaje tomaba notas sigilosas, que rompería después, acaso para no despertar la suspicacia de los otros, acaso por que ya no las precisaba. Al término de un plazo prefijado por ciertos ejercicios, de índole moral y de índole física, el sacerdote le ordenó que fuera recordado sus sueños y que se los confiara al clarear el día. Comprobó que en las noches de luna llena soñaba con bisontes. Confió estos sueños repetidos a su maestro; éste acabó por revelarle su doctrina secreta. Una mañana, sin haberse despedido de nadie, Murdock se fue. En la ciudad sintió la nostalgia de aquellas tardes iniciales de la pradera en que había sentido, hace tiempo, la nostalgia de la ciudad. Se encaminó al despacho del profesor y le dijo que sabía el secreto y que había resuelto no revelarlo.

-¿Lo ata su juramento? – preguntó el otro. -No es esa mi razón –dijo Murdock–. En esas lejanías aprendí algo que no puedo decir. -Acaso el idioma inglés es insuficiente– observaría el otro. -Nada de eso, señor. Ahora que poseo el secreto, podría enunciarlo de cien modos distintos y aun contradictorios. No sé muy bien cómo decirle que el secreto es precioso y que ahora la ciencia, nuestra ciencia, me parece una mera frivolidad.

Agregó al cabo de una pausa: -El secreto por lo demás, no vale lo que valen los caminos que me condujeron a él. Esos

caminos hay que andarlos. El profesor le dijo con frialdad: -Comunicaré su decisión al Consejo. ¿Usted piensa vivir entre los indios?. Murdock le contestó: -No. Tal vez no vuelva a la pradera. Lo que me enseñaron sus hombres vale para

cualquier lugar y para cualquier circunstancia. Tal fue en esencia el diálogo. Fred se casó, se divorció y es ahora uno de los bibliotecarios de Yale.

Page 174: 0 análisis epistemológico ii, 2011
Page 175: 0 análisis epistemológico ii, 2011

Gastón Gil, Análisis Epistemológico II, Ed. Martín, Mar del Plata, pp. 175-186.

CIENCIA, CIENTIFICISMO Y LIBERACIÓN NACIONAL.

LAS CIENCIAS SOCIALES Y LOS DEBATES EPISTEMOLÓGICOS DE

LOS SESENTA Y LOS SETENTA EN LA ARGENTINA

Gastón Julián Gil

Cientificismo y ciencias sociales

El foco que en este artículo se coloca sobre el concepto de cientificismo radica en su recurrencia durante los debates originados en la década del sesenta en las ciencias sociales argentinas, por lo general en el marco de las universidades nacionales. Allí, el cientificismo aparecía no sólo de un modo reiterado y omnipresente sino que podía adquirir variados significados hasta cristalizarse mayormente en un estigma para los científicos sociales. Esas acusaciones, en su mayoría explícitas, operaban como marcas desacreditadoras que no sólo ponían en discusión la producción “científica” de los involucrados sino que además comprometía su propia moral. En efecto, el rótulo de cientificismo se transformó es un estigma de un profundo contenido moral, que daba cuenta de una condición vergonzante.

En la Argentina, como señala Sarlo, se entendió tempranamente como cientificismo a aquellas “posiciones que cortaban los nexos entre políticas científicas y política reivindicando la autonomía de la investigación (2001: 71) y que también enfatizaban la importancia de separar las tareas de investigación de la injerencia directa de los gobiernos, a los que se les asignaba la indelegable misión de financiarlas. En ese marco, la misma autora considera que Bernardo Houssay fue “el primer «cientificista»” (Ibíd.: 71), ya que además “estaba convencido de que la investigación científica debía articularse con la docencia universitaria y esa fue la práctica que ya había establecido en su cátedra de la Facultad de Medicina de la UBA, antes de ser expulsado durante el primer gobierno de Perón” (Sarlo, 2001: 71). En efecto, Bernardo Houssay planteó expresamente el vínculo entre investigación científica y recursos públicos por un lado, e investigación y docencia por el

Page 176: 0 análisis epistemológico ii, 2011

Gastón Julián Gil

176

otro, sentando parte de los fundamentos para la creación en 1958 del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET), organismo concebido para la organización sistemática de la investigación científica en el país. Ello incluyó, además, la estabilización de estándares de calidad, la evaluación entre pares de la producción académica y la asignación de recursos para investigar. Según Mantegari (1994), las críticas al cientificismo comenzaron a germinar en 1959 a partir de los planteos estudiantiles que se profundizaron un par de años más tarde en el contexto de una radicalización política generalizada, en todos los campos de conocimiento. De hecho, fue en las ciencias exactas y naturales en donde estos cuestionamientos parecen haber encontrado la primera formulación más o menos sistemática a partir de la figura de Oscar Varsavsky. En correspondencia, el cientificismo se fue configurando como una categoría nativa clave en el campo de las ciencias sociales. Esa definición profana ligaba el concepto –en principio- a actitudes elitistas del cuerpo docente, la adhesión a las agendas internacionales de investigación y el financiamiento proveniente del exterior.

En el marco de las universidades argentinas, fue bajo la hegemonía del reformismo entre fines de los cincuenta y principios de los sesenta que la figura del intelectual humanista que intervenía en política quedó legitimada. Esta solidificación de los vínculos entre la cultura y la política fue acompañada además por el desarrollo de las ciencias sociales y la cristalización de un nuevo actor en el campo intelectual, el especialista, típico de la etapa modernizadora y reformista iniciada a finales de los años cincuenta, decidido a ocupar espacios de intervención y planificación en la estructura del estado. Pero a mediados de los años sesenta se perfilaría como dominante en el campo de las ciencias sociales la concepción del intelectual comprometido, que entendía su disciplina como una forma de transformar la sociedad. Esa convicción creciente entre los sectores intelectuales de transformar la sociedad por vía revolucionaria, implicaba la definición del propio espacio universitario como una institución burguesa que debía ser puesta al servicio del interés nacional y popular. El Departamento de Sociología de la Universidad de Buenos Aires (UBA) fue uno de los ejes y escenarios privilegiados de los

Page 177: 0 análisis epistemológico ii, 2011

Ciencia, cientificismo y liberación nacional

177

debates intelectuales de la época, en especial aquellos ligados a la posiciones desarrollistas y las concepciones sobre la ciencia, entre ellas las referidas al financiamiento del exterior. Así fue que, tras crearse la carrera de sociología en 1958 en la Facultad de Filosofía y Letras, y experimentar un proceso de franca expansión en los primeros años de un proyecto académico concebido según los estándares internacionales, los consensos originales se irían quebrando y aflorarían una serie de cuestionamientos de índole político y académico. La figura de Gino Germani, referente indiscutido de la “sociología científica” (Neiburg, 1998; Blanco, 2006) y fundador de la carrera de sociología de la UBA, comenzaría a experimentar firmes oposiciones que desgastarían su proyecto original hasta abandonar la Argentina en 1965 para aceptar un cargo de profesor en la Universidad Harvard. En aquel cuadro situacional, las ciencias sociales, que lograron la definitiva institucionalización en la universidad posperonista, serían cuestionadas -como la universidad toda- severamente por su carácter burgués, y su escaso compromiso con los intereses nacionales y populares y, por ende, la liberación nacional. En ese proceso de radicalización política la relectura del peronismo fue una de las más poderosas divisorias de aguas, como también lo sería la Revolución Cubana.

En ese contexto, como demuestra Noé, las críticas políticas y académicas formuladas a Germani, principalmente por el claustro estudiantil, fueron rompiendo las alianzas originales del proyecto institucional, desatando “una «guerra de todos contra todos»” (2005: 171). Precisamente, uno de los puntos salientes de los cuestionamientos estudiantiles, y de algunos profesores, giraba en torno a la aceptación de subsidios de fundaciones extranjeras. Esos aportes habían sido utilizados para gastos de infraestructura del departamento y en becas de formación en el exterior (especialmente Estados Unidos y Francia) para parte del cuerpo de profesores. Germani alentó al grupo de primeros profesionales de los que se rodeó para fundar la carrera a perfeccionarse fuera del país. Sumado a la llegada habitual de académicos extranjeros y al aporte de las fundaciones filantrópicas, en el imaginario crítico de la militancia estudiantil varios de sus profesores comenzaron a ser ubicados como eslabones del imperialismo norteamericano,

Page 178: 0 análisis epistemológico ii, 2011

Gastón Julián Gil

178

como cientificistas, enemigos y cómplices de la dependencia económica y cultural. Ese tipo de cuestionamientos llegaron a su formulación más sistemática en la década del sesenta con la sociología nacional. En rechazo al cientificismo con el que se caracterizaba la sociología académica dominante de la época, jóvenes sociólogos, principalmente formados en la UBA, rechazaron las formas convencionales de entender la práctica científica, adhiriéndole una connotación altamente peyorativa. Además del repudio al panteón de los próceres de la historia oficial argentina, se le sumaba el rechazo tajante de las más importantes corrientes sociológicas (en especial el estructural-funcionalismo). En ese sentido, las ciencias sociales en el país experimentaron con mayor vigor una directa influencia de esos procesos políticos en el marco de los que comenzó a concebirse a la universidad –y por ende a todas las disciplinas- como un instrumento más para lograr la ansiada “liberación nacional” (Barletta & Lenci, 2001, Barletta & Tortti, 2002). Precisamente, gran parte de las críticas llevadas adelante por aquella sociología nacional giraban en torno a la utilización de la ciencia, sus objetivos ocultos y el destino de los resultados. Todo ellos fueron críticos ejes de debate, atravesados en gran medida por el accionar de la Fundación Ford y sus políticas que financiamiento a la investigación científica, que jamás dejaron de de estar en el centro de la polémica. El anticientificismo de Oscar Varsavsky El destacado investigador Oscar Varsavsky1 cumplió una notoria labor en consolidar tanto la crítica a ciertos mecanismos del campo académico como la idea de un desarrollo científico vinculado estrechamente con los intereses nacionales. Sus contribuciones –quizás por su procedencia de las ciencias duras- impactaron fuertemente en ideas tales como el

1. Oscar Varsavsky (1920-1976) fue un destacado matemático argentino que trascendió especialmente por sus intervenciones vinculadas con las políticas de investigación científica. En particular durante la última década de su vida se volcó a aspectos relacionados con la filosofía de la ciencia.

Page 179: 0 análisis epistemológico ii, 2011

Ciencia, cientificismo y liberación nacional

179

“científico latinoamericano”, guiado por su creatividad y un “espíritu nacional”, dedicado a resolver grupalmente y no de forma individual asuntos problemáticos en la sociedad en la que vive, rechazando las imposiciones y criterios internacionales acerca de qué y cómo se debe investigar. Varsavsky cuestionó sistemáticamente algunas de las reglas del campo científico, como por ejemplo el circuito de publicaciones internacionales, al que caracterizaba como dependiente de la obtención de “padrinos” importantes que garanticen el acceso a esos espacios de consagración. Al deconstruir el circuito que guía al éxito en el campo (publicación de papers, asistencia a congresos, invitaciones a profesores extranjeros, entre otros) aseguraba que la persecución de status en la carrera científica se asemeja a labores de relaciones públicas antes que a producciones de calidad y utilidad para la sociedad. Sostenía, además, que la ciencia no necesariamente progresa gracias a ese circuito ya que, por ejemplo, la producción de papers le quita tiempo de clase a los especialistas, que tienden a considerar de menor relevancia las labores docentes. Según Varsavsky, la actitud cientificista es la de aquel investigador que relega sus deberes sociales por privilegiar su carrera, por lo que alertaba sobre el peligro de incorporar profesores extranjeros en los jurados de los concursos, quizás tendientes a nominar como “anticuados” a aquellos temas de investigación relevantes para la realidad local e imponer tópicos “de moda” en los países centrales. En la misma línea, había cuestionado severamente la noción de “ciencia universal”, entendida como el resultado de una adaptación a un sistema y cuyo resultado es el cientificismo, que no:

“puede aceptar ocuparse de problemas relacionados con la política porque esa no es una actividad científica legítima según las normas de quienes desde el Hemisferio Norte orientan las actitudes y opiniones de nuestros investigadores y sancionan virtudes y pecados. En todo caso corresponde reservarlo a la Ciencia Política, que es considerada una ciencia de segunda categoría” (Varsavsky, 1994: 103).

La aceptación acrítica de este cientificismo constituía para este autor el resultado de una dependencia cultural poco percibida, por lo que aconsejaba “dudar de su carácter universal,

Page 180: 0 análisis epistemológico ii, 2011

Gastón Julián Gil

180

absoluto y objetivo, pretender juzgar sus tendencias actuales, sus criterios de valoración, su capacidad para ayudarnos a nosotros, en este país, a salir de nuestro ‘subdesarrollo’” (Ibíd.: 105). Varsavsky cuestionaba además las reglas internas del campo científico, en el que los actores “están mucho más unidos que los proletarios o los empresarios; forman un grupo social homogéneo y casi monolítico, con estrictos rituales de ingreso y ascenso, y una lealtad completa –como en el ejército o la iglesia- pero basada en una fuerza más poderosa que la militar o la religiosa: la verdad, la razón” (Ibíd.: 105). Y definía como cientificista al investigador:

“que se ha adaptado a este mercado científico, que renuncia a preocuparse por el significado social de su actividad, desvinculándola de los problemas políticos, y se entrega de lleno a su ‘carrera’, aceptando para ella las normas y valores de los grandes centros internacionales, concretados en un escalafón” (Ibíd.: 125).

Consideraba además que el cientificismo jugaba un papel importante en el proceso global de desnacionalización que perpetúa la posición de países satélites. Por ende, practicar el cientificismo en un país subdesarrollado conduce inevitablemente a una situación de frustración perpetua ya que:

“para ser aceptado en los altos círculos de la ciencia debe dedicarse a temas más o menos de moda, pero como las modas se implantan en el Norte siempre comienza con desventaja de tiempo. Si a esto se agrega el menor apoyo logístico (dinero, laboratorios, ayudantes, organización), es fácil ver que se ha metido en una carrera que no puede ganar” (Ibíd.: 125).

En el marco de esta postura radicalizada, Varsavsky abogaba por una “ciencia guerrillera”, definida como aquella que es llevada a cabo por “toda clase de especialistas, prácticos y teóricos, para usar de este nivel de ‘buenos consejos’ a otro de decisiones concretas” (Ibíd.: 140). Aunque no se consideraba a sí mismo como un científico guerrillero, no por ello dejó de teorizar acerca de los pasos necesarios para lograr la emancipación, lo que “requiere proceder por aproximaciones sucesivas: preparar primero sólo los aspectos esenciales de la campaña, por si hay que indicarla con urgencia y luego ir completando sus detalles en orden decreciente de importancia”

Page 181: 0 análisis epistemológico ii, 2011

Ciencia, cientificismo y liberación nacional

181

(Ibíd.: 140). De esta forma, ponía especial énfasis en el estudio de las formas de comunicarse con las masas:

“qué tipo de prédica es más eficaz, que métodos de movilización, su ‘estructura de rebeldía’ (clasificación que atiende a su probable participación en movimientos activos y semiactivos) qué papeles pueden desempeñar en cada alternativa de toma del poder, y después, su capacidad de sobrevivir y armarse por cuenta propia. El enfoque revolucionario es diferente por su insistencia en estudiar, no cómo es una situación, sino cómo se controla. Así, muchos sociólogos estudian la formación de líderes entre las masas, al estilo norteamericano. Es decir, conformándose con describir la realidad con las variables que allí se recomiendan y expresan su posición política eligiendo entre estructuralismo y funcionalismo y otros dilemas escapistas” (Ibíd.: 141).

Para esos fines consideraba fundamental que se

entrenaran cuadros, destinados principalmente a conseguir el equilibrio entre las urgencias por el cambio y la comprensión profunda de los objetivos de cambio del sistema, lo que no puede lograrse intuitivamente. Por ende, todo ese trabajo debería consistir en una “investigación operativa” que conduzca a la toma de decisiones, a un contexto de aplicación que incluso contemple “modelos matemáticos”, para la formalización e integración de sus ideas y que destaque “las incompatibilidades, las lagunas conceptuales y de información, y pueda extraer las consecuencias lógicas de todas esas ideas, hipótesis, datos y alternativas de acción” (Ibíd.: 149). Esta ciencia aplicada no podría esperar, por supuesto, la obtención de subsidios de fundaciones extranjeras, por lo que “será necesario ir creando una metodología de la ‘ciencia pobre’” (Ibíd.: 150). Los “científicos rebeldes” que la pongan en práctica deberían montar entonces una organización en equipo que permita elegir primer los problemas para “reorganizarse sobre la marcha, a la luz de sus éxitos y fracasos, y sobre todo de la situación social y sus perspectivas” (Ibíd.: 150).

La polémica con Klimovsky y Simpson Las veleidades epistemológicas de Varsavsky, junto con el impacto que sus ideas ejercieron sobre el campo intelectual, lo llevaron a verse envuelto en una polémica con dos destacados

Page 182: 0 análisis epistemológico ii, 2011

Gastón Julián Gil

182

filósofos de la ciencia en la Argentina: Gregorio Klimovsky y Thomas Moro Simpson2. Tras una entrevista que se le realizó a Gregorio Klimovsky en la revista Ciencia Nueva en 1971, Varsavsky insistió luego en esa misma publicación en sus argumentos contra el cientificismo y la objetividad, denostando posiciones como las de Klimovsky que no supeditaran la investigación científica al cambio revolucionario. Ello motivó una intervención de Thomas Moro Simpson en 1975, también en Ciencia Nueva, en la que expuso las flagrantes contradicciones de ese anticientificismo militante. Tanto Klimovsky como Simpson coincidían de todas maneras con Varsavsky en que los científicos deben estudiar las posibilidades de un cambio social a través de sus investigaciones de calidad, y ocuparse además de los problemas a resolver luego de esos eventuales cambios. Del mismo modo, entendían que podía considerarse tarea de los científicos denunciar mistificaciones e incluso construir utopías científicas revisables. Simpson también planteó –en consonancia con las ideas “innovadoras” de Varsavsky- que no existe “modelo único de desarrollo científico” (Simpson, 1999: 371), del mismo modo que “una política científica debe establecer un orden de prioridades basadas en las características de nuestro contexto económico y social” (Ibíd.: 371). Tampoco consideraba recomendable Simpson que “el científico permaneciera moralmente indiferente a las consecuencias prácticas de su investigación, que pueden implicar crímenes gigantescos” (Ibíd.: 371).

Pero yendo más en detalle, Simpson mostraba en su réplica que Varsavsky confundía la noción clave de objetividad con la idea de imparcialidad y, por consiguiente, con el ocultamiento de temas, problemas y resultados. En la misma línea, el epistemólogo demostraba el desconocimiento de las herramientas analíticas habitualmente utilizadas en filosofía de la ciencia (en especial citaba el caso de Karl Popper) que evidenciaban los intentos “críticos” de Varsavsky, cuyos aciertos consideraba sumamente obvios. Sus “diatribas”, por el

2. La posición de Simpson, y también la de Klimovsky, ingresa en lo que Varsavsky denominaba reformismo, constituido por “liberales de izquierda, inteligentes pero sin experiencia ni talento político” (Varsavsky, 1994: 153).

Page 183: 0 análisis epistemológico ii, 2011

Ciencia, cientificismo y liberación nacional

183

contrario, “prefieren crear (y lo logran) una enorme confusión inicial acerca de una gran variedad de temas, aumentando así eficazmente las posibilidades de desacuerdo. Se dedican, pues, con insistencia, a rechazar la noción de «objetividad científica» y la existencia de «hechos objetivos»; los valores culturales «universales»…” (Ibíd.: 371-2). En cuanto al rechazo de las posiciones anticientificistas hacia cualquier teoría o cuerpo de ideas que no aceleren los cambios revolucionarios, Simpson alertaba que ello no las convertía en “falsedades. Después de todo, lo mismo ocurre con la teoría de la relatividad, para no hablar de las investigaciones sobre el trasplante de órganos, que tampoco contribuyen a la revolución, sino que en cierto modo estimulan las «ilusiones reformistas»” (Ibíd.: 373). De ese modo, los postulados de Varsavsky, que ni siquiera intentan definir conceptos de gran densidad teórica –como objetividad o ideología-, son considerados por Simpson como “saltos semánticos” que “promueven gratuitamente el desacuerdo” (Ibíd.: 374), Simpson equiparaba al anticientificismo militante y revolucionario de la época con las posturas dominantes en diversos regímenes totalitarios, de derecha (los nazis planteaban que la objetividad científica y los criterios científicos internacionales eran un invento de los judíos y liberales) y de izquierda (el estalinismo), por lo que planteaba que:

“la moraleja es que las verdades simples no deben ser subestimadas, y que es nuestro deber exigir la máxima claridad en cuestiones de principio que atañen a millones de seres humanos. Creo que por eso el fenómeno estalinista, lejos de ser un anacrónico artificio polémico, reviste la actualidad más rigurosa: toda la actualidad puede tener la tragedia del socialismo en el siglo XX” (Ibíd.: 376).

Entonces, el utilitarismo revolucionario en materia

científica encuentra puntos de contacto con el utilitarismo en materia artística, que “cuenta con una muy buena tradición en el pensamiento de derecha. En una novela de Proust un aristócrata critica a Flaubert porque, según él, «en estos tiempos hay tareas más urgentes que ordenar palabras de un modo armonioso»” (Ibíd.: 376). Esas posiciones que desechan todo aquello que no le sirva al “pueblo” y proponen destruir los cimientos de la sociedad para luego construir otra, conducen inevitablemente, según Simpson, “a la degradación cultural y al

Page 184: 0 análisis epistemológico ii, 2011

Gastón Julián Gil

184

fanatismo; pues según una definición feliz, una «fanático» no es otra cosa que «un hombre que perdió de vista los fines y se dedica por completo a los medios»” (Ibíd.: 377). En definitiva, Simpson trató de cerrar esa polémica “surrealista” (Ibíd.: 383) propiciada por Varsavsky, mostrándose favorable al “cambio social (cuando esos objetivos se explicitan claramente) sin necesidad de pasearse por la epistemología con tanta desidia intelectual” (Ibíd.: 383). Así, al negar que las categorías del sujeto observador pudieran hacer inmunes a la hipótesis de cualquier refutación, y sostener que “la validez, verdad o grado de aproximación a la verdad de una hipótesis es independiente de las circunstancias psicológicas, sociales o culturales que le dieron origen” (Ibíd.: 390), Simpson concluía su respuesta Varsavsky proponiendo que “construir utopías científicas revisables es promover un utopismo realista, en contraste con la dialéctica utópica del marxismo clásico” (Ibíd.: 390). Conclusiones

El modo en que se manejó en la Argentina el rótulo de cientificismo se ha mostrado sumamente fructífero para comprender –al menos parcialmente- los debates que fueron centrales en el desarrollo de las ciencias sociales argentinas en las décadas del sesenta y del sesenta. Los usos nativos de los que fue objeto este y otros conceptos permiten acceder no sólo a problemáticas propias de los campos disciplinares de las ciencias sociales sino de otros campos cercanos, como el arte, otras disciplinas científicas y, por supuesto, la historia política de la Argentina. Desde los sectores que se radicalizaron en los años sesenta y que en gran parte abrazaron la identidad política peronista y un ideario revolucionario enfocado hacia la liberación nacional, el rótulo de cientificista implicó una severa acusación de un profundo contenido moral que movilizaba términos tales como cipayo, pequeñoburgués, liberal, vendepatria y reaccionario. Claramente, estas acusaciones de cientificismo, remitían a la idea –también de carácter moral- de lo impuro, de lo contaminado con el dinero del imperio y por ello instrumento de corrupción y de opio de los pueblos. Como ha señalado Douglas, “una persona polucionada está siempre equivocada. Ha desarrollado alguna condición errónea o

Page 185: 0 análisis epistemológico ii, 2011

Ciencia, cientificismo y liberación nacional

185

simplemente cruzado alguna línea que no debería haber sido atravesada y ese desplazamiento implica peligro para alguien” (2000: 114). Esa polución que se proyectaba sobre los acusados indicaba diversos grados de conciencia aunque finalmente las consecuencias (ser funcional a las cuñas neocoloniales) se percibían como igualmente nocivas. De acuerdo con Douglas, las reglas de polución se diferencian de las reglas morales en que son inequívocas, dado que “la única cuestión material es si un contacto prohibido ha tenido lugar o no” (Ibíd. 131). Ante semejante contexto, la ciencia pobre que preconizaba Varsavsky aparecía entonces como la garantía de esa pureza que debía ser reafirmada en cada investigación, como garantía de un comportamiento honorable. La intervención en el campo de las ciencias sociales de aquel anticientificismo militante se concretó entonces a partir de una propuesta diferente de ciencia que en este caso supeditaba la validez del conocimiento a la concreción de los objetivos revolucionarios. Todo ello redundó en líneas generales en un conjunto de postulados de dudosa solidez teórica, que mezclaba categorías nativas, categorías descriptivas y categorías analíticas, montándose en cuestionamientos hacia las tradiciones clásicas, que fueron vaciadas de contenidos y analizadas casi exclusivamente desde una dimensión ideológica. Sin haber llegado tampoco a desarrollar trabajos empíricos de ninguna clase, propusieron una visión estilizada de la participación popular, de la trayectoria de la resistencia peronista y del propio “pueblo” al que sentían representar, pero al que de alguna manera pretendían concientizar para la lucha revolucionaria.

Bibliografía Barletta, A. & Lenci, M. (2001) “Politización de las Ciencias Sociales en la

Argentina”. En Sociohistórica, 8, pp. 177-199. Barletta, Ana M. & Tortti, María Cristina. (2002) “Desperonización y

peronización en la universidad en los comienzos de la partidización de la vida universitaria”. En Pedro Krotsch (org.) La Universidad cautiva, La Plata, Al Margen.

Blanco, Alejandro (2006) Razón y modernidad. Gino Germani y la sociología en la Argentina, Buenos Aires, Siglo XXI.

Douglas, Mary (2000) Purity and Danger. An analysis of concepts of pollution and taboo, Londres, Routledge.

Page 186: 0 análisis epistemológico ii, 2011

Gastón Julián Gil

186

Longoni, Ana & Mestman, Mariano (2008) Del Di Tella a “Tucumán Arde”. Vanguardia artística y política en el 68 argentino, Buenos Aires, Eudeba.

Mantegari, Cristina (1994) “La trayectoria de Oscar Varsavsky y su inserción en la crítica al «cientificismo»”. En Oscar Varsavsky, Ciencia, política y cientificismo, Buenos Aires, CEAL.

Neiburg, Federico (1998) Los intelectuales y la invención del peronismo, Buenos Aires, Alianza.

Sarlo, Beatriz (2001) La batalla de las ideas (1943-1973), Buenos Aires, Ariel. Simpson, Thomas Moro (1999) “Irracionalidad, ideología y objetividad”. En

Eduardo Scarano (coord.) Metodología de las ciencias sociales. Lógica, lenguaje y racionalidad, Buenos Aires: Macchi.

Varsavsky, Oscar (1994) Ciencia, política y cientificismo, Buenos Aires, CEAL.

Page 187: 0 análisis epistemológico ii, 2011

GRUPO DE ANÁLISIS EPISTEMOLÓGICO

INFORMACIÓN SOBRE LOS AUTORES DEL LIBRO

Manuel Eduardo Comesaña (“¿Para qué sirve la filosofía?”). Profesor

Titular del Departamento de Filosofía. Director del Grupo de Análisis Epistemológico. Contacto: [email protected]

José María Gil (“Limitaciones de la pragmática y la semiótica”).

Investigador Adjunto del CONICET y Profesor Adjunto del Departamento de Filosofía de la UNMDP. [email protected]

Gustavo Fernández Acevedo (“¿Cómo debe entenderse la condición

de evidencia en el autoengaño?”). Profesor Adjunto del Departamento de Filosofía y Profesor Adjunto de la Facultad de Psicología de la UNMDP. Contacto: [email protected]

Boris Kogan (“Neuronas en espejo: pertinencia y contribuciones para

la psicología”). Estudiante avanzado de Psicología en la UNMDP. Contacto: [email protected]

Nicolás Agustín Moyano Loza (“Una consecuencia ontológica del

concepto de simultaneidad”). Licenciado en Filosofía. Becario doctoral del CONICET. Contacto: [email protected]

César Luis Vicini (“Filósofos y hablantes”). Estudiante avanzado de

la carrera de Filosofía de la UNMDP. Docente de la Universidad FASTA, Mar del Plata. Contacto: [email protected]

Nicolás Trucco (“Sobre la (supuesta) necesidad de formalizar el

lenguaje”). Médico neumonólogo (jubilado). Estudiante avanzado de Filosofía. Contacto: [email protected]

Lucas Martín Andisco (“La metodología de las ciencias deductivas

según Tarski”). Licenciado en Filosofía. Becario doctoral del CONICET. Contacto: [email protected]

Esteban Guio Aguilar (“Arte y conocimiento…”) Licenciado en

Filosofía. Becario de investigación de la UNMDP y estudiante de doctorado. Contacto: [email protected]

Page 188: 0 análisis epistemológico ii, 2011

188

Federico Emmanuel Mana (“Las ventajas de la enseñanza de la prueba formal de validez según la metodología de Gamut”). Estudiante avanzado de Filosofía. [email protected]

Carolina García (“¿Ha llegado la ciencia a la verdad?...”). Estudiante

avanzada de Filosofía. Contacto: [email protected] Daniela Suetta (“El marco epistemológico de los sistemas

conceptuales en la teoría interpretativa davidsoniana”). Estudiante avanzada de Filosofía. [email protected]

Emiliano Aldegani (“Castoriadis: el signo como conjunto de

coparticipaciones y su status ontológico”). Estudiante avanzado de Filosofía. Contacto: [email protected]

Adolfo Martín García (“Cómo la neurolingüística puede contribuir al

saber traductológico”). Traductor y Profesor de Inglés. Becario doctoral del CONICET. Contacto: [email protected]

María Soledad Schiavini (“Plausibilidad neurológica de la teoría de

Emilia Ferreiro”). Psicopedagoga, maestra de grado y estudiante de doctorado. Contacto: [email protected]

Patricia Britos (“El marxismo analítico”). Docente en los

departamentos de Filosofía de la UNMDP y de la Universidad del Sur. Contacto: [email protected]

Gastón Julián Gil (“Ciencia, cientificismo y liberación nacional”).

Investigador Adjunto del CONICET y docente en la Facultad de Ciencias de la Salud de la UNMDP. Contacto: [email protected]

AUTORES INVITADOS Fabrizio Zotta (“Representación y comunicación…”). Licenciado en

Ciencias de la Comunicación. Docente de la Universidad FASTA, Mar del Plata. Contacto: [email protected]

María Belén Hirose (“Universalismo y relativismo…”). Antropóloga.

Becaria de postgrado de la Agencia Nacional de Promoción Científica y Tecnológica. Contacto: [email protected]