Archivos de la categoría ‘Ciencia’

Misceláneas de vida

Publicado: 7 enero, 2012 en Ciencia, Política
Etiquetas:,

[Texto que será publicado el 16 de enero del 2012 en el segundo número de la Revista El Lazo]

La debilidad de espíritu producida por la difusión del saber reclama tutela, incluso si quienes abusan políticamente de ella le inyectan independencia y odio hacia cualquier clase de guía. Si el propio cordón sanitario contrae la peste, la ciudad está perdida.
(Kraus, 1912: 85)

PRELUDIO

En 1931, la entonces Liga de las Naciones enmarcada dentro de la Comisión Permanente para la Literatura y las Artes, encargó al Instituto Internacional de Cooperación Intelectual que organizara un intercambio epistolar entre los intelectuales más representativos de aquellos años. Dicho intercambio versaría sobre los temas que en ese momento pudieran prefigurar como de importancia mayor y cuya meta fuese “servir a los intereses comunes de la Liga de las Naciones y de la vida intelectual” (Strachey, 1964: 181); para ello, se irían compilando las diversas cartas en publicaciones editadas en distintos idiomas para estar al alcance de la sociedad en general. Albert Einstein fue una de las primeras personalidades a las que el Instituto eligió para conformar uno de estos coloquios y, a su vez, el prominente físico fue quien convocó a Sigmund Freud como su interlocutor para éste ejercicio. Así, en su carta del 30 de julio de 1932, Einstein compone algunas cuartillas a la luz de una nada trivial preocupación que lo mantenía ciertamente acongojado: “¿Hay algún camino para evitar a la humanidad los estragos de la guerra?” (Einstein, 1932: 183). Inquietud que dirigida a Freud bajo la forma de pregunta, buscaba más bien esa respuesta que la ciencia física no podía brindarle.

Siete años después, pero ahora en un 2 de agosto, Albert Einstein es de nuevo el remitente de otra carta no tan famosa pero de mucho mayor consecuencia para la humanidad; ésta vez, en cambio, el destinatario no fue aquel estudioso de «la vida pulsional del hombre» sino el entonces presidente de los Estados Unidos, Franklin D. Roosevelt. Lo que motivó a Einstein para enviar semejante escrito fue, en palabras del propio físico, el deber que lo empujaba a no sólo advertir al presidente de aquella nación sobre las investigaciones atómicas que los nazis estaban realizando en aquel momento; sino también a incitarlo a concebir la necesidad de invertir más fondos, tanto públicos como privados, en investigaciones nucleares dentro de los laboratorios de los Estados Unidos, es decir, dentro de sus universidades.

Albert Einstein

Albert Einstein

Ésta carta a la que hago mención bien puede figurar el preludio de la carrera Heisenberg vs. Oppenheimer; célebre pugna cuya conclusión, de entre muchas otras cosas, hizo entrar a éste último en la oficina de Harry Truman a expresar empapado en culpa: “Siento que mis manos están manchadas de sangre” (Galeano, 2008: 286; énfasis en el original). Así, fue la conjunción de éste incidente junto con algunos otros más conocidos, los que tuvieron a bien el desterrar a la física del lugar prominente que tenía en el teatro del progreso científico puesto que, al parecer, ésta disciplina se convirtió en la insignia que estrechaba a la ciencia con la muerte; tan fue así que la posterior Guerra Fría, hervidero cuya frialdad gustaba solamente de producir muertos en los países del margen -pensemos en América del Sur y Europa Oriental principalmente-, utilizó hasta las cocinas de las “amas de casa” como una de las diagonales para el libre paso de sus alfiles (Oldenziel & Zachmann, 2009). Sin embargo, el espacio que había dejado el ostracismo de la física no podía por mucho tiempo permanecer gozando de su vacuidad, la biología pronto se erigió en ese lugar asaz requerido; pues qué mejor forma de evitar todos lo dilemas éticos envueltos en la experimentación con humanos que ocupando con biólogos y genetistas ese enorme laboratorio en el que se convirtió el Japón después de las bombas; actuación no sólo de la mayor corrección política, sino que ayudaría a limpiar la mancha de sangre en la que se bañaba el quehacer científico con el detergente de una nueva promesa en el horizonte: la ciencia por la salud.

Pensemos por un momento en el significado profundo que sustenta éste razonamiento. Si la física nuclear pudo causar los estragos que hasta la fecha se siguen padeciendo en las regiones afectadas por la radiación de las bombas; es solamente una reafirmación de la vida la que puede hacer frente a ese halo de muerte impregnado en la ciencia. Sólo así adquiere más sentido que la nueva apología de la salud sea comandada por el caballero de las ciencias médicas. Sin embargo, hay un grave error en éste razonamiento. En efecto, puede ser válido pensar que así cómo la vida adquiere sentido sólo desde la muerte, la salud se encuentra en relación opuesta con la enfermedad (al menos en el modelo biomédico); sin embargo, la confusión se hace presente cuando se cruzan ambas proposiciones: podría ser que exista una relación entre la enfermedad y la muerte, pero no necesariamente existe una relación entre las ciencias de la salud y la vida. Me explico.

SOBRE LAS CIENCIAS MÉDICAS

Es generalmente aceptado que la medicina moderna comienza a finales del siglo XVIII, principalmente con los desarrollos de Morgagni y Bichat. Y esto es así porque, bueno…

Hasta la mitad del siglo XVIII nadie salía del hospital. Se ingresaba en estas instituciones para morir. La técnica médica del siglo XVIII no permitía al individuo hospitalizado abandonar la institución en vida. El hospital representaba un claustro para morir, era un verdadero “mortuorio” (Foucault, 1974a: 51).

Esto resulta de mucho más interés cuando se cae en la cuenta de que la primer forma en la que se materializó la preocupación del Estado por la salud de sus habitantes, se encuentra justamente a comienzos de éste siglo XVIII con la “medicina de Estado” desarrollada en Alemania (Foucault, 1974b: 63). Y entonces, si se acepta que tres de las características principales de éste fenómeno conocido como medicalización son (Foucault, 1974a: 53 – 54):

  1. Que la medicina responde a otro motivo que no es la demanda del enfermo (cosa que sólo acontece en casos más bien limitados), y que con mucha más frecuencia la medicina se impone al individuo, enfermo o no, como acto de autoridad;
  2. que el espacio de objetos de la intervención médica no se refiere solamente a las enfermedades, sino que se incluyen también otros ámbitos en su quehacer (el espacio de la sexualidad es el ejemplo paradigmático; aunque también entran los espacios físicos: cuestiones relativas al aire, al agua, las construcciones, los terrenos, los desagües, etcétera); y
  3. que se introduce un nuevo aparato de medicalización colectiva, a saber, el hospital.

Se puede empezar a ver que no existe una tan estrecha relación entre la vida y las ciencias médicas; sobre todo porque el objetivo de esa forma que la salud adquiere al emanar de la medicalización no es el de curar, sino el de construir un cerco sanitario alrededor de la enfermedad; dicho de otra forma, la medicalización es sólo una forma de administrar el cuerpo de los enfermos. Por ejemplo, los Health Service ingleses implantados a finales del siglo XIX, y que son el antecedente directo de nuestros servicios de salud, son más bien una expresión más del «control médico ejercido sobre de la población», es decir: “una medicina que consiste esencialmente en un control de la salud y el cuerpo de las clases más necesitadas, para que [sean] más aptas para el trabajo y menos peligrosas para las clases adineradas” (Foucault, 1974b: 75).

Siendo así, no resulta para nada extraño que los datos duros, resultado estos del análisis estadístico que realiza Charles Levinson sobre la producción de salud en Estados Unidos en 1964, mostraran que “el nivel de consumo médico y el nivel de salud no guardan relación directa” (Foucault, 1974a: 58); lo que no quiere decir sino que, por ejemplo, el aumento en los ingresos familiares de la población disminuye la tasa de mortalidad dos veces más que el consumo de medicamentos o, más importante aun, que “la educación actúa sobre el nivel de vida en una proporción dos veces y media mayor que el consumo médico” (Ibíd.: 58).

Michel Foucault

Michel Foucault

Aun así, siempre se puede apelar a lo ilusorio del progreso científico para desestimar lo anterior; y por la ilusión me estoy refiriendo a esa imagen que nos presenta una linealidad con una tendencia asintótica hacia la verdad. Sin embargo, desde Kuhn se volvió famosa la tesis que sostiene que una perspectiva histórica de la ciencia presenta una visión muy diferente del progreso; en el campo que ahora me compete, por ejemplo, lo podemos observar en el hecho de que la asepsia sólo fue descubierta tiempo después de que la anestesia posibilitara cirugías en seres humanos; la penicilina, que siempre se presenta como el gran salto de la medicina, tuvo como consecuencia una disminución en el umbral sensible del organismo frente a agentes agresores; si me pongo un poco más ásperos, puedo mencionar también el ejemplo paradigmático de la talidomida en los años sesenta o todas las querelles envueltas en las actuales vacunas contra el VPH (para más ejemplos, ver: Illich, 1975). Algunas veces, como bien afirma Kraus, la marcha del progreso “sostiene el mismo paso de la muerte” (Kraus, 1912: 85).

El trecho que dibuja ésta línea de pensamiento desemboca casi inevitablemente en la Casa Blanca, específicamente en aquel verano del año 2000 cuando Bill Clinton celebraba el presupuesto aprobado de 3 mil millones de dólares para el Proyecto del Genoma Humano: «revolucionará el diagnóstico, la prevención y el tratamiento de la mayoría, si no es que de todas, las enfermedades humanas” (citado en: Hall, 2010; traducción libre). Declaración digna de llamar la atención, sobre todo cuando se pone en relación con la afirmación que él mismo hace un año antes: “La enfermedad mental puede ser diagnosticada con certeza y ser tratada exitosamente como cualquier enfermedad física” (citado en: Szasz, 2011: 179; traducción libre). Todo lo cual me lleva también a cuestionar los hábitos de lectura del señor, y esto es así porque su discurso está basado en la promesa de Francis S. Collins de una medicina genómica personalizada; promesa que hasta la fecha, sin embargo, no sólo no ha sido cumplida, sino que lejos está aun de siquiera vislumbrarse como posible -tomando en consideración sólo el campo de la enfermedad física- (la medicina genómica, a pesar de presentarse como una de las mejores herramientas que se derivan de la punta de lanza biotecnológica, tiene en el núcleo mismo de su método grandes lagunas que implican, de principio, la imposibilidad de generar datos objetivos y robustos -si se cierne solamente sobre su campo-; esto debido a que las inferencias estadísticas que se pueden realizar son sólo a partir de los datos arrojados por los estudios de variables subrogadas -las cuales son el reflejo del desconocimiento que permea a toda pesquisa involucrada en las enfermedades que presentan mayor importancia en la actualidad (los remito al excelente artículo de (Arroyo, 2011) para profundizar más en estos menesteres).

Pero bueno, todo lo anterior no le importó ni tantito a un Felipe Calderón que, con toda la estruendosa artificialidad de las fanfarrias y tras una espera de cuatro años, utilizó en el 2009 la promesa en versión refrito de una medicina personalizada para enriquecer su teatro; pero claro, ésta vez no se hacía referencia a cualquier tipo de medicina genómica sino a una centrada en las características del mestizo mexicano (donde resulta alarmante que muy pocos sacaron a colación lo racista de la propuesta). Como cabría esperar, Calderón sostuvo lo anterior con base en la culminación de la lectura del mapa genómico de los mexicanos -cosa interesante puesto que, de principio, éste “artículo científico relativamente menor hecho por un pequeño grupo de investigadores, no muy conocidos” (López & Vergara, 2011: 99) fue adjetivado solamente bajo el apelativo de un «primer bosquejo»; y bueno, más allá de las categorías de libro de texto básico que fueron utilizadas en el estudio, la nula meditación y fundamentación que se realizó sobre el muestreo, las gravísimas faltas cometidas en lo que a método se refiere, etcétera (ver: López, 2011); es concebible que de los 252 millones de pesos que en el 2009 se le otorgaran como presupuesto al Instituto Nacional de Medicina Genómica; al año siguiente se le haya recortado hasta cercar los 120 millones (Bonfil, 2009). Sin embargo, más allá de la nimiedad de los resultados prácticos obtenidos, nada de esto impide que el Proyecto del Genoma Humano sea económicamente viable (se calcula que sus beneficios directos e indirectos a diez años ascienden a 796 mil millones de dólares (Battelle Techology Partership Practice, 2011)). Y así, el factor económico que hizo las veces de trampolín de la medicina del siglo XVIII; al parecer ahora se ha vuelto un fin en sí mismo, al menos en lo que respecta al susodicho Proyecto y a la industria farmacéutica que gusta en pegársele.

Una de las luminarias que resplandece en el centro de todo éste desarrollo es nada más y nada menos que el biólogo de formación y emprendedor de profesión Craig Venter (sí, aquél que fue galardonado con el premio de la Lady Gaga de la ciencia (Horgan, 2010)). Sus más que conocidas artimañas mediáticas han ido desde descodificar su propio código genético hasta lograr, hace un par de años, construir una especie viviente nueva y artificial en su laboratorio (aunque lo de “nueva” no es completamente correcto; más cercano a la realidad sería describirla no como una creación, afirma Mark Bedau, sino como una recreación de una forma de vida preexistente -sigue siendo imposible generar vida desde componentes no vivos- (citado en: Ibíd.)). Aun así, algunas voces se alzaron por sobre los hechos y pregonaron que, más allá de todo misticismo, el misterio de la vida había sido resuelto (Caplan, 2010). Horgan, en el artículo antes citado, hace bien en mostrar que no es cierto semejante alboroto y, por consiguiente, que el enigma de la vida sigue ocultándose del quehacer epistémico de la ciencia; llega incluso a afirmar que el problema sobre el origen de la vida, a la luz de los desarrollos actuales, es aun más escabroso de como se llegó presentar hace algunas décadas.

CODA

El epígrafe con el que coroné el presente texto proviene de uno de los escritos que Karl Kraus publicó en Die Fackel, específicamente en el número 354 que vio la luz en el mes de julio de hace exactamente cien años (1912); lo llamó Los hijos de la época. La casualidad no azarosa de encontrarme ahí con dos reseñas sumamente atinentes para lo que ahora trabajo no pudo más que provocarme una grata carcajada. La primera de ellas, y más hilarante que otra cosa, responde a lo que un tal Robert Michels, profesor de la Universidad de Turín, presentó como su tesis a defender en las últimas sesiones del Congreso Eugenésico llevado a cabo en Londres. En aquel momento él quiso demostrar que el éxito de los políticos y de los dirigentes de partidos está en relación con su aspecto externo; para lograr lo anterior utilizó un razonamiento harto infalible, a saber: «Los más destacados de nuestros dirigentes italianos son todos hombres muy bellos»; y así, para abonar más pruebas a su tesis, comienza por apreciar cual esteta los «ojos maravillosos» de uno de los políticos ingleses, la «noble belleza» de otro y la «magnífica figura» de uno más; todo a la luz de las directrices de la nueva ciencia. La otra de las crónicas que llamó mi atención, y es una mucho más atinente al espíritu del presente escrito, es una reseñan cuyo nombre versa Fabricación artificial de la vida. Como se podrán imaginar, ahí se describe «la absoluta convicción» del profesor Loeb quien, con base en los grandes avances científicos de aquella época (como lo fue la fecundación artificial de óvulos), afirma «que la Biología logrará en una época no demasiado lejana aclarar por completo el misterio de la vida y producir la sustancia vital de modo completamente artificial». Al parecer, ni algunos científicos actuales ni aquellos otros que vivieron hace un siglo leyeron bien a Kant, sobre todo las observaciones a la demostración que hace de la segunda ley de la mecánica -contenidas en la tercer proposición de los Fundamentos Metafísicos de la Mecánica (en sus Primeros principios metafísicos de la ciencia de la naturaleza).

Como se podrá observar, la vida resulta ser una de esas marañas que enredan en su meollo dos formas de pensamiento completamente antagónicas: tenemos al discurso científico por un lado (con todas sus epistemologías y positividades); y tenemos al pensamiento mítico por el otro. Sin embargo, el embrollo radica en que el fenómeno de la vida, así como el de la consciencia, es uno que terriblemente se esconde del escudriñar humano; más fácil sería dar cuenta de él tras «la neblina del opio» que bajo los microscopios de la ciencia. Grosso modo, en la actualidad el debate sobre la vida puede percibirse desde el resguardo que representa estar asaz ceñido en una de dos trincheras: aquella que surge como el linaje que se extiende a los aprendices en formación bioquímica y biomédica y que torna a la vida un mero epifenómeno; o aquella otra que desde la biología y sus filósofos la observan más como una propiedad emergente -y por tanto, siendo tal vez el paradigma de lo que implica que un fenómeno sea complejo. Sea cual fuere el camino que se elija, sin embargo, la pulcritud de nuestro velo epistémico no deja entrever más allá de las teorías que generamos; y así, lo evidente queda en suspenso. Es por esto mismo que pareciera más pertinente sumergirse en los aforismos de los Upanishads que en la postura más fuerte que pueda sostenerse sobre emergencia (ver: Dupré, 2010); o, mejor aun, aceptar que ciertas metafísicas envueltas en lo mítico como herramienta epistémica son más atinentes para echar cierta luz sobre éste fabuloso enigma (que trae vuelta de cabeza a todas las ciencias médicas que se ocupan de él).

A pesar de que los supuestos metafísicos representan senderos espinosos para el científico actual, el lector avezado podrá encontrar que es imposible no caminar por estos trechos si lo que se busca es una comprensión que vaya más allá de la insuficiencia con la que es caracterizada cualquier tipo de explicación aséptica (en realidad, éste tipo de supuestos se encuentran en todo desarrollo que digne de llamarse científico). Freud mismo es quien hace notar lo anterior en una parte de la respuesta que escribe a la carta de Einstein y que sirvió de obertura para mi actual reflexión:

Acaso tenga usted la impresión de que nuestras teorías constituyen una suerte de mitología, y en tal caso ni siquiera una mitología alegre. Pero, ¿no desemboca toda ciencia natural en una mitología de ésta índole? ¿Les va a ustedes de otro modo en la física hoy? (Freud, 1933: 194).

La mitología a la que Freud hace referencia es una parte de su «doctrina de las pulsiones»; y él la saca a colación para poder mostrar la teoría que puede ayudarnos a comprender el por qué de la guerra. Pero esto es algo que se escapa a los motivos de mi presente texto; sin embargo, lo escrito ahí funciona como un buen resumen de uno de los nodos freudianos. Para ese entonces, nuestro teórico ya había llegado a la conclusión de que, en la vida anímica, existen dos grandes grupos de pulsiones: Eros y la pulsión de muerte (aquella que “trabaja dentro de todo ser vivo y se afana en producir su descomposición, en reconducir la vida al estado de la materia inanimada” (Ibíd.: 194)); y así afirma: «los fenómenos de la vida surgen de las acciones conjugadas y contrarias de éstas dos clases de pulsiones (las cuales se presentan aleadas, puesto que parece que nunca una pulsión perteneciente a una de esas clases puede actuar de manera aislada)» (Ibíd.: 193). La vida, así, no adquiere significación a partir de la muerte como antes había establecido; en vez, la vida misma es el resultado de tendencias conjugadas de vida y destrucción. ¿Cómo puede ser posible que a la vida le sea inherente una pulsión de muerte? Freud contesta a esto con una afirmación tajante: “La meta de toda vida es la muerte” (Freud, 1920: 38; énfasis en el original). Sin embargo, éste «Sol Negro» esconde más lucidez de la que cualquier optimista pueda encontrar en sus cuentos de hadas, el problema es una mera cuestión de enfoques; puesto que más allá de acentuar que toda vida culmina en la muerte (cosa por demás consabida), es mejor preguntarse por qué fue lo que aconteció para que, de lo inorgánico, se pudiera generar una sustancia viva o, mejor aun, qué es lo que desvía a la pulsión de muerte el tiempo que dura una vida. En el tercer apartado del Capítulo VII de La interpretación de los sueños, Freud construye el cimiento mítico de su aparato psíquico y, con ello, concibe lo que hasta la fecha es la mejor teoría de la vida anímica de los seres humanos (y, por tanto, aquélla que debe de dar respuesta a ésta y a muchas otras incógnitas más que siguen desfilando como interrogaciones en las demás disciplinas). En ese apartado, específicamente a partir de la página 557, Freud describe la «naturaleza del desear»; y es ahí donde nos dice no sólo que es un deseo lo único que puede impulsar a trabajar a nuestro aparato anímico, sino que es en la dinámica que se produce por el rodeo que el mundo exterior exige para poder cumplir ese deseo donde se abre paso a la fuerza del pensamiento. La vida, en todo su apremio, no es más que un rodeo que produce el pensar estando al servicio del deseo; huelga decir: inconsciente.

Sigmund Freud

Sigmund Freud

¿Cómo poder, entonces, reducir la complejidad de la vida a un medicamento? ¿Cómo pensar a la enfermedad si no es en relación con el deseo? ¿Cómo captar la esencia de lo humano en la materialización de todo el pensamiento en la química cerebral? ¿Cómo curar si no se escucha el silencioso andar de la pulsión de muerte tras los colores de Eros? ¿Cómo saber si por definición eso no se puede saber? Toda apología de la vida que se preste al discurso reduccionista presente en las ciencias médicas, o a cualquier otro que se venda como un producto consumado, no es más que una degradación del fenómeno de la vida y su inmanente complejidad, aquélla que se evanesce de toda pretensión epistémica.

REFERENCIAS

Arroyo, A. (2011) Causalidad y variables subrogadas; la frágil epistemología de la construcción genética del mestizo mexicano. En: López, C. (coord.) (2011) Genes (&) Mestizos. Genómica y raza en la biomedicina mexicana. México: Ficticia.

Battelle Techology Partership Practice (2011) Economic Impact of the Human Genome Project. Texto electrónico.

Caplan, A. (2010) Now ain´t that special? The implications of creating the first synthetic bacteria. Scientific American Magazine, May 20, 2010. http://blogs.scientificamerican.com/guest-blog/2010/05/20/now-aint-that-special-the-implications-of-creating-the-first-synthetic-bacteria/

Bonfil, M. (2009) Inmegen: ¿buenas o malas noticias? Milenio: Tendencias, 2009-09-09. http://impreso.milenio.com/node/8638296

Dupré, J. (2010) It is not possible to reduce biological explanations to explanations in Chemistry and/or Physics. En: Ayala & Arp. (eds.) (2010) Contemporary Debates in Philosophy of Biology.

Einstein, A. (1932) ¿Por qué la guerra? En: Freud, S. (1933 [1932] – 2006) ¿Por qué la guerra? (Einstein y Freud). Tomo XXII. Obras Completas. Argentina: Amorrortu.

Foucault, M. (1974a) Crisis de la medicina. En: La vida de los hombres infames. Argentina: Altamira.

_______ (1974b) Historia de la medicalización. En: La vida de los hombres infames. Argentina: Altamira.

Freud, S. (1900 – 2006) La interpretación de los sueños. Tomo V. Obras Completas. Argentina: Amorrortu.

_______ (1920 – 2006) Más allá del principio de placer. Tomo XVIII. Obras Completas. Argentina: Amorrortu.

_______ (1933 [1932] – 2006) ¿Por qué la guerra? (Einstein y Freud). Tomo XXII. Obras Completas. Argentina: Amorrortu.

Galeano, E. (2008) Espejos. Una historia casi universal. México: Siglo XXI.

Hall, S. (2010) Revolution Postponed: Why the Human Genome Project Has Been Disappointing. Scientific American Magazine, October 18, 2010. http://www.scientificamerican.com/article.cfm?id=revolution-postponed

Horgan, J. (2010) Craig Venter has neither created–nor demystified–life. Scientific American Magazine, May 27, 2010. http://www.scientificamerican.com/blog/post.cfm?id=craig-venter-has-neither-creatednor-2010-05-27

Illich, I. (1975 -1978) Némesis Médica. México: Editorial Joaquín Mortiz.

Kraus, (1912) Los hijos de la época. Die Fackel, 354: 68-72. En: Arántegui, J. (1990) Karl Kraus. Escritos. Madrid: Visor.

López, C. (coord.) (2011) Genes (&) Mestizos. Genómica y raza en la biomedicina mexicana. México: Ficticia.

López, C & Vergara, F. (2011) Genómica Nacional: el INMEGEN y el Genoma del mestizo. En: López, C. (coord.) (2011) Genes (&) Mestizos. Genómica y raza en la biomedicina mexicana. México: Ficticia.

Oldenziel, R. & Zachmann, K. (edit.) (2009) Cold War Kitchen. Cambridge, Massachusetts: The MIT Press.

Strachey, J. (1964) Introducción. En: Freud, S. (1933 [1932] – 2006) ¿Por qué la guerra? (Einstein y Freud). Tomo XXII. Obras Completas. Argentina: Amorrortu.

Szasz, T. (2011) The myth of mental illness: 50 years later. En: The Psychiatrist, 35: 179-182

Descoordinaciones:

Publicado: 2 enero, 2012 en Ciencia, Política

De una clínica de los trastornos mentales a su administración; pero no viceversa.

¿Tenéis ojos -pregunta Hamlet-, que abandonáis los pastos de este hermoso monte para empapuzaros en esa ciénaga?… Vista sin tacto, tacto sin ojos, oídos sin manos ni miradas, olfato sin nada, una simple porción de algún sentido sano no podría obrar a tientas con tal torpeza.
Hamlet, III, 4 (citado en Kraus, 1909: 67)

PRESENTACIÓN

Desde hace algunas décadas, es por demás sabido que existe un amplio sector de pensadores -conformado tanto por psiquiatras, como por psicólogos y filósofos de la ciencia- que argumentan a favor de la no pertinencia del DSM-IV como herramienta diagnóstica, o como forma clasificatoria, o como ejercicio de conceptualización de los trastornos mentales (Widiger, 2007; Wiggins, & Schwartz, 1994; Wakerfield, 1992). Sin embargo, y prácticamente a las puertas de su quinta reedición, lo que resulta súmamente interesante es que todas las querellas que increpan a éste DSM, lejos de extinguir su flama cuando se les baña en el paso del tiempo, van apoderando una fuerza mayor con el eco que se conjuga cada vez de más allegados. Aun así, el paroxismo radica en que los redactores del Manual continúan divagando en el paraje bucólico de la desidia cuando se ven interpelados por dichas problemáticas. Lo más preocupante es que éste escollo solamente figura como uno de los muchos y muy variados dentículos de ese complejo engranaje enmarcado bajo el eslogan de la actual “crisis de la psiquiatría” (Katsching, 2010) (donde eso contemporáneo yo lo puedo entender prácticamente como la totalidad de su historia -presente en más de dos siglo de cavilaciones). Por tanto, no hace falta que dedique más líneas a ese mar de tinta que inunda hasta las narices a aquello que podría denominar vagamente como el quehacer clínico de lo mental; esto a pesar de que, en muchos aspectos, en la práctica y en su administración se siga ignorando la fatalidad de la condición que lo achaca.

En el presente escrito, en cambio, buscaré echar un poco de luz al “modelo de funcionamiento histórico” (Foucault, 1974a: 59) que se encuentra en la base misma de la construcción del DSM (más allá de los retoques de sus distintas reediciones); método epistémico claramente foucaultiano pero que, cuando lo enmarco dentro de los objetivos caracterizados para éstas líneas, lo propondré a la tarea de develar la intención que empapa a toda caracterización emprendida desde el umbral conformado por el pensamiento de éste Manual Diagnóstico y Estadístico de los Trastornos Mentales; esto con el objetivo de no perder más tiempo en las más que conocidas críticas que se han venido realizando a cada una de las nuevas enmiendas maquilladas sobre las rutas que surgen del mismo punto de fuga. Por ende, me centraré en la estructura de ese primer intento de clasificación estadística -que data de 1952- y en sus antecesores que le otorgaron el linaje con el que ahora se ornamenta.

EL DSM Y SU INTENCIÓN

Es más que patente que la pretensión que dio a luz al primer DSM fue una que buscaba la homogeneización de una nomenclatura más dispar e inconsistente como sólo pueden ser las diferencias individuales presentes en los seres humanos. Puesto que la clínica psiquiátrica se basaba en sus inicios en estudios de caso realizados por «el gran médico de manicomio» en turno; generar una única forma de caracterizar a los trastornos mentales que surgían de esa práctica implicaba, de principio, la imposible tarea de conglomerar bajo un mismo apelativo a los diversos resultados que se obtenían de toda una gama de estilos de clínica: “In the late twenties, each large teaching center employed a system of its own origination, no one of which met more than the immediate needs of the local institution” (APA, 1952: v). Huelga decir que la cita anterior refiere específicamente a una clínica anglosajona, muy distinta de aquella que se podría englobar como perteneciendo al estilo de clínica francesa; en otras palabras, estos teaching centers estaban localizados solamente dentro de los Estados Unidos de América y, a pesar de que se presentaban como instituciones locales, se enmarcaban bajo un mismo territorio y, por ende, generaban una homogeneidad mayor que la que se pudiese encontrar en la conjugación de las distintas clínicas esparcidas por el globo occidental.

Por clínica me refiero específicamente a aquella práctica que emerge de la experiencia de la mirada positiva, es decir, a ese:

[…] nuevo perfil de lo perceptible y de lo enunciable: nueva distribución de los elementos discretos del espacio corporal […], reorganización de los elementos que constituyen el fenómeno patológico […], definición de las series lineales de acontecimientos mórbidos […], articulación de las enfermedades en el organismo […] (Foucault, 1953: 13 – 14).

Porque, a pesar de que aquí Foucault hace referencia a la clínica médica centrada específicamente en el cuerpo, lo somático o lo fisiológico; no hay que olvidar que, en sus inicios, la psiquiatría surge del estudio médico de los trastornos mentales (médicos en cuya formación se incluían conocimientos profundos de fisiología, química, física, neurología, anatomía y una psicología positiva; todo enmarcado desde la perspectiva de la filosofía de la naturaleza goethiana (Assoun, 1981: primera parte)).

Ésta experiencia de la clínica, por tanto, es la que brinda la posibilidad de estructurar la enfermedad dentro de un discurso científico (con todos los pros y contras que ello implica); sin embargo, el punto crucial es que la mirada es una que clasifica para observar y conocer:

El pensamiento clasificador se concede un espacio esencial que, no obstante, borra a cada momento. La enfermedad no existe más que en él, porque él la constituye como naturaleza; no obstante ésta aparece siempre un poco desplazada con relación a aquél porque se ofrece, en un enfermo real, a los ojos de un médico previamente armado (Ibíd.: 25).

Acto puramente epistémico y que se enmarca, por definición, dentro del espacio de humildad que da pié a la generación de una multiplicidad de modelos de la realidad y, por eso mismo, lejos de aquella ciega e ingenua pretensión que implica pensar una realidad de acceso directo.

Es fácil concebir entonces el por qué de esa heterogeneidad patente en la nomenclatura de los trastornos mentales: si la clínica es un acto epistémico cuya observación está en parte determinada por la teoría que la subyace inherentemente (o está en relación con ella, o es esencialmente teórica -depende de la versión a la cual queramos suscribirnos); todo intento de clasificación será indexical, es decir, dependerá tanto del punto de vista del médico que la lleva a cabo como de su formación (por tanto, toda clasificación de los trastornos mentales será parcial y se enmarcará dentro de ciertos criterios pragmáticos (Van Fraassen, 2008)).

Sin embargo, tras el legítimo objetivo presente en el DSM como una estandarización de lo disímil, se esconde un empeño de normalización cuyas miras van más allá de cualquier esfuerzo esperántico: “There is an increasing need for adequate statistical data on the mental hospital population of the country” (APA, 1952: 52); esto “to provide mental hospitals with a scheme that permits detailed tabulation of diagnostic data as well as easy contraction of the detailed classification into summary form” (Ibíd.: 74); para lo cual: “The categories should be chosen so that they will facilitate the statistical study of disease phenomena” (Ibíd.: 88); con la salvedad de que:

While no single classification will fit the specialized needs for all these purposes [meet the varied requirements of vital statistics offices, hospitals of different types, medical services of the armed forces, social insurance organizations, sickness surveys, and numerous other agencies], it should provide a common basis of classification for general statistical use (Ibíd.: 88).

Donde cabe mencionar que las dos últimas citas los redactores del DSM las tomaron de la  primera edición de la International Statistical Classification of Diseases, Injuries, and Causes of Death (1948); la cual resulta ser la forma primigenia que le fue otorgada a la actual Clasificación Internacional de Enfermedades en su décima versión (CIE-10) -catálogo coordinado por la Organización Mundial de la Salud (OMS).

Ahora bien, ¿qué significa todo esto?

  • La nueva clasificación que se construyó en el DSM como reemplazo de la antigua nomenclatura se conformó, más bien, pensándose como una ordenación que facilitara el análisis estadístico de los ahora llamados trastornos mentales («el actual eufemismo de la enfermedad mental» (Hacking, 2007));
  • esto implica que la organización del DSM, más que responder a una demanda terapéutica o de cualquier otra índole, busca ser una clasificación que permita la construcción de categorías que puedan ser correctamente tabuladas para los fines del estudio estadístico de los trastornos mentales.

Lo interesaste es que todo esto se presenta como si fuera una «necesidad creciente». La pregunta pertinente sería entender para quién es una necesidad creciente y cuáles son los fines que se buscan saciar con ella; interrogante lejana de toda trivialidad puesto que implica conocer la importancia del objetivo de una pretensión epistémica que se presenta como más adecuada que un entendimiento que permita guiar la terapéutica.

Mi propuesta estriba en que todas éstas respuestas las podemos encontrar en la historia filogenética que dio a luz al actual Manual Diagnóstico y Estadístico de los Trastornos Mentales; me centraré, por tanto, en relatar lo acontecido alrededor de su antecesores.

Los ancestros del CIE

Como bien mencioné en el apartado anterior; los redactores del DSM se apegaron a la pretensión metodológica de esa primer forma que obtuvo el actual CIE. Ahora bien, según los expertos de la OMS, en las bases históricas sobre las que se sustenta esa clasificación de enfermedades se encuentra la obra Nosologia methodica (1771) de François Boissier de Sauvages de Lacroix, amigo y contemporáneo de Carolus Linnaeus. La importancia de la Nosologia radica en que fue el primer intento de hacer una clasificación sistemática de las enfermedades (OMS, 2011). Sin embargo, nos dice la voz que representa a la OMS, el estudio estadístico de las enfermedades es un siglo mayor, y éste se puede rastrear hasta el trabajo de las London Bills of Mortality (1662) de John Graunt. Empero, hay ya aquí una primer trampa que es preciso develar: Sauvages era médico y botánico; Graunt fue demógrafo (incluso considerado el primero de su clase); el espíritu con el cual fue escrita la obra del primero apuntaba específicamente a la practica médica: “La Méthode Nosologique est assurément propre à applanir aux Etudians, les sentiers épineux de l`Art Iatrique” (Sauvages, 1771: vii); en cambio, otro fue el camino que recorrió el pensamiento del segundo cuando, más bien, su foco se centró en las formas mediante las cuales se puede llegar a conocer lo que le acontece a una población y cuáles son los usos más pertinentes de dicho conocimiento.

Por ejemplo, el título completo de la obra de Graunt es Natural and Polítical OBSERVATIONS Mentioned in a following INDEX, and made upon de Bills of Mortality; que, como bien se establece en la intitulación, resulta ser un compendio de las observaciones que «casualmente» Graunt realiza sobre las Bills of Mortality de Londres -así lo establece el autor en la dedicatoria que escribe al Barón John Lord Roberts. Sin embargo, el texto no solamente se contenta con semejante relatoría, como se menciona en su prefacio, en él también se encuentran escritas «algunas verdades que surgieron de la cuidadosa meditación que se hizo sobre esos papeles olvidados y que van más allá de ser meras opiniones; verdades que pueden resolverse en beneficios para el mundo». Las consecuencias de ese estudio bien se pueden observar en la dedicatoria que el demógrafo le realiza al Caballero Sir Robert Moray:

The Observations, which I happend to make (for I designed them not) upon the Bills of Mortality, have fallen out to be both Political, and Natural, some concerning Trade, and Government, others concerning the Air, Countries, Seasons, Fruitfulness, Health, Diseases, Longevity, and the proportions between the Sex, and Ages of Mankind. All which […] I am humbly bold to think Natural History also, and consequently, that I am abligued to cast in this small Mite into your great Treasury of that kinde (Graunt, 1662).

Consecuencias de importancia tal que, en sus conclusiones, Graunt se da el lujo de responder a la pregunta sobre el propósito de su trabajo de éste modo: “[…] those, who cannot apprehend the reason of these Enquiries, are unfit to trouble themselves to ask them” (Ibíd.). Pues es más que claro que -y cito in extenso:

[…] That whereas the Art of Governing, and the true Politiques, is how to preserve the Subject in Peace, and Plenty, that men study onely that part of it, which teacheth how to supplant, and over-reach one another, and how, not by fair out-running, but tripping each other´s heels, to win the Prize.

Now, the Foundation, or Elements of this honest harmless Policy is to understand the Land, and the hands of the Territory to be governed, according to all their intrinsick, and accidental differences […]

[…] for there is also another value meerly accidental, or extrinsick, consisting of the Causes […] It is no less necessary to know how many People there be of each Sex, State, Age, Religion, Trade, Rank, or Degree &c. by the knowledge whereof Trade, and Government may be made more certain, and Regular; for, if men knew the People as aforesaid, they might know the consumption they would make, so as Trade might not be hoped for where it is impossible […]

Moreover, if all these things were clearly, and truly known (which I have but guessed at) it would appear, how small a part of the People work upon necessary Labours, and Callings, viz. how many Women, and Children do just nothing, onely learning to spend what others get? how many are meer Voluptuaries, and as it were meer Gamesters by Trade? how many live by puzling poor people with unintelligible Notions in Divinity, and Philosophie? how many by perswading credulous, delicate, and Litigious Persons, that their Bodies, or Estates are out of Tune, and in danger? how many by fighting as Souldiers? how many by Ministeries of Vice, and Sin? how many by Trades of meer Pleasure, or Ornaments? and how many in a way of lazie attendance, &c. upon others? And on the other side, how few are employed in raising, and working necessary food, and covering? and of the speculative men, how few do truly studie Nature, and Things? The more ingenious not advancing much further then to write, and speak wittily about these matters.

I conclude, That a clear knowledge of all these particulars, and many more, whereat I have shot but at rovers, is neccessary in order to good, certain, and easie Government, and even to balance Parties, and factions both Church and State. But whether the knowledge thereof be neccesary to many, or fit for others, then the Sovereign, and his chief Ministers, I leave to consideration (Ibíd.: cuarto punto de la conclusión).

Aquí está más que claro el por qué y el para qué del conocimiento que surge del estudio estadístico de, en éste caso, las causas de muerte de una población. Huelga decir que todo lo anterior tiene una relación estrecha con la Ley de los Pobres (1834) que Foucault menciona como la tercer forma histórica que tomó la medicalización (precedida por la Medicina de Estado alemana (comienzos del siglo XVIII) y la Medicina Urbana francesa (finales del siglo XVIII)) (Foucault, 1974b). Sin embargo, si se rastrean los ancestros de esa Ley de los Pobres se encuentra que datan de mucho antes que las otras dos formas de medicalización expuestas. El primero de sus antecedentes se encuentra en la Ley de Isabel (1601), cuyas addenda se realizaron en 1662 (con la Ley de Asentamiento), en 1782 (Ley de Gilbert) y en 1795 (Acuerdos de Speenhamland) (Rodríguez, 2003: 199 – 122). A grandes rasgos, la Ley Isabel “estableció los principios de un sistema nacional de ayuda legal y obligatoria a los pobres” (Ibíd.: 120); donde el organismo implicado en otorgar dichas ayudas eran las parroquias locales -el financiamiento de éstas, empero, partía fundamentalmente del pago de impuestos. Para mantener el orden, éstas leyes establecían ciertos requisitos a los beneficiarios, de entre los cuales, los dos más importantes fueron la regularización de las personas dependientes de cada parroquia y la restricción de su movilidad (sobre todo con la ley de 1662); o sea, para poder recibir las ayudas que el  Estado por obligación brindaba, uno tenía que asistir solamente a una parroquia y establecerse ahí. Cabe mencionar que las famosas Bills of Mortality que John Graunt utilizó como la base de sus meditaciones, son los datos registrados semanalmente sobre las muertes acaecidas en cada una de las parroquias de Londres.

Como se podrá constatar, la influencia de las Bills of Mortality fue más que patente; su valor se aprecia desde las clasificaciones sobre las causas de muerte que hicieron tanto William Farr y como Marc d’Espine en 1855, pasando por las subsecuentes revisiones que culminaron en la creación de las Bertillon Classification of Causes of Death (1893), que fueron el preámbulo de la International List of Causes of Death (1938), antecedente directo de la antes citada International Statistical Classification of Diseases, Injuries, and Causes of Death (1948) (la antigua CIE) que, como anteriormente mencioné, sirvió de base para la primera edición del DSM.

No es en vano, por tanto, el reconocimiento que Foucault hace de la importancia del modelo que surge de La Ley de los Pobres, sobre todo para diferenciarlo de las otras dos formas de medicalización; no es trivial tampoco que esto surja en Inglaterra y que se enmarque dentro de las campañas de higienismo europeo. Pero iré por partes.

El espíritu de la medicalización

Para (Foucault, 1974a: 53 – 54), tres son los rasgos principales que caracterizan al fenómeno de la medicalización (una nueva política del cuerpo en el cual éste se vuelve objeto del Estado):

  • La medicina responde a otro motivo que no es la demanda del enfermo, cosa que sólo acontece en casos más bien limitados. Con mucha más frecuencia la medicina se impone al individuo, enfermo o no, como acto de autoridad.
  • El espacio de objetos de la intervención médica no se refiere solamente a las enfermedades, se incluyen también otros ámbitos en su quehacer (el espacio de la sexualidad es el ejemplo paradigmático; aunque también entran los espacios físicos: cuestiones relativas al aire, al agua, las construcciones, los terrenos, los desagües, etcétera).
  • La introducción de un aparato de medicalización colectiva, a saber, el hospital.

Todo esto representa las nuevas formas, maneras y estrategias de control y autoridad que el Estado ejerce sobre los cuerpos de las personas que habitan dentro de sus límites; todo ello implica, como bien hizo en notar Graunt, un conocimiento específico sobre todos los factores cuantitativos que puedan generarse a partir de la población (sexo, edad, religión, condición social, trabajo, enfermedades, etcétera). Sin embargo, lo anterior sólo responde al qué y al cómo; resulta de igual interés conocer también el para qué.

El tipo de medicalización inglés, que Foucault nombra como Medicina de la Fuerza Laboral, se presenta como el primer antecedente de los servicios de salud pública de la actualidad. Estos Health Service, más allá se ser una reglamentación de los servicios médicos, en 1875 se presentaban más bien como una forma de «control médico de la población» (Foucault, 1974b: 74); lo anterior no quiere decir sino que implicaban campañas obligatorias de vacunación dirigidas a los pobres y a las clases trabajadoras (con todo y sus terribles consecuencias), registros obligatorios de las enfermedades que pudieran llegar a padecer alguno de estos grupos de personas, así como localización y destrucción de los lugares insalubres -independientemente de por quién eran habitados o frecuentados:

De manera general se puede afirmar que, a diferencia de la medicina del Estado alemán del siglo XVIII, aparece en el siglo XIX, y sobre todo en Inglaterra, una medicina que consiste esencialmente en un control de la salud y el cuerpo de las clases más necesitadas, para que fueran más aptas para el trabajo y menos peligrosas para las clases adineradas (Ibíd.: 75).

Pues no hay que olvidar que, al menos en sus inicios, de la mano del higienismo siempre se encontró el pauperismo y todo lo que le circundaba. Por ejemplo, uno de los grandes antecedentes que posibilitaron la emergencia de éstas nuevas formas de poder fue la epidemia de cólera de 1832 que, comenzando en París, se extiende mortuoriamente por toda Europa. En éste sentido, la medicalización es la forma reactiva del Estado frente a los problemas que su misma organización genera; paliativo poco eficaz pues su centro se enfoca en mantener medianamente controlada a la enfermedad alejando lo más posible a los enfermos de las clases gobernantes o adineradas. El dato que libera escalofríos es la afirmación que Foucault sostiene al establecer que fue principalmente éste modelo de medicalización el único que tuvo futuro y está presente en nuestros días (con sus debidas modificaciones). Es por ello que ya no resulta intrigante que fuera justamente el National Committee for Mental Hygiene una de las voces que, en su momento, aprobase que la American Psychiatric Association se encargara de la redacción de ese primer DSM de «creciente necesidad».

RESUMEN DEL ARGUMENTO

Lo que intenté esbozar en las líneas anteriores fue la intención que proyecta el uso con el cual fue concebido el Manual Diagnóstico y Estadístico de los Trastornos Mentales. La importancia de tener dicha intención en cuenta radica en que, de principio, se establecen así los objetivos y por tanto las limitaciones de la clasificación de dicho manual; a su vez, se elimina de éste modo la posibilidad de equivocar el uso que pueda dársele. Por ejemplo, al no percatarse de la intención que subyace a toda construcción que emerge del DSM, se puede llegar a cometer el grave error -como de hecho sucede- de utilizarlo en la práctica clínica. Éste desacierto se sustenta en que no existe coordinación alguna entre el ejercicio terapéutico y las clasificaciones de éste Manual; me explico:

  1. En los antecedentes directos del estilo de clasificación que se imprime en el DSM no se encuentra una intensión de caracterizarlos de tal forma que ayuden al ejercicio terapéutico (como pudo ser en su momento la Nosologia methodica de François Boissier de Sauvages de Lacroix);
  2. en vez, el modelo que se continuó fue el establecido en el trabajo de las London Bills of Mortality de John Graunt, meditaciones que buscan resaltar las consecuencias políticas y económicas que se pueden obtener del estudio estadístico de las características de una población.
  3. El espíritu presente en las London Bills of Mortality es uno que busca sacar provecho del conocimiento extraído del análisis estadístico con miras a la administración, es decir, la información recabada sirve de guía para una correcta gobernanza -si lo traducimos al lenguaje actual.
  4. Sólo así se puede entender esa «increasing need» de datos estadísticamente adecuados sobre los padecimientos mentales de las personas hospitalizadas; se busca con estos una guía de acción para la administración de los trastornos mentales de la población por parte del Estado -que, más allá del ejercicio de autoridad presente, es un fin válido en lo que respecta a la acción gubernamental; lo criticable son las formas.

Lo anterior no resulta contrario a la afirmación que sostiene Thomas Szasz de que, en la década de los cincuenta, todavía no existía un debate abierto que sacara a la luz la responsabilidad que el Estado tenía para con los enfermos mentales (Szasz, 2011: 179); así, el primer DSM fue el comienzo de toda una campaña en pos de la regulación y administración de la salud mental. Si no se tiene claro lo anterior y, en sentido contrario, se sigue pensando la clasificación del Manual con miras clínicas, resultaría entonces que la American Psychiatric Association no sólo no hizo caso a las críticas que Szasz lanza a la clínica psiquiátrica en su conocido artículo intitulado The Myth of Mental Illness (1960), sino que la APA abonó aun más el terreno al publicar el DSM para que el médico y sus críticas pudieran afianzarse con mayor fuerza. Szasz, en el artículo antes citado, prácticamente establece que la psiquiatría de sus tiempos descansaba sobre un error conceptual, a saber, que las enfermedades mentales entendidas no como lesiones cerebrales sino como «malestares cotidianos» (problems in living) eran expresiones de lesiones neurológicas susceptibles de medicación para su tratamiento. Éste error descansaba en el hecho de que el diagnóstico de estos malestares cotidianos se basaban en desviaciones establecidas a partir de cierta normatividad social; por lo tanto, pensar en que la cura de éstas enfermedades se encontraba en la administración de fármacos era por demás desatinado (Sazsz, 1960). De aquí que, si seguimos pensando al DSM como centrado en la terapéutica, lejos de atajar el señalamiento certero que realiza Sazsz (y que le da la vuelta al mundo); solamente lo afirmaría más puesto que, como he mencionado a lo largo del texto, las clasificaciones del DSM tienen solamente el fin de facilitar el estudio estadístico de los trastornos mentales:

The Standard Nomenclature is set up for use by physicians, specialists, and hospitals to secure standard and uniform terminology in the diagnosis of the diseases of individual patients. For that purpose it must be detailed and specific, because the attending physician must record the specific disease which he is treating and cannot be satisfied with knowing only die general or semispecific category of diseases of this kind.

The very specificity and detail of a nomenclature makes it cumbersome as a list of diseases for use in statistical tabulations. As already noted, statistical analysis deals with groups of patients rather than individual therapeutic problems. The clinician’s problem is the individual patient but the problems of the epidemiologist and statistician are the “herd” or group, and in studying an outbreak of typhoid, influenza, typhus, or cholera, rneir problem is to find the source of the infection and its mode of spread so the epidemic can be stamped out. In this work they want data on groups of persons and they are more quickly summarized in the form of the International Statistical Classification (APA, 1952: 89).

Es decir (y para concluir):

No existe un ejercicio clínico detrás del DSM, por tanto, resulta vano y errado cualquier intento terapéutico que quiera utilizarlo como base; el DSM es solamente una herramienta que le permite al Estado administrar los trastornos mentales de su población, nada más que eso.

REFERENCIAS

APA (1952) Diagnostic and Statistical Manual. Mental Disorders. Washignton: American Psychiatric Association. Mental Hospital Service.

Assoun, P.L. (1981 – 2008) Introducción a la epistemología freudiana. México: Siglo XXI.

Foucault, M. (1953 – 2009) El nacimiento de la clínica. México: Siglo XXI.

_______ (1974a) Crisis de la medicina. En: La vida de los hombres infames. Argentina: Altamira.

_______ (1974b) Historia de la medicalización. En: La vida de los hombres infames. Argentina: Altamira.

Graunt, J. (1662) Natural and Polítical OBSERVATIONS Mentioned in a following INDEX, and made upon de Bills of Mortality. Texto Electrónico.

Hacking, I. (2007) Kinds of People: Moving Targets. Proceedings of the British Academy 151, 285 – 318. The British Academy.

Katsching, H. (2010) ¿Son los psiquiatras una especie en peligro de extinción? Observaciones sobre los retos internos y externos que afronta la psiquiatría. En: World Psychiatry. Revista Oficial de la Asociación Mundial de Psiquiatría (WPA). Vol. 8, no. 1 9: 21-28.

Kraus, K. (1909) La muralla china. Die Fackel, 1-16 de julio: 285-286. En: Arántegui, J. (1990) Karl Kraus. Escritos. Madrid: Visor.

Murphy, M. (2006) Psychiatry in the Scientific Image. Cambridge: The MIT Press

OMS, (2011) History of the development of the ICD. http://www.who.int/classifications/icd/en/

Rodríguez, J. (2003) La economía laboral en el período clásico de la historia del pensamiento económico. Tesis doctoral. España: Universidad de Valladolid. http://www.eumed.net/tesis/jcrc/

Sauvages, F. (1771) Nosologie méthodique, dans laquelle les maladies sont rangées par classes, suivant le système de Sydenham, & l’ordre des botanistes. Vol. I. Hérissant le fils: París.

Sazsz, T. (1960) The Myth of Mental Illness. En: American Psychologist, 15, 113-118.

_______ (2011) The myth of mental illness: 50 years later. En: The Psychiatrist, 35: 179-182

Van Fraassen, B. (2008) Scientific Representation: Paradoxes of Perspective. Oxford: Clarendon Press.

Wakerfield, J. (1992) The Concept of Mental Disorder. On the Boundary Between Biological Facts ans Social Values. En: APA; Vol. 47, no. 3: 373-388.

Widiger, T. (2007) The Impact of Clinicians on the Diagnostic Manual. En: Philosophy, Psychiatry, & Psychology; Vol. 14, no. 3: 277-280.

Wiggins, O. & Schwartz, M. (1994) The Limits of Psychiatric Knowledge and the Problem of Classification. En: Sadler, J., et al. (ed.) Philosophical Perspectives on Psychiatric Diagnostic Classification. John Hopkins University Press.

Atavismos:

Publicado: 18 diciembre, 2011 en Ciencia, Política

La neurociencia cognitiva como modelo mecanicista de explicación de los trastornos mentales.

Una primera y llana aproximación.

Preludio

Desde mi perspectiva, al comienzo del primer capítulo de su libro intitulado Mental Mechanisms. Philosophical Perspectives on Cognitive Neuroscience, William Bechtel realiza un señalamiento asaz certero:

René Descartes is perhaps the historical philosopher most strongly associated today with theorizing about the mind. Most people, when they think of Descartes’ contribution, think first of his dualism—his insistence that minds are not physical and that mental activity is not to be explained in the same manner as physical phenomena. However, his greatest legacy arguably lies in his understanding of what constitutes explanation (Bechtel, 2008: 2; el énfasis es mío).

Y es que, en efecto, no hay que olvidar que el punto de fuga desde donde se construyen todas las distintas travesías que buscan dar cuenta del fenómeno de lo mental, parten de una pretensión epistémica que ambiciona culminar en ella misma. Ahora bien, cada uno de estos trechos consagrados al entendimiento construyen para sí lineamientos epistemológicos específicos; siendo algunos de ellos intentos que aspiran a hacer las veces del umbral de epistemologización (ver nota 1) más pertinente para el campo en cuestión -procuración bañada con la humildad ciega a los distintos poderes envueltos en la parafernalia científica de la actualidad.

Uno de estos intentos lo puedo encontrar en el desenvolvimiento del recién nacido discurso de la neurociencia cognitiva, vástago producto del amasiato entre las neurociencias y las ciencias cognitivas. En el presente escrito, buscaré echar cierta luz sobre aquellas contingencias que posibilitaron el parto de ésta novedosa aproximación; me entrometeré un poco más en los entresijos del portal que lo permitió; para después sacar una conclusión tan apresurada como incompleta, pero que me permitirá ir desarrollando un proyecto tanto más sosegado como mucho más apremiante.

I. El nacimiento

Considero pertinente empezar por describir, a grandes rasgos, qué es lo que se entiende por eso denominado como neurociencia cognitiva.

A primer vista, lo rimbombante de semejante expresión puede dividirse en dos conceptos más consabidos: las neurociencias, por un lado; las ciencias cognitivas en el otro extremo. Aquí ya empiezan las dificultades puesto que, de principio, ambas disciplinas muestran una pluralidad que no es mostrada en lo singular de la expresión que ahora me compete. Sin embargo, la limitada extensión del presente texto me impedirá continuar más por ésta primer línea reflexiva.

En realidad, no se tiene que ser demasiado sagaz para inferir que la neurociencia cognitiva es aquella que nace del matrimonio de las neurociencias y las ciencias cognitivas; sin embargo, el bemol lo puedo encontrar en qué fue lo que aconteció para que éstas dos disciplinas engendraran una nueva existencia. Desde los años setenta, nos dicen (von Eckardt & Poland, 2002: 976), mientras que las ciencias cognitivas jamás desestimaron la importancia de las neurociencias; no encontraban una manera clara de cómo un modelo computacional de la mente podía instanciarse en el cerebro. A su vez, las neurociencias habían logrado grandes avances en los niveles celulares y moleculares del cerebro; pero no en el estudio de los procesos mentales superiores. Desde el punto de vista de estos autores, fue la emergencia de nuevas tecnologías tales como la PET, la MRI y fMRI la que posibilitó, en la década de los ochentas, el primer bosquejo de semejante amasiato.

The aims of this new field were, first, to further the development of adequate psychological models of cognition by generating and bringing to bear a variety of kinds of neural data and, second, to develop adequate hypotheses about the neural localization and realization of cognitive structures and processes described psychologically (Ibíd.: 976).

No es en absoluto trivial el hecho de resaltar que fueron las nuevas tecnologías las que posibilitaron el advenimiento de ésta nueva empresa; tampoco resulta así el hecho de que, en su base misma, todo esto no es más que un acto de medición situado en ciertas condiciones experimentales: “Functional MRI [fMRI] provides a noninvasive window into human brain function, allowing us to associate the performance of particular cognitive tasks with measurements reflecting brain activity” (Roskies, 2007: 860). Ésta posibilidad de asociación, sin embargo, ha sido calificada en los estratos más naives del quehacer científico como análoga a la representación fotográfica; ahora bien, que sea una representación nadie lo pone en duda, pero que ésta forma de representar sea una fotográfica, bueno, hay un gran abismo que salvar. Adina L. Roskies, la autora que por el momento me compete, tiene un texto que intitula Are Neuroimages Like Photographs of the Brain? donde justamente se dedica a desmentir semejante presunción. Para lograrlo, primero describe qué es lo que acontece en las mediciones de la fMRI (Functional Magnetic Resonance Imaging): grosso modo, escribe Roskies, lo que la fMRI permite visualizar no es la actividad cerebral sino las propiedades magnéticas del agua que se encuentra dentro del cerebro; es decir, debido a que la oxigenación y desoxigenación de la hemoglobina implica diferentes propiedades magnéticas, la resonancia detectará los cambios en la proporción de oxígeno en la sangre. Dichos cambios dependen del flujo sanguíneo del tejido cerebral que, se afirma, son a su vez dependientes de la actividad neuronal. Así, la señal que es leída se conoce como la respuesta BOLD (Blood Oxygen Level Dependent) (Ibíd.: 863 – 864).

Uno de los problemas más generales con respecto a ésta forma de medición es que, de principio, en la actualidad no existe un consenso entre los investigadores que permita el establecimiento de un solo modelo cuantitativo que pueda relacionar todos los factores involucrados en el proceso. Sin embargo, existen aun más cuestiones que sería necesario plantear. Por ejemplo, la relación temporal entre la BOLD y la actividad neuronal está desfasada de entre tres y cinco segundos, es decir, la escala temporal de la respuesta no es un reflejo temporal de la actividad neuronal (en determinados casos, la BOLD aparece hasta después de haber cesado la actividad cerebral); a su vez, y más importante aun, a pesar de que la teoría y la práctica empírica permiten establecer una relación “fundamental” entre la actividad cerebral y el flujo sanguíneo, el conocimiento actual sólo deja espacio a correlaciones generales y no a predicciones cuantitativas precisas sobre la actividad con base en la señal de la resonancia magnética. Dicho de otra forma:

What is being directly measured in functional MR is the timescale of the dephasing of water molecules in the brain, not neural activity. The visual properties of the image are not visual properties of the object being measured. Moreover, fMRI is not sensitive to brain activity, but to some of its causal effects. We infer the presence of brain activity from the change in the dephasing of the signal, and are warranted in doing so because of a general theory about the correlation between neural activity, metabolism, and blood flow (Ibíd.: 864; el énfasis es mío).

Para decirlo de manera más clara: lo que se está midiendo en la fMRI no es la actividad cerebral sino lo que, con base en cierta teoría general, se supone como un efecto de la actividad cerebral (agréguese lo desfasado de la medición). Si todo esto no es suficiente para llamar la atención, también es posible que a cierto nivel diferentes tipos de actividad neuronal impliquen los mismos patrones visuales de cambios en la presión sanguínea; es decir, las imágenes de la fMRI no pueden distinguir, por ejemplo, a toda actividad neuronal que se encuentre por debajo del umbral especificado, tampoco distingue excitaciones que son simultáneamente inhibidas, o modularity inputs provenientes de otras áreas; a su vez, puede reflejar cambios en la sincronicidad neuronal cuando no existe un cambio concomitante en la media de las excitaciones neuronales, o cuando existen grandes cambios en la excitación de pequeños grupos de neuronas, o pequeños cambios en la excitación de grandes grupos; más importante aun, la resonancia magnética no puede distinguir entre excitación e inhibición de la actividad neuronal (Ibíd.: 866). Todo lo anterior, sin embargo, no está implicando que la fMRI no sea una herramienta útil; lo que único que resalta son las limitaciones que a dicha técnica le son inherentes (cuestiones de gran importancia para la apreciación correcta de lo que es representado).

Tal vez para comprender mejor las implicaciones de lo anterior sea necesario un pequeño acercamiento al rol que juegan los modelos en ciencia.

Interludio: dos aproximaciones a la teoría de modelos
Ronald N. Giere

Para Ronald N. Giere, los modelos en el quehacer científico juegan un rol de primerísima importancia; a tal efecto que, incluso, él llega a afirmar que el razonamiento científico es en gran medida uno basado en ellos (Giere, 1999: 10). Para sustentar lo anterior, Giere construye una interpretación que dice unificada sobre el papel que desempeñan los modelos en la ciencia; sabiendo de antemano no solamente que su interpretación es sólo una de las muchas posibles, sino también tomando en cuenta que el análisis filosófico no podría encontrar algo así como una única esencia de la naturaleza de los modelos (Ibíd.: 1).

Para éste autor, la función principal de los modelos es ser una herramienta que permita representar el mundo; ahora bien, el cómo por dicha vía se logra semejante pretensión implica la aceptación de las siguientes cuatro características:

  1. Los modelos representan el mundo solamente de una manera parcial;
  2. la forma en la cual logran éste cometido es guardando cierta similitud con respecto al mundo que buscan representar.
  3. Parte importante de ésta similitud es que viene prefigurada por grados, es decir, existen modelos que representan de mejor manera los rasgos del mundo que buscan modelar;
  4. estos grados de similitud se especifican desde fuera del modelo, dicho de otra manera, se establecen como siendo relativos a los intereses de aquellos que buscan representar algún aspecto del mundo.

Ahora bien, el núcleo de la propuesta de Giere gira en torno a la similitud. Él acepta que es un término problemático; sin embargo, busca dar argumentos para sustentarlo no sólo como una mejor alternativa al isomorfismo, sino como no siendo un concepto a primera vista trivial (por el mero hecho de cualquier cosa puede guardar cierta semejanza con cualquier otra). Para lograr éste cometido, Giere argumenta a favor de que los modelos están condicionados por la intenciones de aquellos que los construyen, hasta el grado de afirmar que en la ciencias, por ejemplo, el acto de representar el mundo vía los modelos es fundamentalmente pragmático (Giere, 2004: 743); cuando éste pragmatismo se entiende dentro de la forma:

S uses X to represent W for purposes P (Ibíd.: 743).

De ésta manera, la similitud está en función del uso que, en éste caso el científico, pueda darle al modelo en cuestión.

Note that I am not saying that the model itself represents an aspect of the world because it is similar to that aspect […] It is not the model that is doing the representing; it is the scientist using the model who is doing the representing (Ibíd.: 747 y 748).

Giere aquí retoma una señalización que hace Hacking en (1983), y afirma su pertinencia para entender el meollo de la reflexión: no estamos hablando de «representations», sino que estamos refiriendo a acciones específicas, «representings». Ahora bien, estos actos de representar son, como ya mencioné, dependientes de las prácticas de los científicos; sin embargo, un punto que considero crucial de enunciar también es el hecho de que los modelos no surgen de la nada, es decir, que existe un acto creativo en su núcleo mismo. La construcción de modelos implica por tanto que el científico, en primera instancia, deba de seleccionar los rasgos del mundo que considere relevantes para poder modelarlos; estos rasgos pasarán a formar parte del modelo como elementos imbuidos en relaciones específicas que él construirá. La piedra angular que puedo encontrar en la propuesta de Giere es el hecho de que, al menos en las «ciencias maduras», son determinados principios los que hacen las veces de guía en éste acto de selección: “Principles, I suggest, should be understood as rules devised by humans to be used in building models to represent specific aspects of the natural world” (Giere, 1995: 133 y 134); y dado que estos principios «de alguna forma parecen capturar algo fundamental de la estructura del mundo» (Ibíd.: 133), parte del sustento de los modelos que se derivan de ese punto de vista particular estará en relación con esa «alguna forma» en la cual los principios capturan ciertas propiedades fundamentales del mundo. Dicho de otra manera, desde la lectura que estoy realizando, para Giere la pertinencia de un modelo se encuentra en una doble relación: 1) para con las prácticas científicas y 2) para con los principios desde los cuales el modelo se construyó. Sin embargo, lo anterior no es todo lo involucrado en éste andamiaje; para el autor que ahora me convoca existe otro paso a tomar en consideración, podría decir, un cierto acto de prestidigitación para que, a partir de los modelos específicos que se construyen desde los principios, se generen grupos de hipótesis y generalizaciones que puedan ser corroboradas dentro de ciertos marcos de experimentación. Giere lo plasma en la siguiente figura (Giere, 2004: 744):

Hasta aquí se podría afirmar con algún sustento que ciertas propiedades específicas de los modelos que resultan pertinentes son hasta cierto grado similares a determinadas propiedades del mundo cuando son ensambladas en hipótesis y generalizaciones que llegan a corroborarse. Sin embargo, ésta relación no es una sencilla: “The connection to the world is provided by a complex relationship between a model and an identifiable system in the real world” (Giere, 1995: 131); aunque, desde mi conocimiento sobre el tema, Giere no ahonda más en ello. Ahora bien, no hay que dejar de lado la existencia de entidades completamente abstractas que también forman parte de los modelos; es decir, no todos los elementos que conforman cierto modelo tienen un correlato similar en las partes del mundo representadas. Tampoco hay que olvidar el hecho de que incluso, no importando el grado de similitud de los elementos del modelo con ciertas propiedades del mundo, todo modelaje es una abstracción (Ibíd.: 131) o un constructo imaginario (Giere, 2008: 3).

Bas C. van Fraassen

A mi parecer, existen más cosas en común que desacuerdos entre la teoría representacional de modelos suscrita por Giere y la forma en la cual van Fraassen construye su teoría sobre la representación en las ciencias. Sin embargo, creo que también es cierto que las reflexiones de éste último son más profundas y, por tanto, entrevé factores que se escapan a la visión no tan sutil de Giere. A grandes rasgos, la diferencia puede apreciarse en esa tersa tesitura que existe entre un «realismo moderado» (Giere, 2008: 107) y un «realismo del sentido común» (van Fraassen, 2008: 3); pero cuyas consecuencias se agudizan en las implicaciones que puedan emerger de una o de otra -la lucidez implica modestia intelectual (Quintanilla, 1994: 27).

Para Bas van Fraassen está claro también que la representación de los fenómenos empíricos es central para el quehacer científico; sin embargo, las diferencias comienzan, al menos conceptualmente hablando, cuando éste último afirma que la representación se hace en términos de «artefactos físicos y matemáticos» (van Fraassen, 2008: 1). En la concepción de Giere, por ejemplo, se puede estirar el lenguaje y pensar que él también utiliza dicha diferenciación puesto que, como bien estipula en su texto de (1999) Using Models to Represent Reality, existen tanto modelos físicos, como modelos teóricos, matemáticos, diagramáticos, etcétera. Sin embargo, el emplear el término «artefacto», a mi parecer, atina más a resaltar el hecho de que es un ser humano, con ciertas intenciones, el que lo construye con el fin de representar el mundo. Sin embargo, más allá de éste intento por conglomerar algo que tal vez no sea necesario, la diferencia la puedo encontrar en la acentuación que van Fraassen posiciona sobre el acto de la medición y de la experimentación:

The achievement of theoretical representation is mediated by measurement and experimentation, in the course of which many forms of representation are involved as well. Scientific representation is not exhausted by a study of the role of theory or theoretical models. To complete our understanding of scientific representation we must equally approach measurement, its instrumental character and its role. I will argue that measuring, just as well as theorizing, is representing. The representing in question also need not be, and in general is not, a case of mimesis; rather, measuring locates the target in a theoretically constructed logical space (Ibíd.: 2).

El acto de medición es el punto de partida para la edificación teorética y, por tanto, comprender qué es lo que acontece en ese nivel puede darnos las pistas necesarias para entender más a profundidad lo que ocurre en los demás niveles. En cuanto a éste acto, van Fraassen escribe atinadamente:

[…] the analysis of measurement […] can be completed only through a reflection on indexicality. Since at least the time of Poincaré, Einstein, and Bohr it is a commonplace that a measurement outcome does not display what the measured entity is like, but what it ‘looks like’ in the measurement set-up (Ibíd.: 2).

A mi parecer no es en absoluto trivial que el concepto de indexicalidad, concepto de suma importancia para la propuesta de van Fraassen, él lo retome de la artes, en especial de la pintura:

The painter’s eye is located with respect to the content of the painting in a way that he himself can express with ‘‘this is how it looks to me from here’’[…] These are indexical statements, with the words ‘‘here’’ and ‘‘there’’ playing the context-sensitive role (Ibíd.: 59).

De aquí que exista una íntima relación entre el medir y el representar o, como diría van Fraassen, «medir es una forma de representación».

Cuando se habla de representaciones, sin embargo, es un lugar común pensar que éstas están en función de la similitud con el objeto que buscan representar; es decir, que mientras más se parezca la representación al objeto, mejor se habrá realizado la tarea en cuestión. Uno podría entonces mencionar que fue justamente el arte de copiar casi a la perfección los rostros, atuendos, salones y cuerpos de los aristócratas del renacimiento lo que hizo que los pintores pasaran de ser meramente uno técnicos del pincel a convertirse en todo unos artistas. Sin embargo, y van Fraassen lo trabaja con maestría, lo anterior no sería atinado por ciertas propiedades que forman parte del acto de representar, por ejemplo, el hecho de que en muchos casos «para que una representación resulte exitosa, sea necesario un deliberado alejamiento del parecido» (Ibíd.: 14) de ésta para con su objeto a representar. En la pintura, por seguir con el mismo tema, para que un objeto de tres dimensiones pueda parecerlo cuando es representado sobre un lienzo es necesaria cierta distorsión. Así, “[it] seems then that distortion, infidelity, lack of resemblance in some respect, may in general be crucial to the success of a representation” (Ibíd.: 13); aunque, van Fraassen acota, en algunos contextos sí es necesario el parecido de la representación para que ésta sea exitosa. Ahora bien, la distorsión no es una distorsión cualquiera, debe de ser una «distorsión selectiva»; incluso llegando a ser una “useful misrepresentation” (Ibíd.: 87) para lograr el cometido.

De aquí que el bien representar, la representación que pueda tener un uso adecuado, no va ya apareado necesariamente con la corrección del copiar o la esencial excelencia de la mimesis; «la forma en la cual los modelos se conectan con el mundo», diría Giere, «depende de una compleja relación»; relación que va más allá de la similitud -completaría van Fraassen.

II. … y sus consecuencias

Si lo establecido por van Fraassen es el caso, y yo realmente lo pienso, es fácil dar cuenta del por qué de ciertas consecuencias que en la actualidad se le achacan al modelo de la neurociencia cognitiva; de principio, aquella que afirma que las explicaciones de mecanismos constitutivos en neurociencia cognitiva son más que simplemente explicaciones basadas en mecanismos (von Eckardt & Poland, 2005), donde lo innegable de un dejo de suficiencia se hace escuchar. A su vez, otra querella poco más aventurada es la que, considero, incluso señalaría que éste tipo de explicaciones podrían no ser siquiera necesarias. Todo esto con base en el análisis que surge de reflexionar si un modelo es o no pertinente para cierto uso especificado de principio.

Resumiré el argumento a la luz de ésta postura.

  1. El ejercicio de medición que posibilitó la viabilidad de la neurociencia cognitiva dista mucho de ser un ejercicio de mimesis;
  2. es más, el acto de representar presente en la susodicha medición ni siquiera está representado aquello que se busca medir, sino que es solamente una imagen desfasada en el tiempo de lo que vendría a ser un indicador tanto de aquello que es lo que realmente interesa -hecho que se encuentra condicionado por la pertinencia de la teoría general de la actividad cerebral-, como también de procesos otros no distinguibles dentro de la misma representación, absteniéndose incluso de representar otros más que se encuentran involucrados.
  3. Éste tipo de mediciones en neurociencia cognitiva son indexicales; esto no sólo quiere decir que son parciales y que representan al fenómeno desde esa parcialidad, sino que existe uso uso inherente a ellas a partir del cual puede ser evaluada su pertinencia.
  4. Las explicaciones en neurociencia cognitiva, por tanto, son incompletas; y puede ser el caso de que incluso ocluyan factores de suma importancia.

La aceptación de (1), (2) y (3) podría no ser problemática. Sin embargo, la posibilidad de (4) se puede llegar a poner en duda. Para sustentar su viabilidad trabajaré un ejemplo tan consabido como llamativo y escandaloso; pero primero, estableceré los criterios de evaluación pragmática necesarios.

(Craver, 2007: 1) afirma:

Neuroscience is driven by two goals. One goal […] is explanation […]
The second goal of neuroscience is to control the brain and the central nervous system.

Donde por esto último entiende:

Neuroscience is driven in large part by the desire to diagnose and treat diseases, to repair brain damage, to enhance brain function, and to prevent the brain’s decay. This goal is evident in the many designer pharmaceuticals promising to ameliorate psychiatric and physiological symptoms, in the skill of the brain surgeon, and in the confidence of behavioral and psychiatric geneticists. If neuroscience succeeds in this second goal, it will open medical possibilities that now seem like science fiction, and it will provide human beings (for good or ill) with new and powerful forms of control over the human condition (Ibíd.: 1 – 2).

Ahora bien, es claro que Craver está haciendo referencia sólo al campo de las neurociencias; pero, a su vez, la atención que se le brinda a las llamadas distorsiones cognitivas en determinadas psicoterapéuticas también establece desde esa línea una herencia que (von Eckardt & Poland, 2005) consideran pertinente extender a la neurociencia cognitiva (consideración que yo también considero atinente).

Pasaré a reflexionar sobre un breve ejemplo.

A partir de los años sesenta y a la luz del descubrimiento de los ansiolíticos, comenzó una de las grandes carreras económicas que incluso en la actualidad sigue siendo ampliamente redituable: “la epidemia de la prescripción”. Uno de sus brotes empero, azotó con tal fuerza los noventa que bajo la forma del Prozac, el candoroso público expectante de maravillas tuvo a bien el bautizarlo como “la píldora de la felicidad”. A grandes rasgos, el mecanismo que subyace el efecto de la fluoxetina se puede intuir desde su sobrenombre: inhibidor selectivo de la recaptación de serotonina (ISRS); esto en conjunción con su objeto: la depresión. Es decir, los médicos y psiquiatras que recetan Prozac a sus pacientes, al menos quisiera creer, piensan que el mecanismo que subyace a la depresión es aquel que juega un papel de primerísima importancia en la reencapsulación de serotonina en el cerebro (al menos así lo enseñan los libros de texto). Por tanto, la explicación de lo que es la depresión implica la referencia a un funcionamiento anormal de semejante mecanismo (el tratamiento que se infiere, huelga decir, es el reacomodo de la anormalidad cerebral).

En su libro The Emperor’s New Drugs. Exploding the Antidepressant Myth, Irving Kirsch relata los avatares a los que se enfrentó desde que en 1998 publica, con la ayuda de Guy Sapirstein, un artículo intitulado Listening to Prozac but Hearing Placebo: A Meta-Analysis of Antidepressant Medication; esto en Prevention & Treatment, revista científica cobijada por la American Psychological Association (APA). La escala de las vicisitudes que se avecinaron se pueden leer desde el hecho patente en que los editores de la revista, al publicar el susodicho artículo, juzgaron como pertinente agregar al inicio de éste una advertencia donde aparecen nada más y nada menos que seis veces la palabra “controversial” -refiriéndose al texto, a la conclusión, al tratamiento estadístico y a la metodología; para regresar de nuevo al texto y a la conclusión (en 15 líneas) (citado en: Kirsch, 2010: 23 – 24). Claro está, poniendo ante todo los valores de la tolerancia y la inclusión.

No es nada trivial todo éste prolegómeno puesto que, grosso modo, la conclusión a la que los autores llegaron implicó afirmar que solamente un 25% de los efectos terapéuticos que se produjeron en una muestra de tres mil pacientes con la etiqueta de deprimidos se debió a la sustancia activa del medicamento; y, más sorprendente aun, que un nada nimio 50% de los efectos terapéuticos reportados obedecieron más bien a la alteración producida por los placebos inherentes a los estudios en cuestión (por la inclusión metodológica de grupos control). Y la no insignificancia de estos resultados se ve exacerbada cuando, anualmente, la industria farmacéutica reporta 19 billones de dólares en ventas por prescripciones de antidepresivos (Ibíd.: 1). Más aun, los resultados estadísticos permanecieron estables cuando en el análisis se separaron las distintas sustancias antidepresivas, es decir, los viejos antidepresivos tricíclicos ya abandonados y los novedosos ISRS´s tuvieron el mismo impacto terapéutico. Peor aun, no hubo diferencias estadísticamente significativa entre los efectos de los antidepresivos y otros medicamentos no enfocados en paliar la depresión (como barbitúricos -recetados para contrarrestar el insomnio-, benzodiacepinas -un cierto tipo de sedantes-, así como también hormonas tiroideas sintéticas (Ibíd.: 13)).

Sin embargo, la historia no termina aquí. Durante la efervescencia de las pasiones encontradas en los resultados del análisis, Thomas J. Moore -«a senior fellow in health policy at the George Washington University School of Public Health and Health Services»- le propuso a Kirsch replicar el controversial estudio; pero ésta vez haciendo uso del US Freedom of Information Act para obtener los datos no publicados de las farmacéuticas que habían sido enviados por ley a la Food and Drug Administration (FDA); esto como un requisito para su aprobación. La FDA, para contextualizar un poco, es el organismo regulatorio que extiende licencias a los medicamentos que surgen de los laboratorios corporativos; por tanto, el análisis que se efectúa es más que escrupuloso. Sin embargo, es por todos sabido, existe una cierta tendencia denominada como «publication bias»; dicha propensión no es otra cosa que el fenómeno de que los resultados publicados son los positivos, los negativos se quedan en la alcoba. La primer gran sorpresa, nos dice Kirsch, fue dar cuenta de que había datos extraviados en los archivos de la FDA; obviamente, esto salió a la luz porque eran patentes la incongruencias entre los informes y los documentos. Pero más allá de éste obstáculo de procedimiento que podría achacarse a un error plenamente burocrático, lo interesante fue ver cómo se modificaron las conclusiones que aquel artículo de 1998 había arrojado:

Analysing the data we had obtained from the FDA – data that included unpublished as well as published studies – we found even less of a drug effect than in our analysis of the published literature. Our analyses showed that 82 per cent of the response to medication had also been produced by a simple inert placebo. As conventionally interpreted, this means that less than 20 per cent of the response to antidepressant medication is a drug effect (Ibíd.: 27 – 28).

Más allá de éste «dirty little secret» que el autor hace bien en sacar a la luz pública -ya que no realizó descubrimiento alguno, los expertos ya lo sabían (Ibíd.: 38)-; y más allá también de todos los entresijos político-económicos que toscamente se mostraron bajo la pulcritud de la piel estadística; existen indicios de una línea reflexiva que parten de la gráfica que muestra los resultados del meta-análisis (el de 1998) (Ibíd: 10):

Es de destacar, en primera instancia, que la psicoterapéutica involucrada obtuvo mejores resultados que la sola implementación del fármaco en cuestión. A su vez, si uno voltea los datos, más allá de mostrar que el fármaco mostró beneficios en sólo el 28% de los casos (en el segundo estudio); la pregunta importante sería aquella que pudiera figurar qué fue lo que aconteció para que en el restante 82% sí existieran efectos terapéuticos -casos donde el medicamento cuyo objetivo era incidir directamente sobre el mecanismo cerebral subyacente a la depresión no estuvo presente. Siendo un poco defensor de causas perdidas, podría ser el caso de que el mecanismo cerebral de la recaptación de serotonina tenga algo que ver con la depresión, pero lejos está de ser una explicación suficiente del fenómeno; a su vez, y más importante aun, lo que los datos parecen indicar es que incluso puede ser puesta en duda la necesidad de ese tipo de explicación para la depresión (ver nota 2).

Notas

1: “Cuando, en el juego de una formación discursiva, un conjunto de enunciados se recorta, pretende hacer valer (incluso sin lograrlo) normas de verificación y de coherencia, y ejerce, con respecto al saber, una función dominante (de modelo, de crítica o de verificación), se dirá que la formación discursiva franquea un umbral de epistemologización” (Foucault, 1969: 243 – 244; énfasis en el original).

2: Si se acepta la caracterización que sostengo para las explicaciones en la clínica de lo psíquico, a saber, que una explicación atinente de los trastornos mentales es aquella mediante la cual se pueden producir efectos terapéuticos (o explicar satisfactoriamente por qué no se lograron conseguir).

Referencias

Bechtel, W. (2008) Mental Mechanisms. Philosophical Perspectives on Cognitive Neuroscience. USA: Routledge.
Craver, C. (2007) Explaining the Brain. Mechanisms and the Mosaic Unity of Neuroscience. Oxford: Clarendon Press.
Foucault, M. (1969 – 2008) La arqueología del saber. Buenos Aires: Siglo XXI.
Giere, R. (1995) The skeptical perspective: Science without laws of nature. En F. Weinert (ed.) Laws of Nature: Essays on the Philosophical Scientific, and Historical Dimensions.
_______ (1999) Using Models to Represent Reality. Texto electrónico.
_______ (2004) How Models Are Used to Represent Reality. En: Philosophy of Science, Vol. 71 pp. 742–752.
_______ (2008) Chapter 14: Why Scientific Models Should not be Regarded as Works of Fiction. Texto electrónico.
Hacking, I. (1983) Representing and Intervening. Cambridge: Cambridge University Press.
Kirsch, I. (2010) The Emperor’s New Drugs. Exploding the Antidepressant Myth. UK: Basic Books.
Quintanilla, M. (1994) Introducción. En: Putnam, H. (1987 – 1994) Las mil caras del realismo. Barcelona: Paidós.
Roskies, A. (2007) Are Neuroimages Like Photographs of the Brain? En: Philosophy of Science, Vol. 74 pp. 860-872.
Van Fraassen, B. (2008) Scientific Representation: Paradoxes of Perspective. Oxford: Clarendon Press.
Von Eckardt, B. & Poland, J. (2002) Mechanism and Explanation in Cognitive Neuroscience. En: Philosophy of Science, Vol. 71, No. 5.

 Sapere aude.

El nombre de Pablo Fernández Christlieb es uno que resulta bien conocido, al menos para aquellos de entre los cuales en parte nos dedicamos al estudio de la cultura, la sociedad o todo eso que pueda englobarse dentro de lo colectivo. Sin embargo, tal vez por estar vivo aun, el eco de éste estudioso de lo afectivo no resuena tanto como yo quisiese que retumbara.

Pablo Fernández Christlieb

Pablo Fernández ha recuperado y enriquecido magistralmente una tendencia epistémica de lo social impuestamente olvidada por lo que en México podría recibir el vago nombre de Academia (y cuya vaguedad resulta del intersticio que emerge de la estrecha relación existente entre la vacuidad de su propuesta y la sumisión con que acata los estándares de una ciencia que el siglo pasado a hecho bien con desechar -y sí, en algunos aspectos, nuestra Academia es más bien como una reliquia digna del escaparate bastardo de lo fallido y la burocracia). Y bueno, más allá de proseguir con mi opinión que inevitablemente desembocaría sobre lo paupérrimo de las formas de evaluación de nuestro quehacer científico, explicaré un poco más por qué saqué a colación el nombre de Pablo Fernández.

Hace algunos años, no sé en realidad cuántos, en la Facultad de Psicología de la UNAM, el personaje que ahora me convoca dictó una conferencia que lamentablemente no he conseguido aun; pero dado que podría afirmar que una de mis pocas cualidades es poseer una memoria bien entrenada (lo cual no exenta que cometa alguna falta grave para con el decir de Pablo), relataré qué de esas palabras me pueden ayudar a echar cierta luz sobre la velocidad (y bueno, también haré rodeos y reflexiones personales en el camino). Ésta charla a la que hago mención recibía un nombre que, para sustentar debidamente mi afirmación anterior, no recuerdo en lo absoluto; sin embargo, los retazos que hago bien en guardar en alguna parte de mi psique que no puede reducirse meramente a mi cerebro, son de cosas de una mayor importancia que sobradas intitulaciones, o fechas exactas, páginas requeridas o nombres propios. Y así, para lo que aquí me compete, esto más importante de retener es que su plática versó sobre la estética de la violencia.

 

Para hablar sobre el tema, Pablo Fernández construyó una muy amena categorización: existe una estética lenta, y existe una estética rápida. Ésta última velocidad de la estética es una a la que estamos habituados en nuestra cotidianidad y, para poner uno de los ejemplos que él gusta en mostrar, ésta se hace presente cuando nos gusta una canción pop, en el momento justo en que su pegajosa melodía nos achaca el buen juicio y no podemos sacarla de nuestra cabeza. Así, cuando nos enfrentamos con el hecho de que la estamos cantando para nuestros adentros (público más selecto y exigente que el que podamos toparnos en el exterior), o caemos en la vergonzosa cuenta de que llevamos todo el día repitiendo el estribillo una y otra vez cual cliché mercadotécnico; es entonces que experimentamos en nuestro ser la velocidad de una estética que nos impacta al momento (de ahí su rapidez) (ver nota 1). Por estética, el autor al que me he estado refiriendo, no se toma el gran embrollo que surge del pensamiento que busca en cada uno de los meandros conceptuales la piedra angular que sostenga una buena apreciación de una de las más coronadas abstracciones; para él, la estética es el nombre que recibe la cualidad de una forma que nos llama la atención. Y así, la forma de los objetos cuya estética se mide en altas velocidades es una que nos atrae desde el primer momento que choca con nuestro sentir; sin embargo, inherente a su velocidad es el hecho de que, así como nos retiene, así de rápido nos deja de sorprender y de perseguir. Su condena está impregnada en su velocidad; su tormento es la ligereza con la cual deja de existir para nosotros.

La estética lenta, en cambio (y como podrán ahora suponer), es una cuya forma tarda mucho tiempo en llamarnos la atención; su paso sosegado se desplaza gradualmente hacia nosotros; primero, tal vez, un descuido fue lo que hizo que volteáramos a observar aquella forma, después, una pequeña curiosidad ociosa, luego esporádicos merodeos, hasta que, en algún momento, ella que pasó inadvertida se encuentra casi en comunión con nuestra alma. Diferencia radical en la cualidad de ésta velocidad, se ha tornado en una forma que, mientras más pasan los años, más colorida y definida se encuentra tatuada sobre nuestra afectividad. Las formas cuya estética recorren el mundo a ésta velocidad se pueden encontrar en aquellas obras de arte que uno tarda mucho tiempo en comprender, años quizá; pero que, cuando lo logra, jamás pierden su brillo y, aunque parezca contradictorio, mientras más tiempo recorra nuestro sentir su profunda superficie, más aspectos estéticos le encontramos quisquillosamente a su figura. Pero no todo es miel sobre hojuelas, éste tipo de pensamiento lento está cada vez más en peligro de extinción.

La velocidad actual que, como cabe suponer, es una de una brutalidad exponencial; deja cada vez menos tiempo para el disfrute y el goce de lo estéticamente lento. La eficiencia laboral, las capacidades múltiples (que se encuentran en relación inversa con la profundización del pensamiento), la especialización, la híper especialización (que nos acerca cada vez más a los insectos -y no en el sentido que Bakunin hubiera deseado), la imposición de la bien vista manera multitask de proceder, la cercanía y la inmediatez que surgen de las nuevas formas digitales de relación (que están en relación directa con el alejamiento de la calidez que posee un cuerpo cuando reposa apaciblemente a nuestro lado), la urgencia de metas, el apremio por la novedad, la presteza de lo que por definición se aleja borrascosamente de lo perenne; todas éstas formas son unas cuya estética mantiene una rapidez despeñada en lo que podría conglomerar dentro del ansia por el consumo de lo inmediato (donde el vulgar consumismo es una de sus muy afamadas líneas terminales… que no concluyen en lugar alguno -al contrario, son un loop eterno que no desgasta sino a quien lo padece). En el otro extremo del velocímetro, contrariamente a lo antes expuesto, nos encontramos con la sabiduría que se encuentra depositada en la templanza con la cual nos acercamos a las cosas; parquedad cuyo miramiento no es por el tiempo sino por la profundidad. El buen gusto, por poner otro ejemplo, es uno que se construye con oficio y disciplina; una buena charla es aquella que amanece junto con la serena embriaguez del vino; las personas más amadas son aquellas que ya no se encuentran en la ebullición del enamoramiento; un habano se fuma lentamente, y el placer se exacerba si es maridado con un whisky de más de doce años de añejamiento; el sonido robusto de un vinilo conservado no se compara en nada con la escuetérrima calidad subyacente a los 128 kbps; lo afable de una compañía se construye lentamente con los años que se recorren. La estética de la violencia, en cambio, es una estética de la más extrema rapidez.

Quisiera que todo esto no se tomara como un mero juicio moralino; más bien, preferiría que que se pensase como una toma de postura que lejos está de buscar ser pregonada panfleteramente. El centro que me convocó a escribir éstas reflexiones en torno a la estética de la violencia fue justamente la demanda de escribir, en formato de ceros y unos, una breve reflexión sobre la velocidad. Ahora bien, todo lo anterior simplemente figuró una forma de acercarse al mundo de lo social desde la perspectiva de la velocidad, es decir, tomada así como marco conceptual; sin embargo, me resulta muy interesante que esto fue en contra del epígrafe que ciñe éste número veinticinco de la revista que contiene mis palabras:

Nosotros afirmamos que la magnificencia del mundo se ha enriquecido con una nueva belleza, la belleza de la velocidad.

"La Guerra" (1916) - Giacomo Balla

Futuristas o no, lo manifiesto en ésta frase puedo leerlo en esa «belleza de la velocidad» que, por ejemplo, dista mucho de ser una belleza en la velocidad. Y es que efectivamente, existe algo muy estético en la velocidad; pero nombrarlo como belleza me causa un poco de suplicio. Aun así, supongo que Filippo Tommaso Marinetti no sostendría que exista una belleza en la velocidad; pero belleza o no, la velocidad tiene en sí misma una estética muy poderosa; una estética que, puedo pensar, siempre busca más y mayor velocidad para mantener su fuerza de atracción. Por eso la velocidad llega a calificarse como una de las adicciones que tanto tormento causan a la avaricia de los que representan al Estado. Sin embargo, más allá de que sea la muerte de uno mismo quien pare en seco nuestro desplazamiento; es de llamar la atención que es en las pasiones donde la velocidad se vuelve más vertiginosa: lo insondable del odio más amargo, la envidia más terrorífica y lo ácido y malicioso de sus arpías, los entresijos de la violencia que ha dejado atrás a la inmanente agresión; pero también, el fuego que despide la cólera de los arrebatos amorosos, el extremado cansancio de aquellos que viven por y para sus ideales, el desgaste y la inanición de los que hacen hasta el hartazgo aquello que aman con vehemencia; todo ello tiene su centro común en ese buscar cada vez más y más.

La rapidez de una necesidad que no se ataja se encuentra en una íntima relación con la velocidad que ambiciona inmediatez, a su vez, presentifica lo rotundo de un goce que jamás encontrará su satisfacción; la mesura, en cambio, va más de la mano con aquella prudencia que Aristóteles gustaba en alabar. Sin embargo, como buenos seres humanos, nos encontramos fluctuando entre un extremo y el otro; en nosotros mismos personificamos una tendencia que apunta a uno de los dos ideales que he venido dibujando. Y así como la velocidad con la que nos desenvolvemos en nuestra vida cotidiana puede ser una más rápida o una más lenta; es mejor saberse conformado por aceleraciones y desaceleraciones, conocerse en los extremos más pasionales y en la más cabal de las mesuras; pero, sobre todo, saber que cada acto, cada palabra, cada error, cada nimiedad incluso, tiene consecuencias palpables en nosotros mismos, en quienes nos rodean y en la sociedad que, bien o mal, nos cobija. La última decisión, sin embargo, siempre está en nuestra inconsciente capacidad para la acción, en uno u otro sentido; es mejor sabernos predispuestos.

γνῶθι σεαυτόν

(más…)

No, por delicioso que sea el pasatiempo de medir, es de todas las ocupaciones la más inútil, y someterse a los decretos de las mensores la más servil de las actitudes.

Virginia Woolf (Woolf, 1929: 94)

Prefiguración

El presente texto buscó seguir hasta sus últimas consecuencias una idea.

Generalmente, se ha sostenido que utilizar el lenguaje de la probabilidad es, cuando no natural, útil para tomar decisiones y evaluar nuestras creencias en la cotidianidad. Esto representa un gran inconveniente cuando uno se pone a pensar seriamente si las personas comunes y corrientes andan haciendo multiplicaciones y divisiones diariamente en su vida. Sin embargo, el modelo que se propone con el nombre de bayesianismo, y que dista un poco de aquél que propuso en su momento el reverendo Bayes, es uno que muestra una buena intuición de principio: tener en cuenta que existe en todas las personas un conocimiento previo desde donde se aborda el mundo. De ahí que decidiera probar si el problema anterior residía solamente en la asignación de números a nuestras creencias, o existe algo más que entorpece toda la ecuación. Por tanto, la propuesta que introduzco es pensar sobre la posibilidad de que las probabilidades utilizadas en las redes bayesianas sean unas no numéricas.

De los procesos bayesianos

Leonard J. Savage, en su texto intitulado The Foundation of Statistical Inference, sostiene que son tres los argumentos que se encuentran en la base del bayesianismo (Savage, 1962; citado en: Pearl, 2001: 19):

  1. It is plain silly to ignore what we know;
  2. it is natural and useful to cast what we know in the language of probabilities and;
  3. if our subjective probabilities are erroneous, their impact will be washed out in due to time, as the number of observations increases.

Es más que conocido el salto epistémico que implica aceptar (i), al menos cuando se le compara con las primeras versiones del positivismo lógico y sus enunciados observacionales (o protocolares, o elementales -dependiendo de a quién nos refiramos-); donde lo nuclear de la concepción gira en torno a la idea de una observación neutral transformada en un enunciado con significación. Sin embargo, cuando a partir de los treintas se empieza a gestar la tesis de que toda observación está cargada de teoría (o es dependiente de ella, o es esencialmente teórica), y surgen textos tan paradigmáticos como el de Norwood Russell Hanson (1958), o frases tan significativas como la que enuncia Thomas Samuel Kuhn en The Structure of Scientific Revolutions cuando cierra su más que conocido capítulo X; no sólo sería ingenuo no aceptar (i) sino que, incluso, sería pertinente reflexionar profundamente sobre las implicaciones que pudiese tener directamente en (iii).

Éste es el primer señalamiento que puedo hacer al bayesianismo; sin embargo, a pesar de que este punto es uno que considero esencial para el devenir de la reflexión filosófica sobre la ciencia, en el presente texto no lo abordaré más por cuestiones relativas al espacio.

Judea Pearl, en su artículo Bayesianism and Causality, or, Why Am I Only a Half-Bayesian, es quien hace el segundo y tercer señalamiento al bayesianismo. Uno de ellos implica afirmar rotundamente que (iii) es falso. El segundo, y es justamente en el que profundizaré a lo largo del presente texto, es el que busca desmentir la generalidad que se desprende de (ii).

Sin embargo, antes de dar ese paso que considero pertinente y necesario, cabría preguntarse más por ese lenguaje de la probabilidad puesto que, al parecer, no deja de rondar los pasillos del quehacer científico; pero, sobre todo, cabría reflexionar sobre qué se encuentra sosteniendo la afirmación de que “sería natural y útil” pensar lo que sabemos en los términos que emanan de la matemática y de la lógica de la probabilidad.

De las probabilidades

Mucho se ha escrito sobre la base de suponer que el lenguaje de la probabilidad no sólo es el lenguaje de la inducción sino que, también, es la herramienta que utiliza un sujeto racional para tomar decisiones (Teoría de la Elección Racional); incluso, que es el lenguaje mediante el cual los individuos ponderan sus creencias -sin la necesidad de hacer mención de la utilidad esperada. Éste último punto es sumamente controvertido, cuestionado de principio por la posibilidad de graduar las creencias de los sujetos y, en segundo lugar, puesto en duda en el punto mismo que afirma que el razonamiento de los sujetos se subsume a los axiomas de Kolmogorov. Sin embargo, pareciese existir cierto consenso en lo que respecta a sostener que la probabilidad es el lenguaje de la inducción. Aun así, un texto a mi parecer clave que desmiente esto último es el de John D. Norton (2006). En éste artículo, el autor sostiene que lo anterior no es siempre cierto y que, por tanto, los argumentos inductivos pueden sostenerse sin la necesidad de apelar a la probabilidad (en cualesquiera de sus múltiples interpretaciones). Norton sostiene, en vez, una noción material de la inducción que se basa en el principio principal David Lewis. La teoría material de la inducción nos dice, grosso modo, que el tipo de lógica que debemos de utilizar para sostener una inducción es dependiente de las propiedades físicas involucradas en el fenómeno a estudiar.

Sin embargo, continuar por el trecho que guía a Norton es desviarme de los objetivos del presente texto. Es más atinado, en cambio, detenerme un poco en el paréntesis que mencioné al paso en el párrafo anterior -el que saca a relucir la carencia de una sola interpretación de la probabilidad.

León Olivé resume muy atinadamente éste problema:

Habiendo revisado algunas de las más importantes interpretaciones de la noción de probabilidad, he llegado a la conclusión de que ninguna de ellas integra, por sí sola, una teoría adecuada de este concepto. No sólo es poco satisfactorio el significado que asignan, cuando lo hacen, al término ´probablidad´, sino que tampoco analizan apropiadamente a qué se refieren los enunciados probabilísticos -si es que se refieren a algo- ni dan cuenta del papel de los métodos de asignación de probabilidades numéricas o de los procesos racionales que se ponen en juego […] (Olivé, 1981: 29)

Es realmente de extrañar que, aun sabiendo todo el abismo que se encuentra el centro mismo de la concepción de probabilidad; se asuma que los sujetos la utilizan como lenguaje en su vida cotidiana o, dicho en sus palabras, que es natural para ellos tomar decisiones apegándose a Kolmogorov.

Resultaría sumamente extenso ponerme a relatar en estos momentos toda la historia de las distintas nociones de probabilidad; es más resultaría incluso vano puesto que existe mucha literatura al respecto. Me parece más viable relatar las conclusiones a las que llega Olivé en el texto antes citado; al cual gusto en remitir si se quiere profundizar más allá de las sencillas líneas que a continuación redactaré.

A grandes rasgos, Olivé encuentra dos sentidos en los que se utiliza el concepto de probabilidad: un enfoque informal, que llama modal, y que representaría una interpretación subjetiva de la probabilidad que nombraré aquí prob1; y un segundo enfoque que implica pensar a la probabilidad en términos epistémicos, prob2.

Prob1 surge del análisis que se hace de la probabilidad entendida en su uso cotidiano y, en este sentido, “se emplea para modificar la fuerza con la que decimos algo, pero no afecta aquello de lo cual estamos hablando” (Ibíd.: 30). Sumado a esto, continúa, es importante resaltar que existe en el mundo una forma en la cual la creencia expresada en términos probabilísticos puede ser afirmada o falseada. En ésta interpretación, existe una cuantificación en términos de la fuerza con la cual uno afirma cierto enunciado con base en la información adicional que se tiene. Sin embargo, ésta cuantificación es una que se escapara por completo al lenguaje numérico; es, por tanto, que Olivé llega a afirmar que la prob1 “al diluirse en el manejo de términos modales, es incuantificable. El problema de medirla carece de sentido (Ibíd.: 48).

La cuestión aquí, puedo suponer, es que para sostener el argumento que esgrime Olivé en el artículo citado, es necesario resaltar la incuantificación de la prob1; pero, a mi parecer, el autor maneja de forma muy estricta lo relativo a la cuantificación y la remite solamente a la atribución de un número, sea éste racional, real o imaginario. La propuesta que iré esbozando implica aceptar que existen ciertas cuantificaciones que no son numéricas y que, por tanto, no sólo no seguirían los axiomas de Kolmogorov, sino que se volvería necesario construir tanto otro lenguaje como otro espacio de existencia para ellas.

En lo que respecta a la prob2, se afirma en cambio que:

[…] es una propiedad de los modelos teóricos, racionalmente construidos, que representan sólo aspectos parciales de sistemas reales. La probabilidad es la medida de posibilidad de los estados finales de los modelos teóricos. La probabilidad mide qué tan posible es un evento teórico, o sea, una representación racional de un evento, o un tipo de eventos reales. El evento teórico es la representación racional del evento real; es un estado posible de un modelo teórico, el cual representa parcialmente al sistema real (Ibíd.: 39).

Lo anterior implica que la probabilidad “queda en función de los modelos teóricos” (Ibíd.: 40) y, por tanto, el cálculo que se haga dependerá de los presupuestos que sostengan a cada tipo de modelo; es decir, que un mismo evento podrá obtener distintos valores probabilísticos a la luz del sistema lógico matemático al cual se inscriba. De aquí que no exista un procedimiento único que pueda o no desmentir un enunciado probabilístico.

Hasta aquí ya se puede vislumbrar un gran problema. Todos los modelos lógico matemáticos de la probabilidad, es decir, todos los modelos formales, se apegan al sentido de la prob2 que es uno epistémico. Sin embargo, ejecutan malabares teóricos para poder estirar ésta interpretación de probabilidad y subsumir dentro de ella a la de la prob1 (cuando ya se argumentó que son sentidos sumamente distintos).

Podría pensar que la diferencia mayor se encuentra justamente en esa manía de la numeración. Lo cual no resulta ser una extrañeza cuando se analiza la historia y la cosmogonía que está detrás tanto de la probabilidad, como de la ciencia y los hombres que la estudian (y donde el bayesianismo pareciese hacer las veces de piedra angular).

Grosso modo, Giere (1995) expone que existieron dos grandes influencias en la base de la concepción contemporánea de la ciencia: la teología y la matemática. En la primera podemos encontrar los vestigios de las ideas que sostienen la existencia de algo así como unas leyes universales en la naturaleza -recordemos a Newton y su necesidad de introducir a Dios como explicación de sus ecuaciones. En lo que respecta a la matemática, son más bien las formas de pensamiento que encuentran su raíz en las sectas pitagóricas. Es de resaltar que toda la cosmogonía que se desprende de ésta última escuela, desestimaba todo lo que tuviese que ver con números (por aquello de las atrocidades que representan los números irracionales y demás). Sin embargo, con los desarrollos de Descartes, Galileo y Newton comienza una nueva era de matematización del mundo (Martínez, 1997) donde, partiendo del supuesto del mundo mecánico, la idea era encontrar las ecuaciones que pudiera reflejar ésta estructura. El paso siguiente que encontramos en ésta historia, es el de la probabilidad que, puedo pensar, representa el relajamiento, del relajamiento, del relajamiento del criterio de conocimiento por demostración de Aristóteles. O, dicho en otras palabras, al irse imponiendo el mundo a las formas válidas de conocimiento que el ser humano fue desarrollando, la probabilidad llega en última instancia como esa herramienta que, de alguna manera, puede sortear la imposibilidad del conocimiento absoluto. En este sentido, la probabilidad expresada en números fue la forma como el ser humano pudo enfrentarse con el mundo. De aquí que, actualmente, quiera pensarse que es la única forma válida de hacerlo.

Regresando a lo que me compete. Uno de los mayores inconvenientes que puedo observar en el argumento (ii) de Savage, es en lo que respecta a lo natural de expresar nuestras creencias en el lenguaje de la probabilidad. No es que él lo esté afirmando de forma explícita, pero pareciese que detrás de ese calificativo, más que una intención normativa, se esconde una sentencia descriptiva que está muy lejos de sostenerse. Es sumamente sencillo preguntar a cualquier persona si sus creencias están graduadas y, si esto el caso, verificar que éstas a su vez respondan a los axiomas de Kolmogorov; el resultado obvio es que no es así. Ahora, si el contrargumento implica afirmar que lo que acontece es que solamente una persona racional lo expresa de esa manera y bajo esas reglas, entonces lo que sucedería es que el grueso de la población o no es racional (lo que no quiere decir que sea irracional), o esa forma de caracterizar la racionalidad está errada.

El cuestionamiento de fondo apunta a la necedad de meter números en cualesquiera de los fenómenos que se quieran estudiar; reitero, como si esto asegurara su validez o cientificidad. Si en la actualidad tanto físicos como matemáticos están poniendo en duda la fuerza de la probabilidad para resolver problemas de fenómenos físicos imaginarios (ver el ejemplo del domo que analiza Norton, 2006); ¿por qué seguir insistiendo en la necesidad de colgarle números a las creencias de los sujetos?

De las probabilidades no numéricas

Como desarrollé anteriormente, el sentido de la prob1 es uno difuso que se escapa a la graduación numérica. En general, éste tipo de probabilidades son conocidas como subjetivas. Lo interesante es que, en el álgebra bayesiana, las probabilidades anteriores son subjetivas y sólo mediante sus artilugios se convierten en probabilidad epistémicas (posteriores). La cuestión de resaltar aquí es que, en el bayesianismo, las probabilidades anteriores son adornadas con números que las representan; ¿cómo hacen esto? Para mí sigue siendo un misterio, por eso existieron intentos como el de la probabilidad lógica de Carnap que pretendía convertir a las probabilidades (grado de confirmación en su modelo) en enunciados analíticos. Pero Rudolf Carnap no fue ni el primero ni el único en hacerlo; antes de él podemos nombrar al más que conocido Bruno de Finetti, a Toulmin o al no tan reconocido Cesáreo Villegas. Éste último, por ejemplo, tiene un texto que me llamó mucho la atención pues lo intituló: On Qualitative Probabilitiy σ-Algebras. La sola idea de pensar probabilidades cualitativas me pareció un excelente camino para confrontar la manía de cuantificación que he venido desarrollando. Sin embargo, la sorpresa me embargó cuando su artículo trataba sobre la formalización que convierte éstas probabilidades cualitativas en un número cuantificable, es decir, sobre el cómo asignarle una medida de probabilidad. Esto lo hace, en resumidas cuentas, siguiendo la siguiente línea de pensamiento: “[…] if a qualitative probability is atomless and monotonely continuous, then there is one and only one probability measure compatible with it, and this probability measure is countably additive” (Villegas, 1964: 1787). Lo cual no sólo hace que las probabilidades cualitativas sean numéricas, sino que mediante éste mecanismo, las probabilidades subjetivas se subsumen a su axiomatización:

We simply remark that a qualitative probability, as a numerical one, may be interpreted either as an objetive or as a subjetive probability, and therefore the followong axiomatic theory is compatible with both intepretations of probability (Ibíd.: 1787).

Sin embargo, la formalización que hace Villegas sirvió de base para posteriores desarrollos más acorde con el espíritu de éste texto. Dentro de ellos, puedo mencionar a Terrence Fine y su artículo A note on the existence of quantitative probability.

Lo destacado de Fine es que justamente introduce la noción de probabilidades no numéricas, sin embargo, cuantificables. La forma en la que lo hace es introduciendo una relación de probabilidades comparativas, donde tres teoremas y seis axiomas bastan para probar su existencia. No me detendré aquí a analizar la validez de sus pruebas; asumiré su corrección y, más bien, me centraré en analizar sus presupuestos (los postulados de Fine se encuentran en el Anexo1).

Cuando anteriormente destaqué que era necesario otro lenguaje y otro espacio desde donde se pudiera trabajar la cuantificación de las probabilidades subjetivas, Fine parece encontrarlo en la lógica de conjuntos y la topología.

El primer paso en falso que salta a la vista es en lo que respecta a C4, lo cual implica que el espacio muestral sea uno contable, es decir, que no sea infinito. Sin embargo, al pensar en utilizar éste modelo en el conjunto total de las creencias de un individuo; resulta obvio que no es un conjunto infinito, pero que sea posible contar y tener conciencia de todos los elementos de éste conjunto surge en primera instancia como una imposibilidad.

El resultado de esto implica aceptar que incluso un modelo de probabilidades no numéricas es inutilizable para proveer herramientas manejables para un sujeto. Sin embargo, esto solamente si se toma en cuenta la totalidad del conjunto de creencias de un sujeto en determinad tiempo t. Lo que podría ser es que funcionase cuando se tomara en cuenta como la totalidad del sistema de creencias a un subconjunto de ellas, que estén involucradas en cierto evento x y en determinado momento t. Si esto es el caso, entonces C4 no presentaría inconveniente alguno y, así, se podría cuantificar la fuerza de determinada creencia sin la necesidad de asignarle un número. Sin embargo, ésta salvedad de que el conjunto a cuantificar sea un subconjunto específico para cierta x en t del total de las creencias de un sujeto, suena a que no resulta ser ni natural, incluso que sería más bien inútil en la mayoría de los casos cotidianos (y aquí entrarían de lleno todas las críticas que se le hacen a la Teoría de la elección racional, sobre todo aquellas que mencionan que los individuos tienen cosas más importantes qué hacer que estar asignando probabilidades a sus creencias para tomar decisiones).

Sumando a esto, otro inconveniente que considero infranqueable es en lo que respecta a las creencias inconscientes de los sujetos (en el sentido común del término). Es decir, a todas aquellas creencias que no están presentes en la consciencia del sujeto en t y que, sin embargo, están relacionadas con x. Si tomamos en cuenta que la formulación bayesiana toma como base las creencias anteriores del sujeto y, a su vez, se acepta la existencia de creencias inconscientes en juego; habrá sin lugar a dudas un error siempre presente en las probabilidades posteriores puesto que no estarán computadas todas las variables anteriores en juego. De aquí que propuestas como la de Gadamer que llaman a volver conscientes nuestros prejuicios, sean del todo aplicables a este modelo.

De ciertas conclusiones

El hilo que me fue llevando a responder a ciertas críticas que se le hacen al bayesianismo proponiendo que, en vez de utilizar probabilidades numéricas (por lo no natural que representan para el grueso de la población), se utilizaran probabilidades no numéricas (por encontrarlas más acorde con la forma natural de pensamiento de los individuos); resultó ser un callejón sin salida. Puedo decir que existía cierta luz en la idea de que era la asignación de números la que tergiversaba un procedimiento que, a primera vista, me resultaba cabal. Sin embargo, la conclusión implica aceptar que no es la medición numérica sino cualquier tipo de cuantificación que se subsuma a un modelo formal la que se topa con la guillotina de la vida psíquica de los individuos. Esto no quiere decir que no exista cierta cuantificación de la fuerza con la cual uno pueda afirmar una cosa por sobre la otra; el problema reside, a mi parecer, en querer encontrar una fórmula precisa que abarque todos los casos.

Existen en la actualidad otros modelos que intentan formalizar todo este embrollo, uno de ellos son las redes neuronales que se utilizan en el estudio de los fenómenos complejos. Sin embargo, estos modelos responden más bien a una heurísitica que a la rigidez axiomática. Podría ser un camino a seguir el profundizar sobre las consecuencias de estos modelos. Otra herramienta que pudiera servir son las nuevas lógicas difusas; pero no tengo aun el conocimiento para poder afirmarlo con cierta fuerza.

Anexo 1

 

Referencias bibliográficas 

Fine, T. (1971) A note on the existence of quantitative probability. En: The Annals of Mathematical Statistics. Vol. 42, No. 4, 1182-1186.

Giere, R. (1955) The Skeptical perspective: Science without Laws of Nature. Texto electrónico.

Hanson, N. R. (1958) Patterns of Discovery: An Inquiry into the Conceptual Foundations of Science. Cambridge University Press.

Hájek, A. (2009) Fifteen Arguments Against Hypothetical Frequentism. En: Erkenn. 70: 211-235.

Kuhn, T.S. (1962) The Structure of Scientific Revolutions. Chicago: University of Chicago Press.

Martínez, S. (1997 – 2001) De los efectos a las causas. Sobre la historia de los patrones de explicación científica. México: IIFs, PAIDÓS y UNAM

Norton, J. (2006) Induction without Probabilities. Texto electrónico.

Olivé, L. (1981) El concepto de probabilidad. En: CRÌTICA: Revista Hispanoamericana de Filosofía. Vol. 13, No. 137.

Pearl, J. (2001) Bayesianism and Causality, or, Why I Am Only a Half-Bayesian. En: Corfield, D. y Williamson, J. (eds) Foundations of Bayesianism. Texto electrónico.

Savage, L. J. (1962) The Foundations of Statistical Inference. Londres: Methuen and Co. Ltd.

Villegas, C. (1964) On Qualitative Probabilitiy σ-Algebra. Texto electrónico.

Woolf, V. (1929 – 2004) Un cuarto propio. México: Colofón.

“Estamos ante el problema de la investigación convertida en negocio.”

Ana Cristina Laurell (Laurell, 2009)

Prefiguración

A pesar de que se pudiera pensar que la ciencia de la farmacéutica es una que nace junto con los albores de la humanidad; será solamente de la posterior industria farmacéutica de la que me ocuparé en las siguientes líneas. No es trivial mencionar lo milenario de aquella práctica y dar cuenta con ello de la importancia que ha tenido en la historia del hombre; pero tampoco lo es el recordar qué sentido se encuentra en su etimología. Es interesante resaltar que éste último proviene del griego phármakon, cuyo significado apunta a nombrar a todo aquello que es un remedio y un veneno a la vez -en algunas interpretaciones. Y así, es en ésta fusión de sentidos que podemos enmarcar de mejor manera todo lo que está en juego en la medicina basada en medicamentos -fármacos.

La industria farmacéutica, puedo decir, surge como una explosión en el siglo XX; a pesar de que su origen como ciencia independiente dentro de la taxonomía contemporánea se remonta a los inicios del siglo XIX. Y es así porque a partir de ese momento que se empieza a tener el conocimiento básico tanto del ser humano como de su entorno para poder construir una técnica basada en esa ciencia. Sin embargo, lejos está de ser algo oculto el hecho de que una concepción mercantil ensombrece los rededores de la industria en la que ha devenido.

Cuando mencioné que la ciencia farmacéutica ha acompañado a la humanidad desde sus albores mismos; ésta afirmación toma su fuerza cuando se le compara con el papel actual de su industria pero, sobre todo, cuando se sacan a relucir sus diferencias. Y qué mayor distinción de la antaña ciencia a la actual industria, sino poner de manifiesto el factor económico de ésta última por sobre la primera. Mientras que el centro de la ciencia farmacéutica en la antigüedad giraba en torno a la salud; pareciese que en la actualidad es solamente una cuestión de utilidad, mercancías y ganancias.

Me resulta imposible en el presente texto abordar a detalle toda ésta historia; lo que haré en vez es empezar a prefigurar las líneas base desde donde se podría construir una historia de la industria farmacéutica. Es por tanto que la delimitación del presente texto se encuentra ya desde su intitulación como un breve bosquejo.

La industria farmacéutica (IF) y la mercadotecnia

El Doctor Vannevar Bush, en la respuesta que hace a la petición de recomendaciones del entonces presidente de los Estados Unidos de América, Franklin D. Roosevelt, sobre el devenir de la política científica en ese país; hace hincapié, una y otra vez en el problema que sería ver a la ciencia y a la tecnología como un negocio. Desde su perspectiva, siempre debe tenerse como meta el bienestar general de la población, su seguridad y su protección por sobre todas las cosas. Por ejemplo, en las recomendaciones que hace sobre los mecanismos que debería de seguir toda inversión en proyectos de investigación, se lee la siguiente frase:

La agencia [encargada de manejar los fondos de inversión] debe fomentar la investigación mediante contratos o subsidios a organizaciones no pertenecientes al gobierno federal. No debería de contar con laboratorios propios (Bush, 1945: 25; el énfasis es mío).

Es muy fácil dar cuenta el por qué se debiese de reglamentar una prohibición en estos términos. Sobre todo a la luz que la actualidad echa sobre muchos investigadores que son ahora también emprendedores -levantando sus propios laboratorios farmacéuticos (Si bien Craig Venter es el ejemplo por excelencia; tampoco dista mucho de él el premio Nobel Eric R. Kandel). Y así, cuando es un interés económico el que se encuentra detrás de la investigación, es decir, es ya una cuestión de ganancias monetarias más que de “amor” al conocimiento o una “lucha en beneficio de todos”; el resultado dista mucho de la ética que se presupone en los cimientos de un trabajo que es clave para el devenir de la humanidad.

En el año 2006, en un artículo cuyo título habla por sí mismo (“Las 20 farmacéuticas más grandes del mundo rehusan cumplir códigos de ética”), Susana González resumió de una manera muy cabal éste problema:

La millonaria industria farmacéutica, cuyos principales representantes se ufanan de ser “empresas socialmente responsables”, carece de mecanismos de transparencia o códigos de ética y conducta profesional sobre la promoción de sus productos, al recurrir a la publicidad disfrazada, entrega de muestras gratuitas de fármacos -que buscan incidir en las pautas de prescripción de los médicos- y prácticas de corrupción, en detrimento de los derechos de los consumidores y su salud (González, 2006; énfasis en el original).

Uno de los datos más alarmantes que arroja el estudio citado es que más del 35% de las infracciones son relativas a “información engañosa sobre el medicamento”, lo cual conlleva, según la Consumer International -organismos patrocinado por la Unión Europea que llevo a cabo la investigación-, a puntualizar que la industria farmacéutica “no tiene en mente el interés de los consumidores, sino que se centra más en beneficios maximizando los ingresos por ventas.”

Pfizer, por ejemplo, en el 2009 pagó dos mil trescientos millones de dólares por una mala “comercialización” de medicamentos, en donde surgían prácticas poco éticas y demás subterfugios (Reuters, 2009); muy a pesar de la ya existencia legal de la farmacoeconomía.

No es por tanto en vano dar cuenta que la cotización de la industria farmacéutica en México sea de un 1.3% del Producto Interno Bruto; elevándose hasta un 7.8% cuando se especifica dentro del sector manufacturero; con un total de 138 millones de pesos en el mercado mexicano durante el 2008 (según los datos que arroja la Cámara Nacional de la Industria Farmacéutica, CANIFARMA). Y que, por ejemplo, la XX Convención Nacional de la CANIFARMA próxima a llevarse a cabo se titula “El sector farmacéutico en el desarrollo de México”; donde dos de las seis mesas tratarán temas concernientes al marco regulatorio, tres mesas sobre fomento y crecimiento económico, y solamente una tratará temas sobre el acceso a la salud. Lo cual no hace de extrañarse la actitud de Novartis en la India donde, juicios mediante, están en contra de la reglamentación de patentes en ese país; puesto que significaría que la farmacéutica no obtenga grandes ganancias y, por tanto, significaría un gran acceso a medicamentos genéricos por la población de la India (Núñez, 2007)

Podría pensarse, jugando un poco al abogado del diablo, que no es algo tan malo todo lo anterior puesto que sirve como un impulso económico para nuestro país que ni siquiera el eufemismo “en vías de desarrollo” pareciese aplicar. Sin embargo, un artículo de 1998 intitulado: Perspectiva de la industria farmacéutica mexicana, escrito por Gustavo Viniegra González, apunta que, a pesar de que México es autosuficiente en la producción de las principales materias primas necesarias para la elaboración de antibióticos; el producto final es uno cuya mayor participación está en manos de las industrias extranjeras. Cosa nada novedosa en la forma de administración de nuestra economía.

La IF y su presupuesto orgánico (temas de emergencia)

Más allá de las cuestiones económicas que circundan a la industria farmacéutica, uno de sus grandes problemas se remonta a lo difuso de los presupuestos que sostiene, es decir, de aquello que supuestamente sustenta su práctica como una científica. Al parecer, ésta industria acepta como verdad el hecho de la enfermedad y que su causa es orgánica; cuando ni la primera es un concepto claro y distinto, y la segunda está en entredicho.

Hace unas semanas se llevó a cabo el I Coloquio de Filosofía de la ciencias médicas: lo normal y lo patológico en el Instituto de Investigaciones Filosóficas de la UNAM. En este coloquio se congregaron médicos, psiquiatras, historiadores, filósofos, psicólogos y antropólogos (a grandes rasgos); y, prácticamente, las preguntas que siempre estuvieron en el aire fueron: ¿qué es la enfermedad?, ¿cómo poder caracterizarla?, ¿toda causa es orgánica? Y el único consenso alcanzado por los especialistas fue que no se tenía una respuesta para ninguna de estas preguntas.

Uno de los temas de filosofía de la ciencia que también se tocaron ahí fue el de emergencia. A grandes rasgos, ésta postura filosófica está en contra del reduccionismo que afirmaría que las explicaciones en biología son reducibles a explicaciones en física y/o en química. John Dupré, uno de los exponenetes del emergentismo, critica duramente ésta idea y saca a relucir el hecho de que no sólo el objeto de la biología es radicalmente distinto al de la física o la química (de principio, se está tratando con organismos vivos); sino que, la forma particular en la cual se estructuras las moléculas físicas y sus propiedades químicas en un organismo, hacen que surja algo en esa ordenación que no puede ser reducible a sus componentes. Es decir, que aun teniendo todo el conocimiento de las partes y la forma en la cual interactúan, sería imposible predecir el comportamiento del todo a partir de esa información. Por lo tanto, se necesita de una ciencia que estudie a los fenómenos también desde ese nivel superior para poder comprenderlos a profundidad.

Todos estos son temas muy complejos como para desarrollarlos cabalmente en el presente texto; sin embargo, sirven muy bien para sacar a relucir la complejidad del organismo vivo y cómo es imposible poder caracterizarlo desde el nivel mismo de sus componentes. Las farmacéuticas parecen ignorar estas discusiones que son de suma importancia puesto que están en su base misma, y tanto de operación como de existencia. Puesto que, si como afirma Dupré, es imposible predecir el comportamiento del todo a partir del conocimiento de sus partes, ¿qué papel tendrían los medicamentos en la enfermedad de un organismo vivo al centrarse solamente en sus componentes físicos y químicos? Si en verdad existen propiedades emergentes, éstas no están en el nivel de las partes del organismo; y si la enfermedad es algo más que un malfuncionamiento de los componentes, es decir, entra dentro de una concepción holista del organismo (como muchos profesionales afirman), los medicamentos no alcanzarían a tocarla en su totalidad.

Aun así, toda la mediatización de la industria farmacéutica carga siempre con el slogan: científicamente comprobado (cualquier cosa que esto pudiese significar). Pero cuando uno analiza a profundidad el sentido de ese científicamente comprobado, lo que sale a colación son más dudas que confianza. De principio, si la industria farmacéutica es una que se respete, sus inferencias serían inducciones sustentadas por el lenguaje de la probabilidad; entonces, no sólo es de resaltar que Hume destrozó el posible sustento lógico de la inducción, puesto que también el lenguaje de la probabilidad tiene sus  propios inconvenientes. ¿A qué se están refiriendo cuando hablan de probabilidad? ¿Es una interpretación física, epistémica o subjetiva? ¿Son probabilidades frecuentistas, hipotéticas, físicas, infinitesimales? ¿Son números racionales, reales o imaginarios? El problema del lenguaje de la probabilidad no está en la forma en la cual se calcula (obviando el gigantísimo problema del marco de referencia), sino en qué significa el número, a qué del mundo nos remite. Desde Hempel se sabe que las leyes probabilísticas no tocan al mundo; bien se puede obtener un hecho que vaya en contra de ellas y no por eso sería un contraejemplo; o bien, se obtiene un hecho que va de acuerdo con ellas pero no sería uno que funcionara como una comprobación.

¿A qué voy con todo esto? Lo único que quiero mostrar es que todas aquellas cosas que le resultan una obviedad a la industria farmacéutica, son detalles nada resueltos y, por ende, siempre es mejor ponerlos en duda que aceptarlos como verdaderos sin más. Porque, sobre todo, éstas prácticas lejos de no ser éticas, son sumamente peligrosas (recordemos la talidomina o, en fechas más recientes, las muertes supuestamente relacionadas con la heparina -un producto similar, pero más barato- (ver: Reuters, 2008)).

La IF y la salud mental

Si cuando uno reflexiona acerca de la enfermedad física se topa con todos los inconvenientes antes esbozados; cuando uno centra su estudio en la salud mental, las cosas se tornan más infranqueables aun. El problema, considero, es que si no existe un desarrollo cabal de la enfermedad a nivel biológico, al dar el salto a lo psíquico se pierden y difumina aun más las fronteras que podrían delimitar el objeto de estudio. Este tema es sumamente interesantes; sin embargo, también es sumamente más complejo que el anterior; por lo tanto, sólo esbozaré unas pequeñas líneas base.

A partir de mediados del siglo pasado, teniendo en consideración el descubrimiento de los ansiolíticos, comenzó lo que Laurent (1999) llamó: la epidemia de la prescripción. Al parecer, los ansiolíticos resultaron ser la panacea de las nuevas formas de expresión del malestar en los sujetos del siglo XX. Incluso, hasta la fecha, la clínica psiquiátrica sigue ésta senda de la medicación que no sólo carece de sustento científico (los temas de emergencia se exponencian en lo que respecta a la vida psíquica); sino que existen estudios que desmienten que estos llamados fármacos de la felicidad tengan algún efecto benéfico sobre las personas que los consumen (ver: Laurance, 2008)

Aun así, existen políticas públicas como la que lanzó George W. Bush durante su mandato, la llamada Nueva Libertad para la Salud Mental, donde prácticamente cualquier ciudadano tendría un psiquiatra de cabecera desde el nacimiento.

El problema general que surge es que, sin una comprensión cabal de lo que significa enfermedad mental y, por ende, del sentido que se engloba dentro de la salud mental; se presta a que prácticas clínicas privadas y, peor aun, políticas públicas, observen solamente una parte del gran espectro de posibilidades sobre la vida psíquica de los individuos. De aquí que la práctica farmacéutica en estos temas sea tan bien acogida puesto que no sólo resulta económicamente viable; también, existe un desapego de parte de las autoridades para con las personas que podrían sufrir algún padecimiento mental. Tan es así que, desde mediados del siglo pasado, se empezó a gestar el conocido movimiento antipsiquiátrico por parte de algunos psiquiatras. En este movimiento social se abogaba por un respeto de la locura y una apuesta para un mayor conocimiento de ella. Lo que es de destacar es que el movimiento antipsiquiátrico en México tuvo un gran auge, incluso siendo sede de Congresos Internacionales y asilo de grandes pensadores de ésta corriente de pensamiento.

La IF y la tergiversión de la enfermedad

Una de las consecuencias que surge de la carencia de un marco teórico de la enfermedad, es que ésta pueda tomar formas muy variadas dependiendo siempre de los intereses que se encuentren detrás. Michelle Foucault lo expuso no solamente en lo que respecta a la salud mental (en sus libros de La Historia de la locura en la época clásica y El poder psiquiátrico especialmente), sino también en la clínica médica (con su texto de El nacimiento de la clínica). Sin embargo, no es el único exponente de estos temas; Iván Illich con su Nemesis Médica es parte esencial del desarrollo del estudio de la medicina y su clínica.

Podría parecer que del hecho de que no existe un marco teórico que sustente ésta práctica pueda no inferirse que ella sea un fracaso; se puede ver con claridad que la medicina ha ido avanzando en su desarrollo, que los medicamentos son mejores que los anteriores, que la esperanza de vida ha ido en aumento con los años. Sin embargo, ello no oculta que existan actos que tergiversen ésta visión mesiánica de la ciencia médica (solamente comparable con aquellas posturas que zarpan del fallido proyecto del positivismo en cualquiera de sus versiones). De facto, se pueden observar un gran auge de enfermedades, síndromes y trastornos que, al parecer, surgen de la nada. Un síndrome, por ejemplo, es un conjunto de síntomas que alguien infiere que están relacionados y los nombra como una enfermedad. Pero, más allá de éstas prácticas socioconstruccionistas de la enfermedad y la salud, existen otros factores más terrenales que muestran el punto a discusión.

Ray Moynihan, en un artículo publicado en la revista British Medical Journal, argumenta el cómo la industria farmacéutica en coalición con algunos médicos, inventa enfermedades, construye síndromes, trastornos y corrige rangos de normalidad; todo ello para vender fármacos que alivien esos efectos.

[…] la industria “transforma” procesos naturales o etapas de la vida normales para ampliar el espectro de las enfermedades y vender sus medicamentos.

[…] por ejemplo, si se reduce la cifra en que se considera anormal la presión arterial, de un día para otro muchas personas, que un día estaban sanas, amanecen convertidas en hipertensas, por lo que deben tomar medicamentos.

[…] unen síntomas, recogen datos, alimentan estadísticas y producen informes (casi siempre financiados por la industria), que luego se difunden en congresos patrocinados por esas mismas compañías (Moynihan, 2007).

Más allá de lo discutible de las afirmaciones anteriores; no se puede negar que es un campo que merece especial atención por parte de los estudiosos del tema. Sobre todo cuando uno de los más controvertidos trastornos es el de déficit de atención con y sin hiperactividad; cuya “única cura”, según dicen los que saben, es mediante medicación. Lejos estamos en la actualidad de seguir pensando a la ciencia como una práctica aséptica de toda política y sesgo humano.

La IF y el negocio de la vacunas

Las vacunas han sido todo un tema que ha requerido de la especial atención de los interesados; sobre todo cuando del 6% de crecimiento anual de la venta de productos farmacéuticos, las vacunas experimentan un 20% de crecimiento por año (Ribeiro, 2009). En el 2007, por ejemplo, las vacunas para adultos superaron por primera vez a sus congéneres pediátricas. Dentro de toda la gama de posibles ejemplos que se podrían citar aquí, he escogido solamente dos que pienso como emblemáticos de las cuestiones que se mueven por debajo de este producto: la vacuna contra el virus de papiloma humano (VPH) y la vacuna contra la influenza.

En lo que respecta al la vacuna contra el VPH, demasiada tinta nacional e internacional a corrido dando a conocer tanto los estragos que ocasiona en aquellas que la consumen, como la mina de oro que representa para aquellos que la producen:

La vacuna contra el virus del papiloma humano (VPH) volvió a ser noticia durante el mes pasado. El País, ABC, Rebelión, CBS News y CNN reportaron efectos secundarios graves y muertes asociadas con la vacunación masiva realizada en Estados Unidos y España. En febrero de 2009 se habían reportado 10 mil 151 reacciones adversas al Sistema de Notificación de Eventos Adversos en Vacunas (VAERS, por sus siglas en inglés), en el cual participan el Centro para el Control de Enfermedades y la Administración de Alimentación y Drogas, instituciones estadunidenses. Las reacciones muy graves, por lo que 458 pacientes tuvieron que ser hospitalizados y 29 fallecieron (Laurell, 2009).

Cuando uno revisa el sustento de la susodicha vacuna, encuentra solamente dos argumentos: el costo-beneficio que representa para el sector salud y que ayuda a prevenir el cáncer cérvico uterino. Mientras que el primero de ellos nos hace recordar aquello que Foucault nombró como biopoder y que, más allá de lo rebuscado de su lenguaje, la analogía que funciona es observar a la población como un rebaño que tiene que sobrevivir a bajo costo para seguir produciendo. En lo que respecta al segundo argumento, el de la supuesto prevención del cáncer cérvico uterino, es más que conocida su desmentida:

[…] el ensayo clínico (ClinicalTrials.gov NCT00092534) hecho en 11 mil 550 mujeres de 16 a 23 años demostró una importante protección contra lesiones precancerosas en un plazo de cuatro años, pero no se sabrá hasta dentro de 25 a 30 años si protege contra el CaCu [cáncer cérvico uterino]. Se desconoce el tiempo que dura la protección, particularmente en los casos de niñas de 9 a 13 años que son las que se vacunan de forma masiva. ¿Qué pasará con la infección con otras cepas oncogénicas, ya que algunos estudios han mostrado un incremento en lesiones asociadas a ellas? y ¿cómo afectará la vacunación el control sistemático con el Papanicolau? A estas interrogantes hay que añadir los efectos adversos e incluso mortales en las niñas inmunizadas (Ibíd.).

La vacuna ha sido probada en ensayos clínicos con mujeres de 15 a 23 años, pero la vacunación se está practicando a niñas desde los nueve, sobre las que se desconocen sus efectos. Según el estudio mencionado, la vacuna tuvo un efecto preventivo en lesiones precancerosas, pero si evitarán el cáncer cérvico-uterino, sólo se sabrá hasta dentro de 25-30 años (Ribeiro, 2009).

¿Y qué decir de la influenza?

Los sueños pinoleros de salvación del mundo están en riesgo de quedar reducidos a un típico acto de corrupción trasnacional farmacéutica, que habría “presionado” a la supuestamente beatífica Organización Mundial de la Salud (OMS) para que exagerara los riesgos de la influenza ahora llamada A/H1N1 y empujara a “los políticos de la mayoría de los países a reaccionar inmediatamente y firmar acuerdos comerciales para adquirir vacunas contra la nueva gripe y gastar millones de dólares para responder” (Hernández, 2010).

En éste fenómeno de la influenza, parece cristalizarse la mayor parte de las señalizaciones que he venido haciendo a lo largo de éste texto: el negocio de la industria farmacéutica por un lado, su coalición con médicos y organismos internacionales, su alteración de grados de normalidad y mediciones estándar, las relaciones intrínsecas con la política más baja que se pueda encontrar en el globo, el monopolio de ciertas empresas, etcétera (ver: Odent, 2010).

En el caso de México es especialmente alarmante, Astillero lo declara muy atinadamente:

El proceso de indagaciones europeas tiene especial significación en México, donde Felipe Calderón aprobó –el 9 de marzo de 2009– un acuerdo con Sanofi Aventis (mientras los mexicanos se distraían con Carla Bruni) para que invirtiera 100 millones de euros en construir instalaciones para producir vacunas contra la influenza; luego, el apresurado Calderón recibió en abril la visita del estadunidense Barack Obama, y enseguida colocó a México en situación de alarma extrema, con el tapabocas como instrumento gráfico de confirmación de presuntos riesgos mortales y una población sometida a técnicas de control social mediante el miedo (Ibíd).

Por lo tanto, no está de más también involucrar estos temas en la construcción de esa historia de la industria farmacéutica que bien hace falta dar a conocer.

Limitaciones del presente escrito

Las líneas anteriores buscaron generar grosso modo ciertos lineamientos e ideas base para la posterior generación de información más específica y con mayor profundidad. Obviamente, existe muchos otros factores que también debieses de tomarse en cuenta para relatar la susodicha historia; pero el tiempo y el espacio torno imposible continuar desarrollando aquellos temas. Una pequeña lista de trazos faltantes sería la siguiente (sin pretensión alguna de ser una exhaustiva):

  1. Es de suma importancia resaltar también los avances y aciertos que la industria ha tenido en la historia del hombre, un texto que solamente se fije en críticas no alcanzaría a vislumbrar el fenómeno en su totalidad;
  2. uno de los puntos también de gran importancia es indagar sobre el papel que jugó la regulación y desregulación de la investigación genómica en la industria farmacética;
  3. a su vez, sacar a la luz los resultados obtenidos hasta la fecha del gran proyecto del Genoma Humano que, desde la perspectiva de varios expertos, ha resultado uno de los grandes fracasos científicos;
  4. otro tema sumamente oscuro que compete específicamente a México, es la ausencia de regulación de los laboratorios de estudios clínicos, esto puesto que ha sido tema de debate lo poco profesional de muchos de ellos (así como su generación espontánea por las ciudades).

 

Referencias bibliográficas

Bush, V. (1945) Ciencia, la frontera sin fin. Texto electrónico.

Dupré, J. (2009) It is not possible to reduce biological explanations to explanations in chemestry and/or physics. En: Ayala, F. y Arp, R. (2010) Contemporary Debates in Philosophy of Biology. Texto electrónico.

Referencias hemerográficas

González, S. (2006, 14 de agosto) Las 20 farmacéuticas más grandes del mundo rehúsan cumplir códigos de ética. La Jornada: http://www.jornada.unam.mx/2006/08/14/index.php?section=economia&article=026n2eco

Hernández, J. (2010, 14 de enero) Astillero. La Jornada: http://www.jornada.unam.mx/2010/01/14/index.php?section=opinion&article=004o1pol

Laurance, J. (2008, 28 de febrero) Inútiles, el Prozac y otras “píldoras de la felicidad”. La Jornada: http://www.jornada.unam.mx/2008/02/28/contraportada.pdf

Laurell, A. (2009, 3 de abril) La vacuna contra VPH: el conflicto de interés. La Jornada: http://www.jornada.unam.mx/2009/03/04/index.php?section=opinion&article=a03a1cie

Laurent, É. (1999) Pluralización Actual de las Clínicas y Orientación hacia el Síntoma. Bitácora Lacaniana. El Psicoanálisis hoy. No. 3; marzo 2008. Recuperado: 2009, 18 de noviembre. En: http://www.nel-amp.org/bl/bl03/periscopio2.html

Moynihan, R. (2007, 13 de noviembre) “Inventa” enfermedades la industria farmacéutica. La Jornada: http://www.jornada.unam.mx/2007/11/13/index.php?section=ciencias&article=a03n1cie

Núñez, K. (2007, 16 de febrero) Autoridades suizas, en contra de prácticas de farmacéutica Novartis. La Jornada: http://www.jornada.unam.mx/2007/02/16/index.php?section=sociedad&article=049n3soc

Odent, B. (2010, 11 de enero) Influenza A: “They Organized a Psychosis”. http://www.humaniteinenglish.com/spip.php?article1427

Ribeiro, S. (2009, 4 de noviembre) El negocio de las vacunas: caso VPH. La Jornada: http://www.jornada.unam.mx/2009/04/11/index.php?section=opinion&article=015a1eco

Reuters (2009, 3 de septiembre) Paga farmacéutica Pfizer 2,300 mdd por mala comercialización de medicamentos. La Jornada: http://www.jornada.unam.mx/2009/09/03/index.php?section=economia&article=025n1eco

Reuters (2008, 7 de mayo) Acusa China a farmacéutica de obstruir investigación sobre muertes. La Jornada: http://www.jornada.unam.mx/2008/05/07/index.php?section=ciencias&article=a02n1cie

Viniegra, G. (1998, 21 de diciembre) Perspectiva de la industria farmacéutica mexicana. La Jornada: http://www.jornada.unam.mx/1998/12/21/cien-gonzalez.html

Páginas de Internet

http://canifarma.org.mx/

[Conferencia pronunciada en el I Coloquio de Filosofía de las Ciencias Médicas: “Lo normal y lo patológico”. Celebrado en el Instituto de Investigaciones Filosóficas de la Universidad Nacional Autónoma de México, durante el mes de mayo del 2011]

 

La diversidad psicoterapéutica es un fenómeno más que patente.

Ahora, si lo anterior resulta ser una afirmación certera, existen al menos dos caminos a seguir por los interesados en el tema: (i) Estudiar a profundidad cuál es la condición intrínseca a las psicoterapéuticas que conlleva a esta diversidad para, en primer lugar, ver si existe alguna solución a dicha problemática y, en segundo término, construir los medios políticos necesarios que coadyuven a llevar a cabo la solución planteada. Y (ii) aceptar esta diversidad psicoterapéutica como un fenómeno que se da de hecho y, más allá de su cabal comprensión, buscar la forma de construir mecanismos mediante los cuales se pueda convivir con dicha diversidad en la práctica cotidiana de las psicoterapias.

Como se podrá observar, los dos caminos que he propuesto no difieren mucho entre sí. Ambos presuponen que la diversidad psicoterapéutica es un problema; uno a resolver desde el primero de ellos, uno que sortear desde la segundo punto de partida. En todo caso, también cabe la posibilidad de una tercer postura que llamaría más bien a no hacer caso de todos estos meandros que nos atajan el libre paso por el mundo de lo teorético; sin embargo, considero que como profesionales del campo, una posición así estaría lejos de aquella pasión que se supone despierta en cada uno de nosotros eso que de lo humano se juega en el campo de lo psi.

Ahora bien, en el presente trabajo no busco ofrecer respuestas puntuales a todas aquellas enormidades que se puedan desprender del anterior planteamiento; en vez, lo que intentaré con él es prefigurar ciertas líneas de pensamiento que he ido desarrollando a lo largo de mi quehacer y que, de alguna forma, buscan echar luz sobre la maraña de discursos tanto médicos como psicológicos que conforman una mezcolanza sumamente confusa alrededor de eso psíquico.

En lo que respecta a este instante, me enfocaré solamente en el primero de los caminos; y siendo esto así, la pregunta que surge es: ¿qué hay de común en las psicoterapéuticas que las hace desembocar con tanta facilidad en un amplio espectro de posibilidades? A su vez, también dentro de esta inquietud, cabe preguntarse si es acaso que eso de la diversidad sea un problema a resolver.

Creo que la respuesta a la primer pregunta es más que conocida, lo que está en el núcleo mismo de las psicoterapéuticas es la especificidad su objeto, es decir: la vida psíquica de los individuos. Ahora bien, considero que para dar respuesta a la segunda pregunta es necesario comprender primero qué es eso de la vida psíquica de los sujetos.

¿Qué es lo psíquico? Como podrán prever, aquí ya empiezan los problemas. Hay quienes lo engloban dentro de un concepto de igual oscuridad: la mente. Hay otros que, en cambio, prefieren no abordar el tema por lo inaccesible del objeto o, dicho en palabras más atinadas: por su inmaterialidad (como si la única forma de lidiar con las cosas fuera mediante manoseos de sus propiedades físicas y químicas -como si no se pudiera degustar los profundos excesos de la palabra poética).

Obviamente, en este momento estoy lejos de responder cabalmente a esta interrogante que, pudiera pensar, se encuentra en aquella cúspide de las aporías. Sin embargo, al parecer, existe cierto consenso dentro del campo cuando se afirma que lo psíquico pertenece a ese conjunto un tanto desafiante de los fenómenos complejos. Y si esto es el caso, cabe entonces preguntarse también por qué es eso de la complejidad.

Grosso modo, esta forma de referirse a cierto tipo de fenómenos, a pesar de tener una larga trayectoria en la historia del pensamiento, se puso muy de moda en la filosofía de la ciencia desde mediados del siglo pasado. Esto se debió, en gran parte, al hecho de que el paradigma por excelencia del quehacer científico, que era la física, ahora recae en la práctica de la biología. Y así, cuando el estudio del quehacer científico se posiciona desde este nuevo punto de vista, surgen algunas cosas que son de vital interés para lo que nos compete.

Los fenómenos complejos se caracterizan, a grandes rasgos, por su condición de emergentes. Ahora, si lo psíquico es un fenómeno complejo; cabría entonces reflexionar sobre qué consecuencias tiene pensar a lo psíquico como emergente.

Como en toda postura filosófica, existen emergentismos fuertes y emergentismos débiles (aunque, al final, son solamente una consecuencia de distintos presupuestos metafísicos). La mejor forma que encuentro de ejemplificar eso de lo emergente es con un ejemplo que tomo prestado de John Dupré. Pensemos en un lince; creo que todos estaremos de acuerdo en afirmar que ese lince no es nada más que un conjunto de moléculas físicas y propiedades químicas. Bien, creo que nadie es tan ingenuo como para afirmar que ese lince es solamente un saco de moléculas químicas y físicas; sino que algo fundamental para el lince es que éstas moléculas están organizadas de una manera sumamente específica. Ahora bien, pensemos que nosotros no tenemos conocimiento del lince como un ente total, no sabemos qué es o cómo se ve eso; en cambio, supongamos que lo que sí tenemos es el conocimiento de todos sus componentes y de todas sus formas de relación, es decir, de lo específico de su organización en el nivel de sus partes constitutivas. Una postura reduccionista sería afirmar que, al nosotros conocer todas estas moléculas, todas sus propiedades y todas sus interacciones, nosotros podríamos llegar a conocer todo lo relativo al lince; o, dicho de otra forma, que si logramos modelar esta totalidad de fenómenos en un programa computacional, la salida que obtendríamos sería ese lince en su especificidad y como una totalidad.

Soy consciente de que este tipo de ejemplos -muy de filósofos-, podrían no llamarle la atención a una persona más comprometida con la práctica puesto que, obviamente, resulta una imposibilidad el modelar todos los componentes y todas sus relaciones. Sin embargo, estos contrafácticos sirven muy bien para sacar a la luz los presupuestos metafísicos que están debajo de la postura desde la cual se abordan los fenómenos a investigar -o conocer, o construir, o como quieran llamarle.

Entonces, por el momento y basándonos en el ejemplo citado, tenemos al menos tres posibles salidas o posturas metafísicas:

  1. Una primer postura reduccionista que, como mencioné, afirmaría que al conocer todo lo que respecta a las partes y todo lo relativo a sus interacciones mutuas, uno conocería por tanto al fenómeno en su totalidad;
  2. una segunda postura más cabal sostendría que lo anterior es imposible (conocer todo sobre las partes), pero que dicha imposibilidad se debe más bien al estado actual de nuestro conocimiento y que, por tanto, en un futuro sería posible realizarlo (o aproximarse asintóticamente a ello);
  3. la tercer postura no sólo sostendría la imposibilidad primera sino que, a su vez, afirmaría que aunque fuese posible modelar la susodicha totalidad de los componentes del fenómeno, existiría un algo de ese todo que no podría predecirse desde el conocimiento total de las partes. Esto algo sería justamente eso emergente.

Para decirlo de forma más clara: una postura emergentista es aquella que afirma que el fenómeno total no está contenido completamente en las propiedades de las partes, es decir, que hay un algo que emerge de la forma en la cual se estructuran estos componentes y que no podría haber sido predicho desde el mero conocimiento de ellos. Lo anterior se debería a varios factores que van desde afirmar que es necesario observar a las partes del fenómeno desde el punto de vista que se desprende de su totalidad (y que no surge sino observando al todo desde el todo mismo y dentro del contexto en el cual se encuentra) -realizabilidad múltiple-; hasta suponer que existen características que del todo se imprimen en las partes -causación descendente, causación mental-.

Abro paréntesis. Es muy interesante observar que el lenguaje utilizado por estos filósofos para referirse al fenómeno complejo -hablarlo desde el todo y desde sus partes- es una forma en la cual se expresan en la corriente hermenéutica en filosofía -peleada a muerte, desde ciertos puntos de vista, con la filosofía de la ciencia. Schleiermacher, por ejemplo, “propone la comprensión de las partes de cualquier estado de cosas mediante la formulación de un sentido de la totalidad a la cual pertenecen […]” (Flores, 2010: 20). Que es simplemente decir causación descendente con palabras más bonitas. Ahora, si esto es el caso, se difuminaría aun más esa supuesta frontera entre la hermenéutica y la filosofía de la ciencia; lo cual desembocaría en que, para esta última, no sería prudente solamente hablar de explicación en la ciencia, tendría que introducirse en su quehacer el ejercicio reflexivo sobre la comprensión en la ciencia. Cierro paréntesis.

Ahora bien, con base en todo lo anterior, podría afirmar que el cerebro no es algo más que un arreglo específico de moléculas físicas y químicas; pero que es a partir de dicha organización que emerge lo psíquico. Por lo tanto, esto psíquico no sólo no puede ser predicho desde el mero conocimiento de su estructura orgánica sino que, también, esto psíquico no puede ser reducible por completo a sus componentes materiales. Huelga decir que del hecho de que lo psíquico no sea reducible meramente al cerebro, no se sigue que esto psíquico sea independiente de su sustrato orgánico; sin embargo, esta relación mente-cuerpo también es uno de esos meollos un tanto escabrosos de la historia del pensamiento.

Ahora, si lo que he dicho tiene cierta coherencia, entonces uno puede dar cuenta no sólo de la especificidad del objeto de las psicoterapéuticas; también, uno puede empezar a dimensionar la complejidad de eso psíquico. Y, desde mi punto de vista, es esta complejidad del objeto la que abre la posibilidad de existencia de una diversidad psicoterapéutica como la que actualmente contemplamos. Ahora, ¿por qué sucede esto? Bueno aquí entra eso de la subdeterminación.

Para empezar, el nombre completo de este fenómeno es: la subdeterminación de la teoría por la evidencia; aunque, en realidad, no es un fenómeno sino una condición de toda teoría científica. Grosso modo, a lo que esto se refiere es a que, en un tiempo t existe un conjunto de evidencia z que apoya por igual a dos teorías rivales, llamémoslas x y x’. Es decir, que en determinado momento no existe una forma racional que pueda decirnos qué teoría elegir de entre dos competidoras, puesto que la evidencia que sostiene tanto a x como a x’ las apoya de igual manera.

Aunque todo esto suene sumamente abstracto, no es difícil concebir que, en determinado momento dentro de una investigación, algún fenómeno z es correctamente explicado -incluso predicho- desde cierta teoría x; pero que pasa exactamente lo mismo cuando es interpretado a la luz de una teoría x’. ¿Cómo poder entonces decidir racionalmente entre x y x’? Para intentar solucionar esto, los filósofos han desarrollado criterios que van desde lo encantador de la teoría, hasta su simpleza o elegancia; cabe resaltar, que lo que está ahí en pugna se combate generalmente desde el campo de los criterios estéticos, no de los racionales (lógicos).

Uno de los criterios que de más fama goza es el pragmático que, de manera superficial, nos dice que si una teoría funciona ya, es todo lo que necesitamos saber para poder elegirla de entre sus competidoras. Ahora, si dos o más teorías funcionan, pues entonces se ven cuestiones como cuál es la mas simple, en el sentido lógico del término, cuál es la más sencilla, en el sentido de sus presupuestos metafísicos, etcétera, etcétera. Sin embargo, esto implica que existe un campo bien definido desde donde se pueda llevar a cabo la comparación; ¿qué pasa entonces con las psicoterapéuticas?

Como desarrollé anteriormente, la condición de complejo de su objeto desemboca en que ni siquiera existe una cabal caracterización de éste último. No existe, para decirlo popperianamente, un criterio que pueda demarcar que sí entra dentro del campo y qué no lo hace, es decir, que sí se puede nombrar como una ciencia de lo psíquico y qué no puede serlo. En este sentido, no existe ni siquiera un lugar en donde se puedan comparar las distintas psicoterapéuticas; y, más interesante aun, si uno las analiza con detenimiento, todas ellas difieren en demasía, incluso desde la definición misma de su objeto o, dicho desde las alturas de lo teorético, el objeto de una no es el objeto de la otra (a pesar de que, de facto, ambas tratarían lo mismo). Aunado a esto, si uno quisiera salirse de este enredo apelando a un criterio pragmático, lo que sale a la luz es que todas las distintas psicoterapias funcionan, en uno u otro caso. Y así, para resumir este escollo, la conclusión a la que llego es que las psicoterapéuticas son incomparables entre sí – inconmensurables-, puesto que difieren en el núcleo mismo de su caracterización; pero, a pesar de todo, ellas funcionan en el mundo.

Una pregunta que pudiera tener cierta validez en este momento sería aquella que apuntase a descubrir qué de eso psíquico es lo que permite que esto ocurra. Sin embargo, desde mi punto de vista, la pregunta no es tanto buscar por qué funcionan; más bien, la pregunta interesante sería ver por qué en ciertos casos, ciertas psicoterapias no lo hacen. Por tanto, a mi parecer, lo que se vuelve necesario escapa por completo al ámbito psicoterapéutico (las psicoterapias son, a fin de cuentas, meras técnicas psicoterapéuticas); lo que se necesita, en cambio, es una clínica específica de lo psíquico, es decir, un quehacer científico que surja del seno mismo de este fenómeno y, sobre todo, que se conciba desde su inherente complejidad.

Esto toma su impulso en el hecho de que, en la actualidad, la psicología carece de una clínica específica; su ejercicio clínico es un remiendo de la clínica psiquiátrica cuya base es orgánica (no importando que tome en consideración factores psíquicos). Por tanto, reitero, mientras la psicología no tenga en consideración una clínica específica de lo psíquico para su quehacer psicoterapéutico, el abismo que he presentado ante ustedes, lejos de conjurarse para sus adentros, se estará elevando sobre las invocaciones de un objeto material que no es ni algo real ni la realidad que nos compete.

Referencias

Dupré, J. (2009) It is not possible to reduce biological explanations to explanations in chemestry and/or physics. En: Ayala, F. y Arp, R. (2010) Contemporary Debates in Philosophy of Biology. Texto electrónico.

Flores, M. (2010) El pluralismo en la filosofía de la ciencia y en la hermenéutica. México: Editorial Torres Asociados.