miércoles, 19 de agosto de 2015

Famosos

"¿De qué le sirve al hombre ganar el mundo entero si arruina su vida?"
Mc. 8, 36.

"Pura es la austeridad practicada con sincera fe, sin apetencia del fruto de la acción ni esperanza de recompensa"
Bhagavad Gita.

Parece que hay quien es capaz de suicidarse por alcanzar la gloria. Que ésta sea laica o sagrada parece asunto menor ante la importancia de ser alguien relevante, famoso.

Tradicionalmente se habla de famosos como de aquellos que son reconocidos por muchos en razón de algo. Con frecuencia, ese algo se olvida y, con ello, también el alguien que lo logró. La mayoría de quienes son honrados en nombres de calles son también perfectos olvidados por quienes por ellas transitan.

La fama ya no es lo que era. Y es que, en tiempos lejanos, la fama era la gloria, aunque nadie supiera decir qué significaba eso. Sabemos que Aquiles prefirió la gloria heroica a una vida prolongada pero común, gris. Y heroicas aparecen las figuras de muchos personajes históricos.
La fama gloriosa es apoteósica, pues sólo parece posible tras la muerte del héroe. Ese término, “héroe”, ha sido tomado incluso por la Iglesia católica para honrar con la canonización a quienes, según ella, han vivido las virtudes cristianas en grado heroico, aunque no aclare qué significa eso, exceptuando el caso del martirio por confesión de la fe.
Pero hay quien disfruta (o sufre) de su fama en vida. Como reconocimiento. De hecho, son muy abundantes los artistas y cantantes famosos, en muchos de los cuales tal condición puede acabar siendo letal. 

No todo el mundo puede actuar como Marlon Brando o cantar como María Callas. Es normal que esa peculiar mezcla de don y trabajo sea reconocida, aplaudida, por muchos. Es normal que se les haga famosos y que, desde la impresión de sus manos en el paseo de Hollywood hasta el registro de su opinión sobre cualquier cosa tengan mucho valor para muchos. Y es que la fama implica lo cuantitativo, la exposición de lo único a muchos, supone el espectáculo. Y nada más espectacular que el fútbol o la belleza. No es sorprendente que los mejores futbolistas se emparejen con misses y modelos (término que ya es definitorio de por sí).

También se da la posibilidad de alcanzar la fama por trabajos que no supongan lo espectacular. En ausencia de revelación biográfica alguna, un escritor puede ser famoso a través de su obra. Y lo que ocurre en el campo de la literatura, también se da, de otro modo, en la actividad artística y en la ciencia.

Una persona concreta puede hacerse célebre por su trabajo científico o artístico. Pero se da una gran diferencia entre esas dos actividades, sin las que nuestro mundo actual sería muy diferente. La relación obra - autor, tan clara en arte, lo es mucho menos en ciencia. Tal diferencia se da en dos órdenes, la fama real como reconocimiento y la fama pagada al autor o a otros que no tienen propiamente nada que ver con él. 

El caso de la pintura es sencillamente sintomático. “Les Femmes D’Alger” de Picasso alcanzó en una subasta los 179 millones de dólares. Bueno, es “un picasso” dirán algunos, como si Picasso estuviera aun en el cuadro. Quizá sea más llamativa la venta de una copia privada de “El grito” de Munch por casi 180 millones de dólares. Llamativa porque “el grito” parece reflejar la antítesis de lo que pueda ser su comprador. O quizá no; tal vez lo haya adquirido alguien que, además de rico, está angustiado ante la vida.

Picassos, Modoglianis, Rembrandts… ya son en plural, porque no se trata de cuadros de artista sino del artista mismo pluralizado en sus obras. 

Quien tiene dinero y pretende a su vez la fama a través de él, no quiere hacerse con meras copias fotográficas o pictóricas de un original. Quiere el original mismo, lo que una vez se pintó como acto creativo y en lo que se pretende que ha quedado congelada la creación misma. Hemos llegado a una situación paradójica en la que la pintura se desvaloriza por el acto de comprarla. Aquí sí puede decirse con propiedad que sólo el necio confunde valor y precio, una confusión que, en general, no le fue permitida al pintor, singular, único, que creó “pintores” en forma de cuadros por poner su firma en ellos y que pudo haber muerto en la indigencia.

Eso no ocurre en el caso de los científicos. Los hay que alcanzan su celebridad por algún descubrimiento y eso suele reconocerse dándole su nombre a una ecuación, ley física o teoría. No hay un “darwin”, sino la Teoría de la Evolución de Darwin. Tampoco hay un “maxwell” sino sus ecuaciones obre el electromagnetismo. Es cierto que, a veces puede hablarse de un voltio o de un amperio, pero no es algo que se venda. Ni siquiera los vatios o kilovatios se venden; sólo cuando se multiplican por horas, lo que desvirtúa el valor de la persona que se llamó Watt. 

Hay algo que puede explicar una diferencia tan palpable entre dos mundos que son, aunque distintos, creativos. Quizá la mejor explicación resida en que la ciencia es tarea de muchos y, en cierto modo (sólo en cierto modo, no como se desea desde utopías cuasi-religiosas),  progresiva y acumulativa. Aunque no hubieran nacido Planck o Einstein, es probable que ahora o más tarde tuviéramos una mecánica cuántica y otra relativista.

Sólo algunos casos son especiales por su “modo” de hacer ciencia, pero son más bien personalidades históricas algo lejanas, como Newton, de quien se dijo que se reconocía al león por sus garras cuando, de modo anónimo, resolvió el problema de la braquistócrona, abriendo el paso al cálculo variacional.

Es cierto que hay científicos cuya celebridad se reconoce. El caso más claro se produce en la ceremonia anual de los premios Nobel. Pero … ¿quién recuerda a los premios Nobel de hace dos o tres años? Y ¿quién sabe realmente por qué se dan los del año en curso? 
Los científicos actuales reconocidos no lo son tanto por su trabajo cuanto por su biografía. Tal vez el caso más conocido sea el de Hawking. Sus contribuciones han sido muy importantes, pero quizá menos que las de Edward Witten a quien sólo conocen en su casa (en su casa de físicos, se entiende). Richard Dawkins se ha hecho más famoso por su proselitismo ateo cientificista que por sus contribuciones reales a la Biología.

Un científico se hace célebre por la adversidad que rodea su trabajo, como Hawking, por la genialidad incuestionable, como Einstein, o, como suele ocurrir últimamente, por su paso a la divulgación científica y a la inmersión sacerdotal en la cosmovisión cientificista, como ocurre con Dawkins.
Claro que también los científicos han despertado de su ingenuidad, viendo que sus descubrimientos pueden patentarse. Desde esa perspectiva, ya no tienen que esperar a que sus obras, descubrimientos en este caso, sean vendidas post-mortem; pueden enriquecerse ya. Podríamos decir que, también en ese sentido pragmático, la ciencia ya no es lo que era.

En todos los ejemplos anteriores, la fama es algo que sucede como efecto colateral. Einstein no investigó en Física para hacerse famoso. Menos aún el aparentemente gris Planck. Tampoco parece que Modigliani pensara en el precio que adquirirían su obras una vez que él hubiera muerto. 

Pero hay quien hace de la fama objetivo. En una ya vieja serie televisiva (“Fama”), la maestra de danza les decía a sus alumnos “Buscáis la fama, pero la fama cuesta y aquí es donde vais a empezar a pagar”. En ese caso, la fama ya era objetivo prioritario, pero a alcanzar mediante un saber artístico que implicaba esfuerzo.

Actualmente proliferan quienes buscan la fama por la fama, ofreciendo sólo lo que tienen, un cuerpo y su vagancia en los tristemente célebres “realities”. Y la logran, aunque sea efímera y vaya ligada al grado de estupidez propio y de quienes siguen sus tristes peripecias. Y es que, si uno hace de sus carencias espectáculo, tendrá muchos espectadores también carenciales que lo verán ejemplar o, al menos, un paliativo de sus propias miserias.

miércoles, 5 de agosto de 2015

La nube. El recuerdo imborrable.

La escritura ya es antigua, tanto como la Historia misma, que surge con ella. Estabiliza el mensaje que durante milenios fue verbal; sin embargo, tanto en piedra, pergamino, papiro o papel… todo puede borrarse, accidental o deliberadamente. 

La dificultad de la destrucción de información escrita depende de la estabilidad de los medios de registro y, fundamentalmente, del número de copias de cada documento, o eso parecía hasta hace poco. 

La historia de la biblioteca de Alejandría ha mostrado crudamente el efecto catastrófico de la destrucción por accidente o por celo religioso de un depósito que albergaba manuscritos originales o copias únicas de documentos muy dispersos.

La necesidad de redundancia para contrarrestar la destrucción de soportes de información es obvia y se ha ido dando de modo generalizado para todo tipo de documentos. La imprenta superó definitivamente la fragilidad del soporte gracias a las copias múltiples de un texto. Pero no sólo los libros precisan de redundancia, también han de ser copiados muchos documentos. No son lejanos los tiempos en que el papel carbón facilitaba esta tarea y más próxima es la aparición de fotocopias, siendo en la actualidad la copia informática la más usada.

Curiosamente esas copias informáticas son frágiles por la corta vida media de sus soportes. Ya nadie usa hoy los “floppy disk” o los más recientes “diskettes”. Los “pendrive USB” se han impuesto, su capacidad se incrementa, pero no es descartable que, de la noche a la mañana también pasen ellos mismos al olvido.

Frente a la conservación secular de estelas y viejos pergaminos, el olvido de los sistemas informáticos de memoria es cada vez más rápido. Hoy asistimos a una situación de cambio importante y tiene que ver con la estabilidad del registro, dada por la existencia de internet. A efectos prácticos, la vida media de ese soporte parece que será inconcebiblemente prolongada. Y esa estabilidad supera la necesidad de copias; de hecho, basta a efectos prácticos con un solo ejemplar codificado electrónicamente de cada documento.

Aunque en nuestros ordenadores personales y soportes externos podamos guardar múltiples copias y también destruirlas, lo que “digamos” en internet equivale a escribir algo imborrable y, a la vez, accesible a muchos. 

Ocurre que internet no es un dios bondadoso, sino una herramienta tan útil como peligrosa. Las redes sociales no sólo sirven a quienes participamos en ellas sino también a quienes las usan para obtener información de cada participante. Puede negarse un puesto de trabajo a quien haya “colgado” ocurrencias en Facebook que el posible empleador considera inapropiadas. Un “tuit” emitido hace años con pretensión banal puede costar un cargo político. Un comentario social sobre enfermedades de familiares puede elevar el coste de un seguro médico. Vemos ya cómo si hacemos algún comentario sobre cualquier objeto de consumo, empieza a aparecernos propaganda de múltiples ofertas de venta. La salvaguarda informática de historias clínicas es mucho más preocupante.

Este nuevo soporte electrónico tiene dos grandes características: no precisa copias por parte del autor y es imborrable. Es igual que alguien cause baja en una red social; sus datos permanecen albergados en algún servidor. Y ser imborrable supone que el sujeto mismo se pierde como tal pasando a ser un perfil, un ente individual codificable como una colección de datos (o bits), y cuyos “pecados”, por muy de juventud que sean, quedarán para siempre sin perdón. Internet facilita el renacimiento vigoroso del conductismo.

Hace años era habitual oír en autobuses conversaciones de otros que hablaban en voz muy alta de sus vecinos, del tiempo o de fútbol; tanto se charlaba que había carteles expresando la prohibición de hablar con el conductor. 
Parecía darse una falta de privacidad escandalosa entre personas. Hoy la mayoría de los pasajeros van aislados, como individuos, a la vez que conectados con sus móviles, que suelen teclear frenéticamente. Pero resulta que la apariencia de privacidad es falsa, que tanta intimidad lo es para nada, pues los correos electrónicos pueden salir a la luz por muy privados que sean y todo lo que escribimos, sea en un móvil, sea en una red social o como consulta a un buscador, permanece, y no porque lo guardemos nosotros, sino porque lo hacen otros a quienes desconocemos. Todo eso está en “la nube”, se dice, en una nube que no es tal, sino más bien niebla sostenida por grandes arquitecturas informáticas fuera de nuestro control, fuera en realidad ya del control de nadie.

Es cierto que se ha iniciado un esfuerzo legislador por el que se contempla el derecho al olvido, pero basta con examinar el formulario que Google ha destinado a tal fin para ver que no es sencillo ser olvidado.

Nos volcamos hablando electrónicamente y todo eso es grabado. Entre todos construimos el Gran Hermano orwelliano y enriquecemos su información cada día, con textos, imágenes, podcasts y videos. Ni los sueños más osados de los agentes de la Stasi habrían conducido a algo así. El conductismo renace en la peor de las formas, caminando imparable hacia la forma más brutal de deshumanización. 


No se trata de ser nostálgicos y apagar los ordenadores (tampoco arreglaríamos nada), sino prudentes. Internet es una herramienta magnífica si la mantenemos a nuestro servicio y eso supone un serio esfuerzo en la educación de niños y jóvenes. El supuesto descontrol de internet, que tantos sueños utópicos alimenta en el terreno político, puede derivar, si no estamos alerta, en el peor autoritarismo, el deseado por los siervos con la misma intensidad que sus amos.

jueves, 23 de julio de 2015

"Nature" se olvida del alma

Nada duele más que la enfermedad del alma, incluso aunque ese dolor no parezca ser percibido por el propio sujeto, como podría ocurrir en el caso de demencias avanzadas o de ciertas formas de locura. Pocas tareas tan nobles como la de tratar de curar o paliar el dolor anímico. El propio término “Psiquiatría” alude a tal intento de curación (ἰατρεύω) del alma (ψυχή).

En su afán por clasificar lo inclasificable, el lamentable manual conocido como DSM trata de mostrar cuándo es factible realizar un diagnóstico de depresión mayor (curiosamente, el primer criterio reside en tener un estado de ánimo deprimido). Unos criterios cualitativamente pobres, en comparación con las patografías clásicas. Claro que tampoco puede haber mucho más que sea de aplicación general, al no disponerse de marcadores medibles. 

Ante esa carencia, la falsa medida es habitual en el ámbito "psi". De hecho, proliferan los tests psicológicos, y el análisis factorial que, de lo cualitativo, pasando por lo ordinal, retorna a lo cualitativo del peor modo. 

Se ha negado el alma. No precisamos ser dualistas para conservar tan hermoso término, alma, lo que anima el cuerpo, aunque surja o emerja del cuerpo mismo (término que también se va desposeyendo de lo que alguna vez significó). 

Sartre dijo aquello de que “L'enfer, c'est l´Autre”, así, con mayúscula y en singular, aunque se suele traducir su expresión por otra más suave, la de que el infierno son los otros. Y no; suele ser el Otro, con mayúsculas, ese amo incorpóreo que echa a uno al paro, lo desaloja de su casa o que lo enajena de mil modos. No es extraño que un infierno así deprima, pero ¿Por qué acontece la caída en depresión en ausencia de ese infierno que la explicaría, cuando incluso a la vista de otros, supuestamente “objetiva”, la vida parece sonreír? Si lo supiéramos, se abriría la posibilidad de buscar fármacos eficaces, en vez de esos mal llamados "antidepresivos".

Una concepción materialista muy mal entendida (cada materialista tendría que tener claro qué entiende por materia, como cada ateo o deísta qué entienden por Dios) ha sustentado el reduccionismo cientificista y, desde él, nada anímico puede propiamente ocurrir. Siendo máquinas bioquímicas, complejas, basta con saber qué falla en ellas para que la conducta, lo anímico observable, lo único que para muchos existe, se trastorne.

En ese contexto en el que la Genética es la gran metáfora, el nuevo libro de la vida, no es extraño que se busque en ella la respuesta a todo, como si de un texto sagrado se tratara. 
El primer borrador de ese nuevo libro santo se obtuvo en 2001, pero el nacimiento real de la Genética Humana, más allá de la herencia ligada al sexo, más allá de la citogenética, tuvo lugar con un descubrimiento que pasó un tanto desapercibido, pero que resultó crucial: ver que el DNA, además de ser substrato genético, podía ser usado como marcador fenotípico para buscar los propios genes. Genotipo y fenotipo en la misma molécula. Ese fenotipo, altamente polimórfico, era mostrado como un patrón electroforético obtenido tras cortar en fragmentos el DNA con restrictasas. Ese polimorfismo en los fragmentos de restricción (RFLP) fue usado con éxito (y mucha suerte) por el equipo de Gusella para hallar una asociación con la enfermedad de Huntington.

A partir de ahí, empezaron a surgir noticias sobre hallazgos de genes. Todo parecía simple; si se había dogmatizado la relación “un gen - una enzima”, ¿por qué no otra, “un gen - una enfermedad”? Y enfermedad es también la psicosis maníaco - depresiva, sufrimiento terrible suavizado ahora con el término “bipolar”. ¿Por qué no buscar los genes alterados en esa afección? Así se hizo y así se sigue haciendo, obsesivamente. Se hicieron intentos con ese enfoque exitoso de los RFLP en la población amish. Inicialmente, todo iba bien; parecía que el cromosoma 11 estaba implicado en que uno se deprimiera, pero el contraste estadístico, esencial en estudios de este tipo, fracasó cuando se estudió un número adecuado de amish y se vio que no se comportaron tan locamente como se esperaba, eliminando la significación estadística previamente obtenida. 

Las técnicas genéticas se fueron refinando y el conocimiento de los propios genes también. Se indagaron los llamados genes candidatos (aquéllos que por alguna razón deberían ser especialmente sospechosos), pero los resultados fueron pobres, apuntando más bien a un determinismo poligénico débil, como el que da cuenta de la obesidad.

Pero era necesario insistir. Porque todo ha de ser genético en este contexto simplista en el que nos movemos; todo ha de ser determinado, escrito en nuestro genoma, también para explicar lo inexplicable y corregir lo incorregible. Y, si los genes candidatos no ofrecían respuestas, habría que aplicar un enfoque de fuerza bruta, el basado en comparar, entre casos y controles, miles de polimorfismos de nucleótido único (llamados SNP y algo mucho más moderno que los RFLP), con enfoques llamados “genome wide association”.

Y es que ¿será por dinero? Constituyamos grandes equipos, como el “CONVERGE Project”, gastemos lo que se precise y la verdad surgirá. Éste es el triste panorama de muchas aproximaciones, supuestamente científicas, a los problemas humanos. La misma visión que indujo al presidente Nixon a ver la lucha contra el cáncer como la conquista de la Luna. Fracasó.

Una pretendida divulgación científica es cada día más afín al sensacionalismo, con titulares como el reciente de El País: “Halladas dos de las grandes causas de la depresión”; a pesar del amarillismo, es de agradecer al menos su referencia a la publicación científica de la que deducen tan impactante conclusión. Se trata de una carta firmada por más de cien autores (como si de un trabajo realizado en el CERN se tratara) a la prestigiosa revista Nature y en la que se indica que, mediante una aproximación “genome - wide”, se compararon 6,242.619 SNPs entre 5.303 casos de depresión mayor con 5.337 controles. Los resultados mostraron una asociación de la depresión con dos lugares (loci) genéticos, ambos situados en el cromosoma 10. El significado estadístico fue excelente (la probabilidad de que se debieran al azar era inferior a uno entre mil millones). El estudio se realizó en mujeres chinas, con la participación de 58 hospitales. 

Lamentablemente, las chinas parecen deprimirse por causas genéticas distintas a las de personas europeas porque los resultados del estudio no fueron todo lo coherentes que se esperaba con respecto a otra investigación realizada por otro gran grupo, el mega - análisis (a diferenciar de meta - análisis) del Psychiatric Genomics Consortium, que asoció la depresión más bien al locus CACNA1C.

Es fuertemente llamativo que todo este trabajo se haga partiendo de estudios caso - control en los que los criterios de “caso” son los que son, los que refleja el DSM o los que definen los distintos psiquiatras participantes desde su saber empírico, pero que no soportan el rigor que se asociaría a una entidad objetivable anatómica o bioquímicamente. No parece científico pensar que, con tal base, se llegará a alguna conclusión, por mucho dinero y esfuerzo que se ponga en el empeño y por mucha significación estadística que se alcance. Y, en este sentido, parece muy útil la revisión muy reciente de dos autores recogida en Neuron, en donde apuntan claramente a las dificultades metodológicas inherentes a este tipo de estudios. De dicha revisión, se deduce la ausencia de determinantes genéticos claros, hallándonos más bien ante un determinismo poligénico débil y un terreno en donde las conclusiones alcanzables requieren un amplio número de participantes y algo tan difícil como evitar factores de confusión, derivados principalmente de elementos de comorbilidad.

A pesar de todo, sabemos que el geneticismo no cesará en su empeño por desentrañar las bases de lo más anímico, por tratar de explicar en términos informativo - mecanicistas el dolor psíquico, siempre con la distopía de la ciencia como progreso lineal hacia un mundo feliz. Nada peor que la depresión para frenar esa nueva e infantiloide utopía, que enmarcará la dinámica de grandes publicaciones supuestamente científicas y revistas que las recojan. 

Esta vez, nuevamente, Nature ha olvidado el alma, creyendo leerla.

viernes, 10 de julio de 2015

El olvido del sujeto. Análisis y Psicoanálisis.

Peter Gay nos dice que Freud “utilizó por primera vez el decisivo término psicoanálisis en 1896, en francés y después en alemán”.

¿Por qué eligió ese término? Tal vez por su propia biografía científica. Freud había trabajado en el laboratorio estudiando gónadas de anguilas. Puede parecer un trabajo extraño o banal pero todo trabajo científico riguroso acaba haciendo uso de lo más aparentemente banal. El gran científico (también cientificista) Sydney Brenner, premio Nobel, es reconocido mundialmente, entre otros muchos logros científicos, por mostrar que un vulgar nematodo, el “Caenorhabditis elegans” es un excelente modelo experimental. 

Freud no estaba destinado a seguir en los laboratorios, pero su paso por ellos, sus lecturas iniciales, como la del libro de Goethe sobre la naturaleza, y la inmersión en un ambiente claramente empírico en el que se oían las voces de Brücke, Helmholtz o Virchow hicieron de él un científico y, como tal, un observador atento que analiza la naturaleza.

Análisis (ἀνάλυσις) es una hermosa palabra, relacionada con λύειν, la acción de soltar, de descomponer, de resolver algo en sus elementos constituyentes. Y eso se aplica a múltiples campos: análisis químico, espectral, matemático, dimensional, sintáctico…

Pero, ¿por qué analizar? En ocasiones, sólo para saber; en otras, con finalidad utilitaria. En Química, análisis y síntesis guardan una íntima relación. En otros ámbitos, como la Medicina, esa relación es menos obvia o nula. Pasar del análisis a la síntesis sería la gran utopía transhumanista: analicemos el cerebro y podremos sintetizar la mente o copiarla a un soporte informático. De momento, sólo es factible pasar del análisis a una cierta restauración, a una reparación de salud, que no es poco.

Los avances bioquímicos han transformado la semiologia médica; con unos pocos mililitros de sangre podemos evaluar funciones hepáticas, renales, riesgos cardiovasculares… e identificar genes alterados o procedentes de gérmenes invasores. También identificarnos como individuos, sólo como individuos, no como sujetos.

Hay algo que condiciona el valor de los tradicionales análisis clínicos. Exceptuando los cualitativos, generalmente dicotómicos, que indican si hay o no embarazo, presencia de virus VIH, VHC, etc., estamos ante niveles cuantitativos individuales cuyo valor informativo depende de una métrica lograda desde otro análisis, el estadístico. En ese sentido, el análisis químico de cada uno cobra valor en función del análisis de muchos, de lo que se llama “valores de referencia”, y también en términos de probabilidad bayesiana de enfermedad, obtenida desde la aproximación de ensayos clinicos y epidemiológica.

El análisis químico de nuestro organismo vivo, que puede abarcar con el tiempo el del cerebro mismo, nos muestra como un conjunto de medidas situado en una métrica de lo saludable, nos compara, pero no nos dice propiamente nada más allá de esa situación que, a veces, sirve para enfermar a sanos más que para curar a enfermos. El análisis químico, que abarca la química genética, nos dice algo sobre nuestro qué, pero nada sobre nuestro quién. Los grandes proyectos como el Human Brain Project o el BRAIN superarán viejas clasificaciones como el DSM pero sólo para clasificar mejor, para realzar el posicionamiento métrico, incluyendo una potencial segregación y haciendo renacer la tentación eugenésica.

El "revival" del positivismo hace más necesaria que nunca la perspectiva clínica que, más allá de situarnos, de clasificarnos, intenta curar a través del reconocimiento de lo subjetivo. Y ocurre que ese reconocimiento, ese recuerdo del sujeto, se resiste no sólo a lo medible de nuestro organismo particular, sino a la reflexión filosófica sobre nuestra posición en el mundo, pues el planteamiento filosófico parte demasiadas veces de una premisa infundada, la de nuestra libertad de pensamiento. 

Entre la creencia determinista cientificista y la supuesta libertad de pensamiento filosófico, la aproximación psicoanalítica centra las cosas, recuperando lo subjetivo y lo que lo condiciona. El psicoanálisis no es ajeno a las contingencias del acontecer biológico, pero se centra primordialmente en lo que biográficamente es determinante para cada cual sin que él mismo lo sepa, en su forma de situarse en el mundo como sujeto único, similar a otros pero irrepetible aunque él mismo se condene inconscientemente a una repetición de lo peor.

El psicoanálisis es modesto en su afán pero precisamente de esa modestia deriva su gran potencial, que trasciende la mera curación del síntoma que lo reclama. Requiere tiempo, calma, y humildad, lo que precisa cualquier aproximación seria al intento de cumplir el viejo mandato délfico. Freud lo expresó de un modo excelente: "wo Es war, soll Ich werden".

sábado, 27 de junio de 2015

La imagen científica y el olvido de lo real

No te harás escultura ni imagen alguna ni de lo que hay arriba en los cielos, ni de lo que hay abajo en la tierra
Ex. 20,4.

Durante mucho tiempo se discutió en el cristianismo, incluso con las armas, sobre la posibilidad de representar a Cristo. Tras el concilio de Nicea del año 787 y el sínodo de Constantinopla de 843, la veneración a imágenes se consolidó, aunque se hicieran distinciones teológicas contundentes entre las diversas formas de culto. Las pasiones iconoclastas revivieron con Savonarola, con la reforma protestante y con la revolución francesa, pero el culto a las imágenes se mantuvo vigoroso especialmente en el ámbito católico y ortodoxo. Los debates suscitados en torno a la Sábana Santa, antes y después de la discutida datación por carbono 14, no son sino una variante del poder atribuido a la imagen relacionada con lo divino en el ámbito cristiano.

La frase recogida del libro del Éxodo es llamativa porque apunta a la distinción entre la tradición judía, que no admite representación alguna de lo divino, y la cristiana, con toda la proliferación de imágenes de Cristo, de María y de los santos, incluyendo figuras mitológicas como el dragón de San Jorge.

Hay, al margen del aspecto religioso, algo muy interesante en esa frase, la prohibición de hacer imagen de lo que hay en la tierra. No es una prohibición que haya pesado mucho pues todo el arte figurativo la contradice, pero hay algo en ella que induce a la reflexión. ¿Debemos intentar representar lo terrenal del mejor modo, científicamente? Tal es la pregunta sugerida, que podemos concretar en dos modos: ¿Es representable a naturaleza? y ¿Es bueno hacerlo? 

En principio, la bondad de la representación es pragmática. Quizá el ejemplo más claro sea el proporcionado por ilustraciones anatómicas, curiosamente entroncadas históricamente en el arte figurativo; los hermosos dibujos de Cajal son una muestra del valor de la imagen. El mayor pragmatismo cotidiano de la imagen se manifiesta cuando es diagnóstica; una radiografía, un TAC, una biopsiarevelan o descartan lo que amenaza la propia vida y, desde ese conocimiento, a veces se puede hacer algo, curar incluso.

Nuestra visión se limita a una banda muy estrecha del espectro electromagnético, pero la tecnología permite transformar la oscuridad en luz y así es factible vislumbrar tiempos originarios del universo mirandoel fondo de microondas, contemplar la emisión infrarroja de una galaxia o reconstruir matemáticamente en un modelo el espectro de difracción de rayos X de una molécula. Esa traducción factible a la banda electromagnética visible tienta a la extrapolación modélica. Cualquier estudiante de bachillerato está familiarizado con el modelo del ADN, pero eso no es el ADN; ni siquiera lo es propiamente la imagen de una larga molécula de ADN viral obtenida con un microscopio electrónico ni el patrón de difracción de sus formas cristalizadas. 

La imagen modélica es necesaria de modo instrumental, operativo. El modelo del ADN sugirió que era la molécula informativa esencial, lo que Schrödinger había postulado años antes como cristal aperiódico, pero se precisaron muchos experimentos para confirmar la idea derivada de la imagen. 

Si el modelo estructural del ADN vino para quedarse como una representación adecuada de lo que pretende transmitir (la ordenación y relación espacial de los distintos átomos que lo constituyen), otros modelos han tenido que ser retirados o mantenidos sólo como meros instrumentos de enseñanza básica; tal fue el caso del modelo atómico de Bohr, que desapareció para dar paso a la imagen de orbitales.

Cualquier modelo científico, sea una estructura molecular, sea una imagen celular o la representación plástica de un cerebro, tiene el valor de que permite aproximar un sector de lo real a la intuición y eso es así a tal punto que modelos desfasados, como el átomo de Bohr o un dibujo simplificado de una célula, conservan su valor como herramientas educativas a cierto nivel de enseñanza.

Le geometría vendría a ser el máximo refinamiento de la imagen, incluso a expensas de desterrar lo intuitivo, como ocurre en el caso de las geometrías no euclídeas. En ese sentido, la imagen geométrica trata de satisfacer una aproximación ideal a la realidad, llegando incluso para algunos a confundirse platónicamente, junto a la expresión matemática, con lo real mismo.

Podríamos entender el esfuerzo icónico como dirigido a tres fines, el mimético, que comprendería el arte figurativo y la geometría euclídea, el operativo, constituido por los modelos, con afán de investigación pero también pedagógico, y el realista, que supondría en último término la eliminación de la imagen misma en aras del formalismo matemático.

El problema reside en confundir la realidad con la imagen construida desde su observación o con la expresión matemática de su legalidad física. Tal confusión fundamenta, de hecho, uno de los aspectos del cientificismo, el que hace de la ciencia creencia. Hay un ejemplo muy llamativo al respecto y tiene que ver con la evolución de lo viviente, en cuyo caso abundan los modelos secuenciales”, que muestran la evolución como algo progresivo, instalándose muchas veces esa idea del cuadro evolutivo como creencia más allá de la postura religiosa o atea de quienes ilustran la evolución, como muy bien expresó Gould. Efectivamente, las imágenes de árboles filogenéticos suelen inducir a ver un progreso cuando en realidad estamos ante una masa de acontecimientos propiamente contingentes y en donde la ley física actúa sólo como determinismo restrictivo. 

Y es que lo real se oculta como no imagen, como inimaginable. La pregunta sobre el qué esencial sigue abierta.