jueves, 14 de enero de 2016

Autismo. En nombre de la ciencia, la ciencia es olvidada.

En su libro “Misa Negra”, John Gray define el cientificismo como la aplicación errónea del método científico a ámbitos de la experiencia en los que no existen leyes universales. Es una magnífica definición, aunque incompleta, de lo que se puede entender como la exageración cientificista. 

No hay leyes universales en lo que es singular, en el ámbito de lo subjetivo. No hay ley científica que pronostique si a mí me matará una hipertensión en la próxima década, o que declare el modo en que un sujeto autista deba ser tratado. Sólo tenemos esa evidencia degenerada que se aleja enormemente del término intuitivo y del recogido por el Diccionario de la Real Academia (“certeza clara y manifiesta de la que no se puede dudar”). 

Cuanto mayor es el número de variables en un fenómeno observable, y un trastorno mental puede serlo en sus manifestaciones, mayor es la dificultad de diferenciar la señal del ruido a la hora de establecer una relación de causalidad que sostenga la conveniencia de una terapia determinada. Por eso, la corriente conocida como “Evidence based Medicine (EBM)” asume distintos niveles de evidencia de los que surgen, a su vez, diversos grados de recomendación de algo como un tratamiento o el riesgo de un agente químico o físico.

Es sabido que la hipertensión es un factor de riesgo importante. Hay buenas terapias para reducir ese riesgo, para bajar la tensión. ¿Hasta qué nivel? La respuesta sensata aquí es la que diríamos los gallegos en general: depende. Depende de muchos elementos y la decisión debe darse en la consulta, en la relación clínica singular. Es cierto que los médicos nos podemos ayudar de guías, protocolos, confeccionados desde esa óptica de la EBM, pero siempre será para tomar una decisión terapéutica aquí y ahora para alguien concreto. Eso es lo sensato: diagnosticar y tratar si procede. Pero he ahí que la salvación cientificista aflora a la prensa cotidiana y así un periódico de gran tirada como es “El País” publicó recientemente un artículo en el que alertaba sobre la necesidad de disminuir la tensión arterial.  El nivel de insensatez conseguido ha sido convenientemente criticado en sucesivos posts del lúcido blog de Sergio Minué, por lo que sería superfluo insistir en ello. Pero es una noticia que sirve para destacar la gran diferencia y responsabilidad consecuente que tienen los medios de comunicación a la hora de redactar artículos de divulgación científica, porque no es lo mismo hacerlo sobre ondas gravitatorias que sobre aspectos de salud, en donde puede con facilidad confundirse tal divulgación con lo que no es, educación sanitaria. 

Ese amarillismo médico es una muestra de cientificismo en el sentido de J. Gray. Otro triste ejemplo es el afán de una asociación de padres de autistas, que ha promovido en "Change" una petición al Conseller de Salut de la Generalitat en la que, tras denunciar “prácticas obsoletas en la atención pública del autismo en Cataluña”, exigen que tal atención se haga con “evidencia científica” (así inician su petición). Inmediatamente ha habido la consiguiente respuesta por parte de psicoanalistas a través del “Manifiesto Minerva”, que este servidor ha firmado. El conflicto está servido y ya se han hecho eco de él los periódicos.

Change es una plataforma que permite canalizar peticiones colectivas. Los padres de niños autistas están en su pleno derecho de pedir lo que consideren más adecuado para el tratamiento de sus hijos, pero es muy dudoso que puedan erigirse en elemento inquisitorial acerca de cómo se ejerce la atención clínica, siempre singular, en el sistema público, insistiendo en que se destierren terapias que califican de obsoletas, sin justificar en absoluto el porqué de tal obsolescencia. Al hacerlo, olvidan o ignoran que las evidencias científicas propugnadas son las que son, las que pueden ser en el estado actual del conocimiento del autismo, del que no se ha desvelado ningún modelo etiopatogénico molecular consistente. Parecen olvidar también que para el ejercicio de la práctica clínica, tanto en el sistema privado como en el público, se requiere una titulación oficial y no un recuento de opiniones favorables o desfavorables sobre quiénes y cómo la ejercen.

La ciencia se basta a sí misma. No precisa defensas. Y tampoco corresponde a Change ni a El País decir qué es bueno o malo para nuestra salud. Ya no digamos qué es científico y qué no lo es. La ciencia es una “episteme”, no una “doxa". 

Y la atención a pacientes es función del clínico, de cada uno, porque sigue ocurriendo que la relación médico – paciente es eso, una relación singular, un encuentro de subjetividades a una de las que se atribuye un saber, y no afortunadamente la mera aplicación de un protocolo, cuyo valor derive, como en un programa televisivo, de la audiencia que reciba.

No es fácil lograr la evidencia en Ciencia. Es más difícil todavía si miramos a la Medicina y la dificultad se incrementa extraordinariamente si tocamos lo psíquico.

Es comprensible el sufrimiento y la angustia de familiares de enfermos, pero no debieran mezclarse ansias y esperanzas con evidencias científicas inexistentes.

Es muy habitual, lamentablemente, que, en la clínica, la alusión a la evidencia científica olvide demasiadas veces a la ciencia que debiera sustentarla.

martes, 5 de enero de 2016

Kairos

Hay una asociación intuitiva del tiempo al movimiento, al cambio, abarcando desde posiciones astronómicas hasta reacciones químicas. Hablamos de escalas de millones de años luz a femtosegundos porque algo cambia en ellas: aparece una supernova o se produce un intercambio electrónico entre dos moléculas.

Un reloj trata de medir eso que ya San Agustín consideró indefinible, el tiempo. Y un reloj no es sino movimiento regular: de agua, arena, sombra, agujas, electrones…
Relojes y calendarios muestran algo, el tiempo, que parece uniforme, como el espacio newtoniano, pero que es inasible. Si Einstein mostró el carácter contra-intuitivo de un espacio tetradimensional, siendo el tiempo una de las dimensiones, la mecánica cuántica incrementa aun más el misterio con la extrañeza del entrelazamiento y con la posible perspectiva de una discretización de lo que más continuo parece, el tiempo, que pierde sentido por debajo de un valor determinado, el tiempo de Planck.

En la práctica, somos entes clásicos y nuestro tiempo, el de nuestras vidas, también lo es, aunque reconozcamos el valor de influencias relativísticas en instrumentos ya tan cotidianos como los de navegación por GPS.

Y creemos que, por eso, por movernos en el ámbito clásico, podemos considerar el tiempo de modo intuitivo, como un río que nos lleva del nacimiento a la muerte. Pero no es así. Sólo sabemos hablar de antes y después, con un ahora que se nos escapa. Y esa apariencia de flujo a la que llamamos tiempo podría no darse. Sabemos de él no por él mismo sino por lo que lo supone: un incremento de entropía del universo (la flecha termodinámica), la evolución de éste desde el Big Bang (la flecha cosmológica) y porque recordamos nuestro pasado y no nuestro futuro (la flecha psicológica).

En el ámbito de eso que llamamos tiempo se dan ritmos, ciclos, repeticiones, que nos inducen a medir lo no medible y lo hacemos con relojes, con calendarios. Pero, de algún modo, sabemos que esa medida es insuficiente para nuestra propia vida. El tiempo, por mucho que miremos un reloj, puede “pasar” más rápido o más lento y, a medida que envejecemos, el tiempo parece correr más deprisa, como si algo así corriera o anduviera.

Ese algo que medimos y que llamamos tiempo no es, propiamente, tiempo de vida, sino abstracción contextual fenoménica. Es lo que los griegos llamaban “chronos”. 

Pero… ¿quién mide con reloj el tiempo en que está enamorado? ¿quién recuerda detalles banales de su vida y no más bien aquéllos en los que decidió algo importante? 
Nuestra infancia y nuestra vejez son en chronos, son cronometrables, en años, en meses. Incluso esa obsesión métrica maca pautas clínicas, fijándose en tiempos de supervivencia, de esperanza de vida, o de intervención quirúrgica. Las investigaciones forenses incluyen establecer la “data” de la muerte. En un hospital cuando una parada cardíaca no revierte y no hay nada que hacer se mira el reloj, la hora de la muerte, como si importara.  

Y es que, en cierto modo, chronos, implacable, nos anuncia esa hora final más allá de la cual ya nos abandona para… Según nuestras creencias, abocar a la nada, reencarnarnos hasta que logremos liberarnos del samsara,  o entrar en el misterio de lo Absoluto que en el cristianismo se llama resurrección.

Chronos anuncia a Thánatos. Y la Medicina actual, impregnada de cientificismo más que de ciencia, persigue que las elites de este planeta, en el que una gran parte de la población se muere de hambre o infecciones, pueda seguir contando años, conjurando inútilmente la llegada de la muerte. Chronos promueve ese higienismo extremo por el que hay quien llega a matarse por evitar morirse. 

Pero ya los griegos vieron que somos algo más, algo diferente a una piedra que cae o una planta que crece. Que sentimos, sufrimos, gozamos y… vivimos. Y vivir supone estar fuera de la limitación impuesta por chronos. En realidad, sólo vivimos cuando lo hacemos de modo eterno, aunque un reloj diga que esa eternidad ha durado unos cuantos minutos o segundos. No ocurre siempre. No vivimos siempre. Hay quien no ha vivido  propiamente nunca aunque se muera a los cien años y, por el contrario, hay quienes han vivido muchísimo muriéndose en plena juventud. Porque el tiempo de la vida es otro muy distinto a chronos. No es lineal, incremental, sino extraño, casual, contingente, sensible, memorable, decisorio. 

Ese tiempo vital es kairos. Es de momentos, de ocasiones aprovechadas o desperdiciadas. Tal vez por eso kairos se muestre con apariencia de injusticia, como un dios que porta una balanza desequilibrada, que vuela porque tiene alas pero que es atrapable si lo vemos venir y agarramos su cabello, algo que no podremos hacer cuando pase y nos muestre su calvicie. 

Los Carmina Burana nos lo recuerdan: “Verum est, quod legitur fronte capillata, sed plerumque sequitur Occasio calvata”. La ocasión, esa que pasa o no, algo que depende de nosotros mismos, de esa balanza extraña que porta nuestro kairos en cuyos platillos las fuerzas de nuestro inconsciente pueden influir tanto.

Lo inconsciente, lo que parece mágico, no sólo es negativo influyéndonos en desperdiciar las ocasiones. Puede ser un gran aliado. El ouroboros es un símbolo universal. Para Kekulé fue algo más que una mera ensoñación; dejó que le mostrara el camino para encontrar la estructura del benceno. Una mirada casual y una vida puede cambiar definitivamente. Einstein se imagina corriendo a la velocidad de la luz y esa intuición de adolescente dará lugar más tarde a la teoría de la relatividad. Un hongo contamina un cultivo bacteriano y se hace objeto de estudio gracias al que tenemos antibióticos. Nos daría igual que Flemming viviera mil años si despreciara ese momento. 

Kairos, a diferencia de chronos, mira a Eros, a la vida, porque la vida, si es tal, remite a eso, a lo erótico, a la Alegría, bello fulgor divino, como nos indica esa hermosa oda de Schiller recogida por Beethoven en su novena sinfonía “… Freude, schöner Götterfunken, Tochter aus Elysium! “ 

Hay alguna representación de Kairos como la mostrada arriba, pero en realidad Kairos se muestra como resultado de vida. En la creación poética, en la narración heroica, en la pintura, en la ciencia. Chronos nos diría que Renoir pintó “Sur la terrasse” en 1881. Kairos nos muestra en ese lienzo vida, eternidad, porque da igual que esas dos jóvenes hayan muerto, que el propio Renoir también. Todos ellos muestran la vida ahora igual que entonces, igual que cuando nosotros no estemos. Un instante eterno y eso basta. Decía Jesús que María, a diferencia de Marta, había escogido lo mejor porque sólo una cosa es necesaria. María se había dejado llevar por vivir su kairos, por aprovechar su ocasión, en tanto que Marta se afanaba en su chronos.

No vivimos en el tiempo cronológico newtoniano. Nada de lo humano vive en él.

La ciencia, el arte, la filosofía, la poesía, la alegría, el amor, la Medicina auténtica, viven en el tiempo kairos.

El cientificismo, el afán de encumbramiento y riqueza, la injusticia, la rutina, el miedo, lo inhumano, la triste Medicina deshumanizada, la Psiquiatría conductista…mueren en el tiempo chronos.

Una de las bellas lecciones de los evangelios es esa parábola tan mal entendida de los que cobran igual aunque unos han trabajado mucho menos: se muestra la balanza desequilibrada de Kairos, en la que influye uno mismo y también la gracia de los dioses, la contingencia, el viento que sopla donde quiere y no sabemos de dónde viene ni a dónde va. 

Y vendrá cuando venga. Porque por las prisas … puede surgir Ganesha. Lo está haciendo ya en laboratorios chinos y no será tan adorable como el benéfico dios hindú.

Este post es dedicado a mi amigo, el Dr. Norberto Galindo Planas, quien lo inspiró.

lunes, 28 de diciembre de 2015

Un reloj para diez mil años. Feliz 02016.

Somos seres temporales. Los cambios biológicos y biográficos se van sucediendo en nosotros desde que nacemos hasta que nos morimos. Eso plantea la perspectiva de un tiempo lineal. No hay marcha atrás en la vida de cada uno. Y lo que le ocurre a uno, le sucede a todos. La Historia también es lineal aunque a veces parezca que se repite.
 

A la vez, esa dirección lineal es una sucesión de ciclos que la dividen en años o fracciones de año, siendo éstos artificiales (meses, semanas) o naturales (estaciones, días).
Nada ofrece mejor el carácter repetitivo que un simple día. De hecho, tan importante es esa unidad cíclica que los relojes biológicos con que contamos la mayoría de especies son principalmente circadianos. La cronobiología es, lamentablemente, un área de investigación que parece haber pasado de moda.
 

Necesidades religiosas y otras más pragmáticas, como la agricultura, han inducido a la construcción de calendarios dirigidos inicialmente al cálculo de estaciones. Más tarde, se dio también la preocupación por el recuento de años sucesivos, desde un tiempo inicial, un origen de historicidad dudosa y más bien mítico: “Ab urbe condita”, “Anno Domini", etc.
 

Pero no sólo las estaciones y la sucesión de años. También el ciclo unitario, el día, es, a su vez, una sucesión de tiempos: horas, minutos, segundos, e incluso fracciones de segundo. También en este caso se dieron necesidades de medida por las actividades civiles y religiosas.
 

Una medida precisa del tiempo tiene aspectos prácticos indudables. Quizá un buen ejemplo sea el cálculo de la longitud en navegación, pero no es el único: una ley física tan importante como la segunda de la termodinámica implica, en la práctica, una forma de intuir el tiempo.
 

Los sistemas cronométricos han evolucionado. En un rango instrumental que abarca de las  clepsidras a los relojes atómicos, todos disponemos de relojes propios y públicos y cada vez más ajustados entre sí a una hora universal.
El calendario mide años y señala estaciones y efemérides. Fue precisamente la necesidad de calcular la fecha de la pascua cristiana la que acabó induciendo a la reforma gregoriana del calendario. El reloj, a su vez, marca los tiempos de citas, de trabajo, de comidas, de inicio de espectáculos o de actividades de Bolsa, programas de televisión, etc.
 

Parecen dos sistemas con sendos objetivos diferentes: el calendario se fijaría en la sucesión de años y en las efemérides de cada uno, en tanto que el reloj sería importante para vivir la rutina diaria. ¿Por qué no unirlos? En cierto modo, nuestros relojes ya lo hacen, indicándonos no sólo la hora sino también el día, mes y año en que vivimos. Son instrumentos que precisan una fuente de energía que, en la práctica, despreciamos por su bajo coste. Todos los relojes personales y públicos de que disponemos hoy, aunque no se estropeen, acabarán parándose al cabo de años: por no darles “cuerda”, por no cambiar su pila, por no moverlos… por falta de energía a fin de cuentas.
 

¿Podría crearse un reloj - calendario que fuera independiente del mantenimiento y que marcara las fechas a ritmo de reloj, aunque este ritmo no tuviera en cuenta segundos, minutos u horas, sino días, años, siglos? Tanto los calendarios como los relojes son instrumentos de observación; requieren un sujeto que los mantenga y observe lo que indican, sea en las piedras de Stonehenge, sea usando un teléfono móvil. Pero podría construirse un reloj - calendario que funcionara con independencia de mantenimiento humano. No lo haría eternamente, pues no es posible un móvil perpetuo, pero sí durante muchos siglos. Ése es uno de los objetivos que persiguen los miembros de “The Long Now Foundation”, crear un reloj que marque el tiempo durante los próximos diez mil años. Esa fundación se caracteriza por sostener proyectos que miran a muy largo plazo. Uno de ellos, “The Rosetta Project”, ya había sido objeto de comentario en un post de este blog.
 

Tal reloj es una construcción compleja que busca la simplicidad: gente inmersa en una cultura equivalente a la de la edad de bronce podría entender su mecanismo. Requiere energía y, para ello, de las fuentes posibles, se ha elegido la que parece más estable: una diferencia térmica en la cima de la montaña que albergue en su interior al reloj se transmitiría como energía a los componentes que la precisan.

Y ¿por qué no hacer que suene también? Brian Eno, uno de los promotores de esa idea, ha construido un algoritmo que genera secuencias aleatorias de notas musicales, de modo que las campanadas, una al día, sean todas distintas.
Ya se ha construido un prototipo a pequeña escala. Ahora se pretende instalar varios relojes en lugares geológicamente estables. ¿Por qué? Quizá le pregunta mejor sea ¿Por qué no? ¿Tiene algún sentido la Torre Eiffel? ¿Una catedral? ¿Por qué no hacer algo aparentemente interesante aunque sólo sea como monumento a una generación?
 

El reloj de diez mil años es un sueño aparentemente realizable, como otros lo han sido. Será el emblema de una generación o un mero resto de ella, pues no es descartable que el paso del tiempo, en el que se anclan los recuerdos, siga siendo registrado por un instrumento que puede ser a su vez olvidado si, por la razón que sea, no queda nadie para observarlo.

Una nota sobre el año:
El año trópico es el tiempo que transcurre entre dos equinoccios vernales, cuando los planos del ecuador y de la eclíptica se cortan en primavera.
El año sidéreo es el tiempo que tarda la Tierra en dar una vuelta alrededor del Sol hasta un punto exacto del espacio, tomando como referencia las estrellas. Excede muy ligeramente al año trópico.

martes, 22 de diciembre de 2015

¿Y si…?


Muchos “comics”, antes tebeos, divierten a niños mostrando las aventuras de personajes fantásticos. Rizando el rizo, en un tiempo se popularizaron unos historias ilustradas bajo el nombre genérico “What if…” que fantaseaban a su vez sobre qué les ocurriría a esos héroes en circunstancias muy diversas, por ejemplo, en un cambio de época, en un encuentro con otros personajes, etc.

La imaginación permite esos juegos no sólo en el ámbito del comic. También en el de la ficción llevada a la ciencia o a la historia. ¿Qué pasaría si… ? Si no hubiera caído Roma, ¿tendríamos una ciencia mucho más avanzada? ¿Si la radiación del cuerpo negro no fuera vista como un problema interesante, tendríamos la mecánica cuántica? Pero también, ¿habría una segunda guerra mundial si Hitler hubiera sido admitido en la Academia de Bellas Artes de Viena?

Esas e innumerables preguntas más son tan aparentemente interesantes como inútiles, porque sólo hay una historia y, aunque responda en gran medida a lo contingente, es la que es, sólo visible en pasado, no modificable; carece de sentido imaginarla de otro modo, aunque sea importante conocerla para estar advertidos de lo que puede repetirse. Una advertencia a la que, sin embargo, nunca se le hace el menor caso.


Esa pregunta no sólo carece de sentido ante la Historia, ante lo colectivo.  También ante lo biográfico. ¿Qué ocurriría si hubiera aceptado aquella oportunidad? ¿Y si no hubiera elegido mi profesión, mi pareja, la ciudad en la que vivir… etc, etc.?  ¿Y si…? ¿Y si…? Una pregunta que se reitera demasiadas veces ante encuentros casuales, ante frustraciones, ante sueños, insistiendo en una nostalgia inútil de lo no vivido.

Hay quien dice que le gustaría volver a la juventud sabiendo lo que sabe por su experiencia vital, pero quien eso manifiesta sólo expresa una gran ignorancia sobre sí mismo. En el hipotético caso de lo que parece imposible, un viaje en el tiempo, alguien que hace tal afirmación haría lo mismo que hizo con su vida. Exactamente lo mismo en lo esencial. En realidad, mucha gente, sabiendo lo que sabe, sigue y seguirá haciendo lo mismo en el futuro, en una repetición incesante de lo peor.

Sucede que el “¿Y si…?” es una pregunta sin sentido porque nos supone mucho más libres de lo que en realidad somos, pues ocurre que estamos determinados, no tanto porque nuestros genes o los astros lo digan, cuanto por la propia biografía construida en lo familiar, por el niño que permanece en nuestro interior aunque nos hagamos viejos, por todo eso que desconocemos de nosotros y que, aunque dejándonos libres en cierto grado y responsables siempre, nos determina.


Saber de eso, de lo inconsciente en nosotros, sí permite un modo de hacer mejor con la propia vida en el presente, en el futuro que nos quede, y realza a la vez el absurdo de la pregunta “¿Y si…?” referida a nuestro pasado, a la vez que muestra su gran posibilidad cuando se enfoca al presente y al futuro personal y colectivo. 


Podemos construirnos y reconstruirnos y, a la vez, influir, aunque sea muy poco, en la Historia. Pero ese saber requiere, como el lenguaje, del encuentro con nosotros mismos en el otro especular. Por eso, la filosofía no necesariamente libera a quien a ella se dedica, pudiendo facilitar paradójicamente la vida de los otros. Tal vez en eso radique la diferencia entre filosofía y psicoanálisis, porque, en el fondo, no somos tan racionales como creemos y mucho más inconscientes de lo que suponemos.

lunes, 14 de diciembre de 2015

Psicoanálisis. De la escucha a la mirada en Barcelona.

Es bien sabido que Freud creó el psicoanálisis. No fue algo que surgiera de la nada. Una excelente biografía suya, la de Peter Gay, nos muestra su evolución desde la investigación básica al descubrimiento de lo inconsciente y, con ello, la posibilidad de incidir sobre algo que era para los pacientes tan perturbador como oculto.

Un descubrimiento así no es equivalente al de un antibiótico.  Hay que hacer un trabajo hermenéutico de lo que se tiene entre manos y ya desde un principio hubo disonancias entre psicoanalistas, siendo célebre la existente entre Freud y Jung. Pero, a pesar de distintas concepciones, prácticas y escuelas, el psicoanálisis ha evolucionado desde Freud y es en la actualidad un enfoque clínico potente. 


Hay algo consustancial a esta práctica: reconoce el límite que impone la singularidad de lo subjetivo. Ese reconocimiento implica una posición de escucha. En cierto modo, simplificando, la escucha del analista permite que el paciente vaya dándose cuenta de su determinación biográfica, tan distinta de la restricción biológica y, desde ese darse cuenta, desde esa situación en la que donde era Ello acontece el Yo, según diría Freud, alguien puede hacer algo mejor con su propia vida.

Pero precisamente esa actitud de escucha es la que también se abre más allá de la clínica, la que está atenta a la patología social, a lo que ocurre en nuestra civilización, tan inconsciente como la propia Historia nos muestra. Freud mismo la utilizó en sus ensayos.

No sorprende por eso que un psicoanalista pueda interpretar, mejor que un científico, un historiador o un filósofo, las acciones humanas. Y tampoco sorprende que, precisamente para lograr un mayor entendimiento, se abra al discurso de otros. Hay, pues, una doble escucha por parte del psicoanálisis, más allá de la clínica singular: la de lo que sucede en el mundo y la del discurso de otros sobre ese suceder.


Los días 12 y 13 de diciembre de este año, Barcelona, ciudad hermosísima y acogedora donde las haya, albergó un encuentro marcado por esa doble escucha: a lo que ofrece el mundo, incluso con sus silencios, como los que acompañaron al duelo en París, y a lo que puedan ofrecer otras personas desde actividades ajenas al psicoanálisis. 


Un día para cada una de esas escuchas en las Jornadas de la ELP. Quienes asistimos a ellas fuimos afortunados porque hemos aprendido, desde la escucha de la escucha, si así puede decirse, a mirar. A mirar la realidad en que nos hallamos, a tratar de comprenderla y a recordar que nada humano puede ser ajeno a esa mirada.

Fueron muchas las intervenciones y hábil la elección de la inaugural y de la final. 


Éric Laurent inauguró las jornadas con una conferencia riquísima en detalles en la que fue mostrando cómo la acción humana es inconcebible obviando la singularidad. Tomando como núcleo lo traumático de los asesinatos de París, acabó iluminándonos sobre la gran paradoja del cientificismo: cuantos más factores causales se encuentran, menos claro es que haya una causa; lo hizo comparando las explicaciones sociológicas del yihadismo con las biológicas del autismo. Dos fenómenos bien distintos, tanto como las ciencias que pretenden abordarlos (Sociología y Biología), pero que comparten algo común, la imposible objetivación científica de lo subjetivo.
 

Y las cerró, con el brillante rigor que le caracteriza, Miquel Bassols, refiriéndose al cuerpo hablante. No tendría sentido resumir lo que dijo, por ser mucho y necesario, pero quizá baste como ejemplo ilustrativo su alusión  a E.T.A. Hoffmann (quien ya había inspirado un ensayo de Freud) para mostrar lo siniestro posible de actualizar, el siniestro cuerpo de la tecno-ciencia. 

Ésta no es la edad de la ciencia sino la del mito científico, que es muy diferente. Un mito pobre que aspira a la imposible completitud epistémica y que confunde progreso y bondad.

Actividades como la que Barcelona acogió los días 12 y 13 mantienen la esperanza en que es posible reconocer el misterio, en que no todo es igual, en que ser humanos supone una responsabilidad ineludible para cada uno.


sábado, 5 de diciembre de 2015

Lo que la Navidad recuerda

“Y dio a luz a su hijo primogénito, le envolvió en pañales y le acostó en un pesebre, porque no tenían sitio en el alojamiento.” (Lc.2, 7)

“Cuando la bondad decae, cuando el mal aumenta, hago para mí un cuerpo.
 En cada época vuelvo para libertar a los santos, para destruir el pecado del pecador, para establecer la rectitud” (Bhagavad Gita).

Ni buey ni mula ni guirnaldas ni nada. No estaba allí Lucas, el evangelista que dice algo del nacimiento de quien llegó a considerar su maestro. Hubo textos apócrifos, sentimentalismos, imágenes de animales calentando con su aliento a un recién nacido. Nada. No era relevante nada más que lo que expresó Lucas al dar cuenta de uno de tantos nacimientos, más imaginados que reales.


Un nacimiento que, sin embargo, cambió la Historia, marcando, aunque no coincidiera en el año, un nuevo inicio, el Anno Domini.
No se nos narra un nacimiento heroico sino de lo más vulgar e incluso triste. Una familia nuclear, un niño que nace sin dar tiempo a cobijarlo de un modo normal. Es la paja, la tierra, quien lo acoge.


El mensaje cristiano se ha centrado en algo bien distinto a ese breve relato, enfocando la mirada a la muerte. Es la crucifixión de Jesús seguida, para los creyentes, de su resurrección, lo que se propagará como fe salvífica ambivalente (la muerte como tránsito a la vida plena) que acabará desplazando a la religión civil romana y a cultos mistéricos. El “relegere" piadoso civil cede al “religare" cristiano, tan poco piadoso tantas veces.


Pero, con Jesús, hubo algo más esencial que todo el revestimiento mítico posterior de su figura, de alguien que sí parece que existió realmente, pero del que se sabe más bien poco. Y eso esencial fue, a pesar de tantas contradicciones textuales, que hubo alguien que mostró la posibilidad del amor como referencia ética, de un amor total, sencillo y sereno, sostenido por la fe en Dios, incluso como esperanza desesperada al final. Curiosamente, tal vez no fuera tan distinta el ansia última del carpintero Jesús a la del emperador Juliano conocido como el apóstata. Ambos, tan distintos, tan opuestos, fueron sostenidos por una fe monoteísta (extrañamente relacionada con la nostalgia pagana en Juliano).


San Pablo hizo de las palabras de quien no las escribió una religión. Un hombre judío, helenizado y ciudadano romano, que no conoció a Jesús, se encargó de crear una religión universal a partir de una secta apocalíptica. La Historia nos cuenta todo lo demás. Herejías gnósticas, místicas, teológicas, pastorales, matanzas, el Malleus maleficarum… pero también contagios de ese amor de las bienaventuranzas, con personas que encarnaron en sus vidas el evangelio, la buena noticia en un mundo frío, hostil, la utopía posible aquí y ahora.


No es extraño que la necesidad del mito mitificara también a Jesús, incluyendo su nacimiento y su concepción. En el solsticio habría de nacer y una virgen habría de ser su madre. Isis permanece. La cosmovisión egipcia parece más relacionada con el cristianismo que el judaísmo del que procede.


Después, eternas discusiones teológicas en las que una sola palabra como Filioque provocaban cismas y odios, facilitando que cristianos se masacraran entre sí.

Pero lo mítico encierra lo verdadero, precisamente porque lo oculta. La Navidad, fecha que incita (o condena, según se mire) a la reunión festiva familiar, nos recuerda en realidad la soledad del héroe y del matrimonio que fue su familia. Y, con ello, nos advierte, a pesar de abrazos, lucecitas y papasnoeles, de la soledad humana radical.


Y la Navidad nos recuerda la gran posibilidad del amor. Como lo hizo en el frente occidental en 1914, en las trincheras. No aludiendo a un amor sensiblero, sino real, humano, el que acepta al otro, por muy diferente o, lo que es peor, por muy igual que sea a uno mismo. Un otro que será amado no por amor a Cristo, ni a Dios, ni siquiera a nosotros mismos, sino sólo, exclusivamente, por él mismo, por ser otro y ser, desde esa alteridad, hermano en la soledad cósmica.
 

viernes, 20 de noviembre de 2015

Ciencia y repetición

En la investigación científica no basta con que un investigador encuentre algo relevante; debe ser verificable también por otros. Esa necesidad de reproducibilidad confiere poder al método. Una observación astronómica puede ser realizada por múltiples investigadores; se trata de una reproducibilidad por simultaneidad colectiva. Un experimento puede repetirse por un mismo investigador y por otros utilizando los mismos métodos. Sería la repetición a lo largo del tiempo.

Cuanto más relevante o extraordinario sea un hallazgo científico, mayor será la necesidad de reproducir su descubrimiento pues, como indicaba Barry Beyerstein, “las afirmaciones extraordinarias demandan una evidencia extraordinaria”. Ni la fusión fría ni los experimentos que apuntaban a la eficacia de la homeopatía fueron reproducibles. Sin esa repetición, su aparente relevancia inicial quedó eliminada. 


La repetición es necesaria para comprobar que una relación causal obtenida por un grupo de investigación (ya no suele haber investigadores aislados) es real y no mero efecto del ruido, sea éste intrínseco a los instrumentos de medida y a alteraciones en reactivos químicos o biológicos, sea causado por la interferencia de variables distintas a aquellas que se investiga. 


El ruido instrumental cobra gran importancia en mediciones físicas, en tanto que el ruido inherente a múltiples variables es importante en el ámbito biológico. Es tal la importancia del azar que todo control es poco. Un ensayo clínico, un estudio epidemiológico de cohortes, por ejemplo, se hacen para contrastar que hay señal y no ruido. Y, por muy bien realizados que estén (lo que requiere “neutralizar” variables de confusión mediante la randomización y estratificación de grupos a comparar), precisan la repetición que suele revelar efectos no idénticos y que suponen muchas veces la necesidad de meta-análisis. La tan manida significación estadística (expresada por el valor de “p” o por un intervalo de confianza) está en crisis ante el enfoque bayesiano pero, más allá de la discusión entre frecuentistas y bayesianos, parece obvio que lo revelador haya de ser comprobado y que no baste un único experimento. 

El 3 de septiembre un comentario de Glenn Begley en Nature indicaba que una encuesta realizada por la “American Society for Cell Biology” revelaba que más de dos tercios de investigadores encuestados habían sido incapaces, al menos en una ocasión, de reproducir sus resultados publicados. También Nature recogía que, en un estudio, sólo 6 de 53 publicaciones relacionadas con la oncología clínica fueron reproducibles.  Todo eso es ciertamente preocupante y ha motivado una iniciativa dirigida a mejorar la situación, la “Reproducibility Initiative”

Además del ruido, hay un elemento importante que no es tenido suficientemente en cuenta. Se trata de la subjetividad, y por partida doble. Por un lado, la del investigador; no todo el mundo es honesto, tampoco en ciencia. Por otro, la del sujeto mismo cuando se le considera objeto de investigación.


El método científico riguroso implica la honestidad del investigador y la reproducibilidad de los resultados que obtiene.  Pero eso parece a día de hoy un tanto utópico. En 2009, Daniel Fanelli hizo una revisión sistemática de encuestas sobre conducta científica, fijándose en lo que llamó “prácticas de investigación cuestionables” (no sólo fraude).  En su trabajo, publicado en PLOS One, concluía que hasta un 34% de los investigadores las había cometido.  Y es que, ni en el trabajo que requiere mayor objetividad puede eliminarse el factor subjetivo. Si no hay honestidad, la recolección de datos, el análisis de relaciones entre ellos, el aparente descubrimiento interesante… carecen de valor (sutiles manipulaciones de datos pueden dar lugar a relaciones significativas). Precisamente la repetición por otros permite consolidar o rechazar resultados interesantes. La ciencia requiere una objetividad intersubjetiva a la que no le es nunca suficiente con la confianza en el hallazgo singular, por mucha autoridad que tenga su autor o por la importancia del medio que publique sus resultados.

Pero donde más llamativa es la falta de reproducibilidad es en el ámbito de la Psicología. Brian Nosek publicó en Science que, analizando 100 artículos relevantes por parte de 270 investigadores, sólo fueron reproducibles un 39% de ellos.  En el mismo sentido, ya fue revelador un artículo publicado en 2012 por John P.A. Ioannidis en el que se mostraba que la tasa de replicación de publicaciones psicológicas era inferior a un 5%, llegando a expresar que la prevalencia de falacias publicadas podría alcanzar el 95%.
 

Hubo un trabajo que no se llegó a publicar y que se intentó reproducir. En 2010 Matt Motyl había descubierto que el hecho de ser políticamente radical se relacionaba con una visión de blanco o negro cuando ambos iban separados por una escala de grises. En colaboración con Brian Nosek, la repetición mostró que la relación mostrada en el estudio inicial, con clara significación estadística (p = 0.01) se disipaba porque el mismo cálculo estadístico sobre los nuevos datos reveló que eran atribuibles al azar (p = 0.59)

¿Por qué ocurre esto especialmente en Psicología? No cabe atribuirlo a las mismas causas que en el ámbito de la Biología o de la Medicina. Hay algo añadido que es intrínseco a la propia Psicología pretendidamente científica: el olvido de la subjetividad. Matt Moyl actuó honestamente desde el punto de vista metodológico; repitió su experimento y vio que su hallazgo inicial se desmoronaba. Pero lo que pretendía mostrar Matt Motyl parece una solemne tontería, comprensible sólo, como tantas otras, en el marco reduccionista cognitivo - conductual en que nos hallamos. El problema de la no reproducibilidad en Psicología no es un problema real o, más bien, lo sería sólo en el caso de la psicología en modelos experimentales animales. El problema reside esencialmente en que la subjetividad no obedece a medidas por mucho análisis factorial y tests ordinales que se hagan. Y, siendo así, difícilmente se podrá encontrar algo llamativo y reproducible aplicando al alma los mismos métodos que a las células de un cultivo o a la genética de moscas. En publicaciones de Psicología las famosas “p” no son, en general, muy creíbles.

El científico se identifica cada día más con el investigador, aunque los conocimientos científicos de éste sean muy limitados. Y la carrera del investigador es ahora la de alguien que publica artículos en revistas que tengan el mayor impacto posible (hay revistas de alto impacto que recogen publicaciones que no lee nadie, por otra parte). El tristemente célebre “publish or perish” es una realidad; quien no entre en esa dinámica verá cercenadas sus posibilidades para ser investigador. Si es clara una relación, pero la “p” es de 0.06, es un fastidio, y tal vez reuniendo más datos o eliminando algunos se alcance significación; de hecho, 0,06 es cercano a 0,05 apuntando a que algo hay. ¿Por qué no afinar un poco y publicarlo con una "p" mejor? ¿Es que acaso nadie lo hace? Esa es la situación que se da en no pocos casos. Luego vendrán los metaanálisis e incluso los meta-metaanálisis si lo mostrado es relevante y, de confirmarse, el que primero lo haya publicado verá su noble recompensa curricular e incluso hasta mediática. 


El escepticismo, esencial en el método científico, es así castigado por un sistema de promoción científica que premia la prioridad a expensas del rigor y de la honestidad que lo hace posible. A la vez, se asiste paradójicamente a un culto al escepticismo como creencia. 


Freud nos habló de la importancia de la compulsión de repetición. Tendemos a repetir lo peor para nosotros mismos. Y eso ocurre también en donde todo parece claro y consciente, en el ámbito de la ciencia, pues en la actualidad muchos investigadores tienden a repetir lo peor, que, en ciencia, es precisa y paradójicamente, la falta de repetición.

sábado, 14 de noviembre de 2015

EN DUELO

Demasiadas veces no hay nada que decir. Porque sólo hay estremecimiento y llanto. Sólo hay dolor. Y es en momentos así cuando lo mejor es callar.

Lo peor se repite. Siempre. Porque Thánatos tiene toda la fuerza percibida por Freud. 

Las hienas actúan por instinto. El ser humano cede a la pulsión. Pero es libre y responsable de hacerlo. De todo el horror que supone sucumbir a la tentación fanática, de tanto daño que no llega a ser imaginable.

En nombre de la raza. Por orden del Führer. Por el "hombre nuevo". Por la patria o en nombre de Dios... lo peor pasa al acto. 

Pero tanta crueldad sólo es humana. Demasiado humana.





sábado, 7 de noviembre de 2015

La WISE recuerda el "mundo real" como objetivo de la educación.



La Cumbre Mundial para la Innovación en Educación (WISE por sus siglas en inglés), relacionada con la Fundación Qatar, acaba de comunicar los resultados de una encuesta realizada por Gallup sobre la efectividad de los sistemas educativos alrededor del mundo, basada en las respuestas de 1550 miembros (profesores, estudiantes, graduados, políticos y empresarios).

El mensaje general de la “2015 WISE Education Survey”  no puede ser más claro: “Hay que conectar la educación al mundo real”. Y eso se entiende como un problema global. Se reconoce la necesidad de "reconsiderar la educación como una colaboración entre escuelas y empresarios de tal modo que se proporcionen estudiantes con una experiencia de mundo real en su campo antes de que se gradúen”. Es más, muchos expertos entienden que tal colaboración es precisa ya en los niveles escolares primario y secundario. 

La Dra. Asmaa Alfadala, directora de investigación en WISE, lo tiene claro. Es necesario “un aprendizaje basado en proyectos”, que propicie un trabajo en equipo enfocado a problemas del “mundo real”, en vez de “aproximaciones convencionales”.

El 63% de expertos optan por programas educativos que impliquen estrechas colaboraciones entre estudiantes y empresarios, teniendo estos últimos un incentivo para su mayor implicación: el coste implícito sería superado a largo plazo por trabajadores (literalmente “workforce”) mejor preparados.

Tanta cumbre mundial realza viejas preguntas pragmáticas: ¿Para qué sirve aprender eso? y, especialmente, ¿Qué “salidas” tienes con esa carrera? Se asume que uno aprende para algo y resulta que ese algo se llama “mundo real”. 

Que en el documento se resalte varias veces esa expresión, sugiere que hasta ahora se ha educado en buena medida para un mundo irreal. ¿Qué entienden tantos por “mundo real”?  Parece sencillo, el mundo concebido del modo materialista más crudo, el que asimilará la “workforce”, el de la empresa, el que, de hecho, cambia la propia realidad transformándola. Se trata de trabajar haciendo cosas útiles, vendibles, o transformando la energía también para algo pragmático. Es el mundo de la tecno-ciencia al servicio del mercado.

¿Cabe mayor afán que el de contribuir a crear una “workforce” para ese mundo? No lo parece y, por eso, hemos de ser cuidadosos con los elementos que la harán posible, los maestros y profesores, a los que hemos de pagar, respetar… y vigilar. Porque no todos son buenos. No todos están preparados. Nuestro país, regido ahora por un gobierno moderno donde los haya, ha recurrido por eso, atendiendo el consejo de la WISE (cuya traducción es “sabia”) a un adelantado de la modernidad, como es D. José Antonio Marina, que ha sabido diagnosticar los serios problemas que tenemos en esto de la educación. Por ejemplo, afirma que “En España, nadie le da importancia a los equipos directivos”, que “casi siempre consiguen tener éxito seleccionando y manteniendo a los buenos profesores, cosa que sólo pueden hacer los colegios privados y concertados, dado el carácter funcionarial del profesorado de la escuela pública”. Ya se sabe, lo público es nefasto.

También señala que "El tiempo del profesor aislado se ha terminado”. Y es que así no hay quien controle nada. Todo profesor ha de ser vigilado y no hay mejor vigilante que el compañero de uno por lo que han de ser éstos quienes "fomenten la exclusión de los malos profesores, porque desde fuera es muy difícil de detectar”

Puede parecer que la vigilancia es fea, pero no tanto si se instaura “ab initio” y para ello también propone el Sr. Marina un sistema de tutoría de los nuevos docentes, equiparable al que se da en la formación médica especializada (MIR). Sobra decir que no sólo es el PP el que aplaude tan sensatas medidas. El PSOE también es muy receptivo ante ellas. ¿Quién puede resistirse al avance en materia educativa? En realidad, los dos grandes partidos han contribuido a mejorar la enseñanza con tantas leyes como gobiernos habidos en España.

Claro, hay profesores que lo son en el sistema público tras superar una durísima oposición, y eso les hace críticos con la clara visión del Sr. Marina. Son unos resentidos que no aciertan a ver que se trata de acometer un problema esencial, el del “mundo real” y, para eso, no basta con saber sobre banalidades y transmitir ese saber. Hay que tener la vista puesta en la realidad y saber comunicarla, con inteligencia emocional como se dice ahora.

Y es que hay profesores anclados en el pasado, que no ven el dichoso (porque tiene que ser dichoso) “mundo real”. Son los que hablan de cosas extrañas como la filosofía (en feliz vía de desaparición del curriculum escolar) o los que inducen a vicios gozosos como la literatura (incluyendo la poesía), o a mirar al pasado como si a alguien le importara la Historia. Ya lo dijo un sabio como Pablo Casado, prometedor político de la derecha moderna: “Están todo el día con la guerra del abuelo, con las fosas de no se quién, con la memoria histórica”, refiriéndose a gente anticuada.  Y, si eso es así, con el pasado reciente… ¿a quién le va a interesar lo que hayan hecho o dejado de hacer los romanos? ¿Es realista eso?

El mundo real es el del futuro, el de la transformación a la riqueza. De unos pocos, pero transformación beneficiosa al fin y al cabo. Hace años ya se decía: “Aprenda Basic, el lenguaje del futuro”, y hace más, se proponía el Esperanto. Y qué razón tenían. ¿Qué haríamos ahora sin Basic o sin Esperanto? Pues bien, se trata de seguir en esa onda, de formar a la “workforce” con vistas a un futuro realista en el que esos afortunados no tendrán que haber aprendido nada de memoria, no necesitarán calcular (hay móviles) ni escribir ("Siri" y programas similares se perfeccionarán).

¿Qué debe enseñarse? Parece obvio. Los niños deben aprender a leer, eso sí, para seguir los protocolos de trabajo cuando sean mayores, y deben aprender las bases científicas que les dirán lo esencial de ese mundo real y de cómo transformarlo. También han de aprender a conocer la "lingua franca" que, como ahora el esperanto, probablemente sea el inglés. Y todo ese aprendizaje se hará, a ser posible, jugando. 

¿Cómo debe enseñarse? Con calidad e inteligencia emocional. Y nada como los criterios ISO para certificarlas. Una calidad vigilada constantemente, de tal modo que los malos profesores sean rápidamente depurados del sistema educativo por los que son buenos y responsables, ejerciendo así un santo compañerismo. Unos profesores que han de ser, de hecho, iniciados en la práctica de su inteligencia emocional y capacidad de coaching mediante un MIR adecuado.

¿Para qué tanto esfuerzo? Para crear una buena “workforce”. Para que quienes la constituyan se integren plenamente en la servidumbre voluntaria que hará posible atender a ese orwelliano mundo real y, aunque no lo digan por modestia y rigor, también feliz, que ya lo pronosticó Huxley.

Muchos, demasiados, quieren hacer de la educación sólo eso: un aprendizaje para la servidumbre. Y, por eso, un mundo sin filosofía, arte, literatura, música, es lo único que puede ser llamado "mundo real", en el que se den unas cuantas respuestas y ninguna pregunta.

domingo, 1 de noviembre de 2015

Todos los santos. El recuerdo de los muertos.


“Hay un cuadro de Klee que se llama Angelus Novus. En él se muestra a un ángel que parece a punto de alejarse de algo que le tiene paralizado. Sus ojos miran fijamente, tiene la boca abierta y las alas extendidas; así es como uno se imagina al Ángel de la Historia. Su rostro está vuelto hacia el pasado. Donde nosotros percibimos una cadena de acontecimientos, él ve una catástrofe única que amontona ruina sobre ruina y la arroja a sus pies.”
Walter Benjamin

Percibimos el futuro desde el recuerdo del pasado. Walter Benjamin no parecía optimista cuando reflexionó sobre el cuadro de Klee. 

Estamos en un ahora, y es tras un futuro, de duración breve o un poco prolongada pero finita en cualquier caso, que nos ubicaremos en el pasado, siendo sólo cenizas y recuerdo. 

Se dice, y con razón, que somos polvo de estrellas. Éste es un conocimiento relativamente reciente, aunque fuera intuido por Novalis. Sabemos que muchos de los átomos que nos constituyen han tenido que ser formados en el corazón mismo de estrellas moribundas. Es un tanto poético pensar que somos polvo estelar, y tal imagen enlaza con la perspectiva poética de Quevedo ante el retorno al caos material: “polvo serán, mas polvo enamorado”.

La Iglesia católica dedica un día a recordar a todos los santos. Algo imposible, pues no se puede recordar a quien no se conoció. Pero, a la vez, necesario, porque sólo por la santidad de tantos (no sólo entendida en sentido religioso), ha sido posible el relativo progreso material y espiritual en que vivimos hasta que lo destruyamos y quizá recompongamos. Como tantas veces.

El recuerdo del pasado no es sólo recuerdo de santos. Asumir la Historia es recordar también la crueldad, lo horrible del ser humano, todo aquello de lo que somos capaces por ser “demasiado humano”.

Haber vivido en una tradición judeocristiana nos ha marcado inexorablemente a muchos, porque cada cual está necesariamente inmerso en una corriente, en una tradición, incluso para negarla, para rebelarse contra ella. Y en ésta, el día de todos los santos y el siguiente, el día de difuntos, suponen un doble recuerdo. Por un lado, el histórico valioso, el debido a tantos que tanto bien nos han hecho (algo perfectamente trasladable al ámbito ateo). Por otro, un recuerdo curiosamente anticipatorio, el de la propia mortalidad. 

Hay un horror atávico a los muertos o, más bien, a su reaparición. Las diferentes formas de celebrar estos días juegan con ese terror que ya a nadie asusta, ni siquiera a los niños que se disfrazan de espectros, porque tenemos electricidad que sostiene la luz, la claridad nocturna, que neutraliza todo oscurantismo. 

Pero sí hay un doble horror que puede o no invadirnos estos días. Uno, es el terror a la repetición de lo peor de la Historia, a esos jinetes apocalípticos a los que se les da tantas veces por cabalgar. Hoy lo hacen en Siria, entre otros lugares.

Otro, es el horror al cuerpo propio. No al cuerpo muerto, pues en eso somos ya bastante epicúreos: la muerte llegará, sí, pero cuando eso ocurra, no estaremos y, mientras tanto, viviremos y la muerte no existe. No. Lo que puede horrorizar es el cuerpo mismo, el anatómico, como recuerdo. Porque, así como la Historia no es, como realzaba Benjamin, una mera cadena de progresos lineales, el cuerpo, lo que mejor vemos de nosotros mismos, tampoco.

Basta con observar unas láminas de anatomía para percibir que la angustia pascaliana ante los espacios infinitos también es plausible ante el propio organismo. Porque el cuerpo es distante a nuestro ser, aunque lo sostenga. Porque el cuerpo ha resultado del azar, de extinciones masivas de formas de vida en un mundo habitado principalmente por bacterias. No llegamos por un proceso lineal. Sobran ejemplos de ausencia de “diseños inteligentes”; la absurda colocación de la retina, mirando al revés, sería uno de tantos.

Estamos solos. Surgimos del azar y cada uno se ha hecho en mayor o menor grado consciente de sí mismo, como construcción biográfica inscrita en la Historia. Una contingencia en busca de sentido.

Eso y no una danza macabra es lo que horroriza: la ausencia de sentido y significado de un cuerpo que permite un autorreconocimiento único del Todo. Y eso es lo que nos muestra como decían los existencialistas: arrojados. Para la muerte. Y para la vida. Una vida que, aun frente a la gran castración final, puede ser vivida éticamente. Ésa es nuestra tragedia y en ella reside nuestra dignidad.

Aunque se hable del caso Galileo, la Iglesia facilitó el desarrollo científico. Con desfases, todo fue integrable en el contexto dogmático. Hasta que llegó un hombre que se llamaba Charles Darwin. Y todo cambió, porque la ley sólo constriñe sin determinar, dejando hacer al azar. 

Ni siquiera la creencia en lo trascendente, en un sentido amoroso, si es auténtica, puede soportar el horror del absurdo, perceptible en momentos de lucidez. Sólo puede, que no es poco, confortarnos a quienes la tenemos, sin saber por qué la tenemos (quizá un resto infantil freudiano), en la apertura al misterio, uniéndonos a muchos otros que han esperado sin esperanza. Porque creer no es adherirse a una tabla de salvación, sino perderse irracionalmente, amorosamente, en el abandono de un "deus absconditus", de un "deus ludens", en la ignorancia más radical que implica el misterio.