martes, 13 de junio de 2023

Informática. Herramienta y metáfora.

 


Imagen tomada de Pixabay

Hay un lema que parece reforzarse más allá, más acá, del ámbito cosmológico para el que se formuló. Se trata del “it from bit” de Wheeler. Lo primordial, lo originario, sería la información, aunque no hubiera nadie para ser informado. Esa exageración brutal se concilia con asumir que la consciencia humana es sólo mejor que otras, como la de un rinoceronte o la de un bolígrafo. Koch y Tononi defendieron, con su teoría de la información integrada, que cualquier sistema mínimamente complejo sería también mínimamente consciente. 


El bit es, en ese enfoque, lo elemental, aunque dice muy poco. Para cualquier comunicación, interesa reducir lo convencional, sea una letra, un número, un signo, a una corta secuencia de bits, eso que se llama byte y que, aunque de tamaño relativamente arbitrario, acabó siendo una secuencia de 8 bits. En la actualidad, ya nos hemos olvidado de hablar de miles de bytes (Kb), para hacerlo de Mb, Gb, Tb y más allá. 


El desarrollo de sistemas electrónicos de tamaño manejable facilitó la expansión de la capacidad de comunicación y de su almacenamiento. El ejemplo más obvio es lo que conocemos habitualmente como “móvil”, que, en la práctica, ha dejado de ser teléfono, porque casi nadie lo usa para hablar en sentido literal, sino para una comunicación doblemente digital, la basada en el uso, con los dedos, de lo que acaba siendo una informática binaria. En ese artefacto, transferencias masivas de información soportan aplicaciones que incluyen periódicos, bibliotecas, fotos, películas, radio, televisión, calculadoras sofisticadas, enciclopedias, juegos solitarios e interactivos, navegación GPS, registros de todo tipo, incluyendo los de carácter médico, etc. Los relojes digitales son cómodos “móviles” de muñeca, con los que podemos hacer de todo, incluso pagar en cualquier tienda.


La diferencia entre lo que llamamos ordenadores, “tablets” o “móviles”, alude más a la comodidad del uso inherente a su forma que a su capacidad, aunque haya excepciones cuando se exigen muy altos niveles de computación (como los que soportan la famosa “nube” o los involucrados en física de partículas), que requieren máquinas de tamaño, coste energético y refrigeración considerables. 


Todo eso es una maravilla hecha realidad. También lo es la simulación de procesos, el cálculo aplicado, la contemplación de problemas complejos en función de la posibilidad o no de su tratamiento algorítmico. Pero también hay indudables consecuencias negativas perceptibles, sobre todo, por la gente mayor que, a diferencia de los llamados “nativos digitales” son más afectados por una pérdida de servicios, por timos informáticos, y por una gran soledad que acrecienta la que ya tienen por edad. Hay efectos negativos en empleos y en aspectos relacionales que fueron cotidianos. Figuras ejemplares por su contribución social han dado paso a todo tipo de "influencers".


Pero quizá el peor efecto del auge digital se cifre en un prefijo, “neuro”. La tentación de creer que el sujeto es un hardware biológico que alberga un software también biológico conduce a efectos buenos y a otros que son perniciosos. Es bueno y muy prometedor el uso de sistemas informáticos como ayuda, no sólo para comunicación por parte de personas con discapacidad motora; también como ayuda real enfocada a la compensación de lo hasta ahora irreparable, como las lesiones medulares. Las interacciones cerebro – ordenador y la robotización intervencionista son un campo de desarrollo fascinante que hacen esperar en una revolución en el ámbito quirúrgico y en la rehabilitación funcional. 


La metáfora no puede, sin embargo, ir más allá del afán heurístico. No somos reducibles a algo “informático”. Lo “neuro” precede ya obsesivamente como prefijo a todo tipo de manifestación humana y sustenta no sólo la identificación mente – cerebro, sino que fomenta la analogía impresentable entre el funcionamiento cerebral y el de un ordenador. Es desde esa analogía no fundamentada que la consciencia se supone equivalente al proceso algorítmico que los sistemas informáticos permiten. 


Últimamente, esa pretensión de equivalencia cobra auge con el desarrollo de la inteligencia artificial (IA), que nada tiene de inteligente, merced a los chatGPT que simulan muy bien tareas escolares y, en general, cualquier proceso algorítmico, incluyendo la sólo aparente creación de arte.


Si el “Dr Google” sigue teniendo un éxito arrollador en una hipocondrizacion generalizada, los chatGPT suponen la tentación de sustituir al diagnóstico de un médico, con efectos que, si alguna vez pueden ser bondadosos, serán en general catastróficos, en simbiosis con todo tipo de sensores de salud, por una medicalización de la vida cotidiana que irá asociada a serios riesgos yatrogénicos, incluyendo los mentales, los "neuro", transformados en neuras. Lo más novedoso, el desarrollo informático, puede facilitar una consolidación de los peores rasgos neuróticos, cuando no propiciar la manifestación psicótica.


El contexto que prima el bit frente al it, no se conforma con ver toda conducta humana como un “neuro”- comportamiento, concibiéndose así toda área de salud mental como una "neuro-psicología". La neura de lo "neuro" y el reino de los bits acaban convirtiendo a las personas en cifras y a sus cuerpos en albergues de información transmisible, a modo de genes egoístas, a lo Dawkins. 


La informática como herramienta supone un gran avance, incuestionable, en el que nos hallamos inmersos, aunque tiene efectos colaterales que pueden ser terribles para muchas personas. La informática como metáfora nos reifica, pretende medirnos en múltiplos de bytes que se comunican entre sí y que se transmiten, sea como “memes” (de nuevo, Dawkins), sea como hijos, con información genética editable, no sólo para bien, también para lo "mejor", en el nuevo afán eugenésico.


Esta reificación se da en el seno de un neocapitalismo desmedido, que, entre otras cosas, ha transformado la basura de papel en basura de plástico y de elementos venenosos. 


Si no se le pone freno a la exageración digital, si sólo vemos ventajas en los ordenadores y redes, acabaremos con la civilización misma, y no por el desarrollo de una IA poderosa con consciencia emergente, sino como tristes solitarios ahogados en plástico y sometidos a la barbarie, a no ser que antes nos lleve por delante una catástrofe nuclear, solucionando, al menos a escala local, la paradoja de Fermi. 

4 comentarios:

  1. Querido Javier: en efecto, las tecnologías nos aportan verdaderas maravillas en múltiples aspectos de la vida. El problema es que, salvo las personas especializadas teórica y prácticamente en estos temas, la opinión pública (en ocasiones alentada por instituciones supuestamente prestigiosas y medios de prensa al servicio de grandes corporaciones) no se interroga sobre lo efectos colaterales e indeseables de estos prodigios. Hoy la IA artificial, a la que debemos avances indiscutibles más muchos otros que vendrán, es también motivo de preocupación. Esto último no significa, a mi entender, un repudio a lo nuevo, sino una interrogación que es bienvenida, para estar advertidos de que estamos entrando en un terreno que no es un mero videojuego. Nada que suponga una transformación tan profunda de nuestra existencia puede adoptarse alegremente.
    Un abrazo
    Gustavo Dessal

    ResponderEliminar
    Respuestas
    1. Querido Gustavo,
      Por supuesto, se trata, como bien dices, de "estar advertidos". Todo gran descubrimiento o invención plantea el dilema de su campo de aplicación y potenciales restricciones éticas.
      Un fuerte abrazo
      Javier

      Eliminar
  2. Me pregunto si la perspectiva histórica, tan necesaria para ponderar, entre otros hechos, los avances tecnológicos, se reduce de manera proporcional a nuestra capacidad de conocimiento o si continúa siendo imprescindible una cierta lejanía. Digo esto, en realidad, porque me gustaría saber cómo se juzgará esta época dentro de unos cuantos años. Una época en la que, desde mi rincón del desconsuelo, se le ha otorgado un papel preponderante a la estupidez, tanto que llega a ser premiada. Por ventura, tengo otros rincones.
    Por supuesto que opinar es siempre vital, al igual que alentar la opinión, como haces desde este blog, es encomiable. Estoy de acuerdo totalmente con las palabras de Gustavo Dessal, pero además de esas personas especializadas teórica y prácticamente en el tema creo que es indispensable e imperiosa la aportación de intelectuales que, desde el campo del lenguaje, la inteligencia o la ética (¿todavía existe?) nos cuestionen o, en el mejor de los casos, nos alumbren acerca de las dudas que provoca el avance imparable de la tecnología. Sin duda esa aportación existe, pero hay que bajar a la mina para encontrarla.
    Aquellos que, como yo, carecemos de la autoridad para pronunciarnos tan sólo podemos merodear el asunto con banalidades, aunque en ellas mostremos implícitamente la celebración sin fisuras de los avances que permiten mejorar la vida en campos tan merecidos de aplauso como el de la medicina; o que, por el contrario, mostremos nuestro temor, adornado con cierto grado de sorna, ante las deficiencias de chatGPT para aprobar exámenes de selectividad (me remito a un artículo publicado en “La Voz de Galicia” el pasado domingo).
    Creo que vale la pena destacar tres palabras (como el bolero) que citas en tu entrada: “soledad” y “éxito arrollador”. Los sociólogos y otros “ólogos” (absténgase el oráculo de los politólogos) tienen una labor extenuante para deducir las causas y los efectos de la soledad en un tiempo en el que las herramientas de comunicación no sólo han alcanzado un alto grado de sofisticación (estuve barajando otros términos, pero este tiene un punto sibilino que no pude rechazar) sino que alguna de ellas la llevamos encima constantemente. ¿O es ella la que nos lleva? No seré yo quien aventure una conclusión; mi atrevimiento está cada vez más reprimido o deprimido.
    Y con respecto a ese “éxito arrollador”, he aquí el urdidor de los miedos, temores y desconfianzas. Este avance tecnológico, percibido desde la cercanía de la cotidianeidad (todo un vergel para la miopía), es como una nave ultrasónica para la que no existe frontera infranqueable y que cruza el infinito más próximo… sin piloto. Apenas creemos situar sus coordenadas cuando comprobamos, empachados de biodramina, que no ha dejado rastro. Pero sí huella. Sin embargo, todos sabemos que hay un piloto. Lo sabemos como seres individuales y también como seres sociales. Y ese piloto lleva traje superhéroe cuando no se trasviste de villano. Y nosotros, desnudos.

    Muchas gracias, Javier. Un abrazo.

    Miguel.

    ResponderEliminar
    Respuestas
    1. Querido Miguel,
      Muchas gracias por tu comentario. De él, mi fijo especialmente en el último párrafo y, en éste, en el término "piloto".
      Siempre hubo y hay pilotos. La cuestión parece residir en la posibilidad, en la que no confío, de que no exista piloto humano en el futuro.
      Y describes tan bien como sucintamente all final el estado de la cuestión. A diferencia del cuento que conocemos, no es el emperador o rey quien está desnudo, sino que ahora está bien vestido y la desnudez es algo que compartimos.
      Un abrazo
      Javier

      Eliminar