Mostrando entradas con la etiqueta Inteligencia Artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia Artificial. Mostrar todas las entradas

martes, 13 de junio de 2023

Informática. Herramienta y metáfora.

 


Imagen tomada de Pixabay

Hay un lema que parece reforzarse más allá, más acá, del ámbito cosmológico para el que se formuló. Se trata del “it from bit” de Wheeler. Lo primordial, lo originario, sería la información, aunque no hubiera nadie para ser informado. Esa exageración brutal se concilia con asumir que la consciencia humana es sólo mejor que otras, como la de un rinoceronte o la de un bolígrafo. Koch y Tononi defendieron, con su teoría de la información integrada, que cualquier sistema mínimamente complejo sería también mínimamente consciente. 


El bit es, en ese enfoque, lo elemental, aunque dice muy poco. Para cualquier comunicación, interesa reducir lo convencional, sea una letra, un número, un signo, a una corta secuencia de bits, eso que se llama byte y que, aunque de tamaño relativamente arbitrario, acabó siendo una secuencia de 8 bits. En la actualidad, ya nos hemos olvidado de hablar de miles de bytes (Kb), para hacerlo de Mb, Gb, Tb y más allá. 


El desarrollo de sistemas electrónicos de tamaño manejable facilitó la expansión de la capacidad de comunicación y de su almacenamiento. El ejemplo más obvio es lo que conocemos habitualmente como “móvil”, que, en la práctica, ha dejado de ser teléfono, porque casi nadie lo usa para hablar en sentido literal, sino para una comunicación doblemente digital, la basada en el uso, con los dedos, de lo que acaba siendo una informática binaria. En ese artefacto, transferencias masivas de información soportan aplicaciones que incluyen periódicos, bibliotecas, fotos, películas, radio, televisión, calculadoras sofisticadas, enciclopedias, juegos solitarios e interactivos, navegación GPS, registros de todo tipo, incluyendo los de carácter médico, etc. Los relojes digitales son cómodos “móviles” de muñeca, con los que podemos hacer de todo, incluso pagar en cualquier tienda.


La diferencia entre lo que llamamos ordenadores, “tablets” o “móviles”, alude más a la comodidad del uso inherente a su forma que a su capacidad, aunque haya excepciones cuando se exigen muy altos niveles de computación (como los que soportan la famosa “nube” o los involucrados en física de partículas), que requieren máquinas de tamaño, coste energético y refrigeración considerables. 


Todo eso es una maravilla hecha realidad. También lo es la simulación de procesos, el cálculo aplicado, la contemplación de problemas complejos en función de la posibilidad o no de su tratamiento algorítmico. Pero también hay indudables consecuencias negativas perceptibles, sobre todo, por la gente mayor que, a diferencia de los llamados “nativos digitales” son más afectados por una pérdida de servicios, por timos informáticos, y por una gran soledad que acrecienta la que ya tienen por edad. Hay efectos negativos en empleos y en aspectos relacionales que fueron cotidianos. Figuras ejemplares por su contribución social han dado paso a todo tipo de "influencers".


Pero quizá el peor efecto del auge digital se cifre en un prefijo, “neuro”. La tentación de creer que el sujeto es un hardware biológico que alberga un software también biológico conduce a efectos buenos y a otros que son perniciosos. Es bueno y muy prometedor el uso de sistemas informáticos como ayuda, no sólo para comunicación por parte de personas con discapacidad motora; también como ayuda real enfocada a la compensación de lo hasta ahora irreparable, como las lesiones medulares. Las interacciones cerebro – ordenador y la robotización intervencionista son un campo de desarrollo fascinante que hacen esperar en una revolución en el ámbito quirúrgico y en la rehabilitación funcional. 


La metáfora no puede, sin embargo, ir más allá del afán heurístico. No somos reducibles a algo “informático”. Lo “neuro” precede ya obsesivamente como prefijo a todo tipo de manifestación humana y sustenta no sólo la identificación mente – cerebro, sino que fomenta la analogía impresentable entre el funcionamiento cerebral y el de un ordenador. Es desde esa analogía no fundamentada que la consciencia se supone equivalente al proceso algorítmico que los sistemas informáticos permiten. 


Últimamente, esa pretensión de equivalencia cobra auge con el desarrollo de la inteligencia artificial (IA), que nada tiene de inteligente, merced a los chatGPT que simulan muy bien tareas escolares y, en general, cualquier proceso algorítmico, incluyendo la sólo aparente creación de arte.


Si el “Dr Google” sigue teniendo un éxito arrollador en una hipocondrizacion generalizada, los chatGPT suponen la tentación de sustituir al diagnóstico de un médico, con efectos que, si alguna vez pueden ser bondadosos, serán en general catastróficos, en simbiosis con todo tipo de sensores de salud, por una medicalización de la vida cotidiana que irá asociada a serios riesgos yatrogénicos, incluyendo los mentales, los "neuro", transformados en neuras. Lo más novedoso, el desarrollo informático, puede facilitar una consolidación de los peores rasgos neuróticos, cuando no propiciar la manifestación psicótica.


El contexto que prima el bit frente al it, no se conforma con ver toda conducta humana como un “neuro”- comportamiento, concibiéndose así toda área de salud mental como una "neuro-psicología". La neura de lo "neuro" y el reino de los bits acaban convirtiendo a las personas en cifras y a sus cuerpos en albergues de información transmisible, a modo de genes egoístas, a lo Dawkins. 


La informática como herramienta supone un gran avance, incuestionable, en el que nos hallamos inmersos, aunque tiene efectos colaterales que pueden ser terribles para muchas personas. La informática como metáfora nos reifica, pretende medirnos en múltiplos de bytes que se comunican entre sí y que se transmiten, sea como “memes” (de nuevo, Dawkins), sea como hijos, con información genética editable, no sólo para bien, también para lo "mejor", en el nuevo afán eugenésico.


Esta reificación se da en el seno de un neocapitalismo desmedido, que, entre otras cosas, ha transformado la basura de papel en basura de plástico y de elementos venenosos. 


Si no se le pone freno a la exageración digital, si sólo vemos ventajas en los ordenadores y redes, acabaremos con la civilización misma, y no por el desarrollo de una IA poderosa con consciencia emergente, sino como tristes solitarios ahogados en plástico y sometidos a la barbarie, a no ser que antes nos lleve por delante una catástrofe nuclear, solucionando, al menos a escala local, la paradoja de Fermi. 

miércoles, 3 de mayo de 2023

Ni la subjetividad es algorítmica ni la IA es inteligente.

 

Imagen tomada de pixabay

    Ante el curso que está llevando el “chat-GPT4”, se han producido reacciones de profesionales de distintos ámbitos del conocimiento con el intento de reflexionar sobre lo que puede suponer el desarrollo de la inteligencia artificial (IA), solicitando una moratoria, algo que recuerda los recelos que las técnicas de ADN recombinante indujeron en su día y que culminaron en la conferencia de Asilomar en febrero de 1975. Algo bien distinto. A esas voces se ha unido últimamente la de Geofreey Hinton, con múltiples reconocimientos por su trabajo en Google y que deja la empresa para tener más libertad personal a la hora de expresar sus temores sobre la IA que se avecina. Su llamada de atención se ha centrado, por el momento, principalmente en los riesgos de desinformación y de desempleo que la IA puede provocar. 

    No me entusiasma la prospectiva científica, aunque algunas veces quienes la hacen acierten; un ejemplo lo proporcionan páginas de “La Tercera Ola” de Alvin Tofller, en las que aludía, ya en 1980, al concepto de “prosumidor”; es difícil no serlo hoy en día, en que nuestros datos se han convertido en un bien comercial muy preciado. Pero tampoco hace mucha falta dicha prospectiva para enterarnos de que la evolución de la AI puede tener efectos no necesariamente buenos.


    En cualquier caso, no estamos ante un potencial salto cualitativo de la IA que parece surgir de la nada, sino que entronca en el enfoque “NBIC” (“nano-bio-info-cogno”) que tiene ya unos años, aunque ahora los avances de la IA parecen aproximarnos a marchas forzadas a esa singularidad con la que seguirá soñando Kurzweil. Sólo lo parecen.

Sabemos que la IA impresiona. Su modo GPT puede generar textos y confundir en trabajos escolares a profesores. Puede “crear”, dicen, arte, algo bien discutible. Se postula que su capacidad no es propiamente semántica y se limita al juego sintáctico, pero poco le importará esa distinción a quien use la IA o sea usado por ella. 

Parece que el “chatGPT” podrá sugerir, ante un cortejo de síntomas y signos, un diagnóstico que acabaría siendo más acertado que el que proporcione el ya viejo “Dr. Google” o todos los médicos juntos de la Clínica Mayo. En unión de sistemas robóticos como el Da Vinci (quién le iba a decir al renacentista por antonomasia que su nombre iría asociado a una máquina), el ejercicio clínico en toda su diversidad se acerca cada vez más, en la concepción de muchos, a la producción de coches, submarinos, armas o lo que se tercie, impulsando un neo-mecanicismo más duro del ya existente.


    El oráculo informático está depurándose a marchas forzadas. Atrás quedaron los buscadores tipo Google. Basta con preguntar sobre algo, pedir una información corta o larga sobre un tema… y tendremos una respuesta mejor de la que podría proporcionarnos otra persona, a la vez que en una fracción de tiempo casi instantánea. Y eso sirve o, más bien, servirá, para bien y, sobre todo, para mal. 

    Si un sistema AI nos permite predecir terremotos, bienvenido sea. Pero no es ese uno de tantos posibles objetivos bondadosos que a corto plazo se perciben. 


    El gran objetivo de la AI que se perfila no es epistémico sino sustitutivo… de nosotros. Es difícil que a corto plazo “emerja” una entidad autónoma que llegue a dominar el mundo, siendo más probable que esa AI sirva a un grupo humano (pseudo-democrático, dictatorial, comercial…), pero grupo selecto, al "servicio" de servidores voluntarios humanos, porque cada vez el ser humano, en singular, será concebido más como cosa que como sujeto. Ya asistimos a esa manipulación en “fakes” difundidas principalmente como imágenes en internet. Todas las tareas de servicio, por especializadas que sean, parecen absorbibles por la AI, con lo que es previsible una concentración de poder basada en la optimización de “recursos humanos”, expresión que siempre fue horrorosa. Y así son predecibles despidos masivos. Bajo la concepción de que todo proceso es algorítmico, por humano que sea, todo parece absorbible por la IA. 

No nos debiera sorprender. Entre todos, hemos ido alimentando al monstruo previsible. Hemos formado una sociedad de solitarios hiperconectados que excluye y castiga a quienes sólo sabían comunicarse de viva voz, presencialmente, no tecleando, con otras personas. Tampoco había mucha opción; no podemos vivir en un siglo anterior. 


    Las grandes mentes que no son amos de la IA pueden entrar en servidumbre voluntaria con ella y no al revés. Eso implica que la IA no tendrá en cuenta preguntas importantes sobre el mundo, su naturaleza y su historia, que quedarán reducidas al ámbito académico, porque esa IA no es creativa, no planteará ninguna teoría de cuerdas, no le interesará si un problema es P, NP o NP completo. Le importará un bledo todo lo que no sea inmediatamente pragmático en su propio servicio voraz de captación de datos y más datos. No “creará” ecuaciones consistentes sino sólo aparentes sobre física de partículas o lo que cualquiera desee. Y, siendo así, la propia ciencia corre un serio riesgo de quedar sofocada por pura pseudociencia elaborada por GPT. Nuestros científicos mantienen sus puestos en función de su impacto bibliométrico, lo que ya ahora genera una hiperinflación de publicaciones prescindibles, pero que aumentan “índices de impacto”. Es previsible un crecimiento exponencial de publicaciones sólo aparentemente científicas que no digan nada sustancial “creadas” por la IA para satisfacción del “investigador” de turno.


    No se va a crear un gran hermano cibernético. ¿Para qué? Las empresas no necesitan eso, sino vender. Y los líderes políticos, que no lideran nada, tampoco; entrarán en competición unos con otros con sus equipos de asesores preguntando obsesivamente a la IA .


    Un embrutecimiento de fondo está servido gracias al psicologismo conductista con sus libros de autoayuda, que ya incluyen el estoicismo, para aguantar la alienación que venga del supuesto avance con el que tendremos que lidiar, ese que alaba el cerebrocentrismo existente y, con ello, resalta la concepción algorítmica de la propia vida.


    Y, no obstante, tenemos aún la opción de seguir siendo libres, porque, por mucha IA que haya, somos singulares y nuestra subjetividad, la de cada uno, no es susceptible de simulación por ningún algoritmo. La IA nunca será traicionada, como nosotros, por lo inconsciente, porque no lo tiene, pero tampoco tiene, aunque cada vez se disfrace más al respecto, un ápice de consciencia.