Asociación Vasca de periodistas - Colegio Vasco de periodistas

Asociación Vasca de periodistas - Colegio Vasco de periodistas

El Efecto Túnel en la IA

Por Ricardo Devis vía bilbao.ai

La metáfora del “efecto túnel” acuñada por John Seely Brown y Paul Duguid en su seminal “La vida social de la información” (2000, reeditado en 2017) resulta más pertinente que nunca en la era de la IA generativa. Anticipándose a su tiempo, los autores alertaban del «efecto túnel» causado por la sobreabundancia de información digital, que nos hace perder de vista el contexto social y la gobernanza que dan sentido a los datos. En este artículo se revisa este «efecto» junto con las estrategias para mitigarlo, que se ejemplifican mediante agentes IA comerciales.

En el año 2000 leí vorazmente (en papel) el interesantísimo libro “The Social Life of Information”, de John Seely Brown (conocido como JSB), en aquel entonces jefe científico de Xerox y director de Xerox PARC, y Paul Duguid, y en él encontré una visión realista de un futuro en el que la información perduraría únicamente por su contextualización social. En 2002 se republicó el texto con una nueva introducción y, finalmente, en 2017 se lanzó una nueva edición -actualizada- del mismo texto, cuya nueva lectura me supuso una reafirmación de la necesidad de superación del “efecto Túnel” en la tecnología. Pero es ahora, en plena explosión de las IAs generativas cuando el texto adquiere su sentido pleno, y uno no deja de pensar cuán instructiva resultaría una tercera edición del libro que incorporara la situación actual de las herramientas genIA y la contrastara con las tesis y predicciones de sus autores. Mientras llega esa esperada -pero todavía incierta- nueva edición, voy a permitirme avanzar tal interpretación, matizada por mis propios criterios y experiencias.

El Efecto Túnel

El “Efecto Túnel” se origina, según JSB-PD, en una focalización obsesiva en la información a costa de descuidar los aspectos sociales, éticos y humanos que le dan sentido. Al considerar los datos y la precisión algorítmica como fines en sí mismos, la tecnología pierde contacto con su propósito último: servir a las personas. El símil ejemplificador es el de un conductor que, para alcanzar un destino anticipado, lleva al vehículo y a sus pasajeros a través de un largo túnel, pues lo único que le importa es alcanzar su meta, aunque sea a costa del impacto que se da en los pasajeros de ese vehículo, que esperan integrar el contexto del viaje, sus paisajes y paradas, en su vida como una experiencia válida en sí misma. Podría argüirse que el efecto túnel es necesario para alcanzar con más rapidez objetivos tecnológicos y luego proceder a la contextualización social de tales objetivos, pero en realidad a ese túnel le seguirán otros túneles consecutivos derivados de la persecución incesante de nuevos destinos funcionales, lo que generará un túnel interminable, ajeno a la vida que discurre en el exterior del mismo.

De hecho, el efecto Túnel genera una miopía considerable sobre el impacto real de las tecnologías y, sobre todo, induce un “finalismo” (neologismo derivado del “endism” anglosajón) exacerbado e ignorante de la terquedad de la voluntad social: así, se cree a pies juntillas que cada nueva tecnología (el destino al final de cada túnel) va a sustituir y finiquitar a los antiguos modos y técnicas: la máquina de escribir cancelaría al bolígrafo, la realidad virtual habría de sustituir a las relaciones presenciales… y un largo etcétera. El ejemplo de las bicicletas, que hubieran debido desaparecer con el advenimiento generalizado de los vehículos propulsados a motor, es revelador: la sociedad ha desarrollado nuevos paradigmas y comportamientos en los que las bicicletas no sólo no han desparecido, sino que han aumentado su importancia. Como apuntan JSB y Duguid, necesitamos «prestar atención a la terquedad, a lo que no cede, a las cosas por las que la gente lucha».

En este marco, parece claro que el fulminante y rutilante éxito en la adopción masiva de chatGPT, tras su irrupción en el mercado de consumo en noviembre de 2022, se sustanció precisamente en la superación del efecto túnel mediante la liberación comercial de una herramienta que generaba en sus interlocutores una sensación empática hasta entonces asimilable únicamente a las relaciones personales. ChatGPT convenció no por la precisión algorítmica de sus respuestas, sino por la fuerte impresión generada de que tales respuestas eran “humanas”, con el grado de falibilidad que tal apariencia presupone, de forma que era fácil inferir que ChatGPT entendía tanto nuestras preguntas como sus respuestas y las contextualizaba en un marco social y humano. Esto generó un interés y entusiasmo desaforados, lo que a su vez ocasionó una pléyade de más de cien millones de usuarios activos en el plazo de un mes desde su lanzamiento, que resaltaban y loaban especialmente su aparente comprensión y empatía “humanas”, reforzadas por el hecho de que claves como “ayúdame, pues estoy en peligro”, “examina la solución paso a paso” o, últimamente, “Respira profundamente” obtuvieran mejores resultados que los prompts (indicaciones o preguntas textuales al LLM subyacente) menos empáticos, aunque este mejor resultado esté estadísticamente condicionado, en realidad, por el sesgo de los datos que alimentan a los modelos de lenguaje.

Sin embargo, a medida que ChatGPT lógicamente evoluciona, de nuevo enfrenta desafíos inherentes al efecto túnel, especialmente al tratar de ampliar sus capacidades y ser más preciso y útil en contextos específicos. La transición hacia capacidades multimodales, tanto de ChatGPT como de otros chatbots conversacionales, puede interpretarse como un esfuerzo por salir de ese túnel, buscando ofrecer una experiencia más rica y diversa en la interacción con los usuarios. De hecho, la trayectoria de ChatGPT puede compararse con una red de carreteras que alterna entre túneles (limitaciones y enfoques específicos) y áreas abiertas (expansiones y nuevas capacidades), reflejando un proceso continuo de aprendizaje y adaptación.

Enfoques como el de Anthropic, con su IA constitucional Claude, o el impresionante LLM empático de Inflection (experimentable a través de su asistente personal PI) muestran un camino ciertamente esperanzador, tan preñado de buenas intenciones como el infierno y alimentado por golosas inversiones en ambas compañías que indican la importancia del desarrollo social de la IA.

AGENTES IA COMERCIALES Y CÓMO SALIR DEL TÚNEL

En el libro original de 2000, los autores ya mencionaban la promesa -y también los peligros- de la automatización a través de “agentes digitales” cuyos ámbitos y funcionalidades han sido ampliamente superados por el desarrollo, todavía en evolución, de agentes IA semi-autónomos.

Es tentador dejarnos envolver por la cápsula informacional que nos ofrecen los nuevos agentes IA, pues su elocuencia artificial nos arrulla, como las sirenas a Odiseo, con la ilusión de conocimiento y control. Pero esto supondría caer en la trampa advertida por JSB y Duguid hace ya más de dos décadas. Así que, en lugar de rendirnos al efecto Túnel, dejémonos guiar por modelos éticos capaces de comprender la vida social de la información, más allá de los fríos datos.

Basándose en la segmentación de categorías de los agentes de mercado postulados en un artículo del mismo 2000 por Pattie Mae’s y sus colegas en el MIT Media Lab, JSB y Duguid exponen sus reflexiones sobre agentes en los tres siguientes dominios de intermediación: productos, mercado y negociación, que pueden reinterpretarse adecuadamente en el contexto de la IA generativa precisamente añadiéndoles el contexto social como solución a los problemas de automatización que cada agente plantea y que se derivan de su concepción basada en el efecto Túnel:

  • Agentes de Producto IA: Estos agentes podrían incluir sistemas de recomendación que no solo sugieren productos basados en algoritmos para determinar su idoneidad para un agente dado, sino que también incorporan comprensión contextual y cultural. El peligro de que los perfiles de usuario (sujetos a entornos publicitarios de programática y de micro-subastas) sirvan de alimento sesgado para tales agentes es más que real, por lo que los agentes de este tipo, además de confiar en “editores de información” independientes, deberían aislar la identidad del usuario de la recolección de información sobre productos.
  • Agentes de Mercado IA: Herramientas de IA que analizan grandes volúmenes de datos para identificar tendencias del mercado, pero que también, como vimos en el caso de los Agentes de Producto IA, deben considerar la privacidad de los datos tratados, y que, en la práctica, servirían para la comparación de precios entre productos iguales o similares. El enfoque de agentes adversarios anónimos (al menos en la capa de recolección de información), base de la discriminación de soluciones en las IAs generativas, debería servir para mitigar los sesgos derivados del control de marketplaces por parte de grandes multinacionales (Amazon, Alibaba, etc.).
  • Agentes de Negociación IA: Sistemas de IA que facilitan las negociaciones comerciales, pero que deben ser diseñados para entender y respetar las normas sociales y legales y, sobre todo, lo que Dostoievski, en sus Memorias del Subsuelo, calificaba de norma suprema en la lista de querencias de cada persona: su voluble e imperativa voluntad. El ejemplo de auto-negociación que supone acudir al super-mercado con una lista de la compra y comprar artículos diferentes o nuevos respecto de los que aparecen en tal lista supone una continua renegociación de posibilidades basada no en características funcionales, sino en la contextualización humana de tales compras.

En definitiva: la sola inserción del contexto social en la solución de problemas de la IA derivados del efecto túnel genera oportunidades de aprovechamiento humano de las iniciativas tecnológicas, aunque, en paridad, deberíamos avanzar un marco más general para lidiar con este pernicioso efecto Túnel o de oscuridad circundante, y ésa es, según mi criterio, la tesis y la conclusión del texto de JSB y Duguid que avanzo a continuación.

DECONSTRUYENDO (O EVITANDO) EL TÚNEL

La explosiva irrupción de chatbots como ChatGPT, modelos de imágenes como DALL-E y herramientas creativas como Midjourney nos han sumergido de golpe en un océano inabarcable de contenidos artificialmente generados, y en el que fantasías de abundancia ilimitada nos ciegan ante una realidad incómoda: la avalancha datavore de la IA encubre -de momento- una escasez crítica de significado contextual. El fuego graneado de la creatividad computacional oculta un vacío conceptual de fondo. ¿De qué sirve el aluvión de palabras, imágenes y composiciones si no alimentan nuestras mentes? Peor aún: ¿y si terminan alienándonos?

Esta ceguera -o, más bien, miopía-, lejos de ser inevitable, es fruto de opciones conscientes (o inconscientes) en el proceso de diseño. Algunos LLMs (y especialmente los gráficos y generadores de vídeo) deliran más allá de varios turnos de conversación porque sus creadores no priorizaron la consistencia; por otro lado, los sesgos racistas/misóginos de algunos modelos IA reflejan los defectos de sus conjuntos de datos, cuya idoneidad en su selección perdió la prevalencia ante el objetivo tecnológico algorítmico. Y es que, al fin, todas las alucinaciones hiperrealistas sobre la «singularidad» tecnológica emanan de una fe ciega en el progreso autogenerado de los algoritmos.

Para escapar del agobiante túnel mental de la IA, debemos ante todo comprender sus causas subyacentes. Los peligros de infoxicación nunca fueron culpa de las máquinas, sino de nuestra relación disfuncional con ellas: una relación marcada por hibris tecnológica, avidez económica cortoplacista y arrogancia antropocéntrica.

Sólo confrontando esos impulsos autodestructivos lograremos encauzar el extraordinario potencial de la IA generativa hacia fines socialmente beneficiosos. El camino no es sencillo, pero pasos en la dirección correcta ya existen: los controles de seguridad de Anthropic sobre Claude (un LLM “constitucional”), las protestas de los propios científicos de Google contra despidos abusivos e instrumentación mercantil de la IA, los paneles ciudadanos de supervisión de tecnología sensible y, sobre todo, los marcos regulatorios institucionales como la AI Act de la Unión Europea.

Me queda, únicamente, bogar para que el túnel tecnológico no sea ampliado o sustituido, simplemente, por el túnel regulatorio. El éxito del RGPD europeo no parece que vaya a repetirse con el reglamento de la IA, pese a la premura con la que la UE ha publicitado medidas de control de la IA, así que se espera que la flexibilidad bien informada no sólo se aplique a modelos OPEN, sino también a modelos comerciales basados en una tecnología de evolución constante. La pulsión regulatoria no debe restringir ni la innovación ni la aplicabilidad de la IA en empresas y en entornos personales; y, sobre todo, debe imponerse la contextualización social a la regulación prohibitiva.

En definitiva: la salida de estos túneles comienza por cuestionar las premisas que los sostienen, avanzando gracias a la acción de comunidades organizadas en pos de alternativas sostenibles. Como apuntan JSB y Duguid, son las instituciones y comunidades sociales, no sólo la información, las que deben guiarnos hacia el futuro digital que realmente queremos: un futuro para empoderar lo mejor de nuestra condición humana. En sus propias palabras, «la lógica de la información debe ser, en última instancia, la lógica de la humanidad».