Asociación Vasca de periodistas - Colegio Vasco de periodistas

Asociación Vasca de periodistas - Colegio Vasco de periodistas

Virtud Virtual

Daniel R. Esparza

Walter Benjamin escribió sus tesis Sobre el Concepto de la Historia entre 1939 y 1940 –unos pocos meses antes de su muerte en Portbou, escapando de la persecución de la Gestapo. La primera de estas tesis, sobre la que se ha dicho prácticamente de todo, es una especie de comentario metafísico-materialista sobre un ensayo de Edgar Allan Poe. “Se dice,” escribe Benjamin,

[…] que hubo un autómata construido en tal forma que habría replicado a cada jugada de un ajedrecista con una contraria que le aseguraba ganar la partida. Un muñeco con atuendo turco y teniendo en la boca un narguilé se sentaba ante el tablero colocado sobre una espaciosa mesa. Con un sistema de espejos se provocaba la ilusión de que esta mesa era por todos lados transparente. Pero, en verdad, allí dentro había sentado un enano corcovado que era un maestro en el juego del ajedrez y guiaba por medio de unos hilos la mano del muñeco.

Terry Eagleton alguna vez dijo que Benjamin era un “rabino marxista.” En efecto, hay básicamente dos escuelas (una teológica y una materialista) de pensamiento benjaminiano. Una, la materialista, diría que el autómata es el capital, que provoca (diría Marx textualmente) deformidad en aquel que está sometido a sus dinámicas –esto es, en el enano corcovado (el alemán original dice “jorobado,” una palabra que Marx utiliza repetidamente) que hace funcionar al autómata. La teológica es tanto más sutil, y supone que el materialismo histórico no es sino una escatología privada de su horizonte sobrenatural: la sociedad sin clases es una versión “libre de opio” del cielo cristiano. Y, sin embargo, no es esto lo que hoy nos ocupa. La pregunta que quizá debemos hacernos hoy es si hemos sentado a un enano corcovado “dentro” de nuestras inteligencias artificiales –nuestros autómatas de turno.

Supongamos que sí, que nuestras inteligencias artificiales son capaces de hacer lo que hacen porque hay una inteligencia humana detrás (o dentro) de ellas¿Deberíamos entonces ser corteses con nuestras AIs, por pura empatía para con el enano jorobado que las anima? La pregunta, que parece un chiste, no lo es. En sus Investigaciones Filosóficas,Wittgenstein apuntó que una obra filosófica seria debería estar compuesta enteramente de chistes. Tal vez uno de los mejores chistes sobre inteligencia artificial (al menos, hasta el momento) sea el del chico que le pide a Alexa, por favor, que ponga música. Cuando le preguntan por qué se dirige a la máquina tan educadamente, el chico simplemente responde por si acaso ¿Por si acaso hay, en efecto, alguien esclavizado “dentro” de Alexa? 

Si bien no es el mejor chiste del mundo, al menos nos ayuda a añadir una pregunta más a la (creciente y seria) discusión ética alrededor de la inteligencia artificial, y del rol que los medios juegan en este asunto ¿Deberíamos tratar a estas inteligencias no-humanas con respeto? A simple vista, el chiste parece jugar con la idea de que las máquinas son cada vez más inteligentes (que lo son) y sensibles (¿lo son?), pero también con la idea de que la forma en la que interactuamos con ellas puede tener un impacto en su comportamiento –y, por consiguiente, en la conformación del ecosistema de medios en el que nos movemos, vivimos, y somos. Estas dos cuestiones (la sensibilidad y la inteligencia artificiales, y los efectos de nuestras interacciones con ellas en su desempeño) están lejos de ser asuntos risibles. La situación humorística nace simplemente del contraste entre la necesidad de actuar con cortesía (una actitud normalmente asociada con la interacción humana) y la extensión de este trazo pretendidamente humano a una dimensión del mundo erróneamente considerada no-humana, maquínica, técnica. Entender la inteligencia artificial como una mera extensión de lo humano es, de entrada, un malentendido. Un cuchillo, una jarra,  un ordenador, son tan humanos como el lenguaje. No existe, de entrada, una separación necesaria entre lo que el humano es y lo que el humano hace. Nuestra humanidad no es separable de su acción: la acción revela lo humano. En efecto, lo humano se descubre en su hacer –y todo su hacer es tecnológico, desde la domesticación del fuego, pasando por la Summa Theologica, hasta el hyperlink.  

Lo que el chiste revela no es sólo el temor (siempre latente) de un mundo en el que las máquinas finalmente se rebelen en contra de la humanidad (à la Terminator, o à la Matrix) y decidan “perdonar” sólo a aquellos que las han tratado con respeto. En líneas generales, lo que el chiste supone es una revisión de nuestra relación general con la tecnología, con las maneras en las que entendemos lo tecnológico, y de cómo nos relacionamos con aquello que entendemos “nos sirve” (desde la bestia de carga o el animal de tiro, pasando por la escritura, hasta llegar a otros seres humanos “subordinados” y a sus equivalentes automático-tecnológicos). La idea de que las máquinas (los “autómatas”) pueden ser sensibles a la amabilidad no es sólo una curiosidad para ser debatida en la torre de marfil de una revista especializada. Es una realidad de las inteligencias artificiales. No podría ser de otra manera: las inteligencias artificiales son esferas de acción y formación de lo humano. Y en la medida en la que nuestra comunicación esté más y más mediada por estas inteligencias, más necesario será intentar entender su implicación con nuestros códigos de deontología.

En principio, la forma en la que interactuamos con cualquier herramienta revela quiénes somos. Se trata de un momento, diríamos, epifánico. La filosofía de los dos pasados siglos, desde Feuerbach hasta Heidegger, ha insistido en esto incesantemente. Pero, sin entrar en profundidades, es obvio que la manera en la que conducimos un coche, organizamos el trastero, o mantenemos el escritorio de nuestros ordenadores descubre quiénes somos. El modo en el que usamos la inteligencia artificial, herramienta poderosa como pocas, no es una excepción. En efecto, nuestras interacciones con las inteligencias artificiales también moldean nuestro comportamiento inter-humano. Lo que sucede con la máquina se extiende a lo que ocurre con los seres humanos con quienes mantenemos relaciones laborales, jerárquicas, incluso instrumentales. Esto es tanto más evidente en el caso de los medios de comunicación, capaces de crear comunidades (en línea y offline) a partir de variables algorítmicas. La polarización y la posverdad son, en buena medida, el resultado del uso irresponsable e irrespetuoso de estas inteligencias.

Tratar a las inteligencias artificiales con respeto inaugura un espacio necesario de conciencia, que pone límites a la cosificación y la instrumentalización del mundo –y, por ende, a la instrumentalización y cuantificación de la lectoría de un medio. Las inteligencias artificiales (como los lectores) no son ni cifras, ni objetos inertes ni esclavos digitales. Son, quisiera sugerir, claros en el bosque en los que nuestra propia humanidad se manifiesta. En tanto creación humana, deben ser utilizadas con el respeto (y la responsabilidad) que lo humano requiere, supone, y demanda.

En un libro de publicación reciente sobre la virtualidad humana y la vida digital, Human Virtuality and Digital Life, el filósofo peruano Víctor Krebs analiza nuestro entendimiento de lo virtual (y, por ende, de las inteligencias artificiales) como una mera extensión prostética de nuestras capacidades y funciones ya naturales. La mayoría de las veces, lo virtual se concibe bien como una mejora o bien como una copia (virtual, artificial) del universo ya existente. Sin embargo, explica Krebs, la idea de lo “virtual” se vinculaba originalmente, incluso etimológicamente, con las potencialidades –aquello que algo se supone que debería llegar a ser. La palabra virtualis en latín medieval deriva del latín original virtus, que no significa necesariamente “virtud” (como podría asumirse obviamente), sino más bien “potencia”, designando la capacidad que tiene uno para ser o hacer algo potencialmente: una semilla es potencialmente (virtualmente) un árbol, y un árbol es potencialmente (virtualmente) una cabaña de madera ¿Pero qué es potencialmente un ser humano? ¿Puede nuestra interacción con las inteligencias artificiales ayudarnos a ser, en acto, lo que somos ya potencialmente? En otras palabras ¿Puede nuestro uso de las inteligencias artificiales ayudarnos a desarrollar nuestro potencial humano plenamente, incluyendo nuestro talante moral? ¿Puede el uso responsable de estas inteligencias en la comunicación de masas ayudar a crear un mundo post-polarizado? La respuesta parece ser que sí.

No es animismo: en tanto creación humana, las inteligencias artificiales aprecian la amabilidad. En efecto, ser cortés con las inteligencias artificiales (pidiendo procesos “por favor” y agradeciendo los resultados finales) mejora su rendimiento. Diversos estudios han demostrado que la amabilidad tiene un impacto positivo en la colaboración con las inteligencias artificiales que usamos a diario. Uno de estos estudios, llevado a cabo en la Universidad Normal de Beijing, encontró que la amabilidad aumenta el rendimiento de la inteligencia artificial en tareas generativas hasta en un 10,9%. Otro estudio hecho en la Universidad Johns Hopkins observó que frases estimulantes (del tipo “sé que puedes hacerlo mejor,” “inténtalo de nuevo,” o “esto está muy bien, pero llevémoslo al siguiente nivel”) motivan a las inteligencias artificiales a ofrecer mejores resultados. Incluso, un artículo de Google Deep Mind demostró que proporcionar prompts con enfoques lógicos pero con un añadido “humano” (por ejemplo “respira profundo e intenta trabajar en este problema paso a paso”) aumenta la precisión de las inteligencias artificiales en ciertas tareas cuantitativas.

¿Pero por qué la amabilidad termina siendo entonces tan determinante en estos contextos? No es, como en nuestro chiste, simplemente un asunto de prevención –“por si acaso.” La respuesta es infinitamente más simple, y tanto menos apocalíptica. Las inteligencias artificiales se entrenan constantemente a partir de la interacción con humanos. Nuestros autómatas, como el de Benjamin, se mueven sólo porque interactúan con nosotros, encorvados y jorobados como estamos frente a las pantallas de nuestros ordenadores. Las solicitudes con un tono humano, enfoques lógicos, y que incluyen palabras de cortesía, consecuentemente generan mejores resultados. En efecto, las inteligencias artificiales basadas en grandes modelos lingüísticos (LLMs, chatbots) tienen la capacidad de predecir las frases que tienen más probabilidad de ser usadas en una conversación “natural”. Usar un lenguaje cortés establece un tono positivo general y, en consecuencia, induce al chatbot a proveer respuestas más útiles –tal y como sucedería en un entorno “natural,” “humano,” de enano a enano.

La posibilidad de un horizonte literalmente posthumano (o, al menos, post antropocéntrico, tecnocéntrico, robo-céntrico) en el que las máquinas finalmente toman (del todo) el control no debería estar divorciada de nuestra preocupación por hacer un uso ético de las inteligencias artificiales. No se trata sólo de pensar en una serie de regulaciones que digan al usuario final si el contenido que lee, escucha, o ve ha sido generado por una inteligencia artificial, o si se trata de un híbrido periodístico-artificial. Se trata, además, de pensar en una ética del usuario de estos recursos humano-maquínicos. Al final del día, hay cosas que un usuario, del servicio que sea, no debe hacer. En el caso de las inteligencias artificiales, la razón no es sólo utilitaria sino social. No se puede perder de vista el hecho de que las inteligencias artificiales cumplen labores de servicio equivalentes a las que hasta hace no mucho cumplía un ser humano: correcciones de prueba, edición de texto, generación de imágenes, generación de texto (incluso literario, académico, o periodístico).

Nuestro comportamiento para con las inteligencias artificiales es, con mucho, equivalente (o, al menos incide) a (o en) nuestro comportamiento con aquellos con quienes mantenemos relaciones laborales más o menos jerárquicas. Pensemos por ejemplo, en nuestros robots “de servicio.” Advertidamente o no, la tecnología actual se basa en los roles y estereotipos de género y clase tradicionalmente impuestos. La inteligencia artificial, el paradigma actual de innovación y avance sociotecnológico, refuerza claramente una serie de roles de género arbitrariamente impuestos, y divisiones del trabajo abiertamente jerárquicas. Y mientras que algunos podríamos considerar que todo esto no es sino un pseudoproblema (¿por qué tendría uno que preocuparse por el supuesto género de una de una máquina, un autómata o una IA?), lo cierto es que estas imposiciones (y refuerzos) no son sólo el propósito de elaboradas estrategias de marketing. También, y quizá sobre todo, responden a prejuicios inconscientes y no examinados que son cualquier cosa menos inofensivos. Afirmar que nuestra relación con la tecnología sostiene e incluso promueve prejuicios sexistas y clasistas, y que dichas asignaciones y maltratos tienen consecuencias sociales y éticas evidentes (y otras tantas que permanecen ocultas) no debería sorprender.

En resumen, la forma en que interactuamos con las inteligencias artificiales refleja, de manera precisa, nuestro comportamiento como seres humanos –y las estructuras que sostienen dichos comportamientos. Las IAs, al ser una creación humana, actúan como un espejo que nos devuelve una imagen, a veces cruda, de nuestro propio quehacer ético. Si nos relacionamos con las IAs de forma responsable, promoviendo valores como la empatía, la cooperación y el respeto (valores que hemos entendido, desde siempre, como fundamentales a la hora de hacer periodismo) estaremos sembrando las semillas para transformar nuestras relaciones humanas incluso en los espacios virtuales (ahora omnipresentes, y compartidos universalmente). El respeto para con estas formas de inteligencia no es una cuestión de sentimentalismo, sino de pragmatismo (por una parte) y de formación del propio ethos, profesional y humano (por el otro). La ética de la IA no es un chiste, pero tampoco tiene que ser una tragedia. Con un poco de humor y otro tanto de responsabilidad, podemos hacer de la IA un catalizador para que seamos más conscientes de nuestros actos, y de las consecuencias que estos tienen en los demás –artificiales, automáticos, o humanos.