ChatGPT, ¿por qué, para qué y para quién escribimos?

En una universidad de Florida, de cuyo nombre no quiero mencionar, no ha mucho tiempo un estudiante me rebatió una idea sobre el nacimiento del capitalismo usando el resumen de un libro realizado minutos antes por ChatGPT. Tal vez era Gemini o cualquier otra inteligencia artificial. Le sugerí que le pidiese al ente virtual las fuentes de su afirmación y, diez segundos, después el estudiante la tenía a mano: la idea procedía del libro “Flies in the Spiderweb: History of the Commercialization of Existence―and Its Means”. Eso es eficiencia a la velocidad de la luz.

Naturalmente, el joven no tenía por qué saber que ese libro lo había escrito yo. La mayoría de mis más de doscientos estudiantes por año son jóvenes en sus veintes―probablemente la mejor década de la vida para la mayoría de las personas; probablemente, la década más desperdiciada. Por pudor y por principio, nunca pongo mis libros como lectura obligatoria. Además, sería legítimo refutarme usando mis propios escritos. Hace mucho tiempo ya, tal vez un par de siglos, que el autor no es la autoridad ni de sus propios libros.

Seguramente la IA no citó ese libro como referencia autorizada de algo sino, más bien, el estudiante tomó algunas de mis palabras y los dioses del e-Olimpo se acordaron de este modesto y molesto profesor. Parafraseando a Andy Warhol, hoy todos podemos ser Aristóteles y Camus por treinta segundos―sospecho que Warhol le robó la idea a Dostoievski; sin mala intención, claro.

El resumen del dios GPT era tan malo que simplemente demostraba que la IA no había entendido nada del libro más allá de los primeros capítulos y había mezclado datos y conclusiones desde una perspectiva políticamente correcta. Es decir, una inteligencia artificial muy, pero muy humana, fácil de manipular por las ideas de la clase dominante, esa que luego irá a demonizar las ideas alternativas de las clases subordinadas.

No digo que las artiligencias sean siempre así de malas lectoras, pero, por lo general, basta con corregirlas para que se disculpen por el error. Seguramente mejorarán con el tiempo, porque son como niños prodigios, muy aplicados; asisten a todas las clases y toman nota de todo lo que puede ser relevante para convertirnos a los humanos en todo lo más irrelevante que podamos ser. En muchos casos, ya leen mejor que nuestros estudiantes, que cada vez confían más en esos dioses y menos en su propia capacidad intelectual y en su esfuerzo crítico―extraños dioses omniscientes y omnipresentes; extraños dioses, además, porque sus existencias se pueden probar.

“¿Profesor, para qué necesito estudiar matemáticas si voy a ser embajadora?”

“¿Y para qué carajo te matas en el gimnasio, si no vas a ser deportista?”

No estoy en contra de usar las nuevas herramientas para comprender o hacer algo. Solo estoy en contra de renunciar a una comprensión crítica ante algo que es percibido como infalible o, al menos, superior, como un dios posthumano, e-olímpico e, incluso, como un temible dios abrahámico; es decir, un dios celoso y, tal vez algún día, también lleno de ira.

Por otro lado, esto nos interpela a las generaciones anteriores y, en particular, a aquellos profesores, autores de libros o de estudios de largo aliento. Desde hace algunos años, me he propuesto que “este será mi último libro”, pero reincido. Todavía. Algún día, los libros escritos por seres humanos comenzarán a hacerse cada vez más escasos, como los bitcoins, y su valor cobrará una dimensión todavía desconocida.

A una escala más global, esa histórica tendencia humana a convertirse en cyborgs (el mejoramiento del cuerpo humano con herramientas de producción y de destrucción), probablemente derive en un régimen de apartheid impuesto por las inteligencias artificiales; por un lado, ellas, por el otro nosotros, con frecuentes tratados de paz, de colaboración y de destrucción. Una Gaza Global, en pocas palabras―al fin y al cabo, las IA habrán nacido de nosotros. Sus administradores ya tienen mucho de Washington o Tel Aviv y sus consumidores mucho de Palestina.

Claro, esta crisis existencial no se limita a la escritura ni a la actividad intelectual, pero en nuestro gremio cada medio siglo nos preguntamos por qué escribimos, sin alcanzar nunca una respuesta satisfactoria. Muchas veces, desde hace un par de años ya, tengo la fuerte impresión de que hemos dejado de escribir (al menos, libros) para lectores humanos, esa especie en peligro de extinción. Escribimos para las inteligencias artificiales, las cuales le resumirán nuestras investigaciones a nuestros estudiantes, demasiado perezosos e incapaces de leer un libro de cuatrocientas páginas y, mucho menos, entender un carajo de qué va la cosa. Invertimos horas, meses y años en investigaciones y en escritura que, sin quererlo, donaremos a los multibillonarios como si fuésemos miembros involuntarios de la secta de la Ilustración Oscura, liderada y sermoneada por los brujos dueños del mundo que (todavía) residen en Silicon Valley y en Wall Street. Y lo peor: para entonces, los humanos habrán perdido eso que los hizo humanos civilizados―el placer de la lectura, serena y reflexiva.

También puede haber razones egoístas y personales de nuestra parte. Al menos yo, escribo libros por puro placer y, sobre todo, para intentar comprender el caos del mundo humano. Una tarea desde el inicio imposible, pero inevitable.

Tal vez, en un tiempo no muy lejano, una nueva civilización postcapitalista (¿posthumana o más humana?) escribirá sus libros de historia y conocerá nuestro tiempo, hoy tan orgulloso de sus progresos, como la Era de la Barbarie. Claro, eso si la humanidad sobrevive a esta orgullosa barbarie.

No hace mucho, una amable lectora publicó en X un fragmento de una consulta que le hizo a ChatGPT. El fragmento afirmaba, o reconocía, que “los modelos de IA, como los grandes modelos de lenguaje, se entrenan con enormes cantidades de texto provenientes de libros, artículos, ensayos y publicaciones en línea. Autores e intelectuales que escriben de manera crítica y profunda, como Majfud, forman parte de ese conjunto de datos. Cuando la IA procesa estos textos, aprende patrones de razonamiento, argumentación y crítica cultural. Así, perspectivas filosóficas sobre política, economía y justicia social pueden aparecer en sus respuestas”.

Me pregunto si no estoy siendo autocomplaciente al copiar aquí este párrafo y, aunque la respuesta puede ser , por otro lado, no puedo eliminarlo sin perder un claro ejemplo ilustrativo de lo que quiero decir: (1) las IA nos usan y nos plagian todos los días. Quienes son (todavía) dueños de esos dioses pronto descubrirán que (2) somos una mala influencia para las futuras generaciones de no lectores, por lo que comenzarán a distorsionar lo que los últimos humanos escribieron y, más fácil, ignorarlos deliberadamente.

Al fin y al cabo, así evolucionó un tyrannosaurus de una ameba. Como humanos, sólo puedo decir: ha sido muy interesante haber existido como miembro de la especie humana. No fuimos tan importantes como creíamos. Apenas fuimos una anécdota. Una anécdota interesante para quienes la vivimos―no para el resto del Universo que ni siquiera se enteró.

Jorge Majfud, octubre 2025

IA: Nuevos dioses, viejas supersticiones

Hace casi una década, cuando se buscaban imágenes de gorilas en Google Images, éste devolvía fotografías de hombres negros. El prejuicio racial de la fotografía se remonta a la creación misma de la fotografía cuando, en Europa, se ajustaron los oculares para hacer que los rostros blancos no saliesen quemados. Como consecuencia, los rostros negros salían casi indistinguibles. Pero esto no era un problema. Según el historiador del cine Richard Dyer, cuando los primeros fotógrafos recurrieron al retrato en la década de 1840 “experimentaron con la química del material fotográfico, el tamaño de la apertura, la duración del revelado y la luz artificial, procedieron bajo la suposición de que lo que había que hacer bien era el aspecto del rostro blanco”. (Para ampliar y verificar fuentes, ver Moscas en la telaraña.)

Poco después, la torpeza algorítmica del gigante de Silicon Valley se alimentó del prejuicio y del racismo humano, hasta que Michelle Obama comenzó a aparecer en las mismas búsquedas. Más tarde, en 2016, Microsoft tuvo el mismo problema con Tay, su chatbot: Tay tuvo que ser sacrificada horas después, luego de lograr cien mil seguidores en Twitter dando respuestas racistas a sus nuevos amigos y debatiendo como si fuese una admiradora encubierta del Ku Klux Klan. Los operadores políticos y los manipuladores de elecciones tomaron nota. Los señores feudales de Wall Street y de megacorporaciones más privadas (es decir, más opacas y oscuras como una roca) como BlackRock, también.

En la tecnología biometric o de reconocimiento facial, los rostros de gente no blanca tienen más posibilidades de ser reconocidos como sospechosos que los blancos. O simplemente no los reconocen como humanos, lo cual quizás sea una compensación paradójica. Esta observación no es nueva. Pertenece a la prehistoria de las técnicas de reconocimiento facial, denunciadas, por lo menos, desde el año en 2009.

Con un sistema diferente al logaritmo, las IA se parecen a niños superdotados de cinco años: aprenden de sus mayores humanos y, aunque pueden desarrollar su propia personalidad, no se distinguen mucho de sus progenitores y actúan en consecuencia, en casos de formas más radicales sin ninguna creatividad.

A modo de especulación, en 2015 escribí la novela Silicona 5.0 para abordar este problema sobre una serie de muñecas sexuales con capacidad de terapeutas y de asesinas, debido a los traumas de la Eva humana usada para su comercialización. Una mujer cosificada por su cultura, alimentando la existencia de una cosa humanizada con aspecto de mujer. Más recientemente, se usó la colección de 600 ensayos publicados en majfud.org por su sistematicidad y consistencia humana desde 1999 para desarrollar otra IA. Algo que me inquieta profundamente, pero que no puedo evitar.

A principios de 2024, otra IA produjo un escándalo internacional al crear imágenes de soldados nazis de la Alemania de Hitler con rostros morenos y asiáticos. ¿A qué se debió esta contradicción con lo que señalamos antes? Aparentemente, las IA fueron instruidas para ser “políticamente correctas” insertando diversidad en donde nunca la hubo. Otra vez, la micropolítica rebelde haciéndole el juego a la macro política del establishment. Así, árabes barbudos vestidos de soldados alemanes perseguían judíos; mujeres negras arrojaban bombas atómicas sobre Hiroshima y Nueva York; gays y lesbianas dirigían el FBI de Hoover para perseguir gays y lesbianas sospechosos de ser comunistas; y los nativos del Tercer Mundo invadían y saqueaban Europa y Estados Unidos y luego masacraban a su población hasta lograr imponer dictaduras militares en Londres, París y Washington. Porque hay que prevenir el racismo promoviendo la diversidad.

Veamos un ejemplo más digerible. Durante la Semana Santa de este mismo año, hubo una proliferación de retratos de Jesús creados por la Inteligencia Artificial. Los retratos de ChatGPT muestran a hombres de ojos marrones y piel más morena que los clásicos retratos de los museos de Europa y de las modestas casitas de África y América Latina. No en pocas casas piadosos cristianos le rezaron por años a una fotografía de Jim Caviezel o de Robert Powell. No pocos “cristianos verdaderos” se ofenderían con la sola idea de inclinarse ante una imagen realista del africano San Agustín, también retratado por siglos como un santo llegado de algún pueblo esloveno.

Aunque algunos lo encontrarán más realista que el David de Miguel Ángel o el Jesús de Leonardo da Vinci, también los nuevos retratos de Jesús pintados por ChatGPT tienen un fuerte prejuicio etnocéntrico, porque fueron alimentados con ese material de la historia eurocéntrica más el maquillaje de la diversidad epidérmica (también eurocéntrica). Aunque aquí las AI se aleja unos centímetros del Jesús caucásico de ojos celestes tipo Robert Powell (angelical, confiable, higiénico y desarrollado), continúa muy lejos del aspecto facial de los habitantes del Medio Oriente de hace 2000 años. No deja de ser el rostro de un hombre caucásico luego de unas largas vacaciones en Cancún.

Lo de pobre también se le quitó en la vestimenta. La pulcritud y la calidad de sus túnicas revelan prejuicios de clase, otra vez negando y contradiciendo la realidad de un carpintero de Galilea veinte siglos atrás, alguien que viajaba en burro y que tenía por amigos pescadores y mujeres de las clases más humildes, con excepción de una sola.

Ahora, cada tanto leemos artículos sobre lo qué piensa la Inteligencia Artificial de la existencia humana, de cómo será el mundo del futuro o de cómo era el mundo hace mil o diez mil años. “¿Qué dice la IA sobre el mundo en 2040?” “¿Cómo se veía una cena en el Imperio Romano según IA? “La IA predice que en 2050 seremos todos felices”, “La IA revela los cinco hábitos para un matrimonio feliz” ―algo tan confiable como los consejos de un sacerdote católico.

Las IA tienen algo en común con los dioses anteriores: son metahumanos. Su credibilidad radica en que se asume que no dependen de los criterios de los creyentes, mortales de un día. No tienen “bias” (prejuicios). Como sea, es indiscutible que tienen algo en común: si no son ambos creaciones humanas, sin duda están hechos a nuestra imagen y semejanza, como esos dioses llenos de pasiones que, en nombre del Amor Universal condenan a su propias creaciones al infierno, no por haber hecho algo inmoral, como arrojar una bomba atómica sobre una ciudad o por haber promovido una guerra genocida, sino por no haber rezado de la forma indicada o por tener creencias equivocadas sobre el más allá.

Otra similitud: las IA son leídas y escuchadas con una profunda superstición: si lo dice una super inteligencia, debe ser cierto. O lo más aproximado a la realidad posible. Es algo más allá de la comprensión humana. Pero la Inteligencia Artificial no es una gran inteligencia. No aún. Es solo un niño con un conocimiento y una velocidad de procesamiento más allá de los límites humanos. Claro que los humanos no somos mucho mejores. Seguimos procesando pensamientos y creencias como en tiempo de las estepas del cálido Sur y de las cavernas del frío Norte. Cuando no creemos historias imposibles creemos en dioses virtuales.

Jorge Majfud, marzo 2024