Texto publicado originalmente en La Bonilista y en el que recupero las críticas explícitas al capitalismo y otros excesos que fueron editadas en la publicación original, además de añadidos que he considerado importante incluir.
Internet iba a eliminar intermediarios, acabar con una escasez artificial de contenidos gracias a la facilidad de copia que posibilitó la nueva red. Unos cuantos lustros después Bill Gates se dedica a la filantropía, Steve Jobs murió por luchar contra el cáncer con un tratamiento digno de Yahoo Respuestas y, finalmente, el Don’t be evil de Google es un borroso recuerdo boomer.
En pleno pico de la euforia en torno a la inteligencia artificial, es interesante reflexionar sobre algunos de sus mitos. Mitos que han calado profundamente incluso entre profesionales con décadas de experiencia en el sector de la informática.
Empezando por el concepto mismo de «inteligencia» artificial, adjudicado a John McCarthy —a partir del trabajo de mucha otra gente— a mediados de los años 50. Esa fue la primera de las metáforas antropocéntricas sobre las que luego se han ido añadiendo otras. Primero se habló de inteligencia, para posteriormente derivar a metáforas más físicas como «entrenamiento» de algoritmos, deep/machine learning, etc.
Y lo que en cualquier software sería un bug grave (un fallo en la programación) aquí es una «alucinación». Resulta incomprensible que admitamos fallos en los productos de IA que jamás permitiríamos a cualquier otro producto de software.
Pero las metáforas antropocéntricas en los mitos de la IA no son las únicas. También las hay climáticas, como los ya populares inviernos de la IA, que desdibujan los ciclos económicos hasta hacerlos casi tan invisibles como el aire que respiramos. Igual de invisibles que en la burbuja de las puntocom, big data, blockchain, bitcoin, NFTs o la actual nube.
Pero ¿por qué son importantes los mitos? Porque apuntalan discursos y prácticas en el seno del capitalismo actual, discursos totalmente funcionales a los dogmas neoliberales.
Permítanme una anécdota personal. Me pareció fascinante que el Instituto Autor, parte de SGAE, editara y presentara en el Palacio de Longoria Inteligencia artificial y copyright. Del dilema de Thaler a la doctrina «the right to read is the right to mine». Me dejó perplejo que un abogado experto en propiedad intelectual, pagado por un ente dependiente de SGAE, disertara sobre algo como el fair use, algo que no aplica a nivel jurídico ni remotamente en España o resto de Europa. Luego me enteré que ese abogado fue un forofo de blockchain. Supongo que ahora será un #CryptoBro, pero al menos con la carrera de derecho finalizada.
Pero, volviendo a esa peculiar sesión en la SGAE con el abogado tecnófilo, lo que verdaderamente me escandalizó es que él defendiera sin sonrojarse que los algoritmos de inteligencia artificial… «aprenden». ¿Demasiados visionados de 2001 – Una odisea en el espacio de Stanley Kibrick? ¿Demasiado tiempo prompteando en ChatGPT o similares?
Ese es el problema de los mitos y metáforas antropocéntricas. Que incluso abogados del sector tecnológico con lustros de experiencia se las toman al pie de la letra. Y, como corolario a esa pésima comprensión o mitificación de las tecnologías, se argumenta también que las búsquedas masivas de las empresas de IA en internet son equiparables a que una persona vaya a una biblioteca pública.
Y es que es importante reiterar algo, parafraseando a Andriy Burkov: las IA no planifican, no resuelven problemas y no piensan; generan textos que parecen planes, que parecen soluciones o que parecen pensar.
Hay bastante machismo en cómo se ignora o caricaturiza un texto que debería ser el punto de entrada para cualquier discusión seria sobre las implicaciones de la IA actual. Es On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. En marzo de 2021, hace ya más de cuatro años, cuatro mujeres nos alertaban sobre los peligros de los actuales desarrollos en torno a la IA, recordándonos que estamos ante «loros», tecnologías que no hablan ni razonan, sino que simulan que hablan y razonan.
Esos loros nos salen caros. Son loros estocásticos —la RAE nos habla de «procesos cuya evolución en el tiempo es aleatoria, tal como la secuencia de las tiradas de un dado»— y lo son gracias a una sobrecarga tremenda del tráfico en la red que, al menos Cloudflare, va a empezar a cobrar.
Esa sobrecarga va unida a un expolio sistemático de derechos de autoría, una verdadera bomba de tiempo para las empresas vendedoras de estos loros. Es posible que estas corporaciones pronto vivan su momento Napster o Megaupload, pero la inseguridad jurídica —de momento— no parece relevante en el mundo de los #IABros… y el de sus inversores.
Tampoco todo el trabajo humano que hay detrás de las empresas del sector. Ni el enorme coste ecológico que de momento implican estas tecnologías.
¿Habrá merecido todo esto la pena? En mi opinión, no.
Para los tecnooptimistas como otro David, David Bonilla [creador de La Bonilista] sí, pero lo importante no es decantarse por una u otra postura sino abrir un sano debate sobre si realmente queremos que el proceso que nos lleve hasta la IA general avance a toda costa, sin reparar en los posibles daños colaterales ni quién ganará cuando concluya.
Se podría decir que «una cosa es ser optimista y otra inocente». Pero es que hay gente que no renunciamos a una crítica explícitamente anticapitalista a la IA, inseparable de poner la lupa en las condiciones laborales y el cambio climático. No pasarán.

