Yin yang sculpture combining white marble, dark soil, roots, moss, and stones

Cuando inicié mis estudios de computación, a mediados de la década de los ochenta del siglo pasado, el primer concepto que se abordaba en el curso de Introducción a la Programación era el de algoritmo. Si bien se solía poner de ejemplo inicial de algoritmo a una receta de cocina, se hacía énfasis en varios elementos clave que lo distinguían de ellas, especialmente su carácter mecánico: un algoritmo debía poder ser ejecutado mecánicamente, sin tener que reflexionar para tomar una decisión a lo largo de su ejecución; dados los mismos datos de entrada, debía producir exactamente el mismo resultado. Si bien más adelante se nos abría la posibilidad de usar un generador de números aleatorios que daba la apariencia de ofrecer cierta flexibilidad a la naturaleza completamente mecánica y determinista de los algoritmos, a final de cuentas el generador no hacía otra cosa que ejecutar un algoritmo para generar una secuencia aparentemente aleatoria de números, que estaba completamente determinada por su condición inicial o “semilla”.

Así, a lo largo del siglo pasado las computadoras, la computación y los sistemas informáticos se percibían como fundamentalmente mecánicos, rígidos, precisos, exactos. Si bien cometían errores con cierta frecuencia, esto se debía a errores humanos en el diseño de los algoritmos que las computadoras ejecutaban mecánicamente, sin pensar ni sentir. A final de cuentas, eran sistemas confiables, salvo por errores humanos en su programación y eventos externos a ellos —como podría ser, por ejemplo, una breve interrupción del suministro de electricidad. Si un sistema fallaba, era cuestión de revisar sus algoritmos y la programación de éstos para identificar errores y corregirlos.

Esta visión está cambiando drásticamente con el desarrollo y uso de la Inteligencia Artificial Generativa en nuestras vidas. La carrera por estar en la punta de la lanza ha llevado a muchas organizaciones y empresas a incluirla en sus sistemas informáticos y es cada vez más común que nos topemos con ella, incluso sin darnos cuenta, cuando los usamos. Nos estamos acostumbrando a encontrarnos con advertencias del tipo ‘¡Aguas! Este sistema puede cometer errores’ porque ahora estos sistemas cometen errores con cierta frecuencia, de manera más bien aleatoria —a veces sí y a veces no, a veces de manera muy clara y otras veces de manera sutil— aunque a veces parecen hacerlo a propósito, simplemente para complacernos, para que nos gusten y no dejemos de usarlos. Más aún, corregir estos errores se ha vuelto terriblemente difícil, porque si bien una buena selección de algoritmos y su programación sin errores siguen siendo claves para la operación de este tipo de sistemas, son solamente las semillas de sistemas que se desarrollan aprendiendo por su cuenta con base en trillones de datos que revisan millones de veces para identificar patrones en ellos. Los errores pueden ser consecuencia de una distribución desequilibrada de los datos, del orden incorrecto de su provisión al sistema o un mero reflejo de nuestro pensar y sentir colectivos; están codificados en unos cuantos valores de los miles de millones de números interconectados en una telaraña que codifica el comportamiento de estos sistemas de maneras tan intrincadas que se constituyen en verdaderas “cajas negras” en las que es prácticamente imposible visualizar algo que nos informe de qué está sucediendo dentro de ellas y por qué, aún y cuando todo sigue siendo fundamentalmente mecánico.

Claramente, hay ámbitos de nuestras vidas en los que este tipo de sistemas no tiene cabida, donde la confiabilidad de la cruda mecanicidad de los sistemas informáticos tradicionales es clave. Por ejemplo, en el control de la operación de un avión en pleno vuelo, en la operación de una sala de cuidados intensivos de un hospital o en la gestión de las transacciones de un banco. Por otra parte, la inteligencia artificial generativa nos está ayudando a revisar información, a diseñar y construir artefactos y objetos de arte, a tomar decisiones y resolver problemas e incluso a atender cuestiones íntimas como nuestros traumas y nuestra soledad colectiva. En esos contextos, bajo ciertas condiciones, sus “alucinaciones” son tolerables.

La línea divisoria entre el ámbito de lo permitido y el ámbito de lo prohibido para la inteligencia artificial generativa es todavía muy borrosa. Cabe la posibilidad de que, en el mediano plazo, sea descartada tras el desarrollo de una nueva inteligencia artificial, más predecible, más confiable. Mientras tanto, tenemos un chico nuevo en el barrio.

Avatar de Rafael Morales Gamboa

Publicado por

Deja un comentario