Un reciente artículo en el Financial Times ha desatado las especulaciones, pero ha evidenciado que se trata de algo inevitable, de algo que va mucho más allá: la colonización de los modelos de lenguaje masivo (LLMs), la cara más visible actualmente de la inteligencia artificial, por parte de las marcas, como antes lo hicieron en la web.

Por el momento, los usuarios de LLMs como ChatGPT, Gemini, Perplexity, Claude y otros se encuentran como problema fundamental su fiabilidad, la posibilidad de que en determinadas ocasiones, el modelo haga eso que se ha dado en llamar “alucinar” y ofrezca una respuesta absurda que además, en algunos casos, podría pasar por verdadera y provocar al usuario un problema que podría ser potencialmente serio, según el uso que se esté haciendo de la herramienta.

Ese problema, en principio, es más del propio usuario que de la herramienta. Toda herramienta es susceptible de funcionar mal en ocasiones, y si el usuario simplemente acepta, sin cuestionamiento alguno, la respuesta que la herramienta le ofrece, es simplemente un caso de mal uso. No en vano llevo desde que este tipo de aplicaciones comenzaron su popularización reiterando a mis alumnos que si bien pueden utilizar los LLMs para reducir su tiempo de creación, deben en paralelo incrementar su tiempo dedicado a la supervisión, y que si no lo hacen, tendrán problemas que, además, por pura Ley de Murphy, surgirán en el peor momento.

Hasta aquí, todo razonable. Sería preferible, por supuesto, que los modelos no “alucinaran”, pero es parte del juego y de los misterios de la estadística: en ausencia de correlaciones significativas, en ocasiones esos modelos toman como ciertas correlaciones completamente inexistentes o simplemente absurdas, cuando no directamente se inventan datos para satisfacer una petición. Lo de inteligencia artificial “generativa” tiene su aquel: a veces, “genera” más de lo que debería.

Ahora, sin embargo, el problema va a ser otro: qué ocurre cuando el LLM, funcionando como debería funcionar, se dedica a insertar recomendaciones comerciales de determinadas marcas, simplemente porque ha sido instruido para actuar así. La publicidad tal y como la conocemos, un conjunto de mentiras impenitentes, colonizando las respuestas de los LLMs que hemos empezado a aplicar para cada vez más tareas.

Lo de inteligencia artificial “generativa” tiene su aquel: a veces, “genera” más de lo que debería

El problema no es nuevo: lo hemos vivido en prácticamente todas las innovaciones recientes. Cuando comenzó a popularizarse el correo electrónico, algunas marcas empezaron a utilizarlo para enviar correos comerciales. Los primeros usuarios reaccionamos violentamente, pero no hubo manera de evitarlo. Hoy, el correo electrónico es una herramienta completamente colonizada por los correos comerciales, y su uso es una lucha constante por huir de los correos basura y del spam, por mantener nuestra bandeja de entrada mínimamente despejada y operativa.

Con la web o las redes sociales pasó exactamente lo mismo: al principio, eran herramientas muy buenas para acceder a la información que queríamos. Con el tiempo, fueron colonizadas por la publicidad, y se convirtieron en la basura que hoy conocemos, que nos lleva a tener que instalar bloqueadores de publicidad o a tener que sufrir una experiencia de uso espantosamente mala, con obstáculos constantes que interrumpen aquello que queríamos realmente hacer.

La publicidad es una maldita plaga, una basura que debería ser erradicada. Pero como las cucarachas, lo aguanta todo, hasta una guerra nuclear, y coloniza todos los rincones de nuestra actividad. Ahora, las marcas, viendo que cada vez más usuarios comienzan a utilizar IA para acceder a información, no han tenido mejor ocurrencia que empezar a buscar métodos para aparecer en las respuestas de esas IAs, de esos LLMs: del mismo modo que estropearon la web y los motores de búsqueda mediante el SEO, ahora quieren prostituir la IA.

La publicidad es una maldita plaga, una basura que debería ser erradicada

Por supuesto, las marcas no podrían hacer nada si no fuera por la connivencia de las compañías dedicadas al desarrollo de la IA, que ven en ese interés una gallina de huevos de oro, una posibilidad de facturar a esas marcas por facilitar su presencia. Así, vemos como compañías como Perplexity se redefinen ya como compañías de servicios dedicadas a intermediar entre el usuario y las marcas, e incluso lanzan un navegador para saber lo que ese usuario hace ya no cuando utiliza su producto, sino en todo momento. Por no hablar de Meta, de quien no podíamos esperar nada mejor: para Meta, la IA es simplemente un soporte para la actividad publicitaria. Demencial.

Nos disponemos a vivir la auténtica prostitución de la IA, el momento en que una herramienta que podría ser enormemente potente se confía a un modelo de negocio profundamente nocivo, basado en principios erróneos, y capaz de corromper los fines más sacrosantos. Olvídate de confiar en unos algoritmos que, como mucho, podían “alucinar”: ahora, además, se dedicarán a engañarte si pueden colándote lo que el mejor postor quiera que te cuelen.

¿Hay escapatoria? La hay, pero es compleja: salir del mundo comercial y tratar de que la mejor IA, los mejores algoritmos, terminen siendo de código abierto, mantenidos por la comunidad y optimizados con transparencia, sin un modelo detrás que les obligue a venderse irremediablemente al mejor postor. Es un modelo complejo, pero que ya ha demostrado suficientemente su valor: muchas de las tecnologías que conocemos y utilizamos se basan en él. Mantengamos la esperanza… y sobre todo, sepamos dónde están los peligros.

***Enrique Dans es profesor de Innovación en IE University.