Ni infierno ni paraíso; la Inteligencia Artificial generativa es solo un paso más en la larga historia del procesamiento de lenguaje natural.
Han transcurrido tan solo seis meses desde que la compañía Open AI introdujo el ya popular ChatGPT, con el que causó la tremenda conmoción cultural que el mundo vive por estos días. Una parte de la sociedad está aterrorizada y teme que ha comenzado una era de ciencia ficción en la que los robots nos dejarán sin empleo y dominarán el mundo, mientras otra – emocionada - trata de aprovechar la plataforma para toda clase de tareas, incluyendo los usos más absurdos, bajo la convicción de que la Inteligencia Artificial es capaz de ejecutar cualquier cosa que se le pida.
No recuerdo una innovación tecnológica que haya generado tan dispares percepciones sociales, como lo ha hecho ChatGPT. Quizás deberíamos ubicarnos en un punto intermedio entre los dos imaginarios que se han construido este año, porque la Inteligencia Artificial generativa no es la puerta al apocalipsis ni tampoco el punto de inflexión histórico más grande en la evolución tecnológica de la humanidad, como algunos la pintan.
De hecho, puede verse una línea de continuidad tanto en la historia de la investigación en el campo de la Inteligencia Artificial, que remonta a los años sesenta del siglo pasado, como en el devenir mismo de los chatbots, que tienen su propia historia con raíces lejanas, y de la que GPT es el hito más destacado, pero seguramente no el último.
Se llamó Eliza el primer antepasado de ChatGPT, y vio la luz en 1966, en un genial y pionero desarrollo a cargo de Joseph Weizenbaum, en el MIT (Instituto de Tecnología de Massachusetts). En su rol de psicoterapeuta, causó sensación entre la pequeña comunidad de expertos y estudiantes de ciencias de la computación, que hacían fuerza para que pudiera aprobar el famoso test de Turing, según el cual una máquina podría considerarse inteligente si conseguía pasar como un humano en una conversación y convencer al menos al 30 por ciento de quienes la lean.
Pronto aparecieron rivales algo más sofisticados, como el chatbot Parry, en 1972. Fue histórica una conversación entre Eliza y Parry, la cual tuvo lugar en la red Arpanet y que está disponible en línea todavía (https://datatracker.ietf.org/doc/html/rfc439)
Hubo más desarrollos en los años siguientes, como el chatbot Jabberwacky en 1988, el Doctor Sbaitso en 1992 y Alice en 1995, para mencionar los más notables. El problema es que ninguno de ellos logró aprobar el Test de Turing. Las aproximaciones al Procesamiento de Lenguaje Natural se hallaban en su etapa más incipiente, pero pusieron los primeros peldaños.
El siglo XXI trajo avancen notables, que la mayoría de los usuarios actuales de productos y servicios tecnológicos reconocen con familiaridad. En 2006 la plataforma Watson de IBM, considerada en su momento como el mayor avance en Inteligencia Artificial para los negocios, participó en el programa de televisión norteamericano Jeopardy con notables resultados, y la compañía mantiene vigente y actualizada su plataforma Watson, con aplicación en diferentes verticales, como la oncología, y una API para el desarrollo de bots por terceros. Numerosas startup utilizan Watson para sus servicios conversacionales, como la colombiana 1DOC3, enfocada en orientar a los usuarios en asuntos médicos, que comenzó a operar hace algunos años en nuestro país con esta tecnología.
En la segunda década del presente siglo el protagonismo lo tuvieron las plataformas Siri de Apple (2010), Google Now (2012) y Alexa de Amazon (2014), que revolucionaron el uso de los smartphones y dieron comienzo a un nuevo tipo de dispositivos: los altavoces inteligentes. Estos asistentes virtuales, con los que se interactúa mediante comandos de voz, concentraron una parte importante de los esfuerzos de investigación y desarrollo en las grandes compañías tecnológicas. Microsoft se sumó a la competencia con Cortana (2014) y otras compañías también desarrollaron soluciones similares, como Bixby de Samsung (2017), que no gozaron de éxito significativo en los mercados.
Pero el universo chatbot es mucho más amplio que Siri y Alexa. En la última década vimos un auge sorprendente de bots de aplicación específica, como asistentes de servicio al cliente en millones de comercios en línea e instituciones financieras. Los hay básicos, que tan solo identifican palabras en la consulta que hace un usuario y buscan respuestas predefinidas en una base de datos. Y los hay más sofisticados, que pueden ser asesor a un cliente financiero en el manejo de una cartera de inversión.
Desde hace un par de años tomó auge el concepto de comercio conversacional, que se apoya en chat, mensajería, y otras interfaces de lenguaje natural para interactuar con las personas y automatizar la atención al cliente en tiendas en línea y otros negocios, aprovechando plataformas como Messenger o Whatsapp, sobre las que se desarrollan soluciones a medida. Según Juniper Research, el negocio del comercio conversacional alcanzará los 290.000 millones de dólares en 2025 (“Comercio conversacional: informe de perspectivas de mercado, oportunidades emergentes y previsiones 2021-2025”).
La pandemia (todavía seguimos mencionando la famosa pandemia de 2020) impulsó la implementación de chatbots, muchos de ellos en los servicios de salud o en la administración pública municipal, con el fin de evitar el contacto físico entre las personas. Los contact center han sido clientes muy importantes de la industria de chatbots, por los ahorros que traen. Un bot trabaja siete días a la semana y 24 horas al día, sin cansarse ni pedir aumento de sueldo.
Desde luego, ninguna de las soluciones que hemos mencionado hasta aquí hace sombra al poderoso ChatGPT. Desde que en 2017 los investigadores de Inteligencia Artificial de Google publicaron el famoso paper sobre transformadores - un enfoque algorítmico revolucionario que mejoró notablemente el aprendizaje de máquina - el procesamiento del lenguaje natural dio un asalto impresionante. Unido a la enorme capacidad de cómputo disponible en la actualidad y gracias a las formidables inversiones recibidas, como los 10.000 millones de dólares que Microsoft puso sobre la mesa para el desarrollo de ChatGPT, los laboratorios de innovación en grandes modelos de lenguaje (LLM) pudieron alcanzar el punto de impacto que hoy tiene al mundo con la boca abierta. Midjourney, Dalle-E, Stable Diffusion y ChatGPT, efectivamente, superan la prueba que propuso Alan Turing por allá en los años cincuenta.
Aunque millones de personas acuden a diario a ChatGPT para pedirle toda clase de cosas, como plagios académicos o creación de virus, y muchos medios de comunicación han dado tratamiento francamente irresponsable a la información sobre esta tecnología, publicando titulares del tipo "Inteligencia Artificial predice el fin del mundo", la industria tecnológica ha sido sensata en advertir que se trata de innovaciones todavía en etapa de pruebas y desarrollo. El enfoque de Microsoft ha sido especialmente responsable y digno de mención. Todas sus plataformas, incluida por supuesto la suite Office y el buscador Bing, incorporan una versión de ChatGPT. Una a la que han retirado los ángulos más problemáticos de la Inteligencia Artificial generativa, para que no pueda ser utilizada en misiones maliciosas, no incluya desinformación y noticias falsas en sus respuestas y provea siempre y en todos los casos, menciones a las fuentes de las que tomó cada idea cuando genera las respuestas que los usuarios le piden. Microsoft bautizó su versión de ChatGPT como "copilot", acentuando la idea de que los usuarios lo utilicen como eso, un copiloto, un asistente que les ayuda en sus tareas, no un sustituto de la creatividad humana.
Google también ha mostrado notable sentido de la responsabilidad, puesto que se tomó todo el tiempo necesario para preparar su servicio Bard, un modelo de lenguaje rival de GPT e incluso anterior a éste, que pronto veremos en el buscador y en las aplicaciones Google Works.
Hay controversia acerca del alcance que tendrá la Inteligencia Artificial generativa en los próximos años. Ya se sienten impactos preocupantes en algunos oficios y no se completa aun el mapa de usos posibles para estas tecnologías. De eso hablaremos en otro artículo.