Sergio Bonilla
IA generativa no revolucionará la forma en que buscamos en internet– por ahora…
ChatGPT llegó y parece que puso el mundo patas arriba. Desde el lanzamiento del large language model (LLM) de OpenAI el pasado noviembre, el mundo entero ha empezado a especular sobre la manera en que la IA generativa (de la que ChatGPT es un ejemplo) podría cambiar todo lo que sabemos sobre el conocimiento, la investigación y búsqueda de información, y la creatividad y creación de contenido.
Hay un área particular que parece perfilarse como el premio gordo de disrupción en la carrera de la IA generativa: las búsquedas en internet dado que la IA generativa tiene el potencial de alterar drásticamente lo que nosotros como usuarios esperamos como resultado al buscar en internet.
Google, el viejo conocido ganador de la pelea por las búsquedas en línea, parece que tiene un nuevo, y serio competidor en Microsoft, quienes recientemente invirtieron USD 10 billones en OpenAI, empresa creadora de ChatGPT, y anunciaron planes de incorporar la herramienta en múltiples de sus productos, desde la suite de Office, hasta su buscador, Bing. De manera paralela, Google está por lanzar su propia herramienta de IA, Bard, y el gigante chino, Baidu también anda en lo propio. Todo esto sin contar los millones de dólares que hoy están siendo invertidos en emprendimientos de IA generativa en todo el mundo.
PERO, al margen del bombo publicitario en torno a ChatGPT – y en general, relacionado con la IA generativa -, hay muchos problemas prácticos, técnicos, y legales por superar antes de que estas herramientas puedan alcanzar la escala, robustez y fiabilidad de un motor de búsqueda como Google.
Periódico de ayer
Los motores de búsqueda entraron al imaginario social hace unos 30 años, pero su aproximación a la generación de valor no ha cambiado desde entonces: ordenar páginas web indexadas de la manera que sea más relevante para un usuario. La época de la Búsqueda 1.0 requería que el usuario incluyera una palabra clave o una combinación de palabras clave para ejecutar la consulta. La Búsqueda 2.0 llegó a finales de los 00s con la introducción de la búsqueda semántica, que les permitió a los usuarios formular consultas a manera de frases naturales como si estuvieran interactuando con un humano.
Google dominó el mercado de las búsquedas desde el principio gracias a tres elementos clave: 1. Su UX/UI simple y minimalista; 2. Su revolucionario algoritmo PageRank, que entregaba resultados relevantes; y 3. La habilidad de Google de escalar sin traumatismo ante volúmenes de uso que explotaban. Google desarrolló una herramienta virtualmente perfecta para atender un caso de uso muy bien definido: encontrar páginas web que contengan la información que se está buscando.
Pero parece que está surgiendo un nuevo caso de uso. Como Google mismo lo reconoció al anunciar Bard, los usuarios pretenden recibir más que una lista de webs relevantes a su búsqueda, quieren “deeper insights and understanding.”
Y eso es exactamente lo que hace Búsqueda 3.0, arroja respuestas y no páginas web. Mientras Google ha sido el colega o amigo que nos indica dónde está el libro en la biblioteca que responde a nuestra pregunta, ChatGPT ya se ha leído todos los libros y puede contestarnos directamente la pregunta. Al menos, en teoría.
Pero aquí nace el primer problema de ChatGPT: en su iteración actual, ChatGPT no es un motor de búsqueda, principalmente porque no tiene acceso a información en tiempo real de la forma en que un motor de búsqueda que hace web-crawling lo puede hacer. ChatGPT fue entrenado sobre una compilación masiva de datos, actualizados hasta octubre de 2021. Este proceso de entrenamiento le otorgó a ChatGPT una cantidad impresionante de conocimiento estático, al igual que la capacidad de entender y producir lenguaje humano. Sin embargo, no “sabe” nada de lo ocurrido después de octubre de 2021. Hasta donde conoce ChatGPT, Rusia no invadió a Ucrania, FTX es una exitosa plataforma de cryptos, la Reina Isabel está viva, y Covid no ha llegado a la fase de Omicrón. Por eso mismo, en diciembre de 2022, el CEO de OpenAI, Sam Altman dijo “Es un error, en este momento, depender de ChatGPT para cualquier cosa importante.”
¿Cambiará esto en el futuro? Esta pregunta genera el segundo gran problema: por ahora, entrenar continuamente un LLM a medida que la información disponible en internet evoluciona es increíblemente difícil.
El reto más evidente es la tremenda cantidad de capacidad de procesamiento necesitada para entrenar un LLM, y el costo financiero asociado a contar con esos recursos. Google cubre el costo de las búsquedas vendiendo publicidad, lo que les permite ofrecerlas gratis al usuario final. El mayor costo energético de los LLM hace que replicar esto sea difícil, en particular si lo que pretenden es lograr procesar consultas al nivel de Google, del que se estima que está en las decenas de miles por segundo (varios billones por día). Una posible solución sería que el modelo se entrene con menos frecuencia y que no aplique (no conteste preguntas) sobre temas híper-actuales que evolucionan día a día, hora a hora.
La fuente importa
Pero incluso si las empresas logran superior estos problemas técnicos y financieros, persiste otro reto más profundo: ¿Qué se les va a enseñar a herramienta como ChatGPT y de dónde lo van a aprender?
Los chatbots como ChatGPT son como espejos puestos frente a la sociedad, que reflejan lo que ven. Si los dejas sueltos para que se entrenen con base en datos indiscriminados del internet, pueden salir con insensateces e incoherencias. Por eso es que los LLM se entrenan con datos cuidadosamente seleccionados por sus desarrolladores, sobre la tesis de que los consideran adecuados.
No obstante, incluso bajo estos niveles de curaduría de datos, no es posible garantizar que todo el contenido disponible en esos grupos de datos sea factualmente correcto y libre de sesgos. De hecho, un estudio llevado a cabo por Emily Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell encontró que “grandes grupos de datos, extraídos de texto del internet sobre-representan puntos de vista hegemónicos y replican sesgos potencialmente dañosos para poblaciones marginalizadas”.
Estas disparidades en la interacción en línea de demografías, distinguidas por factores como género, edad, raza, nacionalidad, nivel socioeconómico e inclinaciones políticas llevan a que la IA refleje las posturas dominantes en el zeitgeist.
Y surge el tema de la transparencia: los usuarios no saben cuáles son las fuentes detrás de una respuesta provista por ChatGPT, y la herramienta tampoco tienden a revelarlas cuando se le pregunta. Situación peligrosa: una máquina, potencialmente sesgada, tomada por el usuario como una herramienta objetiva que tiene que estar en lo correcto.
La apuesta por la verticalidad
La Búsqueda 3.0 parece trazar una ruta que privilegia la verticalidad en contraposición a la horizontalidad propia de Google y la Búsqueda 2.0. ¿Esto qué implica? Primero, privilegiar ciertas áreas del conocimiento, conocimiento angosto, pero profundo. Imagínense una versión de ChatGPT entrenada con artículos de medicina, debidamente publicados, con rigor y revisión de pares, embebido dentro de Microsoft Office, que sirva como un asistente de investigación para profesionales en salud. O una versión entrenada con décadas de datos financieros, artículos y estudios sobre el sector, que acompañe en la toma de decisiones de un fondo mutuo.
Los emprendedores y empresarios pueden hacerse cinco preguntas cuando estén evaluando la existencia de un caso de uso fuerte para aplicar LLM a una aplicación de búsqueda vertical:
- ¿La tarea o proceso tradicionalmente requiere investigación extensiva o experticia profunda en el tema?
- ¿El resultado de la tarea es información sintetizada o conocimiento que le permite al usuario actuar o tomar una decisión?
- ¿Existen suficientes datos históricos, técnicos o factuales, para entrenar el modelo y volverlo un experto?
- ¿El LLM tiene la capacidad de entrenarse con nueva información, con una periodicidad adecuada para generar información actualizada?
- ¿Es legal y ético que la IA aprenda, replique y perpetue las posturas, supuestos e información embebida en los datos de entrenamiento?
Dejar que las cosas pasen
La tecnología detrás de ChatGPT es impresionante, pero no exclusiva, prontamente será fácil de replicar y, por ende, comoditizada. Con el paso del tiempo, el asombro del público con las entretenidas respuestas producidas por ChatGPT se disolverá, y al paso, las realidades y limitaciones prácticas que hay por debajo, saldrán a la luz. Como resultado, tanto inversionistas como usuarios deberían interesarse por las empresas que estén enfocadas en resolver los problemas técnicos, legales y éticos que se han discutido en este artículo, dado que las respuestas a estos retos serán las que generen ventajas competitivas defendibles y definirán quién ganará la batalla de la IA.