Eleva tus habilidades de liderazgo y negocios
Súmate a más de 52,000 líderes en 90 empresas mejorando habilidades de estrategia, gestión y negocios.
Súmate a más de 52,000 líderes en 90 empresas mejorando habilidades de estrategia, gestión y negocios.
Te mantendremos al tanto de todas las nuevas herramientas que publiquemos al público.
por Ege Gurdeniz
Resumen:
La IA generativa tiene el potencial de cambiar drásticamente lo que los usuarios esperan de las búsquedas, y empresas como Microsoft y Google están haciendo grandes apuestas por lo que podría ofrecer. Pero a pesar del bombo publicitario en torno a ChatGPT (y a la IA generativa en general), hay que superar importantes desafíos prácticos, técnicos y legales antes de que estas herramientas puedan alcanzar la escala, la solidez y la fiabilidad de un motor de búsqueda consolidado como Google. Estos incluyen problemas para mantener actualizados los modelos lingüísticos extensos, problemas relacionados con el abastecimiento y las convincentes invenciones de la IA. Dicho esto, estas herramientas podrían ser ideales para formas de búsqueda más limitadas y especializadas.
___
ChatGPT ha creado un frenesí. Desde el lanzamiento del modelo de lenguaje extenso (LLM) de OpenAI a finales de noviembre, se ha especulado sin parar sobre cómo la IA generativa —de la que ChatGPT es solo una de ellas— podría cambiar todo lo que sabemos sobre el conocimiento, la investigación y la creación de contenido. O remodelar la fuerza laboral y las habilidades que los empleados necesitan para prosperar. ¡O incluso poner patas arriba industrias enteras!
Un área destaca como uno de los principales premios de la carrera de la IA generativa: la búsqueda. La IA generativa tiene el potencial de cambiar drásticamente lo que los usuarios esperan de las búsquedas.
Google, el ganador desde hace mucho tiempo de las búsquedas en línea, parece tener de repente un rival en Microsoft, que recientemente invirtió 10 000 millones de dólares en el desarrollador de ChatGPT, OpenAI, y anunció sus planes para incorporar la herramienta en una gama de productos de Microsoft, incluido su motor de búsqueda, Bing. Mientras tanto, Google lanza su propia herramienta de IA, Bard, y el gigante tecnológico chino Baidu se prepara para lanzar un Competidor de ChatGPT. También se están invirtiendo millones de dólares en empresas emergentes de IA generativa.
Pero a pesar del bombo publicitario en torno a ChatGPT (y a la IA generativa en general), hay que superar importantes desafíos prácticos, técnicos y legales antes de que estas herramientas puedan alcanzar la escala, la solidez y la fiabilidad de un motor de búsqueda consolidado como Google.
Los motores de búsqueda se generalizaron a principios de la década de 1990, pero su enfoque principal no ha cambiado desde entonces: clasificar los sitios web indexados de la manera que sea más relevante para el usuario. La era de la Búsqueda 1.0 exigía que los usuarios introdujeran una palabra clave o una combinación de palabras clave para consultar el motor. La búsqueda 2.0 llegó a finales de la década de 2000 con la introducción de la búsqueda semántica, que permitía a los usuarios escribir frases naturales como si interactuaran con un humano.
Google dominó las búsquedas desde su lanzamiento gracias a tres factores clave: su interfaz de usuario sencilla y ordenada; la revolucionaria Algoritmo PageRank, que arrojó resultados relevantes, y la capacidad de Google de escalar sin problemas con un volumen vertiginoso. La Búsqueda de Google ha sido la herramienta perfecta para abordar un caso de uso bien definido: encontrar sitios web que tengan la información que busca.
Pero parece que ahora hay un nuevo caso de uso en aumento. Como también reconoció Google en su anuncio de Bardo, los usuarios ahora buscan algo más que una lista de sitios web relevantes para una consulta, sino que quieren «información y una comprensión más profundos».
Y eso es exactamente lo que hace Search 3.0: ofrece respuestas en lugar de sitios web. Si bien Google ha sido el colega que nos señala un libro de la biblioteca que puede responder a nuestra pregunta, ChatGPT es el colega que ya ha leído todos los libros de la biblioteca y puede responder a nuestra pregunta. En teoría, de todas formas.
Pero aquí también radica el primer problema de ChatGPT: en su forma actual, ChatGPT no es un motor de búsqueda, principalmente porque no tiene acceso a la información en tiempo real como lo hace un motor de búsqueda que rastrea la web. ChatGPT se basó en un enorme conjunto de datos con un límite en octubre de 2021. Este proceso de formación le dio a ChatGPT una cantidad impresionante de conocimientos estáticos, así como la capacidad de entender y producir el lenguaje humano. Sin embargo, no «sabe» nada más allá de eso. En lo que respecta a ChatGPT, Rusia no ha invadido Ucrania, FTX es una bolsa de criptomonedas exitosa, la reina Isabel está viva y Covid no ha llegado a la fase de Ómicron. Probablemente esta sea la razón por la que, en diciembre de 2022, el CEO de OpenAI, Sam Altman dicho, «Es un error confiar en [ChatGPT] para algo importante ahora mismo».
¿Cambiará esto en un futuro próximo? Eso plantea el segundo gran problema: por ahora, es extremadamente difícil volver a capacitar continuamente un LLM a medida que la información de Internet evoluciona.
El desafío más obvio es la enorme cantidad de potencia de procesamiento necesaria para entrenar de forma continua un LLM y el coste financiero asociado a estos recursos. Google cubre el coste de la búsqueda mediante la venta de anuncios, lo que le permite ofrecer el servicio de forma gratuita. El mayor coste energético de los LLM hace que sea más difícil de lograr, sobre todo si el objetivo es procesar las consultas al ritmo que lo hace Google, que se estima en decenas de miles por segundo (o unos pocos miles de millones al día). Una posible solución podría ser entrenar el modelo con menos frecuencia y evitar aplicarlo a las consultas de búsqueda que cubren temas en rápida evolución.
Pero aunque las empresas consigan superar este desafío técnico y financiero, aún existe el problema de la información real que proporcionarán: ¿qué van a aprender exactamente herramientas como ChatGPT y de quién?
Los chatbots como ChatGPT son como espejos que se muestran ante la sociedad: reflejan lo que ven. Si los deja sueltos para que los entrenen con datos sin filtrar de Internet, podrían escupir vitriolo. (Recuerde lo que pasó con Tay?) Por eso, los LLM se entrenan con conjuntos de datos cuidadosamente seleccionados que el desarrollador considera apropiados.
Pero este nivel de selección no garantiza que todo el contenido de tan enormes conjuntos de datos en línea sea correcto desde el punto de vista fáctico y esté libre de sesgos. De hecho, un estudio de Emily Bender, Timnit Gebru, Angelina McMillan-major y Margaret Mitchell (acreditado como «Shmargaret Shmitchell») descubrió que «grandes conjuntos de datos basados en textos de Internet sobrerrepresentan puntos de vista hegemónicos y codifican sesgos que pueden dañar a las poblaciones marginadas». Por ejemplo, una fuente clave de los datos de entrenamiento de ChatGPT es Reddit, y los autores citan un estudio de Pew Research que muestra que el 67% de los usuarios de Reddit en los Estados Unidos son hombres y el 64% tienen entre 18 y 29 años.
Estas disparidades en la participación en Internet entre factores demográficos como el género, la edad, la raza, la nacionalidad, el nivel socioeconómico y la afiliación política significan que la IA reflejará las opiniones del grupo más dominante en el contenido seleccionado. ChatGPT ya ha sido acusado de ser» se despertó» y tener un» sesgo liberal.» Al mismo tiempo, el chatbot también ha entregado elaboración de perfiles raciales recomendaciones y un profesor de la Universidad de California en Berkley consiguió que la IA escribir código que dice que solo los hombres blancos o asiáticos serían buenos científicos. Desde entonces, OpenAI ha establecido barreras para evitar estos incidentes, pero el problema subyacente sigue existiendo.
El sesgo también es un problema en los motores de búsqueda tradicionales, ya que pueden llevar a los usuarios a sitios web que contienen contenido sesgado, racista, incorrecto o inapropiado de otro modo. Pero como Google no es más que una guía que dirige a los usuarios hacia las fuentes, asume menos responsabilidad por su contenido. Con el contenido y la información contextual (por ejemplo, los sesgos políticos conocidos de la fuente), los usuarios aplican su juicio para distinguir la realidad de la ficción, la opinión de la verdad objetiva y decidir qué información quieren utilizar. Este paso basado en el juicio se elimina con ChatGPT, lo que lo hace directamente responsable de los resultados sesgados y racistas que pueda ofrecer.
Esto plantea la cuestión de la transparencia: los usuarios no tienen ni idea de las fuentes que hay detrás de una respuesta con una herramienta como ChatGPT y la IA no las proporciona cuando se les pregunta. Esto crea una situación peligrosa en la que el usuario puede tomar una máquina sesgada como una herramienta objetiva que debe ser correcta. OpenAI está trabajando para abordar este desafío con WebGPT, una versión de la herramienta de IA que está entrenada para citar sus fuentes, pero su eficacia aún está por verse.
La opacidad en torno al abastecimiento puede generar otro problema: académico estudios y pruebas anecdóticas han demostrado que las aplicaciones de IA generativa pueden plagiar el contenido de sus datos de entrenamiento; en otras palabras, el trabajo de otra persona, que no dio su consentimiento a que su trabajo protegido por derechos de autor se incluyera en los datos de entrenamiento, no recibió ninguna compensación por el uso del trabajo y no recibió ningún crédito. (El Neoyorquino describió recientemente esto como las «tres C» en un artículo sobre una demanda colectiva contra las empresas de IA generativa Midjourney, Stable Diffusion y Dream Up). Demandas contra Microsoft, OpenAI, GitHub y otros también están surgiendo, y este parece ser el comienzo de una nueva ola de batallas legales y éticas.
El plagio es un problema, pero también hay veces en las que los LLM simplemente inventan cosas. En un error muy público, el bardo de Google, por ejemplo, proporcionó información objetivamente incorrecta sobre el telescopio James Webb durante un demostración. Del mismo modo, cuando le preguntaron a ChatGPT por el artículo de investigación más citado en economía, regresó con una cita de investigación completamente inventada.
Debido a estos problemas, ChatGPT y los LLM genéricos tienen que superar grandes desafíos para ser útiles en cualquier esfuerzo serio por encontrar información o producir contenido, especialmente en aplicaciones académicas y corporativas, donde incluso el más mínimo traspié podría tener consecuencias catastróficas para su carrera.
Es probable que los LLM mejoren ciertos aspectos de los motores de búsqueda tradicionales, pero actualmente no parecen capaces de destronar la búsqueda de Google. Sin embargo, podrían desempeñar un papel más disruptivo y revolucionario a la hora de cambiar otros tipos de búsquedas.
Lo que es más probable en la era de la Búsqueda 3.0 sea el auge de los LLM seleccionados y entrenados deliberadamente a propósito y de forma transparente para la búsqueda vertical, que son motores de búsqueda especializados y específicos por temas.
La búsqueda vertical es un caso de uso sólido para los LLM por varias razones. En primer lugar, se centran en campos y casos de uso específicos: conocimientos limitados pero profundos. Esto facilita la formación de LLM en conjuntos de datos muy seleccionados, que podrían incluir una documentación completa que describa las fuentes y los detalles técnicos del modelo. También facilita que estos conjuntos de datos se rijan por las leyes, normas y reglamentos pertinentes sobre derechos de autor, propiedad intelectual y privacidad. Los modelos lingüísticos más pequeños y específicos también significan un menor coste de cálculo, lo que facilita que se vuelvan a capacitar con más frecuencia. Por último, estos LLM estarían sujetos a pruebas y auditorías periódicas por parte de expertos externos, de forma similar a como los modelos analíticos utilizados en las instituciones financieras reguladas están sujetos a rigurosos requisitos de prueba.
En campos en los que el conocimiento experto basado en hechos y datos históricos es una parte importante del trabajo, los LLM verticales pueden proporcionar una nueva generación de herramientas de productividad que aumentan a los humanos de formas completamente nuevas. Imagínese una versión de ChatGPT basada en revistas y libros de texto médicos revisados y publicados por pares e integrada en Microsoft Office como asistente de investigación para profesionales médicos. O una versión que se basa en décadas de datos financieros y artículos de las principales bases de datos y revistas financieras que los analistas bancarios utilizan para investigar. Otro ejemplo es capacitar a los LLM para que escriban o depure código y respondan a las preguntas de los desarrolladores.
Las empresas y los emprendedores pueden hacerse cinco preguntas a la hora de evaluar si hay motivos de uso sólidos para aplicar LLM a una aplicación de búsqueda vertical:
Para responder con confianza a las preguntas anteriores se necesitará una perspectiva multidisciplinaria que combine las perspectivas empresarial, técnica, legal, financiera y ética. Pero si la respuesta es «sí» a las cinco preguntas, es probable que haya argumentos de uso sólidos para un LLM vertical.
La tecnología detrás de ChatGPT es impresionante, pero no exclusiva, y pronto se podrá replicar y comercializar fácilmente. Con el tiempo, el enamoramiento del público por las deliciosas respuestas que produce ChatGPT se desvanecerá a medida que las realidades prácticas y las limitaciones de la tecnología comiencen a hacerse presentes. Como resultado, los inversores y los usuarios deberían prestar atención a las empresas que se centran en abordar los desafíos técnicos, legales y éticos mencionados anteriormente, ya que esos son los frentes en los que tendrá lugar la diferenciación de los productos y, en última instancia, se ganarán las batallas de la IA