Eleva tus habilidades de liderazgo y negocios
Súmate a más de 52,000 líderes en 90 empresas mejorando habilidades de estrategia, gestión y negocios.
Súmate a más de 52,000 líderes en 90 empresas mejorando habilidades de estrategia, gestión y negocios.
Te mantendremos al tanto de todas las nuevas herramientas que publiquemos al público.
por Blair Levin
A medida que el mundo considera el impacto de los nuevos y poderosos sistemas de IA, los gobiernos se esfuerzan por liderar la carga regulatoria y determinar cómo crecerá esta tecnología.
• • •
Al testificar ante el Congreso el 16 de mayo, el director ejecutivo de OpenAI, Sam Altman, dijo que era hora de que los reguladores comenzaran a poner límites a los potentes sistemas de IA. «A medida que esta tecnología avanza, entendemos que la gente se preocupa por cómo podría cambiar nuestra forma de vida. Nosotros también», Altman dijo a un comité del Senado. «Si esta tecnología va mal, puede ir muy mal», dijo, y afirmó que podría causar «un daño significativo al mundo». Estuvo de acuerdo con los legisladores en que la supervisión gubernamental será fundamental para mitigar los riesgos.
Un tema que apenas estaba en el radar de los legisladores hace un año, los gobiernos de todo el mundo debaten ahora ferozmente las ventajas y desventajas de regular o incluso prohibir algunos usos de las tecnologías de inteligencia artificial. Sin embargo, la pregunta en la que deberían centrarse los líderes empresariales en este momento no es cómo ni siquiera cuándo se regulará la IA, sino quién. Que el Congreso, la Comisión Europea, China o incluso los estados o tribunales de los EE. UU. tomen la iniciativa determinará tanto la velocidad como la trayectoria de la transformación de la IA en la economía mundial, lo que podría proteger a algunos sectores o limitar la capacidad de todas las empresas de utilizar la tecnología para interactuar directamente con los consumidores.
Desde la publicación en noviembre de 2022 de ChatGPT de OpenAI, su chatbot de IA generativa basado en una red neuronal de modelos de lenguajes grandes (LLM) que se mejora a sí misma, el uso de la IA generativa se ha disparado. Según datos recopilados por Statista, ChatGPT llegó a un millón de usuarios en cinco días, superando las presentaciones de productos de Internet que antes eran a una velocidad vertiginosa, como Facebook, Spotify y Netflix. Midjourney y DALL-E, LLM que crean ilustraciones personalizadas según las entradas del usuario, también se han hecho populares, generando millones de imágenes todos los días. La IA generativa sin duda cumple con los criterios de qué uno de nosotros anteriormente codefinido como un «agente disruptivo Big Bang»: una nueva tecnología que, desde el momento de su lanzamiento, ofrece a los usuarios una experiencia mejor y más barata que aquellas con las que compite.
Una aceptación tan notable es, naturalmente, motivo de entusiasmo y, para las empresas tradicionales, de alarma. El potencial de los LLM parece ilimitado, tal vez revolucionando todo, desde buscar a generación de contenido, servicio de atención al cliente a educación y bueno, lo que sea. A diferencia de las disrupciones más específicas del Big Bang, ChatGPT y otros LLM son superdisruptores e infringen normas de larga data no solo en un sector, sino en todos ellos. Al mismo tiempo.
Dada la posible magnitud de esta perturbación, así como cuestiones como la privacidad, los prejuicios e incluso la seguridad nacional, es razonable que los legisladores se den cuenta. Piense en el poema de Goethe «El aprendiz de brujo», animado en la clásica película de Disney Fantasía, donde el hechicero regresa a su taller y descubre que su aprendiz ha desatado fuerzas que se han descontrolado rápidamente y amenazan con destruir todo lo que tiene a la vista hasta que el mago restablezca el orden. Muchos de los preocupados por las posibles consecuencias no deseadas de la IA, incluidos desarrolladores como Altman, esperan que los legisladores ocupen el papel de hechicero.
Aquí vienen todos
En los Estados Unidos, varios actores se apresuran a liderar la regulación de la IA.
Primero, está el Congreso, donde el líder de la mayoría en el Senado, Chuck Schumer, pide una legislación preventiva para establecer «barreras» reglamentarias sobre productos y servicios de IA. Las barreras se centran en la transparencia de los usuarios, los informes gubernamentales y «alinear estos sistemas con los valores estadounidenses y garantizar que los desarrolladores de IA cumplan su promesa de crear un mundo mejor». Sin embargo, la vaguedad de esta propuesta no es prometedora.
En segundo lugar, está la Administración Biden, donde hay cierta competencia entre las agencias federales para implementar un plan de la Casa Blanca para una declaración de derechos de la IA, que se presentó en octubre pasado. El plan es igualmente general, y exige a los desarrolladores que garanticen sistemas «seguros y eficaces» que no discriminen ni infrinjan las expectativas de privacidad y que expliquen cuándo un usuario interactúa con un sistema automatizado y ofrezcan «alternativas» humanas a los usuarios que los soliciten, sin definir, al menos hasta ahora, ninguno de estos términos clave.
En el Departamento de Comercio, la Administración Nacional de Telecomunicaciones e Información (NTIA) ha abierto una consulta sobre la utilidad de las auditorías y certificaciones para los sistemas de IA. La agencia ha solicitado comentarios sobre docenas de preguntas sobre la responsabilidad de los sistemas de IA, incluyendo si, cuándo, cómo y quién deben evaluar, certificar o auditar las nuevas solicitudes, y qué tipo de criterios incluir en estas reseñas. En este caso, la especificidad de la investigación parece ir en la dirección correcta.
La presidenta de la Comisión Federal de Comercio, Lina Kahn, por su parte, está adoptando un enfoque diferente y afirma que su agencia ya tiene jurisdicción sobre los LLM y haciendo temblar los sables anticompetitivos y de protección al consumidor de la agencia en la dirección de la nueva tecnología. Kahn especula que la IA podría exacerbar los problemas existentes en la tecnología, como «la colusión, la monopolización, las fusiones, la discriminación de precios y los métodos de competencia desleales». La IA generativa, también cree el presidente de la FTC, «corre el riesgo de impulsar el fraude» con su capacidad de crear contenido falso pero convincente. Y, señala, los LLM podrían, intencionalmente o no, infringir las leyes de privacidad y antidiscriminación existentes al elaborar respuestas a las solicitudes de los usuarios basándose en conjuntos de datos sesgados.
Luego, hay más esfuerzos provinciales: ya se ha introducido legislación relacionada con la IA en al menos 17 estados. Algunas de estas leyes propuestas incentivarían el desarrollo local de productos de IA, mientras que otras limitarían su uso en aplicaciones como la atención médica y la contratación. Muchos estados tienen o están considerando crear sus propios grupos de trabajo para recomendar la legislación futura.
Hasta ahora, hay pocos detalles en ninguna de estas propuestas, y los tipos de hipotéticos daños de la IA se incluyen en las categorías existentes, como la desinformación y el abuso de derechos de autor y marcas comerciales. En cualquier caso, es probable que los reguladores tengan poco impacto en el desarrollo de la tecnología a corto plazo. Muchos de los reglamentos propuestos exigirían que el Congreso diera autoridad legal adicional a las agencias, lo que parece poco probable en el clima político actual. Aun así, la aplicación de las nuevas normas será asunto de los tribunales, lo que se traduce en años de duro proceso. Históricamente, los gobiernos han tenido problemas para atraer el tipo de experiencia técnica necesaria incluso para definir los tipos de nuevos daños que pueden causar las LLM y otras aplicaciones de IA.
Entre las propuestas federales, dé crédito al Departamento de Comercio por hacer las preguntas correctas. Pero no está claro si la secretaria Gina Raimondo tiene la autoridad legal para crear un proceso de certificación sostenible o la influencia política para lograr que la industria tecnológica apoye los esfuerzos de la NTIA. Además, como reconoce el Departamento, su investigación es solo una parte del mayor esfuerzo de la Casa Blanca por crear un entorno confiable para los servicios de IA, un objetivo que requeriría niveles de coordinación y cooperación nunca antes vistos en numerosos silos gubernamentales.
Estas discusiones también tienen lugar en el contexto de cambios monumentales en la legislación estadounidense que probablemente determinarán quién ganará en última instancia el papel del principal regulador de la IA. Las decisiones recientes del Tribunal Supremo tienen alteró drásticamente el panorama legal del derecho empresarial , transfiriendo el poder de los reguladores federales a los tribunales y los estados, lo que añade aún más fragmentación, incertidumbre y retraso a las medidas de cumplimiento. El Tribunal ha dado luz verde a las empresas que esperan impugnar la reglamentación de las agencias, por ejemplo, exigiendo instrucciones más específicas al Congreso y subcontratando de manera efectiva a los jueces federales la decisión final sobre si las normas adoptadas entrarán en vigor alguna vez. Mientras tanto, por supuesto, la tecnología seguirá evolucionando a su propio ritmo acelerado.
En conjunto, estas limitaciones sugieren que es más probable que la regulación principal venga primero de fuera de los EE. UU.
Para la ley de competencia, y su aplicación a empresas de tecnología en particular, el impulso de las últimas décadas ya se ha trasladado de EE. UU. a Europa. A medida que la UE siga pasando nueva y sustancial legislación sobre Internet, el Congreso vacila y deja a la FTC y a otras agencias federales prácticamente sin las herramientas o los recursos necesarios para competir con sus homólogos europeos. El Parlamento Europeo aprobó recientemente la Ley de IA, una ley de 100 páginas que prohibiría preventivamente las aplicaciones que se consideraran con niveles de riesgo «inaceptables», exigiría que otras personas obtuvieran la aprobación previa y las licencias antes de su uso en la UE e impondría importantes multas a los desarrolladores por una serie de infracciones.
Reguladores en China también se mueven rápido, tanto para incentivar los productos y servicios de IA locales como para definir cómo pueden y no pueden funcionar. Esto no solo podría limitar la forma en que las empresas no chinas interactúan con más de mil millones de posibles usuarios chinos, sino que, al ser las primeras, podría convertirse en el régimen legal de facto para futuras aplicaciones.
Qué deben hacer las empresas ahora
No está nada claro que cualquier combinación de medidas gubernamentales (legislativas, reglamentarias o judiciales) pueda lograr realmente el equilibrio entre maximizar el valor de la IA y, al mismo tiempo, minimizar su posible daño a la economía o la sociedad en general. Como ocurre con todas las tecnologías revolucionarias, es casi seguro que la capacidad de los gobiernos para regular eficazmente los LLM no será suficiente. No se trata de una crítica a los legisladores y reguladores, sino de un efecto secundario del hecho básico esa ley avanza de forma gradual mientras la tecnología evoluciona exponencialmente.
Mientras tanto, los líderes empresariales y los académicos deberían seguir el ejemplo de la iniciativa en curso del Departamento de Comercio y empezar a desarrollar procesos de regulación, auditorías y certificación no gubernamentales que identifiquen y ofrezcan incentivos de mercado para comprar productos y servicios de IA éticos y confiables, dejando claro qué aplicaciones son fiables y cuáles no.
Por supuesto, hay una larga historia de organismos de autorregulación exitosos (e infructuosos), que se remonta a la Edad Media y a los «tribunales» de comerciantes que hacían cumplir las normas de los mercados medievales. En la actualidad, numerosos grupos, incluida la Organización Internacional de Normalización, desarrollan y certifican el cumplimiento corporativo con una gama notablemente amplia de normas, mejores prácticas y clasificaciones. En la era de la información, iniciativas similares han abordado todo, desde las normas corporativas para lidiar con regímenes autoritarios al desarrollo de los mismos software y protocolos que componen el propio Internet.
Algunas regulaciones gubernamentales son inevitables. Aun así, la forma más prometedora de no provocar al hechicero sería evitar hacer un lío demasiado grande en primer lugar.
_
BL
Blair Levin led the team that produced the FCC’s 2010 National Broadband Plan. He later founded Gig.U, which encouraged gigabit internet deployments in cities with major research universities. He is currently a Nonresident Senior Fellow with the Brookings Institution and Policy Advisor with New Street Research.
Larry Downes is a co-author of Pivot to the Future: Discovering Value and Creating Growth in a Disrupted World (PublicAffairs 2019). His earlier books include Big Bang Disruption, The Laws of Disruption, and Unleashing the Killer App.