Doxa 1683

¿Quién va a regular la IA?

A medida que el mundo considera el impacto de los nuevos y poderosos sistemas de IA, los gobiernos se esfuerzan por liderar la carga regulatoria y determinar cómo crecerá esta tecnología.

Por Blair Levin y Larry Downes
Política y regulación del gobierno
Harvard Business ReviewGobi

#Doxa #IA #regular #impacto #sistemas #gobierno #liderar #tecnología #empresa #empresa #congreso #comisión #Europa #Asia #China #tribunales #economía #industria
Resumen. A medida que las empresas y los gobiernos se apresuran a dar sentido a los impactos de los nuevos y potentes sistemas de IA, los gobiernos de todo el mundo se esfuerzan por tomar la iniciativa en materia de regulación. Los líderes empresariales deben centrarse en quién es probable que gane esta carrera, más que en las preguntas de cómo o incluso cuándo se regulará la IA. Si el Congreso, la Comisión Europea, China o incluso los estados o tribunales de EE. UU. toman la iniciativa, determinará tanto la velocidad como la trayectoria de la transformación de la economía mundial por parte de la IA, lo que podría proteger a algunas industrias o limitar la capacidad de todas las empresas de utilizar la tecnología para interactuar. directamente con los consumidores.
Al testificar ante el Congreso el 16 de mayo, el director ejecutivo de OpenAI, Sam Altman, dijo que era hora de que los reguladores comenzaran a establecer límites en los poderosos sistemas de IA. “A medida que avanza esta tecnología, entendemos que las personas están ansiosas por cómo podría cambiar la forma en que vivimos. Nosotros también”, dijo Altman a un comité del Senado. “Si esta tecnología sale mal, puede salir bastante mal”, dijo, alegando que podría causar “un daño significativo al mundo”. Estuvo de acuerdo con los legisladores en que la supervisión del gobierno será fundamental para mitigar los riesgos.

Un tema que apenas estaba en el radar de los legisladores hace un año, los gobiernos de todo el mundo ahora están debatiendo ferozmente los pros y los contras de regular o incluso prohibir algunos usos de las tecnologías de inteligencia artificial. Sin embargo, la pregunta en la que los líderes empresariales deben centrarse en este momento no es cómo o incluso cuándo se regulará la IA, sino por quién. Si el Congreso, la Comisión Europea, China o incluso los estados o tribunales de EE. UU. toman la iniciativa, determinará tanto la velocidad como la trayectoria de la transformación de la economía global por parte de la IA, lo que podría proteger a algunas industrias o limitar la capacidad de todas las empresas de usar la tecnología para interactuar. directamente con los consumidores.

Desde el lanzamiento en noviembre de 2022 de ChatGPT de OpenAI, su chatbot generativo de IA basado en una gran red neuronal de modelo de lenguaje (LLM) que mejora automáticamente, el uso de la IA generativa se ha disparado. Según los datos recopilados por Statista, ChatGPT llegó a un millón de usuarios en cinco días, superando las introducciones de productos de Internet de velocidad warp, como Facebook, Spotify y Netflix. Midjourney y DALL-E, los LLM que crean ilustraciones personalizadas basadas en la entrada del usuario, también se han disparado en popularidad, generando millones de imágenes todos los días. La IA generativa ciertamente cumple con los criterios de lo que uno de nosotros codefinió previamentecomo “Big Bang Disruptor”: una nueva tecnología que, desde el momento de su lanzamiento, ofrece a los usuarios una experiencia mejor y más económica que aquellas con las que compite.

Una aceptación tan notable es, naturalmente, motivo de entusiasmo y, para las empresas establecidas, alarma. El potencial de los LLM parece ilimitado, tal vez revolucionando todo, desde la búsqueda hasta la generación de contenido, el servicio al cliente hasta la educación, y bueno, lo que sea. A diferencia de Big Bang Disruptions más específicos, ChatGPT y otros LLM son súper disruptores, rompiendo reglas antiguas no solo en una industria, sino en todas. Al mismo tiempo.

Dada la escala potencial de esta interrupción, así como problemas como la privacidad, el sesgo e incluso la seguridad nacional, es razonable que los legisladores tomen nota. Piense en el poema de Goethe "El aprendiz de brujo", animado en la película clásica de Disney Fantasía, donde el hechicero regresa a su taller para encontrar que su aprendiz ha desatado fuerzas que rápidamente se han descontrolado, amenazando con destruir todo a la vista hasta que el mago restablezca orden. Muchos de los que están preocupados por las posibles consecuencias no deseadas de la IA, incluidos desarrolladores como Altman, esperan que los legisladores desempeñen el papel de brujo.

Aquí viene todo el mundo

En los Estados Unidos, múltiples actores compiten por liderar la regulación de la IA.

En primer lugar, está el Congreso, donde el líder de la mayoría en el Senado, Chuck Schumer, pide una legislación preventiva para establecer “barreras de seguridad” regulatorias en los productos y servicios de IA. Las medidas de protección se centran en la transparencia del usuario, los informes del gobierno y "alinear estos sistemas con los valores estadounidenses y garantizar que los desarrolladores de IA cumplan su promesa de crear un mundo mejor". La vaguedad de esta propuesta, sin embargo, no es prometedora.

En segundo lugar, está la Administración Biden, donde existe cierta competencia entre las agencias federales para implementar un plan de la Casa Blanca para una Declaración de Derechos de AI, que se presentó en octubre pasado. El plan es igualmente general, llamando a los desarrolladores a garantizar sistemas "seguros y efectivos" que no discriminen ni violen las expectativas de privacidad y que expliquen cuándo un usuario está interactuando con un sistema automatizado y ofrezca "alternativas" humanas para los usuarios que las soliciten. — sin, al menos hasta ahora, definir ninguno de estos términos clave.

En el Departamento de Comercio, la Administración Nacional de Telecomunicaciones e Información (NTIA) abrió una consulta sobre la utilidad de las auditorías y certificaciones para los sistemas de IA. La agencia ha solicitado comentarios sobre docenas de preguntas sobre la responsabilidad de los sistemas de IA, incluido si, cuándo, cómo y quién debe evaluar, certificar o auditar las nuevas aplicaciones, y qué tipo de criterios incluir en estas revisiones. Aquí, la especificidad de la investigación parece ir en la dirección correcta.

Mientras tanto, la presidenta de la Comisión Federal de Comercio, Lina Kahn, está adoptando un enfoque diferente, alegando que su agencia ya tiene jurisdicción sobre los LLM y agitando los sables anticompetitivos y de protección del consumidor de la agencia en la dirección de la nueva tecnología. Kahn especula que la IA podría exacerbar los problemas existentes en la tecnología, incluida la "colusión, la monopolización, las fusiones, la discriminación de precios y los métodos desleales de competencia". La IA generativa, también cree el presidente de la FTC, “corre el riesgo de acelerar el fraude” con su capacidad para crear contenido falso pero convincente. Y, señala, los LLM podrían, intencionalmente o no, violar las leyes existentes de privacidad y antidiscriminación al elaborar respuestas a las solicitudes de los usuarios basadas en conjuntos de datos sesgados.

Luego, hay más esfuerzos provinciales: la legislación relacionada con la IA ya se ha introducido en al menos 17 estados. Algunas de estas leyes propuestas incentivarían el desarrollo local de productos de IA, mientras que otras limitarían su uso en aplicaciones como la atención médica y la contratación. Muchos estados tienen o están considerando crear sus propios grupos de trabajo para recomendar legislación futura.

Hasta el momento, hay pocos detalles en cualquiera de estas propuestas, y los tipos de daños hipotéticos de la IA se clasifican en categorías existentes, incluida la información errónea y el abuso de derechos de autor y marcas registradas. En cualquier caso, es probable que los reguladores tengan poco impacto en el desarrollo de la tecnología a corto plazo. Muchas de las regulaciones propuestas requerirían que el Congreso otorgue autoridad legal adicional a las agencias, lo que parece poco probable en el clima político actual. Incluso entonces, la aplicación de nuevas reglas será un asunto de los tribunales, lo que se traduce en años de proceso de molienda. Y los gobiernos históricamente han tenido problemas para atraer el tipo de experiencia técnica necesaria incluso para definir los tipos de nuevos daños que pueden causar los LLM y otras aplicaciones de IA.

Entre las propuestas federales, déle crédito al Departamento de Comercio por hacer las preguntas correctas. Pero no está claro si la secretaria Gina Raimondo tiene la autoridad legal para crear un proceso de certificación sostenible o la influencia política para lograr que la industria tecnológica apoye los esfuerzos de la NTIA. Además, como reconoce el Departamento, su investigación es solo una parte del esfuerzo más amplio de la Casa Blanca para crear un entorno confiable para los servicios de IA, un objetivo que requeriría niveles nunca antes vistos de coordinación y cooperación entre numerosos silos gubernamentales.

Estas discusiones también tienen lugar en el contexto de cambios monumentales en la ley estadounidense que probablemente determinarán quién finalmente ganará la parte del principal regulador de AI. Las decisiones recientes de la Corte Suprema han alterado drásticamente el panorama legal del derecho comercial, transfiriendo el poder de los reguladores federales a los tribunales y los estados, agregando aún más fragmentación, incertidumbre y demora a las acciones de ejecución. El Tribunal ha dado luz verde a las empresas que esperan impugnar la elaboración de normas de la agencia, por ejemplo, exigiendo instrucciones más específicas del Congreso, externalizando efectivamente a los jueces federales la decisión final sobre si las normas adoptadas alguna vez entrarán en vigencia. Mientras tanto, por supuesto, la tecnología seguirá evolucionando a su propio ritmo acelerado.

Juntas, estas limitaciones sugieren que es más probable que la regulación importante venga primero desde fuera de los EE. UU.

Para el derecho de la competencia, y su aplicación a las empresas de tecnología en particular, el impulso de las últimas décadas ya se ha trasladado de EE. UU. a Europa. A medida que la UE continúa aprobando nuevas leyes de Internet sustanciales, el Congreso vacila, dejando a la FTC y otras agencias federales en gran medida sin las herramientas o los recursos para competir con sus contrapartes europeas. El Parlamento Europeo aprobó recientemente la Ley de IA, un estatuto de 100 páginas que prohibiría de manera preventiva las aplicaciones que se considere que tienen niveles de riesgo "inaceptables", exigiría que otros obtengan aprobación previa y licencias antes de su uso en la UE e impondría multas sustanciales a los desarrolladores. por una serie de violaciones.

Los reguladores en China también se están moviendo rápidamente, tanto para incentivar los productos y servicios de IA de cosecha propia como para definir cómo pueden y no pueden operar. Esto no solo podría limitar la forma en que las empresas no chinas interactúan con más de mil millones de usuarios chinos potenciales, sino que, al ser los primeros, podría convertirse en el régimen legal de facto para aplicaciones futuras.

Lo que las empresas deben hacer ahora

No está nada claro que cualquier combinación de acción gubernamental (legislativa, regulatoria o judicial) realmente pueda lograr el acto de equilibrio de maximizar el valor de la IA y minimizar su daño potencial a la economía o la sociedad en general. Al igual que con todas las tecnologías revolucionarias, la capacidad de los gobiernos para regular efectivamente los LLM seguramente se quedará corta. Esto no es una crítica a los legisladores y reguladores, sino un efecto secundario del hecho básico de que la ley avanza gradualmente mientras que la tecnología evoluciona exponencialmente.

Mientras tanto, los líderes empresariales y académicos deben seguir el ejemplo de la iniciativa en curso del Departamento de Comercio y comenzar a desarrollar reguladores no gubernamentales, auditorías y procesos de certificación que identifiquen y proporcionen incentivos de mercado para comprar productos y servicios de IA éticos y confiables, dejando en claro qué aplicaciones son y no son confiables.

Hay, por supuesto, una larga historia de organismos autorreguladores exitosos (y no exitosos), que se remontan a la Edad Media y a los "tribunales" de comerciantes que hacían cumplir las normas de los mercados medievales. Hoy en día, numerosos grupos, incluida la Organización Internacional de Normas, desarrollan y certifican el cumplimiento corporativo con una gama notablemente amplia de normas, mejores prácticas y clasificaciones. En la era de la información, esfuerzos similares han abordado todo, desde estándares corporativos para lidiar con regímenes autoritarios hasta el desarrollo del mismo software y protocolos que componen Internet.

Cierta regulación gubernamental es inevitable. Aún así, la forma más prometedora de no provocar al hechicero sería evitar hacer un lío demasiado grande en primer lugar.

Obtenga más información sobre políticas y regulaciones gubernamentales o temas relacionados IA y aprendizaje automático, leyes antimonopolio, derecho comercial, tecnología y análisis y negocios y sociedad

Blair Levin dirigió el equipo que produjo el Plan Nacional de Banda Ancha 2010 de la FCC. Más tarde fundó Gig.U, que fomentó la implementación de Internet gigabit en ciudades con importantes universidades de investigación. Actualmente es miembro sénior no residente de la Institución Brookings y asesor de políticas de New Street Research.

Larry Downes es coautor de Pivot to the Future: Discovering Value and Creating Growth in a Disrupted Worl d (PublicAffairs 2019). Sus libros anteriores incluyen Big Bang Disruption, The Laws of Disruption y Unleashing the Killer App.

 

No hay comentarios:

Publicar un comentario