Hicieron una comparación con la energía nuclear como otro ejemplo de una tecnología con la «posibilidad de riesgo existencial», planteando la necesidad de una autoridad de naturaleza similar a la Agencia Internacional de Energía Atómica (OIEA), el organismo de control nuclear mundial.
Durante la próxima década, «es concebible que… los sistemas de IA superen el nivel de habilidad de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad», dijo el IA abierta equipo escribió. «En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí”.
La declaración se hizo eco de los comentarios de Altman ante el Congreso la semana pasada, donde el director ejecutivo de la empresa con sede en EE. UU. también testificó sobre la necesidad de un organismo regulador independiente.
Los críticos han advertido en contra de confiar en los llamados a la regulación de los líderes de la industria tecnológica que se beneficiarán del desarrollo continuo sin restricciones. Algunos dicen que las decisiones comerciales de OpenAI contrastan con estas advertencias de seguridad, ya que su rápida implementación ha creado una carrera armamentista de IA, presionando a empresas como Alfabeto de la empresa matriz de Google para lanzar productos mientras los formuladores de políticas todavía están lidiando con los riesgos.
Pocos legisladores de Washington tienen un conocimiento profundo de la tecnología emergente o la IA, y las empresas de IA los han presionado mucho. El Washington Post informó anteriormenteya que los partidarios y críticos esperan influir en las discusiones sobre política tecnológica.
Algunos también han advertido contra el riesgo de obstaculizar la capacidad de EE. UU. para competir en tecnología con sus rivales, particularmente China.
Los líderes de OpenAI advirtieron en su nota contra la pausa del desarrollo y agregaron que «sería poco intuitivamente arriesgado y difícil detener la creación de superinteligencia. Debido a que las ventajas son tan enormes, el costo de construirlo disminuye cada año, la cantidad de actores que lo construyen aumenta rápidamente”.
En su primer testimonio ante el Congreso la semana pasada, Altman emitió advertencias sobre cómo la IA podría «causar un daño significativo al mundo», al tiempo que afirmó que su empresa continuaría implementando la tecnología.
El mensaje de disposición de Altman para trabajar con los legisladores recibió una recepción relativamente cálida en el Congreso, incluidos los países los Estados Unidos reconocer que necesitan lidiar con el apoyo a la innovación mientras maneja una tecnología que está desatando preocupaciones sobre privacidad, seguridad, recortes de empleo y desinformación.
Un testigo en la audiencia, el profesor emérito de la Universidad de Nueva York Gary Marcus, destacó las sumas de dinero «alucinantes» en juego y describió a OpenAI como «en deuda» con su inversor Microsoft. Criticó lo que describió como la divergencia de la empresa de su misión de hacer avanzar la IA para «beneficiar a la humanidad en su conjunto» sin las limitaciones de la presión financiera.
La popularización de ChatGPT y las herramientas generativas de inteligencia artificial, que crean texto, imágenes o sonidos, ha deslumbrado a los usuarios y también ha agregado urgencia al debate sobre la regulación.
En una cumbre del G-7 el sábadolos líderes de las economías más grandes del mundo dejaron en claro que los estándares internacionales para los avances de la IA eran una prioridad, pero aún no han producido conclusiones sustanciales sobre cómo abordar los riesgos.
Hasta ahora, Estados Unidos se ha movido más lento que otros, particularmente en Europa, aunque la administración Biden dice que ha hecho de la IA una prioridad clave. Los formuladores de políticas de Washington no han aprobado leyes tecnológicas integrales durante años, lo que genera dudas sobre la rapidez y la eficacia con que pueden desarrollar regulaciones para la industria de la IA.
Los creadores de ChatGPT pidieron a corto plazo «cierto grado de coordinación» entre las empresas que trabajan en la investigación de IA «para garantizar que el desarrollo de la superinteligencia» permita una integración segura y «sin problemas de estos sistemas con la sociedad». Las empresas podrían, por ejemplo, «acordar colectivamente… que la tasa de crecimiento de la capacidad de IA en la frontera se limite a una cierta tasa por año», dijeron.
«Creemos que las personas de todo el mundo deberían decidir democráticamente sobre la límites y valores predeterminados para los sistemas de IA», agregaron, aunque admitieron que «aún no sabemos cómo diseñar un mecanismo de este tipo».
Cat Zakrzewski, Cristiano Lima y Will Oremus contribuyeron a este despacho.