Días después de que el CEO de OpenAI, Sam Altman, dijera que la compañía podría tener que cesar sus operaciones en Europa si las regulaciones de la Ley de IA de la UE se aprueban en su forma actual, aparentemente se retractó de sus comentarios.
A pesar de haber dicho recientemente a los legisladores estadounidenses que estaba a favor de regular la IA, al hablar con los periodistas en el Reino Unido a principios de esta semana, Altman dijo que tenía «muchas preocupaciones» sobre la Ley de IA de la UE e incluso acusó al bloque de «sobrerregular».
OpenAI es la firma respaldada por Microsoft que ha desarrollado el innovador pero algo controvertido ChatGPT sistema generativo de IA.
«Trataremos de cumplir, pero si no podemos cumplir dejaremos de operar», dijo Altman, según un informe de The Financial Times. La ley está siendo debatida actualmente por representantes del Parlamento, el Consejo y la Comisión de la UE, y se finalizará el próximo año.
Sin embargo, en un Tweet publicado El viernes por la mañana, Altman pareció reducir la retórica y escribió: “¡Semana muy productiva de conversaciones en Europa sobre cómo regular mejor la IA! estamos emocionados de continuar operando aquí y, por supuesto, no tenemos planes de irnos”.
Sus comentarios anteriores enojaron a los legisladores en Europa, y varios políticos argumentaron que el nivel de regulación propuesto por la UE era necesario para abordar las preocupaciones en torno a la IA generativa.
«Seamos claros, nuestras reglas se establecen para la seguridad y el bienestar de nuestros ciudadanos y esto no se puede negociar», dijo el comisario de la UE, Thierry Breton. dijo a Reuters.
«Europa ha estado a la vanguardia en el diseño de un marco regulatorio sólido y equilibrado para la IA que aborda los riesgos relacionados con los derechos fundamentales o la seguridad, pero también permite la innovación para que Europa se convierta en líder en IA confiable», dijo.
Altman cree que regular la IA sería «sabio»
Hablando en Subcomité Judicial del Senado sobre privacidad, tecnología y la ley a principios de este mes, Altman dijo a los legisladores estadounidenses que la regulación sería «sabia» porque las personas necesitan saber si están hablando con un sistema de inteligencia artificial o mirando contenido (imágenes, videos o documentos) generado por un bot conversacional
Cuando se le preguntó durante la audiencia si los ciudadanos deberían preocuparse de que las elecciones pudieran ser manipuladas modelos de lenguaje grande (LLM) como GPT-4 y su aplicación de chatbot ChatGPT, Altman dijo que era una de sus «áreas de mayor preocupación».
«La capacidad más general de estos modelos para manipular, persuadir, proporcionar desinformación interactiva uno a uno, dado que nos enfrentaremos a elecciones el próximo año y estos modelos están mejorando, creo que esta es un área importante de preocupación dijo.
“Creo que también necesitaremos reglas y pautas sobre lo que se espera en términos de divulgación de una empresa que proporcione un modelo que podría tener este tipo de habilidades de las que estamos hablando. Entonces, estoy nervioso por eso».
Derechos de autor © 2023 IDG Communications, Inc.