Skip to content
MEDIA PILOT
Menu
  • Home
  • MUNDO
  • DEPORTES
  • SALUD
  • TECNOLOGÍA
  • POLÍTICA
  • REGIÓN
  • EUROPA
  • ECONOMÍA
  • ARTE Y CULTURA
  • ENTRETENIMIENTO
Menu

Los líderes de OpenAI detrás de ChatGPT llaman a regular la IA y la ‘superinteligencia’

Posted on mayo 24, 2023 by admin
Comentario

Los líderes de OpenAI, el creador del chatbot viral ChatGPT, piden la regulación de los sistemas de «superinteligencia» e inteligencia artificial, sugiriendo que un equivalente al organismo de control nuclear del mundo ayudaría a reducir el «riesgo existencial» que plantea la tecnología.

en un declaración publicado en el sitio web de la compañía esta semana, los cofundadores Greg Brockman e Ilya Sutskever, así como CEO Sam Altmanargumentó que eventualmente sería necesario un regulador internacional para «inspeccionar los sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, (y) imponer restricciones en los grados de implementación y niveles de seguridad».

Hicieron una comparación con la energía nuclear como otro ejemplo de una tecnología con la «posibilidad de riesgo existencial», planteando la necesidad de una autoridad de naturaleza similar a la Agencia Internacional de Energía Atómica (OIEA), el organismo de control nuclear mundial.

Durante la próxima década, «es concebible que… los sistemas de IA superen el nivel de habilidad de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad», dijo el IA abierta equipo escribió. «En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí”.

La declaración se hizo eco de los comentarios de Altman ante el Congreso la semana pasada, donde el director ejecutivo de la empresa con sede en EE. UU. también testificó sobre la necesidad de un organismo regulador independiente.

El CEO detrás de ChatGPT advierte que la IA del Congreso podría causar ‘daño al mundo’

Los críticos han advertido en contra de confiar en los llamados a la regulación de los líderes de la industria tecnológica que se beneficiarán del desarrollo continuo sin restricciones. Algunos dicen que las decisiones comerciales de OpenAI contrastan con estas advertencias de seguridad, ya que su rápida implementación ha creado una carrera armamentista de IA, presionando a empresas como Alfabeto de la empresa matriz de Google para lanzar productos mientras los formuladores de políticas todavía están lidiando con los riesgos.

Pocos legisladores de Washington tienen un conocimiento profundo de la tecnología emergente o la IA, y las empresas de IA los han presionado mucho. El Washington Post informó anteriormenteya que los partidarios y críticos esperan influir en las discusiones sobre política tecnológica.

Algunos también han advertido contra el riesgo de obstaculizar la capacidad de EE. UU. para competir en tecnología con sus rivales, particularmente China.

Los líderes de OpenAI advirtieron en su nota contra la pausa del desarrollo y agregaron que «sería poco intuitivamente arriesgado y difícil detener la creación de superinteligencia. Debido a que las ventajas son tan enormes, el costo de construirlo disminuye cada año, la cantidad de actores que lo construyen aumenta rápidamente”.

El debate sobre si la IA nos destruirá divide a Silicon Valley

En su primer testimonio ante el Congreso la semana pasada, Altman emitió advertencias sobre cómo la IA podría «causar un daño significativo al mundo», al tiempo que afirmó que su empresa continuaría implementando la tecnología.

El mensaje de disposición de Altman para trabajar con los legisladores recibió una recepción relativamente cálida en el Congreso, incluidos los países los Estados Unidos reconocer que necesitan lidiar con el apoyo a la innovación mientras maneja una tecnología que está desatando preocupaciones sobre privacidad, seguridad, recortes de empleo y desinformación.

Un testigo en la audiencia, el profesor emérito de la Universidad de Nueva York Gary Marcus, destacó las sumas de dinero «alucinantes» en juego y describió a OpenAI como «en deuda» con su inversor Microsoft. Criticó lo que describió como la divergencia de la empresa de su misión de hacer avanzar la IA para «beneficiar a la humanidad en su conjunto» sin las limitaciones de la presión financiera.

Washington promete abordar la IA, mientras los titanes tecnológicos y los críticos descienden

La popularización de ChatGPT y las herramientas generativas de inteligencia artificial, que crean texto, imágenes o sonidos, ha deslumbrado a los usuarios y también ha agregado urgencia al debate sobre la regulación.

En una cumbre del G-7 el sábadolos líderes de las economías más grandes del mundo dejaron en claro que los estándares internacionales para los avances de la IA eran una prioridad, pero aún no han producido conclusiones sustanciales sobre cómo abordar los riesgos.

Hasta ahora, Estados Unidos se ha movido más lento que otros, particularmente en Europa, aunque la administración Biden dice que ha hecho de la IA una prioridad clave. Los formuladores de políticas de Washington no han aprobado leyes tecnológicas integrales durante años, lo que genera dudas sobre la rapidez y la eficacia con que pueden desarrollar regulaciones para la industria de la IA.

A medida que AI cambia de trabajo, Italia está tratando de ayudar a los trabajadores a volver a capacitarse

Los creadores de ChatGPT pidieron a corto plazo «cierto grado de coordinación» entre las empresas que trabajan en la investigación de IA «para garantizar que el desarrollo de la superinteligencia» permita una integración segura y «sin problemas de estos sistemas con la sociedad». Las empresas podrían, por ejemplo, «acordar colectivamente… que la tasa de crecimiento de la capacidad de IA en la frontera se limite a una cierta tasa por año», dijeron.

«Creemos que las personas de todo el mundo deberían decidir democráticamente sobre la límites y valores predeterminados para los sistemas de IA», agregaron, aunque admitieron que «aún no sabemos cómo diseñar un mecanismo de este tipo».

Cat Zakrzewski, Cristiano Lima y Will Oremus contribuyeron a este despacho.

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Recent Posts

  • Noticias de Madeleine McCann: última actualización sobre el suelo encontrado en el embalse probado contra la camioneta de Christian Brueckner
  • Almond Vosotros, TNT continuó el éxito 3×3 con el puesto de la final mundial de Serbia
  • No, ¿’ESTO ES EL PAÍS DE MAGA’? La historia del ‘ataque transfóbico’ de Elliot Page activa hilarantemente los detectores de BS – twitchy.com
  • openai: OpenAI no tiene planes de salir a bolsa, dice Sam Altman
  • La diputada Margaret Ferrier suspendida por incumplimiento del bloqueo, pero algunos conservadores intentan salvar su pellejo – POLITICO

Recent Comments

No hay comentarios que mostrar.

Archives

  • junio 2023
  • mayo 2023
  • abril 2023

Categories

  • ARTE Y CULTURA
  • DEPORTES
  • ECONOMÍA
  • ENTRETENIMIENTO
  • EUROPA
  • MUNDO
  • POLÍTICA
  • REGIÓN
  • SALUD
  • TECNOLOGÍA

Páginas

  • About
  • Privacy Policy
©2023 MEDIA PILOT | Design: Newspaperly WordPress Theme