Edward Oliva/Getty Images
ChatGPT podría ser el más reconocido y potencialmente valioso, operación del momento, pero las técnicas de inteligencia fabricado que utiliza OpenAI para proporcionar su inteligencia no son únicas ni secretas. Los proyectos de la competencia y los clones de código amplio pronto pueden hacer que los bots de estilo ChatGPT estén disponibles para que cualquiera pueda copiarlos y reutilizarlos.
Estabilidad IA, una startup que ya ha desarrollado y puesto a disposición tecnología descubierta de imágenes, está trabajando en un competidor amplio de ChatGPT. “Estamos a solo unos meses del propagación”, dice Emad Mostaque, CEO de Stability. Una serie de nuevas empresas competidoras, incluidas antrópico, CoherenteY AI21están trabajando en chatbots propietarios similares al bot OpenAI.
La inminente avalancha de chatbots sofisticados hará que la tecnología sea más rico y visible para los consumidores, así como más accesible para las empresas, los desarrolladores y los investigadores de IA. Esto podría acelerar la prisa por cobrar plata con herramientas de inteligencia fabricado que generan imágenes, código y texto.
Empresas establecidas como Microsoft y Slack están incorporando ChatGPT en sus productosy muchas nuevas empresas están luchando para construir sobre él una nueva API de ChatGPT para desarrolladores. Pero una maduro disponibilidad de tecnología igualmente puede complicar los esfuerzos para predecir y mitigar los riesgos resultantes.
La tentadora capacidad de ChatGPT para proporcionar respuestas convincentes a una amplia escala de preguntas igualmente lo hace a veces. inventar hechos o adoptar personajes problemáticos. Puede ayudar con actividades maliciosas como la producción de código de malware o campañas de spam y desinformación.
Importantemente, algunos investigadores han pedido que se ralentice la implementación de sistemas similares a ChatGPT mientras se evalúan los riesgos. “No hay carestia de detener la investigación, pero ciertamente podríamos regular la distribución generalizada”, dice Gary Marcus, un experimentado en IA que ha estado tratando de tildar la atención sobre riesgos como la desinformación generada por IA. «Podríamos, por ejemplo, solicitar estudios sobre 100.000 personas antaño de editar estas tecnologías a 100 millones de personas».
Una disponibilidad más amplia de los sistemas de estilo ChatGPT y el propagación de versiones de código amplio harían más difícil aminorar la investigación o una distribución más amplia. Y la competencia entre empresas grandes y pequeñas para adoptar o igualar ChatGPT sugiere poco deseo de aminorar la velocidad, sino que parece incentivar la proliferación de la tecnología.
La semana pasada, LLaMA, un maniquí de IA desarrollado por Meta y similar al que está detrás de ChatGPT, se filtró en andana luego de acontecer sido compartido con algunos investigadores académicos. El sistema podría estilarse como un pedrusco de construcción para crear un chatbot e implementarlo. ha planteado preocupación entre aquellos que temen que los sistemas de inteligencia fabricado conocidos como modelos de lengua extenso y los chatbots construidos sobre ellos como ChatGPT se utilicen para suscitar desinformación o automatizar violaciones de seguridad cibernética. Algunos expertos sostienen que tales riesgos pueden ser exageradosy otros sugieren hacer la tecnología más transparente de hecho, ayudará a otros a ampararse del mal uso.