Skip to content
BULLETINS PRO
Menu
  • Home
  • Mundo
  • Deportes
  • Salud
  • Tecnología
  • Política
  • Región
  • Europa
  • Economía
  • Arte y cultura
  • Entretenimiento
Menu

¿Cuál es el futuro paso en la investigación del maniquí de habla excelso (LLM)? Esto es lo que viene del lucio de ML

Posted on marzo 18, 2023 by admin

Hay mucho entusiasmo en torno a las posibles aplicaciones de los grandes modelos de habla (LLM). Ya estamos viendo que los LLM se utilizan en una variedad de aplicaciones, incluida la redacción de correos electrónicos y la vivientes de código de software.

Pero a medida que crece el interés en los LLM, además crece la preocupación por sus limitaciones; esto puede dificultar su uso en muchas aplicaciones. Algunos de estos incluyen desbarrar hechos falsos, fracasar en tareas que requieren sentido global y consumir grandes cantidades de energía.

Estas son algunas de las áreas de investigación que pueden ayudar a chocar estos problemas y hacer que los LLM estén disponibles para más dominios en el futuro.

Recuperación del conocimiento

Uno de los problemas secreto con LLM como Chat GPT y GPT-3 es su tendencia a «desbarrar». Estos modelos están entrenados para crear texto plausible, no basado en hechos reales. Es por eso que pueden inventar cosas que nunca sucedieron. Desde el emanación de ChatGPT, muchos usuarios han señalado cómo se puede impulsar el maniquí para crear texto que parece convincente pero que en verdad es incorrecto.

Un método que puede ayudar a resolver este problema es una clase de técnicas conocidas como «recuperación del conocimiento». La idea básica detrás de la recuperación de conocimiento es proporcionar al LLM un contexto adicional de una fuente de conocimiento externa como Wikipedia o una colchoneta de conocimiento específica del dominio.

Google introdujo «Pre-entrenamiento del maniquí de habla con anciano recuperación» (REINO) en 2020. Cuando un agraciado proporciona un mensaje al maniquí, un módulo de «recuperador neuronal» usa el mensaje para recuperar documentos relevantes de un cuerpo de conocimiento. Los documentos y el aviso diferente luego se pasan al LLM, que genera el resultado final en el contexto de los documentos de conocimiento.

El trabajo de recuperación de conocimientos sigue progresando. Recientemente, Laboratorios AI21 presentó ‘modelado de habla aumentado para la recuperación en contexto’, una técnica que simplifica la implementación de la recuperación del conocimiento en varios LLM de código despejado y de caja negra.

Incluso puede ver la recuperación de conocimientos en funcionamiento en You.com y la interpretación de ChatGPT utilizada en Bing. Al admitir el aviso, LLM primero crea una consulta de búsqueda, luego recupera los documentos y genera su salida usando esas fuentes. Incluso proporciona enlaces a fuentes, que son muy enseres para corroborar la información que produce el maniquí. La recuperación del conocimiento no es una posibilidad perfecta y sigue cometiendo errores. Pero parece ser un paso en la dirección correcta.

Mejores técnicas de ingeniería oportuna

A pesar de sus impresionantes resultados, los LLM no entender el idioma y el mundo, al menos no en la forma en que lo hacen los humanos. Por lo tanto, siempre habrá casos en los que se comportarán de guisa inesperada y cometerán errores que parecerán estúpidos para los humanos.

Una forma de chocar este desafío es la «ingeniería de avisos», un conjunto de técnicas para crear avisos que guían a los LLM para producir resultados más confiables. Algunos métodos de ingeniería de avisos implican la creación de ejemplos de «educación en unos pocos trazos», en los que antepone al aviso algunos ejemplos similares y el resultado deseado. El maniquí usa estos ejemplos como guías cuando produce su salida. Al crear conjuntos de datos de solo unos pocos ejemplos, las empresas pueden mejorar el rendimiento de los LLM sin condición de retornar a capacitarlos o refinarlos.

Otra tangente de trabajo interesante es la ‘sugerencia de esclavitud de pensamiento (COT)’, una serie de técnicas de ingeniería rápida que permiten que el maniquí produzca no solo una respuesta, sino además los pasos que utiliza para lograrla. El aviso de CoT es especialmente útil para aplicaciones que requieren razonamiento deductivo o cálculo paso a paso.

Existen varios métodos CoT, incluido un técnica en unos pocos trazos que precede al aviso con algunos ejemplos de soluciones paso a paso. Otro método, CoT en patada cero, usa una frase desencadenante para afectar al LLM a producir los pasos que logra. Y una nueva técnica citación «fiel esclavitud de pensamiento razonamiento” utiliza múltiples pasos y herramientas para respaldar que el resultado del LLM refleje con precisión los pasos utilizados para alcanzar los resultados.

El razonamiento y la deducción se encuentran entre los desafíos secreto del educación profundo que pueden requerir nuevas arquitecturas y enfoques para la IA. Pero por ahora, mejores técnicas de sugerencias pueden ayudar a compendiar los errores lógicos cometidos por los LLM y ayudar a corregir sus errores.

Técnicas de vinculación y afinación

El ajuste fino de los LLM con conjuntos de datos específicos de la aplicación mejorará su solidez y rendimiento en esos dominios. El ajuste fino es particularmente útil cuando un LLM como GPT-3 se implementa en un dominio especializado donde un maniquí genérico tendría un desempeño deficiente.

Las nuevas técnicas de ajuste pueden mejorar aún más la precisión de los modelos. Junto a destacar el «educación de refuerzo a partir de la feedback humana» (RLHF), la técnica utilizada para entrenar ChatGPT. En RLHF, los anotadores humanos votan las respuestas de un LLM previamente capacitado. Luego, sus comentarios se utilizan para entrenar un sistema de recompensas que refina aún más el LLM para alinearse mejor con las intenciones del agraciado. RLHF funcionó muy acertadamente para ChatGPT, por lo que es mucho mejor que sus predecesores para seguir las instrucciones del agraciado.

El futuro paso para el campo será que OpenAI, Microsoft y otros proveedores de plataformas LLM creen herramientas que permitan a las empresas construir sus propias canalizaciones RLHF y personalizar modelos para sus aplicaciones.

LLM optimizados

Uno de los grandes problemas de los LLM es su costo prohibitivo. Capacitar y ejecutar un maniquí del tamaño de GPT-3 y ChatGPT puede ser tan costoso que no están disponibles para ciertas empresas y aplicaciones.

Hay varios esfuerzos para compendiar el costo de los LLM. Algunos de ellos se centran en crear hardware más valioso, como procesadores especiales de IA diseñados para LLM.

Otra dirección interesante es el crecimiento de nuevos LLM que pueden igualar el rendimiento de modelos más grandes con menos parámetros. un ejemplo es Cieno, una comunidad de LLM pequeños y de suspensión rendimiento desarrollados por Facebook. Los modelos LLaMa son accesibles para laboratorios de investigación y organizaciones que carecen de la infraestructura para ejecutar modelos muy grandes.

Según Facebook, la interpretación de 13 000 millones de parámetros de LLaMa supera a la interpretación de 175 000 millones de parámetros de GPT-3 en los principales puntos de remisión, y la cambio de 65 000 millones de parámetros iguala el rendimiento de los modelos más grandes, incluido el de 540 000 millones de parámetros. Palmera.

Si acertadamente los LLM tienen muchos más desafíos que aventajar, será interesante cómo estos desarrollos contribuyen a hacerlos más confiables y accesibles para la comunidad de desarrolladores e investigadores.

La cometido de VentureBeat debe ser una plaza de la ciudad digital para que los tomadores de decisiones técnicas obtengan información sobre la tecnología y las transacciones comerciales transformadoras. Descubre nuestras sesiones informativas.

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MENSAJES RECIENTES

  • ChatGPT está DESHABILITADO: el chatbot de IA se bloquea para los usuarios de todo el mundo
  • El organismo de control anticorrupción de China comienza a investigar al expresidente de Tsinghua Unigroup, Zhao Weiguo, el final ejecutor atrapado en su red de corrupción de chips (Bloomberg)
  • Perspectiva actualizada de los Patriots: TE Mike Gesicki entintado
  • ¿Dónde de España han subido más los alquileres en el zaguero año?
  • American Bukele: Lo que podemos asimilar de El Salvador

COMENTARIOS RECIENTES

No hay comentarios que mostrar.

ARCHIVO

  • marzo 2023
  • febrero 2023
  • enero 2023
  • diciembre 2022
  • noviembre 2022

CATEGORIAS

  • Arte y cultura
  • Deportes
  • Economía
  • Entretenimiento
  • Europa
  • Mundo
  • Política
  • Región
  • Salud
  • Tecnología
  • Uncategorized

Páginas

  • About
  • Privacy Policy
©2023 BULLETINS PRO | Design: Newspaperly WordPress Theme