La exageración común sobre la IA no va a desaparecer pronto. Está apareciendo en casi todas las industrias, desde el servicio al cliente hasta la medicina. Sin incautación, la comprensión técnica de estas herramientas sigue siendo una conversación complicada.
Grandes modelos de idioma (LLM) no puede entender ni competir conversaciones similares a las de los humanos. Están capacitados con grandes volúmenes de datos para proporcionar una salida particular basada en la entrada específica. Pero carecen de la capacidad de comprender el significado positivo detrás de esas palabras. Cualquier respuesta generada por el LLM carecerá de una comprensión básica del contexto.
Si aceptablemente los LLM pueden producir piezas formuladas y estructuradas de prosa y poesía, estos escritos son muy poco inspirador eso es tedioso. ChatGPT de OpenAI es un LLM turbina nuevo texto posteriormente de entrenar con grandes cantidades de datos. Si aceptablemente los docentes temen que la popularidad de ChatGPT acabe con las tareas y los exámenes para admitir a casa, un examen detenido del operación de ChatGPT revela su incapacidad para producir una prosa humana inventiva e interesante. Este tipo de incompetencia plantea una pregunta fundamental sobre la utilidad de la tecnología para resolver problemas comerciales.
¿Miedos confusos?
Según las estadísticas, se dilación que el mercado de chatbots crezca a una CAGR del 23,5 %, alcanzando los 10 600 millones para 2026.
ChatGPT es la popular IA generativa, no el primer chatbot impulsado por IA. Está compitiendo en un mercado empachado de bots en diferentes idiomas. Sin incautación, la fresco traducción gratuita de ChatGPT ha reses más impulso posteriormente de aventajar 1 millón de usuarios en solo una semana. ChatGPT depende de una gran cantidad de personas que manejan grandes volúmenes de datos para la clasificación, etiquetado, etiquetado y anotación de datos para mejorar sus capacidades. Hay algunas especulaciones deterministas de que ChatGPT podría reemplazar al motor de búsqueda de Google.
Sin incautación, la probabilidad de inexactitudes en las respuestas de ChatGPT obliga a los usuarios a verificarlas utilizando fuentes externas. Dicha demostración puede ser más complicada, ya que ChatGPT proporciona respuestas concretas sin ningún vínculo a las fuentes (a diferencia de Google) ni indica su propio nivel de confianza. Por lo tanto, los temores y las especulaciones sobre el reemplazo de Google pueden ser un poco confusos.
Defectos de ChatGPT
Como se discutió anteriormente, ChatGPT puede escribir prosa y poesía, replicar preguntas sofisticadas y entablar una conversación, pero seguro deficiencias no se puede ocurrir por detención. Algunos de ellos incluyen lo venidero:
Respuestas incorrectas
ChatGPT es un LLM amplio que perfeccionamiento la precisión de sus respuestas a través de la capacitación continua. Sin incautación, como este LLM es suficientemente nuevo, no ha recibido suficiente capacitación. Como tal, puede dar respuestas inexactas.
Por esta razón, Stackflow ha prohibido respuestas de ChatGPT, afirmando que las respuestas de ChatGPT son malas para la comunidad y los usuarios que buscan respuestas correctas. Aunque ChatGPT tiene una inscripción tasa de crear respuestas inexactas, el chatbot asegura todas las preguntas con tanta confianza que parece que esas respuestas no solo son correctas sino todavía las mejores.
Limitaciones en los datos de entrenamiento
Como todos los demás modelos de IA, ChatGPT sufre de esto limitaciones en sus datos de entrenamiento. Las restricciones, limitaciones y sesgos en los datos de entrenamiento pueden producir resultados inexactos. Puede tener un impacto desproporcionado en los grupos minoritarios y perpetuar las representaciones estereotipadas. Para achicar estas distorsiones, es imperativo mejorar la transparencia de los datos.
Sostenibilidad
ChatGPT es un producto tirado, pero usar esta tecnología es extremadamente costoso. El costo eficaz se estima en más o menos de $ 100,000 por día o $ 3 millones por mes. Esto plantea dudas sobre su sostenibilidad a desprendido plazo. La asociación de Open AI con Microsoft podría achicar algunos costos. Pero esta operación no es ausencia ocasión.
Avances en inteligencia sintético: un camino rocoso por recorrer
Si aceptablemente muchos deterministas tecnológicos han llamado a ChatGPT «código RojoPara Google, la existencia es todo lo contrario. Las pruebas han demostrado que ChatGPT produce «malentendido sin sentido”, es asegurar, respuestas sin sentido e incoherentes que revelan que el sistema no entiende de qué está hablando. Si aceptablemente protege las respuestas ofensivas (el principal problema con otros bots de IA), lo hace usando palabras secreto y no entiende de qué se está protegiendo.
El otro problema más importante con ChatGPT es alucinaciones – mezclar cosas relacionadas que no responden correctamente a la pregunta. Básicamente, parafrasea y combina diferentes piezas de información de sus datos de entrenamiento. Puede tener alguna relación aleatoria o vaga entre esta información. Es por eso que la respuesta puede parecer plausible o veraz, pero puede estar remotamente de la existencia.
A diferencia de los chatbots tradicionales que vinculan palabras secreto con intenciones, los LLM como ChatGPT son predictores de texto. Esto significa que básicamente aprenden la relación entre textos, palabras y oraciones. Y usan estas relaciones para predecir la venidero sujeción de caracteres.
Si aceptablemente las búsquedas de Google cuestan menos de un centavo, ChatGPT es conveniente costoso (entre la compilación de datos, el trabajo manual de datos y el procesamiento masivo). Asimismo, lleva un tiempo compendiar su respuesta, mientras que las búsquedas en Google son instantáneas. Estos problemas de costo y velocidad colocan a ChatGPT detrás de Google.
La discusión aludido de LLM y ChatGPT demuestra que la exageración en torno a ChatGPT puede ser exagerada. Cuando la familia comienza a imaginar las posibilidades, se despierta mucha emoción. Sin incautación, posteriormente de un corto período de tiempo, quienes verdaderamente prueban los parámetros de estas herramientas en escenarios comerciales específicos revelan que todavía estamos muy remotamente de la gran singularidad de la IA en el firmamento.
Srini Pagidyala es cofundadora de aigo.ai.
Tomadores de decisiones de datos
¡Bienvenido a la comunidad VentureBeat!
DataDecisionMakers es donde los expertos, incluidos los ingenieros de datos, pueden compartir ideas e innovaciones relacionadas con los datos.
Si desea deletrear ideas de vanguardia e información actualizada, las mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.
Incluso puede considerar contribuyendo con un artículo ¡tuyo!