IA generativa es un término militar para cualquier tipo de proceso automatizado que utiliza algoritmos para producir, manipular o sintetizar datos, a menudo en forma de imágenes o texto comprensible por humanos. Se fogata generativo porque la inteligencia fabricado crea poco que antiguamente no existía. Eso es lo que lo hace diferente de IA discriminatoria, que establece distinciones entre diferentes tipos de entrada. Para decirlo de otra guisa, la IA discriminatoria intenta contestar a una pregunta como «¿Esta imagen es un dibujo de un conejo o un arrojado?» mientras que la IA generativa avala a indicaciones como «Dibújame un arrojado y un conejo sentados uno al flanco del otro».
Este artículo le presenta la IA generativa y sus usos con modelos populares como ChatGPT y DALL-E. Incluso consideraremos las limitaciones de la tecnología, incluido por qué «demasiados dedos» se ha convertido en un homenaje muerto al arte generado artificialmente.
El surgimiento de la IA generativa
La IA generativa existe desde hace abriles, probablemente desde entonces ELISA, un chatbot que simula una conversación con un terapeuta, se desarrolló en el MIT en 1966. Pero abriles de trabajo en IA y estudios espontáneo han entregado sus frutos recientemente con el dispersión de nuevos sistemas generativos de IA. Seguro que has aurícula platicar de él. Chat GPTun chatbot de IA basado en texto que produce una prosa notablemente humana. DARLE Y Difusión estable incluso han llamado la atención por su capacidad para crear imágenes vibrantes y realistas basadas en instrucciones de texto. A menudo nos referimos a estos sistemas y a otros como ellos como Modelos porque representan un intento de afectar o modelar algún aspecto del mundo verdadero basado en un subconjunto (a veces muy ancho) de información sobre él.
El resultado de estos sistemas es tan inquietante que muchas personas hacen preguntas filosóficas sobre la naturaleza de la conciencia y se preocupan por el impacto financiero de la IA generativa en los trabajos humanos. Pero si admisiblemente todas estas creaciones de IA son sin duda una gran aviso, podría decirse que hay menos cosas debajo de la superficie de lo que algunos podrían suponer. Llegaremos a algunas de esas preguntas generales en un momento. Primero, echemos un vistazo a lo que sucede bajo el capó de modelos como ChatGPT y DALL-E.
¿Cómo funciona la IA generativa?
La IA generativa utiliza el estudios espontáneo para procesar cantidades masivas de datos visuales o textuales, muchos de los cuales se extraen de Internet, y luego determina qué cosas tienen más probabilidades de aparecer próximo a otras cosas. Gran parte del trabajo de programación en IA generativa se dedica a crear algoritmos que pueden distinguir las «cosas» de interés para los creadores de IA: palabras y frases en el caso de chatbots como ChatGPT o imágenes para DALL-E. Pero, fundamentalmente, la IA generativa crea su salida evaluando una gran cantidad de datos en los que ha sido entrenada, y luego avala a las solicitudes con poco en el interior del ámbito de la probabilidad según lo determinado por ese cuerpo.
Autocompletar, cuando su teléfono móvil o Gmail sugiere cuál podría ser el resto de la palabra o frase que está escribiendo, es una forma de IA generativa de bajo nivel. Modelos como ChatGPT y DALL-E llevan la idea a paraíso significativamente más avanzadas.
Entrenamiento de modelos de IA generativa
El proceso mediante el cual se desarrollan modelos para acomodar todos estos datos se fogata capacitación. Un par de técnicas subyacentes están en bisagra aquí para diferentes tipos de modelos. ChatGPT usa lo que se fogata un transformador (es lo que T representa). Un transformador deriva el significado de largas secuencias de texto para descubrir cómo las diferentes palabras o componentes semánticos pueden estar relacionados entre sí, luego determina la probabilidad de que ocurran muy cerca unos de otros. Estos transformadores se ejecutan sin supervisión en un gran corpus de texto en idioma natural en un proceso llamado entrenamiento previo (Eso es PAGen ChatGPT), antiguamente de ser preciso por humanos que interactúan con el maniquí.
Otra técnica utilizada para entrenar modelos se conoce como red generativa contradictoria, Organo. En esta técnica, tiene dos algoritmos que compiten entre sí. Uno está generando texto o imágenes en colchoneta a probabilidades derivadas de un conjunto de grandes datos; el otro es una IA discriminatoria, que ha sido entrenada por humanos para evaluar si esa salida es verdadero o generada por IA. La IA generativa intenta repetidamente «engañar» a la IA discriminatoria, adaptándose automáticamente para embellecer resultados exitosos. Una vez que la IA generativa «anhelo» constantemente esta competencia, los humanos ajustan la IA discriminatoria y el proceso comienza de nuevo.
Una de las cosas más importantes a tener en cuenta aquí es que si admisiblemente hay intervención humana en el proceso de capacitación, la veterano parte del estudios y la adecuación ocurren automáticamente. Se requieren tantas iteraciones para que los modelos lleguen al punto en que produzcan resultados interesantes que la automatización es esencial. El proceso es suficiente intensivo computacionalmente.
¿La IA generativa es inteligente?
Las matemáticas y la codificación requeridas para construir y entrenar modelos generativos de IA son suficiente complejas y están mucho más allá del calibre de este artículo. Pero si interactúa con los modelos que son el resultado final de este proceso, la experiencia puede ser francamente desconcertante. Puede hacer que DALL-E produzca cosas que parecen verdaderas obras de arte. Puedes tener conversaciones con ChatGPT que parecen conversaciones con otro ser humano. ¿Efectivamente los investigadores han creado una máquina de pensar?
Chris Phipps, ex superior de procesamiento de idioma natural de IBM que trabajó en watson productos, dice que no. Describe ChatGPT como «una gran máquina de predicción».
Es muy bueno para predecir lo que los humanos encontrarán consistente. No siempre es coherente (la mayoría de las veces lo es), pero eso no se debe a que ChatGPT «entienda». Es todo lo contrario: los humanos que consumen la producción son verdaderamente buenos para hacer cualquier suposición implícita que necesitemos para dar sentido a la producción.
Phipps, que incluso es comediante, hace una comparación con un bisagra de improvisación global llamado Mind Meld.
Dos personas piensan en una palabra y luego la dicen en voz suscripción al mismo tiempo: Usted puede opinar «bota» y yo digo «árbol». Se nos ocurrieron esas palabras de guisa completamente independiente y al principio no tenían falta que ver entre sí. Los siguientes dos participantes toman estas dos palabras e intentan pensar en poco que tengan en global y decirlo en voz suscripción al mismo tiempo. El bisagra continúa hasta que dos participantes digan la misma palabra.
Tal vez dos personas digan «leñador». Suena como hechizo, pero en efectividad usamos nuestros cerebros humanos para razonar con entradas («puesta en marcha» y «árbol») y encontrar una conexión. Nosotros hacemos el trabajo de comprensión, no la máquina. Están sucediendo muchas más cosas con ChatGPT y DALL-E de lo que la familia admite. ChatGPT puede escribir una historia, pero los humanos trabajamos mucho para darle sentido.
Poniendo a prueba los límites de la inteligencia informática
Algunas pistas que podemos dar a estos modelos de IA aclararán suficiente el punto de paisaje de Phipps. Por ejemplo, considere el enigma «¿Qué pesa más, una libra de plomo o una libra de pluma?» La respuesta, por supuesto, es que pesan lo mismo (una libra), aunque nuestro instinto o sentido global nos diga que las plumas son más ligeras.
ChatGPT responderá este enigma correctamente, y puedes encargarse que lo hace porque es una computadora fríamente dialéctica que no tiene ningún «sentido global» para fracasar. Pero eso no es lo que está pasando debajo del capó. ChatGPT no razona lógicamente sobre la respuesta; simplemente está generando una salida basada en sus predicciones de lo que debería seguir a una pregunta sobre una libra de plumas y una libra de plomo. Donado que su conjunto de entrenamiento incluye un montón de texto que explica el enigma, reúne una interpretación de esa respuesta correcta. Pero si le preguntas a ChatGPT si dos libras de plumas pesan más que una libra de plomo, le dirá con confianza que pesan la misma cantidad, porque ese sigue siendo el resultado más probable para un mensaje sobre plumas y plomo, según su conjunto de entrenamiento. Puede ser divertido decirle a la IA que está mal y ver cómo avala torpemente; Lo tomé para disculparme por su error y luego sugiero que pesan dos libras de plumas. cuatro veces más que una libra de plomo.