La IA ‘Make-A-Scene’ de Meta combina la imaginación humana y la computadora en el arte algorítmico

La creación de texto a imagen es el proceso algorítmico candente en este momento, con Craiyon de OpenAI (anteriormente DALL-E mini) y Image AI de Google desatando oleadas de arte maravillosamente extraño creado en un procedimiento sintetizado a partir de la imaginación humana y de la computadora. El martes, Meta reveló que también ha desarrollado un motor para crear imágenes de inteligencia artificial, uno que espera ayude a construir mundos inmersivos en Metaverse y crear arte digital de alta calidad.

Mucho trabajo en la creación de una imagen basada únicamente en la frase “hay un caballo en el hospital” cuando se usa IA generacional. Primero, la expresión misma se alimenta a través de un modelo transformador, una red neuronal que analiza las palabras de la oración y desarrolla una comprensión contextual de la relación entre ellas. Una vez que comprende la esencia de lo que el usuario está describiendo, la IA sintetizará una nueva imagen utilizando un conjunto de GAN (redes rivales creativas).

Gracias a los esfuerzos de los últimos años para entrenar modelos ML en conjuntos de imágenes de resolución en constante expansión con descripciones de texto bien seleccionadas, la IA de última generación de hoy puede crear imágenes fotorrealistas de la mayoría de las tonterías que les proporcionas. El proceso de creación específico difiere entre las IA.

un montón de tonterías

Meta IA

Por ejemplo, Image de Google utiliza un modelo de difusión, “que aprende a convertir un patrón de puntos aleatorios en imágenes”, según June. palabra clave Blog. “Estas imágenes comienzan primero en baja resolución y luego aumentan gradualmente en resolución”. Parti AI de Google, por otro lado, “primero convierte una colección de imágenes en una secuencia de entradas de código, similar a las piezas de un rompecabezas. Luego, un aterrizaje de texto determinado se traduce en estas entradas de código y se crea una nueva imagen”.

Si bien estos sistemas pueden crear casi cualquier cosa que se les describa, el usuario no tiene control sobre los aspectos específicos de la imagen de salida. “Para darse cuenta del potencial de la IA para impulsar la expresión creativa”, dijo el CEO de Meta, Mark Zuckerberg, en el blog del martes, “las personas deben poder diseñar y controlar el contenido que produce un sistema”.

“El concepto de investigación exploratoria de AI, conocido como Make-A-Scene, hace exactamente eso al combinar bocetos creados por el usuario para crear su propia imagen basada en texto, con una salida de imagen de 2048 por 2048 píxeles. Esta combinación le permite al usuario no solo describir lo que quiere en la imagen, sino también dictar la composición general de la imagen. “Demuestra cómo las personas pueden usar texto y dibujos simples para transmitir su visión de manera más específica, usando una variedad de elementos, formas, arreglos, profundidades, composiciones y estructuras”, dijo Zuckerberg.

En la prueba, un panel de evaluadores humanos eligió la gran mayoría del texto y la imagen del boceto en lugar de la imagen de solo texto por estar mejor alineados con el boceto original (99,54 por ciento de los casos) y mejor alineados con la descripción del texto original en el 66 por ciento de los casos. casos. . Para desarrollar aún más la tecnología, Meta ha compartido su demostración Make-A-Scene con destacados artistas de IA, incluidos Sofia Crespo, Scott Eaton, Alexander Raban y Rafik Anadol, quienes utilizarán el sistema y brindarán comentarios. No se sabe cuándo la IA estará disponible para el público.

Todos los productos recomendados por Te ayudo a comprar son seleccionados por nuestro equipo de editores, independientemente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

es_MX