Este jueves 24 de noviembre, amanecimos con una noticia que nos sorprendió a todos: Stable Diffusion, el proyecto Open Source de inteligencia artificial que revolucionó el mundo de la generación de imágenes, ha dado el gran salto y ha presentado su versión 2. Esta promete tener un mejor resultado y muchos otros beneficios que muy pronto llegarán a diferentes proyectos. Conoce el poder de la inteligencia artificial a través de Stable Diffusion v2.

No cabe duda que Stable Diffusion ha tenido una masiva adopción, pues al ser open source puede ser utilizado como base para crear proyectos cada vez más robustos y potentes. Además es uno de los programas que más rápido alcanzó las 10.000 estrellas en Github, con 33.000 estrellas en menos de dos meses. Esto evidencia un crecimiento exponencial.

Mejoras de Stable Diffusion V2

Calidad de imágenes

Stable Diffusion version 2 va tener una mejora sustancial en cuanto la calidad de las imágenes, para el entrenamiento de las imágenes entrenadas utilizarán un nuevo codificador de texto (OpenCLIP) desarrollado por LAION con el apoyo de Stability AI. 

Tambien anunciaron que Stable Diffusion ha mejorado la filtración de imágenes NSFW, por lo que será más difícil que aparezcan imágenes explícitas. Esto pondrá a muchos usuarios descontentos.

stable diffusion v2 img

Tamaño de las imágenes – Upscaler

Ahora los modelos de generación de texto a imagen de esta nueva versión pueden obtener imágenes con resoluciones predeterminadas de 512×512 píxeles y 768×768 píxeles. Si pensabas que esta resolución era muy pequeña, este nuevo Stable Diffusion tendrá un Upscaler que permitirá que las incluso podrían llegar a resoluciones de 2048×2048, o incluso superiores. 

upscaler stable diffusion v2

Depth2img

También anunciaron una nueva herramienta llamada depth2img que permitirá entender la profundidad de las imágenes para generar nuevas creaciones relacionadas, obviamente manteniendo la estructura y de la forma general. Así podemos agregar objetos o hacer cambios creativos con coherencia.

stable diffusion v2

Inpaiting Diffusion

Stable Diffusion 2 ha actualizado el modo Inpainting Diffusion. Esto facilitará el cambio de partes de una imagen de forma inteligente y rápida. 

El equipo de Stable Diffusion indican que al igual que en la primera versión han trabajado para optimizar el proceso, para que que funcione con una sola GPU, esto permitirá masificar su tecnología y su uso para otros proyectos.

inpainting stable diffusion v2

Prueba Stable Diffusion v2

Actualmente puedes revisar el github y analizar toda la información que están agregando, date cuenta que es lo mismo que han indicado en el blog. Debemos estar atentos de su lanzamiento masivo para que podamos usarlo en colab, en diferentes GUI y por supuesto en dream studio. 

Lo que si podemos probar por el momento es su demo en hugging face, que por el momento está muy difícil de acceder porque muchas personas están utilizando el servicio. Felizmente logré tener acceso a ciertas pruebas y escribí un prompt que te dan de ejemplo, el proceso toma su tiempo porque va generar 4 imágenes.

stable diffusion v2

Probemos con otro ejemplo: el típico astronauta que monta un caballo ¿que te parece? Las imágenes que se generan están sorprendiendo a los usuarios de internet. Cuando salga el API de stable diffusion 2 definitivamente les mostraré un video al respecto. No te pierdas nuestro contenido sobre inteligencia artificial

stable diffusion v2 ejemplo emiliusvgs

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.