El día de hoy Apple anunció su apoyo al proyecto StableDiffusion. Esto incluye actualizaciones en la beta 4 de macOS 13.1 y en la beta 4 de iOS 16.2 que acaban de ser publicadas para mejorar el rendimiento al ejecutar estos modelos en los chips de Apple Silicon.
Este anuncio es el mayor respaldo oficial que Apple ha mostrado a la reciente aparición de generadores de imágenes de inteligencia artificial (IA).
A modo de recapitulación, las técnicas de generación de imágenes basadas en el aprendizaje automático saltaron a la fama gracias a los resultados del modelo DALL-E. Estos generadores de imágenes de IA aceptan una cadena de texto como indicación e intentan crear una imagen de lo que se pide.
Una variante llamada StableDiffusion se lanzó en agosto de 2022 y ya ha visto una gran inversión de la comunidad.
Debido a las nuevas optimizaciones de hardware en las versiones del sistema operativo de Apple, los modelos Core ML StableDiffusion aprovechan al máximo el motor neuronal y las arquitecturas de GPU de Apple que se encuentran en los chips de la serie M.
Esto conduce a unos generadores impresionantemente rápidos. Apple afirma que un MacBook Air M2 básico puede generar una imagen utilizando un modelo StableDiffusion de 50 iteraciones en menos de 18 segundos. Incluso un iPad Pro M1 podría realizar la misma tarea en menos de 30 segundos.
Apple espera que este trabajo anime a los desarrolladores a integrar StableDiffusion en sus aplicaciones para que se ejecuten en el cliente, en lugar de depender de los servicios en la nube. A diferencia de las implementaciones en la nube, la ejecución en el dispositivo es "gratuita" y preserva la privacidad