Estoy comparando Stable Diffusion en MacBook Pro M2, MacBook Air M2 y MacBook Air M1.
Mi suposición es que el proyecto ml-stable-diffusion puede utilizar solo núcleos de CPU para convertir un Modelo de Difusión Estable de PyTorch a Core ML.
Probé la velocidad de conversión en macOS 14, al convertir DreamShaper XL1.0, la velocidad es M1 > M2 > Pro M2... M1 es la más rápida.
Luego probé Realistic XL, la velocidad de conversión es M1 > Pro M2 > M2.
M1 sigue siendo el ganador.
Creo que esto no tiene sentido debido a que Apple informa que la velocidad debería estar ordenada de más rápida a más lenta como M2 Pro > M2 > M1.
¿Alguien sabe cómo puedo entender esto y quizás obtener mejores velocidades de los chips M2 y Pro?
(Actualizado 24/10/2023) Probé dos veces el modelo "DreamShaper XL1.0" en estos 3 dispositivos, todos tienen 16GB de RAM. El resultado de la prueba es como se muestra en la tabla. El Pro M2 es dos veces más rápido que la última vez que probé (la última vez fue alrededor de 16XXX segundos).
Entonces, según la tabla, la velocidad de conversión es M1 > Pro M2 > M2. La única diferencia es al convertir el unet.