2 votos

Diferencia entre Apple Pro M2, M2 y M1 utilizando Difusión Estable

Estoy comparando Stable Diffusion en MacBook Pro M2, MacBook Air M2 y MacBook Air M1.

Mi suposición es que el proyecto ml-stable-diffusion puede utilizar solo núcleos de CPU para convertir un Modelo de Difusión Estable de PyTorch a Core ML.

Probé la velocidad de conversión en macOS 14, al convertir DreamShaper XL1.0, la velocidad es M1 > M2 > Pro M2... M1 es la más rápida.

Luego probé Realistic XL, la velocidad de conversión es M1 > Pro M2 > M2.

M1 sigue siendo el ganador.

Creo que esto no tiene sentido debido a que Apple informa que la velocidad debería estar ordenada de más rápida a más lenta como M2 Pro > M2 > M1.

¿Alguien sabe cómo puedo entender esto y quizás obtener mejores velocidades de los chips M2 y Pro?

(Actualizado 24/10/2023) Probé dos veces el modelo "DreamShaper XL1.0" en estos 3 dispositivos, todos tienen 16GB de RAM. El resultado de la prueba es como se muestra en la tabla. El Pro M2 es dos veces más rápido que la última vez que probé (la última vez fue alrededor de 16XXX segundos).

Entonces, según la tabla, la velocidad de conversión es M1 > Pro M2 > M2. La única diferencia es al convertir el unet.

Tabla de referencia de tiempo de conversión

0voto

timyau Puntos 121

Encontré que sus efectos en la versión de Python. Python 3.9.6 en M2 Pro frente a Python 3.11.5 en M1, M1 ejecutará la conversión más rápido que M2 Pro.

Si están en la misma versión de Python, su velocidad será M1 < M2 < M2 Pro.

AppleAyuda.com

AppleAyuda es una comunidad de usuarios de los productos de Apple en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X