Posté(e) il y a 21 heures21 h Les sources Qwen3-TTS: https://github.com/QwenLM/Qwen3-TTSJe suis sous Debian 13 TrixieSur un portable Intel (Core-i3 6100U)Méthode:Créer un répertoire, un venv et l'activermkdir ~/Projets/Qwen3 && cd ~/Projets/Qwen3python -m venv .source ./bin/activateInstaller les dépendances pour les exemples Qwen, mais en remplaçant torch et tensorflow par la version CPUpip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpupip uninstall -y tensorflow && pip install tensorflow-cpupip install -U qwen-ttsNE PAS INSTALLER flash_attn!Adapter les exemples qui sont liés à une device "cuda:0" et à flash_attn. Replace bfloat16 par float peut aider.Dans les codes sources proposés par Alibaba, remplacer:device_map="cuda:0" par device_map="cpu"dtype=torch.bfloat16 par dtype=torch.float (perfs x2 :) )supprimer attn_implementationExemple:AVANTmodel = Qwen3TTSModel.from_pretrained("Qwen/Qwen3-TTS-12Hz-0.6B-Base",device_map="cuda:0", dtype=torch.bfloat16,attn_implementation="flash_attention_2",)APRESmodel = Qwen3TTSModel.from_pretrained("Qwen/Qwen3-TTS-12Hz-0.6B-Base",device_map="cpu", dtype=torch.float, # attn_implementation="flash_attention_2",)Il y aura un petit avertissement certainement concernant AVX2/FMA, pour le faire sauter il faudra recompiler tensorflow avec le support de ces instructions,
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.