January 27Jan 27 Les sources Qwen3-TTS: https://github.com/QwenLM/Qwen3-TTSJe suis sous Debian 13 TrixieSur un portable Intel (Core-i3 6100U)Méthode:Créer un répertoire, un venv et l'activermkdir ~/Projets/Qwen3 && cd ~/Projets/Qwen3python -m venv .source ./bin/activateInstaller les dépendances pour les exemples Qwen, mais en remplaçant torch et tensorflow par la version CPUpip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpupip uninstall -y tensorflow && pip install tensorflow-cpupip install -U qwen-ttsNE PAS INSTALLER flash_attn!Adapter les exemples qui sont liés à une device "cuda:0" et à flash_attn. Replace bfloat16 par float peut aider.Dans les codes sources proposés par Alibaba, remplacer:device_map="cuda:0" par device_map="cpu"dtype=torch.bfloat16 par dtype=torch.float (perfs x2 :) )supprimer attn_implementationExemple:AVANTmodel = Qwen3TTSModel.from_pretrained("Qwen/Qwen3-TTS-12Hz-0.6B-Base",device_map="cuda:0", dtype=torch.bfloat16,attn_implementation="flash_attention_2",)APRESmodel = Qwen3TTSModel.from_pretrained("Qwen/Qwen3-TTS-12Hz-0.6B-Base",device_map="cpu", dtype=torch.float, # attn_implementation="flash_attention_2",)Il y aura un petit avertissement certainement concernant AVX2/FMA, pour le faire sauter il faudra recompiler tensorflow avec le support de ces instructions,
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.