vllm多进程报错

202574

15:58

如果直接运行python test.py时报vllm的多进程错误,可能是vllm版本和torch版本的问题。

如果vllm版本是0.9.1pip install vllm时,会自动安装兼容的torch版本2.7.0,但是会报多进程错。换下面的版本就好了

pip install vllm==0.8.5

pip install logits-processor-zoo==0.1.10

pip install triton==3.2.0

pip install torch==2.6.0 torchvision==0.21.0 --index-url https://download.pytorch.org/whl/cu124

好像不是版本的问题。

加上if __name__ == '__main__':就好了>

 

已使用 OneNote 创建。