vllm多进程报错
2025年7月4日
15:58
如果直接运行python test.py时报vllm的多进程错误,可能是vllm版本和torch版本的问题。
如果vllm版本是0.9.1,pip install vllm时,会自动安装兼容的torch版本2.7.0,但是会报多进程错。换下面的版本就好了
pip install vllm==0.8.5
pip install logits-processor-zoo==0.1.10
pip install triton==3.2.0
pip install torch==2.6.0 torchvision==0.21.0 --index-url https://download.pytorch.org/whl/cu124
好像不是版本的问题。
加上if __name__ == '__main__':就好了>
已使用 OneNote 创建。