vllm安装踩坑
蒸土豆的技术细节 2024-09-18 17:01:11 阅读 80
今天是2024/7/18.
vllm0.5.2最近一周出了个不好搞的新issue,会遇到torch.ops._C没有rms_norm,或者没有reshape_and_cache_flash这两个属性的问题。
完整报错如下:
AttributeError: ‘_OpNamespace’ ‘_C_cache_ops’ object has no attribute ‘reshape_and_cache_flash’
AttributeError: ‘_OpNamespace’ ‘_C’ object has no attribute ‘rms_norm’
rms_norm issue链接
reshape_and_cache_flash issue链接
————————————————————
我没找到好的解决办法,issue里说的情况都是在用源码安装后遇到的,我直接在干净环境ubuntu20.24 cuda12.2下面pip安装,仍然遇到了问题。而且问题指向是torch里的class缺少属性,因此我猜测是torch的问题,vllm的每个版本又强制要求某个torch版本,因此我只能选择之前的vllm版本。
出错的安装环境:
torch2.3.1, vllm0.5.2
我回退了几个版本,用了pip install vllm0.4.0,它默认使用torch2.1.2,然后就不报错了。(如果不知道vllm有哪些版本,可以这样:pip install vllm3516356 随便打个数字,pip会报错说没有这个版本,然后告诉你可选择的所有版本)
下面是vllm官网quickstart里的例子,可用于测试vllm是否工作。
<code>from vllm import LLM, SamplingParams
prompts = [
"Hello, my name is",
"The president of the United States is",
"The capital of France is",
"The future of AI is",
]
sampling_params = SamplingParams(temperature=0.8, top_p=0.95)
llm = LLM(model="facebook/opt-125m")code>
outputs = llm.generate(prompts, sampling_params)
# Print the outputs.
for output in outputs:
prompt = output.prompt
generated_text = output.outputs[0].text
print(f"Prompt: { prompt!r}, Generated text: { generated_text!r}")
~
~
——————————————————————
其他的错误
有些人虽然正常运行了,但是能看见warning: 没有flash attention。
你安装pip install flash-attn,运气不好又遇到这个:
ImportError: cannot import name ‘packaging’ from ‘pkg_resources’
原因是setuptools太新了,回退到pip install setuptools==69.5.1 --no-cache-dir就可以了。
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。