(超详细)AI大模型部署安装,傻瓜式安装配置步骤,解决一切问题
大模型研究院 2024-10-15 11:31:01 阅读 83
尽管大模型厂商不大会收集用户调用模型API时传入的数据,但企业多少会有些不放心把某些敏感的内部数据传输到外部大模型,这势必限制了LLM在企业中的使用场景。为了避免这个安全合规“风险”,这段时间有机会在一块英伟达RTX4090 GPU显卡上做LLM模型本地化测试工作。这篇文章就简单记录一下模型本地化部署的相关内容。
测试用的GPU卡有24GB内存,我们分别做了文本生成(Text Generation),嵌入(Embedding) 和重排序(ReRanker)模型的本地部署和测试验证。采用目前比较成熟的模型本地化部署平台(Ollama,LocalAI),基本能够实现AI应用需要的全部LLM本地化,也包括 OCR 部署。
系统准备
我们用的是Ubuntu系统,系统和GPU显卡安装不是本文重点,就不介绍了。运行 nvidia-smi 工具可以看到类似如下信息说明安装成功。
Ollama
Ollama是一个基于 Go 语言开发的本地大语言模型运行框架,目前可以支持文本生成和嵌入及其他多模态LLM,但暂时不支持Reranker模型。Ollama简单易用,几乎完全借鉴了Docker的使用和管理方式,熟悉Docker的道友会感受非常亲切。
相关资源
https://ollama.com/ - Ollama 主站点
https://ollama.com/library - Ollama模型库,也支持从HuggingFace模型库下载装入
https://github.com/ollama/ollama - Ollma Github站点
https://huggingface.co/ - HuggingFace
安装Ollama
Ollama安装非常简单。我使用的是Ubuntu系统,采用Linux安装方式,
<code>curl -fsSL https://ollama.com/install.sh | sh
安装完成后,运行ollama命令验证安装成功,
ollama --help
ollama --version
ollama list / ollama ps #刚安装好Ollama,还未下载模型时,不会有模型信息
模型下载运行
Ollama模型库提供的模型,下载非常简单。先到ollama模型库上去搜索一个已有的模型,
点击模型名称进入详情页面,直接copy运行模型的命令在本地服务器上执行,Ollama会自动先下载该模型并运行。
下载完自动进入交互模式(我这里已经下载过该模型,因此直接进入交互模式了,如果是新下载模型,会看到下载过程),提个问题试试,验证模型下载运行成功。
像qwen2:72b ,llama3.1:70b 这样较大的模型也可以运行起来,GPU不够CPU来凑,Ollama会同时使用本机CPU内存分担,只是推理速度慢很多。
通过另一窗口执行 ollama ps 命令,可以看到当前正在运行的模型情况,
Ollama模型库中大部分常用的模型都是用 Q4_0 这种量化压缩级别进行模型压缩的,以节省GPU内存。模型消耗GPU的计算公式如下,
我前面示例中使用的 qwen2:72b Q4_0 压缩级别(Q 参数是 4bits) 计算GPU用量应该是,
<code>72*4B / (32/4) * 1.2 = 43.2(GB)
和 ollama ps 命令显示的SIZE一致。关于模型的量化压缩级别,如 Q4_0, Q4_K_M, Q5_1等,道友感兴趣的话可以自行搜索相关的文章进一步了解。
当用户调用模型时,Ollama会自动装入该模型到GPU内存,并默认设置5分钟空闲切出,以节省GPU资源供其他请求使用。
装入HuggingFace模型
Ollama模型库未提供某款模型时,比如我想使用qwen2-7b Instruct模型,但是在Ollama模型库没有提供,那我们只能从HuggingFace下载,再装入Ollama。这里以 qwen2-7b-instruct:q5_k_m 模型为例来说明如何操作。
Ollama可以直接装入 GGUF 格式的模型文件,因此优先选择下载这种模型文件。如果只有safetensors 格式的模型,需要先转换成 GGUF 格式,后面会介绍。在HF上搜索 “qwen2-7b-instruct",并筛选libraries标签为GGUF的模型,
进入模型的 “Files and Version” 页面,选择 q5_k_m 模型文件下载,
下载模型文件到本地服务器目录后,准备一个Modelfile,参考如下内容,
<code>FROM "./qwen2-7b-instruct-q5_k_m.gguf"
TEMPLATE "{ { if .System }}<|im_start|>system
{ { .System }}<|im_end|>
{ { end }}{ { if .Prompt }}<|im_start|>user
{ { .Prompt }}<|im_end|>
{ { end }}<|im_start|>assistant
{ { .Response }}<|im_end|>
"
PARAMETER stop <|im_start|>
PARAMETER stop <|im_end|>
PARAMETER num_ctx 16384
Modelfile的内容中有几个主要参数如下:
● FROM - 指定前面下载的模型文件路径,可以用相对路径或绝对路径;
● PARAMETER - 定义一些模型参数,比如推理终止符,上下文长度等;
● TEMPLATE - 这个很重要,通常HuggingFace的Model Card详情里面有相关信息,如果没有,则可以到 Ollama主页找相同的base模型,比如qwen2的标准模型的详情页面会提供。
如果已经下载过Ollama提供的qwen2 base模型,也可以直接通过 ollama show 命令找到相关的信息,然后复制出来。
有关Modelfile的编写格式,参数设置我目前也了解不多,道友可以自行搜索更多有用的信息。
通过以下命令来装载GGUF模型文件到Ollama
<code>ollama create qwen2-7b-instruct:q5_k_m -f Modefile
通过这个命令,Ollama会自动创建模型需要的多个Layers(跟Docker相似),成功后就和从Ollama模型库直接拉取的模型一样使用了。
如果HuggingFace上也没有GGUF类型的模型文件,那么下载safetensors文件,然后使用Ollama提供的quantize container转换成GGUF格式模型文件也ok。
<code>docker run --rm -v .:/model ollama/quantize -q q5_K_M /model
转换完成后在当前目录生成一个 f16.bin文件(原始大小的gguf格式模型文件),和一个q5\_K\_M.bin文件,这个文件就是我们需要的,可以通过前面的步骤装载进Ollama平台的GGUF格式的模型文件。
LocalAI
因为Ollama目前不支持Reranker模型,只得再引入一个支持的框架,LocalAI就是其中一款。使用LocalAI部署大模型也比较方便,它支持Reranker模型的方法实际是集成了Rerankers这个Python项目(github上可以找到这个项目)。只是相关文档偏少,学习搞懂如何使用还颇费了一番功夫。
LocalAI资源
https://localai.io/ - LocalAI 官方站点
https://github.com/mudler/LocalAI - LocalAI的Github站点
https://github.com/AnswerDotAI/rerankers - Rerankers项目的GitHub站点
部署LocalAI
LocalAI官网有较为详细的安装介绍,其中推荐的也最简单的方式就是使用Docker部署。根据本地服务器上Nvidia显卡驱动和安装的CUDA版本,选择合适的Docker镜像。LocalAI是通过给不同类型的模型提供不同的后端支持模块 - Backend -来运行不同类型的大模型提供服务。为了简单,我选用了AIO(All-In-One)类型的Docker镜像,直接预安装了全部Backend模块,包括Rerankers.
这个docker镜像比较大,是一个独立完整的LocalAI工作空间。通过Docker方式部署后,运行LocalAI官网提供的各种示例命令都需要在container环境中执行,比如用local-ai工具下载和运行大模型。
<code># 先创建一个docker volume local-ai-data2
docker run -p 8080:8080 -d --gpus all --name local-ai-2 -v local-ai-data2:/build/models -ti localai/localai:latest-aio-gpu-nvidia-cuda-12
# 如果需要拉取模型,可以进入docker环境
docker exec -ti local-ai-2 bash
Container启动时会自动运行LocalAI服务,并把服务映射到主机8080端口。之后可以通过http://localhost:8080/v1/rerank地址调用。
Rerankers介绍
Rerankers是Github上支持rerank模型本地化的一个开源项目,支持不同类型的rerank模型,比如transformer-based, API-based,RankGTP等。我理解transformer-based cross-encoder类型的模型是主流,所以后续采用的也是这种。我了解有限,建议参考github项目文档了解更全面的信息。
基于Embedding模型的向量库检索和基于RRF(倒数排序融合)等排序算法的BM25文本检索都可以提供文档相似度或相关性打分排序,为何还要使用reranker模型?前一篇文章中已有说明,这里不再赘述。
安装Reranker模型
LocalAI可以通过其Model Gallery的web portal (http://localhost:8080)安装模型。不过Gallery只提供了一个Reranker示例供安装测试,
# name 是LocalAI对外提供模型服务的模型名称
name: jina-reranker-v1-base-en
# backend 是LocalAI提供模型服务的后端模块名,必须是合法的后端模块名称
backend: rerankers
# model是真正的模型名称,LocalAI模型库中的模型名称
parameters:
model: cross-encoder
# optionally:
# type: flashrank
# diffusers:
# pipeline_type: en # to specify the english language
可以手工从LocalAI模型库下载模型,
local-ai run hermes-2-theta-llama-3-8b
# or
local-ai models install hermes-2-theta-llama-3-8b
LocalAI支持从其他模型库下载模型,比如HuggingFace,Ollama等,
# Start LocalAI with the phi-2 model
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
# Install and run a model from the Ollama OCI registry
local-ai run ollama://gemma:2b
# Run a model from a configuration file
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml
# Install and run a model from a standard OCI registry (e.g., Docker Hub)
local-ai run oci://localai/phi-2:latest
除了以上模型安装方式,还可以使用 Yaml配置文件安装方式,这也是推荐的方式。进入container的/build/modles/ 目录,创建一个yaml文件,如下内容,
name: bge-reranker-large
backend: rerankers
parameters:
model: BAAI/bge-reranker-large
重启container,就会自动从模型库下载 BAAI/bge-reranker-large模型,并通过LocalAI的rerankers后端模块运行起来,并对外提供模型名为 bge-reranker-large的排序模型服务。
通过RestAPI的方式调用该服务示例如下,
curl http://localhost:8080/v1/rerank \
-H "Content-Type: application/json" \
-d '{
"model": "bge-reranker-large",
"query": "Organic skincare products for sensitive skin",
"documents": [
"Eco-friendly kitchenware for modern homes",
"Biodegradable cleaning supplies for eco-conscious consumers",
"Organic cotton baby clothes for sensitive skin",
"Natural organic skincare range for sensitive skin",
"Tech gadgets for smart homes: 2024 edition",
"Sustainable gardening tools and compost solutions",
"Sensitive skin-friendly facial cleansers and toners",
"Organic food wraps and storage solutions",
"All-natural pet food for dogs with allergies",
"Yoga mats made from recycled materials"
],
"top_n": 3
}'
API调用需要提供模型名称,查询,文档列表和需要返回的得分最高的top_n(有些Reranker模型会给出所有文档的得分并排序输出全部文档)给到API接口;后续在Llamaindex或者Langchain中远程调用也是基于这个API接口。
调用API接口输出如下,可以在python中通过json反序列化之后以字典对象的方式使用,
LocalAI支持的reranker模型有英文,中英文和多语言的,比如前述示例中的 bge-reranker-large就是支持中英文的模型。Rerankers支持不同类型的排序模型,包括Jina cloud。之前有尝试部署 jina-reranker-v2-base-multilingual 本地模型,但发现Rerankers默认总是调用Jina Cloud模型,需要适当的定制化修改,才可以让它调用本地部署的多语言排序模型。因为bge也提供本地部署的多语言模型,改动rerankers源码使其支持本地Jina模型意义不大,这里不过多介绍。
模型远程调用
无论Ollama还是LocalAI本地化部署的大模型服务都需要考虑远程访问能力,毕竟我们不大会把所有AI应用都和本地化部署的大模型放在同一台服务器上。
通过Docker 部署的LocalAI服务,在运行时要把container的服务端口映射到主机,AI应用服务器通过该主机的主机名或IP地址访问映射端口即可访问LocalAI提供的大模型服务。
如果需要在大模型开发框架比如LlamaIndex或Langchain中调用LocalAI服务,可以直接使用框架提供的能力调用 文本生成和嵌入类型的模型服务,但是却没有找到调用Reranker服务的接口或示例。经过一点儿研究,发现可以参考JinaRerank接口,做适当修改即可(前一篇文章中copy错了代码,这里提供一下)。示例如下,
<code># LocalAI 本地化部署的URL, 例如: http://172.16.100.100:8080/v1/rerank/
API_URL = settings.RERANKER_HOST_URL
# 可以修改代码直接从传输到服务的数据中去掉也可以,简单点儿使用一个fake Key
API_KEY = "sk_test_1234567890"
dispatcher = get_dispatcher(__name__)
class LocalAIRerank(BaseNodePostprocessor):
api_url: str = Field(default=API_URL, description="The URL to call for reranking.") code>
api_key: str = Field(
default=None, description="Copied from Jina class. Will be ignored here." code>
)
model: str = Field(
default=RerankLocalModels.BGE_RERANKER_LARGE,
description="The model to use when calling Local AI Reranking API", code>
)
top_n: int = Field(description="Top N nodes to return.") code>
# 这里增加一个得分阈值,可以去掉相关性得分低于阈值的文档记录,在 _postprocess_nodes 函数中用一个列表推导式进行过滤即可
score_threshold: float = Field(description="The score threshold to filter nodes") code>
_session: Any = PrivateAttr()
def __init__(
self,
top_n: int = 4,
model: str = RerankLocalModels.BGE_RERANKER_LARGE,
api_url: Optional[str] = API_URL,
api_key: Optional[str] = None,
score_threshold: float = 0.0,
):
super().__init__(top_n=top_n, model=model, score_threshold=score_threshold)
self.api_url = api_url or API_URL
self.api_key = api_key or API_KEY
self.model = model
self.score_threshold = score_threshold
self._session = requests.Session()
self._session.headers.update(
{
"Authorization": f"Bearer {self.api_key}",
"Accept-Encoding": "identity",
"Content-Type": "application/json",
}
)
# _postprocess_nodes 方法处理从LocalAI服务返回的数据,直接抄JinaRerank类的代码即可
# 全部代码较多,这里就只提供增加的得分过滤部分
def _postprocess_nodes(
self,
nodes: List[NodeWithScore],
query_bundle: Optional[QueryBundle] = None,
) -> List[NodeWithScore]:
...
new_nodes = [
node for node in new_nodes if node.score > self.score_threshold
]
new_nodes = new_nodes[: self.top_n]
...
Ollama默认通过 11434端口提供服务,比如本地访问http://localhost:11434。对于Ollama提供的文本生成或Embedding嵌入模型,Llamaindex和Langchain开发框架都提供完备的调用方法,比如Llamaindex中,
from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding
llm = Ollama(
base_url=settings.OLLAMA_HOST_URL,
model=LLMLocalModels.QWEN2_7B,
temperature=self.temperature,
)
embed_model = OllamaEmbedding(
base_url=settings.OLLAMA_HOST_URL,
model_name=EmbedLocalModels.GTE_QWEN2_1D5B,
)
这里需要说明一点儿,Ollama的Daemon服务安装到系统后,默认只允许通过localhost/127.0.0.1回环地址访问。配置远程服务能力,需要增加一个OLLAMA_HOST的环境变量,设置为0.0.0.0:11434,使主机上所有IP地址的11434端口都可以响应请求,提供服务。
另外,如果在Ollama运行的主机上用Docker方式部署了Dify或者OpenWebUI等大模型应用框架,需要连接本机部署的Ollama服务时,不能使用http://localhost:11434这个地址。因为这里localhost会被当成Dify/OpenWebUI的container自身,而不是Ollama所在的主机。因此这里需要使用http://host.docker.internal:11434,其中host.docker.internal DNS名是docker新版本好像0.22之后增加的一个特性,该特性默认在创建的container中添加本地DNS解析(/etc/hosts)并指向Docker网络的网关地址,这个网关地址在主机和container层面都是可见的,用来桥接主机和container;或者也可以在Dify/OpenWebUI的portal中直接配置Ollama所在主机的主机名或网络地址URL,比如http://<hostname/IP>:11434。
关于OCR
虽然我一直认为多模态大模型做图片图像识别是未来的必然趋势(比如gpt-4o),但现阶段大模型的使用成本和模型能力还有些局限,因此OCR技术仍然有很大的用武之地。前面有一篇文章专门介绍过百度的PaddleOCR,这里不再重复。部署时选择支持GPU的paddlepaddle框架,能使用GPU算力即可。
最近也看了一些其他基于PaddleOCR的开源项目,以解决混杂排版格式或表格的识别,比如PDF-Extract和MinerU。但目前还不成熟不稳定,以后有实际使用场景了再进行总结。
以上就是大模型本地化部署的全部了。感谢老板设法搞来这块GPU卡,让我们能够体验本地化部署的各种开源模型,你是个好人。
随着大模型的持续爆火,各行各业都在开发搭建属于自己企业的私有化大模型,那么势必会需要大量大模型人才,同时也会带来大批量的岗位?“雷军曾说过:站在风口,猪都能飞起来”可以说现在大模型就是当下风口,是一个可以改变自身的机会,就看我们能不能抓住了。
那么,我们该如何学习大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一、大模型全套的学习路线
学习大型人工智能模型,如GPT-3、BERT或任何其他先进的神经网络模型,需要系统的方法和持续的努力。既然要系统的学习大模型,那么学习路线是必不可少的,下面的这份路线能帮助你快速梳理知识,形成自己的体系。
L1级别:AI大模型时代的华丽登场
L2级别:AI大模型API应用开发工程
L3级别:大模型应用架构进阶实践
L4级别:大模型微调与私有化部署
一般掌握到第四个级别,市场上大多数岗位都是可以胜任,但要还不是天花板,天花板级别要求更加严格,对于算法和实战是非常苛刻的。建议普通人掌握到L4级别即可。
以上的AI大模型学习路线,不知道为什么发出来就有点糊,高清版可以微信扫描下方CSDN官方认证二维码免费领取【<code>保证100%免费】
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
三、大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
四、AI大模型商业化落地方案
以上的AI大模型学习资料,都已上传至CSDN,需要的小伙伴可以微信扫描下方CSDN官方认证二维码免费领取【<code>保证100%免费】
作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。
上一篇: 嵌入式AI开发板:主流开发板【①旭日X3派(地平线);②树莓派(Raspberry Pi,英国);③香橙派(深圳);④ROCK5B(Rockchip,瑞芯微) ;⑤Jetson Nano(英伟达)】
下一篇: AI驱动TDSQL-C Serverless 数据库技术实战营-ai学生选课系统数据分析
本文标签
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。