使用Ollama+Python本地环境搭建AI大模型
申未曲 2024-08-06 08:01:06 阅读 67
工作需要,最近研究在本地搭建AI问答平台的方法,设计到简单的文本问答、Word文档问答、Pdf文档问答、excel/csv文档问答以及图片问答。
搭建AI其实很简单,只需要去下载一个Ollama就可以了,在Ollama上可以使用很多的大模型,比如说Llama3、Qwen等。下载Ollama后,只需要打开cmd,然后输入命令<code>ollama run model_name,就可以运行指定模型了。(如果没有pull模型的话,运行该命令会先去拉模型下来,然后再运行模型)model_name是指模型名称,不知道有什么模型的,可以去Ollama的官网查看。>>快捷入口<<
当然,仅仅这样的话无法完成项目需求,所以需要用代码来实现。之前使用了两种语言实现了文本问答,分别为Java以及Python。
但是后面因为要有文档问答,所以之后主要都是使用Python来调用Ollama框架来使用AI大模型了。
接下来记录一下Python要使用的库有哪些(主要是调用AI的库):
<code>langchain_community(可以使用很多模型框架)
pandasai(主要是用来分析csv以及excel)
一、简单AI问答
from langchain_community.llms import Ollama
text = "你是谁?"
llm = Ollama(model="qwen")code>
llm.invoke(text)
就是这么简单,几行代码就可以使用AI大模型了。
二、csv、excel数据文档问答
这里就用到了pandasai,这是一个用于数据分析的人工智能,有官网,看着官网文档操作可以解决很多问题。
<code>from langchain_community.llms import Ollama
from pandasai import SmartDataframe
import pandas as pd
import operator
from pandasai.connectors import PandasConnector
def pandasai_chat(file, query):
df_v = parse_file(file)
ollama_llm = Ollama(model="llama3")code>
df = pd.DataFrame(df_v[0])
pandas_connector = PandasConnector({
"original_df": df
}, fiel
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。