【人工智能】电脑本地从零开始搭建属于自己的大模型

子晓聊技术 2024-06-21 09:31:02 阅读 59

人工智能发展日新月异,大模型技术越发成熟。作为IT程序员的我们,不掌握点大模型技术知识怎么行。本文介绍怎么在自己电脑本地从零开始搭建属于自己的大模型,可以离线使用,不像网上文章讲的依赖openai ,  百度文心一言等 API接口。

首先了解下大模型是什么?通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。

大家对于chatGPT耳熟能详, 像GPT3.5, GPT4.0大模型,大部分人 通过 科学上网或 使用一些套壳软件 或多或少用过其能力。 2023年上半年chatGPT火热的时候,我就有学习大模型的想法,但奈何大模型严重依赖  海量数据、价格不菲的算力,复杂的算法。当时的电脑不支持GPU,冒出的想法暂时搁置了。自从meta开源 LLaMA2后, 国内雨后春笋冒出很多搞大模型的套壳公司。最近晚上在家刷公众号,经常刷到一些xxxx元AI大模型学习的韭菜付费课程。 作为新时代爱好学习的知识好青年,看不惯这种割韭菜的行为,毕竟大家的钱不是大风刮来的。本文准备在 自己的电脑上搭建类似 chatGPT的工具,这里以MAC为例, windows或linux类似。

先说工具, 线上链接 https://github.com/jmorganca/ollama ,直接根据文档介绍一步步来操作就可以。ollama是我目前所知 搭建大模型最容易上手的方式, 傻瓜式操作。

打开网站,mac安装包下载地址到本地,一步步傻瓜式安装。

这里以运行llama2 为例, 安装成功后 , 直接 运行 

 ollama run llama2

图片

这里运行的 lama2大模型, 是不是很容易,截图里写的一个java冒泡算法。

如果我们想把这个提供一个web服务,写一个聊天机器人,只要搞个自己定制的前端UI,后端直接调用提供的restapi接口即可。 专属免费,功能不比chatGpt逊色多少的聊天机器人就搞定了。

curl http://localhost:11434/api/generate -d '{ "model": "llama2", "prompt":"Why is the sky blue?"}'

图片

本篇文章就到此为止,后续的计划:

1、AI应用侧,写一些基于AI的实际应用、落地实践。

2、作为程序员来说,后续还是更新一些关于机器学习、深度学习相关的文章(tensorflow、pytorch、transformer等),学习期间穿插微积分、线性代数、概率论的理论文章。毕竟实践还需要依赖一些数学理论。

文章可能偶尔忘记发在这里, 如果感兴趣可以关注  同名公众号(子晓聊技术)



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。