【人工智能】国产开源大模型聊天 AquilaChat 快速开始上手实战&效果评测
禅与计算机程序设计艺术 2024-07-03 15:01:02 阅读 73
【人工智能】国产开源大模型聊天 AquilaChat 快速开始上手实战&效果评测
文章目录
【人工智能】国产开源大模型聊天 AquilaChat 快速开始上手实战&效果评测
禅与计算机程序设计艺术:评测结论 —— AquilaChat 在写作水平上跟ChatGLM-6B差不多,但是 AquilaChat 多编程语言写代码能力还是比较弱。。
输入:
输出:
输入:
报错输出:
AquilaChat 快速开始
环境依赖安装
安装相关依赖
具体使用方式 / How to use
Fork 源代码:
1. 推理/Inference
效果测试
输入1:
输出1:
输入2:
输出2:
2. 可监督微调/Supervised Fine-tuning(SFT)
Step 1: 配置模型/ Setup Checkpoints
Step 2: 修改参数/ Modify Parameters
Step 3: 启动可监督微调/Start SFT
AquilaChat 简介 / AquilaChat Overview
Aquila 模型细节 / Aquila Model details
训练数据集/Training data
证书/License
禅与计算机程序设计艺术:评测结论 —— AquilaChat 在写作水平上跟ChatGLM-6B差不多,但是 AquilaChat 多编程语言写代码能力还是比较弱。。
AquilaChat 写代码水平还不行(应该是代码数据集训练不够),问技术性问题(比如说:用golang实现冒泡排序算法)会有一定的概率报错:
<code> File "/home/me/ai/FlagAI/flagai/model/predictor/aquila.py", line 41, in aquila_generate
next_token = sample_top_p(probs, top_p)
File "/home/me/ai/FlagAI/flagai/model/predictor/aquila.py", line 84, in sample_top_p
next_token = torch.multinomial(probs_sort, num_samples=1)
RuntimeError: probability tensor contains either `inf`, `nan` or element < 0):
输入:
{“prompt”:“冒泡排序算法代码”}
输出:
下面是冒泡排序的 Python 代码实现:
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。