【人工智能】国产开源大模型聊天 AquilaChat 快速开始上手实战&效果评测

禅与计算机程序设计艺术 2024-07-03 15:01:02 阅读 73

【人工智能】国产开源大模型聊天 AquilaChat 快速开始上手实战&效果评测

文章目录

【人工智能】国产开源大模型聊天 AquilaChat 快速开始上手实战&效果评测

禅与计算机程序设计艺术:评测结论 —— AquilaChat 在写作水平上跟ChatGLM-6B差不多,但是 AquilaChat 多编程语言写代码能力还是比较弱。。

输入:

输出:

输入:

报错输出:

AquilaChat 快速开始

环境依赖安装

安装相关依赖

具体使用方式 / How to use

Fork 源代码:

1. 推理/Inference

效果测试

输入1:

输出1:

输入2:

输出2:

2. 可监督微调/Supervised Fine-tuning(SFT)

Step 1: 配置模型/ Setup Checkpoints

Step 2: 修改参数/ Modify Parameters

Step 3: 启动可监督微调/Start SFT

AquilaChat 简介 / AquilaChat Overview

Aquila 模型细节 / Aquila Model details

训练数据集/Training data

证书/License

禅与计算机程序设计艺术:评测结论 —— AquilaChat 在写作水平上跟ChatGLM-6B差不多,但是 AquilaChat 多编程语言写代码能力还是比较弱。。

AquilaChat 写代码水平还不行(应该是代码数据集训练不够),问技术性问题(比如说:用golang实现冒泡排序算法)会有一定的概率报错:

<code> File "/home/me/ai/FlagAI/flagai/model/predictor/aquila.py", line 41, in aquila_generate

next_token = sample_top_p(probs, top_p)

File "/home/me/ai/FlagAI/flagai/model/predictor/aquila.py", line 84, in sample_top_p

next_token = torch.multinomial(probs_sort, num_samples=1)

RuntimeError: probability tensor contains either `inf`, `nan` or element < 0):

输入:

{“prompt”:“冒泡排序算法代码”}

输出:

下面是冒泡排序的 Python 代码实现:



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。