大模型-鲁棒性总结-2024-7-28

大语言模型(LLMs)的鲁棒性(RobustnessofLargeModels)指的是大规模机器学习模型在面对输入数据的变化、噪声或攻击时,仍然能够保持其性能和稳定性的能力。这在实际应用中非常重要,因为真实世界...

Github 上 Star 数最多的大模型应用基础服务 Dify 深度解读(一)

接触过大模型应用开发的研发同学应该都或多或少地听过Dify这个大模型应用基础服务,这个项目自从2023年上线以来,截止目前(2024-6)已经获得了35k多的star,是目前大模型应用基础服务中最热...

人工智能和机器学习5 (复旦大学计算机科学与技术实践工作站)语言模型相关的技术和应用、通过OpenAI库,调用千问大模型,并进行反复询问等功能加强

在这个日新月异的AI时代,自然语言处理(NLP)技术正以前所未有的速度改变着我们的生活方式和工作模式。作为这一领域的佼佼者,OpenAI不仅以其强大的GPT系列模型引领风骚,还通过其开放的API接口,让全球开发者...

多模态大模型 intern_vl 2.0版本解读

(还是internvl1.5)我们介绍了InternVL2,这是目前最强大的开源多模态大语言模型(MLLM)。InternVL2家族包括从适合边缘设备的1B模型到显著更强大的108B模型。通过更大规模的语言模型,...

【解读大模型(LLM)的token】

在LLM中,token代表模型可以理解和生成的最小意义单位,是模型的基础单元。根据所使用的特定标记化方案,token可以表示单词、单词的一部分,甚至只表示字符。token被赋予数值或标识符,并按序列或向量排列...

swift与Internvl下的多模态大模型分布式微调指南(附代码和数据)

微调框架:swift微调模型:internvl-chat-v1_5微调任务:多模态大模型在指定任务上的OCR能力微调优化微调显存:55G,多batch时对单卡要求较高(4090不能满足需求)_internvl大...

一文彻底搞懂大模型参数高效微调(PEFT)

最近这一两周看到不少互联网公司都已经开始秋招提前批了。不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC在变少,岗位要求还更高了。最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答...

“xAI正式成立,GPT大战重燃,AI大模型的现状与发展怎么看?“

随着人工智能技术的迅速发展,越来越多的大型模型被开发出来,并在各行各业中得到了广泛应用。最近推出的GPT-3(GenerativePre-trainedTransformer3)就是一个例子,它拥有1750...

大模型参数规模扩大是趋势

大模型参数规模扩大是趋势,参数规模迈向万亿级。_大模型参数量越来越大...

目前比较火爆的国产AI大模型有哪些?它们分别有什么特色和优缺点?

2023年被誉为AI大模型的元年,从OpenAI先后推出了多个版本的GPT,再到国内外大模型的密集发布、技术与应用的突破、行业生态的初步形成以及社会影响的广泛化。这一年标志着AI大模型的发展进入了一个新的阶段并将在...