生成式AI核心技术详解与实战:从GANs到Transformers

本文深入探讨生成式AI的核心技术,包括GANs、VAEs、自回归模型和Transformers,详细描述其原理、实现方法及实际应用,结合代码示例和现实案例,展示最新技术进展和应用场景。_gantransform...

【AI大模型】Transformers大模型库(九):大模型微调之计算微调参数占比

基于LoRA进行模型微调时,需要先冻结全部参数,再指定相应的Linear层进行微调,那么如何计算全部参数,如何计算微调参数以及如何计算微调参数占全部参数的比例呢?本文先对Qwen2模型结构进行一览,做到心中有数,之...

[AI]如何让语言模型LLMs流式输出:HuggingFace Transformers实现

HugginFaceTransforms是一个非常方便的库,集成了非常多SOTA的模型,包含:LLAMA,GPT,ChatGLMMoss,等。目前基本上主流的方案都是基于HugginFaceTransf...

用 Sentence Transformers v3 训练和微调嵌入模型

SentenceTransformers是一个Python库,用于使用和训练各种应用的嵌入模型,例如检索增强生成(RAG)、语义搜索、语义文本相似度、释义挖掘(paraphrasemining)等等。其3.0版本的更新是该工程自创建以来最大...