【人工智能】Transformers之Pipeline(九):物体检测(object-detection)

本文对transformers之pipeline的物体检测(object-detection)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipeline...

【AI大模型】Transformers大模型库(十一):Trainer训练类

在HuggingFace的Transformers库中,Trainer类是一个强大的工具,用于训练和评估机器学习模型。它简化了数据加载、模型训练、评估和日志记录的过程。_transformers.trainer...

【AI大模型】Transformers大模型库(二):AutoModelForCausalLM

本文对使用transformers的AutoModelForCausalLM进行尝试,主要对CausalLM(因果推理模型)进行实例化,需要与同类的AutoTokenizer分词器一起使用。同时,列举了管道模型、...

【人工智能】Transformers之Pipeline(八):文生图/图生图(text-to-image/image-to-image)

本文对文生图/图生图(text-to-image/image-to-image)从概述、SD技术原理、SD文生图实战、模型排名等方面进行介绍,读者可以基于DiffusionPipeline使用文中的极简代码进...

AI论文速读 | TimeXer:让 Transformer能够利用外部变量进行时间序列预测

论文介绍了一种新型框架TimeXer,它利用Transformer结构处理时间序列预测时的外部变量,通过创新的嵌入层和注意力机制提升预测精度。实验证明TimeXer在多项任务中表现出色,特别是在结合内外部信息方面...

Hugging Face快速入门(重点讲解模型(Transformers)和数据集部分(Datasets))

1.HuggingFace是什么,提供了哪些内容2.HuggingFace模型的使用(Transformer类库)3.HuggingFace数据集的使用(Datasets类库)_huggingfa...

【人工智能】Transformers之Pipeline(六):图像分类(image-classification)

本文对transformers之pipeline的图像分类(image-classification)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipe...

【人工智能】Transformers之Pipeline(七):图像分割(image-segmentation)

本文对transformers之pipeline的图像分割(image-segmentation)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipelin...

AI大模型系列之七:Transformer架构讲解

Transformer模型设计之初,用于解决机器翻译问题,是完全基于注意力机制构建的编码器-解码器架构,编码器和解码器均由若干个具有相同结构的层叠加而成,每一层的参数不同。编码器主要负责将输入序列转化为一个定长的...

Transformer模型详解

transformer结构是google在2017年的AttentionIsAllYouNeed论文中提出,在NLP的多个任务上取得了非常好的效果,可以说目前NLP发展都离不开transformer。最...