【人工智能】Transformers之Pipeline(二十):令牌分类(token-classification)

本文对transformers之pipeline的令牌分类(token-classification)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipelin...

transformers 推理 Qwen2.5 等大模型技术细节详解(一)transformers 初始化和对象加载(文末免费送书)

本文详细讲解transformers推理大语言模型的初始化过程,包括Python包搜索、LazyModule延迟模块、模块搜索和Python包API设计美学……...

AI论文阅读笔记 | Timer: Generative Pre-trained Transformers Are Large Time Series Models(ICML 2024)

AI论文阅读笔记:Timer:GenerativePre-trainedTransformersAreLargeTimeSeriesModels(ICML2024)这项研究的成果是一个时间序列T...

【人工智能】Transformers之Pipeline(十九):文生文(text2text-generation)

本文对transformers之pipeline的文生文(text2text-generation)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipelin...

【人工智能】Transformers之Pipeline(十八):文本生成(text-generation)

本文对transformers之pipeline的文本生成(text-generation)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipeline使用文中...

【人工智能】Transformers之Pipeline(十七):文本分类(text-classification)

本文对transformers之pipeline的文本分类(text-classification)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipeline...

【人工智能】Transformers之Pipeline(十六):表格问答(table-question-answering)

本文对transformers之pipeline的表格问答(table-question-answering)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipe...

【人工智能】Transformers之Pipeline(十五):总结(summarization)

本文对transformers之pipeline的总结(summarization)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipeline使用文中的2行...

详解视觉Transformers

从2017年在《AttentionisAllYouNeed》中首次提出以来,Transformer模型已经成为自然语言处理(NLP)领域的最新技术。在2021年,论文《AnImageisWorth1...

大模型基础配置之Win11安装HuggingFace Transformers库

Transformer是大语言模型(LargeLanguageModel,LLM)的基础架构Transformers库是HuggingFace开源的可以完成各种语言、音频、视频、多模态任务情感分析文本生成命名...