什么是生成式 AI

技术的草台班子 2024-06-16 16:01:04 阅读 70

概述

生成式 AI 是一种人工智能技术,依赖基于大数据集训练的深度学习模型来创建新内容。生成式 AI 模型用于生成新数据,与用于根据差异对数据分类的判别式 AI 模型截然不同。如今,人们常使用生成式 AI 应用来生成文字、图片和代码等。生成式 AI 的常见用例包括聊天机器人、图像创建和编辑、软件代码辅助和科学研究等。

人们在许多专业领域都开始应用了生成式 AI,以快速地可视化呈现创意,高效地处理枯燥而耗时的任务。在医学研究和产品设计等新兴领域,生成式 AI 有望帮助专业人士更好地完成工作,显著改善人们的生活质量。但人工智能也会带来新的风险,用户应该了解并努力减轻这些风险。

近年来业界涌现了许多知名的生成式 AI 应用,其中包括 OpenAI 的 ChatGPT 和 DALL-E、GitHub CoPilot、微软的 Bing Chat、谷歌的 Bard、Midjourney,以及 Stable Diffusion 和 Adobe Firefly。许多企业/机构正在试验自己的生成式 AI 系统,以自动执行日常任务并提高效率。

生成式 AI 是如何工作的?

如果您体验过 ChatGPT 与您进行的条理清晰的对话,或者观看过 Midtravel 根据您的描述渲染出的逼真画面,您就会知道生成式 AI 能够给人魔法一般的感觉。是什么造就了这样的魔法?

在您使用的 AI 应用幕后,深度学习模型正在不断重新创造它们从大量训练数据中学会的模式。然后,它们在由人类设定的范围参数中工作,根据学到的知识创造新的内容。

深度学习模型通常不会存储训练数据的副本,而是会将数据进行编码,使类似的数据点被安排在彼此附近。之后,再对这种表示进行解码,以构建具有类似特征的新原始数据。 

构建定制的生成式 AI 应用需要一个模型和一些调整,如由人类监督的微调或一层特定于用例的数据。

如今,大多数流行的生成式 AI 应用都能响应用户提示。只要用自然语言描述您想要什么,应用就能返回您想要的任何内容,就像用魔法变出来一样。

生成式 AI 有哪些用例?

生成式 AI 在文字和图像方面的突破性进展不仅霸占了新闻头条,也超越了人们的想象。这项日新月异的技术的早期用例包括:

编写文案: 早在 ChatGPT 成为头条新闻(并且开始自己写新闻稿)之前,生成式 AI 系统就已在模仿人类写作上表现优异。语言翻译工具就是生成式 AI 模型的首批用例之一。当前的生成式 AI 工具能够通过响应用户提示来创建几乎任何主题的高质量内容。这些工具还可根据不同的长度和文风要求,调整自己撰写的内容。

生成图像: 生成式 AI 图像工具可以根据无数主题和风格的用户提示来合成高质量的图片。一些 AI 工具,如 Adobe Photoshop 中的 Generative Fill,可以为现有作品增添新的元素。

生成语音和音乐: AI 智能声乐工具可以使用书面文本和人声样本音频,创建模仿真人声音的叙述或歌声。还有些工具可以根据用户提示或样本创建人工智能音乐。

生成视频: 一些新的服务正在尝试用各种生成式 AI 技术来创建运动影像。例如,有些技术能够将音频与静态图像匹配,并使主角的嘴巴和面部表情如同正在讲话一样。

生成和补全代码: 一些生成式 AI 工具可以接受书面用户提示,应要求输出计算机代码来协助软件开发人员。

增强数据: 当使用真实数据不可行或不可取时,生成式 AI 可以创建大量合成数据。例如,如果要训练一个模型来理解医疗卫生数据,但不能包含任何个人身份信息,那么合成数据或许很有用处。它也可以用来将较小或不全的数据集扩展为较大的合成数据集,以满足训练或测试用途。

什么是深度学习?

深度学习是一种用于分析和解释大量数据的机器学习技术,它使生成式 AI 成为可能。这一过程也称为深度神经学习或深度神经网络,可让计算机模仿人类获取知识的方式,学会通过观察来学习。在应用计算机来解决理解人类语言或自然语言处理(NLP)的问题上,深度学习是一个至关重要的概念。

为了便于理解,我们可以将深度学习想象为某种流程图,它从输入层开始,到输出层结束。夹在这两层之间的是“隐藏层”,负责加工处理不同级别的信息,并随着不断接收新数据而调整和适应它们的行为。深层学习模型可以拥有数百个隐藏层,每个隐藏层都在数据集中发现关系和模式方面发挥作用。 

输入层由多个节点组成,从输入层开始,数据被引入模型并根据分类规则进行分类,然后向下一层传递。数据在每一层中的路径是基于为每个节点设置的计算规则确定的。数据通过每一层向前传递,模型会从数据中提取出观察结果或有意义的信息,并形成最终的输出或数据分析结果。

有一项技术加速了深度学习的发展,那就是 GPU(图形处理单元)。GPU 最初是为了加速视频游戏图形的渲染而设计的。但作为一种高效的并行计算执行方式,GPU 已被证明非常适合深度学习工作负载。

深度学习模型在规模和速度上的突破,直接导致了当前如雨后春笋般涌现的生成式 AI 应用。

什么是神经网络?

神经网络是一种信息处理方式,可以模仿生物神经系统,如人类大脑中的连接。AI 便是如此在看似不相关的信息集之间建立联系。神经网络概念与深度学习密切相关。

深度学习模型如何使用神经网络概念来连接数据点?我们从人类大脑的工作方式说起。人类大脑中有很多相互连接的神经元,当大脑处理传入的数据时,这些神经元就会负责传递信息。神经元之间通过电信号和化学物质相互作用,并在大脑的不同区域之间传递信息。 

人工神经网络(ANN)使用的是人工神经元而不是生物神经元,这些人工神经元是由称为节点的软件模块构成的。这些节点使用数值计算(而不是大脑中的化学信号)来进行通信和传递信息。模拟神经网络(SNN)通过聚类数据点进行预测的方式来处理数据。

不同的神经网络技术适用于不同类型的数据。递归神经网络(RNN)是一种使用顺序数据的模型,例如通过按顺序学习词语来处理语言。

Transformer 是一种基于 RNN 理念而打造的特定的神经网络架构,能够更快地处理语言。Transformer 能够学习句子中不同词语的关系,与按顺序摄取各个词语的 RNN 相比,这个过程的效率更高。

大型语言模型(LLM)是一种通过将 Transformers 应用于大量广义数据集来进行训练的深度学习模型。LLM 可为许多流行的 AI 聊天和文本工具提供支持。

另外,一种称为扩散模型的深度学习技术已证明非常适合图像生成。扩散模型能够学习将自然图像转化为模糊视觉噪声的过程。然后,图像生成工具将这个过程颠倒过来,从随机噪声模式开始,对其进行细调,直到它变得如同真实照片一般。

深度学习模型可以用参数来描述。如果有一个简单的信用评估模型,该模型使用了来自贷款申请表格的 10 个输入特征进行训练,那么这个模型将有 10 个参数。相比之下,一个 LLM 可具有数十亿个参数。OpenAI 的 Generative Pre-trained Transformer 4(GPT-4)是为 ChatGPT 提供支持的基础模型之一,据说它具有 1 万亿个参数。

什么是基础模型?

基础模型是基于大量普通数据训练的深度学习模型。经过训练后,基础模型就可以针对专门的用例进行细调。顾名思义,这种模型可为许多不同的应用奠定基础。

现如今,创建新的基础模型是一个工程量巨大的项目。这个过程需要不计其数的训练数据,通常要从互联网、数字图书馆、学术文章数据库、库存图像集或其他大型数据集进行广泛的收集。基于如此多数据训练一个模型需要庞大的基础架构,包括组建或租赁 GPU 云。据报道,迄今最大的基础模型的构建成本达到了数亿美元。

由于从零开始训练基础模型需要付出大量时间和精力,因此人们通常依赖第三方训练的模型,在此基础上进行自定义。有多种技术可用来对基础模型进行自定义。其中可能包括微调、即时细调和添加特定于客户或领域的数据。

什么是微调?

微调是对基础模型进行细调的过程,目的是创建更适合特定任务或领域的新模型。企业/机构可以添加特定于其所需用例的训练数据,而不依靠通用模型。

微调所需的数据和时间通常远少于初始训练。训练一个基础模型可能需要数周或数月时间,而微调过程可能只消耗几个小时。

微调可以如何帮助到用户?如果您使用的是通用模型,每次提示 AI 应用以获得您想要的结果时,可能都要输入具体的示例和说明。而经过微调后,就能预测您所需要的输出类型。您的提示可以更加简单,因而能节省时间并减少资源使用量。

生成式 AI 有哪些风险?

生成式 AI 技术在短时间内取得了长足进步,吸引了格外多的热议,褒奖和质疑各执一词。这项技术的优缺点仍在逐渐浮出水面。这里简要介绍一下生成式 AI 的一些突出问题。

造成危害: 生成式 AI 工具被不法分子利用的风险显而易见,例如社交媒体上的虚假信息舆论战,或以真人为目标深度伪造的图像。

加剧有害的社会偏见: 生成式 AI 工具已被证明可以重现训练数据中存在的人类偏见,包括有害的歧视或仇恨言论。

提供错误信息: 生成式 AI 工具可以产生虚构的、明显错误的信息和场景,有人把这称为“幻觉”。有些错误的生成内容是无害的,比如对聊天提问的无意义回答,或者一张手指过多的人手图像。但也有一些 AI 造成严重问题的情况,比如聊天机器人向饮食失调的人提供有害的建议。

安全和法律风险: 生成式 AI 系统可能会引发安全风险,包括用户将敏感信息输入到不安全的应用中。生成式 AI 的响应可能会复制受版权保护的内容,或未经同意盗用真人的声音或身份,从而引发法律风险。此外,一些生成式 AI 工具可能具有使用限制。



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。