StockGPT:一个用于股票预测和交易的生成性AI模型
AI椰青 2024-06-20 13:31:01 阅读 82
摘要
本文介绍了股票GPT,这是一个自回归的“数字”模型,直接在美国每日股票回报的历史数据上进行预训练。将每个回报序列视为一系列标记,该模型在理解和预测高度复杂的股票回报动态方面表现出色。与依赖手工制作的历史股票价格交易模式不同,股票GPT通过其注意力机制自动学习预测未来回报的隐藏表示。在2001年至2023年的保留测试样本上,由股票GPT预测形成的每日再平衡的长短投资组合获得了119%的年回报率和6.5的夏普比率。基于股票GPT的投资组合完全解释了动量和长期/短期反转策略,消除了手动制作基于价格的策略的需要,同时也涵盖了大多数领先的股票市场因素。这突显了生成性AI在超越人类做出复杂金融投资决策方面的巨大潜力,并展示了当大型语言模型的注意力机制应用于完全不同的领域时的有效性。
关键词:生成性人工智能,变换器,解码器,股票市场,投资,交易,回报预测
1 引言
生成性人工智能(GenAI)——一套能够通过声音或文本指令生成文本、图像、视频、编程代码或艺术的先进技术——已经席卷社会并对世界经济的许多方面产生了广泛影响。尽管它已经存在多年,但自从2022年11月推出ChatGPT以来,GenAI开始受到公众的广泛关注,ChatGPT是一个能够以人类水平生成答案、推理和对话的聊天框。
自从其推出以来,ChatGPT和类似的大型语言模型迅速进入了投资行业。ChatGPT在投资中的一个常见用途是根据公司新闻(如新闻文章或公司通讯)直接给出交易建议。一个不那么直接的方法是依赖于类似的预训练语言模型,如BERT和OPT,为每个公司生成一个情感得分,然后使用这个得分来做出交易决策。例如,Jiang, Kelly和Xiu(2022)和Kirtac和Germano(2024)发现,基于BERT和OPT生成的情感得分形成的股市投资组合表现出色。
本文首先通过在数字股票数据上从头开始训练一个新的生成预训练变换器(GPT)模型(股票GPT),然后展示股票GPT产生强大的投资表现,为这个快速发展的领域做出了贡献。与以前专门针对金融文本预训练的金融领域特定语言模型(如FinBERT和BloombergGPT)不同,据我所知,股票GPT是第一个直接在数字股票回报数据上预训练的模型。对于交易目的,直接在股票数据上训练的模型与在文本上训练的模型相比有三个重要优势:(i)模型直接从价格数据中学习价格模式,而不是从关于价格的新闻中学习;(ii)模型预测对每个股票在每个时间点都可用,而不是依赖于关于股票的新闻数据的可用性;(iii)模型预测未来回报的整个分布,而不是一个点估计。
像GPT这样的语言模型通过预测给定之前的最可能的下一个标记来运作,p(xt+1|xt, ... x1)。这种特性与数字时间序列数据(如股票回报)非常相似,其中数据点是有序的,下一个值取决于之前的值。因此,自然的问题是,语言模型的架构是否可以应用于数字时间序列数据。为此,需要解决文本和数字之间的一个基本差异:文本是(尽管庞大但)离散标记的集合,而数字时间序列通常是连续的。因此,为了训练一个用于股票回报的生成模型,我首先将股票回报数据离散化成区间(或“标记”),然后应用语言模型架构。
为了构建股票GPT模型,我采用了一个轻量级的GPT架构版本,该版本由四个注意力块组成,大约有一百万参数。模型的输入是每只股票连续256个交易日的回报序列(即语言模型中的块大小),这大约相当于一年中的交易日数量。训练目标是使用变换器架构预测给定其先前回报的下一个回报值,该架构接收序列中标记的索引(或位置),检索它们的向量表示,并通过一种称为“注意力”的机制对它们进行建模。训练样本包括从1926年到2000年的大约5000万美国股票日回报,涵盖了20世纪在美国股票市场上上市的几乎所有股票。模型在大约2000万美国股票日回报的保留样本上进行测试,从2001年到2023年。
值得注意的是,模型只使用训练样本训练一次,并在样本外期间现成应用。这种研究设计有两个目的:(i)这是测试模型有效性最干净的设置;(ii)它降低了计算成本。尽管这种设置很简单,但模型在其训练期间之后的23年里仍然表现出色。在实践中,随着新的金融数据的到来,应不断重新训练模型以保持其相关性和性能。这在像股票市场这样动态环境中尤其需要,其特点是低信噪比和不断的分布变化。
在测试阶段,对于每个交易日t的每只股票,股票GPT使用t - 255到t的256日回报来预测t + 1的回报。预测的评估包括两个步骤。首先,我通过在t + 1日实现的股票回报上运行横截面回归,将实际股票回报对t + 1日的回报预测进行回归,来检查预测的准确性。结果表明,股票GPT做出了相当准确的预测。
第二个评估步骤是建立基于股票GPT预测的实际交易投资组合。在每个交易日t的市场收盘时,我通过做多/做空预计t+1日回报最高/最低的前十名股票来构建零成本投资组合,并在t + 1日市场收盘时重新平衡投资组合。为了避免只交易流动性差、交易和市场影响成本高的微盘股,在形成投资组合之前,我移除了市场价值低于市场价值10th百分位的股票。
在每个股票在投资组合中权重相同的等权方案下,这个每日再平衡的长短投资组合从2001年到2023年获得了119%的平均年化回报,实现了6.5的夏普比率。这一表现远远高于Jiang, Kelly和Xiu(2022)中基于语言模型预测的最佳表现投资组合,后者在2004年至2019年间的年回报率为50%,夏普比率为4.8。值得注意的是,虽然Jiang, Kelly和Xiu(2022)中的预测模型每年重新训练一次,但股票GPT只使用到2000年的数据进行一次训练。在价值加权方案下,每个股票在投资组合中的权重与其市场价值成正比,基于股票GPT的投资组合实现了27%的平均年化回报和1的夏普比率。由于价值加权给予市场价值较高的股票更多的权重,这一结果与资产定价中的共识观点一致,即小盘股由于更高的套利成本和流动性差而更可预测。
尽管等权方案下的年回报率为119%是在交易成本之前的,但在最坏情况假设下,投资组合每天更换所有成分(即长短期投资组合的换手率为400%),每次交易成本为5个基点,基于股票GPT的策略仍然实现了69%的年回报率,扣除交易成本后。在进一步限制下,通过移除价格低于1美元、3美元和5美元的股票,该策略的毛年回报率分别为110%、86%和74%,夏普比率分别为6.3、5.2和4.7。如果回报预测和投资组合形成之间跳过一天,基于股票GPT的投资组合将获得26%的年回报率和1.7的夏普比率。总体而言,股票GPT展示了其在制定高度盈利的股票交易策略方面的能力。
由于股票GPT使用历史价格数据做出回报预测,我检查了它与常见的基于价格的策略(如动量和长期/短期反转)的关系。我发现,基于股票GPT的投资组合通过跨越测试完全解释了这些策略。
基于股票GPT的投资组合还涵盖了Fama和French(2015)五因素模型和Hou等人(2021)q因素模型的大多数因素。一个仅基于历史价格数据的策略能够实现如此强大的未来表现,对Fama(1970)提出的市场效率假说提出了强有力的挑战,他认为股票市场是有效的,因此历史价格不能用来一致地预测未来的回报。
本文对几个研究领域做出了贡献。首先,它为训练大型语言模型用于特定领域(如金融和医疗)的快速发展领域做出了贡献。与这些在文本上训练的模型不同,股票GPT直接在数字股票数据上训练,用于交易目的。其次,本文为适应语言模型于数字时间序列分析的新兴研究领域做出了贡献。虽然这些论文试图构建可以在未经微调的情况下应用于未见数据集的预训练基础模型,但股票GPT是专门为股票数据构建的,用于股票预测。第三,本文为应用机器学习技术于回报预测的投资文献做出了贡献。例如,Gu, Kelly和Xiu(2020)应用深度学习方法于公司特征以进行回报预测,而Jiang, Kelly和Xiu(2023)通过卷积神经网络使用价格图表预测回报。本文的不同之处在于,它将股票价格视为文本标记,并应用生成性AI架构。最后,本文为使用历史价格模式(如动量、反转和移动平均)预测未来价格变动的资产定价文献做出了贡献。与依赖手工制作的模式不同,股票GPT通过最先进的变换器架构自动提取预测未来回报的隐藏模式。
2 模型架构
2.1 概述
股票GPT使用了基础的仅解码器变换器架构,这是Vaswani等人(2017年)开发的典型变换器模型的第二步。仅解码器变换器也是ChatGPT的架构。图1展示了架构的草图。具体来说,解码器接收一个标记序列x = (x1, x2, ..., xt-1, xt),通过多层注意力转换它,输出每个下一个标记的概率,p(x2|x1), p(x3|x2, x1), ..., p(xt+1|xt, ..., x1)。
在训练阶段,模型通过最小化一个标记预测与其实际值l(ˆxt+1, xt+1)之间的交叉熵损失来学习和更新其参数,平均所有训练批次中的所有序列中的所有标记。在部署阶段,解码器根据输入序列x生成输出标记序列(xt+1, xt+2, ..., xt+m),一次一个地生成。具体来说,它接收一个输入序列(x1, x2, ..., xt-1, xt),将其转换为条件概率分布p(xt+1|xt, ..., x1),并从这个分布中生成下一个标记。
解码器模型是“自回归”的,意味着它在每个时间点消耗自己生成的输出作为额外的输入来生成下一个,即p(xt+2|ˆxt+1, xt, ..., x1),其中ˆxt+1是之前生成的。
2.2 细节
由于计算机本身不理解人类文本,变换器首先通过标记和位置嵌入来量化文本标记。标记嵌入简单地为字典中的每个标记检索一个独特的向量表示。位置嵌入通过向量表示每个标记的位置。没有位置嵌入,变换器无法理解标记的上下文和顺序。变换器然后将每个标记的标记和位置嵌入向量相加。这些嵌入是可学习的参数。
变换器模型的核心是注意力机制。据此,对于每个标记,变换器从其嵌入向量生成三个向量:键k、查询q和值v。每个标记的注意力是其v与前面所有标记的v的加权和,由其q与那些标记的k的乘积加权。直观地说,一个标记发出一个查询,前面的标记如果可以匹配它的查询(即具有高的q×k值),就会得到它的注意。k、q和v也是可学习的参数。这种机制构成了一个“自注意力”头,帮助变换器发展对标记的上下文理解。由于每个标记只受到它之前标记的影响,这种设置是自回归的。
变换器将多个注意力头连接成一个多头节点,该节点随后由多个线性层顺序跟随,形成一个注意力块。然后将多个注意力块堆叠在一起。最后一个注意力块后面是一个层归一化和一个线性层,其输出通过softmax激活转换为概率向量。具体来说,在时间步t,变换器输出p(xt+1|xt, ..., x1),这是所有可用标记在字典上的多项分布。给定这个分布,模型可以从其字典中抽样最可能的标记t + 1。
2.3 股票GPT特定内容
由于变换器只能处理文本标记,要将其应用于连续的股票回报数据,第一步是将回报离散化为区间。表1展示了离散化规则。首先,我将回报乘以10,000并保留整数部分,转换为基于点数的整数。然后,我将基于点数的区间设为50的闭区间,向右闭合。第一个区间在-10,000处闭合。由于股票价格不能为负,回报不能低于-10,000基点(即-100%);因此,第一个区间只包含-10,000。最后一个闭合区间是(9,950, 10,000]。其次,对于每个区间,我使用每个区间的中值来表示其值,除了第一个区间(-Inf, -10,000]用-10,000表示,最后一个区间(10,000, Inf)用10,000表示。换句话说,我将所有大于100%的日回报视为100%。由于训练集中日回报的第1个到第99个百分位是从-9.6%到11.1%,因此超过这个阈值的值非常罕见。最后,区间从0编号到401。因此,我的回报“字典”总共有402个标记,每个标记是一个回报区间中点。作为离散化规则的例子,以下回报序列(-2.4%, 0%, 0%, 5%, 4.8%)被转换为索引序列(196, 200, 200, 210, 210),这是输入到股票GPT的。
除了402的词汇量外,股票GPT还有256的块大小(即每个输入序列的长度)、128的标记和位置嵌入大小、4个注意力块,每个包含4个自注意力头,以及在各个层中的0.2的dropout概率。综合来看,股票GPT有927,890个参数。股票GPT在10,000个训练步骤中进行训练,每个步骤包括从训练数据中随机抽取的64个序列(即批量大小)。9在训练阶段,交叉熵损失在5,000个训练步骤后稳定在2.5左右。由于有402个标签(回报区间的数量),最大交叉熵将是E = -∑i log(1/402) × (1/402) = 6。模型在一台配备64GB RAM和30个GPU核心的MacBook M2上完全训练。10技术上,可以使用任何长度从1到256的序列(即训练期间的块大小)来进行预测。然而,由于股票GPT是用256天的块大小训练的,我也在进行预测时使用256天的输入序列,以利用模型在训练期间发现的所有价格模式。
为了进行回报预测,给定一个256回报序列输入(xt-255, ..., xt),股票GPT将输出p(xt+1|xt, ..., xt-255),这是一个在402个回报区间上的多项分布。模型以区间索引的形式产生输出,这些索引通过表1中的区间中点转换为数字回报。然后,t+1日的预期回报将是p(xt+1|xt, ..., xt-255)呈现的相应区间概率加权的回报区间中点的加权平均。或者,t+1日的预期回报可以通过从p(xt+1|xt, ..., xt-255)中抽取许多预测并平均它们来计算。如果抽取的样本数量足够大,这两种方法将产生相同的结果,但后一种方法在计算上更为密集。为了进行未来m天的回报预测,我们可以递归地抽取几条预测路径xj = (xt+1, xt+2, ..., xt+m)并对路径进行平均。
3 数据
股票回报数据来自证券价格研究中心(CRSP),该中心收集了从1926年到2023年的所有美国股票回报。按照资产定价研究的标准,我只包括在NYSE、AMEX和NASDAQ三个主要交易所交易的普通股,股票代码为10或11。这个样本包括从1926年到2023年的大约7000万个股票观测值。然后将这个样本分为两部分:1926年到2000年的样本用于训练,2001年到2023年的样本用于测试。在训练样本中,1926年到1990年的数据用于参数优化,1991年到2000年的数据用于超参数调整和评估。在训练评估期间,我记录了只使用NYSE股票的模型比使用所有三个交易所的模型具有更低的评估损失,分别为2.55和2.72。这可能是因为NYSE是世界上最大的证券交易所,上市的是高质量的大型股票,而AMEX和NASDAQ上市的是小型股票,这给训练过程增加了噪音。因此,主要结果集中在仅使用NYSE数据训练的模型上,而使用所有三个交易所数据训练的模型的结果报告在表A.1中。后者模型仍然产生了83%的年回报率和5的夏普比率。
在测试阶段,使用来自所有三个交易所的股票回报。正如引言中提到的,模型只使用训练样本训练一次,并在测试阶段保持不变。
4 结果
4.1 日回报
为了评估t+1日的回报预测的质量,首先将其与同一天的实际回报进行比较。具体来说,对于每个交易日t,我运行以下横截面回归:
xit+1 = at + bt × ˆxit+1 + eit+1 (1)
其中,xit+1是股票i在t+1日实际实现的回报,ˆxit+1是它的StockGPT回报预测。斜率bt和回归调整后的R2t然后跨测试样本的所有交易日平均。这些措施表明StockGPT预测跟踪实际回报的程度。这种回归规范在资产定价文献中被称为Fama-MacBeth回归。
表2报告了结果。平均斜率系数为0.5,表明StockGPT回报预测中的100个基点(即1%)的横截面差异预示着实现回报中的50个基点的差异。此外,平均横截面R2为1.2%,相当于预测和实际回报之间的11%的横截面相关性。作为比较,基于语言模型的回报预测和实际回报之间的平均相关性在Jiang, Kelly和Xiu(2022)中约为2%。我还检查了t+1日的回报预测和t+2日实现的回报之间的关系(即跳过一天)。对于这个测试,斜率系数为0.09,R2为0.4%,相当于6%的相关性。两个测试中的斜率都具有高度显著性,t统计量超过10。总体而言,GPT预测即使在一天之后也能很好地跟踪未来的回报。
主要的实证分析是检查StockGPT预测的交易含义。为此,在每个交易日t,我购买预计t+1日回报最高的前十名股票(高投资组合),并卖出预计t+1日回报最低的后十名股票(低投资组合)。为了避免只交易市值较小的股票,我每天移除市值低于10th百分位的股票。在表3中,以等权重(EW)方式,这个长短投资组合产生了119%的平均年化回报和6.5的夏普比率(均值/标准差)。如果我移除价格低于1美元、3美元和5美元的股票,平均回报(和夏普比率)分别为110%(6.3)、86%(5.2)和74%(4.7)。图2的面板A左侧绘制了这4个长短投资组合的对数累积回报。这些投资组合在整个2001-2023样本期间显示出一致的上升趋势,在2009年金融危机后的最大涨幅。
面板A的右侧绘制了投资组合的每个长/短腿的累积回报。很明显,StockGPT可以对称地预测股票的上涨和下跌。
以价值加权(VW)方式,不设价格过滤器的长短投资组合(但仍在移除基于市值的后十分之一)获得了27%的年回报率和1的夏普比率。价格过滤器为1美元、3美元和5美元的投资组合的夏普比率分别为1、0.9和0.8。由于价值加权给予大盘股更多的权重,这一结果表明StockGPT在预测小盘股的回报方面更有效。这是预期的,因为小盘股更有可能被错误定价。
表3还报告了当使用t+1日的回报预测形成t+2日的投资组合时的投资组合。以等权重方式,跳过一天的投资组合每年获得26%的回报,夏普比率为1.7。图2的面板B显示,当跳过一天时,StockGPT预测在长腿投资组合中跟踪回报的效果比短腿投资组合更好。
4.2 与股票因子的关系
由于股票GPT仅使用历史市场价格数据进行回报预测,因此重要的是检查基于股票GPT的投资组合与基于历史回报的突出交易策略之间的关系。三个最值得注意的模式是短期反转(使用t-1月的回报)由Jegadeesh(1990)提出,动量(使用t-2月至t-12月的回报)由Jegadeesh和Titman(1993)提出,以及长期反转(使用t-13月至t-60月的回报)由De Bondt和Thaler(1985)提出。检查股票GPT相对于领先股票因子的表现也很有趣,如Fama和French(2015)的五个因子和Hou等人(2021)的投资基础q5因子。
按照资产定价研究的标准,为了检查一个策略相对于一组其他交易因子赚取异常回报,我们可以进行以下同时回归:
yt = α + β × xt + et (2)
其中yt是目标策略的回报,xt是基准因子集合。如果α显著,则yt相对于xt赚取异常回报;否则,yt被xt涵盖。这个测试也被称为跨越测试。
表4的面板A报告了跨越测试的结果,其中yt是股票GPT基于投资组合的日回报,xt是基准因子集合。相应地,无论是等权重还是价值加权的股票GPT投资组合,相对于所有11个基准因子都赚取了显著的α。在面板B中,我测试了股票GPT投资组合是否涵盖基准因子。等权重股票GPT投资组合涵盖了动量、长期反转、价值和规模,而价值加权股票GPT投资组合除了Fama-French模型中的盈利能力和q5模型中的盈利增长外,涵盖了11个因子中的9个。价值加权股票GPT投资组合比其他因子更好地涵盖其他因子是预期的,因为这些因子也是价值加权的。
总体而言,跨越测试表明,当我们让股票数据通过股票GPT中的注意力机制为自己发声时,不再需要像短期反转、动量和长期反转这样的手工制作的价格策略。值得注意的是,尽管股票GPT只从过去12个月的历史回报中学习,但它完全涵盖了基于过去12个月之外的回报的长期反转模式。此外,基于股票GPT的投资组合还涵盖了大多数领先的股票因子。
4.3 月回报
虽然股票GPT表现出色,但它需要每日交易和重新平衡。对于一些投资者来说,这并不可行。因此,出现的问题是股票GPT是否可以用于进行更长期的预测,以构建较低频率的投资组合。
从股票GPT生成未来m天的长期回报预测有两种方法。第一种方法是生成几条预测路径xj = (xT+1, xT+2, ..., xT+m),并在路径上平均以计算未来m天的预期回报。然而,这种方法非常计算昂贵,因为平均每天有3000到4000只股票交易。对于每只股票每天,我们需要进行许多m天的预测路径并平均它们。
第二种方法是训练一个新的股票GPT模型,其中每条回报观测的单位是m天(例如,使用月回报作为输入训练股票GPT模型)。我在本节中追求这种方法。具体来说,我在128个月的回报序列上训练了一个股票GPT模型(大约10年),所有其他规格保持与每日模型不变。由于模型现在使用月回报,每只股票必须至少有128个月的观测数据,因此训练样本只剩下180万个月观测数据。对于这个模型,我包括了来自所有三个交易所(NYSE、NASDAQ和AMEX)的数据,因为128个月的要求已经排除了像NASDAQ和AMEX这样的较小股票交易所中的大多数噪音。
表5报告了基于市值排除底部10th百分位股票的月度长短投资组合的回报统计数据。等权重的月度长短投资组合每年赚取约7-8%的回报,显著性达到1%,夏普比率约为0.6-0.7。这些等权重投资组合在回报预测和投资组合形成之间跳过一个月也不会迅速衰减。无论是否跳过一个月,月度股票GPT模型在预测长腿股票方面都比短腿股票做得更好,如图3所示。
总体而言,虽然月度股票GPT模型仍然产生了盈利的交易策略,但货币利润的幅度远小于每日模型。这个结果有两个原因。首先,月度方法下的训练数据量要小得多。其次,至少需要10年的数据的要求排除了大多数小盘股,而每日策略的超常表现正是源自这些小盘股。
5 结论
本文介绍了股票GPT,这是一个直接在美国股票回报上训练的仅解码器变换器模型。股票GPT不依赖于使用历史股票价格的手工制作交易模式,而是通过其注意力机制自动学习预测未来回报的隐藏模式。尽管只在2000年之前的每日回报上进行了训练,但股票GPT在之后的23年里仍然表现出色。基于股票GPT的投资组合涵盖了常见的基于价格的交易策略,如动量和长期/短期反转,以及大多数领先的股票因子,如市场、规模、价值和投资。
股票GPT可以在几个方面得到增强。首先,随着新股票数据的到来,应频繁重新训练股票GPT以保持其性能。其次,本文介绍的股票GPT是一个轻量级模型,只有大约一百万参数。自然的扩展是检查具有更细粒度的回报区间、更长的批量大小、更大的嵌入尺寸和更多注意力块层的更大模型。第三,检查每日股票GPT模型的长期预测可以是一个有成效的方向。最后,使用更高频率的数据(如分钟级回报)训练股票GPT可能会产生有趣的结果。
10
图1:股票GPT架构
图1展示了股票GPT的架构。图中显示了输入序列x1、x2、x3...xt-2、xt-1、xt,通过位置嵌入和标记嵌入后进入注意力块1至注意力块4,然后通过线性层和Softmax层输出xt+1、xt+2、xt+3...xt-2、xt-1、xt。
图2:日累积回报
图2展示了由股票GPT回报预测形成的高低减去低(HML)和高(H)、低(L)投资组合的对数累积回报。投资组合是等权重的。在形成投资组合时,排除了基于市值的底部十分之一的股票。不同的投资组合对应于排除股票的市场价格阈值。面板A(B)显示了当使用t+1日的回报预测形成t+1日(t+2日)的投资组合时的结果。左侧(右侧)面板显示了长短期(每个腿)投资组合的结果。样本是从2001年1月到2023年12月的每日数据。
图3:月累积回报
图3展示了由股票GPT回报预测形成的高低减去低(HML)和高(H)、低(L)投资组合的累积回报。投资组合是等权重的。在形成投资组合时,排除了基于市值的底部十分之一的股票。不同的投资组合对应于排除股票的市场价格阈值。面板A(B)显示了当使用t+1月的回报预测形成t+1月(t+2月)的投资组合时的结果。左侧(右侧)面板显示了长短期(每个腿)投资组合的结果。样本是从2001年1月到2023年12月的每月数据。
表1:回报区间
表1展示了回报区间、区间中点和相应的区间索引。
表2:Fama-MacBeth回归
表2报告了以下横截面回归的时间序列平均斜率和调整后的R2:
xit+1 = at + bt × ˆxit+1 + eit+1
其中,xit+1是股票i在t+1日实际实现的回报,ˆxit+1是它的StockGPT回报预测。回报以基点为单位,R2以百分比为单位。t是使用Newey和West(1987)标准误(滞后20期)计算的bt时间序列平均值的t统计量。视野1(2)意味着将t+1日的回报预测与t+1日(t+2日)的实际回报进行比较。样本是从2001年1月到2023年12月的每日数据。
表3:日投资组合统计
表3报告了基于股票GPT的日长短投资组合的回报统计数据。平均值和标准差(SD)以年化百分比表示;平均值/SD(夏普比率)是年化的;最小值、最大值和最大回撤(MDD)以百分比表示;t-平均值是使用Newey-West标准误(滞后20期)计算的平均投资组合回报的t统计量。投资组合在排除基于市值的底部十分之一的股票后形成。视野1(2)指的是使用t+1日的回报预测形成t+1日(t+2日)的投资组合。EW(VW)指的是等权重(价值加权)。价格过滤器指的是排除股票的价格水平阈值。样本是从2001年1月到2023年12月的每日数据。
表4:跨越测试
表4报告了以下跨越测试的结果:
yt = α + β × xt + et
在面板A中,yt是股票GPT基于投资组合,xt是短期反转(ST Rev)、动量(Mom)、长期反转(LT Rev)、市场(MKT)、价值(HML)、规模(SMB)、盈利能力(RMW)、投资(CMA)来自Fama和French(2015),以及投资(R IA)、股本回报率(R ROE)和盈利增长(R EG)来自Hou等人(2021)。在面板B中,yt是因子之一,xt是股票GPT基于投资组合之一。α以年化百分比点表示,R2以百分比点表示。tβ使用Newey-West标准误(滞后20期)计算。样本是从2001年1月到2023年12月的每日数据。
面板A:股票因子跨越股票GPT
面板A显示了股票GPT基于投资组合与各种股票因子之间的关系,包括短期反转、动量、长期反转、市场、价值、规模、盈利能力和投资等。这些因子对股票GPT投资组合的α和β系数进行了测试,以确定股票GPT投资组合是否能够获得超出这些因子的异常回报。
面板B:股票GPT跨越股票因子
面板B显示了股票GPT基于投资组合与各种股票因子之间的关系,测试了股票GPT投资组合是否能够涵盖这些因子。这些因子包括短期反转、动量、长期反转、市场、价值、规模、盈利能力和投资等。这些测试结果表明,股票GPT投资组合在某些情况下能够涵盖这些因子,表明其预测能力超越了传统的股票市场因子。
这些跨越测试的结果表明,股票GPT投资组合在某些情况下能够获得超出传统股票市场因子的异常回报,这表明股票GPT模型能够有效地捕捉市场动态,并为投资者提供有价值的信号。此外,股票GPT投资组合在涵盖传统股票市场因子方面也表现出一定的能力,这进一步证明了其在股票市场预测和交易决策中的潜力。
表5:月度投资组合统计
表5报告了基于股票GPT的月度长短投资组合的回报统计数据。平均值和标准差(SD)以年化百分比表示;平均值/SD(夏普比率)是年化的;最小值、最大值和最大回撤(MDD)以百分比表示;t-平均值是使用Newey-West标准误(滞后4期)计算的平均投资组合回报的t统计量。投资组合在排除基于市值的底部十分之一的股票后形成。视野1(2)指的是使用t+1月的回报预测形成t+1月(t+2月)的投资组合。EW(VW)指的是等权重(价值加权)。价格过滤器指的是排除股票的价格水平阈值。样本是从2001年1月到2023年12月的每月数据。
A 日模型训练所有股票
表A.1:日投资组合统计
表A.1报告了基于股票GPT的日长短投资组合的回报统计数据。平均值和标准差(SD)以年化百分比表示;平均值/SD(夏普比率)是年化的;最小值、最大值和最大回撤(MDD)以百分比表示;t-平均值是使用Newey-West标准误(滞后20期)计算的平均投资组合回报的t统计量。投资组合在排除基于市值的底部十分之一的股票后形成。视野1(2)指的是使用t+1日的回报预测形成t+1日(t+2日)的投资组合。EW(VW)指的是等权重(价值加权)。价格过滤器指的是排除股票的价格水平阈值。样本是从2001年1月到2023年12月的每日数据。
这些额外的表格和数据提供了对股票GPT模型在不同时间尺度(日和月)和不同投资组合构建策略(等权重和价值加权)下的表现的深入了解。这些结果可以帮助投资者和研究人员评估模型在实际交易环境中的应用潜力,并为未来的研究和投资策略提供有价值的见解。通过这些统计数据,我们可以观察到股票GPT模型在不同条件下的表现,包括不同投资组合权重策略和价格过滤器对投资组合回报的影响。这些结果进一步证实了股票GPT作为一种强大的工具,能够在股票市场中提供有价值的信号和预测。
参考文献
Ansari, A. F., Stella, L., Turkmen, C., Zhang, X., Mercado, P., Shen, H., Shchur, O., Rangapuram, S. S., Arango, S. P., Kapoor, S., et al. (2024). Chronos: Learning the language of time series. arXiv preprint arXiv:2403.07815.
Baldassarre, M. T., Caivano, D., Fernandez Nieto, B., Gigante, D., & Ragone, A. (2023). The social impact of generative ai: An analysis on ChatGPT. Proceedings of the 2023 ACM Conference on Information Technology for Social Good, 363–373.
Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., et al. (2020). Language models are few-shot learners. Advances in neural information processing systems, 33, 1877–1901.
De Bondt, W. F., & Thaler, R. (1985). Does the stock market overreact? Journal of Finance, 40(3), 793–805.
Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
Fama, E. F. (1970). Efficient capital markets. Journal of finance, 25(2), 383–417.
Fama, E. F., & French, K. R. (2015). A five-factor asset pricing model. Journal of financial economics, 116(1), 1–22.
Fama, E. F., & MacBeth, J. D. (1973). Risk, return, and equilibrium: Empirical tests. Journal of political economy, 81(3), 607–636.
Gu, S., Kelly, B., & Xiu, D. (2020). Empirical asset pricing via machine learning. The Review of Financial Studies, 33(5), 2223–2273.
Han, Y., Yang, K., & Zhou, G. (2013). A new anomaly: The cross-sectional profitability of technical analysis. Journal of Financial and Quantitative Analysis, 48(5), 1433–1461.
Hou, K., Mo, H., Xue, C., & Zhang, L. (2021). An augmented q-factor model with expected growth. Review of Finance, 25(1), 1–41.
Jegadeesh, N. (1990). Evidence of predictable behavior of security returns. Journal of Finance, 45(3), 881–898.
Jegadeesh, N., & Titman, S. (1993). Returns to Buying Winners and Selling Losers: Implications for Stock Market Efficiency. Journal of Finance, 48(1), 65–91.
Jiang, J., Kelly, B., & Xiu, D. (2023). (Re-) Imag (in) ing Price Trends. The Journal of Finance, 78(6), 3193–3249.
Jiang, J., Kelly, B. T., & Xiu, D. (2022). Expected returns and large language models. Available at SSRN.
Kelly, B., Xiu, D., et al. (2023). Financial machine learning. Foundations and Trends® in Finance, 13(3-4), 205–363.
Kirtac, K., & Germano, G. (2024). Sentiment Trading with Large Language Models. Finance Research Letters.
Lopez-Lira, A., & Tang, Y. (2023). Can ChatGPT forecast stock price movements? Return predictability and large language models. arXiv preprint arXiv:2304.07619.
Mannuru, N. R., Shahriar, S., Teel, Z. A., Wang, T., Lund, B. D., Tijani, S., Pohboon, C. O., Agbaji, D., Alhassan, J., Galley, J., et al. (2023). Artificial intelligence in developing countries: The impact of generative artificial intelligence (AI) technologies for development. Information Development.
Newey, W. K., & West, K. D. (1987). Hypothesis testing with efficient method of moments estimation. International Economic Review, 777–787.
Sætra, H. S. (2023). Generative AI: Here to stay, but for good? Technology in Society, 75, 102372.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30.
Wang, G., Yang, G., Du, Z., Fan, L., & Li, X. (2023). ClinicalGPT: Large language models finetuned with diverse medical data and comprehensive evaluation. arXiv preprint arXiv:2306.09968.
Wu, S., Irsoy, O., Lu, S., Dabravolski, V., Dredze, M., Gehrmann, S., Kambadur, P., Rosenberg, D., & Mann, G. (2023). BloombergGPT: A large language model for finance. arXiv preprint arXiv:2303.17564.
Yang, Y., UY, M. C. S., & Huang, A. (2020). FinBERT: A Pretrained Language Model for Financial Communications.
Zhang, S., Roller, S., Goyal, N., Artetxe, M., Chen, M., Chen, S., Dewan, C., Diab, M., Li, X., Lin, X. V., et al. (2022). OPT: Open pre-trained transformer language models. arXiv preprint arXiv:2205.01068.
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。