主页 > imtoken钱包官方苹果 > 美国往事:量化投资永远不等于高频交易

美国往事:量化投资永远不等于高频交易

imtoken钱包官方苹果 2023-10-16 05:13:41

好买说

无论是本月引发关注的近期百亿量化私募,还是被刷屏的量化投资金牛基金经理的论坛记录,“量化”无疑是当今资管市场最重要的话题。

在广为流传的2004年和2018年全球对冲基金资产管理规模排名对比中,全球管理规模排名前十的对冲基金在过去14年遭遇了剧烈洗牌。 交易型资产管理公司一跃成为舞台中央,万众瞩目。

事实上,当我们回顾过去几十年全球资产管理发生的变化时,我们会发现比特币高频交易软件,“量化”和“主观”标签的区分过于粗略和笼统,缺乏充分的依据。准确性。

作为全球前五的对冲基金,桥水、AQR、Man、Renaissance和Two Sigma背后也有着不同的出身和流派,在投资上着力解决的问题也各不相同。

因此,在国内量化的热潮中,我们更需要冷静、更全面地了解过去几十年这个行业经历了怎样的发展,如何以此为鉴,审视量化的现状和未来。国家。

以下为好麦真财《量化暴涨的冷思考》系列文章第一篇,旨在从美国对冲基金的发展中寻找别石,与读者拨开云雾,探寻量化投资的真谛在以后的实践中。 乐土(上帝允许给亚伯拉罕的地方。

量化热潮冷思考NO​​.1 |

美国往事:量化投资永远不等于高频交易

01

混乱开始 (1952)

现代投资组合理论的介绍

从开始的混乱到激战,以美国对冲基金为代表的海外资管,无论采用何种基本交易方式,最终目的都是优化自身投资。

在寻找投资圣杯的路上,无论选择哪条路,都有三座大山绕不过去——预测收益、控制风险、交易执行。 如何突破并有机结合,一直是学界和产业界关注的焦点。

1952年,马科维茨提出现代投资组合理论(Modern Portfolio Theory,简称MPT),首次利用预期收益、收益率波动率和相关矩阵对一篮子资产的风险收益属性进行量化。

在上述输入已知的前提下,构建投资组合配置的有效前沿(即给定目标风险下期望收益最大化的投资组合),从理论上试图回答如何衡量、构建和优化投资组合和收益的风险。

MPT理论为投资组合管理(即风险控制)的量化和系统化奠定了基础,但并未解决如何预测收益的问题,也无法参与交易执行。

02

全力以赴 (1962)

概率论小测验

正是传奇数学家和科学家埃德·索普教授为量化投资偷了火。

他首先通过对概率论的深入研究,系统地衡量了单笔交易的风险和收益,并将其准确地应用到博彩游戏中。 1961年,索普教授去拉斯维加斯的里诺赌场小住几晚,在牌桌上大获全胜。 次年,他出版了《击败银行家》和《击败市场》,被投资界视为标准。

随后,他管理的第一支基金也充分利用了他对投资概率的量化理解,创造了年化19%、连续230个月227个月不亏损本金的传奇纪录。

顺便说一句,索普教授在科研方面的成就也令人钦佩。 他与信息论鼻祖克劳德·香农教授一起发明了世界上第一台可穿戴计算机——用于在赌场进行测试,他的研究成果相当于牛顿为了研究万有引力定律而发明微积分。

索普教授对人性弱点的洞察和交易规则的精准执行处处可见索普教授的研究和实践比特币高频交易软件,但正如他本人在近年出版的自传《A Man for All Markets》(A Man for All Markets)中总结的那样,投资回报的最终来源其实是对市场有效性程度的认知和把握。 具体可分为市场信息获取的公平性、投资者的有限理性、信息分析的片面性、实际市场交易的执行力度和机制(如卖空限制等)。

03

诸神的纷争 (1970-1980)

有效市场理论与衍生定价模型的诞生

1970年尤金·法玛加深了对市场效率的认识,进一步提出了效率市场理论,成为金融学最重要的理论基石之一。

根据这一理论,如果在证券市场中,价格充分反映了所有可获得的信息,那么这样的市场就称为有效市场。 这也意味着无数市场参与者都在寻找细小的线索,以对股票的未来价格做出最准确的预测。 尤其是那些有能力获取和处理所有信息的人,他们会利用所知道的一切来预测股票的价格,绝不会放弃任何获利的机会。

时至今日,有效市场理论的支持者和反对者之间仍有许多争论。 但不可否认的是,这套理论开创了市场实证研究的先河,直接推动了20世纪最后20年的公募基金指数化。

著名的领航基金(Vanguard)就是在这样的背景下成立的,并一路发展壮大。 为现代股票量化投资提供了思路,开辟了特定的方向。

与此同时,金融衍生品的定价理论也得到了发展。 Fisher Black、Myron Scholes 和 Robert Merton 教授发表了期权定价理论的研究成果。 芝加哥期权交易所(CBOE)也于1973年4月正式成立。在此之前,期权在美国少数几家交易商之间进行场外交易。 CBOE建立期权交易市场并推出标准化合约,对期权交易进行了一场革命,标志着期权交易进入了规范化、规范化的新阶段,为量化投资和风险管理提供了工具和土壤。

04

笑傲江湖 (1978-1984)

统计套利的诞生与系统化

Gerry Bamberger(作者的导师之一)于 1978 年从哥伦比亚大学计算机科学专业毕业后加入摩根士丹利,当时学术界仍在为有效的市场理论和定价模型而斗争。 这又是一个不得不载入量化投资史册的天才。

Bamberger 以编程方式开发并实施了配对交易,并以出色的创造力和敏锐的执行力对其进行了扩展。 简单来说,就是找到一对由于很多共同的驱动原因(通常是基本面)而价格走势相似的股票,比如IBM和Apple,多买相对强势的股票,卖空相对弱势的股票获得差价。 同时也对冲了市场风险和行业风险。

结合实证资产定价模型和统计理论,Bamberger 成功地将股票交易对的交易进入和退出筛选、监控和控制系统化和自动化。 他的尝试获得了巨大的成功,引起了华尔街的注意。 随后几年,他进一步将配对交易扩展为一揽子统计套利交易,严格控制个股持仓,平衡多空头寸。 这是投资者今天熟悉的市场。 现代意义上的中立战略的雏形。 受限于当时的理论、市场背景和交易机制,班贝格的统计套利和市场中性策略的平均持有周期在几天到几周之间,与投资者熟悉的中性策略的底层实现相去甚远今天。

班贝格天才般的表现赢得了上述索普教授的青睐。 经过长时间的交谈,两人于1984年携手在洛杉矶成立了Long Beach Capital,并差点招来了David Shaw(现为华尔街首屈一指的对冲基金DE Shaw的创始人),后因法律上的原因,但两人的友谊却一直延续至今。

索普教授2008年夏天在Wilmott Magazine上写了一系列长篇文章来描述那些热血沸腾的岁月,作为量化教父,他写了一本书来证明班伯格是统计套利的真正创始人。 吃金枪鱼沙拉后想抽烟的犹太人”。

05

百家争鸣(1980-2000)

因子投资、风险模型、市场异常和基本面量化

股票之间的相关程度意味着它们的收益可以被一系列共同因素所解释,而不能被这些共同因素解释的部分的大小直接衡量了市场的效率和投资机会。 这些常见的系统因素称为风险/风格因素。

上世纪最后二十年,实证资产定价理论在这个方向上取得了重大突破,开启了多因子股票量化投资的生态。 Eugene Fama 和 Kenneth French 在 1992 年和 1993 年提出了著名的三因子模型,即市场因子、市净率和规模因子,得出的结论是股票横截面和时间序列上的回报率可以是以上三个因素充分说明了。

有严重的反对者,根据公司的财务数据和市场数据,立刻找出一系列无法​​用三因素模型解释的现象,统称为市场异常(market anomaly),比较有名的如应收账款异常(Accrual)、动量和发行后收益漂移(PEAD)等,并尝试用行为金融学而不是基于风险的定价理论来解释。

这一时期,基于金融数据的基本面量化(Quantamental)开始形成体系,成为量化股票投资的主流选择。

AQR、华大基因等海外著名私募股权巨头深耕该行业,形成了自己独特的优势。 直到今天,基本面量化股票投资仍然是海外股票市场量化投资最重要的策略,但模型数据已经从金融和市场数据扩展到更广泛、更独特和不可替代的信息来源,研究方法也有了新的突破。早就不一样了简单的线性定价模型或学术界的多种分类。

学术界这场轰轰烈烈的因子与市场异常之争,或许会对业界产生深远的影响,因为它直接推动了因子模型的商业化。 著名的 Barra 模型自 1990 年代初期就已建立,并逐渐演变。 一个标准的风格/风险/行业因素库用于衡量投资组合对每个风险因素的敞口,以进行风险控制和绩效分析。

06

与时俱进(1980-2000)

公募工具化、IT技术发展与系统化投资繁荣

与理论模型同时存在的还有投资和技术进步的政策支持。

80年代初期,美国经历银行业危机后,为抵御高通胀和高利率的局面,政府在疏通利率传导机制的同时,加快了股权市场改革。 税延养老金(401K)计划推出并大量进入市场。

经济回暖、增量资金动荡、市场效率低下、利率居高不下,给二级市场带来了巨大的机会。 计算机技术的进步,计算机的普及,增加了数据存储和获取的便利性,信息渠道的多样化(如1981年彭博终端的创建)使许多原本费时费力的战略构想成为可能开发和测试需要快速实现的劳动密集型。 验证机会,并可以严格和系统地实施和执行。

在公募基金规范化、工具化的过程中,私募股权对冲基金,尤其是系统化/量化对冲基金如雨后春笋般涌现,如DE Shaw(1986)、AHL(1987)、Renaissance(1988)、当今的行业巨头如Citadel (1990)、AQR (1993)、Yuan Sheng (1997) 和 Two Sigma (2001) 就是在这个时期诞生的。

战略上,量化多头、全球市场中性、大宗商品CTA和全球宏观资产配置成为这些系统性投资的主流选择。

07

只有快速和坚不可摧(1993-2008)

市场机制改革、电子平台和高频交易

计算机信息技术的快速发展也增强了监管能力,引发了交易所的市场化改革。

更重要的是,例如SEC在经过大量实践论证后,于1993年和1997年连续两次将买卖报价差的最小变动从0.125美元降至1/32美元,并于1997年实施Rule 615将零售保险政策与纳斯达克相结合 做市商订单得到公平对待。 这些举措极大促进了市场流动性,降低了交易成本,间接提高了市场效率。 除了导致部分做市商缩水退出竞争外,客观上也给对冲基金策略的有效性和可持续性带来了问题。 .

进入21世纪,SEC加速市场交易和信息机制的变革,先后通过tick decimalization(报价差异化)、Reg FD(公平信函披露)和Sabin-Oxley等监管法案,加速公平传递和信息的获取。 并进一步降低交易成本。

从交易所到场外,电子交易平台逐渐取代了人工。 2003年,纽交所和纳斯达克的SuperMontage在定价和下单机制上突破了最后一道摩擦壁垒,也提供了大面积高速下单。 机制和交易为便利打开了大门。

应运而生的是如今神秘莫测却被津津乐道,甚至直接等同于中国量化投资的高频交易。 而这也让一大批量化对冲基金和自营交易团队张开双臂,在交易执行领域备战。 为了减少1毫秒甚至1微秒的逻辑和物理延迟增加的利润,他们不惜重金升级算力,下载Single算法和交易系统。

08

机器的兴起(2008 年至今)

人工智能、机器学习和方法论创新

在传统的量化投资中,由于数据广度和深度的积累,以及存储和处理的局限性,数理统计和计量经济模型发挥着重要作用。 在观察样本有限的情况下,投资解决样本外策略可靠性的唯一途径是针对现象提出基于经济原理、行为原理和交易机制设置的假设解释。 然后,利用可观察量之间的数学关系来量化因果规律,并设计假设条件下最可能或不可能的场景,用特殊样本进行验证。

因此,经验和创造性思维对于模型的提出、修正和改进非常重要。

进入大数据和机器学习时代,同一对象的多维度、时序描述; 数据之间复杂的、有条件的、多方位的影响反馈机制允许描述数据相关性、降维寻找重要信息、构造特征。 映射关系的量化和重构成为研究的热点。 对收益预测和交易执行的研究已经部分被传统资产定价模型、博弈论等因果规律中描述整体特征和相关度的新方法所取代,并不断与后者融合。

从海外投资界理论和实践的发展来看,我们或许需要重新审视国内对“量化投资”的定义。

事实上,如果我们翻开权威的全球另类投资管理协会(AIMA)对冲基金尽职调查手册,我们可以看到AIMA在如何最终确定公司的基本交易方式时给出的选择权它们是Discretionary(自决)和Systematic(系统化),而后者在国内一般被称为量化投资,甚至对于大部分投资者来说,量化就是高频的代名词。

然而,回到开头,我们提到了投资的三座大山——预测收益、控制风险和交易执行。 高频只是更频繁的交易执行。 它既不是量化投资的主流,也不能充分揭示投资的本质。 重点是。

作为“量化暴涨的冷思考”系列文章之一,好麦真财VIP未来将发布更多系列文章,希望为国内投资者带来对该行业更深入的观察和解读。