独家专访“前方AI量化”联合创始人李天成,解构市场预测背后的算法与数学原理
【编者按】
在算法与数据主宰的时代,金融市场正经历一场深刻的认知革命。传统的K线图与技术指标,是否足以描绘市场的全貌?当海量的新闻、财报、政策与宏观事件交织影响时,交易决策的未来将走向何方?
为此,我们专访了普林斯顿大学运筹学与金融工程博士、拥有16年A股实战经验的资深量化策略师——Leonhard 李天成。作为“前方AI量化系统”的联合创始人,他不仅是市场的“老将”,更是将前沿AI技术与交易哲学深度融合的“先锋”。在这场对话中,李天成博士将以其一贯的严谨与冷静,为我们揭示其团队如何将市场视为一个可计算的复杂系统,并从第一性原理出发,构建其核心预测与决策框架。
记者: 李博士,您好。您一直强调交易的本质是概率。从一个金融工程师的视角看,当前主流的量化分析方法,在捕捉市场这个高维随机过程(high-dimensional stochastic process)时,其根本性的局限体现在哪里?
李天成: 很好的切入点。根本局限在于特征空间的错配(mismatch of feature space)。传统量化,包括许多初级的机器学习应用,其处理的对象本质上是欧几里得空间(Euclidean space)中的数据——即价格、成交量等构成的向量或矩阵。然而,市场的真实结构是非欧几里得的。资产之间的关系——如供应链、竞争、行业归属、宏观影响——构成了一个复杂的、动态的图(Graph)结构。将一个内在的图结构数据强行投影到欧氏空间进行分析,必然会造成大量结构性信息的损失。这就好比试图用一张平面的世界地图去精确计算地球上两点间的球面距离,误差是系统性的。我们的工作,就是从根本上承认并利用市场的非欧几里得特性。
记者: 这引出了您多次提到的“知识图谱”(Knowledge Graph)概念。能否为我们具体阐述,这个图谱在您的系统中是如何被构建,并从数学上扮演什么角色的?它仅仅是一个数据仓库,还是算法的一部分?
李天成: 它远不止是数据仓库,它是我们整个算法框架的拓扑骨架(topological skeleton)。构建过程是持续的、多源的,我们将财报、新闻、研报、政策公告等非结构化和半结构化数据,通过自然语言处理(NLP)和实体关系抽取,转化为(头实体,关系,尾实体,时间戳)这样的四元组。
从数学上看,这个时态知识图谱(Temporal KG)在任意时间点 t 都是一个异构图(Heterogeneous Graph)。它的核心作用有两个:
提供结构化先验(Structural Prior): 它为模型提供了资产间并非相互独立的先验知识。例如,模型在分析一家电池公司的基本面时,能够通过图的连接,同时“感知”到上游锂矿价格的波动和下游新能源车企的销量数据。
作为信息传播的媒介: 它是我们后续图神经网络(GNN)进行信息传递和聚合的底层网络。一个事件(如“对某行业进行补贴”)的发生,在图谱中表现为一个新节点的加入或一条新边的生成,其影响会沿着图的边进行传播和衰减,这个过程是可以被数学模型捕捉的。
记者: 那么在算法层面,您是如何处理这个动态图谱的?相较于处理线性序列的CNN或LSTM,您所采用的GNN和Transformer架构,在解决这个“非欧几里得”问题上,核心优势是什么?
李天成: 这是一个关于模型架构选择的核心问题。
CNN,其核心是卷积核,本质上是平移不变性(translation invariance)的局部特征提取器。它在图像识别上很成功,因为猫无论在图片左上角还是右下角,它依然是猫。但金融数据不具备这种性质,一个价格形态在牛市和熊市的含义完全不同,其“位置”信息至关重要。
LSTM,通过其门控循环单元,解决了对时间序列的长程依赖(long-term dependency)问题。它能记住序列的“过去”。但它的结构是线性的,它假定信息是沿着时间轴单向流动的。这无法处理并发的、来自多个不同源头的信息冲击。比如,在同一天,一家公司既发布了财报,又遭遇了行业监管,同时其CEO发表了重要言论。LSTM很难优雅地处理这三个正交(orthogonal)的信息输入。
我们的解决方案是一个时空联合模型(Spatio-Temporal Model):
GNN(图神经网络) 负责空间维度。我们采用的是一种带注意力机制的异构图卷积网络(Heterogeneous Graph Attention Network)。在每个时间步,GNN会在知识图谱上进行迭代式的消息传递(message passing)。每个节点(股票)会聚合其邻居节点的信息,邻居的权重由注意力机制动态决定。这个过程结束后,每个节点都获得了一个融合了其周边结构信息的嵌入向量(embedding)。这解决了“空间”或“结构”上的信息融合问题。
Transformer 负责时间维度。我们将GNN在连续时间步 t-n, ..., t-1, t 上生成的节点嵌入向量序列,作为Transformer的输入。Transformer的自注意力机制(Self-Attention Mechanism)允许模型在时间轴上任意两个点之间直接建立联系,它能动态地判断,对于预测 t+1 的状态,是 t-5 时的宏观数据更重要,还是 t-1 时的公司新闻更重要。这打破了LSTM的线性依赖束缚。
总结来说,GNN在每个时间切片上“横向”聚合了全市场的结构信息,而Transformer则将这些切片“纵向”串联起来,捕捉其动态演化规律。
记者: 如此复杂的系统,最终是如何生成一个可执行的交易信号的?它输出的是一个确切的买卖点,还是一个概率分布?
李天成: 我们从不追求确切的买卖点,那是对市场确定性的幻想。我们的系统输出的是一个排序向量(Ranking Vector)和对应的置信度分布(Confidence Distribution)。
具体流程是:经过GNN和Transformer的联合编码后,每个股票都得到一个高维的、包含了时空信息的最终特征向量。这个向量会通过一个预测层(Prediction Layer),该层的目标函数(Objective Function)并非是回归到某个具体价格,而是一个列表式损失函数(Listwise Loss Function),比如ApproxNDCG。它的优化目标是让模型学会排序,使得未来一段时间内预期回报率最高的股票,排在列表的最前面。
同时,我们会并行训练一个分类器,判断每个股票未来上涨的概率。最终,一个交易决策的产生,是基于“排名靠前”且“上涨概率高于某个阈值”的双重条件。我们交易的是高胜率的概率优势,而非对未来的精准预测。
记者: 在这个高度自动化的系统中,您和您的团队作为人类策略师,扮演的角色是什么?是否仅仅是系统的监控者和维护者?
李天成: 我们的角色是系统架构师和科学研究者。具体体现在三个方面:
定义问题与假设: 机器擅长在给定的框架内寻找最优解,但它无法定义框架本身。例如,决定将“高管变动”作为一个重要的关系类型纳入知识图谱,或者提出“某个宏观因子与科技股的联动模式可能发生了结构性变化”这样的新假设,这需要人类的洞察和经验。
设计损失函数(Loss Function): 模型的“价值观”是由损失函数决定的。我们希望模型优化的是夏普比率、信息比率,还是控制最大回撤?这些带有策略偏好的目标,需要我们将其翻译成严谨的数学形式,指导模型的学习方向。
归因与迭代: 当模型在某些市场环境下表现不佳时,我们需要深入其内部,进行模型归因(Model Attribution)分析。是数据源出了问题?是图结构定义有缺陷?还是某个子模块的权重需要调整?这个过程类似于科学实验,不断地发现问题、提出假设、设计实验、验证迭代。
AI是最高效的执行者,而我们是设定其物理定律和演化方向的“上帝”。这是一种深度共生的关系