2025经济、科技与交叉科学国际峰会在SIMIS成功举办

2025年11月8日,“2025经济、科技与交叉国际峰会”在上海数学与交叉学科研究院召开,本次会议由上海数学与交叉学科研究院、上海财经大学数理经济学教育部重点实验室、复旦-斯坦福金融科技与安全研究院联合主办,由世界华人数学家联盟、康奈尔金融科技中心协办。

上海财经大学经济学院院长和SIMIS访问学者周亚虹教授主持会议开幕式,他首先对各位专家和嘉宾的到来表示热烈欢迎,并隆重邀请知名数学家、菲尔兹奖获得者、上海数学与交叉学科研究院理事长丘成桐先生致开幕辞。

丘成桐先生在致辞中指出,人工智能已成为近年来推动人类智能进步的关键力量,正深刻驱动数学、工业等诸多领域的快速发展。他强调,中国与许多国家一样,正在加大对人工智能的投入,这一战略方向值得充分肯定——因为该领域仍充满众多未知,亟待我们深入探索。除了持续推进人工智能本身的基础研究,我们更应着力推动其在数学、物理学以及其他基础科学中的广泛应用。

要实现真正意义上的跨学科突破,我们必须共同培养一种关键能力:即准确识别哪些问题是人工智能能够协助解决的。在数学领域,许多重大课题正变得日益复杂,涉及对结构本质与复杂度的深层把握,部分前沿定理的证明甚至长达数千页,远超个人独立理解的范畴。我们期待人工智能能够帮助研究人员梳理论证逻辑、验证理论成果。与此同时,随着各学科不断涌现出海量数据,人工智能以其远超人类的数据处理能力,有望协助我们从复杂信息中提取有价值的知识洞见。

丘先生进一步指出,在当前阶段举办融合经济学视角的会议恰逢其时。经济学中蕴含着丰富而活跃的数据资源,具有重要的分析意义,但也伴随着大量噪声干扰,需要数学家、工程师、物理学家与经济学家通力合作,共同挖掘数据背后的深层规律。

他相信,这样的跨学科协作将引领整个领域走向更加广阔的未来,并表达了亲身参与这一事业的强烈意愿。最后,丘先生殷切期盼,本次会议能有效促进更深层次的跨学科对话与合作,并为未来催生丰硕成果奠定坚实基础。

随后,会议进入“经济与金融中的机器学习”主旨演讲环节。周亚虹教授主持了该环节的讨论,多位学者相继分享了前沿研究成果。

斯坦福大学管理科学和工程系教授、高级金融科技实验室主任Kay Giesecke教授以“AICO:监督学习中的特征显著性检验”为题发表了演讲。他指出,尽管机器学习预测能力强大,但其”黑箱”特性使得关键特征难以识别,这为科学推断和决策带来挑战。针对这一难题,Giesecke教授提出了AICO框架,将可解释性问题转化为统计推断任务。该方法通过遮蔽特征并观察模型性能变化来评估特征重要性,适用于所有监督学习模型,无需重新训练即可提供p值和置信区间等统计推断结果。

在方法原理部分, Giesecke教授详细阐述了AICO的核心设计。其关键概念是“特征效应”,即通过构建基准特征值和对比特征值,计算模型在两种情况下的得分差异,以此量化单个样本中特征的重要性。实证检验部分,Giesecke教授展示了AICO在合成任务和真实应用中的卓越表现。在非线性回归和分类的合成任务中,AICO与多种主流方法相比,统计效果相当或更优,假发现率极低,且计算成本降低了数个数量级。与SHAP等常用算法重要性度量相比,AICO对数据噪声更稳健,特征排序更稳定。在信用卡违约预测和抵押贷款状态转换预测两大真实场景中,AICO 成功识别出关键驱动变量,如信用卡违约预测中发现性别、婚姻状况等受保护特征的统计显著性,抵押贷款预测中定位到宏观经济变量和历史状态转换特征的重要作用,充分证明了方法的实用价值。

最后,Giesecke教授总结道,AICO 填补了机器学习实践与经典统计推断之间的长期鸿沟,为大规模应用提供了透明、可信的预测路径。其兼具统计严谨性、计算可扩展性和实践适用性的特点,有望成为机器学习可解释性的新标准,为科学、工业和政策领域的循证决策提供有力支持。

芝加哥大学Booth商学院计量经济学与统计学讲席教授修大成就“如何从海量数据中有效识别弱信号”发表主题演讲,直面经济学与金融学实证研究长期存在的关键难题:大量变量对结果的作用微弱、难以从噪声中分辨,但若忽略这些信息又会削弱预测能力。他指出,在真实世界的数据中,变量往往处在 “有影响”与“无影响”之间的灰色地带,单独贡献极小。这类广泛存在的弱信号正是导致顶级期刊中 R² 值普遍偏低的根本原因。

在方法选择上,修教授明确指出,以稀疏性为核心假设的 L1 正则化(Lasso)并非弱信号环境下的最佳工具。在弱信号占主导时,Lasso 的机制容易在两端犯错:既可能将噪声误判为信号,引入无关变量,也可能遗漏分散而微弱的有效信息。前者甚至会导致其样本外预测表现不如简单的“零预测器”。相比之下,L2 正则化的 Ridge 回归通过对所有系数实施温和压缩,更擅长稳定汇聚分散的有用信息,样本外表现显著优于零预测器;结合交叉验证确定惩罚强度,其优势更加稳健。至于神经网络和随机森林,修教授指出,在采用适当的 L2 正则化与规范化调参后,同样能够取得良好预测效果。

在实证分析中,他以股票收益预测为例展示证据:采用 L2 正则的神经网络与 Ridge 模型在样本外 R² 上表现最佳。变量重要性分析也显示,这两类方法更能稳定识别具有经济含义的特征,为“弱信号可被机器学习有效提炼”提供了直接支持。

面向研究实践,修教授强调,不应把“稀疏性”视为默认前提,而应根据数据结构与研究目标理性选择方法。在弱信号普遍存在的场景中,应优先考虑能够汇聚分散信息的 L2 正则化,并以交叉验证作为核心流程进行调参与模型选择。他总结道:机器学习确实具备从弱信号中提取信息的能力,但关键不在于模型是否足够复杂,而在于研究者能否做出恰当的偏好设定与正则化选择。这一理念为经济学与金融学中的高维预测研究提供了具体可行的路径,也为在嘈杂环境中提升预测稳健性开辟了新的思路。

“经济与金融中的机器学习”演讲环节结束后,复旦-斯坦福金融科技与安全研究院执行院长和SIMIS访问学者刘庆富教授主持了“金融科技与人工智能”演讲环节。

上海交通大学上海高级金融学院金融学教授、高金讲席教授潘军发表了题为“全球贸易脆弱性的定价研究”的主题演讲。该研究系统分析了全球贸易不确定性如何演化为可在金融市场中被定价的风险因子,并首次提出了“全球贸易脆弱性”(Global Trade Vulnerability)的概念。

潘军教授指出,过去二十年间,全球贸易已从持续增长的时代转向高风险与高不确定性的阶段。自2018年中美贸易战以来,贸易摩擦、政策波动与供应链冲击成为全球企业和金融市场的核心关注点。新冠疫情进一步暴露了全球供应链的系统性脆弱,而2025年初新一轮“解放日关税”(Liberation Day Tariffs)的出台,更使贸易不确定性从双边问题演化为全球性冲击。潘军教授强调,企业对单一国家或供应商的高度依赖,正在成为一种可被金融市场识别与定价的重要系统性风险。

在演讲中,潘教授介绍了研究的核心方法论:通过金融市场数据识别并定价全球贸易风险。研究团队基于S&P Global Panjiva数据库中2012年至2023年的企业级进口提单数据,构建了企业层面的“贸易脆弱性”指标,用以衡量进口来源的集中度。

潘军教授特别指出,中国进口依赖度是贸易风险溢价的重要驱动因素之一。进口来源高度集中且对中国依赖度高的企业,其风险溢价显著高于其他企业。研究同时发现,贸易脆弱性与科技行业高度相关,尤其在半导体、电子等领域更为集中。即使在控制科技暴露后,贸易风险因子仍保持显著,反映出贸易依赖与科技暴露的双重风险结构。

研究还揭示了贸易风险的动态演化路径。自2018年中美贸易战及新冠疫情以来,全球贸易风险已从特定国家暴露扩展为更广泛的系统性现象。2025年“解放日关税”对中等集中度企业的影响尤为明显,显示全球贸易不确定性正从局部冲突转向结构性风险阶段。

最后,潘军教授总结道,该研究通过创新性地利用企业级贸易提单数据,构建了国家集中度指标,从而在资本市场层面识别并定价全球贸易风险因子。这一成果为理解供应链结构、地缘经济风险与金融市场表现之间的关系提供了新的量化框架,对投资者、政策制定者以及跨国企业均具有重要启示意义。

清华大学建树金融学讲席教授、清华大学金融科技研究院副院长、清华大学五道口金融学院资产管理研究中心主任余剑峰教授发表了题为“回购效应与资产价格”的主题演讲,展示了研究团队关于投资者“回购后悔”行为及其资产定价影响的最新研究成果。

余剑峰教授指出,这项研究聚焦于一个在现实交易中极为常见、却长期被忽视的现象:投资者在卖出股票后,当股价继续上涨时往往会产生强烈“后悔”心理,从而在之后的投资决策中降低了再次购买同一支股票的概率。投资者宁愿维持原有决定,也不愿在更高价位承认自己当初卖错了。但迄今为止,学界对于这种行为是否会在股票横截面收益中形成系统性、可检验的资产定价效应,缺乏系统证据。因此,针对这一空白,研究团队围绕“如何在股票层面量化投资者的复购后悔,并检验其定价后果”为核心问题,利用美国市场自1983年至2023年的高频逐笔成交数据,构建了一个全新的股票层面的“复购后悔”指标,并系统考察其与未来股票收益之间的关系。不同于传统关注卖出行为的处置效应,这项研究从买回或者不买回的角度,捕捉了投资者在卖出之后面对价格继续上涨时形成的心理阴影及交易迟疑,有效弥补了既有资产定价文献中对买方行为关注不足的问题。

这项研究在多个层面具有重要启示意义。对于学术界而言,它首次在公开逐笔数据基础上提出了可操作的“复购后悔”股票层面度量,并将其系统纳入资产定价框架,为理解投资者买入行为如何影响横截面收益提供了新证据;对于业界而言,基于“复购后悔”因子的投资策略为量化投资和因子挖掘提供了新的思路,有助于识别那些尚未被情绪压制的优质资产;对于监管者和市场组织者而言,研究提醒我们,“复购后悔”这种行为在宏观层面可能积累为系统性的错配与波动,需要在投资者教育与市场机制设计中给予更多关注。这项研究展示了如何将高频金融大数据、行为科学理论与经典资产定价模型有机融合,为未来在中国市场开展基于投资者行为偏差的资产定价研究提供了有价值的研究范式和实践参考。

康奈尔大学商学院管理学讲席教授、金融学教授Lin William Cong发表了题为“Understanding Patenting Disparities via Causal Human + Machine Learning”的演讲,围绕“谁更容易拿到专利”这一看似技术却高度关乎机会公平的问题,系统介绍了其最新研究成果。

Cong教授指出,性别、种族与社会身份在收入、就业和晋升上的差异早已广为人知,但在创新链条的关键一环——专利审批中,是否存在系统性偏见、偏见有多大以及通过何种机制体现,长期缺乏有力的因果识别工具。专利文本高度专业、信息维度庞大,审查员既要依据信息繁杂的技术内容作出判断,又往往会看到申请人姓名、单位等信息,这使得技术质量差异与可能源自姓名、身份等非经济特征的不公平对待混淆在一起,成为一个难以识别的实证难题。

为破解这一难题,Cong教授团队提出“因果人机学习”(Causal Human + Machine Learning)方法,将大语言模型的文本理解能力与人类感知实验结合起来。一方面,团队利用大语言模型对专利文本进行向量化和深度建模,在不使用姓名、机构等身份信息的前提下,训练模型预测“如果只看内容,这份申请有多大概率应被批准”,据此为每件专利生成一个反映技术含金量和合理通过概率的基准分。另一方面,通过在线感知实验,邀请被试者仅根据发明人姓名判断其被感知的性别、族裔等特征,以此模拟现实中审查员在看到姓名时的第一印象。将“机器眼中的内容质量”与“人类眼中的身份标签”相结合,在控制技术质量和其他可观测因素后,研究得以识别不同性别、族裔和身份背景在审批环节中是否遭遇系统性差别对待。

将该方法应用于美国专利数据后,研究发现,审批结果存在不平等:在控制创新质量、技术领域等因素后,女性申请人的专利通过率仍显著低于男性,非裔发明人也处于不利地位,表明制度运行中存在性别与族裔层面的系统性偏见。更为突出的是“身份”因素:相较于大型上市公司等机构的发明人,以个人或小型机构名义申请专利者,其审批通过率显著偏低,即便在创新质量相近时仍处于弱势,说明经济与组织身份在资源获取和制度博弈中的作用不容忽视。研究也进一步指出,多重身份维度之间会产生复杂的相互作用,如果只看单一维度,很容易低估或误判真实的不平等程度。

最后,Cong教授指出,C-HML框架并不局限于专利领域,也可推广到贷款审批、用人招聘、科研评审等多种基于文本的人审决策场景,为在大模型时代识别和纠正隐性歧视提供了一套可操作的工具。Cong教授的演讲从技术方法、经验证据到政策启示层层推进,引发了与会学者的热烈讨论。

“金融科技与人工智能”演讲环节结束后,复旦大学和SIMIS双聘副教授尤翀主持了“统计与金融计量”演讲环节。

普林斯顿大学金融学讲席教授、统计学、运筹学与金融工程教授范剑青发表了题为“智能科学与经济社会”的演讲,全面阐述了人工智能(AI)技术如何以数据、算法和算力为核心驱动力,重塑经济结构与社会形态。他指出,正如百年前的工业革命释放了人力,智能革命正在通过“统计学习+优化决策”的融合,释放人类的认知潜能,为科学研究、经济发展和公共治理带来深远变革。

范剑青教授将人工智能的本质归纳为“深度学习、强化学习、现代计算与大数据”的综合体,其核心在于通过“数据—模型—决策—反馈”的循环实现自我优化。他引用马尔可夫决策过程(MDP)说明AI的数学基础,强调AI并非简单的模式识别,而是一个在环境中持续学习与行动的智能体系统。这种统计与优化的动态交融,使AI具备了从经验中自我改进的能力。

在应用层面,范剑青教授以七个研究案例展示了智能科学对经济与社会的赋能。首先,在城市与社会治方面,他介绍团队通过整合手机信令、卫星遥感、街景图像等多源数据,建立“城市活力”与“住房质量”指标,用以辅助贫困识别、公共设施布局及城市规划,实现了社会经济活动的实时量化。

其次,在金融资产定价与投资组合研究中,团队利用自然语言处理技术从财务报告与新闻文本中提取投资信号,提出了FarmPredict方法,通过深度结构学习构建动态条件资产定价模型,大幅提升了风险预测与收益评估的准确性。

第三,他在高频金融市场分析领域探讨了“价格何时、为何可预测”的问题,研究指出市场流动性、交易噪声及订单失衡是价格可预测性的关键因素,提出了基于机器学习的高频交易风险控制方案。第四部分关于动态定价与强化学习,展示了一个结合实时销售反馈的定价优化系统。该系统通过平衡探索与利用,自动学习最优定价策略,并被拓展至个性化医疗与政策制定中,显示出AI在连续决策任务中的广阔前景。

在财务舞弊识别领域,范教授团队构建了涵盖虚假披露、利润虚增、伪造记录等多维关键词的检测框架,利用AI与大语言模型(LLM)从新闻报道中提取语义特征,评估报道一致性与信息源权威性,实现对企业财务舞弊的早期预警。紧接着,他提出利用大语言模型识别金融虚假信息的系统框架。该系统通过嵌入、内容抽取、分类与一致性验证等步骤,分析逾2.5亿篇文本、覆盖近4000家上市公司,构建了“多源信息一致性指标”(MISI),以量化虚假信息传播的风险。

范剑青教授总结道,智能科学正成为连接人类智慧与社会系统的新引擎。其发展方向不仅在于技术突破,更在于确保数据质量、模型可解释性及虚假信息治理。他强调,未来AI的使命是“以数据为燃料、以模型为引擎、以优化为方向盘”,推动科技创新与社会福祉的共进,使智能科学更好地服务于金融稳定、公共政策和人类福祉。

上海财经大学统计与数据科学学院和滴水湖高级金融学院联聘教授张立文教授介绍了其团队推出的涵盖模型、评测基准在内的完整金融大模型体系,包括国内首个开源金融推理大模型 Fin-R1,以及 FinEval、VisFinEval、FinGAIA 三大专业评测基准。

作为体系核心的 Fin-R1模型,仅以 7B 参数量级架构,其综合性能仅略低于 671B 参数的 DeepSeek-R1,却大幅降低了部署成本,覆盖金融计算、代码编写、智能风控、ESG 分析等核心场景,既能解决 “企业市盈率计算” 这类基础问题,也能处理跨境资金结算合规审核、供应链风险传导分析等复杂任务,可适配银行、证券、保险等各类金融机构的实际需求。继 Fin-R1-7B 后推出的 Fin-R1-Pro(32B),在 FinQA、ConvFinQA、BizBench、FinBen、FinGPT 等全域13个金融权威数据集及30个子评测集测试中排名第一,多项得分远超 DeepSeek-R1、 GPT-4o、Kimi K2 等通用/金融垂域模型。具备金融推理、认知、知识、文本、风控、应用能力,旨在打造决策智能化全链路解决方案。Fin-R1-Pro 不仅在标准化金融基准上取得领先表现,也在多个真实业务场景中展现出卓越的落地能力。在银行、证券、基金、保险、信托、期货等真实业务场景中取得最佳表现,可实现从数据理解到报告生成的端到端智能决策闭环。

实测结果显示,当前主流大模型在金融领域已展现实用价值:顶尖模型在基础金融任务中表现优于普通个体,但在复杂战略决策、风险防控等领域仍与金融专家存在差距。以 Fin-R1 为例,其在金融数值推理任务中准确率超 85%,但在衍生品定价、系统性风险预测等高阶任务中仍有提升空间。这一发现为金融大模型的迭代指明了方向。

团队还规划了未来发展蓝图,包括构建覆盖银行、证券、保险等六大行业的 FinAgentBench 评测体系,以及研发金融专属安全防护框架 FinGuard。这些成果将进一步推动金融 AI 的规范化应用,助力行业实现智能化升级。

张立文教授指出,此次上海财大团队的系列成果,不仅填补了国内金融大模型领域的技术空白,更构建了 “模型研发 – 数据支撑 – 评测验证 – 安全防护” 的完整生态。随着这些工具的开源与推广,将为金融机构提供低成本、高可靠的 AI 解决方案,让智能技术更好地服务于风险防控、客户服务与投资决策,为金融行业高质量发展注入新动能。

中国科学院数学与系统科学研究院研究员、中国科学技术大学管理学院博士生导师张新雨教授发表了题为“基于迁移学习的投资组合优化”的主题报告。张教授系统介绍了其团队在融合多源市场数据、运用迁移学习技术提升资产配置效率方面的创新方法与实证成果。

张教授指出,传统投资组合优化策略大多仅依赖于目标资产自身的历史数据,未能充分利用来自其他相关市场或资产的有效信息。而在现实中,许多经济数据受到相同宏观因素影响,呈现出相似的趋势与结构。例如,同一公司在A股与H股市场的表现,或上下游行业数据之间,往往存在潜在的信息共享机制。如何有效整合这些多源数据,成为提升投资策略性能的关键。

基于这一背景,张新雨教授团队提出了一种基于迁移学习的投资组合优化框架。该方法能够自动筛选与目标资产具有相似最优投资策略的源数据集,并为其分配相应权重,从而在目标资产的配置中引入有效的外部信息。张教授强调,该策略不仅能够渐进地达到理论上的最大夏普比率,还具有更稳定的表现,即在相同夏普比率水平下,其波动性显著低于传统“非迁移”策略。

在理论部分,张教授详细阐述了该方法的构建过程与渐进性质。通过将目标数据与多个源数据在时间序列上分段处理,构建加权组合策略,并基于样本外表现优化权重分配。研究团队进一步提出了一系列理论假设,并证明了该策略在样本量趋于无穷时,能够自动识别有效信息源,并渐进达到最优投资效果。

为验证方法的有效性,团队进行了系统的数值模拟与实证分析。在模拟研究中,比较了包括“等权迁移”“非迁移”“池化估计”及现有迁移学习方法在内的多种策略。结果表明,在不同程度的源-目标差异设定下,团队所提出的TL策略均表现稳健,尤其在存在信息异质性的复杂市场环境中优势明显。

为了验证该策略在真实市场中的有效性,张教授团队将模型应用于A股与H股市场的跨市场组合优化。选取能源、制造、金融与医疗四大行业中五家双重上市公司数据,分别以A股或H股作为目标市场进行测试。结果显示,张教授团队提出的TL策略在多数行业和市场中均取得了最高的样本外夏普比率,显著优于其他对比策略,验证了其在实际市场中的有效性与适用性。

最后,张新雨教授总结指出,本研究为投资组合优化提供了一种新的交叉学科思路,通过迁移学习有效整合多源信息,提升资产配置的稳健性与收益风险比。未来,团队将进一步探索模型中超参数的选择、权重收敛速度等理论问题,推动该方法在更广泛金融场景中的应用。

厦门大学金融系主任姜富伟教授就其团队的研究成果“生成式AI在通胀预期与预测中的应用”做了专题报告。报告系统地介绍了如何利用大语言模型技术从经济新闻中构建“叙事性通胀预期”指数,并评估其对于理解与预测通胀现象的价值。

姜教授首先阐述了研究背景。他指出,通胀预期是宏观经济分析与政策制定的关键变量,但传统的问卷调查方法存在频率低、样本代表性有限等固有局限。同时,“叙事经济学”理论认为,大众传播的叙事会影响经济决策,这为从新闻文本中提取通胀预期提供了理论依据。

在研究方法上,本项工作实现了显著的数据与技术创新。研究团队选取了1984年至2024年间《华尔街日报》超过108万篇文章作为文本源。在技术路径上,他们采用大语言模型的嵌入技术,将文本句子转化为数值向量以捕捉深层语义。核心步骤是定义一个“通胀预期方向向量”,并通过计算每个句子与该方向向量的余弦相似度,来衡量其隐含的通胀倾向。最终,通过月度聚合生成了一个高频、连续的“叙事通胀预期”指数。

报告重点展示了该指数的核心研究发现。首先,NIE指数与美国家庭和企业的调查通胀预期呈现出显著的正相关性,表明其能有效捕捉公众情绪。其次,基于向量自回归模型的计量分析证实,NIE指数的变动对未来的调查预期具有前瞻性的预测能力,说明新闻叙事在驱动预期形成。此外,研究还发现,当实际通胀率高或公众对通胀的关注度提升时,NIE指数与调查预期的关联性更强,体现了“注意力”的调节作用。

在预测性能方面,NIE指数表现出色。它不仅对未来1至12个月的实际通胀率具有超出传统时间序列模型的样本外预测能力,还能预测企业的微观行为:当NIE指数上升时,企业会显著增加库存投资并提高现金持有水平,这直接印证了叙事对实体经济决策的影响。

姜教授进一步通过对比实验论证了所采用方法的优越性。NIE指数有效克服了传统文本分析中的词典局限性,其表现也优于LDA主题模型和BERT嵌入模型。特别值得注意的是,即使在大语言模型训练数据截止日期之后,该指数依然有效,排除了模型单纯记忆历史数据而产生前瞻性偏差的可能性。

总结而言,本报告阐明,利用生成式AI技术构建的NIE指数,是一个稳健且有效的通胀预期度量新工具。这项研究不仅为“叙事经济学”提供了强有力的实证支持,也为宏观经济预测和政策分析开辟了新的数据来源与方法论路径。

“统计与金融计量”演讲环节之后是圆桌讨论环节,由光大保德信基金管理有限公司总经理助理、固收管理总部负责人、基金经理黄波先生主持。参与讨论的四位嘉宾包括:国盛证券研究所副所长、金融工程负责人刘富兵博士,宽投资产董事长兼投研总监钱成博士,兴业证券经济与金融研究院金融工程分析师宫民先生,以及富国基金量化投资部定量基金经理金泽宇先生。

与会专家围绕AI技术在金融领域的应用现状与发展前景展开了深入讨论。刘富兵博士指出,AI技术正在显著改变金融行业的工作效率和人才需求结构。编程效率的大幅提升使得单纯擅长编程的人员需求减少,而兼具编程能力与分析思路的复合型人才更受青睐。他认为,AI目前尚不能完全替代分析师,更多是作为辅助工具处理简单编程任务。展望未来,随着AI技术持续发展,行业可能呈现寡头垄断趋势,少数具备先进分析思路的团队在算力的帮助下有望占据更大市场份额。

钱成博士对此表示认同,并补充说明大语言模型不仅帮助分析师更高效地复现学术期刊上的最新成果,也使一些过去难以实现的研究任务成为可能,显著拓展了业务能力的边界。

在具体应用层面,宫民先生系统梳理了AI在证券行业的四个主要应用方向:自然语言处理、代码编写、报告审核以及日常工作的翻译总结等辅助功能。不过他也指出,AI目前仍存在可信度与准确度问题,对稍复杂任务的处理能力有限。数据安全性是企业推进AI应用的重要考量,许多机构正推进本地化部署,但在技术快速迭代的背景下,模型选型与系统可持续性仍是现实难题。

金泽宇先生从资产管理实践角度分享了富国基金的经验。他透露,富国自主研发的深度学习模型已实际管理规模达数百亿元的资产,尤其在技术分析领域表现突出。此外,富国基金在大型语言模型应用初期阶段,重点将其用于解读和提炼卖方研究报告,如对比不同分析师对同一股票的观点,或追踪同一分析师在不同时期的逻辑变化。

讨论随后延伸到资产配置领域。钱成博士表示,资产配置需严格匹配投资者风险偏好。他建议普通投资者采用全天候配置策略,分散持有股票、债券、商品、贵金属等多类资产。对于明年的市场走势,他特别看好大宗商品领域的投资机会。宫民先生则从市场择时角度分享了他的研究成果,他开发的改进版泡沫置信指标在去年9月中旬成功捕捉到市场超跌信号。针对黄金市场,他认为尽管近期出现调整,但央行购进、地缘风险等基本面因素未变,回调后可能呈现新的配置窗口。

在金融行业人才需求方面,刘富兵博士认为,尽管行业处于调整期,但在”金融强国”战略背景下,这反而是应届生入职的良机。他特别强调,量化人才需要具备三大核心能力:懂程序能改程序、明晰量化策略的盈利逻辑,以及持续学习创新能力。金泽宇先生补充指出,金融行业长期前景向好,他详细分析了买方机构三大核心岗位:机构销售岗、产品设计与战略岗以及投研岗,建议学生根据自身专业背景选择适合的发展方向。

在观众互动环节,针对大模型能否有效进行投资预测的问题,宫民先生表示,目前该领域仍处于尝试研究阶段。金泽宇先生则认为,大模型未来具备有效投资预测的潜力,但其核心逻辑类似于特斯拉的自动驾驶系统,需要结合具体市场环境判断。

关于政策有效性与研报价值的讨论中,刘富兵博士指出,AI技术可以完成研报中90%的模板化内容,但核心价值仍在于10%的深度分析与超额结论。他认为不能简单以股价涨跌判断政策”失效”,政策效果需要结合市场预期综合判断。钱成博士补充表示,研报有效性下降确实是行业共识,但通过精细化处理仍可挖掘阿尔法收益。他强调,政策效果往往受市场趋势主导,在趋势形成后,政策仅能作为短期变量产生影响。

本次圆桌讨论通过多位业内专家的深入交流,全面展现了AI技术在金融行业应用的前沿图景,为理解当前金融科技发展提供了多维度的专业视角。

会议最后,复旦-斯坦福金融科技与安全研究院执行院长和SIMIS访问学者刘庆富教授做会议总结发言,对参与本次会议的各位专家表示衷心感谢。

en_USEnglish
Scroll to Top