◆ Yong Jiang, Alibaba
Title: Towards an Autonomous Deep Research Agent
Short Bio: 蒋勇,阿里巴巴通义实验室高级算法专家,博士毕业于中国科学院大学和上海科技大学,加州大学伯克利分校访问学者,从事大模型相关的技术研发。目前在国际顶级会议ACL/EMNLP/NAACL/ICLR等发表50多篇论文,在多个国际比赛摘取20个子赛道的冠军,并连续获得SemEval 2022、SemEval 2023最佳系统论文奖、ACL 2023杰出论文奖、NLPCC 2024杰出论文奖,曾任ACL Rolling Review、IJCAI的领域主席,当前研究方向包括检索增强RAG和Agent相关技术。
Abstract: 本报告聚焦于 “如何训练一个深度研究智能体(deep research agent)” 这一核心问题,探索构建具备自主研究能力的智能系统的路径与方法。自主研究智能体需模拟人类研究者的核心能力,包括任务拆解、信息检索、逻辑推理、结果合成及迭代优化等,而实现这一目标的关键在于解决 “如何高效获取外部知识”“如何平衡内部推理与外部探索”“高效agent数据生产”“agentic RL” 等核心技术挑战。报告相关内容包括团队在deep research上的近期工作,包括且不限于WebWalker, WebDancer, WebSailor, WebShaper, ZeroSearch等。
◆ Xiaoguang Hu, Baidu
Title: PaddlePaddle 3.0 Accelerates Technological Innovation in Large-scale Foundation Models
Short Bio: Xiaoguang Hu, Professor-level Senior Engineer, currently serves as Distinguished Architect at Baidu's Deep Learning Technology Platform Department. His primary research areas include natural language processing, deep learning frameworks, and AI for Science. He designed the new API architecture for PaddlePaddle 2.0, establishing its signature features of static graph and dynamic graph unification and training-deployment integration. He led breakthroughs in PaddlePaddle 3.0’s key technologies, including automatic parallelism, neural network compilers, and high-order automatic differentiation.
Abstract: Deep learning frameworks, serving as the core foundational software bridging underlying computing chips and model applications, are accelerating the pace of technological innovations like large-scale models. In April 2025, the PaddlePaddle officially released its 3.0 version. In June 2025, the ERNIE 4.5 series models developed based on PaddlePaddle were officially open-sourced. This presentation will explore how to use PaddlePaddle 3.0 to accelerate large-scale model technological innovation and industrial applications.
◆ Ziyan Chen, 中译语通
Title: 以LLM为核心的Any-Any全能大模型技术和应用
Short Bio: 陈自岩博士,目前担任中译语通2030人工智能研究院副院长,并兼职知识图谱产业推进方阵的轮值主席,一直从事大语言模型和多模态大模型的技术研究和企业应用,领导了格物大模型体系的建设。陈自岩博士主持或参与科技部2030、中央引导地方、国家自然科学基金等多项国家省部级项目,在IJCAI、JASIST等会议和期刊上发表高质量论文10余篇,专利成果30多项。
Abstract: 当前多模态大模型技术得到快速发展,并引起学术界和工业界的高度关注,但绝大部分多模态大模型往往聚焦视觉理解或视觉生成亦或音频问答等单向能力。Any-Any全能大模型则能够对涵盖文本、图像、音频和视频等全模态的输入进行理解并进行多模态生成,并因其更符合人类感知、思考和行动的范式,成为当前研究的热点之一。Any-Any全能大模型中的一个主流范式仍然是依赖大语言模型(LLM)的理解和推理能力,融合多模态编解码器实现对复杂多模态数据语义空间对齐、任务理解和内容生成。本报告将聚焦以LLM为核心的Any-Any全能大模型技术,回顾当前发展现状,分享中译语通取得的创新技术成果以及在企业实践中的应用案例。
◆ Yu Lei, 得理科技
Title: 法律大模型的构建方式与应用场景
Short Bio: 雷宇,深圳得理科技有限公司联合创始人 CTO,中科院先进院得理法律,人工智能实验室副主任,深圳市人工智能学会法律专委会秘书长;2012年毕业于四川大学,先后在互联网公司百度、腾讯任职。拥有超过10年以上大型互联网企业研发管理经验,在大数据处理与自然语言处理方面有深厚的技术积累。带领团队研发得理法律大模型。
Abstract: 面对国内外通用大模型的迅速发展,在法律这一专业场景中,探索了四种行业大模型主流构建方式:提示工程、检索增强生成、精调和预训练。其中,提示工程与检索增强生成为当前主要应用方式,尤其在结合外部数据库后,有效缓解了模型幻觉问题。介绍法律大模型在智能法律数据,法律文本,法律问答,智能合同等方面的应用场景与具体实例。针对大模型技术安全规范,从数据准备、预训练模型、模型指令遵循和价值观对齐以及大模型推理四个阶段指出安全风险所在,强调大模型应用必须高度重视数据安全与隐私保护、模型可靠性与内容合规等安全规范。