微信分享
Ray Forward 2025 — 拥抱 AI,Ray 向未来

使用微信扫一扫分享到朋友圈

活动分享
Ray Forward 2025 — 拥抱 AI,Ray 向未来

使用微信扫一扫进入小程序分享活动

活动详情

Ray Forward 2025 将于 12 月 20 日 在北京蚂蚁 T 空间举办。本次活动由蚂蚁集团发起的 Ray 中文社区和蚂蚁开源联合主办,以 “拥抱 AI,Ray 向未来” 为主题,并通过线上平台同步直播。


2025 年是 AGI 实现突破的关键之年。多模态大模型、世界模型与自主智能体(Agent)的技术融合,正加速推动人工智能向通用化迈进。Ray 作为分布式计算的核心基础设施,已成为 AGI 规模化应用的重要支撑,在非结构化数据处理、强化学习训练与大规模模型推理等场景中发挥关键作用。


本次活动将汇聚来自头部科技公司、知名 AI 实验室及开源社区的技术领袖与专家,分享 Ray 在 AGI 领域的最新实践与生态应用,共同探索下一代智能计算架构的未来发展。


活动门票
活动筹备中
售票推广中
活动结束
选择票
门票名称
单价(¥)
截止时间
数量
免费门票
免费
2025-12-20 18:00
0
此门票需要主办方审核
门票包含全天活动入场资格、茶歇简餐及社区周边礼品
票价
0
活动日程
2025-12-20
2025-12-20
08:30 -17:25
Ray Forward 2025
2025-12-20
08:30-09:30
签到入场
2025-12-20
09:30-09:40
欢迎致辞
嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
尧远
蚂蚁集团 Ray 系统和湖仓引擎技术负责人
2025-12-20
09:40-10:20
Data-Juicer + AFlow:多模态数据处理新范式

数据是驱动大模型能力涌现与持续进化的核心要素。本次分享将聚焦如何系统化释放数据对模型的更大价值。我们将介绍基于 Ray 构建的多模态数据处理开源系统 Data-Juicer。围绕“数据菜谱”(Data Recipe)理念,分享从原始数据到高质量训练与评测数据集的端到端流程,并探讨数据策略与模型反馈的联动实践——包括静态离线的高质量数据合成,以及动态在线的强化学习 rollout 数据管理与优化。本报告旨在为研发人员提供规模化提升数据有效性的全局视角与工具实践参考。

嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
陈道源
阿里巴巴通义实验室 高级算法专家,Data-Juicer负责人
Ray Forward 2025 — 拥抱 AI,Ray 向未来
张武科
蚂蚁集团 研发工程师
2025-12-20
10:20-10:50
AnalyticDB Ray: Data+AI Architecture

AnalyticDB融合Ray构建了Data + AI的服务,支持了云上包括多模态处理、商业智能、Agent、具身智能等关键场景。

嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
李伟
阿里云 高级技术专家
2025-12-20
10:50-11:20
京东零售基于Ray实现弹性训推一体落地实践

本次分享将聚焦京东零售核心业务场景,通过多个规模化落地案例,深度解析机器学习在弹性离线推理与弹性离线训练环节的关键挑战。我们将从业务痛点出发,层层剖解资源调度低效、弹性扩缩容困难、训推割裂等典型问题,并针对性提出基于Ray框架的创新解决方案——最终构建起支持"训练-推理"端到端协同的分布式机器学习系统,实现资源利用率与模型迭代效率的双重提升。

嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
季万强
京东零售 高级专家
2025-12-20
11:20-11:50
火山引擎 Ve-Ray:Ray 企业级增强实践与核心竞争力解析

ve-ray 是火山引擎面向企业级场景,基于 Ray 深度优化的发行版。其核心围绕企业生产环境的实际需求,整合弹性调度、Ray Data Checkpoint、History 等关键增强特性,形成更贴合业务落地的技术底座。 本次演讲将重点分享:ve-ray 如何通过技术迭代实现性能、生产级稳定性与资源效率的协同提升;核心增强特性的技术实现逻辑与实践路径;以及在任务连续性保障、资源动态调度等核心场景的技术适配方案,同时结合多模态数据湖的落地案例,呈现其在复杂业务场景中的实用价值。

嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
杜军令
字节跳动 分布式引擎架构师
2025-12-20
11:50-12:20
基于Ray的蚂蚁数据构建引擎在搜推、RAG场景的实践

随着大模型时代的到来,特别是RAG诉求的提出,传统搜推逐渐从标量特征扩展至文档、图片以及音视频等多模态场景, 对于底层引擎而言,挑战在于需要处理的数据复杂度越来越高,数据量也越来越大,且伴随业务的瞬息万变,数据处理的时效性要求也愈发严苛。 本次分享将介绍蚂蚁的全模态数据构建引擎如何在Ray分布式计算底座上技术演进应对上述挑战: 1.基于ray的海量数据构建提效 2.C++与Python融合的算子体系助力高性能计算与AI生态的共生共存 3.RAG场景的业务实践

嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
谢涛
蚂蚁集团 技术专家
2025-12-20
12:20-13:20
午餐休息
2025-12-20
13:20-13:50
Ray融合计算在腾讯TEG推理方向的落地实践
近一年随着行业的发展,无论是在训练侧还是在应用侧,推理需求迎来了指数级增长。Ray作为大模型时代的AI计算基础设施,因其在通用分布式、融合计算、AI生态等方面具备核心优势,是企业赋能推理业务规模化增长的首选分布式基建。本次演讲将分享Ray在腾讯TEG内离线推理和在线推理的应用场景,以及大规模生产落地过程中的系统优化实践。
嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
宋顾杨
腾讯 后台开发
2025-12-20
13:50-14:30
ROLL:基于Ray构建的Agentic场景生产级大规模强化学习训练框架
ROLL 是基于Ray构建的大规模LLM强化学习的高性能基础设施,覆盖从小规模预研到数千卡百亿参数生产环境的完整RL优化流程。核心能力包括:支持数学、代码、推理等多领域任务联合训练;原生支持Agentic RL,灵活适配游戏、多轮对话、工具调用、CodeAgent等多步决策场景;深度集成Megatron-Core、Deepspeed、vLLM、SGLang等主流框架,支持先进的5D并行策略;具备样本级生成管理、异步推理、异步训练加速等核心机制。只需一条命令即可启动 RLHF/RLVR/Agentic RL 训练,兼容 Qwen2.5/3、Llama3 与 Vision-Language 系列,真正将大模型 RL 训练从“造火箭”变为“搭积木”的生产力实践。
嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
熊绍潘
爱橙科技 大模型强化学习框架工程师
Ray Forward 2025 — 拥抱 AI,Ray 向未来
张子超
爱橙科技 AI 大数据工程师
2025-12-20
14:30-15:00
字节跳动推荐大模型场景基于Ray的落地实践
近年来,以GPT为代表的大语言模型的迅猛发展,充分印证了Scaling Law的力量——模型参数量、数据规模与算力的协同扩展能够持续提升智能表现。在推荐领域,这一趋势同样催生了新的范式:以GR(General Recommendation)、LRM(Large Recommendation Model)和多模态推荐为代表的大模型体系正在快速演进。随着算力的增强与硬件架构的升级,推荐系统正从单一模态与任务向通用化、跨模态方向迈进,推动更大规模模型结构的探索与落地,从而带来显著的线上效果提升。 字节跳动推荐架构团队基于Ray平台,成功打造了支持海量数据下推理链路的生产级解决方案。在此过程中,我们对KV Cache、内容理解等关键模块进行了深度定制化优化,显著提升了模型迭代效率、数据转移效率、性能及成本表现。这些创新为大规模推荐系统的落地提供了坚实的技术保障。
嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
刘方奇
字节跳动 字节跳动推荐架构工程师
2025-12-20
15:00-15:30
DLRover on Ray —— 面向深度学习的异构融合引擎的设计与实现
DLRover是一个开源的自动化分布式深度学习系统,能够智能地在Kubernetes集群上自动运行和维护深度学习训练作业,让开发者专注于模型架构设计而无需处理分布式运行等工程细节。在大模型时代,结合DLRover在稳定性方面的建设,蚂蚁内部也成功完成了基于国产万卡规模的训练实践。随着深度学习场景的高速发展,结合内部的生产实践,我们也逐渐发现现有框架的不足。因此我们基于Ray,提出了一套全新的架构设计与实现,来面向未来更一般且复杂的深度学习场景的计算。
嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
陈天熠
蚂蚁集团 AI Infra工程师
2025-12-20
15:30-15:45
茶歇
2025-12-20
15:45-16:05
B站下一代多模态数据工程架构的落地实践
本次演讲将深入分享B站面对海量视频、图文等多模态数据在时效性、计算效率、存储与管理上的核心工程挑战时,如何利用Ray分布式计算框架与Lance数据存储格式构建统一的高效数据处理平台。 方案通过Ray实现离线和近线任务的分布式计算与资源调度,利用Lance优化数据存储结构并加速模型训练过程 。该实践显著提升了数据处理的吞吐量与资源利用率,为多模态AI应用提供了坚实的数据工程基础。
嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
郑志升
哔哩哔哩 技术专家,负责大模型训推数据链路的工程建设
2025-12-20
16:05-16:25
让不稳定资源支撑稳定的 AI 推理服务:基于联邦技术与Ray Serve的跨云异构算力融合实践
在小红书,我们基于Ray Serve、自研PodReporterOperator组件与Virtual Kubelet技术,构建了一套统一异构计算体系,用于整合跨可用区与多云环境中离散、低优的闲置算力(包括抢占式 CPU 与闲置 GPU),并将其高效应用于大规模 AI 推理与模型Backfill任务。基于Virtual Kubelet技术,我们将数十万节点上的易驱逐的低优资源转化为可靠推理服务,已在生产中累计利用 5000 万+ CPU 核时/月与 100 万+ GPU 卡时/月,大幅提升部署效率与空闲算力资源的利用率。本次演讲将与大家共同深入这套方案中的技术架构选型、设计与工程实践。
嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
陈宇
小红书 数据引擎工程师
2025-12-20
16:25-16:45
扩展Ray Data生态系统:为字节跳动的VLM实现分布式SQL、流处理和湖仓集成

Ray Data在字节跳动广泛应用于各种数据密集型场景,如大规模数据集准备和离线推理,这些场景涉及诸如可扩展性、数据集成和稳定性等技术挑战。 为此,我们基于Ray Data与DataFusion构建了分布式SQL栈,其支持谓词下推、原生分布式执行。我们了拓展了Ray Data以支持多种数据源,包括Hive与内部增强版Iceberg,Magnus,后者提供Git式版本管理与ML优化分片。我们还集成了Kafka,并实现流式执行、Checkpoint与高可用。 在VLM数据生产中,我们基于Ray与Magnus搭建标注框架,单个Ray任务即可完成读取、标注与回写。借助Ray Data SQL,我们高效筛选与分发数据,标注结果以Merge-On-Read写回湖仓,显著提升模型标注与数据生成效率。

嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
吴郁非
字节跳动 Ray研发工程师
Ray Forward 2025 — 拥抱 AI,Ray 向未来
雷康
字节跳动 数据开发工程师
2025-12-20
16:45-17:05
中兴通讯-Ray在构建电信级产品融合计算底座中的探索与实践
中兴通讯是全球领先的综合信息与通信技术解决方案提供商,服务于全球电信运营商、政企客户及消费者,业务覆盖160多个国家和地区,触达全球1/3人口。本演讲分享中兴通讯基于 Ray 构建电信级产品融合计算底座的探索与实践。首先介绍依托 Ray 搭建的融合计算底座技术架构,随后详细梳理该底座的三大核心应用场景 —— 智能体服务构建、大小模型端到端开发、微服务监管,并着重强调 Ray 在各应用场景中发挥的关键支撑作用,凸显其对场景落地的重要价值。​此外,演讲还分享中兴通讯在增强 Ray 底层能力时面临的具体挑战及对应解决方案,包括实现 Ray Job 对优先级队列的支持、保障 Head 节点高可用、完成 Flowinsight 信息持久化,为同类技术优化提供实践参考。最后,对 Ray 在中兴通讯后续的底层技术发展方向,以及其在电信行业的进一步推广应用展开未来展望,为技术落地与行业赋能提供前瞻性思考。
嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
金嘉淇
中兴通讯 基础平台研发工程师
Ray Forward 2025 — 拥抱 AI,Ray 向未来
许奇
中兴通讯 基础平台研发高级工程师
2025-12-20
17:05-17:25
Ray History Server 的历史任务可观测性实践
RayJob是在Kubernetes基础设施上运行Ray任务的常用且标准的方案,RayJob关联的RayCluster会在任务执行完成后被删除,导致历史任务信息以及集群信息无法被回溯。Ray History Server 通过对历史日志以及集群信息的持久化,使得客户可以通过历史信息对集群销毁时的状态进行查看,最终提升整个系统的可观测性。
嘉宾
Ray Forward 2025 — 拥抱 AI,Ray 向未来
吴昆
阿里云(北京)科技有限公司 高级研发工程师
签到入场
欢迎致辞
Ray Forward 2025 — 拥抱 AI,Ray 向未来
尧远
蚂蚁集团 Ray 系统和湖仓引擎技术负责人
蚂蚁集团Ray系统和湖仓引擎技术负责人,专注于大数据分布式计算系统和人工智能基础设施研发与建设。
Data-Juicer + AFlow:多模态数据处理新范式
Ray Forward 2025 — 拥抱 AI,Ray 向未来
陈道源
阿里巴巴通义实验室 高级算法专家,Data-Juicer负责人
陈道源,阿里巴巴通义实验室高级算法专家,2019年于北京大学获计算机应用技术硕士学位。主要研究方向为大模型数据智能、高效机器学习、多模态等,他发表了40余篇相关领域论文,其中20余篇作为一作发表在ICML、NeurIPS、ICLR、SIGMOD、KDD、TPAMI等顶尖国际会议期刊,多篇获Spotlight。他是开源项目Data-Juicer负责人,担任了NeurIPS、ICLR领域主席,组织了多次KDD Tutorials和天池大模型竞赛。
Ray Forward 2025 — 拥抱 AI,Ray 向未来
张武科
蚂蚁集团 研发工程师
离线推理引擎研发工程师,专注于构建高吞吐、高可靠的大规模数据处理与智能推理引擎。深度参与Ray生态系统的工程实践,理解其分布式任务调度与容错机制,并在Ray Data上积累了丰富的生产级应用经验。参与设计并基于Ray实现了支持多模型并发与异构硬件(CPU/GPU)协同调度的高性能离线推理引擎,成功支撑日均亿级样本的批量预测任务,提高了数据交付效率和计算资源利用率。
AnalyticDB Ray: Data+AI Architecture
Ray Forward 2025 — 拥抱 AI,Ray 向未来
李伟
阿里云 高级技术专家
沐远 高级技术专家,阿里云AnalyticDB MySQL资源调度和Ray技术负责人,专注在多模态数据处理、具身智能、Ray、Agent、K8s等技术。
京东零售基于Ray实现弹性训推一体落地实践
Ray Forward 2025 — 拥抱 AI,Ray 向未来
季万强
京东零售 高级专家
来自京东零售AI Infra团队,目前专注于机器学习、分布式计算等方向,是多个知名开源项目的维护者与贡献者。
火山引擎 Ve-Ray:Ray 企业级增强实践与核心竞争力解析
Ray Forward 2025 — 拥抱 AI,Ray 向未来
杜军令
字节跳动 分布式引擎架构师
拥有十年以上分布式引擎研发经验,长期深耕多模态数据处理领域,积累了扎实的实践沉淀。曾深度支撑多家基模企业的多模态数据处理核心场景,在Spark、Ray、Daft等主流分布式引擎的技术落地与优化上有着丰富经验,聚焦高效、稳健的分布式数据处理方案构建。
基于Ray的蚂蚁数据构建引擎在搜推、RAG场景的实践
Ray Forward 2025 — 拥抱 AI,Ray 向未来
谢涛
蚂蚁集团 技术专家
蚂蚁全模态数据构建引擎负责人
午餐休息
Ray融合计算在腾讯TEG推理方向的落地实践
Ray Forward 2025 — 拥抱 AI,Ray 向未来
宋顾杨
腾讯 后台开发
TEG 机器学习平台部Ray引擎负责人 Ray开源社区Committer/中文社区布道师 原蚂蚁集团Ray团队开源负责人 百万核超大规模Ray生产集群落地经验
ROLL:基于Ray构建的Agentic场景生产级大规模强化学习训练框架
Ray Forward 2025 — 拥抱 AI,Ray 向未来
熊绍潘
爱橙科技 大模型强化学习框架工程师
熊绍潘(亚里)硕士,爱橙科技智能引擎算法平台 大模型强化学习框架工程师,研究兴趣为:大模型后训练、强化学习训练框架的工程实现与性能优化。是ROLL社区的Core Maintainer,旨在为大模型提供稳定、易用的强化学习训练基础设施。
Ray Forward 2025 — 拥抱 AI,Ray 向未来
张子超
爱橙科技 AI 大数据工程师
张子超(煜晖),硕士,爱橙科技-智能引擎事业部-算法平台-AI大数据工程师,主要研究方向是分布式计算(离线计算、实时计算、批流统一)、隐私计算(多方安全计算、联邦学习),负责AI场景下大数据计算框架的开发和优化。
字节跳动推荐大模型场景基于Ray的落地实践
Ray Forward 2025 — 拥抱 AI,Ray 向未来
刘方奇
字节跳动 字节跳动推荐架构工程师
大家好,我是刘方奇,目前在字节跳动担任推荐系统架构工程师。我的主要工作方向是设计和优化大规模推荐系统架构,涉及到数据流、算法模型的部署 & 运行时优化。最近,我们也开始关注 AI 加速框架,特别是在基于 Ray 进行分布式 AI 计算的应用方面,有了一些深度的尝试。 很高兴能够参加Ray Forward,希望能与大家一起探讨如何在分布式环境下优化 AI 模型的训练和推理,并了解更多关于 Ray 在 AI 场景中的最佳实践,期待与各位交流学习。
DLRover on Ray —— 面向深度学习的异构融合引擎的设计与实现
Ray Forward 2025 — 拥抱 AI,Ray 向未来
陈天熠
蚂蚁集团 AI Infra工程师
北京土著,通过支付业务入行软件开发,后来做过Hadoop,Openstack。19年入职蚂蚁,开始从事分布式计算引擎的研发工作。2019年~2023年,构建了基于Ray的面向流式训练的计算引擎,支撑了包括支付宝首页推荐相关的在线学习链路。24年~至今,主要负责DLRover项目的研发以及开源社区的维护工作。 欢迎大家随时交流,联系方式:15001012533。
茶歇
B站下一代多模态数据工程架构的落地实践
Ray Forward 2025 — 拥抱 AI,Ray 向未来
郑志升
哔哩哔哩 技术专家,负责大模型训推数据链路的工程建设
B站DATA和AI工程架构领域的技术专家,10多年在大数据平台和架构相关的经验,从0到1搭建B站实时端到端的传输、计算和数据湖体系,主要涵盖了Kafka、Flink、Spark、Iceberg/HUDI,Ray等计算设施。近两年主要聚焦于大模型的训练和推理工程化建设,围绕Verl、Vllm、SGLang等大模型训推组件,打造基于Ray之上的新一代AI Infra计算底座。
让不稳定资源支撑稳定的 AI 推理服务:基于联邦技术与Ray Serve的跨云异构算力融合实践
Ray Forward 2025 — 拥抱 AI,Ray 向未来
陈宇
小红书 数据引擎工程师
在小红书科技有限公司任职数据引擎工程师,Apache Flink社区Contributor。 近年来主要聚焦于Ray引擎的Core、Data、Serve与自研流式Ray Klein引擎的研发与维护工作,以及Flink引擎内核研发与优化等。
扩展Ray Data生态系统:为字节跳动的VLM实现分布式SQL、流处理和湖仓集成
Ray Forward 2025 — 拥抱 AI,Ray 向未来
吴郁非
字节跳动 Ray研发工程师
负责字节跳动Ray Data相关的开发。参与Ray Data在字节的拓展与生态集成,并支持了基于Ray Data的数据处理在字节跳动的落地。
Ray Forward 2025 — 拥抱 AI,Ray 向未来
雷康
字节跳动 数据开发工程师
负责视觉理解大模型多模态数据工程建设,构造高质量训练数据集
中兴通讯-Ray在构建电信级产品融合计算底座中的探索与实践
Ray Forward 2025 — 拥抱 AI,Ray 向未来
金嘉淇
中兴通讯 基础平台研发工程师
金嘉淇,硕士毕业于浙江大学,现任中兴通讯基础平台研发工程师,负责Ray引擎的研发和推广工作。曾在华为云、阿里巴巴负责大数据组件、数据中台研发工作。是Ray、Spark社区积极的Contributer,参与了Ray Direct Transport等关键模块的设计和开发工作。
Ray Forward 2025 — 拥抱 AI,Ray 向未来
许奇
中兴通讯 基础平台研发高级工程师
许奇,多年任职中兴通讯基础平台研发高级工程师。工作聚焦数据与 AI 智能融合平台研发,通过搭建统一数据治理体系与 AI 训推引擎,深度结合通信网络业务场景,推动智能化创新落地,助力实现精准运维、高效决策与成本优化。
Ray History Server 的历史任务可观测性实践
Ray Forward 2025 — 拥抱 AI,Ray 向未来
吴昆
阿里云(北京)科技有限公司 高级研发工程师
阿里云高级研发工程师,在公司内部负责基于Kubernetes的资源管理系统构建以及机器学习训练系统优化,主要关注Kube Scheduler,Ray以及强化学习。是Koordinator以及Kubernetes-Sigs Member。
活动主办方