使用微信扫一扫分享到朋友圈
智能时代已然到来,AGI和AIGC会成为许多企业十年探索与追溯的方向,AIGC逐渐迈入规模化应用,从单点应用走向多元化、通用走向特定业务场景细分,不仅成为千行百业提质增效的辅助手段,也是全球化竞争的焦点。以科技创新为核心,推动产业创新,实现社会生产力的新跃升,是促进新兴产业和未来产业快速发展的关键。 本次峰会将以数智+跃迁为主旨,以业务与新兴技术为导向,AIGC行业化、智能化开发、数据智能、大模型规模化应用、架构生态、研发效能、组织战略等先进数字技术进行全面解析,帮助企业构建和借鉴适合自身的技术实践。
开幕致辞
笑含 CSDI发起人,百林哲创始人兼CEO
迈向AGI:大模型拉开的产业革新
〇 分享简介 〇
当下AI全球态势、大模型发展动态以及应用趋势,是全民的关注热点。在新一轮人工智能大模型发展浪潮下,全球人工智能产业保持高增长,中国规模举足轻重,人工智能行业渗透率提速。同时,大模型基座化正重塑人工智能产业链和全球市场竞争格局,在研究国内外大模型领军企业和区域发展的基础上,本次分享大模型在各行业领域的创新应用情况,以及结合大模型在智算、语料、仿真、科学研究、智能产品等方面的发展趋势。
〇 分享收益 〇
目标:
1、深度了解当前全球人工智能产业、大模型技术与应用发展态势,
2、引导大模型行业健康发展,用发展趋势启发技术应用落地,带来市场收益。
成功要点:
1、人工智能是新一轮科技革命和产业变革的重要驱动力量,我国正在大力发展人工智能产业,并努力迈向通用人工智能,人工智能发展已从局部探索走向千行百业。
2、大模型时代的到来,带动新一轮的AI产业投资,并涌现出多家独角兽企业。
3、AI大模型呈现出快速发展趋势,核心三要素更新迭代脚步加快,中国作为人工智能领域发展的重要参与者,正在加快大模型领域的投资与研究,技术、应用和治理同步推进。
4、大模型落地应用显著增长,已在文娱、金融、制造、能源、终端、办公、设计等行业领域广有应用。
启示:
1、基于应用的语料市场生态加快建设,大模型创新加速剂,AI全场景仿真与生成将驱动创意与设计变革,成为科学研究的新范式;
2、具身智能下的人形机器人,通用智能有望突破,许多应用是大模型应用在新一代智能产品的创业新方向。
〇 分享亮点 〇
1、展示国内外人工智能产业、企业、投资、应用等各种统计数据
2、人工智能产业总体视图、国家和地方人工智能政策布局
3、大模型领域头部企业、投资带动、区域发展等情况分析
4、各类大模型行业应用详情、
5、大模型领域发展八大趋势
数字化转型下的企业架构重塑
〇 分享简介 〇
随着数据要素、人工智能、云计算、物联网等新质生产力要素的应用,将带来企业生产方式、管理方式和商业模式的全面革新,实现生产效益的飞跃提升。但是,企业一方面要面对内部、外部需求的变化,一方面又要面对新技术的应用,让业务与技术融合是现在所有组织面临的一项基本挑战,而构建企业架构、用数字化思维加强顶层设计是应对这项挑战的最佳途径。
AIGC 的应用构建,让企业架构的方法也需要随着软件需求、开发、交付、使用方式的改变而带来改变。从静态到动态,从流程驱动到数据驱动,从标准化到个性化,从知识化到智能化,利用在企业架构构建中应用 AI 技术,以及利用企业架构更好的构建AI应用,以及解决AI在专业领域不足的问题,成为目前企业架构升级必须的考量。
本次分享从数字化转型下企业架构重塑的方法入手,解读构建企业架构的目标,与软件工程的关系,提出从传统流程驱动到数据驱动的企业架构建模方法,利用企业架构在软件工程中应用 AI 技术,帮助行业重塑数字化转型的架构体系。
〇 分享收益 〇
目标:
1、提升管理者、架构师、开发工程师、测试工程师对企业架构的认知
2、了解融合企业架构中业务架构、数据架构、应用架构的基本方法
3、明确企业架构(业务架构、数据架构、应用架构)与软件工程中需求、开发等环节的关系
4、通过企业架构,增强 AI在软件工程中的应用
成功要点:
融合多种企业架构设计的方法,形成动态、多视角、数字化的思考框架,实现业务架构与数据架构设计的贯通,实现企业架构与软件工程的贯通
启示:
目前 AI 在软件工程的应用场景虽然很多,但是大多限于简单场景,针对专业领域作用有限,利用架构思维的方法从需求、测试两端入手,形成结构化知识,可以提高 AI 在软件工程的应用,同时 AI 也能够成为形成结构化知识的助手。
〇 分享亮点 〇
1、企业架构设计中如何解决个性化需求,让企业架构不再是静态的而是动起来。
2、分享业务流程设计与数据要素设计的融合范式,增进两个领域的理解,形成业务到数据的闭环。
3、利用企业架构,实现基于知识驱动的 AI 应用。
基于llama3的领域模型落地实践
〇 分享简介 〇
开源大模型打破了技术壁垒,使得各行各业能够轻松获取并应用先进的AI技术,有效降低了技术研发成本,加速了大模型科技的普及。开源模型促进了跨界合作,比如金融机构得以与科技公司、研究机构等携手,共同探索适用于金融领域的定制化模型,推动服务创新。
基于我们的成熟的实践经验,开源大模型是企业数字化转型的重要驱动力之一。特别对于金融行业,通过引入开源模型,金融机构可以加速构建数字化、智能化的金融服务体系,提升金融服务的便捷性和普惠性。这有助于金融机构更好地满足用户需求,提升企业市场竞争力。
本次分享“基于LLaMA3的领域模型落地实践点”为主题,深入探讨LLaMA3大型语言模型在特定领域的落地应用策略,同时分析开源大模型的发展趋势,并揭示企业在场景化应用大模型过程中面临的挑战与解决方案。
〇 分享收益 〇
目标:
1、通过开源大模型发展历程,以及企业场景相关特点,分享相应领域大模型的选择方案
2、详细分享基于llama3的优化及适配方案
3、详细分享基于大模型整体工程实践方案(RAG,Agent等等)
4、以金融行业为例,分享如何赋能行业与应用
成功要点:
基于llama3进行的二次预训练,并通过场景相关的SFT,强化对齐等技术,达到Sota的中文效果,同时配合RAG和Agent等相关技术,落地于企业相关应用。
启示:
从成本,私有化,以及效果等角度综合考虑,基于开源大模型的领域适配是企业应用大模型的最优方案
〇 分享亮点 〇
1、开源崛起:大模型普惠时代来临
2、领域模型构建:融合开源优势,打造行业智能引擎
3、领域模型落地:从Llama3到行业解决方案
4、领域模型价值创造:赋能、创新与变革金融行业
5、度小满轩辕大模型:跨越认知,走向AGI
大模型时代的智能软件研发:技术、范式与工具
〇 分享简介 〇
大模型在代码生成方面表现优异,并被公认是大模型的重要应用场景。基于大模型研发的智能化开发助手也因此得到了蓬勃发展,从微软的Copilot,到华为、百度、阿里、智谱等国内企业的智能化IDE插件,大模型正在引领软件工程变革,甚至有望成为软件工程领域的“银弹”,成为新质生产力的典型代表之一。
从软件生命周期看,代码编写仅仅是其中的一个环节,前期的需求分析与设计,后期的测试与运维等也是影响软件研发的重要环节,也需要大模型的支持,并推动对应的大模型往项目级演进。不仅如此,随着大模型向软件研发活动的深入渗透,它甚至可能会重塑软件研发的流程
本次分享将结合华为在基于大模型的代码生成等软件研发领域开展的系列探索,分享软件研发大模型的进展,大模型往项目级演进的道路,并对软件研发的未来及需要解决的关键问题进行展望。
〇 分享收益 〇
目标:
1、帮助软件开发人员了解大模型在软件研发领域的最新动态。
2、帮助软件企业了解目前的智能化研发工具,及其特点。
3、帮助软件企业如何使用好各种相关的工具,并规划好利用大模型提升研发效率的里程碑。
成功要点:
1、先体验现有智能化研发助手,有个初步的了解。
2、对自有软件研发资产进行数字化管理,并加工、升华。
3、做好效果度量体系与工具。
启示:
关注动态、主动尝试、持续改进、度量收益。
〇 分享亮点 〇
1、AI编程的进展。
2、大模型带来的软件工程新范式。
3、现有的智能化研发工具。
4、当前的大模型研发上的效果及展望。
软件工程全链路智能优化
〇 分享简介 〇
大模型开启了智能化时代,智能机器的数量将会远远超过人类的数量,有多少机器就需要多少代码,软件工程的全链路智能化,既是技术发展的必然趋势,也是智能落地的巨大机遇。在过去一年多中,一方面,基于大模型打造的智能编码助手(Code Copilot)正在如火如荼的发展,极大的提高了编程效率,另一方面,基于大模型+Code Agent打造的AI程序员又开始崭露头角,开始从端到端全链路的层面来对软件工程进行智能化升级。
大模型技术要大规模落地,不仅需要深厚体系的技术能力,每个企业都需要对行业和客户有很好的理解,二者缺一不可。比如在打造软件工程智能化产品过程中,不仅要基于大模型技术体系在软件工程各环节技术上做深入研究和探索,更要理解客户的数据特点、使用场景、具体痛点、衡量视角,以及决策人关注的使用价值。技术和业务充分结合,才能做到PMF。
本次分享将从大模型技术发展趋势和软件工程发展趋势的综合视角入手,探讨软件工程全链路智能化发展遇到的问题、当前的技术进展(从Copilot到Agent)和下一步的发展趋势,为与会者带来全面的工程智能化思考。
〇 分享收益 〇
目标:
1、理解软件工程智能化的系统思考
2、了解编码助手的最新进展和落地范式
3、看到AI程序员的最新进展和落地探索
4、看到代码智能的下一步发展趋势
成功要点:
软件工程智能化是大模型落地最快、价值最大的领域之一,它正在从辅助快速向独立解决问题发展,拥抱新技术并积极寻找新的人机协作方式,是这个时代程序员的核心命题。
启示:
将大模型带来的技术红利和软件工程的特点和需求深入结合,才能切实推进全链路智能化的发展。
〇 分享亮点 〇
1、软件工程智能化建设的整体思考
2、智能编码助手的进展和应用案例
3、代码智能体的前沿进展和应用情况
4、代码智能的未来发展方向和趋势判断
大模型在社区场景下的云边协同设计和实践
〇 分享简介 〇
在当下,大模型视频分析和自然语言处理等领域的应用越来越广泛。然而,传统的大模型计算通常需要在云端进行,这导致了数据传输带宽消耗、传输延迟、隐私保护和成本等问题。在社区指挥中心,边缘设备的计算能力有限,无法满足大模型的训练和推理需求。
本次分享主旨云边协同设计,将计算任务合理地分配到云端和边缘设备上,让云端提供强大的计算能力和存储资源,可以处理大规模数据和复杂计算任务;让边缘设备以提供低延迟的数据处理能力,充分结合云和边的优势,实时响应用户需求。
〇 分享收益 〇
目标:
1、通用大模型转向垂直行业应用;
2、大模型的轻量化改造,适应边缘算力部署;
成功要点:
1、解决数据、算力、算法架构等核心问题;
2、从业务场景到应用,打造端到端的解决方案和技术能力;
启示:
大模型的云边协同设计具有重要意义和优势。它不仅能够解决传统大模型计算中存在的问题,还为各个行业带来更高效、安全、经济的解决方案。通过合理利用云端和边缘设备的资源,在实践中将探索出更多创新性的应用场景,并推动企业数字化转型取得更加显著的成果。
〇 分享亮点 〇
1、大模型领域的应用简介
A、行业痛点挖掘
B、大模型的应用领域和挑战
C、云边协同设计的意义和优势
2、大模型的云边协同架构设计
A、云端模型建模、训练和参数更新
B、边端数据收集和模型推理
C、模型主动学习和评估
3、实践案例:大模型的云边协同应用
A、社区违规场景视频分析与智能监控
B、社区对话场景和语音识别和文字识别场景
C、网络通信与传输优化技术选择
D、边缘设备资源管理与调度算法
4、总结与展望
A、总结大模型的云边协同设计原则及实践经验
B、展望未来大模型在云边协同方面的发展趋势
业务价值驱动的垂域大模型应用构建
〇 分享简介 〇
在通用大模型快速发展的推动下,AI技术正以前所未有的速度渗透到各行各业中,带来了新质生产力的显著提升。然而,尽管大模型在推理、决策等方面展现出了强大的能力,企业在实际应用中仍然面临诸多挑战。这些挑战不仅包括大模型在特定场景下的能力边界问题,还涉及到如何有效地将其优势转化为实际的业务价值。
LLM以激发AGI的全新范式创造价值,有效的整合规模化、高质量的数据、模型的训练,遵循技术与市场的发展规律,有利于企业筛选与确定发展通用大模型与行业特定大模型的独特路径。
本次分享将重点探讨大模型在垂直行业中的应用策略,结合垂直领域的实践案例,深入分析在业务目标驱动下,聚焦大模型的优势边界,通过端到端的整体规划和组织流程优化,推动大模型在行业中的高效落地。此外,还将讨论模型矩阵的运用及分阶段敏捷推进的方法,以确保大模型的应用能够满足行业的安全合规要求,并实现持续创新。帮助企业在应对大模型应用挑战时,找到最适合自身发展的选型。
〇 分享收益〇
目标:
1、了解通用大模型在垂直行业中的实际应用现状与挑战。
2、掌握大模型在垂直行业中成功落地的关键方法论。
3、解析大模型在医疗、金融、政务等领域的实际应用场景和业务价值实现路径。
成功要点:
1、业务价值驱动: 在项目开始前明确业务目标,以确保大模型的应用能够切实解决企业的痛点,提升业务效能。
2、聚焦优势边界: 在应用大模型时,精准定位其优势领域,避免在大模型能力边界外尝试,减少失败风险。
3、端到端整体规划: 通过全面的端到端规划,确保从需求分析、模型设计到实施、优化的各个环节都能够有序推进。
4、组织流程优化: 大模型的成功落地依赖于智能化的组织流程升级,尤其是业务与科技部门的密切配合,以实现快速、高效的实施。
5、模型矩阵应用: 采用模型矩阵的混合应用策略,充分利用大模型和小模型的各自优势,通过场景组合取长补短,提升整体应用效果。
6、安全合规保障: 在大模型应用的整个生命周期中,始终保持对安全与合规的高度关注,确保符合行业和法律标准。
7、分阶段敏捷推进: 采用敏捷的方法论,以迭代方式逐步推进大模型的应用,降低项目风险,提升实施效率。
启示:
1、大模型的应用不仅仅是技术的探索,更是对行业生产力的深度变革,通过精确的业务目标导向和优势聚焦,能够有效推动垂直行业的创新发展。组织流程的智能化升级以及业务与科技部门的紧密协作,是大模型应用成功的关键之一。
2、在面对技术边界时,企业应当理性评估大模型的适用性,避免盲目扩展应用范围,以提高项目成功率。安全与合规是大模型应用的底线,任何成功的应用实践都离不开对这些方面的严格把控,确保技术进步不会带来潜在的风险。
3、混合应用模型矩阵,合理利用大模型与小模型的优势,可以更好地适应多变的应用场景,提升项目的成功率和业务价值。
〇 分享亮点〇
1、大模型的崛起与通用人工智能时代的到来: 探讨大模型技术的快速发展及其引领的通用人工智能时代,分析其对各行业带来的深远影响。
2、大模型应用建设中的问题与挑战: 讨论大模型在实际应用中面临的能力边界、技术挑战以及行业痛点,深入剖析其在落地过程中遇到的主要困难。
3、百川的大模型应用认知与思考: 结合多个垂直行业中应用大模型的实践经验,从业务价值导向到端到端的整体规划,解析实践中有效应对大模型的挑战。
4、百川大模型赋能千行百业: 解析大模型如何赋能行业创新,提升生产力。典型案例医疗、金融、政务等多行业应用。
AI行业化:大模型落地AIoT新时代
〇 分享简介 〇
多模态大模型取得许多辉煌成果,通过将大语言模型和其他模态结合,不仅保留了大语音模型的推理和决策能力,还拓展了视觉、听觉等多模态能力,这个能力的突破,使得大模型和众多硬件设备有了更好的结合场景,使得大模型不仅可以读书、写作,还可以“看懂/听懂”图像、音频、视频,并将这些信息表述出来,做出推理、决策,还能进一步控制、联动其他硬件设备做出反馈;多模态大模型实现了从感知到认知能力的跨越性提升,使得AI和IoT能够更进一步的融合,展现出巨大的潜力和实际应用价值。
虽然大模型有着通用性强、优秀的迁移学习和上下文理解能力,然而不同于大语言模型以及于绘画、视频生成等艺术创作场景,IoT的很多领域对算法的差错容忍度更低,相比之下多模态大模型的成熟度仍然不足,幻觉、过度推理等问题在一些IoT场景也更加突出,加上更加高昂的数据收集、清洗、训练以及部署推理成本,虽然前景美好,但是在一些垂直场景却很难顺畅的落地。
本分享结合360智脑·视觉大模型云在安防领域的一些探索实践,提出了云边端融合、大小模型协同,先垂直后通用,先主观、后客观的落地方式,将大模型的突出优势和已经相对成熟的小模型结合,找准与当前能力充分匹配的垂直场景和刚性需求,给出与会者深刻的探索与思考。
〇 分享收益 〇
目标:
1、通过多模态大模型简要发展回顾,分享360在多模态大模型上的路线取舍,给到多模态大模型在IoT领域落地的参考路径;
2、理清大模型结合AIoT落地的关键点,结合具体案例,提炼出IoT场景大模型落地应用的方法路线。
成功要点:
1、技术路线选择,原生多模训练和单模态专家缝合路线并行,基于已有的大语言模型,聚焦不同模态的连接、实现协同推理,先做好跨模态对齐和场景意图对齐,实现快速落地;
2、先垂直、后通用,先从需求明确、收益清晰的垂直场景入手,通过行业垂直数据快速微调,落地迭代。
3、先主观、后客观,大小模型协同,发挥大模型型通用性强、迁移学习能力强、上下文学习能力突出的有点,找到一些主观占比更高的垂直场景,和传统注重感知的小模型协同,更容感知价值。
启示:
深度结合IoT设备,拓展大模型看、听、说、动的能力,是未来多模态大模型的重要迭代学习数据来源和能力体现,结合大模型技术,AIoT才真正的有更广泛的应用前景。短期内,受限于技术成熟度和使用成本,大模型和IoT的结合落地还有较大的预期落差,云边端融合、大小模型协同,需找准一个垂直场景,发挥大模型的通用性、迁移性、上下文学习优势,才能让大模型更好的落地。
〇 分享亮点 〇
1、多模态大模型的简要发展回顾
2、360在多模态大模型上的路线与场景选择
3、实践案例:大模型在360 智能硬件产品中的落地实践。
4、AI行业总结与展望
科技发展与创新成为推动社会发展的核心力量,智能研发应用创新的发展应用趋势,呈现出多元化、跨界融合、可持续发展的特性。随着应用领域的扩展,智能研发将为企业带来深远影响。
技术与不断变化的市场,企业会将不同领域的技术与知识进行融合,将创造出更多竞争力的产品与应用。借助AI、大数据、云计算等先进数字化技术,物联网应用通过收集更加精准的产品数据,促进研发的精准优化;自动化机器人也将实现研发过程的自动化与智能化;互联网研发工具与数据资源,实现研发过程的高效协同与资源共享。都为研发决策提供有力的支撑,决策、预测。
本专场将汇聚顶尖企业优秀嘉宾,从不同的智能研发场景与融合方向,表达先进的数字技术,应用在特定特色场景上的智能创新。
出品人:郑从威 小鹏汇天副总裁、联合创始人
数字未来:构建内生安全的防御体系
〇 分享简介 〇
在AIGC的浪潮中,内容安全正成为业内关注的焦点。随着社交媒体的迅速发展和UGC的激增,我们面临着前所未有的挑战。海量的多模态数据和错综复杂的社交网络要求我们超越传统的安全技术,以更智能、更精准的方式维护互联网平台的内容安全。当前的痛点在于,如何有效识别和处理涉黄、敏感、涉暴等不良信息,同时保护用户隐私和平台的健康发展。
内容安全不应仅依赖于技术手段,而应与业务逻辑紧密结合,形成一种内生的、动态的安全机制。人工智能技术应用在数字内容风控,行业只有通过与业务部门的紧密配合,才能够更高效地实现安全防护。同时,避免与黑产的正面冲突。因此,一个产品设计理念,也从外置式解决方案转变为API形式的内嵌服务,以更好地适应不同业务场景的需求。
本次分享结合网易易盾在数字内容风控领域的创新实践和技术成果,为行业提供一种全新的安全理念和解决方案。内生安全的概念帮助客户构建起更为坚固的内容安全防线,同时,也推动了整个行业对内容安全重要性的认识。内容风控不是一条简单的“红线”,而是需要根据不同的业务逻辑和应用场景,提供定制化的解决方案。这种以技术为支撑,以业务为核心的安全策略,对于维护网络环境的健康发展,保护用户权益,具有重要的现实意义和深远的社会影响。
〇 分享收益 〇
目标:
1、了解当前网络安全领域的最新趋势和挑战,认识到内生安全在数字化转型中的重要性,以及企业应对未来安全威胁的关键策略。
2、了解构建内生安全防御体系的深入见解和实用知识,包括最佳实践、技术框架和策略,帮助听众在自己的组织中实施更为有效的安全措施。
3、学习将内生安全理念融入到企业战略中,从顶层设计到日常运营,构建起一个全面覆盖的安全防护体系。
4、理解快速在变化的技术环境中保持前瞻性,以及利用新兴技术来加强安全防护。
5、学习识别和解决网络安全问题,解决面对新兴技术和业务模式中,快速适应并制定相应的安全策略。
成功要点:
1、内容安全要内生于业务逻辑,与业务流程紧密结合。安全措施不应仅是附加的“盒子”,而应作为业务流程的一部分,通过API等形式嵌入,实现安全防护的自动化和智能化。
2、面对不断变化的安全威胁,需要采取了动态防御策略,通过不断收集情报、分析样本、更新模型来应对新的安全挑战。这种“用时间换精度”和“用不确定性提升防御强度”的方法,使得安全防护更加灵活和有效。
3、将技术产品推向市场进行商业化验证是检验其真正价值的关键步骤。这不仅是对产品能力的测试,也是对其市场适应性和用户接受度的考验。
启示:
内生安全的理念和实践不仅提升了内容风控的效率和准确性,也为整个行业提供了新的安全策略和解决方案。这种技术与业务深度融合的模式,为企业在维护网络环境健康发展和保护用户权益方面提供了新的视角和工具,同时也为企业在激烈的市场竞争中赢得了优势。
〇 分享亮点 〇
1、互联网技术发展与安全挑战
网易作为资深互联网公司,持续关注技术研究与应用。信息安全技术从简单规则发展到AI大模型,见证了互联网的繁荣与安全问题的复杂性。
2、网络安全现状与经济损失
网络安全问题导致的全球经济损失巨大,国内网络违法事件数量上升,政府采取专项行动应对。
3、信息量激增与安全问题
互联网用户和IoT设备数量的增加导致数据量激增,预测2025年全球数据规模将极为庞大。
4、信息传播对社会带来的安全问题
麦克卢汉的媒介影响力理论,信息茧房和回音室效应,反映了信息对个人和社会的深远影响。
5、安全问题的内生性与演进
马克思的唯物辩证法指出矛盾的普遍性,信息安全问题与技术进步相伴而生。借鉴马克思·韦伯的工具理性概念,技术进步与安全威胁相互促进,需要不断对抗演进。
6、安全问题的分类与解决方案
对已知和未知安全问题进行分类,并针对性设计解决方案。
7、内生的弹性纵深防御体系
基于最新研究成果,设计了新的防御理论,强调时间换精度和不确定性提升防御强度。弹性动态防御模块:介绍了检测任务的分层分级和动态路由功能,提升了系统的自免疫力和迷惑强度。纵深防御体系建设:将纵深防御能力集成到每个业务逻辑中,形成类似深度学习神经网络的复杂防御体系。
8、QA
安全可信大模型解决方案的探索与实践
〇 分享简介 〇
大模型作为新质生产力,有着巨大市场规模的应用前景,但在企业实际落地过程中,会面临着模型算法不安全、生成内容不合规、生成结果不可信,以及多Agent系统不可控等挑战。
依托安全和搜索的积累,360集团大模型的“安全、向善、可信、可控”4原则,通过生态链漏洞扫描和防护技术、内容安全的过滤和检测机制、多源验证和一致性检查、权限管理和行为监控 等手段,解决了大模型在实际业务落地中的各种挑战。
本次分享从大模型生成内容的安全性和幻觉问题的角度,深度剖析360智脑在这方面的一些研究进展、技术方案、业务落地实践,帮助企业了解将大模型应用于实际业务中的挑战和解决方案,进而推动企业数字化转型,提升业务竞争力。
〇 分享收益 〇
目标:
了解大模型在企业落地中可能遇到的问题,如何对这些问题进行系统性的评估,以及相应的解决方案,期望从中获得启示,赋能自身企业和团队在AI时代下创新加速。
成功要点:
1、通过建立内容安全评测体系、清洗预训练数据、继续预训练、安全微调、安全价值观对齐、内容安全检测大模型、内容安全回复大模型、RAG、红蓝对抗大模型等手段,提升大模型生产内容的安全性
2、通过定向挖掘缺失的知识、继续预训练、微调、对齐、RAG、知识增强、搜索增强、插件增强、推理增强等技术,缓解大模型的幻觉问题。
启发:
大模型在企业数字化业务落地中的技术挑战和解决方案,可帮助企业业务建立合理的预期,增强系统安全性和可用性,推动AI可持续发展的相关应用。
〇 分享亮点 〇
1、大模型在业务场景落地中面临的安全性和可信性的挑战
2、大模型内容安全的防护方案
3、大模型幻觉问题的缓解方案
4、安全可信大模型的应用实践
企业级智能化客服与风控系统建设
〇 分享简介 〇
企业级的智能客服中台通常经历从数据规模由万级到亿级的飞跃,从传统的人机对话到大语言模型(LLM)的演进。基于业务场景,借助大数据组件如Flink和HBase来提升数据处理速度,通过AI工程进行训练、微调和推理,从传统的自然语言处理(NLP)模型发展到LLM+RAG(检索增强生成),不断进阶。
随着AIGC(人工智能生成内容)浪潮的兴起,美的集团在全球化业务拓展和企业数字化、智能化方面取得了显著进展,尤其是在智能客服和安全风控领域。针对供应链、电商、售后、零售、导购等核心业务场景,大规模化带来了大量B端和C端客户的反馈和客服需求。通过智能客服中台,美的集团能够快速有效地解决用户诉求,提升企业用户体验和业务效率。这对平台能力提出了极大的挑战,同时也带来了巨大的价值。
本次分享将探讨如何处理海量数据、大数据与AI的融合、以及AI工程的具体实践。同时,分享大模型在客服场景中的应用实践,探讨大模型在大规模应用于客服场景中的安全风控,业务面对安全问题和风险发现等智能预警功能。帮助企业展望未来平台能力的建设,规划智能客服与风控应用的蓝图。
〇 分享收益 〇
目标:
1、深入智能客服中台从传统人机对话到大语言模型(LLM)的演进过程。
2、掌握智能客服系统在处理海量数据和复杂业务场景中的关键技术和方法。
3、掌握大数据与AI结合的实践经验。
4、掌握通过智能预警功能发现和应对业务中的安全问题和风险。
成功要点
1、利用大数据组件如Flink和HBase进行数据处理和分析。
2、应用AI工程训练、微调和推理的具体实践,提升技术应用能力。
3、结合LLM+RAG,应用智能客服中实践,提升用户体验和业务效率方面的具体效果。
启示:
智能客服中台的演进和大数据与AI的结合,可以显著提升用户体验和业务效率,同时有效应对安全问题和风险。不仅为企业提供了技术上的突破,也为业务发展带来了新的机遇和竞争优势。
〇 分享亮点 〇
1、业务背景
1)智能客服业务
2)业务与系统可靠性
2、核心架构演进
1)领域知识库
2)知识集成
3)知识提取
4)知识结构化存储
3、智能对话服务
1)传统人机对话
2)基于RAG的大模型问答
3)B端与C端复杂场景下应用与效果对比
4)向量数据库:基于CPU+GPU的高性能检索
4、安全风控:
1)高性能风控引擎:存算分离
2)大模型的安全风控:基于 NLP 分类的风险挖掘
5、未来规划
1)平台架构
2)架构下一次演进
6、QA
飞行汽车智能化探索
〇 分享简介 〇
飞行汽车在低空飞行上的发展充满挑战,同样也拥有广阔的发展前景。在技术、法规、社会接受度、经济性和基础设施等多个方面的挑战将逐步解决,市场需求和企业布局,目前已有多方面的有利因素将促进飞行汽车产业的快速发展。未来,随着无人驾驶技术的成熟、公共设施的完善和交通管制制度的规范,飞行汽车有望实现商业化应用,成为解决城市交通拥堵的重要手段。从2014年特斯拉进入中国以来,新能源汽车行业两个驱动力动力电池和智能化在最近10年持续突破,中国新能源汽车在智能座舱和智能驾驶领域在功能和体验上持续创新,得到用户和市场的认可,7月份中国新能源月销渗透率超过50%。
飞行汽车代表未来交通方式的一种革命性变革,通过低空智能交通和立体智慧交通来解决日益严峻的城市交通拥堵问题,来提升出行效率和灵活性。这项国家新兴战略行业,小鹏汇天在低空领域看到了同样的机会,通过电池动力和智能化技术赋能低空行业,提升降低飞行器安全性,降低操控门槛,为低空经济的健康发展作出贡献,不仅在能源动力上有很多探索,也在开发高度智能化的飞行控制系统,在空中的稳定性和安全性,以及复杂的算法和先进的传感器技术等多方面都有显著的探索。
本次分享深度探讨小鹏汇天智能化探索的经验,以及在低空领域飞行汽车智能化产品和技术的思考和实践,为新能源以及非能源领域、喜欢智能化和飞行的与会者,带来一些创新性的思维思路。
〇 分享收益 〇
目标:
1 、了解汽车领域的智能化的应用,以及产品和技术特点
2 、了解低空领域智能化的产品目标和技术挑战
3、了解智能化在传统汽车和飞行器领域的发展前景
4、掌握通过互联网产品和技术为传统行业赋能的一些方法思路。
成功要点:
飞行汽车的智能化探索面临诸多技术挑战,基于互联网行业技术与产品理念,与传统行业融合,其智能驾驶系统的安全性和可靠性问题成为最大的瓶颈,除了持续的技术研发和创新外,还需要完善相关的法规体系和空中交通管理机制,以推动飞行汽车真正实现商业化落地。
启示:
飞行汽车有望成为未来交通领域的重要变革力量,提高出行效率,减少交通拥堵,还能为人们带来全新的出行体验,并在多个领域发挥重要作用,带来了智能化探索在交通领域的新维度。
〇 分享亮点 〇
1 、解析新能源汽车智能化相关产品和技术架构
2、 低空领域智能化的产品需求和目标
3 、飞行汽车智能座舱产品功能体系和技术架构
4 、飞行汽车智能座舱研发流程体系
5 、QA
AI原生应用探索实践
〇 分享简介 〇
AI 原生应用是衔接 C 端用户和大模型的必经环节,和 AI Powered 产品不同,AI Native 讲究的是如何同模型能力进行原生整合,给用户提供便捷且效果拔群的交互体验。
搭建 AI 原生应用,不仅要关注模型效果、提示词工程等基础能力,还要探索通过什么样的媒介来把能力呈现给用户,以及在能力呈现的过程中如何对已有的功能进行解构和再组织。与传统的 AI Powered 产品不同,AI 原生应用强调与模型能力的原生整合,为用户提供极致的便捷与高效的交互体验。这种原生整合不仅提升了用户体验,还极大地发挥了模型的潜力。
本次分享将深入了解 AI 原生应用,在连接 C 端用户和大模型方面的重要性。希望能给与会者带来新的认知,一起看到未来充满挑战和趣味的AI原生应用。
〇 分享收益 〇
目标:
1、学习到搭建 AI 原生应用的关键要素,包括模型效果和提示词工程等基础能力的优化。
2、探讨如何选择合适的媒介来呈现这些能力,以及在呈现过程中对已有功能进行解构和再组织,以创造出更具创新性和实用性的解决方案。
成功要点
1、AI 原生应用与 AI Powered 产品有很多区别,其独特的价值和应用前景,让企业可以显著优化模型效果和提示词工程,提升 AI 应用的整体性能。
2、通过合适的媒介和交互设计,探索展示与交互方式,将 AI 能力可更好地呈现给用户。
启示:
在解构和再组织现有功能的过程中,AI激发创新思维,探索更优的解决方案,获得新的认知和启发,进一步推动 AI 原生应用的发展和应用。
〇 分享亮点 〇
1、AI 原生应用
1)探讨其在衔接 C 端用户和大模型中的关键作用。
2、AI 原生应用的概念
3、注重与模型的原生整合。
4、搭建 AI 原生应用的关注点
5、模型调用与智能体创建
6、模型调用的细节
7、智能体创建与应用
8、与 C 端应用的配合
9、用户体验设计
10、总结与研讨
1)模型选择与提示词工程:根据需求选择模型,优化提示词工程。
2)创建快捷体验与多模态交互:提升用户体验,增强交互能力。
3)能力定义与封装:合理定义能力,制定配合方案。
4)整合 LUI 与 GUI:结合两者优点,提升用户体验。
5)技术选型与迭代方式:匹配技术选型,优化迭代方式。
AIGC多模态内容理解与交互应用
〇 分享简介 〇
近年来,随着AI技术的飞速发展,AIGC(人工智能生成内容)已逐渐成为业界关注的焦点。尤其在多模态内容理解与交互方面,企业面临着诸多挑战和痛点,高效地处理和理解图像、文本等多种模态的数据,实现更自然和更智能的人机交互,都成为了当前企业需要解决的关键课题。
针对这些痛点,深入研究和思考AIGC多模态内容理解与交互的应用是各个企业最有商业价值之一。其中,情感计算在这一领域扮演着至关重要的角色,我们通过情感计算,可以更好地理解用户的情感和意图,从而生成更加贴近用户需求的内容。同时,情感计算还能帮助我们优化人机交互体验,让机器更加懂得“察言观色”,与用户进行更加自然、流畅的沟通。
本次分享将重点探讨AIGC多模态内容理解与交互的最新应用趋势,以及情感计算在这一领域的重要作用。借此共同推动AIGC技术的发展和应用,见证更加智能、更加人性化的AIGC时代的场景化应用。
〇 分享收益 〇
目标:
1、借鉴情感计算在多模态内容理解中的应用,来提升用户体验和满意度;
2、借鉴最新的交互技术,来实现更加自然、高效的人机交互。
成功要点:
1、AIGC情感计算在交互设计中的价值不容忽视,它为用户提供了更加人性化、情感化的交互体验,极大地提升了用户满意度和忠诚度。
2、在模拟和理解人类的情感中,使机器能够与用户进行更加自然、个性化的交互,促进人机协作,创造商业价值。
启示:
多模态内容理解与交互应用的最大价值,在于其能实现更加全面、准确的内容生成和理解任务,从而提供更丰富、多样化的用户体验和商业应用,推动技术发展。
〇 分享亮点 〇
1、引言
1)分享AIGC(人工智能生成内容)的概念与背景
2)阐述多模态内容的重要性与发展趋势
2、AIGC多模态内容理解技术
1)分析文本、图像、音频、视频等多模态数据的特点
2)探讨基于深度学习的多模态内容理解方法
3)分享最新研究成果与案例分析
3、情感计算在AIGC中的作用
1)分享情感计算的基本原理及其在AIGC中的应用价值
2)分析情感计算在内容生成、理解及交互中的具体作用
3)探讨情感计算如何提升AIGC的用户体验与情感共鸣
4、AIGC多模态内容交互应用与挑战
1)讨论多模态内容在人机交互中的应用场景
2)总结挑战,探讨未来技术突破与产业应用的可能性
5、QA
以 Artifact 为中心的 AI 研发工作流
〇 分享简介 〇
当前的 AI 研发大多数是以算法为中心的工作流,研发团队通常基于算法迭代来驱动模型训练、评估与发布。然而模型的线上效果还和数据、模型后处理、基础设施等紧密相关。在 AI 研发中,训练集、评测集、实验结果集、pypi package、训练参数、训练日志、checkpoint、镜像、模型编译产出,全部可以纳入 Artifact 管理,应用基于 Artifact的工作流,从而将算法以外的因素结合进 AI 研发。
Artifact 管理在软件行业的应用非常广泛。通过对 Artifact 的管理,生产消费 Artifact 的工作流(数据集ETL、Auto Labeling、人工标注、训练、评估等等)都可以被有效管理起来,进而成为团队的技术资产沉淀下来复用和分析,让研发人员可以专注于自己工作的创新核心,将研发效率提高到新的境界。管理者也可以通过对积累下的工作流和 Artifact 进行数据分析和可视化,并简单方便的透视到整个研发过程,研发过程对管理者也不再是黑盒,为 AI 研发团队的扁平化管理打下基础,并极大的降低管理和沟通成本。
本次分享将恐龙之门正在研发的 Artifact 工作流的基础工作流的知识图谱, 以之为核心的 AI 研发效率平台, 以及应用 Artifact 中心工作流之后的一些可视化数据呈现,为管理者提供借鉴与参考。
〇 分享收益 〇
目标:
了解 Artifact 管理在 AI 研发领域的应用,提升AI 研发效能,并使研发流程透明化。
成功(或教训)要点:
通过 Artifact,将 AI 研发过程中的每个阶段的工作流在系统中保存下来,将重复性工作应用沉淀为资产,提升研发组织效能。
启示
Artifact 管理作为 效率工具在AI 研发中的应用,不但能带来研发效率的提升,还能帮助推动组织管理体系的革新。
〇 分享亮点 〇
1、AI Artifact全貌剖析
1)AI Artifact 相关概念
2)AI Artifact 知识图谱
3)管理系统
2、Artifact 为中心的研发工作流
1)Artifact的生产与消费
2)Worlflow自动化
3)云原生的Workflow组件
4)Data Locality 与加速
3、通过 Artifact追溯研发的生命周期
4、Q&A
智能化是数字化时代的趋势之一,尤其是物联网、AI、大数据技术的实现,产品设计与体验均结合智能化技术,为用户带来更多智能化的产品与体验。各行各业均关注用户体验、智能化的可持续发展。组织需具备跨学科的知识储备和开放的思维模式,以适应这一时代的复杂性和挑战性。产品设计与应用创新需要紧跟技术发展的步伐,同时关注用户需求的变化,通过智能化、数据驱动的方式,提升产品的价值和用户体验、产品竞争力。
本专场将聚焦企业AI应用场景,探索科技与产品多元化的融合,结合产品设计在数智时代探索与应用实践,使用更新设计理念与创新技术,让产品设计走在最前沿。
出品人:傅徐军 钉钉COO
心流与创新:AI Native 生产力工具的发展、产品价值与商业场景落地
〇 分享简介 〇
在过去的一年中,AI Native 生产力工具产品经历了显著的发展和变化。这些变化主要体现在以下几个方面:
1、场景变化:从单一功能逐渐扩展到全链条解决方案,再到针对垂直细分场景的闭环。
2、竞争变化:市场竞争激烈,大模型厂商、云服务商以及创业公司都在参与到生产力工具竞争,从模型卷到应用。
3、用户变化:用户对大模型的态度从最初的兴奋逐渐转变为祛魅,更加注重实际的用户体验。
AI Native 生产力工具虽然目前还不能全面替代人类的工作,但其在减轻重复性和范式性工作负担方面具有高价值,有助于人们专注于创造性工作。这些工具能够释放人类在低价值工作上的精力,促进工作流程的优化。
本次分享围绕市场发展与用户态度、AI 工具产品的价值与应用、大模型产品的商业模式与场景应用落地等维度与大家进行讨论交流。
〇 分享收益 〇
目标:
1、了解大模型现阶段的涌现能力,来预测和设计未来的产品形态,掌握大模型产品的形态与特征。
2、分析 LLM Native 工具类产品在确定性和行业竞争方面的难点,帮助听众理解市场壁垒,并探索如何克服这些挑战,洞察大模型原生产品的难点与壁垒
3、获得专属于自己的行业判断,共同探讨行业挑战与机遇。
成功要点:
1、正确客观的理解大模型的能力边界和未来发展,AI Native以其先进的技术和智能化功能,为企业和社会创造了巨大的价值。不仅提高了生产效率,优化了资源配置,还促进了创新和个性化体验的优化。在未来,随着技术的进一步发展和应用的深化,AI Native工具将继续引领各行各业的变革。
2、立足用户的真实需求,再结合新技术、新体验完善产品设计,可推动更多新产品开发,开辟更多新商业模式,应对复杂场景下产生更多高质量的解决方案,增强产品竞争力。
启示:
AI Native生产力工具在商业上的最大价值是降低运营成本、提高生产效率、开辟新的商业模式,尤其新产品开发,AI可助力企业通过模拟和预测分析快速迭代,缩短产品上市时间。AI应用也可创造新的收入流,利用AI进行个性化定制,满足消费者对个性化产品的需求,增强竞争优势。
〇 分享亮点 〇
1、市场发展与用户态度
1) 概述 AI Native 生产力工具一年来的发展,包括场景和竞争的变化。
2) 讨论用户态度的演变,大模型兴奋->大模型祛魅->用户体验优先
2、 AI 工具产品的价值与应用
1) 阐述 AI Native 生产力工具在减轻重复性工作负担、促进创造性工作方面的作用。
2) 探讨 B 端和 C 端服务的融合,以及个人效率、团队协作和企业管理的三层产品设计落足点。
3、商业模式与功能创新
1)分析 AI Native 生产力工具的商业化策略。
2)分享产品和技术更新,如 Prompt 管理、多模态接入和解决延迟问题等。
4、场景应用与未来趋势
1) 通过具体案例展示 AI Native 生产力工具在不同场景下的应用。
2)预测 AI Native 生产力工具的发展趋势,探讨潜在的创新点和挑战。
5、QA
大语言模型人格化模拟在泛娱乐领域的应用
〇 分享简介 〇
大语言模型在角色模拟和人机交互中的应用带来了新的机遇与挑战。生成式AI技术使模型能够精确模拟复杂角色的行为和对话,提升了人机交互的自然性和多样化应用。
生成式AI的人格模型能够捕捉角色的语调、情感和反应,广泛应用于虚拟助理、智能客服、教育培训等领域。在当前环境下,开发者需通过调优参数和定制对话策略,将模型个性化,满足特定需求。同时,开发者还需关注伦理和安全问题,以确保模型的可持续应用和推广。
本次分享将讯飞语言模型在角色模拟和人机交互过程中,深度拟合和创新应用结合案例讲授,同时,研讨生成式AI人格模型深度模拟角色的特点和应用场景,开发者使用人格大语言模型进行二次设计和落地实践,一起同与会者探索大模型带来的机遇和挑战。
〇 分享收益 〇
目标:
1、了解大模型人格化的应用方法和能力边界;
2 、了解Prompt tuning,SFT和预训练的应用边界,以及根据当前需求进行二次设计和项目落地
3、了解基于自然语言的二次开发和生态发展
成功要点:
对于基于自然语言的二次开发和生态构建,创业者在当前环境下有着广阔的机会。AI技术的进步不仅带来了新的市场需求,也为创新者提供了丰富的工具和资源。特别是在泛娱乐行业,AI人格化模拟正在改变用户体验和内容创作的方式,创业者和原有从业者都需要抓住这一机遇,探索新的商业模式和应用场景。
启示:
AI产品经理的角色不同于传统产品经理。须紧跟技术变革,抓住技术红利,同时应对可能的冲击。这种能力将决定未来市场中的竞争力和影响力。AI人格化模拟不仅是技术的突破,更是对行业的一次重大变革,带来了全新的机遇和挑战。
〇 分享亮点 〇
1、AI大模型在泛娱乐领域的应用潜力;
2、AI人格模型功能和特点;
3、开发者二次应用模型的场景和方法;
4、行业应用场景和案例
5、QA
B端AI智能平台构建之路
〇 分享简介 〇
B端AI智能平台的构建对企业而言是一项具有战略意义的投资。不仅能够提升企业的运营效率和服务质量,还能够推动产品和服务的创新,增强企业的市场竞争力。同时,AI技术的引入还促进了企业内部协作的改善和数字化转型的深入。对于B端产品经理而言,理解和把握AI技术的应用场景和价值,将是未来职业发展中不可或缺的一种能力。
随着大模型技术的不断成熟,实际落地过程中,企业仍然面临着诸如AI集成难度大、数据孤岛、安全稳定等挑战,需要不断探索最佳的智能化实施路径。AI在企业场景的应用必须深度融合企业的数据、业务和场景,才能真正转化为生产力。而且AI平台的构建需要具备开放性和生态化,以便更好地满足不同行业和企业的需求。
本次分享深刻思考B端AI智能平台构建路径,以AI产品发展趋势与落地方向开篇,将当前B端产品面临的挑战和困难剖析,帮助与会者分析AI的核心落地路径,以及B端AI的核心设计要点,让AI真正成为新的新质生产力, 为企业数据、业务、场景融合锦上添花。
〇 分享收益 〇
目标
1、了解当前 AI 在 TOB 落地的一些困难、挑战和机会
2、了解 AI在 TOB 的落地路径和核心产品设计
3、了解典型B端产品钉钉的最佳实践和思考
4、未来智能化办公的趋势
成功要点:
全面构建智能化AI平台底座,设计开放与生态,AI核心产品设计,具有极强提升效率、创新服务模式和增强决策支持等多个优势,有着长期战略意义,可大大增强企业市场竞争力。
启示:
企业在实施AI平台时,需确保技术投资能够得到有效利用。保护用户和企业自身的数据安全是构建AI平台的前提,企业也应密切关注AI技术的最新发展,以便及时调整和优化自身的AI战略和应用方案。
〇 分享亮点 〇
1、智能化时代的新机遇与挑战
2、 B端智能化产品设计核心思考
3、从产品化到平台化,构建核心的智能化底座与开放
4、智能化落地的最佳实践
5、企业与用户、开发者落地AI原生应用的策略与路径
6、QA
数字人产品设计思维与应用实践
〇 分享简介 〇
数字人被称为虚拟人或数字员工,其表现为计算机图形学、人工智能和深度神经网络等技术创造的虚拟形象。随着技术的进步,数字人不仅在金融、教育、新媒体和商业领域中扮演着越来越重要的角色,也在逐渐渗透到日常生活的方方面面。
数字人在企业中的应用不仅提升了企业的运营效率和用户体验,多场景应用、还助力企业在多个领域实现业务创新和成本控制,整体帮助企业大大提升市场竞争力。数字人产品设计的思维模式,在不同领域的应用实践可有所不同发挥,利于应用。
本次分享将深入探讨数字人产品设计的核心思维模式和在实际应用中的实践案例。以用户中心设计出发,解析通过技术和创意结合,打造符合现代用户需求的数字人产品。其中,包括行业趋势分析、设计方法论、以及成功案例的剖析,为参与者提供一套完整的数字人产品设计与应用框架。
〇 分享收益 〇
目标:
1、通过对数字人产品设计思维和应用实践的深入探讨,为现在行业提供可借鉴的思路和方法。
2、围绕如何设计和实施数字人产品,从哲理到方法论,从技术选择到用户体验,全方位解析数字人产品背后的设计哲学和行业应用。
3、普及数字人技术的基础理念:普及数字人技术的基本形态、技术边界和核心原则。
4、掌握数字人应用的技术框架:学习利用现有技术构建数字人。
5、掌握数字人产品设计的关键要素和流程,学习如何运用用户中心设计思想提升产品竞争力。
6、通过案例分析,了解数字人在不同领域的应用效果,探索数字人的实际应用案例。
7、分析当前数字人产品的市场趋势和用户期望,预测数字人技术的未来发展方向及其可能带来的变革,洞察数字人的未来发展趋势。
8、通过数字人产品设计,培养跨学科的思考和创新能力,获得跨界合作和创新实践的灵感和策略,提升跨学科的创新能力。
成功(或教训)要点:
1、用户中心:成功数字人产品往往以用户中心为设计核心,通过深入研究用户需求和使用场景,确保产品能真正解决用户问题。
2、技术融合:充分利用最新的技术,如人工智能、机器学习、大数据分析等,实现产品的智能化和服务化。
3、快速迭代:采用敏捷开发和快速迭代的方法论,使产品能持续优化并快速适应市场变化。
4、跨界创新:在不同行业间寻找合作和灵感,例如将游戏化元素融入教育数字人产品,增加用户粘性。
5、安全与伦理:在设计初期就考虑数据安全和用户隐私,确保产品符合伦理标准和法规要求。
启示:
1、用户体验至上:任何技术的选择和功能的设计都需围绕提升用户体验,确保产品的实用性和易用性。
2、持续学习:数字人产品领域快速发展,团队需要持续学习最新技术和市场动态,保持产品的竞争力。
3、重视反馈:积极收集用户反馈,基于数据进行决策,不断优化产品功能和用户体验。
4、伦理责任:在设计和实施数字人产品时,必须考虑到其对社会的影响,承担起相应的伦理和社会责任。
〇 分享亮点 〇
1、数字人技术的背景与分析
2、小冰数字人产品的设计思想
3、小冰数字人技术应用的创新点
4、数字人如何实现场景应用落地并创造价值
5、数字人方向未来发展趋势
6、Q&A
AIGC赋能内容营销应用
〇 分享简介〇
当前内容营销是最为主流的营销方式之一,AIGC的迅速崛起正在重塑营销领域的内容创作方式。企业面临着如何有效利用 AIGC 技术低成本批量化地生成高质量的营销内容以吸引受众的挑战:
1)AIGC 能够快速生成大量内容,但质量稳定性差,依然需要大量人工成本辅助生成,成本降低不显著。
2)AIGC对公共知识内容生成效果较好,但对企业私有知识内容效果较差。例如,一些企业使用 AIGC 创作的营销图无法精准传达品牌调性和卖点,产品细节容易丢失变形。
3)消费者对个性化和情感化内容的需求日益增长,兴趣焦点也在不断变化,而 AIGC 生成的内容在这方面存在不足。例如,一些企业使用 AIGC 创作的广告文案缺乏情感共鸣,也不符合当下流行的话题趋势,导致消费者对品牌的认同感降低。
利用好AIGC赋能内容营销,对于产品销量有巨大的帮助。目前的思考和研究主要聚焦在以下几个关键方向:
1)训练AIGC模型以更好地理解品牌的调性和个性,从而生成更具品牌特色的广告内容。例如,研究如何将品牌的产品元素、品牌风格等特征融入到模型的训练中。
2)探索AIGC与人类的协作模式,以实现优势互补。比如,研究学习人类的优质创意内容,然后借助 AIGC 进行创意仿写和多样化呈现,再由人类判断是否符合要求进行反馈迭代模型。
3)搭建内容生成完整链路,将关键环节自动化,从而提高AIGC的生产效率和质量。
4)对AIGC生成内容的效果评估和优化方法的研究,包括如何准确衡量营销内容的点击率、转化率等关键指标,并根据反馈不断改进 AIGC 模型。
本次分享将围绕“AIGC赋能内容营销”展开,深入剖析 AIGC 在内容营销领域的应用实践和潜在价值,共同探讨如何应对其带来的挑战,为企业在利用 AIGC 提升内容营销上提供最佳实践的策略和方法,助力企业在数字化营销浪潮中抢占先机,实现更高效的品牌推广和产品销量增长。
〇 分享收益〇
目标:
1)精准的数据采集与分析:确保输入给AIGC模型的数据准确、2)全面且具有时效性,从而生成符合市场需求的内容。
3)持续优化的模型训练:不断更新和改进AIGC模型,使其能够适应市场变化和用户需求的演变。
4)人机协作的有效模式:将人类的创意和判断力与 AIGC 的高效生成能力相结合,创作出既有创新又有情感共鸣的广告内容。
5)自动的内容生成链路:将内容的采集、分析、生成、审核、发布、反馈等关键环节打通,并实现全链路自动化,提升内容生成的数量及效率,降低内容创作的成本。
成功要点:
AIGC 在内容营销中的应用,为当前行业提供了新的思路和方法,它能够大幅提高内容生产效率,降低成本,同时,为个性化营销提供更多可能性。对于面临激烈竞争和快速变化市场环境的企业来说,借鉴 AIGC 在营销上的实践经验与策略,有助于快速响应市场需求,提升产品营销效果。
启示:
AIGC赋能内容营销,可以高效产出大量的营销内容,以提升个性化体验。同时,实现独特的创意形式,助力企业优化资源配置,打造消费者与品牌间更优的互动效果。这些是每个企业都可落地与想象的切实方法。
〇 分享亮点〇
1、AIGC:营销变革的新动力
1) 阐述 AIGC 如何引发营销领域的重大变革。
2) 分析其对传统营销模式的冲击与重塑。
2、AIGC 在营销中的多元场景绽放
1)创意广告的新生:展示 AIGC 在广告创意生成及精准投放方面的独特魅力。
2) 内容创作的革新:探讨 AIGC 高效产出优质、个性化内容的能力。
3、AIGC 营销的成功密码与案例剖析
1)解读先进算法与模型在营销中的关键作用。
2)典型成功案例,汲取实践经验。
4、AIGC 营销的未来蓝图
1)展望未来发展趋势,洞察潜在机遇。
2)探讨行业变革方向与应对之策。
5、Q&A:互动交流,共话未来
AIGC金融线上渠道应用实践
〇 分享简介 〇
AIGC将是金融业线上经营的第二增长曲线,引导金融机构为用户带来更极致的体验和千人千面的服务,以前所未有的速度重塑着银行线上渠道。AIGC 也在为金融行业带来一场深刻的变革,未来,它将与金融业务深度融合,推动金融行业向更智能、更高效、更人性化的方向发展。
从用户角度来看,AIGC 带来了更智能、更便捷的体验。比如,智能客服能够理解更复杂的语言,提供更精准的答案;个性推荐系统能够根据用户喜好和需求,提供更有针对性的金融产品和服务;甚至,栩栩如生的数字人可以24小时在线,为用户提供更亲切、更人性化的服务。
对于金融企业来说,AIGC 是赋能业务,提升效率的强大工具。 AIGC 可以帮助银行更精准地进行营销,通过分析用户数据,向不同群体推送个性化的金融产品信息,提高营销转化率。此外,AIGC 还可以协助银行进行风险控制,通过分析历史数据和市场趋势,识别潜在的风险,帮助银行做出更明智的决策。同时,AIGC 还能为银行带来全新的业务模式。比如,数字人直播提供更生动的金融知识讲解,更直观地展示金融产品,提升用户参与度和满意度。
本次分享将聚焦“AIGC 在银行线上渠道的应用实践”,并通过实际案例展示 AIGC 如何为金融科技带来变革。让我们一起探索 AIGC 如何赋能金融行业,共建更加智能、高效、便捷的金融未来。
〇 分享收益〇
目标:
1、AIGC技术在金融科技领域,银行线上渠道应用的原理、应用案例和实际效果。
2、通过分析AIGC在银行业务中的应用现状和未来发展,可以洞察到金融科技领域的未来趋势,为企业自身的业务或研究方向提供指导。
成功要点:
AIGC 不仅仅是技术,更是一种全新体验,它会让金融服务不再冰冷,而是变得更加贴心,提升智能化的新高度。应用AIGC技术,大量案例和实践经验将利于创新思维发散,以更便捷实现业务的创新和优化。
启发:
AIGC 也在为金融行业带来一场深刻的变革,未来,它将与金融业务深度融合,推动金融行业向更智能、更高效、更人性化的方向发展。
〇 分享亮点 〇
1、当前金融科技的发展趋势
1)AIGC的概念及其在金融科技中的作用
2、AIGC在银行APP设计中的应用
1)自动化UI/UX设计的案例分析
2)客户体验的个性化改善
3、AIGC在银行营销策略中的应用
1)定制化营销内容的生成
2)客户行为预测与营销效果的提升
4、AIGC在数字人直播与客户互动中的应用
1)数字人直播的技术实现与应用案例
2)AI客服与客户互动的效率和质量提升
5、AIGC对金融科技的革命性改变
1)行业内的应用现状与未来趋势
2)面临的挑战与解决方案
6、结论与展望
1)AIGC在金融科技领域的重要性
2)对未来银行业务发展的影响
7、QA
AI驱动下的XR数实融合体验创新
〇 分享简介 〇
AR和XR技术将算力与虚拟和增强现实相结合,有望快速改进基础设施和日常生活中的各类系统。这些技术不仅能够提供沉浸式体验,更能够提升设计和建筑专业人员对实体和数字模型之间一致性的能力,确保项目的准确性和安全性,促进可持续发展。AI的发展所带来NUI自然交互的新可能,空间交互体验将会革新业务的方方面面,带来产业升级的新机会,国家政策的关注,企业业务的需要,三维交互体验将从研究阶段逐渐走向落地阶段,加速产业智能化发展。
面对3D空间交互对产业带来的升级,在技术的不成熟和业务需求的期待不断碰撞出新的可能的同时,也产生了许多问题:
(1) 多种技术的综合运用带来的更加先进的功能,但用户要理解起来却越来越难,从而降低了智能化产品在产业的实用性。
(2) AI生成内容看上去很美好,但面对复杂的业务环境,实际使用却总是不尽人意。
(3) XR的好体验,离不开三维建模的内容,但好的三维内容成本过高,如何用AI低成本进行高还原等
本次分享将探讨在AI驱动的3D技术成熟发展中,应用设计的方式规避体验的弊端,展现科技的美好,推动技术发展,助力技术落地,帮助与会者企业促进产业数实融合。
〇 分享收益 〇
目标:
1、3D空间交互在能源电力、智能制造产业的应用案例
2、通过分析应用案例,提供产业3D空间体验升级的通用路径、面临挑战和经验总结,为企业业务空间体验升级提供指导
成功要点
技术的发展应该会用户带来「美」与「好」的直观感受,增强技术的可理解性可以让人机关系忘更美好的良性循环发展,让技术有更多发展的空间,让用户更快的感受科技发展带来的利益。
启示
1、科技要得到发展,需要与业务的结合才能看到有待发展的部分,多学科多岗位人才的深度合作,共建人机信任环境,才能真正有效的推动产业数实融合,让科技与人的相处更加和谐自然。
2、生成式AI与XR技术的结合对未来生产力的革命性影响。不仅提升劳动者的技能,还能使生产资料和劳动对象实现智能化,推动整个社会生产力的飞跃。
〇 分享亮点 〇
1、AI赋能的空间体验是产业升级的新载体
1)XR的概念
2)AI赋能下的新机遇
2、电力能源巡视业务下的案例分享
1)业务背景与机会
2)案例分享与展示
3)对体验的挑战与经验分享
3、智能制造运维业务下的案例分享
1)业务背景与机会
2)案例分享与展示
3)对体验的挑战与经验分享
4、过程留给自己,美好面对客户:3D空间交互升级在电力能源、制造运维业务下的通用路径
5、不足之处与未来展望
6、QA
云计算架构向着虚拟化、容器化、边缘化、分布式、智能化方向发展,将会带来更强有力的支持。云计算的成熟,让企业 IT 设施逐步向云端迁移,充分挖掘云上产品(包括块存储、文件存储、对象存储、Kubernetes 以及函数计算等)的优势,构建低成本、高可靠且富有弹性的上层业务系统,服务网格、无服务架构、存算分离以及事件驱动等,日益催生云原生架构应用的广泛落地。
云原生生态发展也从技术理念、核心架构、最佳实践等方面,帮助企业 IT 平滑、快速、渐进式地落地上云之路。与此同时,CICD、GitOps 以及 AIOps 等现代化的研发流程也逐渐在行业中占据主导地位。在云原生化的进程中,业界还沉淀出一系列与平台无关的行业标准,比如 OpenTelemetry 和 CloudEvents。更多重构研发组织文化和架构,让应用、中间件、AI和大数据等通过统一的基础设施进行治理,为企业降本增效,真正落地云价值。
本专场为了应对AI和机器学习模型的规模不断扩大与复杂性,让企业部署和管理数量越来越多的AI模型、开发、运行,利用先进容器技术、多云战略、Serverless、Istio、AI工程化落地方案等,应对大模型时代,AIGC应用场景所带来的架构挑战和最佳实践,有效帮助企业从开发到生产,平衡成本、性能和运维效率,用最前沿的价值借鉴在不同的环境中进行维护与管理。
出品人:高昌利 火山引擎消息中间件负责人
使用模型服务网格解决大规模AI模型部署与管理中的挑战
〇 分享简介 〇
随着人工智能和机器学习模型的规模不断扩大以及复杂性的提升,在云原生环境中高效地部署、管理和调用模型成为一个关键挑战。企业和研究机构正在部署和管理数量越来越多的AI模型。这些模型通常需要大量的资源,并且需要在不同的环境中进行维护,从开发到生产。
结合Kubernetes和专门针对模型服务设计的服务网格框架,以实现模型版本控制、灰度发布、负载均衡、故障恢复等功能,从而构建高度可扩展且可靠的模型交付系统。这一新兴架构模式利用现有的服务网格技术,可推动AI应用的生产化落地。
本次分享将模型服务网格(Model Service Mesh)的概念与趋势,贯穿新兴的架构范式,为大规模AI模型的部署和管理而设计。与企业一起探讨利用服务网格原理来优化AI模型的生命周期管理、提高资源利用率、加强安全性,并保证模型服务的可观察性和弹性。
〇 分享收益 〇
目标:
激发企业对模型服务网格技术的兴趣与应用探索,详尽的技术剖析与实际案例解析。
成功要点:
Model Service Mesh前沿技术, 企业在云原生环境中,可以灵活部署和管理大规模AI模型的能力,在缓存管理、模型加载以及资源优化、安全加固、无缝模型更新等方面,大幅度提升云部署能力。
启示:
新兴的架构范式,为大规模AI模型的部署和管理带来的极大价值。
〇 分享亮点 〇
1、当前模型服务的状况
1)AI/ML模型在生产环境中的挑战与需求
2)现有服务网格技术及其在微服务领域的成功实践
2、模型服务网格原理
3、企业模型服务网格应用场景
1)大规模模型的分布式部署与协调
2)模型版本管理与灰度发布策略
3)高效缓存策略与按需加载机制
4、模型服务网格实践
5、QA
云原生+AI:打造大模型工程化落地最佳实践
〇 分享简介 〇
随着人工智能领域的迅速发展,AI 模型开发、部署越来越多采用云原生技术,AI 模型的运行稳定性、推理性能和部署效率日益成为影响其在实际应用中价值的关键因素。
企业使用云原生技术解决 AI 模型的部署和运行时问题,成为了 AI 模型在生产落地的重要挑战。通过提升 AI 模型推理的性能、易用性和稳定性,均可以更大程度释放 AI 模型对企业的价值。
本次分享火山引擎通过云原生技术解决 AI 模型运行稳定性、推理性能和部署效率问题,重点分享 GPU 检测自愈、推理性能测试和性能优化、应用托管等技术和产品,为企业解决系统性的云原生 AI 技术方案。
〇 分享收益 〇
目标
1、了解云原生 AI 的挑战和解决方案,提升 AI 模型在生产环境中的价值和影响力。
2、系统性分享云原生 AI 面对的挑战,推动 AI 与云原生技术深度结合。
3、结合存储访问加速、推理性能测试和优化技术,提升模型推理性能。
成功要点
1通过 GPU 检测自愈,可及时发现和隔离 GPU 故障,提升模型运行时稳定性。
2基于云原生应用交付平台,企业应用的开箱 AI 应用接入、配置管理、应用发布等一站式能力,可大大提升模型部署效率。
启示:
以行业最佳实践和创新技术,让企业在 AI 模型运行稳定性、推理性能和部署效率中,得到质的提升。
〇 分享亮点 〇
1、AI 模型运行稳定性、推理性能和部署效率的挑战
2、GPU 故障场景、模型推理和部署流程分析
3、云原生 AI 解决方案
4、QA
大规模云原生集群可用性实践
〇 分享简介 〇
随着大模型的发展,对算力的需求呈爆发式增长。算力逐渐走向大规模、高性能、高效能。K8s 等云原生技术,解决了大模型训练过程中的资源管理与调度、弹性扩展、容错及高可用难题,成为大模型发展的关键支撑之一。
OpenAI GPT系列和腾讯混元等大模型借助k8s实现了超大规模集群的并行训练,极大地提高了大模型训练效率和稳定性。
本次分享将深度剖析腾讯 TKE 及大模型团队针对超大规模集群可用性、单集群算力瓶颈等一系列挑战所采取的解决方案及最佳实践。
〇 分享收益 〇
目标:
1、熟悉大规模k8s集群的一系列致命故障风险和解决方案、最佳实践
2、熟悉Kubernetes多集群管理的实践与挑战
3、展望未来Kubernetes在AI领域的发展趋势
成功要点:
构建k8s全链路可用性风险分析图,并制定全链路隐患解决方案,并通过混沌演习、数万集群实践进行落地。
启示:
深入掌握k8s集群可用性风险与解决方案,通过云原生技术,提升业务稳定性和效率,助力业务降本增效。
〇 分享亮点 〇
1、大模型对算力的挑战与k8s的解决方案
2、大规模k8s可用性风险来源与解决方案
3、如何解决单集群的算力瓶颈
4、腾讯混元基于TKE大模型训练的实践案例
5、QA
基于Kubernetes和无服务器的Stable Diffusion大规模部署最佳实践
〇 分享简介 〇
随着企业越来越深入的应用生成式AI,生成式AI应用的部署规模也随之扩大。但由于生成式AI应用资源要求高,传统架构面临如自动扩容不够灵敏,新实例冷启动时间长,实例和存储成本高昂等挑战。
面对这一挑战,亚马逊云科技设计了基于亚马逊云和Kubernetes的Stable Diffusion大规模部署参考架构。其架构充分利用容器技术,可灵敏的弹性伸缩和快速冷启动。同时,利用公有云的资源弹性,灵活定价方式和无服务器技术,减少实例和运维成本并优化性能。
本次分享与探讨K8S大规模部署生成式AI应用场景提供了架构指引和最佳实践,有效平衡了成本、性能和运维效率,为与会者提供最前沿的价值借鉴。
〇 分享收益 〇
目标
1、了解应用云和Kubernetes实现高性能,高可用和快速扩展的Stable Diffusion部署;
2、了解使用基础设施即代码(IaC)快速部署和管理应用和基础设施
3、了解应用云的弹性和多种定价方式实现成本优化
4、了解利用云上托管服务和无服务器技术来实现卓越运维
成功要点
帮助企业充分利用云上托管服务所带来的弹性,敏捷性和安全性。通过使用容器化,无服务器等云原生现代化应用架构,快速搭建一个生产可用的生成式AI应用。
启示:
为大规模部署生成式AI应用提供架构参考。
〇 分享亮点 〇
1、Stable Diffusion及其生态系统
2、当前常见的大规模部署方案,及其架构痛点
3、基于亚马逊云科技和Kubernetes的Stable Diffusion大规模部署方案
4、探讨快速构建符合良好架构的生成式AI应用
5、QA
多云一体的云融合实践
〇 分享简介 〇
在云计算时代,多云策略正成为许多企业IT战略的核心,因其提供的灵活性、扩展性、成本效益,以及通过云服务提供商的多样化选择,增强了业务的连续性和安全性。企业能够根据业务需求,优化资源配置,实现成本效益最大化。
作为一个全球化的企业,构建一个能够快速交付资源、高效管理成本的多云融合的平台对OPPO至关重要。OPPO云通过多云适配、实现了在不同区域将多云融合一体,并以上层业务透明的方式,确保了业务的无缝集成、流畅运行和一致体验。弹性调度将不同业务负载在云上进行融合,使得资源得到充分的使用,避免了资源的浪费。同时,通过精细化的成本管理控制,能够根据业务需求和市场变化,动态调整资源分配,实现成本的有效管控。
本次分享将为企业带来如何构建多云一体混合云平台的洞见,旨在提高资源管理效率,增强IT战略自由度,为企业多云平台的建设提供实践经验和技术参考。
〇 分享收益 〇
目标:
1、深入理解多云一体的混合云平台的意义和价值
2、展示通过弹性调度的技术和成本管控的策略,实现业务敏捷性和成本效益的提升
3、理解企业如何建设多云一体的云平台,从而在多云环境中保持业务的灵活性、选择性、经济性
4、获得对多云平台架构设计的深刻理解,学会如何通过弹性调度优化资源利用,并掌握成本控制的有效策略
成功(或教训)要点:
通过厚平台的理念实现了将多云进行融合的混合云平台,并通过弹性调度实现了对在线业务、机器学习、大数据等不同类型负载的混合调度管理、敏捷资源交付及高效资源利用。结合有效的成本管理策略,对云成本实现了有效的管控和优化。
启示:
通过云服务多样化选择,增强业务的连续性和安全性。企业能够根据业务需求,优化资源配置,实现成本效益最大化
〇 分享亮点 〇
1、云平台:多云融合的基石
1)多云平台的技术架构和设计原则
2)如何实现不同公有云的适配和集成
2、弹性调度:优化资源利用
1)多云环境下的弹性调度策略
2)支持不同负载的混合调度实践
3、成本管理:实现成本效益最大化
1)多云环境下的成本管理挑战和策略
2)成本优化的方法和工具
4、总结和未来展望
1)多云一体混合云平台的演进
2)多云融合平台的未来发展趋势和挑战
5、QA
Serverless在大规模应用架构转型中的运用
〇 分享简介 〇
企业应用软件需要满足快速变化的业务需求,有很高的设计复杂度。面对海量用户和性能高要求,逐步使用了微服务、容器化运行环境。随着软件架构设计不断演进,微服务响应式访问方式被广泛采用,提升了组件间协作效率。同时,基于领域驱动,面向事件的设计方法也越来越流行。
很多企业的业务各个部门间是通过流程(工单)的方式来协作的,和事件驱动设计理念一致。在云原生环境中,可以运用serverless无服务器,配合服务组件,很好的承载业务功能。目前相关技术已经完善成熟,利用主流技术编写业务功能函数,通过容器平台进行部署运维,也可以通过适配器无障碍的部署在公有云中。
本次分享贯穿SpringCloud Stream, Quarkus Funqy, KNative, AWS Lambda等的热门技术,通过技术讲解和案例演示,从功能、设计和研发思路上分享企业软件云原生设计开发最新实践成果。
〇 分享收益 〇
目标:
1. 理解DDD和事件驱动设计的技术落地实现方法,通过主流函数式编程和serverless技术,部署在云原生计算环境中。
2. 学习借鉴业内前沿的企业应用云原生技术架构设计思路。
成功要点:
充分运用软件设计开发的灵活性,通过架构变换和云原生部署,实现应用软件的逻辑一致性。一份设计思路,可以转换映射成多份可运行代码和部署模型。
启示:
企业应用借助公有云算力,设计软件架构和合理部署,大大提升软件可靠性并降低使用成本。
〇 分享亮点 〇
1企业软件领域模型和面向事件的设计方法,通过实际案例分析灵活性和性能提升等优势
2事件驱动技术和开发框架技术分析和开发实践
3通过容器平台部署应用,和云计算运维平台集成
Istio多云架构下的思考与实践
〇 分享简介 〇
服务网格这种现代化的基础架构技术,在云原生架构中管理和链接服务,并为其提供一个可编程的数据平面和控制平面,服务网格为应用程序提供了高度透明化的通信框架。作为云原生技术的组成部分,Service Mesh 目前正被越来越多的企业和云服务提供商采用和支持。
企业在云原生转型过程中所面临的一系列挑战,如业务代码的多样性、服务发现的不一致性以及流量治理的复杂性。Istio以其强大的流量管理能力,为企业提供了一种统一的解决方案。其Sidecar架构模式,将业务逻辑与服务网格的控制逻辑解耦,服务网格则负责处理所有与服务间通信相关的复杂性。这种设计不仅减轻了开发团队的负担,还提高了系统的可维护性和扩展性。Istio的这些特性是企业向云原生架构转型的关键要素。
本次分享将 Istio 多云架构在趣丸科技的实践经验、以及企业面临应用场景的挑战、Istio 技术未来发展与落地展现,帮助与会者更好地了解并应用服务网格技术。
〇 分享收益 〇
目标:
1、Istio多云集群架构方案:利用Istio构建一个高度灵活、可扩展的多云集群架构。
2、在Istio实施过程中的实践经验和教训,从规划到部署的全过程,以及我们如何克服实施过程中遇到的技术难题和业务挑战。
成功要点:
Istio可降低云部署的复杂性,并减轻开发团队的压力。它是一个完全开源的服务网状结构,可以透明地分层到现有的分布式应用上。Istio多样化的功能集可功地、高效地运行分布式架构,并提供统一的方式来保护、连接和监控服务架构。
启示:
一个可扩展的Istio多云集群架构能够为企业业务带来更好的稳定性性和弹性,同时,也为解决跨云服务的复杂性提供了一个解决方案。
〇 分享亮点 〇
1、Istio 发展
1)Istio 概述历史和发展方向
2、趣丸 istio 引入
1)service mesh对比传统架构
2)Istio 引入的挑战与优势
3、趣丸Istio的实践
1)趣丸应用场景
2)Istio架构方案
3)趣丸 Istio 运维实践
4)需要关注的性能问题
4、总结和展望
传统大数据架构受限于数据需求与技术发展的不同阶段,形成离线、实时两套的基础模式,存在技术栈多且复杂、存储计算成本高、数据口径不一致、容错能力不足等诸多缺点,无法满足企业业务数据体量及复杂度快速发展对于数据端到端低延迟、流批融合、存算分离、公有云迁移等架构诉求。
大数据开放架构,借助实时数据处理、数据湖、高性能OLAP等前沿技术,致力于提升企业数据处理与分析的灵活性、可扩展性、 降本提效及创新潜能,从而为数据驱动的决策制定和持续创新提供坚实的技术基础。
本专场将邀请相关领域一线技术专家,分享在大数据开放架构方向的深入实践。
出品人:韩飞 京东零售资深技术专家
Apache Paimon在阿里巴巴集团的应用与优化
〇 分享简介 〇
随着社会数字化发展,企业对数据时效性的需求越来越强烈。传统的离线数仓较为成熟,但存在新鲜度低和更新成本高两大问题;实时数仓虽然能将数据新鲜度提升至秒级,但计算成本与 lambda 架构两条链路的维护成本也无法忽视。企业急需一套平衡新鲜度、成本与查询效率的解决方案。
Apache Paimon 作为新一代数据湖存储格式,为数据湖带来了实时流更新以及完整的流处理能力。同时,Paimon 作为流批统一的湖格式,可以帮助企业用户使用一条链路解决流批处理以及即席查询的需求。这一新兴湖格式平衡了数据的新鲜度,数据的更新、计算与维护成本以及查询效率,在帮助数据仓库降本增效的同时提升数据新鲜度,满足企业对数据时效性的新需求。
本次分享将结合 Paimon 在阿里巴巴集团的应用案例,与企业一起探讨利用 Paimon 来提升离线数仓的新鲜度,降低离线数仓的更新成本,降低实时数仓的计算成本,并提升数据架构的可维护性。同时,对于在 Hive、MaxCompute 等数仓中已有大量历史数据的企业,也将帮助与会者逐步引入 Paimon 的方案,探讨不同业务中对新鲜度、成本与查询效率的取舍,促进企业自身相似业务的解决方案。
〇 分享收益 〇
目标:
1、了解阿里巴巴集团内的业务利用 Paimon 进行湖仓平台的建设案例。
2、利用 Paimon 平衡延迟与成本,解决实际的业务痛点。
3、帮助企业将相关解决方案迁移至自身行业中,解决自身遇到的业务问题。
成功要点:
利用 Paimon 这一新型湖格式,企业可以提升传统离线数仓的数据新鲜度,并降低数据更新的成本。同时,通过将计算下推至存储的方式,企业可以降低实时数仓的计算成本。另外,Paimon 作为流批统一的湖格式,企业用户可以使用一条链路解决流批处理以及即席查询的需求,降低数据架构的维护成本。
启示:
新兴数据湖格式,为企业数仓提供了一套平衡新鲜度、成本与查询效率的解决方案。
〇 分享亮点 〇
1、当前数据仓库概况
1) 离线数据仓库的挑战与需求
2) 实时数据仓库的挑战与需求
2、Paimon 原理简析
3、Paimon 在阿里巴巴集团的实践案例
1) 利用 Paimon 搭建流批统一数仓的架构案例
2) 利用 Paimon 提升离线数仓数据新鲜度,降低数据更新成本的案例
3) 将计算下推至 Paimon,降低实时数仓计算成本的案例
4、以电商模型为例,利用 Paimon 搭建流式湖仓的实践
5、在现有数仓中逐步引入 Paimon 的方式
6、Paimon 的未来规划
阿里云EMR StarRocks云原生存算分离架构探索与实践
〇 分享简介 〇
随着过去十年用户对实时OLAP分析需求的增长,市场出现了众多的数据分析产品,这种多元化导致了用户在选择适合的产品时可能会感到困惑,且不同场景下的产品选择和运维成本较高。传统的数据处理系统中,计算和存储通常是紧密耦合的,这种架构在处理大规模数据时会遇到瓶颈。StarRocks利用存算分离架构解决了这一问题,其中计算节点只需要负责执行查询和数据分析,而数据可以存储在独立的存储系统之上,实现了计算与存储资源的灵活扩展,也能够显著降低计算和存储成本。
在阿里云EMR大数据生态体系中,StarRocks凭借其先进的技术和强大的性能也占据了重要的地位,EMR Serverless StarRocks聚焦于存算一体、存算分离、数据湖分析三种形态,让企业拥有各类数据分析场景的解决方案。
本次分享阿里云EMR Serverless StarRocks在云原生及存算分离方向上的探索与实践,详细讲解EMR在存算分离IO性能优化、弹性扩展、资源隔离以及成本优化等方面所做的工作,同时,也会帮助企业了解EMR Serverless StarRocks成功案例及未来规划。
〇 分享收益 〇
目标
1、深度了解阿里云EMR StarRocks在云原生及存算分离方向的探索及优化,包含Cache及IO优化、弹性伸缩、多计算集群资源隔等
2、了解EMR StarRocks如何利用存算分离架构为上云企业客户实现降本增效,帮助企业快速进行云上OLAP数仓选型
3、EMR Serverless StarRocks客户案例分析及未来规划。
成功要点:
StarRocks 3.x版本引入存算分离架构将计算与存储分离,实现资源的灵活扩展。EMR StarRocks围绕存算分离架构进行了一系列的云原生化探索与架构升级实践,在将数据存储在具有成本优势的OSS对象存储的同时,借助一系列缓存及IO优化、资源隔离等手段,帮忙企业降低大规模数据分析处理所需的成本投入,同时也为企业客户提供更好的云上OLAP湖仓体验。
启示:
StarRocks存算分离架构升级既能够帮助企业实现降本增效,也为企业构建云原生数据库产品带来了很大的灵活性。
〇 分享亮点 〇
1、EMR StarRocks产品演进历程
2、StarRocks存算分离新架构在其优势背后面临的技术挑战
3、EMR StarRocks在存算分离IO性能优化、弹性扩展、资源隔离以及成本优化等方面所做的实践
4、EMR Serverless StarRocks存算分离典型案例
5、QA
京东基于Hudi的数据湖优化及实践
〇 分享简介 〇
随着互联网进程持续加深,以及业务不断丰富与发展。对于低成本获取实时数据的诉求与日益膨胀的数据量以及背后的计算、存储成本已然成为大数据领域的主要矛盾之一。因此,如何在付出更少的存储、计算代价的同时,提升数据时效性与处理效率,如何实现流批一体、湖仓一体,达到技术收敛的目的,已然成为大数据行业的重要趋势。
以Hudi为代表的数据湖技术的出现,从存储层补齐了流批一体的关键一环。Hudi在具备事务、快照隔离与行、列级别更新等语义的同时,为下游提供批读、流读两个访问方式。助力企业实现数据加工从T+1全量覆盖全面向准实时增量加工转型,降低数据计算成本,提高使用效率,以及架构上实现技术收敛。
本次分享将结合Hudi在京东特有的电商场景,探讨包括千亿级数据实时入湖、全量覆写改增量加工等在内的数据湖落地的典型场景、以及落地过程中面临的挑战与创新。
〇 分享收益 〇
目标:
1、帮助用户了解、掌握数据湖的核心概念与价值。
2、介绍京东在落地数据湖的过程中,遇到的挑战以及对应解决方案。
3、结合Hudi在京东落地的典型场景,阐述数据湖如何帮助企业降本增效。
成功要点:
使用以Hudi为代表数据湖技术,助力企业,实现数据加工从T+1全量覆盖全面向准实时增量加工转型。提升数据时效性,降低数据计算、存储成本,实现降本增效、技术收敛的目标。
启示:
作为一种新兴的数据湖技术,Apache Hudi 为企业提供了一种兼顾数据时效性、计算加工效能与查询性能的全新数据架构体系。
〇 分享亮点 〇
1、湖仓一体背景与发展过程
1)行业趋势
2)行业现状
3)京东现状
2、典型应用场景
1)千亿级流量数据实时Append的场景
2)全量改增量Hudi Upsert场景
3)Partial Update 部分列更新场景
3、京东核心自研特性
1) 存档点视图
2)数据缓冲层
3 )基于Hudi的实时拉链
4、行业前沿技术趋势
新一代云原生数仓的设计原理、关键技术与最佳实践
〇 分享简介 〇
5G、AI时代,海量数据高吞吐写入、高性能分析、无损弹性、湖仓一体化分析等业务诉求越来越强烈,云原生的架构也已深入人心,此外分析型数据库作为分析支撑,与AI的融合趋势也越来越明显,AI4DB、DB4AI 等技术也在迅速迭代,这些都是5G、AI时代对云数仓的强烈诉求,也是云数仓演进的必然趋势。
性能、弹性、融合,既是业务的迫切诉求,也是技术发展趋势,ByteHouse也是基于上述的因素,在高性能、云原生、全链路一体化的方向持续投入研发,在满足字节跳动内部业务的基础上,也积极对外进行技术输出,帮助更多企业加速分析、让数据驱动成为更多客户的核心竞争力。
本次分享将以云数仓历史和前沿发展方向出发,探讨云数仓的整体架构和亮点、性能突破,以及存算分离的关键设计与实践。充分让与会者收获云原生数仓在字节多样化场景中的业务实践。
〇 分享收益 〇
目标:
1、数据仓库架构技术演进,企业在数据分析领域面临的问题和挑战
2、新一代云原生数仓ByteHouse的架构设计理念、关键技术能力
3、基于云数仓构建企业级分析中台的最佳实践(实时数仓、企业级分析平台、广告推荐等)
成功要点:
新一代云数仓应当具备秒级无损弹性、流批一体化、高性能/高并发、多引擎融合、Zero-ETL 等核心能力
启示:
通过ByteHouse 构建新一代企业级分析中台,能够有效帮助企业降低架构复杂度,加速数据分析的现代化进程,让数据驱动业务的革新步伐更加轻便、迅捷。
〇 分享亮点 〇
1、数仓架构技术演进,云数仓演进中的技术难点分析
2、新一代云原生数仓的设计原理
3、新一代云原生数仓的核心能力
4、实时数仓、企业级分析平台、广告推荐方向案例实践
5、QA
抖音集团高性能数据集成平台建设演进之路
〇 分享简介 〇
随着谷歌三大基础技术的问世,大数据领域已经历了二十余年的发展,期间企业对数据的利用方式经历了多样化的转变。从最初的传统离线数据仓库建设,逐渐过渡到实时数据仓库的构建,数据更新频率也从过去的次日更新(T+1)提升至小时级乃至分钟级。然而,无论数据仓库的形态如何演进,数据集成始终是其构建过程中不可或缺的一环。因此,企业内部数据集成平的搭建成为了数据仓库建设的首要任务。
抖音集团自成立以来,内外部业务积累的数据仓库总量已达到惊人的9500PB,日增数据量约40PB,指标数量超过27000个。经过十余年的深入沉淀与积累,抖音集团总结出了一套成熟的数据集成平台建设方法论,帮助企业业务部门稳定而高效的服务,最大限度地挖掘数据潜在价值。
本次分享将基于字节跳动近年来在数据集成领域的探索与实践,对公司内部数据集成平台的整体建设进行详细阐述与深入剖析,旨在为参会者提供技术上的最佳实践和解决方案。
〇 分享收益 〇
目标:
1、了解整个数据集成平台在抖音集团内部的发展历程
2、了解抖音集团在数据集成平台建设方面沉淀的经验和总结
3、了解抖音集团数据集成平台从内到外,从云下到云上的实践之路
成功要点:
经过数十年业务的深入发展与不断优化,字节跳动的内部数据平台已经能够日常处理PB级别的数据量,实现数据的高效入湖与入仓。在此过程中,以一套丰富的经验和方法论,为企业在构建自身的数据集成平台、避免不必要的迂回,加速数据能力的成熟与提升。
启示:
在处理海量数据环境下,构建一个既稳定又高效的数据集成平台,为企业揭示了通过精细化管理和技术创新,实现数据价值最大化的有效路径。
〇 分享亮点 〇
1、数据集成的概念和现状
2、抖音集团业务高速发展期数据集成面临的挑战
3、抖音集团数据集成平台建设从内到外,从云下到云上
4、如何建设一个高效数据集成平台
5、数据集成未来的发展目标和愿景
6、QA
存算一体的大规模配送调度引擎架构
〇 分享简介 〇
当前业界越来越不满足于依赖粗放扩展来提升分布式系统的整体性能,而需要对于系统架构做出更精细的权衡。配送调度引擎作为需要在同一流程中承载多种类型混合负载的复杂系统,需要同时面对大量数据交互的IO脉冲,以及高密度的计算瓶颈带来的挑战,近几年互联网数据和计算的关系,新硬件的使用等方面进行了不少有益的探索演进。
随着美团履约配送的业务规模不断扩展,算法策略不断精进,对系统性能提出了日益严峻的挑战。如何一方面提升系统整体算力来支撑算法策略更大的寻优空间,一方面提升计算效能,降本增效,是调度引擎架构演进的主要目标。
本次分享从美团履约配送的业务场景出发,分享调度引擎在最新一轮架构迭代过程中的技术思考与经验总结,为与会者带来一些借鉴。
〇 分享收益 〇
目标:
1、了解美团履约调度系统的系统架构演进。
2、了解新硬件,新技术在大规模生产环境的落地实践。
3、了解存算一体架构以及性能分析优化的经验。
成功要点:
配送引擎的架构以其能够高效支撑业务的快速增长、提升系统的可用性和扩展性,同时保证履约能力和运营效率的最优化,不断演进和优化,来实现资源的最优配置和数据管理的效率提升。
启示:
从最初的粗放式经营转向更为精细化的管理与创新,架构通过精耕细作可持续保持竞争力和创新能力,应对竞争的加剧和业务的复杂性,让系统的稳定性、扩展性和性能大幅度提升。
〇 分享亮点 〇
1、美团配送业务背景,以及履约平台调度系统的职责与能力
2、随着业务规模增长以及算法策略演进带来的挑战
3、新一代履约调度系统在存算一体架构和新硬件使用上的探索经验以及落地过程
4、总结经验与教训,展望进一步迭代的方向
5、QA
快手流批一体架构探索和演进
〇 分享简介 〇
随着数据量的快速增长和实时性需求的不断提高,传统的批处理和流处理模式已难以满足企业复杂多变的数据处理需求,流批一体已成为大数据处理的前沿趋势。通过整合实时流处理和批量数据处理,实现了数据的高效、灵活处理;此外,流批一体的发展还推动了数据集成、数据存储和处理逻辑的统一,进一步提升了数据的一致性和准确性。
从现状来看,流批一体化技术已在多个业务场景中成功验证,并逐渐走向落地。但在实际应用中,特别是在大数据量和复杂业务场景下,流批一体的实现仍面临一定挑战,比如如何在流处理和批处理之间确保数据的一致性和可靠性,如何减少和降低因流批一体的架构而产生的运维成本和运维难度,另外流批一体系统需要平衡实时性和吞吐量,同时保证低延迟和高性能,这对系统设计和优化也提出了更高要求。
本次分享将逐条分析流批一体的现状,结合快手在流批一体上探索的经验和成果,帮助企业结合自身业务场景,思考适合自身业务特色的流批一体路线。
〇 分享收益 〇
目标:
帮助行业公司选择适合自身业务发展的流批一体路线,有效利用数据湖技术达成企业成本优化目标。
成功要点:
回归技术服务业务发展的初衷,结合自身业务的特点和痛点,充分利用新技术、新方案、新架构的先进性解决业务关切的核心问题,助力达成业务目标,避免陷入技术的盲目自嗨。
启示:
流批一体架构的出现与发展,整合了实时流处理与批量数据处理,提高了企业数据处理效率,降低了系统复杂度,支持企业快速响应业务需求,实现数据价值最大价值挖掘与利用。
〇 分享亮点 〇
1、当前业界流批一体的现状
1) 单一引擎短时间无法完全解决流和批场景上的所有问题
2) 充分发挥新技术优势,结合引擎特性可以获得实际的业务收益
2、快手流批一体探索经验和实际收益
1)介绍快手流批一体探索发展的三个阶段
2)流计算和数据湖的结合助力核心离线公共模型提效2小时
3)简化离线生产链路复杂度,如何在不同场景选择合适的湖仓方案
3、未来湖仓方案规划
1)优化Flink hudi 实时化架构,使其更好支持业务场景
2)完善湖仓实时化的能力,比如实时大宽表拼接
3)湖仓版本升级,利用社区的新特性
4)探索更多业务场景,比如算法领域
4、QA
随着GPT等多模态大模型的风靡,新一代AI技术范式存在变革,多模态大模型身处技术核心,也是迈向AGI的关键。行业全力以赴构筑AI,推动了很多战略性新兴产业融合集群发展,构建信息技术、生物技术、新能源、新材料、新设备、绿色环保等新一批增长引擎。
多种模态的理解和生成是当前大模型发展的趋势,不仅在创意制作中广泛使用的文生图、图生图等能力之外,多模态大模型通过融合语言、视觉的能力,实现了从感知到认知的升级。大模型时代也将会诞生大量AI机器人(AI Bot)或AI智能体(AGI Agent),具身智能、认知推理应用、可控生成内容等,大模型只是基础设施,这些AI应用才是真正价值所在。
本专场将探讨多模态大模型在AIOT以及相关关键行业上,揭示模型的技术内涵、技术难点,探索多模态大模型与场景深度融合的应用。
出品人:杨浩 华为2012 文本机器翻译实验室主任、2012实验室架构及关键DFX科学家/翟周伟 京东零售大模型科学家
知识增强大语言模型与多模态大模型前沿进展及应用
〇 分享简介 〇
随着计算能力的提升和海量数据的涌现,大模型不断突破规模限制,展现出更强大的学习和推理能力。尤其是在大语言模型和多模态大模型方面。从基于传统统计方法的自然语言处理,到深度学习技术的引入,大语言模型在理解和生成自然语言方面取得了显著进展。不仅能够处理海量的文本数据,还能实现更精准的语言理解和生成;同时技术的不断进步也为多模态大模型的发展提供了坚实基础,通过融合文本、图像、音频、视频等多种信息,使模型具备更强的感知和理解能力。能够跨领域处理多种数据形式,提供更丰富、更准确的输出。
但在享受技术发展的同时,也会遇到一些挑战。首先数据规模大且质量参差不齐,处理海量数据需要高效的算法和强大的算力支持;其次,模型体积庞大,训练难度高,对硬件资源的需求也极高;再者,算力规模大、性能要求高,如何平衡算力和模型效果是一大难点;此外,隐私保护与安全性、模型解释与可解释性等问题也日益突出。
本次分享将深入探讨知识增强大语言模型和多模态大模型的最新进展,分析其背后的技术原理,并讨论其在各个领域的应用前景,帮助企业把握未来技术革新的方向。
〇 分享收益 〇
目标:
1、了解大模型与多模态前沿进展
2、了解知识增强型前沿进展
3、帮助企业提前洞察技术趋势,把握创新机遇,为企业优化决策、驱动业务增长提供助力。
成功要点:
大语言模型和多模态大模型的飞速发展和应用日益广泛,可以帮助企业优化工作流程,提升工作效率和用户体验。此外,企业也可以借此机会开发新产品或服务,满足市场需求。
启示:
大语言模型的多模态发展趋势特征进一步拓宽了语言生成的场景应用维度和商业化维度,通过分析知识增强大语言模型与多模态大模型前沿进展及应用,企业可以更好地应对潜在的技术挑战和安全风险,确保业务的稳健发展。
〇 分享亮点 〇
1、大模型前沿进展
1)介绍大语言模型和多模态大模型的概念
2)大语言模型的前沿进展
3)多模态大模型的前沿进展
2、知识增强大模型
1)大模型的存在的问题
2)概述知识增强大语言模型的核心概念和技术框架
3)分析通过知识图谱、搜索引擎和向量检索来增强语言模型的能力
3、大模型前沿应用
1)探索知识增强大语言模型和多模态大模型的潜在应用
2)讨论在实际应用中可能遇到的挑战
4、人工智能的未来
1)对知识增强大语言模型和多模态大模型的未来发展进行展望
多模态数据支撑的对话式AI技术
〇 分享简介 〇
未来的对话式AI技术将愈发聚焦于个性化和情感识别的深化。为实现这一目标,AI需要更加精准地捕捉和理解用户的个性、偏好以及情感状态,从而为用户量身定制符合其需求的服务。这一趋势的实现,离不开跨模态数据融合与理解的突破。通过同时处理、分析和理解来自文本、图像、音频等多种模态的信息,AI能够更全面地洞察用户的内心世界,提供更加贴心、自然的交互体验。这种跨模态融合的能力,正是当前人工智能领域在数据处理、模型训练、语音处理和内容生成等多个方面的重要发展趋势的体现。这些技术的进步,不仅推动了对话式AI技术的飞速发展,也为整个AI领域注入了新的活力,开辟了更广阔的应用前景。
但如何将不同模态的数据进行有效的集成和融合是当前的一个技术难题,这需要企业在数据处理、语音处理、内容生成等多个方面具备强大的技术实力,AI配音技术的应用及其背后的支撑技术,特别是处理多模态数据融合、语音克隆、语音翻译等方面的技术细节。
本次分享多模态数据支撑的对话式AI技术,通过案例展示、技术解析和解决方案探讨,让企业看到对话式AI技术的发展现状和未来趋势,也为相关领域的专业人士和爱好者提供有价值的参考和启示。
〇 分享收益 〇
目标:
1、了解对话式AI技术的最新应用与趋势;
2、深入理解AI配音技术的核心支撑;
3、认识到高质量数据的重要性,为对话式AI提供解决方案。
成功要点:
多模态数据在增强对话式AI技术的信息获取与理解能力、提高交互的自然性、增强语境感知能力、提升情感识别能力、增强适应性和可扩展性以及提升用户体验等方面都具有重要作用。因此,在对话式AI技术的发展进程中,多模态数据扮演着不可或缺的关键角色。
启示:
强调多模态数据融合在对话式AI技术中的关键作用,便于行业在开发AI应用时,关注多模态数据的整合和利用,多模态能力也成为AI企业变革的核心驱动力。
〇 分享亮点 〇
1、对话式AI技术的实际应用与案例;
2、多模态数据融合与支撑技术;
3、当前面临的数据挑战,如数据质量、数据多样性等问题;
4、案例:48kHz大模型语音克隆数据集以及端到端语音翻译数据等高质量数据集
5、QA
OpenVINO解锁多模态大模型的优化、推理与部署
〇 分享简介 〇
当下,AI技术飞速发展的时代,生成式AI和大语言模型在各个领域展现出巨大的潜力和广泛的应用前景。然而,这些模型通常需要大量的计算资源和高效的推理能力,这为实际部署带来了巨大挑战。为了应对这些挑战,拥有一个高效且功能强大的AI工具套件变得至关重要。OpenVINO™作为英特尔推出的一款开源AI工具套件,正是为了解决这些问题而生,可优化和加速多模态大模型的能力,使得开发者能够在不同硬件平台上高效部署AI应用。
在开发实践以及用开发者交流的过程中,AI技术的成功落地不仅依赖于先进的算法和模型,更依赖于强大的工具套件支持。OpenVINO™卓越的性能优化和跨平台部署能力,让开发者拥有一条从模型到应用的高效路径。通过对OpenVINO™的深入应用,从模型的推理性能,以及在图像、文本和音频等多模态数据处理上取得了显著进展。这使得复杂的生成式AI任务能够在资源受限的边缘或本地设备环境中高效运行,极大地拓宽了AI应用的场景和范围。
本次分享将深入探讨利用OpenVINO™优化和加速多模态大模型,显著提升推理性能。OpenVINO™的核心功能和架构,以及它在不同硬件平台上的高效部署能力。将展示OpenVINO™在多模态数据处理中发挥的优势,帮助企业实现生成式AI和大语言模型的高效落地。
〇 分享收益 〇
目标:
1、深化对生成式AI和大语言模型的理解,掌握利用OpenVINO™优化和加速这些模型的实用工具和方法,为AI项目注入新的活力和效率。
2、通过实际案例和演示,掌握将多模态大模型高效部署到不同硬件平台上的技能,提升AI模型在各种环境中的推理性能和能效。
3、获得从理论到实践的全方位技术指导,在实际项目中应用OpenVINO™进行模型优化和推理加速,实现AI项目的高效落地。
4、提升对生成式AI和大语言模型的理解,掌握实用的工具和方法,为您的AI项目注入新的活力和效率。
成功要点:
高效利用OpenVINO™优化和部署多模态大模型的全面知识,利于开发者在生成式AI和大语言模型领域的技术水平。
启示:
为开发者们提供实用的技术指导和应用示例,推动AI技术的进一步普及和实际应用,助力开发者在AI技术浪潮中占据领先地位,帮助企业在实际项目中找到最佳的优化和部署路径。
〇 分享亮点 〇
1、多模态大模型的发展趋势与推理部署痛点
2、高效推理部署:OpenVINO™的本地化推理部署方案
3、性能优化:OpenVINO™针对多模态大模型推理的优化工具介绍
4、demo演示:OpenVINO™在边缘设备及AI PC上离线运行多模态大模型
5、研讨总结
AI助手技术演进实践和多模态趋势
〇 分享简介 〇
让大众可感知的AI助手是以智能硬件为载体的AI语音助手为代表,随着大模型的涌现能力出现后AI助手类应用在技术上产生了一个很大的技术演进,AI助手迎来了爆发式的发展,例如文心一言,豆包,Kimi等,用户规模也是曲线增长,AI助手类也被认为是最有可能成为下一个大模型超级应用的潜力,从技术趋势上,随着多模态大模型的发展AI助手也正从单模态交互向多模态交互演进。
在技术实践上AI助手可以分为任务式AI助手,开放域通用AI助手,垂类AI助手,任务式AI助手以语音助手为代表,典型应用场景是智能音箱,智能座舱,其主要研究点是在近场远场有噪环境下如何提升指令控制的准确率和泛化能力,以及自然流畅的全双工语音交互,开放域通用AI助手以当前热门的大模型AI助手为代表。其主要的难点有4点:
第一,幻觉问题,本质是大模型生成存在幻觉问题,当前的研究主要通过各种RAG技术解决。
第二,数学和逻辑推理不足,主要通过模型和数据维度去优化,以及上下文理解,包括多轮对话的连贯性和一致性,超长上下文复杂理解。
第三,多模态交互,多种模态的理解和生成是当前大模型发展的趋势,但实现端到端的多模态支持仍是技术上的难点,
第四,安全治理问题,也是各种AI助手的通用问题。垂类助手主要和各种领域垂类想结合,与通用AI助手技术体系相同,主要难点在于和领域知识的融合。
本次分享将探讨任务式AI助手的核心技术以及大模型下的优化方法实践,并针对当前热门的大模型AI助手在技术上给大家分享主流的技术架构,以及解决当前的难点问题的核心思路,并结合京东在AI助手的实践,看到从单模态到多模态的交互趋势。
〇 分享收益 〇
目标:
1、了解AI助手的历史发展和技术趋势
2、掌握AI语音助手解决核心难点的主流技术和关键设计思路
3、借鉴大模型AI助手在解决难点问题的核心技术和创新方法
4、企业在构建垂类大模型AI助手的思考和方法论
成功(或教训)要点:
1、基于大模型驱动的对话式AI助手,通过优化数据质量,训练方法,模型结构等方法可显著提升指令理解的准确性和泛化性能。
2、在AI助手用户体验上,需要从数据驱动算法角度构建应用反馈闭环,同时结合RAG技术和Agent技术来提升端到端的用户交互体验。
启示:
1、流畅的交互体验和精准的控制指令是语音助手成功的关键,而利用大模型能力结合用户反馈数据优化是实现这一目标的核心方法。
2、AI助手的交互趋势上,是从文本或语音为主的单模态交互趋向于融合听觉,视觉,触觉,空间感知等多模态交互发展,也与预示着未来AGI助手的发展趋势。
〇 分享亮点 〇
1、AI助手的历史和发展现状
2、语音助手核心技术和实践
3、大模型AI助手关键技术
4、京东在RAG、Agent等技术下的AI助手探索实践
5、AI助手多模态交互趋势和展望
6、QA
大模型机器翻译新范式
〇 分享简介 〇
近年来,机器翻译(MT)领域在深度学习的推动下,尤其是随着GPT-3、ChatGPT等超大型语言模型(LLM)的涌现,迎来了前所未有的飞跃。这些LLM以其卓越的语言理解能力,为MT带来了崭新的机遇与挑战。通过利用开源LLM的In-context Learning能力,或仅需少量数据进行Supervised Fine-tuning,即可显著提升翻译性能,展现出强大的潜力。
相较于传统机器翻译模型,这些大语言模型(LLM)在深度解析文本含义、捕捉语境微妙变化方面展现出明显优势,激发了业界对利用LLM优化翻译质量的浓厚兴趣。然而,值得注意的是,尽管LLM具备强大能力,但当前针对翻译任务的研究多聚焦于微调策略,其效果提升仍有待进一步挖掘,尤其是在缺乏大规模双语标注数据的情况下。
本次分享将基于一种创新的三阶段训练方案,在系统性地增强LLM的翻译能力中,以大量单语数据进行增量预训练、构建Interlinear Text 格式的双语数据进行增量预训练、源语言一致性的微调, 为探索多模态大模型应用的与会者提供宝贵的技术洞见。
〇 分享收益 〇
目标:
1、了解大语言模型下机器翻译技术的发展
2、了解三阶段训练方案——大语言模型时代机器翻译能力的增强技术
3、在大模型时代下做特定任务的实践思考
成功要点
通过针对翻译任务进行相关的增量预训练,并结合高质量数据的指令微调,来显著提升了大语言模型的翻译能力,为企业提供了更加精准、专业的翻译服务能力。
启发:
在探索大模型时代的征程中,无论是科研工作者还是行业应用者,都渴望能最大化地挖掘和利用这些模型的强大能力。面对复杂多变的任务需求时,不应仅仅局限于指令微调的“微调”二字,而应勇敢地迈出一步,将高效的增量预训练策略纳入流程中。 设计一个既与原LLM预训练不冲突,又适配下游任务的增量预训练策略,是一个值得探究的方向。
〇 分享亮点 〇
1、大模型当下的挑战与状况
1)简要介绍大模型(Large Language Model, LLM)在机器翻译领域的重要性和潜力。
2)阐述当前大模型机器翻译面临的挑战和限制。
2、大模型机器翻译的研究进展分享
1) LLM机器翻译的研究趋势与挑战
2)讨论当前LLM机器翻译面临的主要挑战和解决方案。
3、三阶段大模型机器翻译范式介绍
1)大量单语数据的增量预训练
2)Interlinear Text格式双语数据的增量预训练
3) 源语言一致性的微调
4、评测、数据及结果
1)评测方法与数据集介绍
2)介绍所使用的数据集及其特点。
3)实验结果与对比分析
5、总结与展望
百度内容生态AI视频创作工具研发与应用实践
〇 分享简介 〇
随着今年大模型技术在多模态方向的快速发展,多模态生成技术也进入了从实验创新到产品化落地的阶段。以百度内容生态作为内容生成最前沿的创新和业务落地场景,在内容理解和内容生成方向不断探索和创新实践并取得了显著的进展。
在技术创新突破和业务落地获得实际价值过程中,企业践行的是渐进式创新落地,在视频生成方向上践行编排式和原生式共存的技术路线,相互促进,不断满足用户的需求,创造实际业务价值
本次分享将百度加创作平台建设过程中面临技术难题,AI成片规模化,产品化当中遇到算法和系统工程挑战以及实践解决方法,包括但不限于: AI算力托管,AI模型推理加速,AI成本,耗时,稳定性等方面挑战和解决方案实践。
〇 分享收益 〇
目标:
1、了解内容架构和度加智能内容创作平台
2、了解当前内容生成大模型工程技术架构新挑战和实践
3、了解未来内容生成大模型工程的思考和洞察
成功要点:
1、立足于用户视角,深入赋能创作者工作流,助力创作者AI视频生成全链路
2、立足于产品视角,用规模化,产品化目标牵引工程架构设计和成本性能优化
启示:
任何创新技术的应用都要真正解决真实用户需求,创造业务价值。
〇 分享亮点 〇
1、分享度加创作工具平台
2、度加视频大模型架构的挑战和实践
3、度加视频生成工具案例介绍(行业+数字人应用展示)
4、视频生成未来展望
5、QA
从知识到价值:大模型行业应用实践
〇 分享简介 〇
随着大模型技术的飞速发展,AGI的时代正逐渐到来,这一趋势正在深刻影响各行各业。然而,许多企业在大模型的实际应用中面临着诸多挑战,如能力边界的识别、业务价值的实现路径不明,以及如何在复杂场景下有效部署大模型等问题。这些痛点亟需系统化的解决方案。
大模型的应用将使企业知识库变得更加智能化、高效化,并可提供更加丰富和个性化的服务。企业在实施过程中需要注意数据安全、算力资源管理、专业知识积累等挑战,并制定相应的解决策略。通过合理规划和技术选型,有望让大模型在企业知识库建设中发挥巨大作用,为企业带来持续的创新动力和竞争优势。
本次分享将探讨大模型在企业应用中的规划与建设,从能力边界的设定到业务价值目标的实现,提供完整的端到端解决方案。同时,分享在业务场景中的模型训练与微调、知识库建设与运营的实战经验,揭示大模型在不同业务场景中的高效应用策略。帮助与会者理解大模型在金融、医疗、政务、教育等行业中创造实际价值,助力企业从知识积累走向真正的业务价值实现。
〇 分享收益 〇
目标:
1、了解大模型在企业应用中的规划与建设关键点。
2、掌握大模型在金融、医疗、政务、教育等行业中的实际应用策略。
3、提炼大模型行业应用建设中从知识到价值转化的核心路径。
成功要点:
1、业务价值导向: 在规划和建设大模型应用时,以明确的业务目标为核心,确保大模型能够真正解决企业的实际问题。
2、能力边界识别: 准确评估大模型的能力边界,避免在能力不足的场景中进行无效尝试,最大化发挥大模型的潜力。
3、端到端整体方案: 构建从算力筹划到智能体设计的完整解决方案,确保大模型应用的每个环节都能有序衔接,实现高效落地。
4、模型训练与微调: 运用先进的训练、微调技术和PE方法,提升大模型在特定场景下的表现,确保其能够精准满足行业需求。
5、知识库的RAG建设与运营: 通过有效的RAG方案与知识库建设,支撑大模型的持续运营和优化,保持其在复杂业务环境中的高效性。
启示:
1、大模型的成功应用不仅仅依赖于先进的技术,更需要与企业的业务目标紧密结合,确保技术的每一步进展都能带来实际的业务价值。
2、对大模型能力边界的准确识别,是减少失败风险、提高成功率的关键。企业应理性评估大模型的应用场景,避免盲目扩展。
4、一个成功的大模型应用项目需要端到端的完整规划,从初期的算力配置到最终的业务落地,每个环节都必须严密把控,才能确保项目顺利推进。
5、在实际应用中,模型的持续优化与知识库的有效运营是保证大模型长期发挥作用的基础,这也是企业在大模型时代保持竞争力的重要手段。
〇 分享亮点 〇
1、大模型与通用人工智能
大模型的快速发展与各行业的深远影响
2、大模型在企业应用中的规划与建设
1)大模型应用建设规划:能力边界、业务价值目标、建设路径
2)大模型应用建设方案:完整端到端方案,包括从算力筹划、基座模型选择、领域增强、产品组件、智能体和场景解决方案。
3、大模型在业务场景中的应用与运营
1)大模型的训练、微调与PE:模型协同、训练与微调(方案、工具与数据)、PE(工具与方法论)
2)知识库的RAG、建设与运营:RAG方案、建设(体系、方案)、运营(工具、方法论)
4、大模型行业在各行业的应用案例
经典案例:金融、医疗、政务、教育等。
5、QA
随着人工智能技术的快速发展和广泛应用, AI智能化已成为推动行业迭代与创新的重要驱动力。自动化应用在多个领域发展尤为突出,包括提升生产质量、优化AI技术应用,以及云计算、大数据和分析技术的深度融合等方面。然而,在融合AI技术到应用开发的过程中,研发团队仍旧面临着诸如加快研发迭代周期、降低成本以及确保高质量输出等一系列挑战。
本次专题致力于探索和展示如何运用AI技术在各行各业中提升效率、优化流程、降低成本,并加速决策过程,助力企业充分释放AI技术潜能,促进企业数智化的转型。
出品人:清铭 阿里云分布式事务产品负责人
大模型赋能研发效能提升的探索与实践
〇 分享简介 〇
大模型在研发效能提升方面的探索与实践,涵盖了代码生成、需求分析、测试修复、发布上线以及全流程覆盖等多个环节。通过自动生成代码、辅助需求分析、自动化测试和修复、优化发布上线流程以及覆盖全生命周期的综合应用,大模型显著提高了研发效率,降低了人力成本。未来,随着技术的不断进步和应用的扩展,大模型将在更多领域发挥更大的作用,进一步推动研发效能的提升。
代码大模型更是被认为能够在软件研发各领域全面提效、提质,科大讯飞iFlyCode基于自研代码大模型的智能编程助手,代码生成与智能编程助手,利用大模型技术,如Github Copilot和Tabnine,实现代码的自动生成。这些工具通过分析基于现有代码库和开发文档,能够提供代码补全、代码建议等功能,显著提高编码效率。辅助生成单元测试用例,确保代码质量。
本次分享讯飞代码大模型和iFlyCode产品应用,在内外部应用的典型场景和成效,以及对未来代码大模型更深入的赋能软件研发领域的探索和思考,让与会者可借鉴到自身的编码工作中。
〇 分享收益 〇
目标:
1、了解iflycode设计与实现;
2、了解如何通过大模型在研发各个领域提效;
3、了解代码大模型未来的发展趋势
成功要点:
大模型在AI效能上,通过自动生成代码、辅助需求分析、自动化测试和修复、优化发布上线流程以及覆盖全生命周期的全局应用,大大提高研发效率,降低人力成本。
启示:
大模型深入应用在软件开发的全生命周期,从需求发现、设计、开发到测试的各个环节。这种全流程覆盖确保了研发过程的一致性和高效性。
即使跨领域应用,大模型也会发挥作用,广泛赋能于金融、通信、汽车等行业的研发场景。
〇 分享亮点 〇
1、软件研发面临的挑战和矛盾
2、编程助手iFlyCode的设计与实现
3、在内外部的典型应用场景和成效
1)整体概述
2)面向开发人员的提效场景和成效
3)面向测试人员的提效场景和成效
4)其他场景的成效
4、未来赋能软件研发领域的探索和思考
5、QA
生成式AI提升开发者效能
〇 分享简介 〇
生成式AI技术正以前所未有的速度改变传统的软件开发模式,带来了显著的效率提升。传统的开发流程往往依赖于大量的手工编码和反复测试,而生成式AI通过代码生成模型和工具的应用,极大地减少了开发者的工作量和出错风险。这种转变不仅提高了开发效率,还赋予了开发团队更多的时间进行创新和优化。然而,如何有效地整合这些先进技术,确保其在实际生产中的可靠性和稳定性,仍然是当下开发者面临的主要挑战。
在我们看来,生成式AI的应用不仅仅是技术上的革新,更是开发思维和方法论的变革。行业探索上将生成式AI技术深度融入到软件开发的各个环节,从需求分析、设计,到编码、测试和部署。企业可利用先进的代码生成模型和工具,可以显著提升开发的创新能力,推动软件产品的快速迭代更新。生成式AI不仅可以提高开发效率,还能够为开发者提供更多的创作自由,激发无限的可能性。
本次分享旨将生成式AI技术的深刻见解和实际应用案例结合。将展示通过生成式AI驱动的开发平台,全新的应用构建和生产体验。解读AI技术趋势和展示智能开发工具在生产中的实践,帮助开发者在生成式AI背景下开辟新的软件开发思路,推动行业向前发展。
〇 分享收益 〇
目标
1、理解生成式AI技术的变革力量:了解生成式AI如何彻底改变传统的软件开发模式,显著提升开发效率。
2、掌握代码生成模型和应用:学习如何利用先进的代码生成模型和工具来增强开发的创新能力,加速软件产品的迭代更新。
3、体验生成式AI驱动的开发平台:获得关于通过大语言模型易用的开发平台构建和生产应用的全新体验,提升开发过程的流畅性和效率。
4、洞悉人工智能技术趋势:深入了解当前人工智能技术的发展趋势,获得智能开发工具在实际生产中的应用案例。
5、开辟软件开发新思路:在生成式AI背景下,探索新的软件开发方法和策略,助力开发者在快速变化的技术环境中保持竞争力。
成功要点
企业将掌握如何利用生成式AI技术,显著提升软件开发效率和创新能力。不仅是对当前技术趋势的探讨,也是对未来开发模式的展望、共同探索与创新。
收益
企业将获得实用的知识和工具,从而在生成式AI驱动的开发平台上构建和生产应用,实现开发过程的流畅性和高效性。
〇 分享亮点 〇
1、当前生成式AI的趋势与挑战
1) 生成式AI如何改变传统软件开发模式,如何提高开发效率,赋予开发团队更多时间进行创新和优化?
2) 提高开发效率及其面临挑战,如何整合先进技术的有效性,确保实际生产中的可靠性和稳定性
2、技术革新与开发思维变革
1) 生成式AI不仅是技术革新,更是开发思维和方法论的变革
2) 生成式AI在开发环节中的应用。从需求分析、设计,到编码、测试和部署的全面应用;提升开发创新能力,推动软件产品快速迭代更新;提供开发者更多创作自由,激发无限可能性。
3、生成式AI技术展示
1) 通过实际应用场景,展示其在生产中的实践
2) 具体演示生成式AI驱动的开发平台给开发者带来的价值
4、总结与展望
生成式AI对未来开发模式的影响
AI原生时代软件研发效能提升实践
〇 分享简介 〇
大模型的兴起,为各行各业带来了很多的机遇和变化,软件工程领域也不例外。AI原生的产品思维、应用架构、研发过程构建了AI原生软件研发新范式。AI原生的软件研发新范式相比传统软件研发范式,主要有以下两个变化:
1) 换道交付,数据、模型、提示词和代码一样成为软件研发过程中的关键开发内容
2) 研发智能化,各种研发智能体化作研发助理,渗透各研发环节,赋能研发提效,弱化研发过程中各环节和岗位边界,并实现部分领域下的端到端智能生成。
本次分享将基于以上思考,帮助企业构建AI原生软件研发工具链,加速应用AI重构,换道突破,以及通过Baidu Comate赋能软件研发,其中经历的历程,积累的经验,以及达到的进展和成果为与会者带来最直接的借鉴。
〇 分享收益 〇
目标:
了解AI原生软件研发新范式的变化,以及百度新范式变革过程中经历过的实践和积累的经验,并从中获得启示,赋能自身企业和团队在AI时代下创新加速。
成功(或教训)要点:
1、AI原生软件研发范式的变革,是产品思维、到应用架构、到研发过程的全方位的变革
2、软件研发智能化将经历L0无辅助-L1加速器-L2研发助理-L3智能体组合-L4自然语言研发五个阶段。
3、智能化带来的研发效能提升的分析和度量,是项目成败的关键,宏观微观双重分析回答灵魂拷问
启示
工程师应主动去拥抱AI原生时代的变化,通过研发智能化工具武装自己,通过AI原生研发新范式,赋能业务创新变革,换道超车,抓住时代的机遇。
〇 分享亮点 〇
1 、AI原生软件研发新范式变革
1)什么是AI原生软件研发新范式
2)三层变革:范式-工具-应用
2、换道交付,构建AI原生研发工具链
1)AI原生产品思维、应用架构、研发过程
2)AI原生软件研发工具链建设
3、智能化赋能软件研发全域提效
1)研发智能化的发展历程
2)智能化赋能研发各环节
3)百度研发智能化探索实践和成果
4、QA
微服务智能化的体系化建设
〇 分享简介 〇
微服务架构近年来已成为构建应用架构的一种主流方式,特别是在应对业务复杂性和快速迭代需求的场景中。AI在过去几年的快速发展,为微服务智能化奠定了基础。微服务与AI的结合为现代软件开发和业务解决方案带来了前所未有的灵活性和智能化。这种结合使企业可以实现更高效的业务开发、弹性服务扩展以及智能化的业务决策。
微服务架构在灵活性和扩展性方面具有诸多优势,但随着其规模的扩大,复杂性问题也变得愈加突出。要有效应对这一挑战,可以从以下几个关键方面入手:优化开发框架、简化应用生成和推动无代码化并实现智能化的运维诊断。通过这些手段,不仅可以显著降低开发门槛,还能大幅提升运维效率。将AI技术融入微服务架构,是解决这些复杂性问题的重要探索方向。
本次分享将结合阿里云内部微服务智能化探索的实践和经验,帮助大家快速理解并探讨实现微服务智能化的有效途径。
〇 分享收益 〇
目标:
1.、围绕微服务架构的设计,开发,测试和运维实现全链路的智能化提效。
2、了解接入层面向应用,快速解决AI的流量、安全、请求响应、定制插件等技术问题方法和实践。
3、了解面向模型快速具备多模型的聚合能力,提升模型的吞吐率和容错率。
成功要点:
1)大模型是解决问题的手段不是目的,切忌拿着锤子找钉子,同时也要理清模型与业务的边界,否则结果只能适得其反。
2)数据是企业的核心资产也是AI的基石,数据的质量和管理水平在很大程度上决定了AI系统的成败,数据的日常的积累很重要。
3)微服务智能化的体系化建设是微服务从设计、开发、测试到运维全链路的探索,成为研发范式的变革。
启示:
技术的发展往往不是线性的而是爆炸式的,不同技术领域的融合常常会激发创新实现关键性的技术突破。
〇 分享亮点 〇
1、微服务的智能化建设
1) AI开发框架-Spring Cloud Alibaba AI
2) 从代码补全到生成应用的探索
3) 智能化测试、诊断与运维
2、如何快速应对AI流量的挑战
1) AI流量带来的挑战
2) 构建AI系统的统一接入层
3 AI技术发展的展望
4、 QA
AIDevops代码大模型推动的研发新范式
〇 分享简介 〇
大模型在提高生产力、优化工作流程和提供数据洞察等方向,正在出现新的机会以及成功的落地实践。在软件开发的各个阶段存在着大模型的应用场景,包括代码生成与编程辅助、代码审查、研发知识检索、自动化测试生成等。合理充分利用大模型的能力,给传统研发工具提供AI加持,进而提高研发效率,降低程序员进入新领域的入门门槛,并提升研发质量,同时,可促进工程师的快速成长。这将大大推动研发范式,朝着根据产品需求自动生成应用的方向发展,对生产力实现质的飞跃与提升。
本次分享主题围绕快手在AIDevops智能研发工作流中的探索与实践,如何通过代码大模型重塑软件开发新范式,以及快手内部Kwaipilot智能研发助手如何赋能软件研发全流程。
〇 分享收益 〇
目标:
1、构建企业级私域代码大模型,通过RAG技术手段提升大模型推理能力
2、了解大模型在快手内部的软件研发流程中的应用实践,
3、通过大模型深度赋能软件研发不同阶段,深度熟悉利用企业级知识库提升程序员开发效率。
成功要点:
通过企业内部知识增强模型能力,利用Context Rich等技术丰富模型推理上下文,促进模型长度外推提升模型长文本理解能力,促进数据增强的方式打破模型能力瓶颈,客观的模型效果评估指导迭代方向。
启示:
代码大模型深度赋能研发流程,可让程序员从繁琐耗时的重复性工作中解放出来,利用大模型提高研发效率,从而让程序员专注于更富有创造力的工作。
〇 分享亮点 〇
1、大模型时代的智能研发工作流
2、代码大模型的技术路线
3、智能研发工作流的落地实践
4、总结与展望
5、QA
豆包 MarsCode 智能研发应用探索
〇 分享简介 〇
过去一年通用大语言模型的技术突飞猛进,也诞生了很多新的应用场景,其中,将大语言模型结合到软件研发也吸引了大量企业和创业者的探索,并且持续不断有新的应用潜力被挖掘出来。
企业结合大语言模型进行代码生成的探索,这个过程会让企业收获积累许多技术和产品上的经验。在面对一个快速发展的领域,我们意识到需要根据当前模型的能力去设计合理的产品形态,需要算法和工程团队一起密切地进行产品迭代,结合软件工程方法去弥补当前模型的不足,同时从数据工程上帮助模型的持续提升。
本次分享将开发大模型应用的经验和最佳实践,以产品功能迭代的实践经历,帮助大家理解与一同探讨加速大模型产品的落地最有效路径。
〇 分享收益 〇
目标:
1、了解大语言模型的智能编程助手应该如何选择产品形态
2、构建有指导意义的指标体系,形成逐步对产品形态和功能进行演进
3、了解到未来智能研发产品的一些发展趋势。
成功要点:
产品形态的设计需要考虑模型的能力,从具备高容错性的功能入手,并设计一个科学的产品指标用于指导工程和算法的优化。
启示:
大模型有很高的上限,但也还处在技术演进的初期,应该选择高容错的产品形态,逐渐提升模型能力,进而再去探索更高阶的功能
〇 分享亮点 〇
1、智能编程助手 Copilot 产品的应用
2、MarsCode智能编程助手的探索历程
1)构建评测体系的重要性
2)如何定义科学的产品指标
3)A/B 测试的重要性
3、编程助手功能的演进和未来展望
1)代码编辑:代码补全的进阶
2)Agent 的探索:自动 issue 修复
3)未来基座模型和产品形态的展望
4、QA
基于开源方案的企业私有化编码助手实践
〇 分享简介 〇
企业长期以来均关注基于流程改善、工具链自动化的群体效率提升,但这种群体效率改善并不能优化开发者的体验和效率,甚至会遭到反对。目前类 Copilot的编码助手给出了一种提升个体效率的有效方案。但,目前市面上的类 Copilot编码助手仅在通用代码生成场景上效果较好,在带有业务属性的代码生成场景上效果不佳,而中、大型企业普遍已经通过工程框架、通用组件、共享服务、产品化等技术标准化的手段实现了通用代码的复用,此类企业关注的焦点在于业务代码生成与私域代码安全。可以看到部分中、大型企业均已建设内部编码助手,通过提示工程、模型微调、RAG 等手段来满足业务代码生成的需求,通过试用本地部署模型的方式来满足私域代码安全的需求。
本次分享针对中型企业对于业务代码生成、私域代码安全的需求,基于开源软件自建内部编码助手的实践经验,给出一种面向中大型企业痛点的可选方案,让效率、安全、成本达到企业最优平衡。
〇 分享收益 〇
目标:
提供面向中、大型企业的私有化编码助手建设方案,利用开源生态,满足其业务代码生成、私域代码安全的核心需求。
成功要点:
1、业务定义注入:通过提示工程、模型微调等方式可以满足业务代码生成的需求。
2、混合模型方案:利用LLMOps平台,让助手与模型解耦,基于本地模型与云端模型结合的方案,保障私域知识及代码的安全性。
3、依赖开源生态:利用开源生态和自主建设的方式,降低了建设成本。
启示:
通过提示工程设计、代码模型微调的方式代码生成中注入业务定义及业务代码数据,基于context定义与embedding能力扩充编码助手的工程感知范围,达到辅助业务代码生成提升开发效率的目标。
〇 分享亮点 〇
1、智能代码生成的现状与挑战
2、企业私域代码生成技术方案
3、企业私域代码生成落地实践
4、总结与展望
5、QA
云化时代下百模大战,智能体的架构中,许多整体构建成运维中大的智能体,一种解决复杂多任务的能力。它可以是数字化的运维助手、可以是私有运维文档的问答、脚本解读注释、运维数据注释等等。让单个运维工具进行自然语言交互增强。同时,基于智能体编排多个工具,完成更复杂的运维任务。 大模型落地到运维中,需要避免幻觉产生;针对不同模态的数据,有不同的运维算法;需要专业对待垂直领域内判断;加强私有部署质量与数量;加强存量知识融合、来处理多模态的实时数据;利用好存量的运维工具。
借助强大的大模型涌现能力和推理技术,结合云时代的AIOps,共同在解决复杂架构下的异常问题方面展现出事半功倍的效果。
本次专场将汇聚来自各行各业的实践者,分享在不同业务场景下的大模型应用于AIOps,解决实际挑战。探讨云化时代下LLM与AIOPS中的应用,聚焦其强大的数据分析能力、智能决策能力以及对复杂系统的理解,提高运维效率、降低故障风险、优化资源利用率等方面的实际案例。
出品人:郑洋飞 蚂蚁金服资深技术专家
LLM For DataInfra运维应用实践
〇 分享简介 〇
随着数据基础设施的爆发式增长以及支撑业务形态的复杂演变,数据基础设施运维在建站交付、容量、链路诊断、风险分析、排障、参数调优等领域的难度与成本不断攀升。当下运维工程以流程与规则为主的架构体系,面对复杂且不确定的业务形态,效率与稳定性的挑战日益加大,解决不确定问题的成本居高不下。
面对大模型技术的冲击,数据库、存储、计算等基础设施平台以及运维工程应该完成智能化。我们有围绕大模型技术构建新一代的数据基础设施,提升数据库、存储、计算等产品的管控以及运维智能化的水平成熟的探索。尤其是智能化浪潮下,数据基础设施大规模管理与运维的工程能力建设, 业务落地实践情况, 以及当下存在的困难和挑战,都是企业需要重视与正视的。
本次分享将从数据基础设施智能化的整体架构设计出发,阐述智能答疑、智能诊断、智能风险分析、智能建站交付、SQL生成与优化等智能体的构建以及结合现有资产平台的Copilot构建与规模化应用。
〇 分享收益 〇
目标:
深度了解智能化建设的方案与技术,快速建设面向未来的数据基础智能化能力,助力公司业务在大模型时代取得领先。
成功要点:
结合大模型的数据基础设施智能化,不仅是在当下的基础设施上添加大模型的交互能力,需要以智能原生的理念进行全方位的重构,从架构 -> 方案 -> 应用。 同时,将未来原生数据应用的发展趋势,自上而下,从数据智能应用-> 数据智能加工管道 -> 数据智能基础设施的全方位构建。
启示:
大模型时代的竞争是数据与效率的竞争,构建数据智能化基础设施,确保业务高效、稳定、低成本自治,是企业能否跑的更快,跑的更远的根基保障。
〇 分享亮点 〇
1、大模型时代,数据基础设施的危与机
2、下一代面向智能原生的数据基础设施架构
3、蚂蚁数据基础设施智能化升级实践
4、当前面临的一些问题与挑战
5、QA
基于大模型的云原生可观测运维体系
〇 分享简介 〇
当前故障运维体系常面临以下挑战:链路的碎片化和标准化不足:运维流程分散、缺乏统一规范,致使故障响应标准化程度偏低;且过度依赖运维人员的个人经验,例如:对监测数据和报警信息的解读水平、故障的精准定位和问题的快速排查能力、对Kubernetes集群管理与操作的熟练掌握程度。
相较之下,大模型通过整合运维流程、深入理解监控信息、智能关联SOP,并自动生成执行命令,展现了其在提升运维效率和协同性方面的潜力。
本次分享基于大模型的云原生故障运维体系,弥补现有运维流程中的一些缺陷。融合大模型强大的数据处理和自然语言理解能力,清晰的展现体系下的架构与技术关键路径,通过应用案例让与会者借鉴云原生环境下智能运维链路,来提高运维链路的整合度和流程标准化水平。
〇 分享收益 〇
目标:
1、了解大模型multi-agent工作模式
2、积累建设企业自运维链路经验
成功要点:
将运维整体功能进行合理分拆,形成不同Agent,并为之规划针对性的职能,进而再通过有机的整合方式,促成运维链路的顺畅串联。
启示:
聚焦当前运维体系的痛点,通过智能化的技术手段实现运维链路自闭环,形成完整的可观测运维体系。
〇 分享亮点 〇
1、云原生故障场景的挑战与大模型需求
2、大模型驱动的运维体系架构与关键技术路径
3、实践案例分析与故障运维链路展示
4、QA
基于大模型在SRE平台工程中的探索
〇 分享简介 〇
在运维领域的演进历程中,我们从原始的命令行操作,逐渐发展至采用平台化工具进行管理。而今,随着大模型时代的降临,预示着运维领域正迈入智能化运维的新纪元。这一转变依赖于自然语言处理技术和多轮对话交互,让自然语言指令高效地完成复杂运维任务,显著提升工作效率,并为运维工作增添人性化的维度。但我们所做的不仅仅只是改变我们的交互方式,更重要的是实现知识的体系化积累及其执行能力的标准化构建。
本次分享深入分析运用智能文档编制技术,从日常运维和应急响应的丰富实践中提炼精髓,通过精细的结构化处理流程,将这些宝贵知识整合进EKG。这一举措不仅巩固了知识的系统性和易获取性,更重要的是,它使得EKG成为了执行态下知识应用的中枢。借助EKG的推理功能,可直接指导运维决策并触发自动化工作流,从而确保知识与执行之间实现了无间断的衔接。
〇 分享收益 〇
目标:
1、深入探索AIOPS的最新发展趋势,细致研究其在不同场景中的实际落地应用场景,探索未来可能的发展方向与创新点,从而为提升运维效率与智能化决策提供坚实的基础。
2、了解系统性地建立并不断完善知识体系,包括但不限于对关键理论、工具、技术和最佳实践的沉淀;
3、探索在日常工作中实施标准化执行流程,确保知识应用的结构化沉淀,从而促进知识为未来具备可执行打下稳固的基石。
成功要点:
从运维实践和应急响应中提炼核心知识,通过精细结构化处理整合进EKG中,强化知识的组织结构,进而借助EKG的推理与触发能力,直接指导运维决策过程。
启示:
随着技术的不断进步和应用场景的拓展,大模型和SRE平台的结合将在通信、IT运维等领域发挥越来越重要的作用。这种技术的融合不仅能够优化运维过程,最重要的是飞速提升系统的稳定性和效率。
〇 分享亮点〇
1、SRE Agent的项目起源
2、SRE Agent的落地探索
3、SRE Agent的未来演进
4、SRE Agent的开源项目
5、QA
构建自动化运维体系:运维大模型应用实战
〇 分享简介 〇
当前,大语言模型爆发并持续飞速发展,所表现出的自然语言理解能力、推理规划能力和任务执行能力,对许多工作都表现出革命性的突破。基于运维大模型构建一站式智能运维平台可以满足企业提高运维效率、提升运维质量、简化工作流程的需要。
在云时代,随着各种新技术的普及应用,维护一个复杂且快速变化的系统,会面临一系列的问题。运维大模型系统能够自动学习经验文档,随时感知现网变化,并将故障处置经验沉淀到系统里,保障运维操作的准确率和及时性。比如构建运维助手,帮助企业巡检监控,回答运维问题,提供变更方案和开发运维报表等。
本次分享将结合华为有效落地的经验,探索未来运维演进方向,讨论运维大模型落地应用的挑战和实现方式,基于运维大模型构建的AI Agents系统,与运维知识图谱和RAG等技术结合,生成的效果,全面提升运维工作带来的技术革新,与参会者探讨。
〇 分享收益 〇
目标:
1、了解大模型的发展趋势,扩展大模型知识,洞察技术发展方向
2、掌握运维大模型的实际构建方法,以及如何基于运维大模型构建运维系统
3、借鉴优化运维工作流程,提高运维自动化水平,从而提升效率。
成功要点:
1、AI Agents结合知识图谱、RAG等技术构建大模型运维系统
2、从运维实际工作场景出发,构建的智能化工作流解决常见通用运维问题
启发:
运维大模型在应对不断增加的IT复杂性和需求变化速度方面,可以发挥更多关键作用,大模型与知识图谱结合驱动数字机器人(RPA)是未来运维的演进方向。
〇 分享亮点 〇
1、运维大模型的概念和背景,对IT运维重要性。
2、运维大模型能力解读,展现大模型的工作原理以及如何赋能于运维场景。
3、华为的运维大模型的规划以及实际应用案例(运维助手、日志分析等)
4、探讨运维大模型在实际应用中可能遇到的挑战(模型微调、数据集构建等)
5、未来展望,展望运维大模型的未来发展趋势,以及它对运维工作的深远影响。
6、QA
Multi-Agent在智能运维上的应用
〇 分享简介 〇
随着技术的进步,AI Agent智能体将实现更高程度的智能化和自动化,降低运维成本,提高运维效率。通过自动化操作和智能决策,可以大幅减少人为错误,确保操作的一致性和准确性。AI Agent 在实时性上也有明显的优势,能够实时监控系统并快速响应异常情况,减少系统停机时间,提高系统可靠性。
在运维过程中,面临着场景复杂,流程和系统较多等问题, Multi-Agent 框架可以实不同领域和系统的多个Agent协作工作,有了这些基础设施,就可以在原有的Agent基础上完成更复杂的运维任务。
本次分享将深入探讨大模型在运维领域的实际应用,展示通过多智能体技术优化运维流程,提升效率。共同推动运维领域的技术革新和进步。
〇 分享收益 〇
目标:
1、LLM 在企业内部场景落地的一般思路
2、Multi-Agent框架优点与实现思路
3、运维场景LLM 提效案例
4、LLM与 AIOps 的结合
5、掌握运维场景与LLM 结合的思路
6、掌握运维工具集构建技巧
成功要点:
1、基于双思维链模型的运维领域多Agent协作框
2、运维场景与运维工具集的构建
启示:
AI Agent智能体与运维的结合,便是运维智能化水平的体现。AI Agent可自主进行故障管理、资源评估、问题定位、辅助决策等工作,有效减少人工干预,提高运维效率、稳定性与自动化水平。
〇 分享亮点 〇
1、构建 LLM 应用的基石理论
2、为什么需要多 Agent
3、常见多 Agent 框架实现
4、趣丸科技 Multi-Agent的演进与实现
5、趣丸科技LLM落地场景
6、QA
大模型训练在智能运维中的落地实践
〇 分享简介 〇
随着生成式人工智能技术的快速发展,大模型正成为推动技术创新和业务变革的关键引擎。在这个大模型时代,无论是改善用户体验、员工体验、合作伙伴体验、供应链效率,还是加快IT创新和产品交付,企业对数字化转型的需求从未如此迫切。在加速推进数字化转型的过程中,IT运维面临着全新的挑战。IT团队需要变革性的技术来打破数据孤岛,理清系统运行状态,实现更快的故障响应、更准确的根因定位、更少的用户影响,确保系统稳定性,从而驱动数字化转型。
传统的监控手段在云原生背景下,难以有效帮助企业解决故障发现和故障定位的问题。现有的工具和分析模型智能化程度不够,运维数据尚未充分转化为有价值的运维知识,企业迫切需要变革性的技术方案来解决IT运维的痛点。基于Transform的大语言模型技术,结合可观测性平台,已成为当前智能运维领域广受关注的创新解决方案。
本次分享将深入探讨在可观测性平台及智能运维中,应用大模型技术涉及到的模型选型、微调、预训练和检索增强生成(RAG)等方面的挑战,重点讨论OPS LLM在企业实际应用中的经验和挑战,探讨解决方案和最佳实践。
〇 分享收益 〇
目标:
1、理解大模型时代IT运维和可观测性所面临的新挑战,包括数据孤岛、系统状态复杂性及快速响应需求等。
2、了解到大语言模型技术在可观测性平台和AIOps中的具体应用,以及如何提升故障发现、根因定位和运维效率。
3、了解运维大语言模型训练过程中遇到的技术、资源和管理方面的挑战,收获相应的解决方案和最佳实践。
4、了解大模型技术在金融行业落地过程中的具体实施步骤和经验,帮助企业更好地推进智能运维项目。
成功要点:
明确建设智能运维或可观测性平台的需求和目标,选择与企业场景匹配的大模型,综合考虑性能、资源消耗和适用性。同时,了解获取运维大模型所需的语料,进行数据治理及模型微调,并掌握大模型在企业实际落地的推进步骤。
启示:
大模型技术在智能运维中的落地进展及实际在金融等行业的落地效果,结合企业自身场景推进大模型在智能运维领域落地方法论。
〇 分享亮点 〇
1、大模型时代下的运维与可观测性
2、大模型技术在可观测性平台中的应用
3、AIOPS与OPS LLM训练中的挑战
4、金融行业落地案例
5、QA
腾讯混元大模型LLMOPS应用实践
〇 分享简介 〇
随着人工智能技术的飞速发展,LLMOPS在提供智能化服务的同时,面临在保证模型性能的前提下,有效降低训练与推理的成本,以及管理日益复杂的模型版本和参数配置,同时,LLMOPS保障数据安全的中,满足日益严格的隐私保护法规等复杂问题。
平台解决方案设计与实施策略,是应对这些挑战的有效途径。包括但不限于高效的资源管理与优化、智能化的模型管理、安全可靠的数据管理,以及敏捷的开发与部署流程。这些策略不仅需要深厚的技术积累,还需要对业务需求有深刻的理解。进一步地探索如何将这些前沿的解决方案巧妙地融入实际业务场景,是实现业务价值最大化的关键步骤。
本次分享将洞察腾讯混元LLMOPS在研发领域的挑战与核心痛点,以及掌握前沿的平台解决方案设计和实施策略,最大化的帮助与会者依赖LLMOPS,实现众多实际应用场景的业务价值。
〇 分享收益 〇
目标:
1、洞察LLMOPS研发领域的挑战与核心痛点,
2、掌握前沿的平台解决方案设计与实施策略。
3、探索将这些解决方案巧妙地融入实际业务场景,以实现业务价值最大化
成功要点:
不同的业务场景有着不同的需求和痛点,成功将前沿的解决方案巧妙地融入实际业务场景,是实现业务价值最大化的关键步骤。因此,解决方案的设计和实施需要高度的灵活性和定制化。针对不同的业务场景抽象出解决方案服务业务落地。
启示:
LLMOps在运维中,有着很强的作用,不仅涵盖优化LLM开发、部署和维护流程的实践、工具和方法。LLMOps处理大型语言模型的复杂性,监督模型从数据准备到实际应用的全过程,可优化研发全应用生命周期。
〇 分享亮点 〇
1、LLMOps流程痛点
2、混元LLMOps的应用
3、混元一站式解决方案
4、QA
随着经济大环境的发展,各行业陆续进入存量竞争阶段,高速粗放型发展模式被精细化经营的需求取代,对企业竞争力来说,数字化转型变成一个核心的命题。这个过程中,AI和大模型应用的浪潮推动数字化向数智化的阶段快速演进.新范式转变的阶段中,企业管理者关心的IT技术战略方向与规划、IT研发管理优化与流程设计往往是相对被忽视,而数字化技术的基础正是其业务与运营模式。
数字化转型中,智能化的基础建设,将技术和数据真正落实到业务核心场景, 是真正驱动业务效率飞跃提升,甚至寻找到业务新的突破点。中间面临的技术、管理、组织协同方面的挑战和解决之道,也是管理者积极探索的。
本专场将邀请数字化管理优秀的转型企业带头人,从应用场景与多维度的视角,探讨AI+LLM新时代数字化过程中IT战略和管理实践.
出品人:陆勇 乐信CTO
AI大模型时代的业务架构智能化转型
〇 分享简介 〇
随着大模型技术的飞速发展,企业正面临一场深刻的技术变革。大模型不仅在推理能力、多模态应用方面展现出巨大潜力,还推动了企业在运营效率、决策支持等多个领域的智能化转型。越来越多的企业开始意识到,AI技术将成为未来商业竞争中的重要驱动力,这使得在业务架构中深度融合AI技术成为一种不可逆的趋势。
然而,企业在应用这些新兴技术时面临诸多挑战。首先,内部运营效率和业务流程的优化往往跟不上技术进步的速度。其次,AI技术的复杂性使得传统的人力资源和管理方式难以适应。此外,将AI技术与现有的业务架构无缝结合,避免过于依赖技术而忽视了人的作用,成为管理层必须思考的核心问题。
本次分享将重点探讨如何在大模型时代,通过AI技术赋能,实现业务架构的智能化转型。深入分析克服企业在AI应用中的痛点,并提出从技术到业务的全面整合策略,帮助企业在激烈的市场竞争中脱颖而出,构建具备AI原生能力的未来组织。
〇 分享收益 〇
目标:
1、通过AI技术推动组织的快速转型,探讨大模型时代下,指导企业从业务架构入手,深度融合AI技术,实现从“人”到“AI”的平滑过渡。
2、帮助企业识别并抓住AI转型中的关键机遇,提供行业的借鉴意义。
成功要点:
1、在AI转型初期,未能快速识别和解决业务流程中的痛点,将导致效率提升的滞后,企业仅依赖技术而忽视组织结构和人才培养,也可能导致转型效果不佳。
2、大模型技术的有效应用,使得企业推理能力和多模态应用在业务场景中展现了巨大的价值。管理者需看到技术与业务的深度融合,确保AI技术在提升运营效率、增强决策支持方面取得实质性效果。
启示:
1、AI技术赋能下的业务架构转型,远不仅是技术替代,而是业务模式和组织结构的全面革新。
2、成功的AI转型需要从顶层设计出发,将AI技术深度嵌入业务流程,并通过持续优化提升组织整体效率。通过总结成功的经验与教训,企业可以更好地规划其AI战略,避免常见的陷阱,从而在竞争激烈的市场中保持领先地位。
〇 分享亮点 〇
1、大模型趋势分析
2、业务痛点
3、AI Native能力打造
4、AI内部效率提升案例
5、组织转型&文化转型
6、QA
开放式、多引擎兼容的数据开发与治理
〇 分享简介 〇
在企业数字化转型的大背景下,数据资产越来越深刻地影响着企业的决策,因此企业对于资产治理的诉求也不断增强,主要体现在以下几点:
1、湖仓一体:近年来,融合数据湖和数仓的Lakehouse架构受到广泛关注,越来越多的企业也采用了Lakehouse架构作为其技术底座。
2、全域资产治理:从数仓资产治理逐渐扩展到全域资产治理,打通整个资产生产消费链路,从而覆盖企业的所有数据资产。
3、统一资产目录:为了实现全域数据资产治理,企业开始重视统一数据资产目录的建设,从而帮助企业识别、分类和管理所有的数据资产。
4、资产安全管控:企业愈发重视资产的安全管控,通过权限管理、数据脱敏等手段,来保证资产在整个生产消费链路上的安全可控。
不同的企业的部署环境、引擎类型、治理目标等各不相同,复杂的差异性给企业数据治理带来了不小的挑战。瓴羊Dataphin在持续演进的迭代过程中,积累了丰富的实践经验,如多引擎适配、混合云统一调度、统一消费出口等技术方案解决企业数据治理中的痛点问题。
本次分享将阿里数据资产治理经验从域内走向业内的最佳实践,以Dataphin为平台载体,为与会者带来全新治理平台实践的应用借鉴,期待共同探索数据治理的新未来。
〇 分享收益 〇
目标:
1、剖析企业在数据治理方面的普遍痛点与核心需求,
2、通过Dataphin平台服务企业复杂场景下的应用实践,为参会者提供数据治理策略与技术洞察。
成功要点:
在Dataphin平台通过技术创新与优化,有效应对企业数据治理的复杂挑战,如多引擎环境下的任务无缝运行,统一调度机制大幅降低企业数据迁移与管理的成本,可建立统一的消费出口简化资产管理流程提升数据消费便捷性与灵活性。
启发:
数据治理并非孤立的技术挑战,而是一项系统工程,需要综合考量企业环境多样性、技术兼容性与业务连续性等方方面面。对于身处数据治理旅程中的企业,Dataphin的经验将提供宝贵的借鉴与启示,助力其构建更加成熟、高效的数据治理体系。
〇 分享亮点 〇
1、企业数据治理痛点与核心诉求
2、阿里巴巴的数据治理经验
3、Dataphin企业数据治理最佳实践
4、未来Dataphin全域资产运营和消费智能能力计划
5、QA
数智化研发管理优化
〇 分享简介 〇
随着企业数字化转型的不断深入,标准化体系的缺乏和企业增长需求之间的矛盾不断凸显,因此需要加快建设和推广研发管理的标准和评估体系,让数字化协作进一步释放研发团队的生产力,使软件研发管理保质保量,安全可靠地持续运行,并通过效能量体系实现研发管理的提质增效,为企业实现可持续发展提供有效路径。
研发管理数字化以商业效率为最终目标,以研发效能为实现路径,结合对研发效能的定义,从“组织、工程技术、管理、工具平台”四个方面的实践完成数字化研发管理的转型落地,从而提高了企业的交付效率和交付质量。
本次分享将乐信数字化研发管理思路用完整的逻辑和清晰的脉络呈现出来,凝聚了丰富的实践经验和效能提升的技巧,为研发管理从业者提供路径参考和经验借鉴从而建立科技企业的核心竞争力。
〇 分享收益 〇
目标:
提高管理效率,优化管理决策质量、提升团队协作能力和软件质量以及稳定性,推动软件研发管理的智能化和现代化发展
成功要点:
从顶层设计研发端到端的流程,将过程中的各种工具深度集成并收拢统一管理,打通研发流程和数据,建立全面的告警体系和故障应急响应流程,结合可视化度量体系,有效提升研发效能
启示:
1质量问题无法做到完全避免时, 如何设计保护伞可以有效地降低业务损失,
2 有效的管理实践,减少业务部门与研发部门的摩擦,提高满意度
〇 分享亮点 〇
1 数字化转型背景与挑战
2 数字化研发管理建设思路
1)项目管理统筹研发全过程
2)韧性系统(研发质量的保护盾)
3 数智化实践案例与展望
4 成功关键要素
5 QA
新质生产力之数智驱动的企业数字化转型
〇 分享简介 〇
当前正处于数字化转型的2.0阶段,即大部分企业的数字化转型都已经开启并完成了各自的建设。企业面临的痛点就是数据要素成为新质生产力的价值没有得到有效发挥,进而数字化转型的投入产出没有得到应有价值,再加上AIGC技术革新的加速,对企业数字运营能力提出了新的挑战与机遇。
数字运营是引领企业数字化转型不二选择,大部分企业的数字化转型停留在数字化在各领域的建设上,但忽略的运营,最佳实践经验是三分建设、七分运营,必须经过数智驱动卓越运营提升数据要素新质生产力的效能驱动全要素提效,进而变革改善企业经营。
本次分享将基于美云智全新数字运营方法论,明确数据要素新质生产力驱动全要素提效的原理、逻辑与路劲,提炼最新最优价值的最佳实践。
〇 分享收益 〇
目标:
明确指出数据要素作为新质生产力驱动全要素提效的科学性、可行行、可复制性。
成功要点:
源自企业战略和管理一致性,围绕场景的经营改善,通过数据指标驱动卓越运营闭环,是持续推进经营改善的最有效方法。
启示:
效率之上,一直是企业挂你的头等大事,从未被动摇过;以效率驱动的运营能力是企业核心竞争力;在数字化AI时代,通过数据要素新质生产力驱动全要素提效的数字运营能力是核心竞争力的核心。
〇 分享亮点 〇
1、美云智数数字化转型的经营成果
2、基于管理一致性的数字化转型
3、基于全价值链卓越运营的数字化转型
4、基于全场景提效的数字化转型
5、在数字化转型数据要素新质生力的应用价值
6、数据要素叠加AIGC增值驱动数字化转型
7、数据要素心智生产力驱动全要素提效方法实践
8、QA
智能数字员工Agent的发展与应用
〇 分享简介 〇
当下,企业普遍面临着劳动力成本高、重复性工作负担大等问题。智能数字员工Agent以业务流程自动化、数据处理分析等功能助力企业解决效率低下、人力资源配置不足等痛点,成为企业数字化转型的利器。
对智能数字员工的研究已经取得长足进展,涵盖了机器人流程自动化(Robotics Process Automation)、自然语言处理、光学字符识别、大模型等多个领域。RPA等技术的不断成熟,为智能数字员工的发展提供了坚实基础。同时,各行各业都在积极探索智能数字员工的应用场景,思考如何将智能数字员工融入到企业运营中,以实现更高效、更灵活的业务流程。
本次分享将探讨智能数字员工Agent的发展历程、技术应用场景以及对企业的价值与影响。旨在帮助企业了解智能数字员工Agent的理念、技术特点,以及如何将其应用于实际业务中,进而推动企业数字化转型,提升竞争力。
〇 分享收益 〇
目标:
分享智能数字员工Agent的发展与应用,旨在为企业通过自动化、智能化技术解决效率低下、人力资源不足等问题提供借鉴意义,促进企业数字化转型。
成功要点:
项目往往依托先进的技术如通过机器人流程自动化(RPA)、自然语言处理(NLP)、大模型(LLM)等实现对业务流程的自动化处理,从而提高业务运营效率。智能数字员工针对不同行业、不同业务流程的需求,进行定制化开发,充分考虑业务特点,实现精准的智能数字员工应用。同时,通过COE帮助企业积极调整管理方式、培训员工,以适应智能数字员工的引入。
启示:
1、智能数字员工的应用可以显著提高企业的工作效率,减少人力资源投入,提高数据处理和分析的准确性,提升业务质量。
2、通过智能数字员工的应用,企业能够更加专注于创新性工作和核心业务,提升企业的竞争力和市场地位。数字化转型是一个持续改进的过程,企业需要不断优化智能数字员工的应用,与时俱进,以适应市场变化和业务需求。
〇 分享亮点 〇
1、智能数字员工Agent发展的背景与挑战
2、智能数字员工Agent给企业带来的价值与影响
3、智能数字员工Agent的技术组成
4、Agent应用于实际业务中的实践经验分享
5、QA
全球化的大数据与AI工程平台最佳实践
〇 分享简介 〇
近年来,中国企业出海拓展全球化的市场趋势火热,覆盖电商、游戏、物流等多个领域。在全球化竞争的格局里,数据和AI逐步成为企业核心竞争的技术基石。
腾讯海外游戏从2021年正式开启全球化游戏运营布局,经过3年多的坚定投入和建设,实现了全球覆盖、海量实时的数据中心;安全合规、多云一体的大数据架构。随着AIGC如火如荼,全球多云AI工程架构也日渐雏形。为数据驱动全球游戏业务的增长奠定了基础。
本次分享腾讯海外游戏的全球大数据工程架构体系,从全球多云多区域数据布点方案,到跨国跨区域的数据实时流转能力以及符合国际用户隐私合规安全的数据技术支持体系。进一步构建高效低成本的Game AI+LLM的AI工程架构。为正在和将来出海的企业提供一个良好的最佳实践样本。
〇 分享收益 〇
目标:
1、了解和掌握覆盖全球多云大数据中心构建的思考与方案
2、了解跨区域与国家的数据安全、实时和高质量传输的技术方案
3、了解满足国际用户隐私合规安全的数据工程技术体系
4、了解支持全球化算力调度,成本与效率平衡的AI工程架构
成功要点:
搭建全球化的大数据与AI工程平台是当前企业发展的趋势,通过整合AI算法、算力和大数据,企业能够将技术转化为实际可落地应用的产品和解决方案。
启示:
全球化的大数据与AI工程架构,对企业而言具有巨大的价值,提升企业在各个方面的执行效率和资源配置,促进创新和个性化体验的优化。通过实时化处理和场景化应用,平台能够带给企业提供强大的决策支持和市场竞争力。
〇 分享亮点 〇
1、海外全球化数据工程体系建设的目标与思考
2、腾讯游戏全球化数据中心构建
3、腾讯海外游戏大数据工程技术架构在多云、安全合规、成本效率等方面最佳实践
4、腾讯海外游戏大数据技术架构在数据仓库、实时计算等领域的最佳实践
5、海外游戏AI+LLM大模型算法工程最佳实践
6、总结与展望
7、QA
AI4SE华为智能化研发实践
〇 分享简介 〇
随着GenAI技术的迅速发展,业界开发者在软件应用开发中使用智能化工具(代码生成等)已从尝鲜逐步走向日常化使用并取得研发效率上的明显提升,更有众多关于AI智能体实现智能自主开发的探索不断取得令人惊喜的进步。但传统研发模式向智能化研发的将会怎么过渡,模型策略怎么定,价值场景在哪,效果如何提升,进度如何等仍然需要持续探讨。
华为看来,研发智能化的一些实践思考如下:
1、演进上,传统应用到新兴智能体应用过渡仍需一段时间,因此需要同时面向两者构筑智能化研发能力以确保新老交替期间的研发竞争力;
2、模型上,类似云原生时代的多云策略,多模型策略也是一种优选策略;
3、场景上,优先围绕“代码”和“查询”相关的价值场景构筑智能增强工具能力,逐步实现从编码单点向研发全流程的效率提升;
4、效果上,除了关注模型能力的提升,更加要关注RAG、Prompt等工程优化带来的提升;
5、探索上,持续关注AI智能体自主开发发展,先孵化专业领域的单Agent能力在过渡到多Agent协同自主研发。
本次分享将从华为研发智能化探索实践出发,给出我们对LLM技术在传统应用研发过程中的应用思路(AI4SE)及阶段成果和新的智能化应用结构组成,带来的应用研发过程中的新变化新挑战的一些思考(SE4AI)。
〇 分享收益 〇
目标:
分享华为研发智能化探索实践,旨在促进企业提供智能化研发转型,为即将到来的智能应用升级寒武纪大爆发时代做好研发竞争力准备。
成功要点:
在以敏捷及devops为代表的软件工程2.0时代,软件研发效能就是市场“快鱼吃慢鱼”的核心和基础产品竞争力构筑点。以智能化为代表的软件工程3.0时代会进一步加剧这个现象。企业及时和适时实施智能化研发转型是跟上时代前进节奏的关键。
启示:
GenAI技术带来的智能化研发冲击和转型,既需要星辰大海的美好(智能自主开发)也需要两手沾泥的实干(传统研发模式智能增强)。两者需要相互结合才能相得益彰更好地服务企业研发生产力的极大进步。此时在智能化研发生产力的落后将会是跨时代的落后,不可忽视。
〇 分享亮点 〇
1、GenAI应用重构寒武纪大爆发之际,应用研发效能和“速度”再次面临的挑战和重要性;
2、LLM对传统应用研发生产带来的新变化和新趋势
3、华为关于AI4SE的探索实践分享及未来思考
4、华为关于SE4AI的探索实践分享和未来思考
5、QA
随着大模型技术的快速发展,智能终端作为人机交互的系统级入口,正在进行着全面的进化和升级。我们在各个发布会上看到的,不论是汽车的智能座舱、还是智能手机、或是IoT智能设备,以大模型技术为核心的创新功能正如雨后春笋,源源不断的涌现出来,展现出来全新的智能化体验。
虽然不同的智能终端面向着不同的用户场景,但以大模型为核心的创新功能可以大致包括如下几个方向:
1. 融合了多模态的输入信号,尤其是将语音输入结合图像(或者视频)输入的多模态功能;
2. 利用大模型强大的理解能力构建垂直Agent,让Agent具备使用工具的能力,引入更多的上下文信息,从而完成复杂任务;
3. 让通用大模型成为领域专家,充分利用领域内已经积累的知识和私有数据,通过预训练、微调或RAG的方式,准确回答专业领域的问题;
4. 对大模型的生成结果进行定制输出,包括人设或价值观、图文混排、指定展示格式、或者引用来源;
本专场将邀请智能终端的领先企业,分享在大模型技术在智能终端创新上的探索实践,帮助企业快速了解大模型最新、最全面的落地情况,为行业提供参考。
出品人:王刚 小米小爱总经理
PM:AI大模型飞速发展下用户体验的变革创新
随着全球AI大模型飞速发展,自然语言的不断兴起及完善,对传统用户体验行业的要求越来越高。如何在对消费者的安全保护及隐私更加负责的情况下,使自然语言、交互、动效、视觉、多模态等多种传统用户体验设计方向的要求更加灵活清晰;对基于用户意图的千人千面的操作方式及习惯上,AI大模型促进了全新的交互视觉形态的变化。作为AI时代的用户体验先行者,希望将我们不断尝试工作方式及体验创新总结跟与会者分享交流。
出品人:原雪梅 VIVO首席体验官
万物大模型:通往通用具身智能之路
小爱同学的大模型升级历程
〇 分享简介 〇
大模型在智能终端升级创新中,让智能终端认知能力增强不少,从模拟人类的认知过程,提高智能终端对自然语言、图像、声音等多模态信息的处理能力,使智能终端具备更强的认知和理解能力。而且,丰富智能终端的应用场景,如语音助手、智能客服、智能家居等,都为用户提供更加智能化的服务。也让智能终端的个性化体验根据用户的行为和偏好,为用户提供个性化的内容推荐、服务定制比过往优秀。总而言之,大模型可将AI、大数据、云计算等多个领域的技术进行融合,推动智能终端技术的创新发展。
过去的一年,随着大模型技术的在小米集团全终端的升级应用,小爱同学正经历着彻彻底底的技术升级,这个过程也伴随着我们对大模型技术的认知逐步进化。
本次分享将小爱同学在使用大模型技术的过程中经历的一些挑战,以及创新尝试和应对的策略,取得的成绩与与会者分享。同时,对大模型新技术的发展和智能助手的行业应用,率先进行一个领先性的展望。
〇 分享收益 〇
目标:
1、掌握使用大模型的通用对话能力时,优化时新性、品牌人设、图文混排等问题。
2、掌握使用RAG+大模型的知识注入时,优化检索召回、知识注入容错、表格图片等问题。
3、掌握使用大模型构建Agent时,优化推理准确性、降低响应时延。
4、掌握多模态大模型,优化内容安全,以提升识别准确率。
成功要点:
1、提高智能终端对自然语言、图像等多模态信息的处理能力,使智能终端具备更强的认知和理解能力。
2、大模型可以支持多种应用场景,如语音助手、智能客服、智能家居等,为智能终端提供更加丰富、智能化的服务。
3、大模型会让终端上一个大台阶,根据用户的行为和偏好,为用户提供个性化的内容推荐、服务定制等,提升用户的个性化体验。
4、大模型结合RAG技术,将AI、大数据、云计算等多个领域的技术进行融合,推动智能终端技术跨领域融合和创新。
启示:
智能终端利用大模型可以带来诸多优势和好处,但同时也面临一些挑战。未来,随着技术的不断进步和创新,智能终端与大模型的结合将更加紧密,为用户带来更加丰富和便捷的智能体验。
〇 分享亮点 〇
1、大模型技术回顾
2、大模型升级路径
3、通用对话能力
4、RAG+大模型
5、Agent构建
6、多模态大模型
7、未来展望
8、QA
人机交互的智能座舱大模型产品应用实践
〇 分享简介 〇
大模型技术的飞速发展,在自然语言理解领域和多模态建模领域带来了一系列的技术变革,从环境的理解,自然语言理解到对话管理,到用户的交互形态都在剧烈的变化,基于大模型的Agent的应用形态在迅速普及。这一切都让整个世界对人机交互的变革带来了新的期待。
数字座舱以“安心之至、全感官愉悦、极致易用、自由感和懂我”作为产品体验的北极星指标,试图构建跟用户的深度的情感链接。而这波大模型的浪潮则是为用户体验的进一步提升带来了澎湃的动力。因此,提出了人机交互,全能助手,情感伙伴的产品主张,特别是业界首创的情感引擎的方向更是引领了数字座舱产品体验发展的方向。
本次分享以蔚来智能座舱大模型应用的真实案例出发,分享情感化智能座舱背后的产品设计理念,技术架构设计,大模型的落地的技术产品匹配落地的思路,以及人机交互的真实的产品体验,特别是对情感引擎,多模态大模型,Agent等话题,更深入研讨的落地细节。
〇 分享收益 〇
目标:
1、理解在大模型的能力纷纷涌现的情况下,按照大模型技术成熟度驱动“技术产品匹配”的技术路线,既保证了新技术的迅速落地和提升,又保证持续潜力。
2、理解情感化助手作为产品方向的前提下,成功解码为技术架构并且进行实施。
3、理解将看似很美,人人讨论的“Agent”在真实的产品环境下落地:完成完整的产品设计和技术架构经验。
成功要点:
大模型在人机交互产品中的落地实践,展现了其深厚的技术实力和广泛的应用潜力。其各项能力,如自然语言的理解能力特别是多轮理解能力、In-context learning能力,以及知识问答,搜索增强和推理能力,都在真实场景中得到了充分的验证和高度的认可。
启示:
大模型的Agent在数字智能座舱的成功落实,得益于其在提升智能化交互体验、增强个性化服务能力和提高安全性及隐私保护方面的显著优势。
〇 分享亮点 〇
1、情感化座舱
2、智能体架构
3、大模型时代的智能座舱: NIO-Intelligence
1)拟人交互框架
2)NOMI 多智能体框架
3)情感引擎
4、技术底座
1)NIO-AGI
2)NOMI-GPT
3)本地算力
5、QA
基于人机交互场景分析的Agent架构、智能座舱发展
〇 分享简介 〇
大模型技术发展日新月异,尤其是在自然语言理解和AI生成上有了跨越式的进步。技术发展带来了产品和应用发展的机会。同时,也给各领域的从业者带来了非常大的挑战。智能座舱的发展趋势包括功能集成化、个性化服务、跨界合作与创新等。而智能化水平的体现更侧重于如何提升乘坐体验和车辆的智能化水平。
在智能座舱领域,大模型对传统语音对话将进行深度改造,更自然的理解能力、更有情感的多模感知能力都是目前能深入打造的重点。同时在座舱领域,应该结合车内用户高频使用的场景来给用户带来实实在在能感受到的价值。作为比较传统的车厂,组织和团队上也需要更灵活地主动适应新技术带来的发展,需要采用独立的管理模式来进行推动。
业界对大模型落地智能座舱带来的价值期待很高,但真正落地还是有一些分歧,尤其是传统车厂在落地时面临更大的挑战。选择好具体的落地场景,构建敏捷高效的组织将为此提供助力。
本次分享以吉利智能座舱为例,帮助与会者看到传统组织应对大模型带来变化的人机交互策略,深入分析吉利汽车在大模型落地上的一些细节思考,为热爱终端与人机交互、AI的与会者以借鉴。
〇 分享收益 〇
目标:
1、理解在大模型技术加持下,应该如何选择有价值的场景进行应用落地。
2、理解如何权衡旧技术和新技术的使用,以便更好地平衡投入产出。
3、理解在大模型技术时代,组织和团队应该如何做出调整,以推动技术产品的更快落地
成功要点:
1、始终把对用户场景的理解放在第一位,技术最终是为用户价值服务的,需要选择智能座舱核心的用车和出行场景,结合技术特性,进行场景体验升级;
2、需要一个灵活的团队为大模型技术的落地应用提供创新和试错的氛围。
启示:
1、智能座舱精准的智能化个性化的服务,提升驾乘体验,中枢Agent架构支持语音、触控、手势等多种多模态交互方式,自主化的能力将AI的功能从简单的交互升级为复杂的事务处理,融合大模型,增强了车载系统的综合能力,还推动了技术的标准化和创新。
2、AI Agent作为智能座舱的灵魂,对未来主机厂的发展具有重要的战略意义。它不仅是当前提升用户体验的关键,也是未来汽车行业竞争的重要领域。
〇 分享亮点 〇
1、传统语音交互的困境
2、大模型带来的变化和挑战
3、大模型使用场景分析
4、大模型落地架构
1)自学习框架
2)中枢Agent架构
3)语音技术增强
5、大模型实现方式分析
6、高效团队迎接大模型挑战
7、QA
大模型企业智能体助力用户体验与效率
〇 分享简介 〇
大模型智能体在企业中的发展正朝着深化行业应用、提升技术性能以及注重伦理治理等方向快速前进,有望在未来的企业运营中扮演更加关键的角色。
智能体作为推动用户体验提升的关键力量,其方法论和应用架构对企业的发展具有深远影响。通过精心设计的企业智能体,我们不仅能够优化用户交互流程,还能提供个性化服务,从而显著提升用户满意度。这些智能体通过深度学习和数据分析,能够洞察用户需求,预测市场趋势,为企业决策提供强有力的数据支持。
此外,企业智能体的集成应用,能够实现资源的高效配置和流程的自动化管理,为企业带来成本效益的同时,也加速了创新的步伐。总之,企业智能体的引入,不仅丰富了用户体验,也为企业发展注入了新的活力。
本次分享以联想大模型智能体的真实案例出发,分享企业智能体的应用架构,技术架构,应用场景的设计理念,特别对知识库、工具库和智能体编排等话题,更深入的研讨落地细节。
〇 分享收益 〇
目标:
1、了解企业智能体的搭建方法论
2、了解大型企业搭建智能体的架构
3、熟悉企业在智能体应用中的应用以及工具库的使用
成功要点:
1、智能体技术切入点的精准定位: 选择引入智能体技术的切入点至关重要。企业应深入分析业务流程,识别那些可以通过智能化提升效率和效果的关键环节。
2、应用场景的细致分析与ROI目标设定: 对具体的应用场景进行详尽的分析,明确智能体技术如何解决实际问题,并据此设定投资回报率(ROI)的预期目标,确保技术投入能够带来可观的经济效益。
3、知识库构建的重要性: 准备充分的知识库是智能体技术成功的基础。企业需要投入资源来整理、结构化和更新知识库,确保智能体能够访问到准确、可靠的信息,以支持其决策和操作。
启示:
大模型企业智能体在具体落地时,展现出了强大的智能化驱动力和决策力等多方面的积极效果。不仅体现企业通过生成式AI提升用户体验,还深刻影响了企业的运营效率和市场竞争力。
〇 分享亮点 〇
1、企业智能体的架构
2、企业智能体的应用场景
3、企业知识库的收敛
4、企业工具库的作用
5、QA
基于用户意图的AI感知体验设计创新
〇 分享简介 〇
当前,社会正从传统网络时代迈入深度媒介化时代,以沉浸式社交媒介与现代数字技术为代表的信息技术正渗透至社会的方方面面,重塑现代社会的传播和文化图景。ChatGPT的出现,再一次对媒介环境、社会环境和社会生态变革产生重要的影响。从而迎来了用户体验全新交互变革。
运用好用户意图的AI感知设计,可以提升产品的个性化、智能化,优化用户体验,提高设计和开发效率,增强市场竞争力,以及推动多模态信息的综合应用和增强产品的自主学习能力。AI技术为产品设计和用户体验带来了前所未有的变革。不仅带来更好的用户满意度和忠诚度,也为企业带来了新的增长机会和竞争优势。在未来的发展中,探索和运营AI技术在用户体验设计中的潜力,是保持竞争力和创新力的关键要素。
本次分享将针对自研操作系统,遵从业界多设备全场景互联的重要趋势,一起挖掘出基于用户意图的AI感知体验设计框架模型,并指导行业上各产品各场景,深度理解用户意图,结合AI能力,实现完整用户体验全链路过程。
〇 分享收益 〇
目标:
1、了解用户感知的个性化智慧场景
2、了解用户意图的关键因子
3、了解终端应用的AI多场景设计案例
成功要点:
1、AI感知的创新设计,可带来诸多落地价值,不仅提升产品的个性化和智能化,精准捕捉识别用户偏好、产品界面自适应的调整;AI根据意图还可预测和优化用户体验的全过程;借助AI技术,专注于更具创意性的工作,大大提高设计和开发效率。
2、通过AI感知和预判用户意图,产品设计可以更贴合用户需求,从而提升整体用户满意度和忠诚度。包括用户行为数据的精准营销策略,创新产品模式,都可以有效提高广告和推广活动的转化率。
3、移动设备搭载的多种信息,利于推动多模态信息的综合应用,形成精准的服务信息与反馈,这些都利于AI能够持续改进产品功能和用户体验,增强服务与产品优化。
启示:
用户意图的AI感知体验设计创新在具体落地时,展现出了强大的变革力和多方面的积极效果。不仅体现在产品设计和用户体验的提升上,还深刻影响了企业的运营效率和市场竞争力。
〇 分享亮点 〇
1、AI大模型下定义用户意图;
2、解析AI感知用户意图的关键因子
3、挖掘千人千面的个人智慧化场景
4、分析关键不同场景的高频标签
5、基于AI能力的提升,完善自研OS系统的多设备全场景体验互联。
6、QA
AI大模型发展过程中人因研究对体验创新的推动
〇 分享简介 〇
大模型促进交互多样化、拟人化,激发用户强情绪体验、认同感,以ChatGPT+AIGC为代表的AI大模型已经开始突破概念阶段逐渐在各个场景实现商业化落地,深刻影响着客户、用户、员工角色在生活、工作、学习场景中的交互和功能体验,未来随着模型持续的优化,智能强化、人机协调将促进更多元化的场景落地,个性化、人性化、一致性、可用性、耐用性的场景将无处不在,真正实现智能和人类的高效协作、和谐共生。
人因研究在AI大模型发展过程中,对体验创新的推动主要体现在用户需求挖掘、交互设计优化、个性化推荐打造、情感计算和无障碍设计等方面,为AI产品提供非常好的用户体验和用户满意度。
本次分享将深入探讨人因研究在手机OS体验提升中的思路与作用,以及AI 大模型下的体验创新的人因研究视角,这些将优化手机OS与其他设备和服务的连接和互动,打造无缝的用户体验。
〇 分享收益 〇
目标:
1、全面了解人因研究在手机OS体验提升中的研究思路及作用
2、了解AI 大模型下的体验创新的人因研究视角应用
成功要点:
根据用户反馈和市场变化,不断更新和优化手机OS,包括定期发布系统更新,修复已知问题,增加新功能,以及根据用户评价和数据分析调整优化方向,都将有利于产品体验持续更新与迭代。
启示:
AI大模型下的人因体验创新的研究视角,利用预测性、智能交互、个性化体验、数据驱动优化等当面,真正实现理解和满足人的需求,提升产品和服务的用户体验,这对于提升企业的竞争力和用户满意度有着非凡的价值。
〇 分享亮点 〇
1、AI 大模型时代下,OS新的发展趋势
2、大模型带来的体验创新的新挑战
3、人因研究的发展历程以及在手机行业的应用
4、人因研究在AI 大模型的时代创造的应用空间以及价值
5、未来人因研究的展望
6、QA
从AI/ML诞生之初,就对算力保持着强烈的需求;特别是2023年初大模型问世以后,对算力提出了更高的要求。AI基础设施通过对硬件及软件的管理 及优化,为AI应用提供了灵活、高效的算力资源。通往 AGI 的道路上,Infra 未来将定义一切。LLM 从学术研究 演变成了 数据工程科学。 在巨量的数据、模型参数、GPU 卡下, 任何模型结构和算法调优不再显得重要, 各家大模型公司实际上比的是谁的数据收集的多、质量清洗的好、配比调的优。更低的成本训练更大的模型也是AI发展的主旋律。
随着AI/ML的发展,AI基础设施也在硬件,平台,框架等方面也发生了巨大的变化;从CPU到GPU 再到xPU,从单机训练到Slurm再到Kubernetes,而在框架方面则是百花齐放,向量数据库,大模型框架 (LangChain)等。
本专场邀请AI基础设施的一线专家,分别从硬件,平台以及框架等方面分享AI基础设施针对大模型所做的性能、弹性等方面优化;并通过经典案例让与会者看到AI基础设施的总体架构及演进方向。
出品人:马达 英伟达主任工程师
飞桨大模型核心技术架构与应用
〇 分享简介 〇
当前,AI技术的发展正日新月异,引领着科技的前沿,大型语言模型(LLM)作为备受瞩目的技术突破,正在引领一场新的技术革命。深处这场人工智能技术发展的浪潮中,深度学习框架显得尤为重要,它的核心目标是让深度学习技术的创新与应用变得更加简单,从而推动AI技术的全面发展。
飞桨框架作为国内首个自主研发、开源开放且功能丰富的深度学习框架,以AI技术发展注入了强大的动力。2021年初,2.0版本问世,更是以默认采用动态图、实现动静统一与训推一体的设计理念,为开发者带来了更加便捷、高效的开发体验。近来,飞桨框架3.0-Beta 版本,标志着新一代框架技术创新之路的开启。其核心特性包括动静统一自动并行技术和神经网络编译器自动优化等新技术,为应对当前深度学习领域的新挑战有着极大的价值。
本次分享将飞桨深度学习框架的开发、硬件、AI技术发展的整体趋势,以及产业落地的多方面需求展现,让开发者学习一个“动静统一、训推一体、自动并行、自动优化、广泛硬件适配”的深度学习框架。同时,先进的框架3.0的新特性:动静统一自动并行、神经网络编译器自动优化、高阶自动微分、高扩展中间表示、多硬件适配等,为与会者AI开发带来技术借鉴,推动技术创新和落地。
〇 分享收益 〇
目标
1、为更好的满足开发者、硬件、AI技术发展趋势、产业落地的需求,分享深度学习框架总体设计
2、为更好的满足大模型迭代需求, 分享深度学习框架动静统一自动并行技术
3、为更好的支撑用户需求,分享深度学习框架关键技术,包含PIR、编译器、组合算子等
成功要点:
动静统一的框架设计理念,能够兼具灵活的用户体验和高效的运行效率,是取得技术领先型的关键。
启示:
深度学习框架需要充分思考用户需求,并充分预判未来技术趋势,对架构进行不断升级迭代,更好满足用户需求。
〇 分享亮点 〇
1、飞桨框架总体设计
1)分享人工智能相关技术栈
2)深度学习框架的需求和思考
3)飞桨总体架构设计
2、动静统一自动并行
1)动转静(动态图转静态图)的关键技术
2)飞桨高扩展性中间表示(PIR)
3) 自动并行的开发模式和业务落地
3、飞桨框架关键技术
1)高阶微分介绍
2)组合算子机制
3)深度学习编译器技术和业务落地
4)多硬件适配方案
4、总结和展望
5、QA
AIGC时代下高性能文件存储的智算创新实践
〇 分享简介 〇
随着AI技术的迅猛发展,大模型训练与AIGC应用对存储系统提出了更高要求。数据规模爆炸性增长、训练周期延长及实时性需求激增,使得传统存储系统面临容量、性能与成本的多重挑战,成为AI创新应用的瓶颈。
面对AI时代的存储新挑战,我们深刻认识到技术创新与架构优化的紧迫性。需要研发创新存储解决方案,重构文件存储访问路径,才能实现存储性能与效率的显著提升。我们坚信,只有深入理解AI应用需求,才能精准解决存储痛点。
本次分享将聚焦于AI时代的存储新挑战,阐述UPFS等创新实践通过核心技术架构优化,结合GPU Direct和DPU,实现存储访问效率飞跃,助力企业高效应对大模型训练挑战。同时,展望泛HPC场景下高性能文件存储的演进趋势,探讨存储技术如何适应AI时代的需求变化,助力企业突破存储瓶颈,加速AI创新应用落地。
〇 分享收益 〇
目标:
1、深入理解AI存储挑战:了解AIGC的IO特性,为优化存储策略提供坚实基础
2、掌握前沿技术架构:通过UPFS案例,学习其核心技术架构与优势,了解如何运用先进技术提升存储性能
3、洞察行业发展趋势:探讨泛HPC场景下高性能存储的演进方向,把握存储技术的最新趋势及其在AI时代的应用前景
成功要点:
融合前沿技术,实现存储性能与成本的双重优化,利于行业拥有一个可复制、可扩展的AI存储解决方案,是智算未来的重要课题。
启示:
技术创新与业务需求的深度融合是推动行业进步的关键。技术创新需要紧密围绕业务需求展开,以用户为中心,持续迭代优化,从而在AI时代中保持竞争力,实现业务价值的最大化。
〇 分享亮点 〇
1、AI时代的存储新挑战
1)大模型训练各阶段对于存储的需求
2)AIGC的IO特征分析
3)当前存储系统的局限性
2、UPFS应对存储挑战的创新实践
1)UPFS的核心技术架构和优势
2)使用GPU Direct和DPU重构文件存储访问
3)UPFS在大模型训练场景下成功案例分享
3、泛HPC场景下高性能文件存储的演进展望
1)如何应对AI时代不断变化的存储需求
2)存储技术的最新发展趋势及运用在泛HPC领域的可行性
3)高性能文件存储的演进展望
4、QA
Flame: 新一代的AI推理框架
〇 分享简介 〇
伴随着企业AI技术被广泛的应用到生产环境中,智能工作负载量呈螺旋式增长,选择和部署一个高效的智能负载调度系统变得至关重要。一个综合考虑了低延迟、高吞吐量和可扩展性的智能负载调度系统将有助于支持企业的AI应用,并确保系统在不断变化的环境中保持高效。
Flame是一个智能工作负载调度的分布式系统,它提供了许多针对人工智能/机器学习、高性能计算、大数据等工作负载需要的一套通用调度机制。它将尽可能地将工作负载扩展到多个节点用以进行加速计算;Flame 不仅将调度工作负载,还将调度数据。Flame 将引入分布式缓存,并将其与资源调度一起以提高数据共享;智能工作负载包括数万个短任务;Flame 利用最新特性(例如 Future, CondVar)在大规模环境中提高往返时间和吞吐量。
本次分享将探讨Flame平台在可扩展性,数据共享,混合工作负载以及吞吐量四个维度如何满足不同用户的使用场景需求,结合企业用户使用场景,会为与会者带来非常有价值的技术洞见。
〇 分享收益 〇
目标:
1、深入了解智能工作负载的特点,结合分布式调度系统的经验为AI任务调度平台赋能。
2、帮助企业了解AI推理任务在实际生产中的应用。
3、帮助用户构建一个通用的智能工作负载调度系统,以提高用户资源利用率。
成功要点:
1、分布式工作负载调度与数据缓存技术相结合,从而节省数据传输时间,增加集群任务吞吐量。
2、从用户使用场景出发,构建智能工作负载调度系统,提升资源使用率。
启示:
推理框架通过其高性能、高效能、广泛兼容性和灵活性等方面的优势,给开发者的工具和平台,更多的加速深度学习推理应用的开发和部署,利于更多构建 AI 开发相关应用。
〇 分享亮点 〇
1、Flame平台适用场景
2、Flame技术架构及核心组件
1)Flame API
2)Session manager
3)Execute manager
3、Demo
1)Monte Carlo计算Pi
2)矩阵乘法。
4、Flame roadmap技术路线图。
5、QA
字节跳动基于 OpenSearch 构建 RAG系统实战
〇 分享简介 〇
RAG 技术在当下的信息检索领域是一项关键技术,其把检索与生成相结合,以此提升生成文本的质量及准确性,从而得到更具语义连贯性和信息准确性的结果。不过,针对海量文档的信息检索存在一些核心问题,也就是怎样在有限的预算内实现高效、准确且安全的信息检索与增强。
OpenSearch 作为一款开源且在向量检索、混合检索等场景已颇有建树的搜索分析套件,目前已在字节跳动内部得到广泛应用。凭借 OpenSearch 所具有的海量数据、调优工具以及实践经验的优势,构建更为精准高效的模块化 RAG 系统成为了一个富有意义的解决办法。
本次分享字节云搜索构建向量化引擎的实现思路,帮助企业利用多路召回和混合搜索能力,以及干预方法进行精准检索,同时介绍对 Embedding 模型、ReRanker 模型、大模型采用的模块化可插拔的实践,探讨不同业务需求中如何通过规则引擎简化流程、降低成本、提高准确度。同时,为大家分享实现符合当前需求的多模态检索,以及在不同行业和场景中应用的典型案例的最佳实践。
〇 分享收益 〇
目标:
1、了解结合传统检索方式,借助 OpenSearch 的搜索能力和模块化设计构建一个更便捷、可扩展的RAG系统。
2、基于对RAG系统的基础概念和构建方法,进一步应用RAG在智能问答、搜推应用、混合搜索等不同场景中的实践案例。
成功要点:
RAG 技术把检索与生成相结合,提升文本质量及准确性;利用 OpenSearch 的优势构建精准高效的模块化 RAG 系统。
启示:
在不同的业务需求中,可以通过规则引擎简化流程、降低成本并提高准确度,不同场景也能借此找到符合自身需求的多模态检索方案。
〇 分享亮点 〇
1、RAG检索的挑战
1)字节跳动使用方式与规模
2)存在的挑战,why OpenSearch
2、基于OpenSearch构建RAG系统
3、典型案例最佳实践
4、QA
Project-HAMi开源异构算力切片技术
〇 分享简介 〇
异构算力设备已经逐渐成为机器学习产品和服务中的常态化需求,近年来国产异构算力发展迅速,产生了一批相当有竞争力的产品。但,其相对封闭的生态与云原生粗粒度的分配方式造成了生产环境中异构算力的使用率往往不尽如人意。如编程模型的复杂性、不同硬件之间的兼容性问题、系统的可扩展性和维护成本等。随着技术的不断进步和生态系统的成熟,预计这些问题将逐渐得到解决,异构计算的应用也将越来越广泛。
为了解决这些问题,需要对接入云原生的异构设备进行切片,使任务可以使用一部分的设备,这样,多个任务可以同时无害的运行在一张卡上
本次分享将云原生集群中,不同的异构算力通过算力切片的技术,进行资源整合,以此降低国产异构算力的使用门槛,解决资源分配粒度过粗的问题,从而提升集群中异构算力设备利用率。为AI技术开发者提供借鉴。
〇 分享收益 〇
目标:
1、了解了异构算力更高效的使用方式
2、了解国内异构算力产业和云原生异构算力管理的一些瓶颈与难点,
3、了解异构计算技术的实现案例与方案,从而提升集群整体利用率。
成功要点:
1、异构计算平台将成为支持深度学习、机器学习应用的重要基础设施,同时对数据中心优化提升速度降低能耗。
2、算力切片技术将会成为未来集群中提升异构算力利用率的关键技术
启示:
Project-HAMi基于其构建的整合多种异构算力切片的集群实践具有很高的价值,可以为企业和研究机构提供更高效、灵活和可靠的计算资源解决方案。
〇 分享亮点 〇
1、背景与趋势
1)云原生已经成为标准的集群编排方式
2)异构算力已经成为MLOps不可或缺的一环
3)国产算力发展迅速,竞争力逐年上升
2、产业痛点
1)算力资源按“整卡”分配,利用率低下
2)无可靠的异构资源硬隔离机制
3)国产异构算力生态割裂,难以统一管理
3、异构算力池整合与虚拟化方案设计
1)GPU资源虚拟化方案
2)国产异构算力虚拟化方案
3)异构算力资源整合方案
基于Ray搭建面向AI服务的机器学习平台
〇 分享简介 〇
AI领域正经历着一场深刻的变革,这不仅大大加速了相关应用的发展,也导致了GPU的短缺。如何提高GPU资源的利用效率并缩短项目的落地时间,已经成为每个企业急需解决的问题。
亿贝对机器学习业务落地中的痛点进行了详细调研,总结了不同业务部门都面临的开发与生产环境的割裂、工程师和数据科学家之间的高沟通成本,线上资源使用率的保障等挑战。同时,生成式AI领域的快速发展,也带来了大量新的业务模式,这些模式同样需要新的能力支撑。为此,设计了下一代机器学习平台,从平台角度出发,全面支持公司内部的所有机器学习业务。
本次分享将结合实际案例,探讨Ray在四个关键生产场景中的应用:1)批量推理、2)近实时特征工程、3)分布式训练、4)AI服务构建。详细讨论每个场景下所面临的具体挑战,并提供应对这些挑战的解决方案。
〇 分享收益 〇
目标:
1、在全球AI快速发展,GPU短缺的背景下,帮助企业应对人工智能变革带来的挑战。
2、深入剖析提高GPU的利用效率,并加快AI项目的迭代速度。
成功(或教训)要点:
1、借助开源社区所提供的灵活性和扩展性,降低团队协作成本,提升硬件资源使用效率,从平台能力出发帮助各个业务部门快速落地他们的解决方案。
2、先进的机器学习平台,可为批量推理、近实时特征工程、分布式训练和AI服务这四大场景提供了高效的一站式解决方案,不仅显著提升了GPU资源的利用效率,很大程度缩短时间成本。
启示:
平台能力是为业务服务的,而不同的业务往往有着类似的需求,通过深入具体场景,企业才能够构建出更加通用高效的平台能力,更好的为业务服务
〇 分享亮点 〇
1、机器学习平台领域的背景与挑战
2、需求分析:eBay下一代机器学习平台的业务背景
3、Ray和MLP2.0:通过平台能力服务业务需求
4、业务案例分析:新一代机器学习平台在业务落地中的应用
1) 批量推理
2) 近实时特征工程
3) 分布式训练
4) AI服务
5、平台经验分享:
1) 系统架构设计
2) 开源社区协作
6、QA
面向大模型的云原生算力架构设计
〇 分享简介 〇
在全球AI浪潮与政策推动下,AI大模型掀起全球人工智能浪潮,算力作为其基础“底座”至关重要。各地政策推动算力发展,优化布局,形成了积极的产业环境。构建高效、灵活、稳定的云原生算力管理平台,成为加速大模型落地实践的关键。
云技术以AI浪潮为契机,对算力管理平台的发展与痛点进行了深入细致调研,总结了不同算力供应商都面临的异构或异地算力的难以管理、算力供应与需求之间的矛盾、算力资源利用率的提升等问题与挑战。同时,围绕云原生的能力与价值,确定了云原生是算力基础设施建设的核心技术。为此,设计了基于云原生的算力管理平台,使大规模的训练、推理任务更为高效、可控。
本次分享主要聚焦帮助企业构建云原生算力架构,最大化发挥算力资源效能,让大模型的研发人员能够更好地聚焦于模型的创新、算法的突破,为各行各业的发展提供更为强大的动力。
〇 分享收益 〇
目标:
1、分享云原生算力基础设施的概念和原理,帮助大模型开发者、算力提供者拓展对现代科技基础设施的认知。
2、深入研究云原生算力架构,驱动大模型创新实践,借助实际案例,更好的帮助企业支撑需求,加快大模型迭代开发。
成功要点:
云原生的算力管理平台,可灵活、扩展、高性能、精细化的统一管理与调度能力,为异构算力统一管理与运营带来一站式解决方案,不仅为大模型应用、算力运营等提供强大的底座支撑,同时加快大模型开发部署效率。
启示:
云原生算力基础设施的建设是为AI领域服务,可以从AI大模型拓展到更多相似的业务支撑场景,在落地具体应用场景时需要充分考虑实际使用场景与未来发展趋势,对基础架构进行更新迭代,更好支撑多样化算力需求的多样化场景。
〇 分享亮点 〇
1、大模型趋势
1)算力对大模型创新实践的重要性
2、面向大模型的云原生算力架构关键要素
1)整合异构分散算力形成强算力
2)分布式并行架构支持大模型的创新效率
3)灵活扩展保证算力底座的可用性
3、面向大模型的云原生算力架构技术介绍
1)技术架构详解
2)双层调度器调度调度原理
3)细粒度资源计费计量技术
4)模型即服务-云原生AI平台
4、未来展望
5 、QA
智能化已经成为大数据产品的核心产品力之一,拥抱大模型技术浪潮,赋能数据工作是企业关注的重点。数据平台和数据链路智能化,关键要素与最佳实践以及落地卡点影响企业业务,产品交互沉淀的数据是真正的壁垒。
大模型在智能应用上会结合智能体框架、平台应用,才能真正让大模型长出手脚,真正跟企业的业务系统,以及整个互联网充分打通。
本专场将聚集头部顶尖企业与行业前沿实战案例,分享领域大模型、AI原生数据治理、智能体框架、智能平台等先进研发范式与商业化,帮助企业探索更多深度化、产业化、垂直化、定制化的数据智能创新。
出品人:杨晓峰 腾讯大数据平台负责人
AGI时代的统一元数据基座
〇 分享简介 〇
在AGI时代,构建一个高质量的LLM应用,数据变得非常重要,无论是数据的覆盖范围,还是数据的准确性都决定了LLM应用的质量。更为重要的是LLM使得非结构化数据的作用变得无比重要。获取到并管理海量的结构化尤其是非结构化数据,全链路支持LLM的训练、调优、推理所需要的数据,成为每个企业亟待解决的问题。
通过构建统一的元数据底座,统一管理异构、跨域、跨云的多种类型数据,并打通对数据、AI引擎的对接,使得用户可以一站式获取数据,大大降低了用户数据获取的复杂度,依托更为丰富、准确的数据能够打造更好的LLM应用。
本次分享企业在AGI时代所面临的最直接的数据挑战,涉及高效地管理、获取全域数据、统一地进行数据治理和权限控制;以及平滑集成数据和AI框架构建统一的data agent。为企业带来这些创新技术在一线的落地情况和最佳实践。
〇 分享收益 〇
目标:
1、获得统一管理、获取AI数据,并构建高效的data agent有更多的实践经验。
2、了解统一的结构化和非结构化数据模型管理异构、跨域、跨云的数据,统一的权限模型管理云上云下数据,高效集成Langchain、LlamaIndex构建统一的data agent。
成功要点:
高效、统一、企业级的统一数据管理一直是各企业构建数据平台所追求的目标,在AI时代,传统的数据管理方式和AI的新数据需求存在着脱节,打破现有的桎梏,面向AI构建新型的元数据基座为企业在面向AGI高效、统一地管理数据提供更好的解决方案。
启示:
统一的元数据管理架构为企业打造data for AI平台提供新的架构和能力
〇 分享亮点 〇
1、AGI时代传统数据管理和治理方式所存在的问题。
2、现有的技术在解决这些问题上所面临的挑战。
3、Apache Gravitino是如何解决AI时代的统一数据管理。
1)如何实现统一的数据模型,统一结构化和非结构化数据。
2)如何实现统一的异构、跨域、跨云数据视图。
3)如何构建统一的权限模型统一管理云上云下数据。
4)如何使用Gravitino构建一个高效的data agent。
4、如何基于 Gravitino 的构建数据管理平台
1)为什么需要构建统一的数据管理平台
2)为什么选择Gravitino作为统一的元数据基座
3)小米在构建过程中所遇到的挑战,以及如何解决这些问题的。
5、总结
基于AI的BI数据消费新范式
〇 分享简介 〇
商业智能(BI)作为企业数字化进程的传统核心议题之一,让业务人员常陷入业务环境的瞬息万变与数据分析资源有限之间的矛盾漩涡,企业数据与业务的复杂性,加之传统BI软件操作门槛高、成本负担重,构成了数据分析敏捷化的障碍。面对这些挑战,如何寻觅破局之道,成为了业界共同思考的焦点。
大模型的崛起,尤其是具备强大对话、代码能力的大模型,让商业智能这一传统领域有了"老树开新芽"的可能。但大模型在这一领域的应用,除了模型具备较强的常识理解和推理能力之外,还需要解决企业自身业务、数据结合的问题。传统的插件式NL2SQL方案,受限于LLM与企业知识、系统环境的脱节,会面临很多挑战。因此,构建适配LLM特性的BI软件架构,成为AI时代BI发展的必须思考的问题。
本次分享将聚焦于瓴羊在构建面向企业提供商业分析能力的Quick BI 智能小Q,在企业不同场景中面临的技术挑战与创新解决方案,以及在不同行业中的实践应用心得,激发与会者对于BI未来发展方向的深层次思考。
〇 分享收益〇
目标:
1、深刻理解LLM在BI场景下的实际应用限制与挑战;
2、构建专为LLM设计的原生系统架构,以最大化其在数据分析中的效能;
3、优化LLM的数据分析算法,确保其在复杂业务场景中精准且高效地运作。
成功要点:
1、要充分和BI场景做深度集成。这不仅是产品设计上的重定位,背后也是系统的重新架构。只有这样,才能更好将大模型的强大通用常识和推理能力和企业专业数据场景结合起来。
2、数据分析领域,对大模型的精确推理、理解能力提出了更高的要求,经过更专业的数据、任务调优后的大模型更擅长处理BI领域复杂的数字、规划、推理任务。
3、大模型除了完成基本的Text2SQL任务之外,还需要具备理解、澄清、建议、执行的智能化助手能力,才可成为企业级的智能助手。
启示:
尽管LLM为BI带来了前所未有的机遇,但要实现其潜力,必须正视并解决与之相伴的挑战。通过定制化的系统架构和算法优化,可以有效克服LLM在BI场景中的局限,从而开辟出一条全新的数据消费路径。在AI赋能的BI新时代,企业不再受限于传统的数据处理瓶颈,而是可以通过创新的系统架构和算法优化,释放LLM的潜能。
〇 分享亮点 〇
1、企业商业智能分析发展简史
2、LLM应用于BI场景面临的主要挑战
3、LLM时代如何构建LLM Native 的系统架构
4、Quick BI 智能小Q结合企业场景的LLM数据分析算法优化方案
(核心技术知识点包括但不限于:LLM Native 的BI软件架构、NL2SQL、NL2API)
5、QA
大模型赋能数据研发智能技术
〇 分享简介 〇
当前数据研发面临着门槛高、研发链路长、研发成本不断激增等问题。如今,拥有强大的语言理解、知识推理、代码生成能力的大模型技术,为企业带来了新的机遇,使得以自然语言交互方式高度自动化执行复杂任务成为可能。
基于大模型核心能力进行数据研发自动化与智能化升级,降低数据研发的门槛,实现数据普惠,打造人人都是数据分析师的大数据生态;通过这方面的能力建设,让企业中大多数人员能近乎“零门槛”地从数据中获益,实现数据民主化、数据科学公民化。
本次分享将探讨大模型技术如何催生腾讯大数据研发的新范式;内容涵盖大模型技术背景以及机遇,并深入讨论大模型在数据普惠场景中的应用,以及AI Agent技术如何驱动全生命周期数据研发范式再造。
〇 分享收益 〇
目标:
1、了解数据研发智能化技术及落地实践
2、了解数据研发智能体与工具算法实践经验
成功要点:
大模型AI Agent技术驱动的数据研发全生命周期范式再造,技术落地经验分享
启示:
在Data+AI的战略目标下,启发着理解数据研发需求以及大模型技术能力边界,从而更加合理地设计与优化智能化技术,实现数据普惠愿景
〇 分享亮点 〇
1、数据研发背景与挑战
2、大模型技术机遇
3、能力建设与应用效果分享
4、总结与展望
5、QA
数据智能加速DataOps的探索与实践
〇 分享简介 〇
金融行业的数字化转型已经开展了多年,相较于其他行业处于相对领先的地位,如何打通数据壁垒,如何在确保数据安全的前提下充分挖掘数据价值,以及如何提升数据研发工作的ROI,是数据工作的核心。
随着近两年,DataOps理念的发展以及人工智能技术的普及,构建更高效,更自动的数据研发工作方法,实现以数据驱动、智能驱动的数据研发工作模式,成为新的热点。
面对技术革新的浪潮,基于全域元数据信息的“主动智能”数据研发理念,旨在将智能化能力深度融入DataOps的各项环节中。
通过这一理念的应用,可提升数据管理与分析的效率和质量,推动金融机构实现更精准、更快速的数据驱动决策。在“主动智能”的框架下,数据研发过程被赋予了更高的自主性和适应性,能够实时响应业务需求的变化,优化资源配置,并促进跨部门协作,从而构建起一个高效、灵活且智能化的数据生态系统。
本次分享通过数据资产平台践行 DataOps理念,实现数据研发一站式管理。并应用大模型及各类数据智能算法,实现基于全域元数据信息的“主动智能”,在数据需求管理、代码补全、代码生成等方向,给与会者非常好的借鉴。
〇 分享收益 〇
目标:
1、探讨新技术下,数据研发工作的发展趋势和方向,
2、针对金融领域特行业属性,展开分析
3、充分挖掘智能化能力,提升数据研发与管理的效能。
成功要点:
构建全面覆盖的数据资产平台,整合并打通各个模块之间的数据壁垒,是实现DataOps理念的关键基石。借助人工智能技术的力量,充分挖掘及灵活运用元数据信息,开辟了提升数据研发效率的新路径。这些在新技术的驱动下,数据研发领域能展现出全新的面貌与活力。
启发:
数据价值的发掘是一项连续性的机遇探索与优化过程,尽管数据开发已经是企业数字化转型中的常规工作,然而在这一领域内,持续地对既有数据进行优化整合、不断地提升数据分析方法与工具,仍能实现研发效率的进一步提升。
〇 分享亮点 〇
1、当前金融行业数据智能领域的发展趋势
2、中电金信在数据资产平台产品的架构设计与实践
3、人工智能能力助力DataOps开发
4、QA
AI驱动下的企业级数据分析及营销智能
〇 分享简介 〇
当前,人工智能与数据分析的结合正在深刻变革各行各业。然而,尽管AI在处理海量数据、提供洞见方面展现出巨大潜力,但其并非万能。许多复杂问题仍需通过AI结合工程技术来有效解决。也就是说,AI的实际应用需要在特定场景中通过工程化的实践,才能发挥其最大效能。这一趋势揭示了AI技术落地的痛点,即单纯依靠AI技术无法解决所有问题,必须注重AI与工程的深度融合。
在此背景下,我们强调“场景闭环,小步快跑”的理念。在实际应用中,应以具体业务场景为导向,通过不断试验和快速迭代,逐步实现AI技术的落地和优化。这种方法不仅能有效降低风险,还能在实践中不断调整和完善技术方案,从而更好地满足业务需求。通过逐步推进,可以在实践中发现并解决问题,积累宝贵经验,为AI的进一步应用奠定坚实基础。
本次分享将重点探讨AI与数据分析在营销智能中的应用,特别是在数据营销场景中的AI实践案例。通过具体的应用实例,希望向与会者展示AI技术如何在真实场景中发挥作用,并分享在此过程中积累的经验与教训。此外,也将探讨当前AI应用面临的挑战和未来的发展方向。为与会者提供有价值的参考和启示,推动AI技术在实际业务中的进一步应用与发展。
〇 分享收益 〇
目标:
1、提升参与者对AI在数据分析和营销领域应用的理解与知识。
2、通过展示数据营销场景下的AI实践案例,了解AI技术在数据洞察、营销诊断中的运用效果。
3、探索AI营销智能的未来发展方向,预见行业内潜在的挑战与机遇。
4、借鉴面对未来数据分析和营销智能的发展策略
成功(或教训)要点:
AI以自动化数据预处理、实时数据流处理、智能调度等手段,优化数据处理流程,显著提升数据资产分析的准确性和效率,以具体案例实践,展现企业优化数据分析流程与智能场景,提升营销决策的效率和效果。
启示:
AI的成功应用不仅依赖于先进的算法和技术,更需要结合具体业务场景,通过持续的实践和迭代,不断优化和提升技术方案,才能真正实现业务价值的最大化。
〇 分享亮点 〇
1、AI与数据分析
2、AI驱动的营销智能
3、神策的数据营销场景AI实践
4、挑战与展望
AI原生数据应用开发实践
〇 分享简介 〇
随着大模型技术出现,数据应用开发与数据智能应用发生了很大的变化,数据智能应用开发的范式从基于数据处理、加工和计算的范式逐渐演变成基于大模型与数据高度融合的AI原生数据应用的开发范式。
通过对话式智能交互来实现数据加工、分析与智能洞察,以及通过AI智能体实现自动化数据处理与数据运维等,为企业数据平台智能化升级带来了新的可能。
本次分享将从架构思考、框架实现、应用开发到业务赋能,以数据驱动的 AI 原生数据应用框架与传统数据平台的深度融合,帮助企业全面实现AI原生数据应用开发的实践与应用。
〇 分享收益 〇
目标:
探讨大模型时代的AI原生数据应用开发的设计与实践。
成功要点:
以数据驱动的 AI 原生数据应用框架与传统数据平台的深度融合,实现企业数据平台在智能数据开发、智能数据运维和智能数据分析等方面实现数据平台智能化升级。
启示:
新的数据应用开发范式,可促进企业数据平台智能化升级。
〇 分享亮点 〇
1、大模型时代的数据应用架构思考:从传统到AI原生
1)大模型时代的数据智能应用
2)数据驱动智能体的决策
3)传统数据应用开发到 AI 原生应用开发,框架设计
2、数据驱动的AI原生数据应用框架实现:AI与数据的融合
1)智能体工作流表达式语言(Agentic Workflow Expression Language)设计理念和实现
2)数据驱动的 Multi-Agents 设计和实现
3、应用开发与生产落地实践:从原型到落地应用
案例:京东零售数据智能数据开发和智能数据运维落地实践
4、总结、展望
5、QA
ChatBI:大模型驱动下的数据分析技术探索和实践
〇 分享简介 〇
AI与BI的深度融合为企业带来了广泛而深入的应用价值。从智能营销到智能供应链管理,再到智能财务和人力资源管理,每一项应用都显著提升了企业的运营效率和市场竞争力。这种融合打破了传统数据分析的局限,还开辟了新的业务场景和决策模式。
数字化时代,无论产品研发、市场营销、财务管理还是客户服务,在经营各环节使用数据支撑决策已成为企业的日常,企业数据分析需求暴增,策划、运营、用户体验、QA等不同岗位都有用数的需求,临时或紧急的需求占比很高。然而,由于数据分析流程的专业性和分析人才的稀缺性,传统数据分析显得耗时而低效。这一极度困扰的局面,一直持续到AIGC技术的发展,各种类ChatGPT产品或AI+BI出现,其中最需要核心解决的是由于训练数据不足、文本与表示之间的编解码错误等因素产生的“AI幻觉”,提升数据分析的可信度。
本次分享将阐述在克服AI幻觉,达到“需求可理解,过程可验证,用户可干预,产品可运营”的可信ChatBI的架构设计思考,以及AI融合BI,成功落地企业端生产的最佳实践。
〇 分享收益 〇
目标:
1、理解大模型在数据分析领域的探索和实践经验。
2、通过分享chatBI 的成功客户落地案例,让与会者真正了解如何让数据分析从 AIGC 中受益。
3.、帮助与会者启发对数据分析和AI技术融合的深度思考。
成功要点:
1、经过专业的微调训练后的 NL2SQL 大模型,能够真正的理解用户分析意图,将用户的自然语言转换成可进行数据查询的sql。将 SQL 转换成图表描述语言,可让整个数据查询过程做到更加可信。
2、将大模型技术和BI深度结合,以及工程和算法深度结合,二者相辅相成,完美打造更智能的数据分析应用体。
启示:
ChatBI在数据分析领域提升数据分析的效率和易用性、实时性与灵活性的增强、改进数据可视化、推动智能化与自动化的发展。大模型技术在智能分析领域很重要,但,也离不开产品工程化的技术保障,只有综合考虑各种细节以及用户面临的痛点,才能真正让chatBI在业务场景中落地。
〇 分享亮点 〇
1、 阐释ChatBI相较传统 BI的领先优势
2、网易结合大模型在数据消费模式下的多重探索与能力
3、ChatBI面对的技术难点和挑战
4、网易 ChatBI 的架构设计和技术实现
5、自研 NL2SQL 领域大模型的优势
6、网易 ChatBI 开放能力及落地应用案例
7、网易 BI 未来在 AI 发展方向上的规划
8 、QA
随着人工智能(AI)和大规模语言模型(LLM)技术的迅猛发展,二者在各行业的融合应用已成为推动技术革新和商业变革的重要力量。AI Agent,作为自主决策和任务执行的智能体,在金融、医疗、制造等领域展现出卓越的效能。通过运用LLM,AI Agent能够理解复杂语言指令、生成自然语言回应,极大提升了人机交互的效率和自然度。
在金融行业,AI Agent搭配LLM技术可实现智能投顾、风险控制等功能,通过对市场数据的深度学习和自然语言处理,提供实时、精准的投资策略和风险预警。在医疗领域,结合LLM的AI Agent能够辅助医生进行诊断,通过分析病历和相关文献,提出可能的诊疗方案,提高诊断的准确率和效率。此外,在制造业,AI Agent与LLM的融合使智能生产管理成为现实。通过对生产数据的实时解析和指令生成,AI Agent能有效优化生产流程,提高生产力和产品质量。除此之外,各行各业都如火如荼的进行LLM的应用与实践。总之,AI Agent与LLM的结合不仅在技术上实现了自然语言理解与智能决策的深度融合,更在实际应用中展现出广泛的前景,推动行业迈向智能化和高效化的新高度。
本专场将邀请行业专家,让大模型相关与会者看到许多AI Agent智能体实践场景,一个个鲜活场景的应用,驱动企业实现大规模应用落地。
出品人:陈祖龙 阿里巴巴企业智能算法负责人
MetaGPT:重塑自然语言编程,多智能体引领模型训练的革新探索
〇 分享简介 〇
当下,大语言模型以其强大的自然语言处理能力,成为AI领域的一大热点。不仅能生成和理解文本,还能进行复杂的分析和推理。自然语言编程和全自动机器学习等技术迅速发展,让企业普遍面临着数据处理和模型训练的挑战。传统编程方式存在瓶颈,而新兴技术MetaGPT和全自动机器学习框架为企业带来了新的解决方案。
多智能体被视为一个智能体社会,MetaGPT、全自动机器学习框架等主流案例,以及自然语言编程的前景,与多Agent组成协作处理更复杂的任务;通过将SOP融入到多智能体协作中,解决幻觉问题;通过结构化协调和模块化输出,能够有效地解决复杂的多智能体协作问题。这种设计更符合人类组织的运作模式。
本次分享将引领观众了解当前技术趋势,并利用新兴技术解决企业面临的挑战,特别是在数据处理、模型训练和自然语言编程方面的应用,同时,探讨智能体在数据处理和模型训练中的角色,以及模型效果增强的关键方法。
〇 分享收益 〇
目标:
为行业带来关于新兴技术应用的启示,为企业在数据处理和模型训练领域提供借鉴意义。
了解MetaGPT、全自动机器学习框架等技术的潜力,并强调完整堆栈对于自然语言编程的重要性。
成功要点:
帮助行业了解新技术在数据处理和模型训练中的应用,提高企业的技术水平和竞争力,同时加速解决企业在编程、数据处理等方面的难题
启示:
在面对数据处理和模型训练等挑战时,多智能体的价值不仅在于其协同处理任务的能力,更在于其反映了人类组织运作模式的智慧。通过引入多智能体协作,我们可以更好地理解和模拟人类社会的复杂性,从而更有效地解决企业面临的问题。
〇 分享亮点 〇
1、MetaGPT和全自动机器学习框架的应用案例分析。
2、自然语言编程的前景与挑战。
3、智能体在数据处理和模型训练中的角色。
4、模型效果增强方法及实际效果验证。
5、完整堆栈在自然语言编程中的必要性与实践。
6、QA
基于标签+指标,LLM Agent在数据分析领域的技术与实践
〇 分享简介 〇
大模型在数据分析领域的落地对于推动企业数字化进程有重要作用。基于大模型智能分析Agent可以实现以自然语言交互获取并使用数据,降低企业数据消费的门槛,大幅提升数据在企业的经营决策以及日常业务流中的参与度,引领数据民主化和价值化的新纪元。
LLM Agent不仅能够理解用户分析意图和连接分析流程,还能实现分析问题的下钻,从而引导企业用户完成自助式的探查分析。此外,智能分析Agent叠加了指标和标签语义层后,更佳地让数据分析结果更准确、灵活和全面,为企业智能决策提供数据支持。
本次分享将深入探讨LLM Agent重塑企业分析流程的重要作用及成功实践,让企业理解当前大模型在数据分析领域的创新应用,利于企业搭建数据分析Agent,并赋能企业发展提供可借鉴的落地实践。
〇 分享收益 〇
目标:
1、掌握基于指标+标签的分析Agent能力搭建企业分析平台
2、了解分析的规划器和记忆的设计思路
3、了解具体行业用户在落地搭建分析Agent中的难点和解决思路
成功(或教训)要点:
解决当前企业数据分析方案的不足,通过构建语义层,实现NLP2Metrics+Label,让非技术人员能够以自然语言灵活用数、下探归因,解决大模型幻觉问题,实现数据民主化。
启示:
基于标签和指标的LLM Agent在数据分析领域的技术与实践具有显著的价值,主要体现在提升数据分析的自动化程度、准确性和智能性上。通过多模态数据处理、知识与记忆增强、推理与规划等能力的整合,LLM Agent为企业提供了强大的数据分析支持,助力企业在数据驱动的决策中取得优势。
〇 分享亮点 〇
1、企业数据分析的难点和挑战
2、行业通用企业数据分析Agent的实现方案和不足
3、指标和标签能力在搭建企业数据分析Agent时的技术创新点
4、如何设计分析的规划器和记忆
5、应用案例分享和探讨
6、展望和思考
7、QA
具身智能机器人:开放域多模态推理智能体
〇 分享简介 〇
具身智能的历史可以追溯到人工智能领域的早期阶段,随着技术的不断进步和发展,具身智能引起了越来越多的关注和研究。研究者们在感知、决策和行动的具身基础框架与端到端框架中,探索如何使机器能够像人一样感知周围环境、做出决策和执行行动。
在开放世界中,以视觉语言模型为基础的具身感知成为研究的热点,通过这种模型,机器能够更好地理解和处理复杂的视觉信息。与此同时,具身智能体与模糊需求下的机器人的任务规划也成为了研究的重点之一。更重要的是,具身操作大模型依然存在较大瓶颈,但涌现出新的技术路线和方法。我们将分享开放域推理智能体、人形机器人行走和操作控制、人形机器人核心部件三个方面的议题。
本次分享将在商业化层面,把具身智能机器人的商业化路径和垂直场景探索,轮臂机器人和高端仿人机器人的商业化落地场景,具身智能机器人落地的市场策略,高端仿生女性机器人公司的生态位置,清晰的呈现给对具身智能感兴趣的与会者。
〇 分享收益 〇
目标
1、了解开放世界中以视觉语言模型为基础的具身感知和感知记忆
2、了解多模态具身智能体与模糊需求下的长周期机器人任务规划
3、了解具身控制中模仿学习、深度强化学习的技术路线选择
4、了解生成式训练智能体与具身控制中如何提升泛化能力
5、了解具身智能和人形机器人的行业洞见和商业模式探索经验
成功要点
全面从开放域推理智能体、人形机器人行走和操作控制、人形机器人核心部件三个方面的议题,理解与了解具身智能机器人脑、体、肢的全栈技术链条。
启示
具身智能的硬实力为:机器视觉和多模态大模型,AI的躯体其实并非是最重要的,核心应该是发展AI大脑,打通人机交互方式,让AI能够主动感知物理世界,拟人化的思维路径才能做到人类期待的行为反馈。机器视觉和多模态大模型正是开启这个世界的两把钥匙。
〇 分享亮点 〇
1、具身智能和人形机器人的起源
1)具身智能的发展历史及浪潮之巅
2)人形机器人的起源到现世
3)智能涌现带来的启示
4)具身智能的最佳承载形态和终极形态
5)具身智能机器人的商业化路径
2、具身智能和人形机器人的硬核技术
1)具身智能体的三个泛化要求
2)开放域智能体的对齐要求
3)传统智能体和大模型智能体的区别
4)经典及领先的智能体框架
5)视觉语言模型与人形机器人深度结合
6)感知、决策和行动的具身基础框架与端到端框架
7)开放世界中以视觉语言模型为基础的具身感知和感知记忆
8)多模态具身智能体与模糊需求下的长周期机器人任务规划
9)具身控制中模仿学习、深度强化学习的技术路线选择
10)基础模型持续推动机器人在开放世界的泛化
11)人形机器人核心部件
3、具身智能和人形机器人的商业化前景
1)轮臂机器人和高端仿人机器人的商业化落地场景
2)具身智能机器人落地的市场策略
3)高端仿生女性机器人公司的生态位置
4)从碳基生命到硅基生命的展望
基于 AI Agent金融领域智能客服技术应用
〇 分享简介 〇
大模型技术的崛起, 正以惊人的速度渗透到各行各业,其中, 客服行业无疑是受益最大的领域之一. 传统金融智能客服系统常受限于预设关键词和知识库匹配,难以深入理解并满足客户的复杂需求,导致服务体验和运营效率受限。而大模型技术的应用,以其卓越的自然语言处理和问题拆解能力, 逐步解决了传统客服系统的这些痛点问题, 仅极大提升了客户服务的质量,也推动了金融智能客服系统向更智能、更高效的方向发展。
在金融智能客服领域, 面对客户背景信息结构化提取、当前对话意图理解、个性化诉求处理、对话合规审查等多任务交叉并发的问题, 我们通过引入多智能体, 降低了整体问题求解的复杂性, 让每个智能体异步自主推理和选择合适的策略以提高子问题的求解效率, 同时利用多智能体的互相协调合作、,提高了系统解决问题的可靠性和鲁棒性.
本次分享主要介绍AI Agent技术应用于解决当前金融智能客服系统中面临的难点问题, 我们将一起探讨不同智能体的解决子问题的关键新技术和智能体之间的协调运作模式. 希望通过这次分享,能够给金融行业的专业人士和技术爱好者提供一套全面的AI Agent应用于智能客服场景的方案以借鉴.
〇 分享收益 〇
目标
1、深入理解大模型技术在金融智能客服中的应用
2、掌握技术实施的关键策略和方法
3、学习如何应对技术实践中的常见挑战
4、与行业专家交流,拓展您的专业视野
成功要点:
1、将AI Agent技术应用于金融智能客服系统, 不仅提升了客户服务的质量和效率,也极大地增强了金融机构的市场竞争力。
2、大模型技术的优势, 已经成为金融智能客服系统发展的关键驱动力,引领行业向更智能、更高效的服务模式转变。
启示:
通过AI Agent技术来模拟人类处理复杂问题的行为范式, 在金融智能客服场景的成功案例应用, 能够推广到更多的场景应用上.
〇 分享亮点 〇
1、金融智能客服的背景与挑战
2、多智能体在金融智能客服中的应用
3、金融客服实际案例分析与效果评估
4、金融智能客服的发展趋势与机遇
5、QA
音视频领域下AIGC的应用与创新探索
〇 分享简介 〇
在当今市场环境下,音视频领域正经历着前所未有的发展。随着技术的进步和用户需求的增长,音视频内容的创造、分发和消费模式正在迅速变革。企业面临的痛点包括高效地处理和分析大量的音视频数据,以及在竞争激烈的市场中保持创新和差异化。
AIGC技术在音视频领域的应用与探索上。具有自动化生成高质量内容的潜力,能够显著提高生产效率,降低成本,并为用户带来更加个性化的体验。同时拓展到整个泛娱乐领域可进一步带来企业创新力。
本次分享将探讨大模型在实际应用场景下的作用,结合音视频领域以及泛娱乐领域的行业经验,深入讨论利用AIGC技术渗透到行业的各个流程中,启发与会者更多的思考和实践,推动行业的创新和发展。
〇 分享收益 〇
目标:
1、了解音视频领域以及拓展到整个泛娱乐行业带来一定的思考与借鉴。
2、掌握 AIGC 技术在音视频领域的应用策略,助力企业提升竞争力。
3、洞察音视频行业未来发展趋势,提前布局业务方向。
成功要点:
在AIGC技术能力加持下音视频内容甚至可以达到像人并超越人类进行声音与视觉的呈现,能够最大程度上帮助企业用户降本增效。
启示:
深刻认识到 AIGC 技术在不同公司音视频领域的应用潜力,能够为自身业务创新和优化提供新的思路与方向。
〇 分享亮点 〇
1、音频内容消费现状
2、音视频创作的挑战
3、大模型给音视频领域带来的变革与机遇
4、音视频创作AI agent应用
5、音频大模型在泛娱乐行业的渗透思考
6、QA
大模型技术在钉钉的应用和实践
〇 分享简介 〇
人工智能技术的核心变革在于其普及性,它使得AI技术变得易于获取、使用,并能够为广泛的用户群体带来便利。这种技术进步特别有利于那些之前难以触及的细分市场和长尾场景,是不亚于低代码革命的一次飞跃。目前,随着基础大模型技术的不断迭代更新,众多组织正积极拥抱AI,探索企业应用AI的创新结合点。然而,在产业实践过程中,仍存在诸多算法技术的瓶颈,缺乏有效的落地场景、路径和方法论,这使得理论与实践之间的矛盾日益突出。
SAAS顶流钉钉帮助企业进行数智化转型,场景与算法的融合过程中,企业往往面临一系列挑战:个性化定制需求难以得到满足,不同算法与系统集成的复杂性,以及数据安全问题。然而,随着人工智能技术的新一轮发展浪潮,我们看到了潜在的新型融合方式正在逐渐浮现。
本次分享深入探讨钉钉在AI技术浪潮中的产品创新实践、AI PaaS平台的底层能力构建、关键技术的突破,以及在典型行业中的落地成果。将从模型层、方案层到应用层,提出一套可供行业参考的AI落地方法论和生态协同框架,以有利的实践,为与会者提供宝贵的参考和启示。
〇 分享收益 〇
目标:
1、AI大模型落地的全流程,展示钉钉AI PaaS平台的核心能力,
2、激发企业对AI场景落地的思考,并加速实施步伐。
成功要点:
1、AI PaaS平台能力所提供的助理创建平台和炼丹炉大模型平台,帮助企业打造一套从模型构建到应用实现的完整工具链。让企业能够迅速开发出符合自身需求的专属模型和应用,有效促进AI创新应用的快速孵化。
2、AI PaaS所积累并沉淀的一系列方法,有助于指导企业有效利用AI技术具有重要价值。
启示:
AI PaaS及其企业实践为各行业提供一套行之有效的大模型AI落地框架,加速企业智能化转型的步伐, 加速企业利用大模型技术创新。
〇 分享亮点 〇
1、大模型技术与应用现状
-AI技术和产品在加速突破
-钉钉接入大模型后,大部分产品都变了
2、钉钉AI PaaS平台
-钉钉AI PaaS平台的架构与核心能力
-炼丹炉产品的技术优势与服务能力
-微调专属模型的原理及开发流程
-常见AI解决方案的原理及应用场景
3、企业案例与实践经验分享
-钉钉AI技术在不同行业客户中的应用案例
-成功实践背后的策略与方法
4、QA
企业场景下的大模型提示词工程探索
〇 分享简介 〇
大语言模型在过去几年中已经被广泛研究和探讨,然而如何有效地将这些技术转化为企业的实际生产力仍然是业界面临的一大课题。提示词工程(Prompt Engineering)作为大语言模型应用领域的新兴趋势,正在展现其巨大的应用价值。凭借对提示词的精确设计和优化,企业可以显著提升模型的性能,减轻大语言模型对海量数据的需求,并且在部署时更加高效和成本可控。通过提示词工程,企业能够在复杂的实际应用场景中更好发挥大语言模型的潜力,解决在效果调优、数据隐私保护和部署成本方面的诸多难题,真正实现技术的落地与生产力转化。
在这样的背景下,阿里在企业内部对大语言模型的应用进行了深入的探索和实践,涵盖多领域、多场景、多任务等方面。这不仅帮助我们积累了丰富的实践经验,也让提示词工程从日常工作中得以验证和反思现有技术的局限性和优势。通过这些实践,有一套行之有效的策略和方法,进行优化模型的性能,提升企业运作效率。
本次分享将阿里信息平台在大语言模型应用上的具体探索与实践经验,聚焦于prompt工程展现。通过详细的案例分析和技术剖析,为更多企业在大模型技术落地过程中提供有益的参考和借鉴,共同推动大语言模型技术在企业中的有效应用。
〇 分享收益 〇
目标:
1、了解聚焦于prompt工程,大语言模型应用上的具体探索与实践经验,
2、了解详细的案例分析和技术剖析,如何解决实际业务问题上的心得体会。
3、掌握企业大模型技术落地过程中提供有益的参考和借鉴,共同推动大语言模型技术在企业中的有效应用。
成功(或教训)要点:
1、通过提示词探索和实践,证明了针对不同场景和业务采用个性化优化策略的必要性和有效性,加强企业业务的深度理解。
2、在各个应用场景中,通过合理的设计流程架构,结合提示词调优过程,可以让参数较少的大模型实现高质量的任务处理。从而有效控制了部署成本。
3、通过多领域、多任务的实际应用案例,揭示了大语言模型的跨领域应用的巨大潜力和灵活性。为企业提供了更多的应用场景选择,也为未来的技术创新提供了新的方向。
启示:
通过不断调整和优化大模型的提示词,可实现对不同任务和场景的高效适配。这包括对业务的深入理解、定制的数据结构、提示词微调和性能评估,从而确保其在企业内部的具体应用中表现优异。
〇 分享亮点 〇
1、大语言模型的背景,将LLM技术转化为企业生产力。
1)提示词工程在大模型应用中的一项关键技术诠释。
2、LLM的潜力与挑战:
1)强调LLM在理论中的强大能力,但指出在实际应用中企业面临的诸多挑战,如效果调优、业务定制需求、迭代周期与部署成本。
2)设立一个槽点:即目前的困境和需求。
3、Prompt工程的兴起:
1)解释提示词工程的原理和其在LLM应用中的重要性。
2)通过对比传统方法如SFT等,展示Prompt工程的优势。
4、Prompt工程的核心价值:
1)深入讨论提示词工程如何在实际应用中提升模型表现。
2)以具体方法说明,展示提示词工程在效果调优和灵活性方面的作用。
5、实际应用案例:
1)提供具体的企业内应用案例,展示Prompt工程在不同领域和业务中的成功应用。
2)通过真实数据和成果,增强可信度和吸引力。
3)讨论Prompt工程的发展前景,展望下一步可能的技术突破和应用扩展。
4)随着大模型能力的进一步提升,prompt可以更充分的发掘模型潜力
5)业界其他的前沿技术,如agent技术,与prompt工程紧密相关
6、总结与讨论
在大模型、人工智能飞速发展的时代,研发效能被越来越多的企业重视。LLM 将会彻底改变技术领域的世界,LLM 可够让开发人员工作效率提高 10 倍,早期采用者在代码输出的质量和数量方面遥遥领先,软件工程的每个领域都是如此,平台工程也不例外。
本专场将聚焦于:以业界关于DevOps方面平台建设、工程实践、研发效能提升智能化领域的专家,利用 AI 技术进一步提升效率和质量,涵盖了基于大模型的DevOPS实践、智能化平台建设、技术变革创新、平台工程实践、研发质效提升以及AI如何驱动工具链创新落地的最佳实践。让智能化的创新实践与探索,为与会者带来全新的研效平台与智能化借鉴。
出品人:马鑫 京东零售测试架构师
亿级DAU产品的质量保障平台建设及LMM应用实践
〇 分享简介 〇
近来,随着大型语言模型(LMM)在测试领域的应用不断蓬勃发展,诸如智能用例生成、基于视觉理解的UI自动化测试、缺陷预测、自动化日志分析以及性能测试调优等领域的创新应用正日益受到关注。这些新技术和方法的推出旨在为测试团队提供更智能、高效的工具和流程,有望进一步提升软件测试的效率和质量。
然而,尽管前景广阔,目前许多工具和方法仍处于概念验证或演示阶段。在实际业务应用中,仍存在许多挑战和阻力,需要进一步的研究和实践以确保这些创新能够有效地融入现有测试流程并产生实际价值。腾讯作为一家走在技术前沿的科技型企业,仅PCG就拥有数个亿级DAU产品,因此对软件质量要求极高。任何缺陷一旦逃逸到生产环境,都可能带来无法估量的损失。作为测试平台建设方,我们也始终在探索提升测试效率,以加速发布节奏并降低测试成本。
本次分享将通过分享测试工具平台建设经验,将腾讯PCG质量保障体系现状,结合LMM的建设思路、成果和业务侧的实际落地经验,为与会者提供研发测试团队的测试工作开展和测试工具建设方面的思路和参考。
〇 分享收益 〇
目标:
1、分享大体量产品的质量保障体系及测试平台建设经验
2、LMM+软件测试相结合,分享智能用例生成等领域的能力建设与实践效果。
成功要点:
1、基于分层测试理念,我们致力于逐层构建全面的测试体系:从基础的单元测试,到接口功能、性能测试,以及UI功能和性能测试。这些工具将贯穿始终,通过测试管理平台有机结合,与持续集成和持续交付(CI/CD)紧密衔接。我们不断探索并采用最符合业务特性的质量保障方案,力求取得最佳的投入产出比,确保产品质量达到最优水平。
2、积极探索LMM与测试平台相结合,通过在实际业务场景中的实践和不断的打磨,达到质效提升目的。
启发:
1、随着软件测试领域的不断发展,有众多的测试理论、测试体系、测试工具以及LMM等新型技术可供软件研发和测试团队选择。在实际业务中,考虑到人力和发布时间等限制,追求建立最全面的测试平台和方案往往不切实际。
2、以最少的资源投入,打造适应自身业务需求、收益最大化的质量保障体系。促进企业优化测试流程、提升效率,并最终实现更高质量更高性价比的软件交付。
〇 分享亮点 〇
1、腾讯PCG业务需求分析与测试平台面临的挑战
2、测试平台整体构建思路及演进过程
3、腾讯产品质量体系实践案例
4、应用LMM的测试用例生成方案及实践效果
5、QA
智能交付数字人的建设和应用
〇 分享简介 〇
随着DevOps平台在企业内落地,需求交付过程已经逐步实现了数字化,很多企业积累了大量的经验和数据,经历了痛苦和成长。DevOps平台规范了标准与行为,也增加了企业负担。在研发人员满意度调查中,DevOps平台的满意度一直不高,这种D文化理念、工具和实践的结合,在需求交付过程中,更需要的不仅是工具平台,还需要一个伙伴、一个导师、一个助手。
AGI技术的发展,让我们可以在DevOps平台的基础上,赋予更多智能 ,促使了智能交付数字人的诞生。智能交付数字人让需求交付中的角色释放工具的束缚,专注于创造性的工作。
智能交付数字人将作为我们研发工作中的角色,与研发同学一起协作。本次分享这个角色的诞生、成长经历、能力和带来的收益。
〇 分享收益 〇
目标:
了解LLM在研发效能提升场景的应用方向;
了解专家系统快速搭建所依赖的核心知识库及小数据量下的模型微调方法;
成功要点:
快速搭建出专家系统攻占用户使用场景,根据用户反馈结合微调持续提升模型能力,最终成长为一个服务于用户、乐于协作的智能交付数字人
启示:
将devops从数字化向智能化演进,应用AGI技术实现智能化落地。
〇 分享亮点 〇
1、数字化演进为智能化的趋势
2、AGI技术带来智能化的突破
3、DevOps的困境--工具增加了使用成本
4、智能交付数字人产品架构
5、流程托管--低风险需求流程指引和托管;
6、智能交付数字人--火车发布模式智能列车长;
7、智能排障--流水线失败快速响应和自动排障;
8、效能优化--项目排期风险识别和排期建议;
9、智能交付的下一步思考
软硬件结合的质量效能的演进和趋势
〇 分享简介 〇
过去几年间,随着“蔚小理”等新能源新势力的崛起,新能源车领域经历了类似百团大战的混战格局,经过几年的发展,市场快速发展,并伴随着IT和互联网”大厂“以各种方式躬身入局,伴随着一大批车企的消亡,以及标志性的”遥遥领先“和小米SU7的进入。整个行业已经呈现出头部聚集的特征。
在这个过程背后,是整个新能源车辆研发和交付领域革命性的演进。研发一辆高品质的新能源车已经不是5年10年为一个周期了。不管是硬件芯片,还是软件体验,都以接近互联网的迭代节奏在发展。而为了支持这样快速的迭代,背后需要的质量和效能结合的研发交付体系需要从”人机料法环“的维度进行创新。
本次分享将聚焦智能座舱质量效能多年的技术演进,从纯适配硬件的瀑布式开发模式逐渐引入软硬件解耦,分层测试拦截,基于主干分支的敏捷开发模式的提升,在质量左移的理念下驱动智能座舱质量效能质的提升的经验。同时,探讨未来软硬件结合的背景下,演进的质效发展趋势。
〇 分享收益 〇
目标:
1、了解智能座舱技术架构与交付迭代面临的规模化和复杂度
2、了解质量效能演进带来的大规模协同过程中的效能提升
3、了解质量效能演进之测试左移和质量右看
4、清晰软硬件一体之下的质效破局抓手
5、全貌看到新能源座舱质效架构演进的趋势
成功要点
通过解耦软硬件开发中硬件依赖带来的质量效能瓶颈,实现智能座舱领域更好的“质量左移”和“右看”。
启示
AI+的智能测试已成为主流模式,软硬件结合的质量效能不仅可实现系统的高效、稳定与智能化运行。还可提升数据处理速度和准确性,优化算法和界面设计,增强用户体验,利于系统提高可靠性,降低维护成本。
〇 分享亮点 〇
1、从座舱到智能座舱,新能源行业迭代的发展
2、软硬件结合的质效挑战
3、质效演进之质量左移
4、质效演进之质量右看
5、构建质效演进的体系化能力
6、质效演进的关键成功要素形成落地的保障
7、软件定义的新能源行业质效演进的趋势
8、QA
全流程质量平台VIP提效创新实践
〇 分享简介 〇
软件研发过程中,有非常多的测试难题,使测试执行的效率极其低下,甚至不可测,其中比较典型的有:MOCK调用、构造业务异常、下游超时等。与此同时,在全流程质量保障中,无论是线上应急还是架构治理,都是重中之重,而相对应的质量保障却总是缺失的一环。
在类似外卖、电商等高流量、高质量要求的业务中,以上问题带来的影响尤为突出。解决全流程中测试难题,成为了重要且紧急的任务。VIP就是在这样的背景下,逐步演进出来的一个质量保障平台。
本次分享将深度解读VIP,详述其通过:拆解场景、定义规则、增强函数三大核心能力,技术化解决测试难题的方案。此外,还将深入探讨形成这些方案背后的思维模式--“函数世界观”。整体为与会者提供技术方案的参考和思路上的扩展。
〇 分享收益 〇
目标
1、分享多个解决质量保障难题的技术方案和经验。
2、分享质量平台VIP的设计方案和演进过程。
3、分享底层思维模式“函数世界观”,及其能带来的创新视角。
成功要点:
1、高度抽象问题,将各类场景转化为函数视角的动态调用过程,从而形成了基于函数的统一解决方案。
2、创建了中控 + agent的VIP架构模式。采用以中控管理场景、管理应用,以agent挂载服务器、操作函数的分层模式,灵活、高效的应对了多样化的场景。
3、采用了持续演进的方式,逐步实现了从人工定制到“无人操控”的模式。
启示:
VIP平台本身不一定能被直接复用,但是其背后的方法论和思维模式是可以被广泛使用的。绝大部分的测试难题,最终都可以通过函数调用链路进行刻画,然后在函数粒度找到解决方案。
〇 分享亮点 〇
1、VIP平台的架构设计和底层原理;
2、具体场景&技术方案:MOCK、异常测试;
3、VIP的函数容器化演进,及场景案例:一键演练、一键环境配置;
4、VIP的全函数化演进,及场景案例:函数称重和代码精简;
5、VIP的数智化演进,及场景案例:无人MOCK;
6、QA
研效平台的数智化跃迁
〇 分享简介 〇
随着数字化场景的逐步深入,软件项目越来越呈现多样性和复杂性,规模化的研发组织,需要同时具备“打大仗”和“打小仗”的能力。在规模化的软件交付过程中要做到合理规划、按时交付和高质量用户体验,而面对创新型或者试验型的项目,却需要把效率放在第一位,快速试错和改进是第一要务。为此,研发团队则可以通过适配不同的流程机制、利用丰富的基础设施和工具平台、来完成不同的项目。研效平台通过整合目标和计划管理、流程规范内置、知识共享、CI/CD流程自动化、弹性基础设施和效能度量等能力,实现为研发团队赋能。而研效平台自身的演进一方面要围绕业务目标建设,同时要适配研发团队的组织形式,随着研发数字化的全面深化进一步推动智能化的转变。
研效平台的建设主要从三个方面展开,分别是业务层级、价值交付流程和组织协同。业务层级包含从企业战略、项目组合到计划迭代,每个层级的目标、收益和成本都能够通过平台来管理和跟踪;价值交付流程从两个层面打通,一个是以软件需求为最小粒度的业务价值流,贯穿需求探索、定义、设计、开发到交付,通过度量需求交付过程的效率和质量来逐步提升流动效率,一个是以为代码为基础的实现流,从代码、二进制包、容器镜像、系统服务的每一步加工都要尽量实现自动化和智能化,从而达到一致性和高效率的目标;组织协同是通过借助平台的知识共享能力、计划和任务协同、通知和在线评审等方面来打通部门间的壁垒,实现整体组织人效的提升。
数字化阶段重视效能度量的重要性,通过以终为始,目标导向来驱动研发组织和团队的综合效能提升。效能度量很大程度上满足研发管理数字化的需求,使目标制定更合理、计划实施更加顺利、项目评价更透明。不过研发数字化在满足研发管理诉求的同时,会对研发团队一线的执行人员造成一定程度的体验损失,体现在部分需要人工填写的数据、指标度量的古德哈特定律、度量准确性对规范性的依赖等。而平台的智能化可以使其得到一定程度的改善,其一是通过智能化的手段来减少人工的操作,其二是更加符合体验场景的交互形式,第三是更加准确的度量数据和闭环的改进措施。因此研效平台的智能化也是必然趋势。
本次分享通过360研发效能平台建设的经验,结合内部研发组织落地实践的案例,分享研效平台的一些具体成果、方案、案例和思考。让智能化的创新实践与探索,为与会者带来全新的研效平台智能化借鉴。
〇 分享收益 〇
目标:
1、分享企业级研效平台建设经验
2、大模型和研发场景的结合,包含智能代码生成、研效助手、智能数据度量等。
成功要点:
1、 以敏捷研发为核心理念,以产研团队体验优先构建平台能力,形成软件交付的闭环管理
2、 以DevSecOps为关键优势,实现安全和质量的内建,在CI/CD流水线中实现安全自动扫描、代码审核、自动化测试等。
3、 通过项目、项目集来实现不同层级业务对齐,通过自定义工作项实现不同类型研发团队的任务跟踪
4、 建立数据驱动的研发效率提升闭环,通过多维度的效能度量和评价体系,来实现数据洞察和问题发现,推荐优对应的管理实践和工程实践,获得效能的改进。
5、 从单点研发场景切入智能化技术,逐步从单任务智能化、到协同智能化和流程智能化的策略。
启发:
1、 研效平台的建设,以协助业务目标实现为宗旨,需要匹配不同研发组织结构和软件交付形式。
2、从线上化到数字化、从自动化到智能化,时刻以技术驱动为理念,把新技术应用到交付流程中,提高个体和组织的效率,替代重复劳动,释放研发组织的创造力。
〇 分享亮点 〇
1、复杂业务场景和规模化组织面临的研发效能挑战
2、研发效能平台的建设思路和经验
3、研发效能平台的应用案例的心得
4、智能化研效平台的演进路线和案例
5 、 QA
大模型革新的测试用例生成及自动化测试实践
〇 分享简介 〇
在软件开发过程中,测试团队面临着大量的挑战,尤其是在测试知识库的构建、测试用例的管理与维护方面。这些工作不仅耗费测试团队大量的精力,而且效果往往不如预期,但又是不可或缺的工作。传统的测试方法已经难以满足快速迭代和高效率的现代软件开发需求。
为了解决上述问题,我们提出了一种基于AI大语言模型的解决方案。主要利用大模型的深度理解能力和强大的生成能力,来不断优化测试知识库。当新的业务需求出现时,系统能够通过对业务知识的深入理解,自动生成高覆盖、高效率的场景测试用例和自动化测试用例。
本次分享将深入探讨AI领域应用实践,影响软件研发的各个领域,通过落地实践,抛砖引玉,研讨利用 AI 技术进一步提升自动化测试的效率和质量,为各行业参会者提供借鉴。
〇 分享收益 〇
目标:
1、深度了解利用AI大语言模型来革新传统的软件测试方法,提升测试效率和质量。
2、探索AI在其他软件开发生命周期中发挥作用,进一步推动软件开发和测试工作的自动化和智能化。
成功要点:
基于 AI 大语言模型的解决方案,以深度理解和生成能力优化测试知识库,自动生成高效测试用例,革新软件测试方法。
启示:
利用 最新AI技术与已有测试技术结合,碰撞出新的自动测试方法,为各公司提升效率与质量提供了新的思路和方向。
〇 分享亮点 〇
1、 AI技术对自动化测试变革的思考
2、 AI技术应用于自动化测试领域的探索与实现
3、 未来自动化测试展望
4、QA
智能硬件终端效果质量平台建设与应用
〇 分享简介 〇
当前,智能终端产品的迅猛发展,产品宣发时除了软件逻辑亮点外,越来越重点硬件参数的宣传,例如护屏参数、摄像头规格参数、电池参数等等,系统软件测试越来越趋于专项化建设,以关键器件的功能、主客观效果、稳定性、兼容性等以专项维度进行覆盖,但是过程中仍存在一些效果调试的难点,稳定性测试中闪屏等重点问题无法有效覆盖。
随着常见的产品迭代及产品质量要求越来越高,平台的演进也从之前单模块测试整机稳定性逐渐变成了专项模块质量平台,覆盖音视频、BT/WIFI、Android原生系统等模块,测试颗粒度也越来越精细化。
本次分享的以讯飞硬件多年在产品交付中遇到的痛难点,分享当前硬件终端产品的测试覆盖范围,质量平台在产品落地中的应用场景及效果平台的演进历程,为与会者提供质量平台建设及IPD流程最佳实践。
〇 分享收益 〇
目标:
1、了解智能终端产品生命周期及测试领域活动开展
2、硬件产品测试方案及方法制定
3、了解面向硬件产品的质量平台建设思路与应用
4、PMP及ACP结合下的项目管理方式
成功要点:
在团队规模有限的情况下,保障多个产品集中交付,以模块化思维来建设效果质量平台,实现自动化工具能够在不同平台的安卓系统上成功运行;在项目周期紧缩的情况下,探索传统式与敏捷式相结合的研发模式,并成功应用。
启示:
硬件产品的成功离不开关键器件及系统层方案保障,从单元化的测试到整机集成的联调,持续发现用户场景的使用性问题,用机械化、脚本化替换人工进行压测,通过断言发现自动化过程中无法人工发现的问题,是一个需要长期建设提效的工程。
〇 分享亮点 〇
1、科大讯飞硬件产品测试方案及生命周期管理
2、效果质量平台建设思路与应用案例
3、传统型及敏捷型开发方式结合应用案例
4、讯飞模式下IPD流程应用实践
5、QA
大模型热潮将改变云计算和数据库市场竞争维度,加速企业IT架构向分布式和并行化发展的趋势。AI大模型是基于海量多源数据打造的模型,需要通过不断地训练从大量标记和未标记的数据中捕获知识,并将知识存储到大量的参数中,以建立对各种任务进行高效处理的技术架构。随着AI技术的不断发展,大模型在各个行业的应用场景不断增加,需要处理的多模态数据也日益复杂。向量作为AI理解世界的通用数据形式,将在多个领域发挥关键作用。过去一年里以向量数据库为代表的数据库系统,在解决大模型的“幻觉”,为大模型提供数据实时更新能力,为大模型提供持久化记忆等方面,令人瞩目。
本场专题聚焦数据库系统在大模型时代的人工智能领域的应用与实践。将展示数据库如何支持基于大模型的RAG技术,实现快速、准确的信息检索和内容生成。同时,也将探讨数据库系统在RAG技术中的优化策略和未来发展方向。
出品人:金海 InfiniFlow联合创始人、前矩阵起源研发副总裁
向量数据库助力AI大模型与技术创新
〇 分享简介 〇
大模型掀起新一轮的技术发展浪潮,数据库作为关键PaaS能力,一直顺应业务和技术发展,不停变更和创新。大模型的兴起,对数据库也将带来深刻的影响。AI时代的新型数据库,将让数据库有更佳的扩展性、高效查询、可视化、存储与训练等。
数据库和大数据结合主要有 DB4AI 和 AI4DB 两个领域,一个领域是 DB4AI,主要是向量数据库技术。通过向量数据库解决大模型知识更新不及时,幻觉问题,以及缺乏企业内部知识,也无法进行细粒度安全管理等问题。另一个领域是 AI4DB,通用大模型技术对数据库本身进行优化,主要方向包括数据库自动运维,SQL 生成,SQL 优化,智能问答等等。在过去一年里面大模型快速发展,如长文本能力,向量数据库也快速发展,多路召回,更强性能等。大模型和数据库技术相互成就,影响技术创新。
本次分享将深度解读最前沿技术发展和一手工业实践,为相关数据库、以及新技术感兴趣的从业者们,带来最主流、最前沿的专业视角。
〇 分享收益 〇
目标:
了解大模型和数据库最新的技术发展趋势
了解数据库和 AI 的未来技术发展方向
了解工业界再大数据和数据库结合最新实践
成功要点
通过向量数据库关键技术,可熟悉大模型和数据库最新的技术发展,以及工业界在大模型和数据库结合的最佳实践。
启发
构建完整大模型应用构建思路,以大模型应用关键技术点,全面掌握向量数据库选型方法。
〇 分享亮点 〇
1、数据发展史概览
2、大模型二次激发数据和 AI 的结合
3、大模型最新技术栈全面解读
4 、RAG 和向量数据库关键技术深度解析
5、百度 DB4AI 实践:百度向量数据库架构解读
6、百度 AI4DB 实践:数据库智能驾驶舱核心能力
7、未来展望
8、QA
高性能向量数据库 MyScale: SQL与向量融合的新范式
〇 分享简介 〇
向量数据库随着大模型的火热而得到更多的关注和发展,目前主要有两种类型的向量数据库为大家广泛关注。一类是以Pinecone 为主导的专用的向量数据库,另一类是支持向量检索的集成向量数据库。这两类各有优势,但无法兼顾处理海量数据的性能以及与传统数据库的兼容性。
业界上以全新的视角 SQL与向量结合的,专为 AI 应用设计的 SQL 向量数据库 MyScaleDB,具有非常大的价值,MyScaleDB 以高性能列存分析数据库 ClickHouse 为基础,对向量检索算法系统以及 SQL 与向量的联合查询和存储进行了深入的优化,确保了在保持高性能向量检索和复杂查询的同时,也能够满足企业对通用数据存储和分析的全面需求。
本次分享将基于 MyScale 构建的 RAG知识库解决方案,通过案例分析来展示各行各业的大规模 RAG企业知识库落地的应用场景。
〇 分享收益 〇
目标:
解析 SQL与向量融合的数据库新范式,及其对于 RAG方案的优势
成功要点:
SQL与向量的结合赋予了向量数据库 MyScale 以高性能处理大规模多模态数据的能力。成为大模型+大数据结合的 RAG/Agent 平台的坚实底座。
启示:
数据是链接大模型和世界、用户的纽带,SQL 向量数据为大模型和大数据的结合,利于企业更加专业、更加实时、高效协作、更有温度的融合企业 AI 系统。
〇 分享亮点 〇
1、向量数据库的现状
2、开源向量数据库 MyScaleDB 的技术理念与挑战
3、MyScaleDB 技术能力与优势
4、构建大模型+大数据结合 RAG/Agent 知识库平台
5、RAG 企业知识库应用场景分析
6、QA
PG 数据库深度学习框架:SQL 实现 AI 模型的新方案
〇 分享简介 〇
随着 AI 技术的火热,数据库与 AI 相结合技术也得到更多关注和发展,目前该领域的包括:AI4DB、DB4AI、向量数据库、Text2SQL、AI in DB 等技术方向。这些技术方向使数据库与 AI 相互赋能,挖掘出更多需求、带来新机会。
在 AI in DB 方向上,采用 PG 数据库内向量存储技术与深度学习相结合,为数据库应用设计了 SQL 为开发语言的深度学习框架 pg4ml。pg4ml 以 postgresql 的 array 特性为基础,采用神经网络计算流图遍历技术,跟踪前线传播、反向传播,执行链式求导,从而实现了模型训练与推理。
本次分享将通过案例,展示基于 pg4ml 框架,通过 SQL 构建模型、训练模型,并部署推理的库内全过程,为数据库相关与会者,提供巨大的框架参考价值。
〇 分享收益 〇
目标:
1、发现 DB 与 AI 应用与融合过程中的问题和机会
2、讨论既有技术实现 AI 的障碍和瓶颈
3、探索 AI in DB 技术方案与潜在优势
成功要点:
以关系型数据库为核心的传统信息系统,在不更改或不大规模更改架构的前提下,仅依托数据库常规特性,平滑的支持 AI 模型部署和应用。
启示:
当 AI 模型的技术门槛逐步降低,AI 的开发过程从 AI 工程师下沉至数据库工程师、DBA 和运维,从而使企业降低 AI 投入的边际成本。
〇 分享亮点 〇
1、AI in DB 的技术优势
2、库内模型 的实现案例。
3、为什么是 SQL?
1)分享 SQL 即席查询特性。
2)讨论将神经网络结构抽象为通用配置的方法。
4、配置方式的模型开发过程助力 AGI 进化
1)动态神经网络结构对 AGI 的重要性。
2)python 代码与配置数据记录,两种神经网络构建方式对比。
5、AI in DB > DB4AI
1)讨论库内原生深度学习框架的优势,相对于将 DB4AI 与库外第三方的机器学习函数库结合使用。
2)展示库内深度学习框架如何简化模型构建。
6、AI + vector + PG超融合数据库帮助降低 AI 推理模型的部署与应用难度。
1)讲解AI + vector + PG 超融合数据库如何通过统一的数据存储和处理平台,简化推理模型的部署流程。
2)讲解AI + vector + PG 超融合数据库如何降低 AI 应用的边际成本。
7、对比不同 DB + AI 的技术方案的不同,对比库内深度学习框架与当前主流框架的优劣势。
8、QA
pgvecto.rs 基于 Postgres 构建向量数据库的探索与实践
〇 分享简介 〇
Pgvecto.rs 作为一个开源的 PostgreSQL 扩展,把向量数据库的功能集成到 PostgreSQL 中,为企业提供兼具关系型和向量数据库优势的解决方案。传统关系型数据库在处理非结构化数据、支持复杂查询和扩展性等方面存在局限性,无法满足企业日益增长的数据处理需求。
企业急需高效处理和分析海量非结构化数据的解决方案,Pgvecto.rs 将关系型数据库和向量数据库的优势结合,在性能、扩展性和灵活性方面充分权衡。其开源特性及与 PostgreSQL 的深度集成,会降低企业的技术投入和部署成本。 在搜索、RAG 等领域的应用落地,极大满足企业复杂业务场景下数据处理需求方面的能力。
本次分享将 Pgvector.rs 的架构、功能特性和应用场景全面展现,帮助企业了解这一新兴的数据存储和处理技术。深入探讨Pgvecto.rs 如何通过 Adaptive Retrieval、Hybrid Search 等能力,满足企业对高性能、可扩展和灵活数据处理能力的需求,并分享在实际应用中的一些案例和经验。
〇 分享收益 〇
目标:
1、pgvecto.rs 在实际应用中的成功案例,为企业提供有价值的参考。
2、展示 pgvecto.rs 在关系型查询和向量搜索并存场景下的优势,以及其在满足企业复杂数据处理需求方面的解决方案。
3、说明 pgvecto.rs 在降低企业数据管理和应用开发成本方面的优势,为企业带来切实的经济价值。
成功要点:
1、pgvecto.rs 能够有效整合关系型查询和向量搜索,满足企业在处理结构化数据和非结构化数据方面的双重需求。
2、pgvecto.rs 高性能的向量索引和相似性匹配功能,大幅提升企业在图像识别、自然语言处理等场景下的搜索性能。
3、pgvecto.rs 采用云原生的架构设计,降低了企业的数据管理和应用开发成本,同时提高了系统的可扩展性和灵活性。
启示:
企业在实际应用场景中,往往需要同时处理结构化的关系型数据和非结构化的向量数据。pgvecto.rs 能够充分满足这种并存的需求,为企业提供一体化的数据处理解决方案。相比单一采用关系型数据库或向量数据库,pgvecto.rs 能够更好地帮助企业提高数据分析和应用开发的效率,从而获得更出色的业务洞见和竞争优势。
〇 分享亮点 〇
1、企业在落地以 LLM 为代表的 GenAI 业务问题
2、传统关系型数据库的局限性
3、pgvecto.rs实现关系型查询和向量搜索的融合
4、RAG 等典型应用场景中的优势
5、深入探讨 pgvecto.rs 背后的技术创新
6、底层向量引擎的设计、与 Postgres 的深度集成
7、开源社区的支持与未来发展方向
8、应用场景以及使用 pgvecto.rs 成功案例
9、QA
低成本千亿规模向量检索方案
〇 分享简介 〇
在数字化时代的浪潮中,信息量呈指数级增长,快速、准确地从海量数据中检索到所需信息,已成为企业与研究机构面临的一大挑战。面对这一挑战,低成本千亿规模向量检索方案应运而生,其价值不仅体现在技术层面的创新,更在于为各行各业带来的深远影响。可通过高效算法和分布式计算技术,实现了对大规模高维数据的实时处理与查询,极大地缩短了信息检索时间,提高了检索精度。意味着,无论是金融风控、智慧城市建设,还是生物医学研究,都能在第一时间获取到最有价值的数据支持,从而做出更为精准的决策。
从成本角度来看,低成本千亿规模向量检索方案采用了一系列降本增效措施。通过优化算法减少存储需求,利用并行计算提升处理速度,降低了硬件投入和运维成本。这一点大中小企业而言,都极具吸引力,它使得前沿技术的应用不再是资金雄厚者的专利,而是具有普惠性。同时,低成本千亿规模向量检索方案的可扩展性,使其不会因数据量的增加而降低性能,确保了长期的稳定性与可靠性。无疑是企业一项值得长期投资的技术。
相较于结构化数据,非结构化数据的存储和检索更加复杂。高维向量作为非结构化数据的有效表征,能够在相似性检索上扮演重要作用,因而向量检索技术随着非结构化数据的增长备受关注。在数据增长以及大模型应用广泛流行的背景下,非结构化数据的存储、检索和管理变得越来越重要,也带来了巨大的机遇和挑战。
本次分享以内容检索场景为背景,通过对向量检索问题讨论分析,带来蚂蚁在千亿向量召回场景的方案实践经验和思考,供与会者借鉴和参考。
〇 分享收益 〇
目标:
1、了解向量检索的技术问题
2、了解向量检索与RAG技术的关系
3、了解如何打造一款低成本向量检索产品
成功要点:
RAG带来了对新的AI产品形态,数据在其中所扮演的角色具有很大价值,有助于开发者构建出更优秀、更专业的AI产品。
启示:
1、AI 背景下,数据是一切应用的基础。低成本大规模的向量数据库,能够帮助企业在大数据、大模型的背景下,构建出更实时、更可靠、更具价值的 AI 应用。
2、向量检索能够轻松融入现有的IT架构中,无需进行大规模的系统改造,大大减少了实施难度和成本,加速了数字化转型的步伐。
〇 分享亮点 〇
1、向量检索问题和技术挑战
2、蚂蚁的向量检索算法
3、千亿规模向量数据库
4、内容检索场景的应用
5、大模型、向量检索与内容理解
6、QA
大模型时代下向量数据库的应用与发展趋势
〇 分享简介 〇
与AI大模型的深度融合的向量数据库,将为大模型提供必要的数据管理和检索能力,特别是在处理大规模多模态数据时,成为大模型不可或缺的部分。在增强学习、联邦学习等新型AI模型训练方法中,向量数据库的实时数据处理能力将发挥关键作用。它的技术革新处理高维数据能力强大,随着深度学习模型的复杂度增加,代表着其超强的性能。这种跨模态数据处理,更好地支持文本、图像、音频等不同类型的数据进行统一处理和分析。
从应用发展上看,当前的推荐系统、图像检索等领域拓展到更多垂直行业,包括医疗健康、金融分析等高价值领域。与物联网(IoT)、自动驾驶等新兴技术的深度融合,向量数据库将作为这些领域数据处理和分析的重要基础设施。
本次分享将探讨向量数据库在AI大时代作为新一代软件栈核心组件的重要性,以及腾讯云向量数据库的现状和特性。这些基于向量数据库实现产品级别的功能特性,对向量数据库未来发展至关重要,希望帮助向量数据库、RAG感兴趣的开发者,将技术革新更好的融入到产品核心功能。
〇 分享收益 〇
目标:
1、了解AI时代向量数据库的特性与定位
2、了解腾讯在典型行业应用案例与应用
3、 掌握RAG实践高处理技巧
成功要点:
1、向量数据库的使用存在易学难精的问题。虽然简单的演示可以很容易地展示一些效果,但要达到产品级别的功能却并不容易,在整个数据处理的许多关键步骤上都需要做优化,才能提升效果。
2、RAG的最终效果取决于知识处理的每一个步骤,在数据处理->Embedding入库->检索阶段->总结阶段的每个步骤都做了大量优化,形成了腾讯云向量数据库的AI套件,实现了RAG效果的大幅提升。
启示:
向量数据库与AI的结合,极大提升AI应用的数据管理能力、支持复杂AI大模型的高效运行、实现多模态数据的处理和分析以及推动实时推荐和个性化服务的实现,推动了AI技术在各个领域的创新和应用。
〇 分享亮点 〇
1 、AI时代向量数据库的定位
1)AI时代新的Software Stack
2)Embedding Everything
3)向量数据库在AI领域应用
2、腾讯云向量数据介绍
1)源自集团多年沉淀,产品能力领先
2)性能、规模大幅领先
3)加速多源异构数据接入--数据采集平台
4)数据采集平台大幅提升召回率
3、 RAG实践与挑战
1)入门易、效果难
2)典型的Bad case
3)效果提升关键点
4)数据处理阶段-拆分
5)Embedding的原理和选型
6)Embedding增强处理
7)检索阶段-多路找回ReRank
8)内部案例:腾讯会议AI小助手
9)外部案例:某教育头部客户基于RAG的智能教辅方案
下一代 RAG:tidb.ai 使用知识图谱增强 RAG 能力
〇 分享简介 〇
当下的 RAG 架构中,以原生 RAG 居多。虽然RAG 开创性地解决了大模型的外部上下文及幻觉问题,但仍然有一些问题需要引入其他步骤或方案进行解决。
TiDB 的 MySQL 生态系统中,过往的 MySQL 开发者只能使用外部向量数据库进行 AI 应用开发。现通过应用 TiDB Serverless,无需进行数据同步和多数据库维护,且存储量不受限制,列式存储进一步提升了性能,显著改善了开发体验。TiDB Serverless 引入了 Vector 类型,使得在 MySQL 系数据库内进行向量搜索成为可能。为了增强社区问答的效率并节省人力,应用 tidb.ai 来提高社区活性和转化率。tidb.ai 这个基于 TiDB 文档生成答案的 AI 问答机器人,可帮助企业提升回答的相关性,可以在开发过程中探索多种实现方式。
本次分享将从 tidb.ai 服务入手。从原始的原生 RAG 讲到Rerank 等提升性能的方法,以及当前的技术解决方案 Graph RAG。最后,以实现方案向下挖掘至数据库架构层面,探讨各类不同的数据架构的优缺点,帮助企业对数据选型与技术实施提供巨大的参考依据。
〇 分享收益 〇
目标:
1、技术没有银弹,我们需要在合适的场景中选择合适的解决方案
2、了解 GraphRAG 对于其他 RAG 类型,解决了什么样的问题,以及不同数据架构的服务的复杂性探讨。
成功要点:
企业不仅需要考虑这个架构 “能不能完成需求”,也需要考虑这个架构“好不好完成需求”。让用户在不同的场景下,可以自如地选择合理的 RAG 架构及数据架构。
启示:
技术没有银弹,成功的关键在于根据具体场景选择合适的解决方案,尤其是在 RAG 架构和数据架构的选择上,不仅要确保能满足需求,还要考虑实现的难易度,使用户在不同场景下能够灵活运用。
〇 分享亮点 〇
1、TiDB.ai 的技术优势
2、简单 RAG 的实现方案。
3、为什么需要 Rerank?
1)解释 Rerank 的概念和在 RAG 系统中的角色。
2)讨论 Rerank 如何提高检索结果的相关性和准确性。
4、知识图谱助力 RAG
1)阐述知识图谱如何通过提供结构化知识来增强 RAG 系统的理解和推理能力。
2)实际案例:展示知识图谱在 RAG 系统中的应用实例,以及一个可以直接运行的 Demo
5、Vector Type within TiDB > TiDB + Vector Database
1)讨论在 TiDB 内部支持向量类型的优势,相对于将 TiDB 与独立的向量数据库结合使用。
2)展示内置向量支持如何简化架构复杂性。
6、All in One 数据库帮助开发者减负
1)讲解 All in One 数据库如何通过统一的数据存储和处理平台,简化开发者的工作流程。
2)TiDB Serverless甚至可以降低资金方面的负担。
7、对比不同RAG 架构以及数据架构的主要优劣势
8、QA
开幕致辞
笑含 CSDI发起人,百林哲创始人兼CEO
迈向AGI:大模型拉开的产业革新
中国信息通信研究院华东分院总工程师,博士后,高级工程师,具有超过10年的项目咨询、执行、管理经验,主要面向政府、企业、产业园区等提供人工智能与大数据、企业信息化规划等相关领域的整体规划设计及解决方案等咨询服务,对人工智能、新型工业化、数据要素、物联网、云计算、数据中心等技术领域的知识体系有较深刻的理解。
近三年来,牵头上海市人工智能产业公共服务平台、上海市大数据产业分析平台、医疗人工智能公共训练平台等多个专项平台建设工作,深度参与工信部工业转型升级项目、徐汇区“一网统管”项目、上海市区两级人工智能“十四五”规划、人工智能统计评价及标准体系、上海城市数字化转型总体思路、长三角一体化大数据中心总体设计等研究工作。
曾牵头参与国家重点实验室项目、国家自然科学基金项目、上海市科技攻关项目多项,获上海市决策咨询课题优秀成果奖多次,发表学术论文10余篇,申请发明专利10余项,软件著作权多项。兼任中国传感器与物联网产业联盟顾问专家、上海市系统仿真学会理事、上海人工智能行业协会监事、上海通信学会算力浦江专委会委员、国信合创(CHA)人工智能独角兽共创理事会理事、中铁城市开发研究院资深专家等。
数字化转型下的企业架构重塑
普元信息首席技术官,全面负责普元信息技术与产品的运营工作,公司技术发展战略的重要决策人。焦烈焱在企业技术架构方面有二十余年的经验,长期致力于分布式环境的企业计算、SOA与云计算技术研究与实践。加入普元信息后组织完成一系列核心产品的研发工作,包括SOA应用平台、以BPM &/ESB为核心的业务集成平台、以复杂事件处理/数据治理/作业调度为核心的大数据平台,期间主持了中国工商银行、中国建设银行等多家大型企业技术平台的规划与研发。著有《SOA中国路线图—实施版》《数字空间驱动智能建造》
基于llama3的领域模型落地实践
度小满金融技术委员会执行主席、数据智能应用部总经理,度小满AI Lab负责人,硕士毕业于清华大学计算机系,曾就职于百度、阿里巴巴,从事自然语言处理、搜索、推荐、大数据架构等相关方向的研发工作。
2018年年初加入度小满金融,组建数据智能部和AI Lab团队,从0到1构建度小满金融的智能引擎核心算法,深耕计算机视觉、自然语言处理、图模型、机器学习、因果推断等技术领域,多篇文章被EMNLP、ACL、CIKM等国际会议收录,“智能化征信解读中台”工程荣获吴文俊人工智能科技进步奖。相关技术广泛应用于度小满营销、经营、风控、反欺诈全流程业务场景,为上千万客户提供稳定、安全的金融服务。
专注于人工智能在金融场景中的应用落地工作,基于度小满模型即服务(MaaS)的模式探积极探索生成式大语言模型的应用转化。于2023年初带领团队发布千亿参数规模的中文大语言模型“轩辕”。2023年9月, “轩辕-70B”大语言模型在C-Eval和CMMLU两大权威榜单上位列所有开源模型榜首,已开源6B/13B/70B/176B全参数的模型体系,著有<<大语言模型:原理与工程实践>>
大模型时代的智能软件研发:技术、范式与工具
华为云智能化软件研发首席专家,PaaS技术创新LAB主任,华为公司可信领域科学家,中国计算机学会软件工程专委副主任。主导华为公司的智能化软件研发,将AI技术与软件分析技术应用于软件生命周期的各个环节。近期主要带领团队探索如何将大模型应用于研发领域,并赋能公司的系列软件研发工具,团队研发的系列成果 Pangu-Coder,Pangu-Coder2,CodeR等均达成当时的业界领先水平。
软件工程全链路智能优化
阿里巴巴通义实验室资深算法专家,毕业于清华大学,代码智能&对话智能负责人,研究方向为大模型、代码智能、对话智能及 AI Agents 等,负责通义灵码、通义星尘、通义晓蜜和通义听悟等产品的大模型技术,其中通义灵码已经成为国内用户规模最大的智能编码助手。
2020年以来,围绕预训练、对话、代码、大模型等方向发表了70+篇国际顶会论文(ACL/EMNLP/NAACL/NeurIPS/ICML/AAAI/SIGIR等),并先后担ACL/NAACL/WSDM等国际顶级会议的领域主席。
大模型在社区场景下的云边协同设计和实践
万物云算法合伙人,慕尼黑工业大学工学博士,深圳“孔雀计划”高层次人才,从事数值计算、贝叶斯反演分析和风险评估研究10年+,有深厚的数学功底和算法研发能力,曾参与大型隧道开挖风险评估、降雨入渗对边坡可靠性的数值评估模型优化算法研究等工程项目。近五年来,将量化风险、人工智能、优化算法等相关研究成果结合金融市场、电商、物联网等领域,先后参与了高频量化交易策略、电商供应链预测和推荐、设备设施预测性维护、计算机视觉等算法研发工作。
曾多次带领团队入围国内外算法比赛复赛,并荣获Kaggle的2019 ASHRAE建筑负荷预测数据竞赛银牌, Kaggle的2023 LLM Science Exam数据竞赛银牌,CVPR 2022 workshop图像匹配数据竞赛铜牌,华为昇腾2022 AI创新大赛深圳赛区银牌。
业务价值驱动的垂域大模型应用构建
百川智能副总裁、金融事业群总裁,负责金融行业解决方案打造和合作生态建立。具有丰富的金融行业解决方案设计和信息系统研发经验,前中关村科金服总裁、曾任职于中国农业银行总行、中信银行总行从事核心业务系统研发、产品设计和团队管理工作,中关村科金期间,负责金融行业线组建,带领团队打造多款 AI 金融解决方案。拥有丰富的人工智能金融行业解决方案设计、信息系统研发经验,对运用人工智能技术赋能金融业务智能化转型有着深刻理解。
AI行业化:大模型落地AIoT新时代
360智慧生活集团副总裁、视觉云业务线总经理
负责集团360智脑·视觉大模型以及视觉云产品中AI落地应用,深入研究多模态大模型在IoT产业应用中的探索。历任360 儿童业务产品经理、产品总监,IoT创新产部总经理、IoT技术中心中心总经理等职务。先后负责360儿童手表、儿童故事机、机器人、智能音箱、家庭安全大脑等多款产品的产品设计及研发工作,并参与负责360语音云平台、AI边缘计算产品、IoT技术中台、视觉大模型的产品研发。
整合组建软件中台和技术中心,整合360所有智能产品的软硬件研发工作,开发统一的APP和云平台,推动国际化架构落地。产品出海覆盖33个国家和地区。同时,对外提供IoT云的服务能力,将家庭安全大脑产品的研发,业内首款面向家庭场景的边缘计算产品,视频监控的事后查证通过AI图像处理技术,进行事件分级,及时推送提醒,从而变为事前预警。并参与集团音箱研发、手表研发等丰富的产品创新创造。
数字未来:构建内生安全的防御体系
网易数智副总经理、网易易盾总经理,毕业于浙江大学计算机专业,浙江省“万人计划”青年拔尖人才,互联网内容安全领域技术专家,从事互联网内容安全和业务安全领域的技术研究工作15年以上,积累了深厚的理论和实践经验。在职业生涯中,朱浩齐作为项目主要负责人,积极投身数字内容风控相关行业的标准建设与技术创新工作,带领团队参与省部级科技项目5项,申请发明专利27项,获浙江省科学技术进步奖一等奖1项。
在内部保障网易集团业务的安全,在外有着安全产品与行业级解决方案经验,以AIGC、娱乐社交、游戏、泛零售等数十个细分行业的广泛企业应用,有着数字安全服务深刻洞见。对于内容安全、业务安全、应用安全以及安全专家服务等,全方位保障业务合规、稳健和安全运营,具有行业最深刻的思考。
安全可信大模型解决方案的探索与实践
360集团大模型算法高级研究员,大数据协同安全技术国家工程研究中心大模型专委会主任,负责360智脑基础大模型研发管理工作,曾先后供职于腾讯、贝壳找房,任数据智能中心总经理。拥有近20年人工智能技术研发和多元化团队管理经验,长期深耕于自然语言处理、大模型、搜索引擎、深度学习、知识图谱等领域。
企业级智能化客服与风控系统建设
美的集团智能风控技术负责人,主要负责智能风控、智能客服及AIGC集团战略业务。在大数据技术、算法工程、自然语言处理(NLP)和推荐系统等领域具有深厚的专业知识,擅长通过大数据与智能化技术的结合,构建高效的AI智能应用。曾先后就职于腾讯、OPPO和字节跳动等知名互联网公司,主要从事大数据与智能化体系的建设工作。在此期间,参与并主导了腾讯和OPPO内部的算法中台和大数据中台的建设。此外,他还主导了抖音春节活动的用户反馈监控和抖音道具的性能推荐项目,积累了丰富的智能化产品开发经验。过往发表了数十篇团队专利,多次获取公司最佳技术团队称号,展现了其在技术创新和应用方面的卓越能力。
飞行汽车智能化探索
小鹏汇天互联网中心与IT信息化部负责人,负责智能座舱和智能制造信息化业务和管理,擅长产品技术团队管理,通信和互联网及智能汽车领域15年工作经验,曾任UC浏览器服务器负责人,带领团队持续在性能/省流量方面保持行业第一,后任阿里巴巴uc业务线大数据团队负责人、斗鱼国际CTO、海外直播nonolive mildom联合创始人,联合创立的海外直播产品nonolive获得YY ,阿里巴巴,斗鱼多轮融资,用户规模超过8千万,后被斗鱼并购,与日本三井物产合作孵化日本本土游戏直播产品mildom,DAU超过百万排名前2。
AI原生应用探索实践
百度主任架构师、文心一言 APP 技术负责人,曾负责百度端智能和跨端渲染方案,先后负责搜索、推荐、百度 APP 等基础架构工作,对 AI Native 应用开发有近 2 年的实践经验,在 Prompt Engineer、智能体编排架构和智能体优化方面有深入的技术积累。
AIGC多模态内容理解与交互应用
华为 2012 文本与机器翻译实验室主任工程师,发表CCF-A以及IEEE Transactions系列汇刊十余篇,曾获得吴文俊人工智能优秀博士论文奖以及IEEE Transaction系列汇刊最佳论文奖。主要研究方向为多模态情感计算,图像视频语音模态内容理解与交互。
以 Artifact 为中心的 AI 研发工作流
恐龙之门科技 co-founder,负责中小企业多云的 AI平台解决文案。多年深耕探索 AI 开发效能领域, 重心是构建高效低碳的 AI 平台。先后在搜狗、云云网、豌豆荚从事搜索引擎的开发,后在小米负责 CloudML 平台的产品与开发,将 CloudML 打造成为小米支撑 AI 研发的主要平台;在昆仑天工带队做 LLM 的自动评测平台和数据飞轮。
心流与创新:AI Native 生产力工具的发展、产品价值与商业场景落地
商汤科技产品总监、商汤科技 Copilot 产品负责人,资深产品专家。Boston University 数学和经济学学位、金融工程硕士学位;Tufts University 国际关系和工商管理硕士学位。曾于 EverQuote 和 Charles River Development 等科技公司担任产品经理,负责产品从概念到市场的全过程。加入商汤后参与了各技术阶段 AI 产品在 ToG、ToB 等领域的创新和落地,现负责「小浣熊家族」系列AI Native 生产力系列工具产品从day 1的概念、模型、产品到商业闭环验证。
大语言模型人格化模拟在泛娱乐领域的应用
科大讯飞AI人格产品负责人,2022年出任大语言模型AGI创新应用方向产品负责人,进一步将其职业重心转向前沿的人工智能领域。主导推动创新模拟类人交互特征在IP领域应用。运用虚拟人的结合推动了AI技术的发展,为AI泛娱乐化应用开辟了新的探索方向。曾任科大讯飞智能硬件产品经理,在智能硬件和人工智能领域拥有丰富经验。主导推出了前端麦克风声学阵列、语音智能硬件以及智能家居解决方案,积累了深厚的技术和运营经验,深入参与运营群战略、经营以及产品相关工作。
B端AI智能平台构建之路
钉钉AI产品负责人、钉钉创始产品团队成员,十余年的 B 端产品设计经验;负责钉钉基础平台/沟通平台/行业化/开放平台等,完整经历和参与了钉钉各个核心模块的产品建设,从无到有构建钉钉深厚的底座开放能力和生态开放,现全面负责钉钉的 AI 产品智能化建设工作。
数字人产品设计思维与应用实践
小冰产研总负责人、小冰商业应用事业部总经理 兼 技术总监、小冰语音算法团队 负责人
AIGC赋能内容营销应用
OPPO AIGC营销算法负责人、营销算法专家,负责公司核心产品的广告投放、内容营销等业务的算法研发工作,包括广告推荐、AIGC等算法的架构及应用,擅长用户增长和智能营销算法。原阿里巴巴算法专家、蚂蚁技术大学讲师,9年AI算法研发经验,多项算法专利,从0到1主导过多个AI创新突破项目,在AI技术的应用上有着丰富的实践经验。
AIGC金融线上渠道应用实践
广发银行信用卡中心商业分析负责人,负责线上平台的商业分析和商业智能,领导过多个用户规模千万级、营收规模千亿级产品的数据运营和数据营销项目,擅长数据分析、数据运营和商业分析。超过15年的互联网和金融行业经验,前阿里巴巴产品运营专家,微软认证PowerBI数据分析专家、PMP项目管理专家和PBA商业分析专家,在数据分析、数据智能和商业分析有极其丰富的经验。出版畅销书《运营之路:数据分析+数据运营+用户增长》。
AI驱动下的XR数实融合体验创新
联想研究院资深设计师&设计经理、专注XR及智能化领域体验设计多年,拥有20多项相关国家专利,设计过的项目多次获得国家级奖项。2023中国服务业设计十大杰出青年提名奖与人人都是产品经理平台2023年度最受欢迎作者奖。著有《AR界面设计》畅销书籍。
使用模型服务网格解决大规模AI模型部署与管理中的挑战
阿里云容器服务Kubernetes及Service Mesh技术负责人
擅长Kubernetes/云原生/服务网格等领域。曾在IBM中国开发中心工作, 作为架构师和主要开发人员负责或参与了一系列在SOA中间件/云计算等领域的工作, 曾担任中国研发中心专利技术评审主席, 并拥有100多项相关领域的国际技术专利授权及申请。 出席行业内多个技术大会,如Kubecon、IstioCon、云栖大会等。著有《Istio 服务网格解析与实战》畅销书。
云原生+AI:打造大模型工程化落地最佳实践
火山引擎容器服务工程师,火山引擎容器服务 TL,负责应用小组,在 Kubernetes、Serverlesss 和稳定性保障方面有较为丰富的研发经验。曾在阿里云从 0 到 1 搭建起面向应用的 Serverless 产品 Infra,负责 Infra 的技术性先进性和稳定性。多次在 kubecon 等大会作为讲师分享云原生相关的技术,专注于云原生 AI 领域技术和产品化。
大规模云原生集群可用性实践
腾讯云云原生可用性负责人,腾讯云技术专家,擅长k8s和etcd领域,主导了超大规模的TKE集群控制面稳定性体系建设,目前主要负责腾讯云云原生产品可用性架构设计、风险识别及治理等工作,对云原生如何助力在线、大数据、AI等业务稳定发展,有着丰富的经验和最佳实践。
基于Kubernetes和无服务器的Stable Diffusion大规模部署最佳实践
亚马逊云科技现代化应用解决方案架构师,负责亚马逊云科技容器和无服务器产品的架构咨询和设计。曾在IBM Cloud任容器产品专家一职。致力于容器技术,无服务器技术和现代化应用的推广,以及充分利用公有云和容器技术加速生成式AI的发展,使得用户更简易的利用生成式AI。
多云一体的云融合实践
OPPO云高级架构师,集群技术负责人,主要负责容器计算平台的架构和研发工作。自2014年开始容器技术方向的研发,先后服务于京东商城、OPPO。作为京东商城、OPPO全量业务上云战略实施的主要架构师,职责涵盖从初期技术预研,整体架构设计,容器平台的研发到与业务协作落地及平台的持续演进。当前主要领域为大规模、超大规模的容器集群管理与调度。
Serverless在大规模应用架构转型中的运用
永源中间件总经理,中间件技术专家,毕业于北京邮电大学和清华大学,曾供职于金山软件、IONA科技公司、红帽软件、金蝶天燕。原红帽公司JBoss应用服务器核心开发组成员,曾担任金蝶天燕CTO。Apache/JBoss/Eclipse 开源组织committer/contributor。熟悉Java生态内各项技术、开源技术爱好者,喜欢接触各类开源项目,学习优秀之处并加以借鉴,认为阅读好的源码就和阅读一本好书一样让人感到愉悦;在容器化云原生、分布式计算、企业应用设计、移动行业应用,Devops等技术领域有丰富的实战经验和见解。
Istio多云架构下的思考与实践
趣丸科技资深运维架构师,主要负责趣丸业务 和 kubernetes + Istio 等基础设施稳定性保障工作,参与公司多云架构建设;主导公司混动工程落地。拥有超过十年的SRE专业经验,近5年主要从事企业容器落地相关运维工作。曾在西山居主导基础设施高可用建设和 kubernetes 落地相关工作。
Apache Paimon在阿里巴巴集团的应用与优化
阿里云智能技术专家,Apache Paimon 创始团队成员之一。目前负责 Apache Paimon 的研发工作,以及在阿里云的商业化工作。擅长大数据计算相关领域,并参与多个大数据相关开源社区。目前任 Apache Paimon PMC 成员以及 Apache Flink Committer。
阿里云EMR StarRocks云原生存算分离架构探索与实践
阿里云计算平台开源大数据技术专家,StarRocks Contributor,负责EMR StarRocks存算分离架构研发、内核优化及产品化落地。10年以上大数据及数据库相关架构及研发经验,曾参与基于开源组件构建的分布式数据库中间件、数据分析平台的建设。
京东基于Hudi的数据湖优化及实践
京东零售技术专家,Apache Hudi Committer,Hudi 0.13.1 Release Owner,Apache Druid Committer,专注于数据湖及OLAP技术,目前负责京东数据湖平台能力的建设。
新一代云原生数仓的设计原理、关键技术与最佳实践
火山引擎ByteHouse产品负责人,负责ByteHouse的产品化、市场化工作,在 OLAP 领域有 15 年以上的经验,曾服务于IBM、Teradata、Huawei 等行业头部企业,负责过多家金融机构企业级数据仓库的咨询规划、系统建设、解决方案设计和落地等。在大数据技术应用领域有着深刻的技术洞见。
抖音集团高性能数据集成平台建设演进之路
抖音集团数据研发工程师,负责抖音集团数据集成平台的开发与建设,在数据集成平台建设上有一定的经验和实践,对行业上的一些开源数据集成工具比较熟悉,开源爱好者,同时,也是Apache SeaTunnel PMC Member & Committer,并且贡献过DataX、FlinkX、Debezium、Flink CDC等知名数据集成项目。
存算一体的大规模配送调度引擎架构
美团高级技术专家,目前负责美团履约平台团队负责调度引擎系统架构和性能工程,在分布式系统架构,高性能存储与计算等方面多有涉猎。曾先后从事搜索,广告等方向的研发工作,经历过多个大型系统架构从草创搭建到不断演进的过程,有着非常丰富的技术架构经验。
快手流批一体架构探索和演进
快手技术专家,负责快手Flink SQL方向工作,多年大数据实时和离线计算经验,擅长大数据场景的架构和方案设计。快手多年重大活动实时计算场景SQL方案制定者和稳定性保障负责人,为快手实时看板的指标计算定制专有SQL语法和实现,并深度优化性能,助力业务达成目标。曾任京东大数据离线引擎负责人,主导京东大数据Adhoc生态的建设。熟悉Hadoop生态,是多个Apache项目的贡献者,活跃在Flink技术社区。
知识增强大语言模型与多模态大模型前沿进展及应用
前达观数据副总裁,人工智能标准编制专家,、知识图谱和AGI著名专家,专注于知识图谱、AGI、大模型、自然语言处理、认知智能、强化学习、深度学习、AI大工程等人工智能方向。现在是上海市人工智能标准化技术委员会委员,上海科委评审专家,中文信息学会(CIPS)语言与知识计算专委会委员,中国计算机学会(CCF)高级会员,中国人工智能学会(CAAI)深度学习专委会委员,信通院大模型标准编制专家。 曾获得多个国际国家级、省部级、地市级奖项,拥有数十项人工智能领域的国家发明专利和会议、期刊学术论文。以知识图谱+大模型等产品服务于金融、智能制造、供应链、半导体、汽车工业、航空航天、新能源、双碳等领域。著有畅销书籍《知识图谱:认知智能理论与实战》。
多模态数据支撑的对话式AI技术
晴数智慧创始人兼CEO,对话式AI先行者,毕业于中国科学院声学所,曾任中国科学院声学研究所副研究员,巴黎法国国家实验室LIMSI-CNRS语音交互处理博士后,从事大词汇连续语音识别的声学建模以及语言建模。张晴晴博士同时还是CCF语音对话与听觉专委会委员、智能汽车分会执行委员、女计算机工作者委员会委员、标准工作委员会委员。秉持“以数据为中心”的理念,带领团队设计了一系列高质量可快速用于大模型构建及精调的对话式数据集,为全球人工智能领域研发企业和科研机构提供领先AI数据解决方案。
OpenVINO解锁多模态大模型的优化、推理与部署
英特尔AI软件步道师,曾任上海大学副教授,硕士生导师,主持及参与国家级及省部级科研项目十余项。并曾在贝尔实验室(中国)担任研究科学家,负责5G通信系统的新技术研发及标准化工作。在加入英特尔之前,曾任埃森哲(中国)有限公司数据科学家,负责基于AI的交付解决方案,对AI行业有着独到且深刻的见解。
AI助手技术演进实践和多模态趋势
京东零售大模型科学家、技术总监,前华为智能协作领域 AI 助手首席专家,前昆仑万维天工大模型高级总监,在 AI 助手,NLP 和搜索领域有十多年研发实践经验,曾任华为 - 北大联合语音语义实验室研究观察员,在华为,百度期间主导构建了业界一流的 AI 算法系统并落地 AI 助手以及搜索场景,在大模型方向上主导过业界知名大模型的核心技术研发,目前专注于大模型技术以及在 AI 助手搜推等领域的应用探索和实践,在 AI/NLP 领域申请超过 15 项发明专利并出版两部著作。
大模型机器翻译新范式
华为2012实验室翻译中心主任工程师,西安交通大学学士,香港城市大学硕士。长期从事机器翻译/多模态翻译/大模型翻译领域的研究,在ACL、NAACL、ICASSP、INTERSPEECH、INLG等自然语言处理和语音信号处理领域的国际会议上发表论文十余篇。参加国际机器翻译比赛WMT、IWSLT、WAT等,获得多项第一名。参与华为机器翻译从0到1的构建,支撑着华为各产品的翻译服务,包括华为手机、HMS、华为云等。
百度内容生态AI视频创作工具研发与应用实践
百度内容生态研发部内容架构负责人,负责内容生态大模型技术架构,包括AI算力托管,AI大模型治理,推理加速等系统和能力建设工作;在内容理解,内容生成等技术领域具备多年架构经验;从零到一参与百度内容生态AIGC产品度加剪辑的设计和系统研发,实现了从文案创意到视频创作的一站式创作平台打造和落地;负责内容生态技术架构之前,先后负责和参与百度好看视频,百度APP等产品的技术研发和管理工作。
从知识到价值:大模型行业应用实践
百川智能商业解决方案总监,负责百川大模型商业化解决方案规划,从0到1参与百川行业大模型、RAG知识检索的商业化解决方案,实现了大模型从通用到行业应用的打造和落地。擅长企业大模型应用实践咨询、产品数字化转型业务咨询。曾在百度、华为等互联网公司任职商业化平台产品与解决方案工作,在大模型之前,先后负责内容创作平台、AI开放平台、NLP定制化训练平台等产品的规划和管理工作。
大模型赋能研发效能提升的探索与实践
科大讯飞技术负责人、iFlyCode产品总架构师、研发总监,主导基于大模型的研发效能提升的研究与探索,专注于企业内部的效能平台与效能体系建设。对大模型时代的研发效能提升有较深的理解和实践。长期从事新技术的研究与探索,软件产品架构设计等相关工作,主导完成多个效能平台从0到1的建设并在企业中成功落地。
生成式AI提升开发者效能
亚马逊云科技资深布道师,20年ICT行业和数字化转型实践积累,专注于AWS云原生、云安全的技术内容创建和研究,曾就职于VMware,戴尔中国,作为资深架构师专注为金融、教育、制造以及世界500强企业客户提供数据中心建设,软件定义数据中心等解决方案技术服务与落地。
AI原生时代软件研发效能提升实践
百度智能研发副总经理,负责文心快码(Comate)智能代码助手、云IDE平台、需求管理平台、代码静态分析平台、代码搜索服务、研发数字化和效率云平台等业务和团队。在代码智能化、静态分析、开发工具、软件测试、研发数字化等领域深耕十数年,积累国内外发明专利58个,已获授权专利34个。国家重点研发计划『基于编程现场大数据的软件智能开发方法和环境』技术骨干。OpenHarmony技术指导委员会IDE TSG成员。曾任移动互联全国创新大赛决赛专家评委,热爱技术创新,骨灰级技术平台和研发管理实践专家。
微服务智能化的体系化建设
阿里云分布式事务产品负责人,Seata 开源项目创始人,Higress Maintainer。有超过 10 年研发架构经验,推动了集团内中间件的大规模落地、微服务 PaaS 商业化和开源。目前关注在云计算中间件相关领域,致力于打造下一代微服务架构。
AIDevops代码大模型推动的研发新范式
快手智能研发中心高级算法专家,主要负责快手代码大模型算法研发、模型预训练、微调以及相关应用落地,包括大模型在代码续写、智能Oncall、智能研发助手等场景的落地实践。
豆包 MarsCode 智能研发应用探索
字节跳动豆包 MarsCode 智能编程助手团队技术负责人、架构师,负责大模型结合开发者工具探索和产品化,包括编程辅助 Copilot (代码续写、代码编辑、代码问答)以及 Agent 智能体(代码调试、软件维护)等产品形态。14 年的软件开发和架构师经验,先后在腾讯和字节跳动工作,专注在性能优化、研发效能和研发工具链建设等方向。在字节跳动负责过 LLVM 编译器工具链,自研深度静态分析引擎,智能编程助手等方向,持续关注大模型在代码模态上的技术演进以及新型开发者工具的交互设计,擅长结合学术界工业界的前沿探索成果落地到软件研发过程。
基于开源方案的企业私有化编码助手实践
联友科技研发效能部负责人,负责联友科技公司智能编码助手、软件研发管理平台、共享服务平台等业务建设及团队管理,推进了包括DevOps、微服务治理、代码智能生成等场景在企业内部的落地实践,有着多年丰富而专业的技术经验。
LLM For DataInfra运维应用实践
蚂蚁集团数据基础设施智能化负责人、LLM+DB Infra 负责人,在数据基础设施、智能化、运维稳定性等方面有丰富的经验与深入研究。曾就职于阿里、蚂蚁等公司。先后带领团队攻克了跨境数据精准搬迁、全球数据合规架构、超大规模仿真数据同步与闪回镜像等命题。2023年聚焦智能化,发起DB-GPT开源社区与项目,社区目前累计超过15k star,有两篇CCF-A顶会论文,1篇软著。热爱开源与技术探索,目前致力于数据基础设施智能化相关领域的探索与实践。
基于大模型的云原生可观测运维体系
阿里云技术专家,云原生游戏方案负责人。在可观测性与运维体系建设方面具有扎实经验,曾发表论文Fisher: An Efficient Container Load Prediction Model with Deep Neural Network in Clouds (ISPA 2018);Nanily: A QoS-Aware Scheduling for DNN Inference Workload in Clouds (HPCC 2019)。深耕于云原生基础架构领域, 作为OpenKruise、CloudNativeGame开源社区Maintainer,多次在KubeCon、云栖大会等技术论坛中进行主题分享。目前致力于运用智能化技术提高运维效能,并推动运维体系智能化发展。
基于大模型在SRE平台工程中的探索
蚂蚁集团财保线SRE负责人、SRE Agent负责人,在数据仓库的构建与优化、数据库的高效管理,以及确保系统高度的可靠性和稳定性方面,拥有丰富的经验积累。带领团队以平台工程理念为金融类业务的稳定运行提供坚实后盾,同时积极探索将大模型与运维工作相结合的新路径,力求在保障系统稳定的同时,提升效率与智能化水平。目前正全身心投入到AI业务运维的研究中,致力于利用AI技术优化运维流程,提高风险应对能力。
构建自动化运维体系:运维大模型应用实战
华为云AppStage运维经理,信通院稳定性保障实验室技术监督委员会委员(TOC),具有多年软件研发和项目管理经验,擅长运维体系构建,应用可观测性、高可靠设计,混沌工程实施,AIOps及运维大模型应用。目前正探索通过前沿大模型技术赋能运维工作,提升运维的自动化和智能化水平,提高运维质量,构筑云原生时代的应用稳定性。
Multi-Agent在智能运维上的应用
趣丸科技的资深架构师,拥有多年的行业经验,专注于可观测和智能运维项目。在可观测、高可用系统架构设计以及人工智能领域积累了丰富的实践经验。目前,正致力于探索AI运维Agent在IT运维领域的有效应用,以及AIGC技术在研发流程中的创新赋能方式,旨在通过这些前沿技术推动企业的数字化转型和业务创新
大模型训练在智能运维中的落地实践
基调听云CTO ,中国第一批商业化APM工具缔造者、实践者,专注于大模型在智能观测性平台和AIOPS的产品研发及商业化运营上,对APM及可观测性行业有较深入的理解及洞见,正在对大模型在运维领域的应用做深入探索。在金融、运营商及高科技等领域,有着非常专业的技术方案和产品洞见。
腾讯混元大模型LLMOPS应用实践
腾讯混元机器学习平台部产品经理,具有多年产品经验,连续负责过广告推荐等机器学习平台建设工作,当前主要负责混元模型训练、推理的一站式LLMOps平台的产品建设,并支持腾讯各产品应用混元大模型,将AIGC落地各产品线,包括微信公众号、搜狗输入法、腾讯会议等近百个业务落地。致力于将先进的人工智能技术融入到实际业务场景中,为用户带来更加智能化的服务体验。
AI大模型时代的业务架构智能化转型
51Talk技术副总裁兼AI研究院院长,目前专注于AI驱动组织转型、AI驱动内部效率提升以及AI个性化学习相关内容,善于用“业技”融合推动组织优化流程、提高组织效率。擅长业务架构设计、中台架构设计、DDD及微服务架构设计。
开放式、多引擎兼容的数据开发与治理
阿里云智能集团瓴羊高级技术专家,深耕大数据领域十余年,负责阿里云智能集团瓴羊Dataphin建设平台的工程研发。从0到1深度参与了Dataphin产品的研发工作,见证了Dataphin近些年的发展历程。2010年加入阿里,在瓴羊成立之前任职于阿里数据中台部门,《大数据之路-阿里巴巴大数据实践》作者之一。负责OneService数据服务的研发,对内支撑了生意参谋、双11大屏等重要业务场景。
数智化研发管理优化
乐信集团技术线质量管理部总经理,负责集团研发效能建设、质量管理以及项目管理等研发管理工作,擅长搭建数字化软件研发管理体系和流程建设,作为牵头者和相关人员建立乐信数字化软件研发管理体系,尤其质量管理和流程制度设计工作使得交付效率提升20%+,交付质量的恢复时长降低80%,曾作为嘉宾参加深圳多个知名企业的研发管理实践分享,拥有5项相关领域的专利申请和授权。
新质生产力之数智驱动的企业数字化转型
美云智数数字运营事业部总经理、智能制造灯塔工厂专家、企业数据运营专家。原HP 全球软件交付中心产品负责人。专注智能制造工业软件,企业级数据应用软件,信息化应用软件研发与交付22年,企业数字化转型、信息安全与数据隐私保护专家,先后服务美的集团、新加坡国防部,工行、建行、万科、OPPO、 铁骑力士、旭辉、爱玛、长安汽车、长城汽车、立邦中国、东风汽车、石药集团等国内外大型企业数字化转型规划与建设,新质生产力数智驱动卓越运营驱动企业数字化转型倡导者与推动者。
智能数字员工Agent的发展与应用
达观数据技术副总裁,负责达观数据RPA产品和agent平台团队组建和研发。在加入达观之前,联合创立“飞语云通讯”并担任CTO,在系统工程开发、大规模并发网络、Go语言程序设计等方面有丰富的经验,先后在格尔软件,爱克发医疗,盛大创新院,飞语等公司就职,有十余年的软件开发经验,带领团队参与了信息安全,医疗影像,云存储,支付和计费系统、云通讯平台等的研发工作。荣获2023年上海市浦东新区”明珠工程师“、2021年上海“张江工匠”、上海市软件行业协会“软件开发技能标兵”等称号及荣誉。
全球化的大数据与AI工程平台最佳实践
腾讯海外游戏IEG Global Data Platform负责人,10多年在腾讯游戏大数据架构和应用相关的经验,搭建腾讯游戏国内大数据平台,OLAP多维分析,实时计算及规则推荐系统。最近3年聚焦构建全球的腾讯游戏多云的数据中心,数据平台和AI和LLM大模型算力架构。同时,负责游戏海外数据洞察产品DataBrain。
AI4SE华为智能化研发实践
华为云CodeArts软件开发生产线产品负责人,12+年的华为研发效能及工具能力建设经验,历经华为内部ALM、敏捷、持续交付、DevOps、工具连续性保障、研发智能化等多次研发能力变革和实践落地。2016年开始负责将华为多年内部研发实践及能力通过华为云CodeArts进行外溢和技术布道。
万物大模型:通往通用具身智能之路
灵宇宙CEO、前物灵科技CEO、联合创始人。打造以人工智能技术与灵性交互设计结合的创新产品与体验,构建“万物有灵”的智能生活。 毕业于清华大学,前百度人工智能研究院人机交互负责人,前微软研究院研究员。拥有囊括硬件和软件的22项美国发明专利,120余项国内专利,是美国斯坦福大学ME310国际创新课程的客座监事。2016年被美国麻省理工学院《技术评论》(Technology Review)评选为MIT TR35全球35位世界科技创新家,2015年被《福布斯》Forbes评为中国最具发展潜力设计师。
小爱同学的大模型升级历程
小米公司小爱同学技术负责人,负责过小米应用商店、小米视频的搜索。目前负责小爱同学的技术团队,包括算法、工程和质量,主导了小爱同学的技术从传统机器学习、深度学习、 预训练模型、到大模型的迭代升级,使得小爱同学在手机、汽车、音箱、电视等设备上保持体验领先。武汉大学研究生毕业,专注于NLP、搜索、数据等相关技术的研究和应用,在语音助手领域有丰富的实践经验和认识,拥有相关专利20余项。曾就职于百度,长期从事NLP方向相关工作。
人机交互的智能座舱大模型产品应用实践
蔚来汽车数字座舱部高级总监、车载伙伴NOMI研发负责人 、前瞻系统部负责人,博士毕业于中国科学院声学研究所;曾任微软STC语音科学家,负责基于分布式计算平台的超大规模语音识别模型训练系统,语音助手Cortana语音识别和自然对话系统的研发工作;曾任腾讯搜索部门语音研究员,负责QQ音乐、腾讯地图的语音搜索研发工作;曾任阿里巴巴资深算法专家,达摩院语音实验室创始团队成员,负责阿里巴巴自然对话系统NUI核心系统和算法研发、平台化、产品化和商业化的工作,负责NUI在各AIOT各种场景下的落地:包括汽车(斑马)、电视领域(海尔/康佳/天猫魔盒)、手机app领域(高德/手机淘宝/支付宝)等的落地。近20年的语音处理、自然语言处理和机器学习的相关工作经验。
基于人机交互场景分析的Agent架构、智能座舱发展
吉利汽车座舱中心AI产品负责人、语音助手产研负责人。毕业于中国科学技术大学,16年AI+智能汽车方向的工作经验。历任科大讯飞智能汽车事业部总监,事业部创始成员,负责深度学习技术下第一代车载语音交互系统的产品定义、项目落地及业务推广工作,实现新技术、新产品、新业务从0-1的建设;任阿里YunOS&斑马智行产品总监,负责“你好斑马”语音助手产品规划及定义工作,负责多模态交互、AI地图产品定义工作;任高合汽车座舱产品及AI负责人,主导座舱AI团队交付并升级 Hiphi系列AI产品体验。也是AI+智能汽车方向的一员老兵,对新技术与车场景结合的产品化及商业化,拥有资深AI终端经验、深刻行业洞见。
大模型企业智能体助力用户体验与效率
联想主任工程师、IT总监,负责联想生成式AI的整体架构,以及智能体的创建,从零开始搭建联想MarTech平台及大数据相关应用系统;制订数据库设计规范与流程,参与制订公司数据分类分级,以及数据合规。擅长人工智能、大数据、MarTech,近20年IT从业经验,16项国家专利,2项海外专利,2篇国家级期刊论文。微软首届大中华区Power Platform+GPT黑客松大赛冠军
基于用户意图的AI感知体验设计创新
资深用户体验设计专家 ,20年用户体验设计工作经验,行业首席体验设计专家;原华为消费者BG用户体验产品线设计总监;荣耀首席设计体验专家;核心主导参与鸿蒙操作系统的全程设计过程及评审工作。曾任360集团用户体验设计总监、360设计学院院长,2015年成为鲁迅美术学院特聘讲师,2016年出任工信部中国数字艺术设计专家委员会副主任。
业界影响力:
1. 畅销书清华出版社《设计师+》原著作者;
2. 原360集团用户体验设计总监;
3. 原360设计学院院长,负责跟业界及全球设计公司及高校合作;
4. 工信部中国数字艺术设计专家委员会副主任;
5. 中国用户体验大会主会场演讲人;
6. 中国用户体验白皮书制定人之一;
7. 韩国岭南大学设计艺术学院特聘教授;
8. 鲁迅美术学院特聘教师;
AI大模型发展过程中人因研究对体验创新的推动
飞桨大模型核心技术架构与应用
百度资深研发工程师,负责百度飞桨基础框架的研发工作,通过完善飞桨基础架构、加速运行效率、提升用户体验,有效支撑了公司内外众多用户的深度学习需求与项目落地。在加入百度飞桨前,曾在百度、腾讯公司就职,参与机器翻译相前沿算法和产品的优化工作,有丰富的模型算法经验。
AIGC时代下高性能文件存储的智算创新实践
UCloud存储高级总监,负责分布式云盘、块设备连续数据保护产品和分布式文件存储的研发,专注于分布式存储领域,拥有超过10 年的大规模公有云存储架构开发和AI存储架构设计经验,参与主导了UCloud PFS高性能文件存储系统从0到1的产品落地以及设计研发工作,为国内众多知名AI公司提供高性能数据存储解决方案。
Flame: 新一代的AI推理框架
英伟达高级软件工程师,负责DPU和Infiniband基础设施平台的建设,CNCF孵化项目Volcano开源社区Maintainer。拥有十年以上大规模分布式计算、高性能计算领域的从业经验。曾就职于Platform Computing, IBM,华为云等公司,负责分布式计算平台以及容器批量调度平台的开发工作。加入英伟达后,目前专注于构建与管理AI基础设施平台。拥有容器相关技术专利,多次出席行业内技术大会。
字节跳动基于 OpenSearch 构建 RAG系统实战
火山引擎云搜索资深研发工程师,目前负责字节跳动云搜索相关机器学习等创新业务。主导智能搜索、RAG检索、多模态搜索等多个场景的 ToB 落地。硕士毕业于上海交大,在云原生、大数据、AI基础架构行业有十年开发经验,曾参与多个计算系统的ToB落地。
Project-HAMi开源异构算力切片技术
第四范式一体机项目组架构师,清华大学计算机系硕士,专注于云原生以及异构算力领域,擅长云原生架构,GPU虚拟化和异构算力管理,CNCF Speaker,CNCF毕业项目volcano reviewer,CNCF Landscape项目HAMi作者,该项目已经累计部署超过10万个节点,超过40家企业采用,发表过4篇与云原生算力相关的专利,与信通院合作撰写《云原生AI技术架构白皮书》
基于Ray搭建面向AI服务的机器学习平台
eBay机器学习平台架构师,负责基于Ray框架构建下一代机器学习平台。浙江大学计算机系硕士,拥有超过十年的人工智能领域工作经验。曾在独角兽创业公司负责推荐、搜索算法优化相关业务及机器学习平台开发。加入eBay后参与了特征工程管理平台、统一推理平台和模型训练平台的工作,并负责eBay大模型基建相关任务,支撑公司内部大模型预训练,微调,对齐,推理,RAG等相关应用。多次出席国际技术会议。
面向大模型的云原生算力架构设计
谐云AI技术专家,负责谐云云边协同平台、乾坤鼎云原生AI开发一体化平台、大模型平台等业务和团队工作。在云计算、边缘计算、AI等领域深耕数年。曾在国家重点科研项目、浙江省和杭州市重大项目中负责云边协同架构设计、研发和落地,良好地支撑了边缘计算的业务场景。拥有数十项相关领域的专利申请和授权。
AGI时代的统一元数据基座
Datastrato 联合创始人 及CTO,Apache member,Apache Spark PMC成员,Apache Gravitino创始人,专注于开源大数据基础软件的研发。曾负责腾讯大数据实时+离线+湖仓相关的产品研发,主导Iceberg在腾讯的落地,过往就职于腾讯、Hortonworks、Intel,在大数据、开源技术领域有着独到的见解与经历。
基于AI的BI数据消费新范式
阿里云智能集团瓴羊资深算法专家、阿里巴巴数据中台算法核心成员,负责阿里云智能集团瓴羊Quick BI、Dataphin等多款数据产品的智能化能力构建,以及数据分析行业大模型的建设。其负责的Quick BI 智能小Q 是首批通过信通院专项测试的数据分析领域大模型应用。曾负责阿里巴巴数据中台的用户画像、OneID、AutoDM等多个产品、系统的算法建设,作为关键中台服务之一,日均调用量到达百亿级别。算法研究方向聚焦在大模型、NL2SQL、 AI Agents 等,在KDD、SIGIR、ICLM等多个顶会发表多篇论文。
大模型赋能数据研发智能技术
腾讯大数据AI算法负责人,高级研究员,博士毕业于北京大学计算机系,曾获WWW最佳学生论文奖、ACM北京优秀博士论文奖等荣誉,在NeurIPS、ICML、SIGMOD、VLDB、 SIGKDD、WWW等国际顶级学术会议上发表了超过30篇CCF-A类论文,并担任多个国际顶会审稿人,研究兴趣主要包括决策算法、大模型技术、AutoML、AI for Systems。目前主要负责负责腾讯大数据决策类AI和生成式AI的基础算法、框架、应用研发工作
数据智能加速DataOps的探索与实践
中电金信数据智能首席专家,研究员,目前负责中电金信数据资产平台智能化研发。曾任之江实验室金融中心主任,阿里云资深算法专家,数据智能产品团队算法负责人,在数据智能领域十几年工作经历。曾就职Mathworks、百度、微软、平安等公司,长期从事数据挖掘、机器学习、数据智能领域的算法研发和产品研发。
AI驱动下的企业级数据分析及营销智能
神策数据 AI创新副总裁,毕业于清华大学五道口金融学院和电子科技大学,曾荣获福布斯中国30 Under 30和胡润Under 30s创业领袖等荣誉。目前负责神策数据的 AI 应用落地,专注于大模型在数据分析及营销智能方面的应用探索,拥有丰富的人工智能、大数据和金融科技领域的实践经验。在加入神策数据之前,曾创立一家金融大数据科技公司,构建智能金融市场的另类数据基础设施。以领先的智能云数据采集平台,构建完整且强大的数据网络,支持金融商业图谱及自动投资决策。
AI原生数据应用开发实践
京东零售大数据平台智能化技术负责人,开源项目DB-GPT 核心开发者兼首席架构师。多年大数据引擎研发经验,擅长大模型应用开发/大数据计算引擎/大数据分布式调度等领域。曾负责京东科技大数据平台离线计算引擎和分布式调度系统研发,主导京东科技大数据平台与京东集团统一数据平台的迁移工具建设。
ChatBI:大模型驱动下的数据分析技术探索和实践
网易数帆有数BI技术负责人,拥有超过8年的BI领域开发和实践经验。专注擅长图表性能优化、数据建模及可视化图表查询技术的开发和研究。目前,主要负责带领团队结合大模型技术,打造ChatBI产品,给客户提供更智能的数据分析和应用体验。其负责的有数ChatBI是首批通过信通院专项测试的数据分析领域大模型应用,在娱乐社交等场景下的实际落地成果也入选2023年信通院AI4SE“银弹优秀案例”。
MetaGPT:重塑自然语言编程,多智能体引领模型训练的革新探索
DeepWisdom 合伙人、MetaGPT 核心贡献者、AI解决方案架构师总监,MetaGPT团队核心成员,佩斯大学硕士,河海大学(在读)博士;主要负责能源电力领域项目;拥有数千万级能源电力AI Agent项目实践落地经验。所获专利:“一种云边端AI模型管理方法、存储介质、电子设备”、“一种模型的训练方法及装置”;所著论文:“Data Interpreter: An LLM Agent For Data Science”、“基于中台的智能水电站优化调度策略研究”
基于标签+指标,LLM Agent在数据分析领域的技术与实践
数势科技AI负责人,数势科技智能算法的开发,包括内容推荐,文本生成,知识图谱挖掘等算法技术。英国纽卡斯尔大学博士,在智能算法领域学术与工作经验丰富。在学术研究方面,拥有10项智能算法相关专利并发表4篇国际期刊,也曾主导由欧洲玛丽居里计划资助的国际项目,在研究期间,共发表了3篇期刊文章、1篇会议文章和1篇chapter;在工作方面,曾任职京东零售数据中台,负责人工智能技术在营销领域的相关落地,多次获得优秀员工及集团战略项目奖。
具身智能机器人:开放域多模态推理智能体
机器姬首席技术官,具身智能方向知名技术专家和科学家,机器人领域青年领导者之一,7 年知名机器人公司首席技术官经历,阿里巴巴机器学习算法研究经历。学术研究领域包括具身智能、机器人学习、移动机器人技术。苏黎世联邦理工学院计算机系全奖博士休学创业,曾担任苏黎世联邦理工学院计算机系研究助理,师从世界著名的机器学习教授,同时拥有工学硕士和工学学士学位,20+ 专利第一作者, 在国际顶级期刊和会议发表论文 6 篇。文生行动推理智能体 JI Agent 的原作者,ZROS 核心作者,国家奖学金获得者,清华大学启航奖获得者、最佳论文奖获得者,中国服务机器人及特种机器人产业联盟专家委员会委员。具身智能一百零八讲主讲人。
基于 AI Agent金融领域智能客服技术应用
马上消费金融人工智能研究院算法副总监,专注在AI大模型技术应用于金融行业的核心场景,先后在企业数字化转型、智能文档处理、以及智能客服系统等关键领域,成功研发并部署了多款创新的AI Agent产品解决方案。曾任职于阿里巴巴十余年,在智能营销决策算法、商业决策算法等领域推动了一系列技术革新和业务增长,研究成果在国际学术界得到了广泛认可,近年来在AAAI、CIKM、SIGIR、WWW、KDD、ICDE、VLDB等CCF-A类顶级会议上发表了十余篇论文,并申请了多项专利,频繁受邀在各类技术论坛和行业峰会上分享实践经验,为业界同仁提供了宝贵的知识分享和交流机会。
音视频领域下AIGC的应用与创新探索
喜马拉雅珠峰AI产品专家,目前在喜马拉雅珠峰 AI 团队担任音视频大模型在喜马内部应用以及音视频创作工具的产品负责人,主要负责喜马拉雅音视频大模型以及 AIGC 的落地产品。擅长直播、社交、音视频等泛娱乐方向的产品商业化,过往曾在哔哩哔哩小视频及直播行业从事产品相关工作,也曾于爱奇艺直播与社交领域主导结合 AI 落地的海外及国内项目。
大模型技术在钉钉的应用和实践
钉钉算法负责人,钉钉炼丹炉技术负责人。擅长用户增长/自动化销售/大模型应用等领域算法。自校招加入阿里以来,曾服务于AE、天猫精灵、钉钉等不同业务线算法,研发第一代数据运营产品,稳住双十一首推的过万QPS,写下天猫精灵的首行代码。
企业场景下的大模型提示词工程探索
阿里巴巴集团算法工程师,负责智能总结业务的设计与实现,包括项目总结、OKR总结、周月报等自动化生成。面向采购业务的时序预测,利用深度学习算法,优化流量采买能力。为企业党建提供数字化解决方案,包括党建问答系统、自动化出题以及智能新闻稿生成。擅长提示词工程(Prompt Engineering),在大语言模型技术落地及其效果调优、高效部署等方面具备深厚的理论基础和丰富的实战经验。
亿级DAU产品的质量保障平台建设及LMM应用实践
腾讯PCG测试工具中心产品负责人 、高级技术产品经理,2011年加入腾讯,十年来持续投入在测试工具产品建设,负责从0到1搭建PCG全流程质量平台并在公司内大规模落地,支持QQ、腾讯视频、腾讯文档、腾讯新闻等十余个大型产品的质量保障与效能提升。在接口自动化、终端自动化和性能测试等领域拥有丰富经验,多次受邀在腾讯内部分享。
智能交付数字人的建设和应用
字节跳动研发效能专家,目前在字节主要负责智能业务研发流程标准化、效能数据洞察、效能瓶颈分析和提升;曾就职于中兴、腾讯,在中兴监控产品线引入DevOps,负责从0开始搭建敏捷研发流程规范和DevOps平台;在腾讯金融落地研发效能度量体系,推进测试左移、业务上云;参与社区众译书籍《敏捷组织设计》、《LS-释放性结构工具引导箱》
软硬件结合的质量效能的演进和趋势
蔚来汽车座舱团队QA负责人,曾任PCG工程效能部研发协同效率中心副总监,负责 PCG流程和工具协同打通和标准化效率提升的 Fiber 工具团队。为 PCG 和腾讯提供基于新的事件条件驱动的新一代流程协同工具。曾任腾讯数据质效中心和 PCG 联合质量中心副总监,负责 PCG 各个业务的研效改革和质量团队转型。曾任蘑菇街质量和项目管理负责人、小红书质效团队负责人。
全流程质量平台VIP提效创新实践
饿了么平台技术质量负责人,上海复旦大学硕士毕业,负责饿了么入淘、1+6+N本地独立部署等公司级重大项目的质量保障。目前是饿了么平台技术部,日均千万级单量的质量负责人。在测试提效方面有较多的投入和实践,曾任爱立信、百度、阿里从事测试开发行业十多年。长期专注于服务端测试,拥有10篇国家授权专利。
研效平台的数智化跃迁
360技术中台效能工程部高级产品专家,负责面向360集团研发的效能洞察平台建设。曾在京东担任高级产品经理、架构师和测试开发专家等角色,从事集团DevOps平台产品规划和自动化测试子平台的建设工作,负责过百人规模团队内部的持续集成和代码质量提升落地。曾参与编写《京东系统质量保障技术实践》,曾翻译《Selenium自动化测试基于Python 语言》。公益软件测试社区测试窝的联合创始人之一。
大模型革新的测试用例生成及自动化测试实践
开思时代研发副总监、 Devops Master,专注于研发团队的DevOps及研发效能提升工作。他在自动化测试领域拥有15年以上工作经验,历经了从web、app、接口自动化测试的各阶段自动化测试发展,曾任华为员工、部门自动化测试负责人,包括华为团队在内的,多次从0到1成功完成包括团队组建到应用落地的自动化测试相关工作。擅长研发管理、DevOps运维及自动化测试技术,拥有丰富的测试实战经验。
智能硬件终端效果质量平台建设与应用
科大讯飞硬件中心平台部软件测试负责人,拥有多年嵌入式产品系统测试经验,负责讯飞软硬一体类产品、测试平台及自动化建设、研测效能提升等工作。整体带领与交付了讯飞硬件产品,如教育平板学习机、翻译机、录音笔、智慧大屏等产品底层ROM系统,擅长终端产品系统软件测试方案制定及自动化效能提升,精湛又扎实的一线实践经验。
向量数据库助力AI大模型与技术创新
百度智能云数据库产品总架构师
资深数据库、大数据架构师,国内最早从事云产品专家之一,17+ 年软件开发,架构设计和产品管理经验。有多个产品 0~1 成功经验,以及负责 40亿+ 业务经验,有丰富的需求洞察,架构设计,服务规划,产品设计,市场等方面的经验。著有《大数据架构详解:从数据获取到深度学习》
高性能向量数据库 MyScale: SQL与向量融合的新范式
墨奇科技联合创始人兼 CTO,普林斯顿大学计算机博士学位,构建创新的 AI 技术和产品,高效、精准、可靠的从海量非结构化数据重提取价值。在顶级的计算机系统和 AI 会议上已发表论文数十篇(如 FAST/OSDI/KDD 等),并获得最佳学生论文和机器学习团队第一名等荣誉。目前,汤林鹏博士带领墨奇科技研发团队,以研发引领尖端的人工智能技术和产品为目标,彻底改变了对大规模非结构化数据的处理方式。 MyScale基于SQL的向量数据库,将SQL与向量融合为打造大数据与大模型的 Agent强大底座,帮助企业有效管理非结构化数据并构建大规模人工智能应用。
PG 数据库深度学习框架:SQL 实现 AI 模型的新方案
阿里云 PolarDB for PostgreSQL 机器学习 SIG 核心成员、库内深度学习框架 pg4ml 开源项目发起人。从业于数据库、数据分析、机器学习领域十余年,曾担任华为、平安科技等大厂架构师、数据分析专家等职位。目前,以 AI in DB 为目标,探索 SQL 实现库内大模型开发全过程的技术路线,帮助企业高效利用数据库构建 AI 应用。荣获2024年 PostgreSQL 社区开源贡献奖。
pgvecto.rs 基于 Postgres 构建向量数据库的探索与实践
TensorChord 联合创始人,上海交通大学软件工程与法学双学位。MLOps 开源项目 Kubeflow 训练与自动机器学习工作组 Co-chair & Tech Lead,曾是 Kubeflow 全球贡献前二的贡献者。曾在腾讯云、才云科技、字节跳动等公司负责机器学习平台产品的开发工作。2019 年硕士毕业于上海交通大学软件工程专业,研究方向为集群调度。数据库领域有着非常深入的技术研究专家。
低成本千亿规模向量检索方案
蚂蚁集团技术专家,开源向量数据库Milvus核心开发者,NeurIPS'21 Billion-Scale ANN Challenge Track 2冠军成员。曾在Zilliz负责存储和GPU算法相关开发工作。2023年加入蚂蚁集团,主要负责蚂蚁向量检索算法研发以及千亿规模向量数据库在蚂蚁业务场景落地。对向量检索算法与系统有丰富经验。
大模型时代下向量数据库的应用与发展趋势
腾讯云NOSQL技术负责人、腾讯云数据库专家工程师,超过10年的一线数据库开发经验,负责腾讯云Redis、向量数据库等NOSQL数据库研发工作,热爱游戏开发和数据库内核开发,擅长数据库内核技术,喜欢解决各类技术问题,丰富的一线实践经验。
下一代 RAG:tidb.ai 使用知识图谱增强 RAG 能力
PingCAP 架构师,负责 TiDB 生态系统架构及开发者 Advocate,实现 TiDB 与 AWS、GORM、 MySQL Connector、Hibernate、DBeaver及 vscode-sqltools 等平台集成。多篇撰写了 TiDB 的开发者文档,使得开发者获得更流畅的 TiDB 开发体验。同时,保障 TiDB 在技术开发者间的持续竞争力。多年编程与架构经验,且曾在腾讯音乐、锦江等公司担任重要职务,始终致力于代码的开发与精进,并专注于开发者生态建设,研发效率及体验提升,开发者赋能。