11月28日,NeurIPS 2025正式开幕。
作为目前全球最负盛名的人工智能盛会之一,NeurIPS在每年年末都是计算机科学领域瞩目的焦点。被NeurIPS接收的论文,代表着当今神经科学和人工智能研究的最高水平,也反映着行业趋势的变化。
有趣的是,这届「参赛选手」们的研究似乎都对「游戏」情有独钟。
比如,李飞飞团队基于Minecraft游戏环境的MineDojo,就拿下了最佳数据集和基准论文奖。依托游戏的开放性,研究人员可以在MineDojo中通过各种类型的任务对智能体进行训练,从而让AI具有更加通用的能力。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜
而通过严苛的录取率,同样是在游戏领域收录的另一篇论文,可能跟很多游戏玩家都相关。
毕竟,谁没玩过王者呢。
论文《竞技场:竞争强化学习的泛化环境》
地址:https://openreview.net/pdf?id=7e6W6LEOBg3
文中,研究人员提出了一个基于MOBA游戏《王者荣耀》的测试环境。目的嘛,其实和MineDojo类似——训练AI。
自DeepMind推出AlphaGo开始,游戏作为拥有高自由度、高复杂性的拟真环境,早已成为了AI研究和实验的重要选择。
然而,相比于能够不断从开放式任务中学习的人类,在较低复杂度的游戏里训练出的智能体,并不能将自己的能力泛化到特定的任务之外。简单来说就是,这些AI只能下下棋,或者打打古早的雅达利游戏。
为了开发出能够更加「泛用」的AI,学界的研究重心也开始逐渐从棋盘类游戏转向了更复杂的游戏,包括非完美信息博弈游戏(比如*)以及策略类游戏(比如MOBA和RTS游戏)。
同时,正如李飞飞团队在获奖论文里所言,想要让智能体能够泛化到更多的任务之中,训练环境还需要能提供足够多的任务。
凭借着AlphaGo及其衍生版AlphaZero打遍围棋圈无敌手的DeepMind,很快也意识到了这一点。
2016年,DeepMind便联合暴雪,基于空间复杂度为10的1685次方的《星际争霸 II》,推出了「星际争霸 II 学习环境」(StarCraft II Learning Environment,SC2LE),为研究人员提供了智能体的行动和奖励规范,以及一个开源的Python界面,用于与游戏引擎进行通信。
而在国内也有一个资质极佳的「AI训练场」——
作为知名的MOBA游戏,玩家在《王者荣耀》中的动作状态空间高达10的20000次方,远远大于围棋及其他游戏,甚至超过整个宇宙的原子总数(10的80次方)。
和DeepMind一样,腾讯的AI Lab也联合《王者荣耀》,共同开发了更加适合进行AI研究的「王者荣耀AI开放研究环境」。
目前,「王者荣耀AI开放研究环境」包含了1v1对战环境与baseline算法模型,并支持20位英雄的镜像对战任务以及非镜像类对战任务。
具体来说,「王者荣耀AI开放研究环境」在只考虑双方英雄选择条件下,可以支持20×20=400对战子任务。如果算上召唤师技能,将会有40000种子任务。
为了让大家更好地理解智能体在「王者荣耀AI开放研究环境」中接受的泛化性挑战,我们可以利用论文中的两个测试,对其进行验证:
首先制作一个行为树AI(BT),其水平为入门级的「黄金」。与之相对的是就是由强化学习算法训练出来的智能体(RL)。
在第一个实验中,只让貂蝉(RL)和貂蝉(BT)进行对战,然后再拿训练好的RL(貂蝉)去挑战不同英雄(BT)。
经过98轮测试后的结果如下图所示:
当对手英雄发生变化时,同一训练的策略的性能急剧下降。因为对手英雄的变化使测试环境与训练环境不同,因此现有方法学到的策略缺乏泛化性。
图1 跨对手的泛化挑战
在第二个实验中,依然只让貂蝉(RL)和貂蝉(BT)进行对战,然后拿训练好的RL模型控制其他英雄去挑战貂蝉(BT)。
经过98轮测试后的结果如下图所示:
当模型控制的目标从貂蝉变成其他英雄时,相同的训练策略的性能急剧下降。因为目标英雄的变化使行动的意义与训练环境中貂蝉的行动不同。
图2 跨目标的泛化挑战
造成这个结果的原因很简单,每个英雄本身都有自己独特的操作技巧,经过单一训练的智能体在拿到新的英雄之后,并不知道如何使用,就只能两眼一抹黑了。
人类玩家也是类似,能在中路「乱杀」的选手,换了打野之后,也未必能打出不错的KDA。
不难看出,这其实就回到了我们一开始提出的问题,简单的环境难以训练出「通用」的AI。而复杂度高的MOBA类游戏,正好提供了一个便于测试模型泛化性的环境。
当然,游戏并不能直接拿来训练AI,于是经过特别优化的「训练场」应运而生。
由此,研究人员就可以在诸如「星际争霸 II 学习环境」和「王者荣耀AI开放研究环境」中,测试和训练自己的模型了。
国内研究人员如何接入合适的平台资源?
DeepMind的发展,离不开实力雄厚的谷歌托底。李飞飞团队提出的MineDojo,不仅用上了斯坦福这个顶级名校的资源,还有来自英伟达的大力支持。
而国内现阶段的人工智能行业在基础设施层面仍然不够扎实,尤其对于普通公司和高校来说,正面临着研发资源短缺的问题。
为了让更多研究者参与进来,腾讯于今年11月21日正式将「王者荣耀AI开放研究环境」面向大众开放。
用户只需在开悟平台官网注册账号、提交资料并通过平台审核,即可免费下载。
网站链接:https://aiarena.tencent.com/aiarena/zh/open-gamecore
值得一提的是,为了更好地支持学者和算法开发者进行研究,开悟平台不仅对「王者荣耀AI开放研究环境」进行了易用性封装,还提供标准代码与训练框架。
接下来,我们就来「浅浅」地体验一下,如何在开悟平台开始一个AI训练项目吧!
既然要让AI「玩」《王者荣耀》,那么我们要做的第一件事就是,把用来操控英雄的「智能体」做出来。
听起来好像有些复杂?不过,在「王者荣耀AI开放研究环境」中,这其实非常简单。
首先,启动gamecore服务器:
cd gamecoregamecore-server.exe server --server-address :23432
安装hok_env包:
git clone https://github.com/tencent-ailab/hok_env.gitcd hok_env/hok_env/pip install -e .
并运行测试脚本:
cd hok_env/hok_env/hok/unit_test/python test_env.py
现在,就可以导入hok,并调用 hok.HoK1v1.load_game创建环境了:
import hok
env = HoK1v1.load_game(runtime_id=0, game_log_path="./game_log", gamecore_path="~/.hok", config_path="config.dat",config_dicts=[{"hero":"diaochan", "skill":"rage"} for _ in range(2)])紧接着,我们通过重置环境从智能体那里获得我们的第一个观察结果:
obs, reward, done, infos = env.reset()
obs是一个NumPy数组的列表,描述了代理对环境的观察。
reward是一个浮点标量的列表,描述了从环境中获得的即时奖励。
done是一个布尔列表,描述了游戏的状态。
infos变量是一个字典的元组,其长度为智能体的数量。
然后在环境中执行操作,直到时间用完或者智能体被干掉。
此处,只需采用env.step方法即可。
done = False while not done: action = env.get_random_action() obs, reward, done, state = env.step(action)
和「星际争霸 II 学习环境」一样,在「王者荣耀AI开放研究环境」中同样可以利用可视化工具来查看智能体的回放。
至此,你的第一个智能体就已经创建完毕。
接下来,就可以拉着「她/他」去进行各种各样的训练了!

说到这,想必大家也不难发现,「王者荣耀AI开放研究环境」并不只是单纯地抛出来一个可以训练AI的环境,而是通过熟悉的操作和丰富的文档,使整个流程都变得简单易懂。
如此一来,也就让更多有志于进入AI领域的人轻松上手了。
看到这,其实还有一个问题没有回答——腾讯开悟平台作为一个由企业主导的研究平台,为何要选择大范围开放?
今年8月,成都市人工智能产业生态联盟联合智库雨前顾问,共同发布了全国首个游戏AI报告。从报告中不难看出,游戏是促进人工智能发展的关键点之一,具体来说,游戏可以从三个方面提升AI的落地应用。
首先,游戏是AI极佳的训练测试场。
其次,游戏能够训练AI的不同能力,牵引不同应用。
比如,棋类游戏训练AI序列决策,获得长线推演能力;牌类游戏训练AI动态自适应,获得随机应变能力;即时战略游戏训练了AI的机器记忆能力、长期规划能力、多智能体协作能力、动作连贯性。
另外,游戏还能打破环境制约,推动决策智能落地。
比如,游戏可以推动虚拟*实时渲染和虚拟*信息同步,升级虚拟*交互终端。
而开悟平台依托腾讯AI Lab和王者荣耀在算法、算力、复杂场景等方面的优势,开放之后,可以为游戏与AI发展之间搭建一座有效合作的桥梁,链接高校学科建设、竞赛组织、行业人才孵化。当人才储备足够了,科研的进步和商业应用的落地都将如雨后春笋般冒头。
过去两年,开悟平台在产学研领域的布局举措就很多:举办了「开悟多智能体强化学习大赛」,引来包括清北这样的TOP2名校在内的一片顶尖高校团队参加;组建了高校科教联合体,北大信息科学技术学院爆火的选修课《游戏AI中的算法》,课后作业便是用王者荣耀1V1的环境做实验……
展望未来,可以期待:借助「开悟」平台走出去的这些人才,将辐射到AI产业的各个领域,实现平台上下游生态的全面开花。
# 貂蝉
# 就可以
# 自己的
# 第一个
# 类游戏
# 的是
# 腾讯
# 开悟
# 对战
# ai
# 是一个
# https
# 人工智能
# 算法
# .net
# 封装
# numpy
# Python
相关栏目:
【
Google疑问12 】
【
Facebook疑问10 】
【
网络优化91478 】
【
技术知识72672 】
【
云计算0 】
【
GEO优化84317 】
【
优选文章0 】
【
营销推广36048 】
【
网络运营41350 】
【
案例网站102563 】
【
AI智能45237 】
相关推荐:
AI赋能音频转录:SovereignAudio自托管解决方案
怎么用AI把你的想法变成一幅画?零绘画基础也能当艺术家
Voice AI:下一代AI语音助手,重塑人机交互
ChatGPT助力QA测试:提升效率与质量的终极指南
AI驱动的Web应用测试:突破QA挑战,提升用户体验
夸克AI怎样搜索医疗健康_夸克AI医疗频道与症状自查【技巧】
Fotor懒设计AI排版怎么调整配色方案_Fotor懒设计AI排版配色优化方法【指南】
AI标语生成器:轻松打造品牌口号,提升品牌价值
Claude官网在线对话地址 Claude官方网站直接使用
Django与React构建AI音乐推荐:数据库集成实战指南
Claude如何保存对话记录_Claude对话保存步骤【步骤】
千问怎么用提示词生成演讲稿_千问演讲稿提示词框架与开场【教程】
斑马AI怎样设置专注模式_斑马AI专注时段与干扰屏蔽【指南】
N8N 自动化教程:HR 简历智能分析系统搭建指南
批改网ai检测工具能否检测引用格式_批改网ai检测工具引用格式检查与修正提示【攻略】
CanvaAI抠图能否保留透明图层_CanvaAI透明图层保留与导出设置【方法】
AI加持:2025年最佳人工智能潜在客户生成工具
3步教你用AI将你的照片变成乐高积木风格
艺龙旅行AI怎样筛选最优车次_艺龙AI车次筛选与耗时最短推荐【攻略】
Depseek如何让提示词包含上下文_Depseek上下文补充提示词写法【步骤】
智行ai抢票怎么选优先车次_智行ai抢票车次优先级设置技巧【指南】
Agentic Testing入门:使用Playwright和Claude Code构建自动化框架
OpenAI ChatGPT Agent:AI自主任务的未来
深入解析音视频转录:全面指南与实践技巧
探索占星术:揭秘 कुंडली 中的 शुक्र,财富与运势的钥匙
AI复古风照片编辑教程:Gemini AI轻松打造复古时尚
豆包Ai在线使用入口_豆包Ai官方网站最新登录地址
SmartEbook AI:下一代电子书创作工具,轻松实现被动收入
Foocus:免费AI图像生成器终极指南及 OnlyFans 替代方案
Mermaid Playground: AI驱动的图表秒速创建指南
Canva AI工具教程:动漫化图像、生成艺术与定制QR码
探索都市传说:追寻鳄鱼飞机怪物“Bombardino Crocodilo”
教你用AI一键为代码添加注释,小白也能读懂复杂程序
超频爱好者盛宴:液氮超频Xeon 28核处理器
普通人如何用豆包AI月入过万?2026最新内容创作变现全攻略!
AI心理测试生成工具有哪些_一键生成趣味测评的AI工具推荐
通义千问网页版怎么用模板_通义千问模板使用方法【方法】
通义万相做海报怎么用_通义万相做海报使用方法详细指南【教程】
Depseek能否批量生成部门总结_Depseek多部门总结批量生成步骤【方法】
MediCa AI:AI赋能的智能医疗保健平台全面解析
千问怎样用提示词获取健康建议_千问健康类提示词注意事项【指南】
去哪旅行ai抢票助手怎样添加备选车次_去哪旅行ai抢票助手备选车次设置与切换【攻略】
教你用AI一键去除图片水印,操作简单效果惊人
OpenAI Sora 2:AI视频生成新纪元
播客数据深度分析:揭秘全球听众分布及增长策略
Midjourney怎样用参数调色彩饱和度_Midjourney饱和度调整【方法】
通义千问怎样写文案_通义千问文案写作教程【指南】
利用 Google AI 进行图像元数据分析与整理
AI|直播|话术生成工具有哪些_一键生成带货话术的AI工具推荐
ATS优化:Euron ResumeAI打造高效求职简历
2023-04-11
南京市珐之弘网络技术有限公司专注海外推广十年,是谷歌推广.Facebook广告全球合作伙伴,我们精英化的技术团队为企业提供谷歌海外推广+外贸网站建设+网站维护运营+Google SEO优化+社交营销为您提供一站式海外营销服务。