使用微信扫一扫分享到朋友圈
使用微信扫一扫进入小程序分享活动
大赛交流QQ群:750126311,红色为最新更新
一、报名阶段
请问怎么组队?
报名成功即算组队成功,参赛选手自由组队,团队人数不限。每队成员可以包括:队长1名,成员若干名,掼蛋算法指导老师1名,掼蛋技巧指导老师一名。由队长填写报名表进行参赛报名。(个人参赛则自己担任队长)
请问报名完成后需要做什么?
报名完成后,参赛团队参赛指南即可准备编写算法程序进行参赛,参赛团队可以先在离线平台上进行测试,于正式比赛期间,连接在线平台参与竞赛排名。
二、参赛阶段
请问官网上掼蛋简化入门规则里红桃级牌配牌牌型取大原则是指配牌时候只能取配牌结果中最大的的吗?请问假如牌是3456配红桃,说明rank是2,平台会识别为23456还是34567?
根据发送给服务器的rank来,动作要求指定rank。
可以看到对方剩余牌数吗
在public里的 rest可以获取到。
初赛比赛日期?
10月17日——18日。具体时间开赛前两天公布。
初赛开始前是没法接入在线平台,看排名吗?
是的。离线平台成绩不参与排名的,在初赛开始前会安排一天进行测试。
请问current rank是什么?和self rank和对手rank什么关系?出的牌也有rank,对34567这种,rank是最大的牌吗?
掼蛋的规则是两队从2打起,哪一方赢下一轮打哪一方方的等级也就是current_rank,current_rank 指示当前的红桃配是哪张牌;rank为牌组的最小点数,例如顺子rank最大到10, 10 J Q K A。
如果选择动作不是action list中的合法动作,游戏平台会怎么处理?
会随机帮你出牌。
系统给的action_list里面每个数组,是否满足从小到大的顺序
不满足,只给出可能打出的牌作为参考,你可以自己生成出的牌。
比如说34567如何在action_list中表示
3: [ [[0, '3'], [1, '4'], [2, '5'], [3, '6'], [1, '7']], [[0, '3'], [2, '4'], [2, '5'], [3, '6'], [1, '7']], [[0, '3'], [3, '4'], [2, '5'], [3, '6'], [1, '7']] ... ]
卡牌颜色对应
卡牌颜色0123 对应的是黑,红,梅,方。
Windows平台下,离线平台运行提示缺少QtCore.dll或闪退
缺少Qt5环境,安装Qt5,cmd命令行下使用python pip install pyqt5或python pip3 install pyqt5,安装完成后,找到相对应Python安装目录下: ~/Lib/site-packages/PyQt5/Qt/bin,将上述目录添加至当前PATH环境变量中,再次运行离线平台。(cmd切换到python安装目录/Scripts下,如在C:\python3\Scripts 打开cmd)
离线平台是用来干嘛的?
参赛选手可以在离线平台上运行程序。也可以线下对抗,但不计入正式比赛成绩。
离线平台如何使用?
请参考【掼蛋平台】中【离线平台】介绍。
在线平台如何接入?
请参考【掼蛋平台】中【在线平台】介绍。
可否有一个简单的DEMO程序?
请参考【掼蛋平台】中【离线平台】内容。
如何计算竞赛成绩?
请查看官网首页【竞赛规则】,若有疑问请在大赛交流QQ群中提问。
我写了一个AI程序,接入平台和谁打?
离线平台可以自主选择对手(好友的或自己的算法程序),在线平台开放期间可与其他参赛团队进行对抗,更佳有效地了解掼蛋AI水平。
在线平台比赛,要求选手同时在线吗 ?
要求参赛选手在正式比赛前15分钟连接到我们提供的服务器。按规定时间开始比赛,比赛过程中不允许退出比赛,若参赛团队网络连接失败或其他原因退赛,掼蛋AI算法程序自动进入托管模式(掼蛋机器人有点笨笨喔~)。
三、赛后阶段
参赛作品必须提交吗?
晋级决赛的参赛团队,都必须按照要求提交至少一份参赛作品(最新版算法程序2个,说明运行环境配置要求),否则取消本队参赛成绩,允许更新最新版。选手提交的两个算法在比赛时是严禁相互通信的(类似真人玩时的通牌是视为作弊的),我们赛后会对选手的对局进行复盘,有发现任何作弊行为包括相互通信的行为等,取消比赛成绩,并且后期在官网公示!
四、其他参考
https://gameinstitute.qq.com/community/detail/126804 2018TGDC邓大付:牌类游戏的AI机器人研究初探
https://zhuanlan.zhihu.com/p/47253194 ICLR 2019 投稿论文:来呀!AI喊你斗地主——首个搞定斗地主的深度神经网络
https://www.msra.cn/zh-cn/news/features/difficulty-of-ai-games 哪类游戏AI难度更高?用数学方法来分析一下
https://www.msra.cn/zh-cn/news/features/mahjong-ai-suphx 微软超级麻将AI Suphx,破解非完美信息游戏
Liu, Zhenxing, Maoyu Hu, and Zhangfei Zhang. “A Solution to China Competitive Poker Using Deep Learning.” (2018).
Zinkevich, Martin, et al. “Regret minimization in games with incomplete information.” Advances in neural information processing systems. 2008.
Brown, Noam, et al. “Deep counterfactual regret minimization.” arXiv preprint arXiv:1811.00164 (2018).
Zha, Daochen, et al. “RLCard: A Toolkit for Reinforcement Learning in Card Games.” arXiv preprint arXiv:1910.04376 (2019).
Smith, Stephen J., Dana Nau, and Tom Throop. “Computer bridge: A big win for AI planning.” Ai magazine 19.2 (1998): 93-93.