Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
stanford-cs234-notes-zh
提交
707e3a5e
S
stanford-cs234-notes-zh
项目概览
OpenDocCN
/
stanford-cs234-notes-zh
通知
8
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
S
stanford-cs234-notes-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
707e3a5e
编写于
2月 06, 2020
作者:
X
xiaowei_xing
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
test
上级
cd7622c6
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
5 addition
and
1 deletion
+5
-1
docs/14.md
docs/14.md
+5
-1
未找到文件。
docs/14.md
浏览文件 @
707e3a5e
...
...
@@ -90,4 +90,8 @@ $\bullet$ 有效地结合规划和抽样来打破维度灾难(如围棋)
围棋是世界上最古老的棋类游戏,解决这一问题一直是人工智能面临的一个长期挑战,而在 AlphaGo 之前,传统的游戏树搜索算法未能达到专业的人类级别的性能。围棋是一个在 $19
\t
imes 19$ 板(也有更小的板)上进行的双人游戏(黑子/白子,B/W),黑子和白子接连被放在板上,游戏的主要目标是包围和占领领地,另外,被对手包围的棋子会被移除。
最简单的奖励函数可以按照如下规则设置:如果最终状态黑子胜则奖励为 $+1$,如果白子胜则为 $0$,而其他状态均为 $0$。那么黑子玩家的目的则为最大化奖励而白子玩家则要尽量最小化奖励。给定一个策略 $
\p
i=
<
\
pi_
{
B
},\
pi_
{
W
}
>
$(分别对黑子玩家和白子玩家),值函数为 $V_{
\p
i}(s)=
\m
athbb{E}_ {
\p
i}[R_{T}|s]=P[Black wins|s]$,最优值函数为 $V^{
\a
st}(s)=
\m
athop{
\m
ax}_ {
\p
i_{B}}
\m
athop{
\m
in}_ {
\p
i_{W}}V_{
\p
i}(s)$。
\ No newline at end of file
最简单的奖励函数可以按照如下规则设置:如果最终状态黑子胜则奖励为 $+1$,如果白子胜则为 $0$,而其他状态均为 $0$。那么黑子玩家的目的则为最大化奖励而白子玩家则要尽量最小化奖励。给定一个策略 $
\p
i=
<
\
pi_
{
B
},\
pi_
{
W
}
>
$(分别对黑子玩家和白子玩家),值函数为 $V_{
\p
i}(s)=
\m
athbb{E}_ {
\p
i}[R_{T}|s]=P[Black wins|s]$,最优值函数为 $V^{
\a
st}(s)=
\m
athop{
\m
ax}_ {
\p
i_{B}}
\m
athop{
\m
in}_ {
\p
i_{W}}V_{
\p
i}(s)$。
### 5.1 基于 MCTS 的围棋(MCTS for Go)
作为一个双人游戏,围棋需要一些相当自然的扩展以应用前面提到的 MCTS 算法。我们现在构建一个极小极大树,白色节点寻求最小化奖励,黑色节点寻求最大化奖励。我们在黑色节点使用前面提到的 UCB,在白色节点使用 LCB(置信下界)即 $
\m
athop{
\m
in}_{a}Q(s,a)-
\s
qrt{
\f
eac{2
\l
og N(s)}{N(s,a)}}$(因为它们寻求最小化奖励)。
\ No newline at end of file
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录