国际象棋:Alpha中的错误
我正在实现一个国际象棋引擎,并且我写了一个相当复杂的带有静止搜索和转置表的alpha-beta搜索例程。 但是,我正在观察一个奇怪的错误。
评估函数使用的是棋子平方表,就像这个棋子一样:
static int ptable_pawn[64] = {
0, 0, 0, 0, 0, 0, 0, 0,
30, 35, 35, 40, 40, 35, 35, 30,
20, 25, 25, 30, 30, 25, 25, 20,
10, 20, 20, 20, 20, 20, 20, 10,
3, 0, 14, 15, 15, 14, 0, 3,
0, 5, 3, 10, 10, 3, 5, 0,
5, 5, 5, 5, 5, 5, 5, 5,
0, 0, 0, 0, 0, 0, 0, 0
};
轮到黑色时,表格会反映在X轴上。 具体而言,如果您很好奇,查找会发生这样的情况,列AH映射到0-7,行从白色的一侧变为0-7:
int ptable_index_for_white(int col, int row) {
return col+56-(row*8);
}
int ptable_index_for_black(int col, int row) {
return col+(row*8);
}
所以在h4(坐标7,3)上的一个棋子白色值3点(厘米),f6上的棋子(坐标5,5)对于黑色值3厘米。
整个评估函数目前是平方表和素材。
在更大的搜索深度,我的引擎正在选择一些真正可怕的举动。 考虑从初始位置产生的这个输出:
Iterative Deepening Analysis Results (including cached analysis)
Searching at depth 1... d1 [+0.10]: 1.b1c3
(4 new nodes, 39 new qnodes, 0 qnode aborts, 0ms), 162kN/s
Searching at depth 2... d2 [+0.00]: 1.e2e4 d7d5
(34 new nodes, 78 new qnodes, 0 qnode aborts, 1ms), 135kN/s
Searching at depth 3... d3 [+0.30]: 1.d2d4 d7d5 2.c1f4
(179 new nodes, 1310 new qnodes, 0 qnode aborts, 4ms), 337kN/s
Searching at depth 4... d4 [+0.00]: 1.g1f3 b8c6 2.e2e4 d7d5
(728 new nodes, 2222 new qnodes, 0 qnode aborts, 14ms), 213kN/s
Searching at depth 5... d5 [+0.20]: 1.b1a3 g8f6 2.d2d4 h8g8 3.c1f4
(3508 new nodes, 27635 new qnodes, 0 qnode aborts, 103ms), 302kN/s
Searching at depth 6... d6 [-0.08]: 1.d2d4 a7a5 2.c1f4 b7b6 3.f4c1 c8b7
(21033 new nodes, 112915 new qnodes, 0 qnode aborts, 654ms), 205kN/s
Searching at depth 7... d7 [+0.20]: 1.b1a3 g8f6 2.a1b1 h8g8 3.d2d4 g8h8 4.c1f4
(39763 new nodes, 330837 new qnodes, 0 qnode aborts, 1438ms), 258kN/s
Searching at depth 8... d8 [-0.05]: 1.e2e4 a7a6 2.e4e5 a6a5 3.h2h4 d7d6 4.e5d6 c7d6
(251338 new nodes, 2054526 new qnodes, 0 qnode aborts, 12098ms), 191kN/s
在深度8处,注意黑色打开的动作是“... a7a6 ... a6a5”,根据平方米表格,这是非常可怕的。 另外,“h2h4”对于白色来说是一个可怕的举动。 为什么我的搜索功能选择这种奇怪的动作? 值得注意的是,这只发生在更深处(深度3的移动看起来很好)。
此外,搜索往往大错特错! 考虑以下位置:
引擎推荐一个可怕的错误(3 ... f5h3),不知何故缺少明显的回复(4. g2h3):
Searching at depth 7... d7 [+0.17]: 3...f5h3 4.e3e4 h3g4 5.f2f3 g8f6 6.e4d5 f6d5
(156240 new nodes, 3473795 new qnodes, 0 qnode aborts, 17715ms), 205kN/s
静止搜索不涉及,因为失误发生在层1(!!)。
这是我的搜索功能的代码。 对不起,它太冗长了:我尽可能简化了,但我不知道哪些部分与bug无关。 我认为我的算法有点微妙的错误。
这个实现基于维基百科的这个实现,几乎完全基于。 (更新:我大大简化了搜索,并且我的错误仍然存在。)
// Unified alpha-beta and quiescence search
int abq(board *b, int alpha, int beta, int ply) {
pthread_testcancel(); // To allow search worker thread termination
bool quiescence = (ply <= 0);
// Generate all possible moves for the quiscence search or normal search, and compute the
// static evaluation if applicable.
move *moves = NULL;
int num_available_moves = 0;
if (quiescence) moves = board_moves(b, &num_available_moves, true); // Generate only captures
else moves = board_moves(b, &num_available_moves, false); // Generate all moves
if (quiescence && !useqsearch) return relative_evaluation(b); // If qsearch is turned off
// Abort if the quiescence search is too deep (currently 45 plies)
if (ply < -quiesce_ply_cutoff) {
sstats.qnode_aborts++;
return relative_evaluation(b);
}
// Allow the quiescence search to generate cutoffs
if (quiescence) {
int score = relative_evaluation(b);
alpha = max(alpha, score);
if (alpha >= beta) return score;
}
// Update search stats
if (quiescence) sstats.qnodes_searched++;
else sstats.nodes_searched++;
// Search hueristic: sort exchanges using MVV-LVA
if (quiescence && mvvlva) nlopt_qsort_r(moves, num_available_moves, sizeof(move), b, &capture_move_comparator);
move best_move_yet = no_move;
int best_score_yet = NEG_INFINITY;
int num_moves_actually_examined = 0; // We might end up in checkmate
for (int i = num_available_moves - 1; i >= 0; i--) { // Iterate backwards to match MVV-LVA sort order
apply(b, moves[i]);
// never move into check
coord king_loc = b->black_to_move ? b->white_king : b->black_king; // for side that just moved
if (in_check(b, king_loc.col, king_loc.row, !(b->black_to_move))) {
unapply(b, moves[i]);
continue;
}
int score = -abq(b, -beta, -alpha, ply - 1);
num_moves_actually_examined++;
unapply(b, moves[i]);
if (score >= best_score_yet) {
best_score_yet = score;
best_move_yet = moves[i];
}
alpha = max(alpha, best_score_yet);
if (alpha >= beta) break;
}
// We have no available moves (or captures) that don't leave us in check
// This means checkmate or stalemate in normal search
// It might mean no captures are available in quiescence search
if (num_moves_actually_examined == 0) {
if (quiescence) return relative_evaluation(b); // TODO: qsearch doesn't understand stalemate or checkmate
coord king_loc = b->black_to_move ? b->black_king : b->white_king;
if (in_check(b, king_loc.col, king_loc.row, b->black_to_move)) return NEG_INFINITY; // checkmate
else return 0; // stalemate
}
// record the selected move in the transposition table
evaltype type = (quiescence) ? qexact : exact;
evaluation eval = {.best = best_move_yet, .score = best_score_yet, .type = type, .depth = ply};
tt_put(b, eval);
return best_score_yet;
}
/*
* Returns a relative evaluation of the board position from the perspective of the side about to move.
*/
int relative_evaluation(board *b) {
int evaluation = evaluate(b);
if (b->black_to_move) evaluation = -evaluation;
return evaluation;
}
我正在调用这样的搜索:
int result = abq(b, NEG_INFINITY, POS_INFINITY, ply);
编辑:即使我简化了搜索例程,该错误仍然存在。 发动机只是大失所望。 您可以通过将其加载到XBoard(或任何其他兼容UCI的GUI)并使用强引擎进行播放来轻松地看到这一点。 在manlio的要求下,我已经上传了代码:
这里是GitHub存储库(链接已移除;问题出现在上面的代码片段中)。 它将使用OS X或任何* nix系统上的“make”构建。
if (score >= best_score_yet) {
应该:
if (score > best_score_yet) {
或者你会考虑糟糕的举动。 第一best_move_yet
将是正确的(因为best_score_yet = NEG_INFINITY
),但其他动作与score == best_score_yet
不一定更好。
改变这一行:
起始位置
Iterative Deepening Analysis Results (including cached analysis)
Searching at depth 1... d1 [+0.10]: 1.e2e4
(1 new nodes, 4 new qnodes, 0 qnode aborts, 0ms, 65kN/s)
(ttable: 1/27777778 = 0.00% load, 0 hits, 0 misses, 1 inserts (with 0 overwrites), 0 insert failures)
Searching at depth 2... d2 [+0.00]: 1.e2e4 g8f6
(21 new nodes, 41 new qnodes, 0 qnode aborts, 0ms, 132kN/s)
(ttable: 26/27777778 = 0.00% load, 0 hits, 0 misses, 25 inserts (with 0 overwrites), 0 insert failures)
Searching at depth 3... d3 [+0.30]: 1.d2d4 g8f6 2.c1f4
(118 new nodes, 247 new qnodes, 0 qnode aborts, 5ms, 73kN/s)
(ttable: 187/27777778 = 0.00% load, 0 hits, 0 misses, 161 inserts (with 0 overwrites), 0 insert failures)
Searching at depth 4... d4 [+0.00]: 1.e2e4 g8f6 2.f1d3 b8c6
(1519 new nodes, 3044 new qnodes, 0 qnode aborts, 38ms, 119kN/s)
(ttable: 2622/27777778 = 0.01% load, 0 hits, 0 misses, 2435 inserts (with 0 overwrites), 1 insert failures)
Searching at depth 5... d5 [+0.10]: 1.g2g3 g8f6 2.f1g2 b8c6 3.g2f3
(10895 new nodes, 35137 new qnodes, 0 qnode aborts, 251ms, 184kN/s)
(ttable: 30441/27777778 = 0.11% load, 0 hits, 0 misses, 27819 inserts (with 0 overwrites), 0 insert failures)
Searching at depth 6... d6 [-0.08]: 1.d2d4 g8f6 2.c1g5 b8c6 3.g5f6 g7f6
(88027 new nodes, 249718 new qnodes, 0 qnode aborts, 1281ms, 264kN/s)
(ttable: 252536/27777778 = 0.91% load, 0 hits, 0 misses, 222095 inserts (with 0 overwrites), 27 insert failures)
Searching at depth 7... d7 [+0.15]: 1.e2e4 g8f6 2.d2d4 b8c6 3.d4d5 c6b4 4.g1f3
(417896 new nodes, 1966379 new qnodes, 0 qnode aborts, 8485ms, 281kN/s)
(ttable: 1957490/27777778 = 7.05% load, 0 hits, 0 misses, 1704954 inserts (with 0 overwrites), 817 insert failures)
在测试位置时:
Calculating...
Iterative Deepening Analysis Results (including cached analysis)
Searching at depth 1... d1 [+2.25]: 3...g8h6 4.(q)c3d5 (q)d8d5
(1 new nodes, 3 new qnodes, 0 qnode aborts, 0ms, 23kN/s)
(ttable: 3/27777778 = 0.00% load, 0 hits, 0 misses, 3 inserts (with 0 overwrites), 0 insert failures)
Searching at depth 2... d2 [-0.13]: 3...f5e4 4.c3e4 (q)d5e4
(32 new nodes, 443 new qnodes, 0 qnode aborts, 3ms, 144kN/s)
(ttable: 369/27777778 = 0.00% load, 0 hits, 0 misses, 366 inserts (with 0 overwrites), 0 insert failures)
Searching at depth 3... d3 [+0.25]: 3...g8h6 4.c3e2 h6g4
(230 new nodes, 2664 new qnodes, 0 qnode aborts, 24ms, 122kN/s)
(ttable: 2526/27777778 = 0.01% load, 0 hits, 0 misses, 2157 inserts (with 0 overwrites), 0 insert failures)
Searching at depth 4... d4 [-0.10]: 3...g8f6 4.e3e4 f5e6 5.f1b5
(2084 new nodes, 13998 new qnodes, 0 qnode aborts, 100ms, 162kN/s)
(ttable: 15663/27777778 = 0.06% load, 0 hits, 0 misses, 13137 inserts (with 0 overwrites), 2 insert failures)
Searching at depth 5... d5 [+0.15]: 3...g8f6 4.f1e2 h8g8 5.g2g4 f5e4 6.(q)c3e4 (q)f6e4
(38987 new nodes, 1004867 new qnodes, 0 qnode aborts, 2765ms, 378kN/s)
(ttable: 855045/27777778 = 3.08% load, 0 hits, 0 misses, 839382 inserts (with 0 overwrites), 302 insert failures)
我很乐意看看实际的回购协议,但我经历过许多次实施类似游戏算法的确切问题。 我会告诉你是什么原因导致我的问题,你可以检查你是否犯了同样的错误。 这些按我猜测最有可能解决您的问题的顺序列出。
层不是移动,移动每次迭代应该增加2(这是一个层)
这个错误几乎总是表现在对第一个球员的几乎每一个动作做出糟糕的选择,因为他们永远看不到做出坏动作的后果。 你避免这种情况的方法是将移动增加2(或者更多地通过游戏中的玩家数量,但是你使用minmax,因此它是2)。 这确保了每个玩家总是在下一回合中寻找后果。
必须始终从当前玩家的角度进行评估
这听起来很明显,但我发誓我每次执行评估功能时都会使用这个。 在设计评估时,我们总是从第一个玩家的角度来设计它,当我们应该做的是设计它来返回当前玩家的评价。 我们可以知道是哪个玩家回合,因为我们拥有完整的棋盘状态,所以不需要传入。
如果您的评估调用不是您的minmax函数中的第一个调用,但是您已经以此方式实现,那么这非常难以调试,所以这不是问题。
评估函数必须是对称的
发生这种情况时特别讨厌。 这个想法是,同一个玩家会根据他们是输赢还是不同来评估同一位置。
举例来说,作为赢家的国际象棋中,您希望赢得最少的移动次数,但如果您输了,您希望以最长的移动次数输掉。 一个典型的解决方案就是说如果你要赢,可以在少量的动作中获得奖励,但如果你输了,为更长的序列添加奖金。 这会导致根据情况相反的原因增加奖金,并且从评估中消除对称性,使得玩家A不等于-Player B.当你失去这种对称性时,不能再仅仅将值传递回游戏树,你必须在每一步重新评估它们。
但诀窍是做这样的调整总是错误的。 通过深入的静态评估,如果发现有保证的胜利,它将会提前中断。 随着迭代深化解决方案,它仍然会找到先前的胜利。 除非对手失误,否则5中的队友永远不会是4号队友,所以不需要像这样的调整。
仔细检查你是否与换位表碰撞
我无法看到转置表的实施情况,但如果您处理的状态多于您分配的存储状态,则必须确保在您信任该值之前它处于相同位置。 我怀疑这是一个问题,因为它看起来像只看了几百万个节点,但是仔细检查总是很好。 此外,请确保您的散列函数足够随机以避免常规冲突。
mtd_f
不应该查阅换位表
mtd_f
是一个直通功能,可在第一次调用negamax
正确处理换位表。 您现在正在实施中不恰当地使用它的值,但只是删除该代码将清理实现并正确处理它。 另外,您应该在每次迭代时将评估传递给mtd_f
函数,而不是每次尝试加载它。
上一篇: Chess: Bug in Alpha
下一篇: Chess negamax algorithm moves pieces back and forth. What's wrong?