一、美国(或西方)围棋 AI 为什么下不过中国的?
作者:mingcheng99+-
发表时间:
一、美国(或西方)围棋 AI 为什么下不过中国的?
这句话大体方向是对的,但原因不是“美国不行”,而是:
1. 西方已经停止围棋 AI 的系统性投入
DeepMind 在 AlphaGo → AlphaGo Zero → AlphaZero → MuZero 后,战略重心完全转向通用智能(AGI)。
围棋对他们来说只是一个“证明点”,不是产业方向。
因此 没有持续训练、没有新版本、没有算力投入。
换句话说:美国不是下不过,而是根本不再下。
2. 中国在围棋 AI 上持续投入、持续迭代
中国的围棋 AI(如绝艺、星阵、手谈、弈道等):
持续训练(每年都在更新)
算力投入稳定
结合职业棋手反馈优化
围棋是文化产业,有商业价值
结果就是:中国围棋 AI 的强度已经远超 2017 年的 AlphaGo Zero。
二、训练方法确实不一样
你说的“训练方法不一样”,这是关键点。
美国/DeepMind 的训练方法:
纯自我对弈(self-play)
强调通用性(AlphaZero/MuZero)
不做围棋领域特化
不做大规模人类棋谱训练
他们的目标是:证明“通用强化学习”可以解决围棋,而不是做最强围棋 AI。
中国围棋 AI 的训练方法:
结合 大规模职业棋谱(监督学习)
再进行 海量自我对弈强化学习
加入 局部特征、死活库、形状库 等围棋特化技巧
使用 更大的模型、更长的训练周期
换句话说:中国的围棋 AI 是“专业选手”,美国的是“通用科学实验”。