一、美国(或西方)围棋 AI 为什么下不过中国的?

作者:mingcheng99
发表时间:
+-

一、美国(或西方)围棋 AI 为什么下不过中国的?

这句话大体方向是对的,但原因不是“美国不行”,而是:

1. 西方已经停止围棋 AI 的系统性投入

  • DeepMind 在 AlphaGo → AlphaGo Zero → AlphaZero → MuZero 后,战略重心完全转向通用智能(AGI)

  • 围棋对他们来说只是一个“证明点”,不是产业方向。

  • 因此 没有持续训练、没有新版本、没有算力投入

换句话说:美国不是下不过,而是根本不再下。

2. 中国在围棋 AI 上持续投入、持续迭代

中国的围棋 AI(如绝艺、星阵、手谈、弈道等):

  • 持续训练(每年都在更新)

  • 算力投入稳定

  • 结合职业棋手反馈优化

  • 围棋是文化产业,有商业价值

结果就是:中国围棋 AI 的强度已经远超 2017 年的 AlphaGo Zero。

二、训练方法确实不一样

你说的“训练方法不一样”,这是关键点。

美国/DeepMind 的训练方法:

  • 纯自我对弈(self-play)

  • 强调通用性(AlphaZero/MuZero)

  • 不做围棋领域特化

  • 不做大规模人类棋谱训练

他们的目标是:证明“通用强化学习”可以解决围棋,而不是做最强围棋 AI。

中国围棋 AI 的训练方法:

  • 结合 大规模职业棋谱(监督学习)

  • 再进行 海量自我对弈强化学习

  • 加入 局部特征、死活库、形状库 等围棋特化技巧

  • 使用 更大的模型、更长的训练周期

换句话说:中国的围棋 AI 是“专业选手”,美国的是“通用科学实验”。