AI变BI?研究机构爆DeepSeek惨况
中国AI新创DeepSeek 在今年初发布“DeepSeek-R1”大模型,打著成本低廉及宣称性能与OpenAI相当,一度血洗华尔街。随后被爆出用户个资被“送中”,遭到多国政府机构及企业封杀。半导体研究机构SemiAnalysis最新研究指出,DeepSeek的流量和用户已呈现僵尸化,市占率下滑。更惨的是传出辉达H20芯片禁输中,导致新一代的R2 开发难产。
《SemiAnalysis》指出,中国DeepSeek R1 发布后,震撼股市和西方AI产业界,RI发布后,其用户应用流量激增,市占率也随之大幅提升。不过,DeepSeek爆炸性成长并未跟上其他 AI 应用的步伐,DeepSeek 的市占率也随之下滑。
报告称,DeepSeek 流量的绝对值下降,数据更加严峻。反观其他领先的 AI 模型供应商在同一时间段内的用户数量,都取得令人印象深刻的增长。
报告说,DeepSeek 能够将其产品定价如此低廉的一个重要原因是,他们强制用户等待数秒,相比之下,其他一些提供者以相同的价格提供该服务,但回应延迟时间要短得多。报告指,DeepSeek 专注于实现通用人工智慧(AGI),对最终用户体验不感兴趣。
报告指出,为了将算力成本压至极限,DeepSeek在服务品质做出妥协。官方平台的首Token延迟(First Token Latency)动辄数秒,远低于业界对“即时”响应的期待;与之形成鲜明对比的是,Parasail、Friendli等第三方平台仅收取2到4美元,即可获得高达100 万Token的几乎零延迟体验。
若与更大规模云厂商相比,差距仍明显。微软Azure托管DeepSeek模型的价格约为官方2.5倍,但首Token延迟却足足少了25秒,CP值优势一目了然。值得注意的是,即使以相同延迟水平衡量价格,DeepSeek也并非最佳选择,众多托管商已趁机在价格战上抢占先机。
报告直指,在AI的世界里,算力就是王道。美国的出口管制限缩了中国AI模型的算力。DeepSeek只能将最少的算力用于对外推理服务,而将绝大部分算力资源保留给内部研发。
中国DeepSeek用户已呈现僵尸化,市占率下滑。(彭博)