本期播客讨论了 AI Agent 时代下,固定费率加高 token 消耗的订阅模式难以持续的问题。虽然 LLM 价格下降,但用户对最新模型的需求导致成本居高不下,且 token 消耗呈指数级增长,使得许多公司亏损加剧,最终不得不取消无限量套餐。播客分析了三种可能的解决方案:按用量计费、制造高切换成本和垂直整合,但认为这些方法都只是治标不治本,只有当模型能力达到上限后,问题才有可能真正解决。
Sign in to continue reading, translating and more.
Continue