ZOMI 在本期播客中主要探讨了 AI 服务器液冷技术的发展。首先分析了 AI 服务器散热面临的挑战,包括单芯片功耗的提升和机柜密度增加导致的散热问题。接着,介绍了液冷技术的通用架构,包括热捕获、热交换和冷源三个部分,并详细解释了冷却分配单元(CDU)的作用。随后,讨论了冷板式、静默式、相变式和喷淋式等不同的液冷方案,以及适用于不同方案的冷却液选择。最后,总结了液冷技术发展的根本目的是为了节省电力消耗,平衡算力与电力之间的关系,并提出液冷是解决高功率密度问题的重要手段。
Sign in to continue reading, translating and more.
Continue