第(2/3)页 “每一条用户点赞、每一个停留时长、每一次页面刷新,都需要输入到我们的神经网络模型里进行运算,然后再把推荐结果实时返回去。” 陈默看着夏冬,眼神里透着一丝无奈:“夏冬,我们的算法确实牛逼,参数量大,精准度高。但越牛逼的算法,需要的算力就越恐怖。” 吴泽明作为后台专家,立刻明白了陈默的意思:“你是说,我们的CPU算力见顶了?” “不是见顶,是被榨干了。”陈默叹了口气,“现在的算力根本跟不上数据膨胀的速度。” 一鸣停下了吃零食的动作,皱眉问道:“如果加机器呢?” “加机器?”陈默摇了摇头,“字节跳跳、FaCebOOk的体量还在狂飙。” “如果要靠堆传统CPU服务器来满足他们未来的算力需求,我们就算把整个中关村大厦18层到1层全租下来改成机房都不够用。” “更别提每个月的天价电费和空调散热费了。” 吴泽明补充道:“而且机房的物理空间和电力负载是有极限的。光靠横向扩展,不是长久之计。” 会议室陷入了死一般的沉寂。 这是一个纯粹的物理定律和硬件架构带来的瓶颈。 软件算法再精妙,也无法违背硬件的物理极限。 所有人都看向夏冬。 在这个公司里,每当遇到技术方面无解的死局,夏冬总是能拿出打破常规的方案。 其实夏冬早就预料到了这一天,服务器算力见顶是迟早的事。 他老早就找豆包,恶补了人工智能的发展史。 深度学习和神经网络之所以在2010年之后才开始大爆发,并不是因为算法突然取得了什么逆天的理论突破。 纯粹是因为算力终于跟上了。 在豆包提供的未来时间线里,拯救人工智能算力危机的,是英伟达的GPU。也就是大家俗称的显卡。 GPU这玩意儿,天生就是用来做大规模并行计算的。 再后来,谷歌为了搞定自家的算法和推荐系统,干脆自己下场研发了TPU,一种专门为AI定制的专用芯片。 夏冬的手指在桌面上轻轻敲击着,发出有节奏的哒哒声。 “陈默,泽明,你们有没有想过,”夏冬终于开口了,目光扫过两位技术大拿,“为什么我们堆了那么多顶配的CPU,算力依然捉襟见肘?我们的算法,到底在让这些CPU干什么活?” 第(2/3)页