微軟研究院與中國科學院大學合作團隊近日在arXiv平臺發(fā)布研究成果,推出全新人工智能模型。該模型突破性地在常規(guī)CPU而非GPU上運行,通過創(chuàng)新的數(shù)據(jù)處理架構顯著降低能耗,為人工智能技術落地提供新思路。傳統(tǒng)GPU驅動模型的能耗困境當前主流大語言模型(LLM)如ChatGPT依賴GPU芯片進行訓練與推理,此類模型在處理海量數(shù)據(jù)時需要強大算力支撐,導致能耗問題日益凸顯。數(shù)據(jù)中心為支持聊天機器人等應用消耗大量電力,引發(fā)業(yè)界對可持續(xù)發(fā)展的擔憂。研...