耐能智慧 AI晶片KL730即將問世,將大幅降低AI運營公司成本

在生成人工智能的世界中,計算能力和獲取最先進、最強大的芯片已成為一場戰鬥。邊緣AI科技公司耐能智慧(Kneron)日前宣布,將在今年年底前推出全新的神經處理單元(NPU)芯片,名為KL730,為運行大型語言模型(LLM)的成本大幅降低。

耐能智慧 AI晶片KL730即將問世,將大幅降低AI運營公司成本

在生成人工智能的世界中,計算能力和獲取最先進、最強大的晶片已成為一場戰鬥。邊緣AI科技公司耐能智慧(Kneron)日前宣布,將在今年年底前推出全新的神經處理單元(NPU)晶片,名為KL730,將大幅降低運算大型語言模型(LLM)的成本。

Kneron指出,KL730 NPU芯片的問世將大大降低運行大型語言模型的成本,這款處理器是專為機器學習和人工智能應用而設計。過去,成本一直是運行龐大AI模型的一大挑戰,KL730的推出有望在這一領域帶來一個嶄新的發展。

KL730是Kneron的下一代處理器,該公司在2021年推出了支持Transformer模型的KL530晶片,該模型支撐著一些生成式AI模型。Kneron的首席執行官Albert 劉向The Verge透露,NPU晶片專門為AI而設計,這消除了最初為處理圖像而設計的晶片被迫為AI工作的問題。他暗指了對人工智能晶片巨頭Nvidia的間接批評。他表示:“我想說的是,如果你擁有像我們這樣功能強大且輕量級的晶片,那麼你就可以將像GPT這樣強大的Transformer模型帶到多種設備中。”

耐能智慧 KL730邊緣AI晶片 (image:耐能智慧)

劉雖然沒有透露KL730的具體價格,但他指出與GPU晶片相比,他們的KL530晶片使用戶運營成本下降了75%。這項數據彰顯了新一代AI專用晶片的優勢。

多數AI公司和雲提供商都傾向於使用Nvidia的H100 Tensor Core GPU晶片,因為這被認為是最易於使用的處理器之一,能夠提供運行生成人工智能模型所需的計算能力。然而即使有這種能力,運行大型語言模型通常需要多個H100晶片,並需要進行模型“分解”以使其運行。

儘管如此,隨著對AI晶片的需求不斷增長,H100的價格飆升至每片約40,000美元左右。Nvidia已經宣布計劃在2024年第二季度推出更強大的AI芯片,同時競爭對手也在積極蠢蠢欲動,AMD計劃在今年第四季度推出自家的AI芯片。

Kneron表示,與之前的晶片相比,KL730的能效有了“三到四倍的飛躍”,並且具有每秒0.35兆次運算的基礎計算能力。新晶片還使得用戶能夠完全離線運行模型,無需連接到雲服務供應商,同時更安全地處理數據。

Kneron的KL730晶片在AI硬體領域引發了新的潮流,通過專為AI而設計的晶片,讓成本降低、效能提升,並且開創了更加安全、更具效率的AI應用可能性。在這個愈發重要的領域,Kneron的努力和創新必將為AI技術的未來描繪出更燦爛的前景。

Read more

Google 重磅推出 Gemini 3:全球最智慧 AI 模型正式登場,全面挑戰 OpenAI 領先地位

Google 重磅推出 Gemini 3:全球最智慧 AI 模型正式登場,全面挑戰 OpenAI 領先地位

Google 於 2025 年 11 月 18 日正式推出第三代旗艦 AI 模型 Gemini 3,這是繼 Gemini 1.0 與 Gemini 2.0 之後的重大突破。Google 執行長 Sundar Pichai 在官方部落格中宣布,Gemini 3 是「迄今最智慧的模型」,能將所有 Gemini 的功能整合在一起,讓使用者實現任何創意想法。此次發表不僅標誌著 AI 技術的新里程碑,更象徵 Google 在與 OpenAI、Anthropic 等競爭對手的激烈競爭中重新奪回領先地位。