耐能智慧 AI晶片KL730即將問世,將大幅降低AI運營公司成本

在生成人工智能的世界中,計算能力和獲取最先進、最強大的芯片已成為一場戰鬥。邊緣AI科技公司耐能智慧(Kneron)日前宣布,將在今年年底前推出全新的神經處理單元(NPU)芯片,名為KL730,為運行大型語言模型(LLM)的成本大幅降低。

耐能智慧 AI晶片KL730即將問世,將大幅降低AI運營公司成本

在生成人工智能的世界中,計算能力和獲取最先進、最強大的晶片已成為一場戰鬥。邊緣AI科技公司耐能智慧(Kneron)日前宣布,將在今年年底前推出全新的神經處理單元(NPU)晶片,名為KL730,將大幅降低運算大型語言模型(LLM)的成本。

Kneron指出,KL730 NPU芯片的問世將大大降低運行大型語言模型的成本,這款處理器是專為機器學習和人工智能應用而設計。過去,成本一直是運行龐大AI模型的一大挑戰,KL730的推出有望在這一領域帶來一個嶄新的發展。

KL730是Kneron的下一代處理器,該公司在2021年推出了支持Transformer模型的KL530晶片,該模型支撐著一些生成式AI模型。Kneron的首席執行官Albert 劉向The Verge透露,NPU晶片專門為AI而設計,這消除了最初為處理圖像而設計的晶片被迫為AI工作的問題。他暗指了對人工智能晶片巨頭Nvidia的間接批評。他表示:“我想說的是,如果你擁有像我們這樣功能強大且輕量級的晶片,那麼你就可以將像GPT這樣強大的Transformer模型帶到多種設備中。”

耐能智慧 KL730邊緣AI晶片 (image:耐能智慧)

劉雖然沒有透露KL730的具體價格,但他指出與GPU晶片相比,他們的KL530晶片使用戶運營成本下降了75%。這項數據彰顯了新一代AI專用晶片的優勢。

多數AI公司和雲提供商都傾向於使用Nvidia的H100 Tensor Core GPU晶片,因為這被認為是最易於使用的處理器之一,能夠提供運行生成人工智能模型所需的計算能力。然而即使有這種能力,運行大型語言模型通常需要多個H100晶片,並需要進行模型“分解”以使其運行。

儘管如此,隨著對AI晶片的需求不斷增長,H100的價格飆升至每片約40,000美元左右。Nvidia已經宣布計劃在2024年第二季度推出更強大的AI芯片,同時競爭對手也在積極蠢蠢欲動,AMD計劃在今年第四季度推出自家的AI芯片。

Kneron表示,與之前的晶片相比,KL730的能效有了“三到四倍的飛躍”,並且具有每秒0.35兆次運算的基礎計算能力。新晶片還使得用戶能夠完全離線運行模型,無需連接到雲服務供應商,同時更安全地處理數據。

Kneron的KL730晶片在AI硬體領域引發了新的潮流,通過專為AI而設計的晶片,讓成本降低、效能提升,並且開創了更加安全、更具效率的AI應用可能性。在這個愈發重要的領域,Kneron的努力和創新必將為AI技術的未來描繪出更燦爛的前景。

Read more

Google 發明了一個新詞:Vibe Design——然後 Figma 股價就跌了 12%

Google 發明了一個新詞:Vibe Design——然後 Figma 股價就跌了 12%

這週讀完 Anthropic 那份八萬人調查,其中最讓我有共鳴的,是一位以色列律師說的話:「我用 AI 審合約、省時間……但同時我害怕:我是不是正在失去自己閱讀的能力?思考,是最後的防線。」 說實話,我也怕過這件事情,所以最近開始刻意做兩件事:一是逼自己純手寫電子報的段落,二是用 Claude 做 Minerva 的思維訓練——讓 AI 幫我把 思考 這把刀磨的更銳利。 但後來我想了想,覺得這個恐懼可能只對了一半。 如果你用 AI 的方式是純粹的「思考外包」——幫我把這份報告寫完、幫我整理這些資料、幫我回這封信——也就是拿它來加速你本來就在做的事,那確實,做久了那塊肌肉真的會萎縮。這位律師的焦慮完全合理。 但如果你拿 AI 來做的是創造——定義一個新問題、判斷一個新方向、把一個模糊的直覺變成一套可執行的策略——那你的思考不但不會退化,反而會被逼得更深。因為 AI