耐能智慧 AI晶片KL730即將問世,將大幅降低AI運營公司成本

在生成人工智能的世界中,計算能力和獲取最先進、最強大的芯片已成為一場戰鬥。邊緣AI科技公司耐能智慧(Kneron)日前宣布,將在今年年底前推出全新的神經處理單元(NPU)芯片,名為KL730,為運行大型語言模型(LLM)的成本大幅降低。

耐能智慧 AI晶片KL730即將問世,將大幅降低AI運營公司成本

在生成人工智能的世界中,計算能力和獲取最先進、最強大的晶片已成為一場戰鬥。邊緣AI科技公司耐能智慧(Kneron)日前宣布,將在今年年底前推出全新的神經處理單元(NPU)晶片,名為KL730,將大幅降低運算大型語言模型(LLM)的成本。

Kneron指出,KL730 NPU芯片的問世將大大降低運行大型語言模型的成本,這款處理器是專為機器學習和人工智能應用而設計。過去,成本一直是運行龐大AI模型的一大挑戰,KL730的推出有望在這一領域帶來一個嶄新的發展。

KL730是Kneron的下一代處理器,該公司在2021年推出了支持Transformer模型的KL530晶片,該模型支撐著一些生成式AI模型。Kneron的首席執行官Albert 劉向The Verge透露,NPU晶片專門為AI而設計,這消除了最初為處理圖像而設計的晶片被迫為AI工作的問題。他暗指了對人工智能晶片巨頭Nvidia的間接批評。他表示:“我想說的是,如果你擁有像我們這樣功能強大且輕量級的晶片,那麼你就可以將像GPT這樣強大的Transformer模型帶到多種設備中。”

耐能智慧 KL730邊緣AI晶片 (image:耐能智慧)

劉雖然沒有透露KL730的具體價格,但他指出與GPU晶片相比,他們的KL530晶片使用戶運營成本下降了75%。這項數據彰顯了新一代AI專用晶片的優勢。

多數AI公司和雲提供商都傾向於使用Nvidia的H100 Tensor Core GPU晶片,因為這被認為是最易於使用的處理器之一,能夠提供運行生成人工智能模型所需的計算能力。然而即使有這種能力,運行大型語言模型通常需要多個H100晶片,並需要進行模型“分解”以使其運行。

儘管如此,隨著對AI晶片的需求不斷增長,H100的價格飆升至每片約40,000美元左右。Nvidia已經宣布計劃在2024年第二季度推出更強大的AI芯片,同時競爭對手也在積極蠢蠢欲動,AMD計劃在今年第四季度推出自家的AI芯片。

Kneron表示,與之前的晶片相比,KL730的能效有了“三到四倍的飛躍”,並且具有每秒0.35兆次運算的基礎計算能力。新晶片還使得用戶能夠完全離線運行模型,無需連接到雲服務供應商,同時更安全地處理數據。

Kneron的KL730晶片在AI硬體領域引發了新的潮流,通過專為AI而設計的晶片,讓成本降低、效能提升,並且開創了更加安全、更具效率的AI應用可能性。在這個愈發重要的領域,Kneron的努力和創新必將為AI技術的未來描繪出更燦爛的前景。

Read more

Anthropic 首度收購Bun!Claude Code年收入破10億美元,AI程式碼革命加速

Anthropic 首度收購Bun!Claude Code年收入破10億美元,AI程式碼革命加速

Anthropic 用一次收購把整個開發者世界按在地上摩擦:Claude Code 半年狂奔到 10 億美元年化收入,現在直接把 JavaScript 界最快、最狠的 Bun 整個吞進肚子。從此以後:你寫前端、後端、Serverless、AI Agent、腳本、測試, 全部都跑在 Anthropic 免費開源、MIT 授權、比 Node.js 快 4 倍的 Bun 上, 還順便讓 Claude Code 變得更快、更穩、更便宜。

【ChatGPT App 設計教學】如何打造不可或缺的 AI 工具?OpenAI 官方指南深度解析

【ChatGPT App 設計教學】如何打造不可或缺的 AI 工具?OpenAI 官方指南深度解析

2025 年 11 月 24 日,OpenAI 官方發布由 Corey Ching 撰寫的文章〈What Makes a Great ChatGPT App〉,為全球開發者提出一套「ChatGPT App 設計準則」。 這份指南的關鍵目標只有一個:未來的 ChatGPT App,必須真正強化模型能力,而不是把既有產品硬塞進對話框。 這也意味著:隨著 OpenAI Apps SDK 和應用商店生態逐漸成熟,我們需要徹底改變對「軟體」與「產品」的想像——從畫面與流程,轉向「能力集」與「任務完成度」。 ChatGPT App 的本質:從「介面」到「能力集」