AI郵報

Make Tech Fun. Make Knowledge Flow. Make AI for Everyone.

Latest

Anthropic 首度收購Bun!Claude Code年收入破10億美元,AI程式碼革命加速

Anthropic 首度收購Bun!Claude Code年收入破10億美元,AI程式碼革命加速

Anthropic 用一次收購把整個開發者世界按在地上摩擦:Claude Code 半年狂奔到 10 億美元年化收入,現在直接把 JavaScript 界最快、最狠的 Bun 整個吞進肚子。從此以後:你寫前端、後端、Serverless、AI Agent、腳本、測試, 全部都跑在 Anthropic 免費開源、MIT 授權、比 Node.js 快 4 倍的 Bun 上, 還順便讓 Claude Code 變得更快、更穩、更便宜。

【ChatGPT App 設計教學】如何打造不可或缺的 AI 工具?OpenAI 官方指南深度解析

【ChatGPT App 設計教學】如何打造不可或缺的 AI 工具?OpenAI 官方指南深度解析

2025 年 11 月 24 日,OpenAI 官方發布由 Corey Ching 撰寫的文章〈What Makes a Great ChatGPT App〉,為全球開發者提出一套「ChatGPT App 設計準則」。 這份指南的關鍵目標只有一個:未來的 ChatGPT App,必須真正強化模型能力,而不是把既有產品硬塞進對話框。 這也意味著:隨著 OpenAI Apps SDK 和應用商店生態逐漸成熟,我們需要徹底改變對「軟體」與「產品」的想像——從畫面與流程,轉向「能力集」與「任務完成度」。 ChatGPT App 的本質:從「介面」到「能力集」

Claude Opus 4.5 上線:Anthropic 正面迎戰 GPT-5.1 與 Gemini 3

Claude Opus 4.5 上線:Anthropic 正面迎戰 GPT-5.1 與 Gemini 3

「AI 不是一個新搜尋引擎,而是正在成為整個網路的『新表層』。」 我想很多人都看過「網路冰山」這張圖。上方的 Surface Web 只占整體的 4%,指的是被 Google、Bing 這些搜尋引擎索引的公開網頁;越往下是 Deep Web(需要登入的資料庫、訂閱內容),再往下才是匿名協議的 Dark Web。 過去這張圖之所以經典,是因為它提醒我們: 你看到的網路,其實只是冰山最上面的一截。 但前幾天我在測試 ChatGPT Shopping 的功能時, 我突然意識到 ── AI 正在悄悄改寫這張冰山的結構。 AI 出現後,我每天待在 ChatGPT、Claude、Gemini 的時間,已經遠遠高於使用 Google。AI 成了我的主要入口,Google 則變成次要查證工具。這個使用習慣的改變,透漏了一個重要的訊息:

lock-1
【PwC Insight Hub】從限電停工到數智韌性:製造業如何用 AI 建立不被中斷的工廠?

【PwC Insight Hub】從限電停工到數智韌性:製造業如何用 AI 建立不被中斷的工廠?

2021 年 9 月 26 日晚上十點,新竹某電子廠的供應鏈主管收到一則訊息。 「昆山廠因為限電政策,明早六點起全面停工,復工時間未定。」 他盯著螢幕,第一時間想的不是「損失多少」,而是:「我有哪些料會斷?」手上有二十幾家上游供應商,十幾條產線同時在跑。有些物料是昆山獨家供應,有些雖有備援,但不確定是否能即時補上。更麻煩的是,他不知道這些料「現在在哪」——有些剛出貨、有些卡在倉庫、有些根本不知道生產了沒。 他打開 ERP 想查庫存,但畫面跳出來的是三天前的帳面數字。實際還有多少?夠撐幾天?哪些訂單會延遲?沒有人能給出答案。 他開始打電話。先是打給昆山供應商,沒人接。再打備援廠商,對方說「要查一下」,然後就是漫長等待。天快亮時,資料才逐一湊齊,而產線,已經開始缺料。 那一晚,台灣有數十位供應鏈主管在做著同樣的事。盯著通訊軟體、查貨況、發郵件、

為什麼 Google 敢向 NVIDIA 叫板?Ironwood TPU 開火,Nvidia 霸主地位首現裂痕

為什麼 Google 敢向 NVIDIA 叫板?Ironwood TPU 開火,Nvidia 霸主地位首現裂痕

Google Cloud 悄悄把 Ironwood TPU(第七代)切到 GA(General Availability),沒有大張旗鼓的 keynote,也沒有找一堆 KOL 排隊喊「mind blown」,就是默默地在控制台把價格表亮出來,然後把 9,216 顆晶片的 pod 直接掛網。這種「我做好了,你自己來玩」的態度,我給滿分。 Ironwood TPU * 單顆 Ironwood 比 Trillium 快 4.2 倍(FP8) * 單 pod 9,216 顆 → 42.5 ExaFLOPS * HBM 容量與頻寬直接翻倍