OpenAI組建新團隊評估AI的“災難性風險”

OpenAI正在組建一個新的團隊名為「Preparedness」,以減輕與AI相關的“災難性風險”。在上周四的更新中,OpenAI表示,Preparedness團隊將“追踪、評估、預測並防護”可能由AI引起的重大問題,包括核威脅。該團隊還將努力減少“化學、生物和輻射威脅”,以及“自主複製”,即AI自我複製的行為。Preparedness團隊將解決的其他風險包括AI欺騙人類的能力,以及網絡安全威脅。

OpenAI組建新團隊評估AI的“災難性風險”

OpenAI正在組建一個新的團隊名為「Preparedness」,以減輕與AI相關的“災難性風險”。在上周四的更新中,OpenAI表示,Preparedness團隊將“追踪、評估、預測並防護”可能由AI引起的重大問題,包括核威脅。該團隊還將努力減少“化學、生物和輻射威脅”,以及“自主複製”,即AI自我複製的行為。Preparedness團隊將解決的其他風險包括AI欺騙人類的能力,以及網絡安全威脅。

OpenAI在更新中寫道:“我們相信,邊緣AI模型,其能力將超越目前最先進的現有模型,有潛力造福全人類。但它們也帶來了越來越嚴重的風險。”

OpenAI的首席執行官Sam Altman之前已經警告過AI可能引起的災難性事件,他相信超越人類的 AI 可能會在未來十年內出現,而我們無法確定這種 AI 有沒有危險,因此需要提前研究限制它的方法。在5月份,Altman和其他著名的AI研究人員發表了一份22字的聲明,稱“減少AI引起的滅絕風險應該是全球的首要任務”。

Read more

為什麼你的 CV 明明不差,卻還是對不上理想 program?我用這套 keyword 分析法找答案

為什麼你的 CV 明明不差,卻還是對不上理想 program?我用這套 keyword 分析法找答案

選校不是只看排名,而是看 fit 這句話很多人都聽過。 但真正知道怎麼做到的人,其實不多。 大部分人的做法是: 先把 CV 整理好,去官網看一下 program 介紹,感覺不錯就投。 這樣做最大的問題是: 你是用自己的框架去看 program, 而不是用 program 的框架來看自己。 只要這個順序錯了,不管你把 CV 改得多流暢,方向都還是可能不對。 我自己曾經繞過的彎路 申請前期,我花了很多時間優化 CV。 我把每一條 bullet point 改得更精準,數字更清楚,動詞更有力。 改完之後,自己也覺得好像不錯。 但投了幾間之後,我一直有一種說不上來的感覺: 好像哪裡不太對。 後來我把其中一間學校的 program handbook 仔細讀了一遍, 才發現這個 program 真正在意的能力方向, 和我 CV 裡強調的重點其實有明顯錯位。

抽血你選機器人還護理師?全球第一台獲得歐盟 CE 認證的 AI 抽血機器人 - Vitestro

抽血你選機器人還護理師?全球第一台獲得歐盟 CE 認證的 AI 抽血機器人 - Vitestro

AI 小道消息 01 微軟攜手零壹、AI 郵報共同舉辦 AI Agent 時代來臨:從 GitHub Copilot 到 AI-Native Development,將介紹 Github Copilot、小龍蝦與 Azure 整合應用,活動將於 4/16 進行。 02 Anthropic Claude Cowork 設計負責人 Jenny Wen 近期接受 Lenny's Podcast 專訪,在訪談中直言:傳統設計流程基本上已死。 03 蘋果計劃從 iOS 27 開始,將即將改版的 Siri 開放給其他 AI 模型接入,