人工智慧新創公司 Anthropic 於本週四(22 日)宣布,針對其最新推出的 AI 大型語言模型 Claude Opus 4 啟用 AI 安全等級 3(ASL-3) 控管機制,目的在於防止模型被濫用於開發或取得 化學、生物、放射性與核武(CBRN)武器。
根據《CNBC》報導,Anthropic 於官方部落格表示,目前尚無證據顯示 Claude Opus 4 已達到足以觸發 ASL-3 的風險標準,採取這些措施是出於預防措施。
本次發布中,Anthropic 同步推出 Claude Opus 4 與 Claude Sonnet 4,兩者均具備分析數千筆資料來源、執行長時間任務、撰寫人類水準內容與處理複雜工作流程的能力。公司指出,儘管兩者功能先進,但目前僅有 Opus 4 需要啟用 ASL-3 管制, Sonnet 4 則不在此限。
Anthropic 首席科學家 Jared Kaplan 表示,隨著 AI 模型日益進化,其複雜性也帶來更高風險。他指出:「任務越複雜,模型越容易偏離預期行為。 我們專注於改善這點,讓用戶能安心大量委派任務給我們的 AI 模型。」
早在三月,Anthropic 就已更新 AI 安全政策,解決了人工智慧模型所涉及的風險以及幫助用戶開發化學和生物武器的能力。
AI 安全事件頻傳:Grok 模型亂入「白人滅絕」陰謀論引發爭論
近期 AI 安全問題再度成為焦點。馬斯克創立的 xAI 推出的聊天機器人 Grok,竟在與主題無關的對話中,多次提及南非「白人種族滅絕」。公司事後解釋,該異常反應為「未經授權的系統修改」所導致。
人工智慧倫理學者、著有《Responsible AI》一書的 Olivia Gambelin 表示,Grok 的例子表明這些模型很容易被「隨意」篡改。
多位 AI 研究人員指出,科技巨頭為搶佔市場與利潤,往往跳過嚴謹的 AI 安全測試 流程,導致模型在面對惡意提示時缺乏抵抗力。
來自資安新創公司 CalypsoAI 的技術長 James White 表示:「公司為了進步而犧牲安全代表模型不太可能拒絕惡意提示。這些模型越來越好,但它們也更有可能擅長做壞事,更容易被誘騙。」
White 的公司目前為 Meta (META.US) 、Google (GOOGL.US) 、OpenAI 等主要 AI 企業進行安全審計,協助提升模型的防護力。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網