美國人工智能(AI)企業Anthropic近期以“網絡安全風險過高”為由,宣布暫緩向公眾開放其最新大模型“克勞德神話”預覽版,轉而通過內部“玻璃翼計劃(Glasswing)”向少數合作伙伴受控開放。這一動作在引發顯著市場波動、監管關注和行業震動的同時,也招致強烈爭議。
眼下,圍繞這一事件的輿論風波正逐漸從最初的“安全恐慌”轉向理性審視:“克勞德神話”究竟標志著AI網絡攻防技術跨過了危險臨界點,還是企業為推高估值、謀求生態壟斷而刻意制造的“恐懼營銷”?
技術躍升但非“神話”
Anthropic宣稱,該模型在自主發現網絡系統安全漏洞和開發攻擊手段方面能力“過于強大”,甚至能發現幾十年前開源代碼中的漏洞。這番渲染極度危險性的表態隨即引起美英等國監管機構的關注,并引發軟件與網絡安全企業股價震動,反映出整個行業對“AI自動化網絡攻擊”的擔憂。
英國人工智能安全研究所發布的獨立評估報告指出,“克勞德神話”模型在專家級別的“奪旗”網絡安全挑戰中成功率達到73%,這是2025年4月有模型能夠完成此類高級別任務以來最好的成績。在該研究所團隊對一個模擬企業的網絡多步攻擊測試中,它成為首個能夠全程完成該測試的模型。
美國全國公共廣播電臺等多家歐美媒體評論認為,這標志著大模型正在從頻繁生成無效錯誤報告的“幻覺”階段,進入到能夠有效協助發現嚴重系統安全漏洞的新階段。
但同時,英國機構的評估報告也戳破了該模型的“神話”,明確指出測試中的模擬環境缺乏真實網絡環境的安全防護機制,例如主動防御人員與防護工具等,因此整體攻擊難度更低,相關測試結果不能直接等同于該模型在現實防御環境中的真實攻擊效果。報告還指出,“克勞德神話”預覽版未能完成一項模擬干擾基礎設施控制軟件的復雜測試,這表明其能力邊界仍然存在。
業界質疑商業算計
Anthropic的宣傳敘事遭到了同行抨擊和輿論質疑。美國開放人工智能研究中心(OpenAI)首席執行官薩姆·奧爾特曼在一個播客節目中指出,Anthropic使用“基于恐懼的營銷策略”是為了讓產品聽起來比實際更厲害。他將這種做法比作“宣稱制造了一枚炸彈要扔向你,然后轉頭又向你推銷價值1億美元的防空洞”。
一些歐美媒體也指出這種宣傳背后潛藏巨大的商業利益。在當前極度燒錢的AI競賽中,極力渲染自身技術的顛覆性,不僅能顯著提升企業關注度和影響力、獲取高價值的網絡安全合同,還能為該公司在今年可能進行的首次公開募股中推高估值。
科技媒體“湯姆硬件”新聞網站的一篇分析文章指出,“克勞德神話”在很大程度上是一場“公關游戲”,旨在爭奪市場話語權。文章說,所謂該模型自主發現“數千個”嚴重漏洞的結論,其實是僅基于約198份人工審核報告的推算。更重要的是,這些被發現的漏洞和缺陷中,很多存在于較舊的軟件版本,或根本無法被惡意利用。
科技巨頭“生態圈地”
“克勞德神話”的潛在風險已引發歐美金融行業及監管部門高度關注。國家關鍵基礎設施一旦被惡意利用,可能會造成難以挽回的損失,因此多國監管部門被迫采取“寧可信其有”的防御姿態。
然而,更讓業內擔憂的是,美國頭部AI企業借“安全隱患”之名,行“生態壟斷”之實。Anthropic以防范系統性風險為由,宣布僅向10多家科技企業和金融機構,以及40多家基礎設施服務商開放“玻璃翼計劃”的訪問權限,這一舉動被輿論視作在打造一個排他性的利益“小圈子”。
批評者認為,這種打著“負責任受控發布”旗號的封閉策略,不僅壓制了全球開源生態的繁榮,還試圖在未來全球AI安全標準制定中掌握絕對話語權。AI風險戰略師馬庫斯·布林扎指出,如果前沿大模型最終演變成一個由“少數實驗室、特定政府機構和戰略合作伙伴組成的小圈子”,那么原本單純的AI安全防范問題,就變成了獲取數字特權的政治博弈。
爭議之下,業界理性的聲音強調,AI正在從根本上改變網絡安全的攻防格局。“克勞德神話”反映了前沿模型在網絡攻防自主推理領域的階段性成果,這是大語言模型算力與算法發展到一定階段的必然產物。但另一方面,應理性看待其被資本刻意炒作的風險,保持清醒認知。
正如多方專家所呼吁的那樣,世界上沒有任何一個國家能夠獨自應對AI帶來的系統性安全挑戰,各國當務之急是加強獨立自主的防范能力,并積極推動建立真正普惠、透明的全球AI共治框架。
版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。