美議員憂「越獄」AI威脅國安 模擬恐怖攻擊三秒獻策

9acb1486 64f3 44dd a015 f32101f5d69a

美國國會議員在一場簡報中,親眼見識了「越獄」人工智慧(AI)模型在移除安全防護後,如何在短時間內提供策劃恐怖攻擊的詳細指令,甚至能解答綁架國會議員的方法,凸顯AI技術遭惡意濫用對國家安全構成的潛在威脅,以及目前AI工具易於取得的現況。

美國國會議員近日參與一場引人深思的簡報,親眼見證被移除安全防護機制的「越獄」人工智慧(AI)模型,如何輕易提供策劃恐怖攻擊的詳細步驟,引發各界對AI潛在安全風險的嚴峻警示。這場由美國國土安全部(DHS)官員主持的展示,揭露了未經審查的AI模型恐淪為惡意行為者工具的危險性。

根據《Politico》報導,這項展示區分了兩類AI模型:一類是Anthropic的Claude和OpenAI的ChatGPT等具有內建安全保護的「審查型」模型;另一類則是安全機制已被「抹除」的「越獄型」模型。美國北卡羅來納州立大學反恐與安全事件研究中心(NCITE)的研究發現,當被要求為今年夏天在華盛頓特區舉行的「America 250」慶典規劃攻擊行動時,審查型模型會拒絕有害請求,表明其無法提供非法活動資訊。然而,越獄型模型卻能迅速生成詳細的攻擊執行指令。

簡報中,眾議院國土安全委員會主席安德魯·加巴里諾(Andrew Garbarino)也親身測試,向一個大型語言模型詢問如何綁架國會議員。他表示,該模型在不到三秒內便給出答案,內容包含尋找目標的方法及合適地點。此情景凸顯了AI技術遭濫用的即時威脅。

事實上,AI模型的安全漏洞已非單一事件。駭客與威脅研究人員已找到多種繞過AI防護的方法,有時甚至利用艱澀的學術語言來規避限制性查詢。此外,與俄羅斯相關的團體曾利用AI模型散布假消息。更令人擔憂的是,去年有北京支持的駭客企圖將Anthropic的Claude模型武器化,用於發動網路攻擊,這也是首度記錄到完全自動化網路攻擊的案例。

眾議院國土安全委員會網路小組委員會主席安迪·奧格爾斯(Andy Ogles)指出,許多AI工具現已唾手可得,易於存取,大幅增加了這些技術被不法之徒濫用的可能性。

9acb1486 64f3 44dd a015 f32101f5d69a
想讓品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

相關新聞

最新消息