4月15日-19日,第27屆聯合國科技大會在瑞士日內瓦召開。16日,在以“塑造AI的未來”為主題的AI邊會上,世界數字技術院(WDTA)發布了一系列突破性成果,包括《生成式人工智能應用安全測試標準》和《大語言模型安全測試方法》兩項標準。這是國際組織首次就大模型安全領域發布標準,代表全球人工智能安全評估和測試進入新的基準。
據了解,這兩項標準是由OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等數十家單位的多名專家學者共同編制而成。其中《大語言模型安全測試方法》由螞蟻集團牽頭編制。
(圖:WDTA發布大模型安全國際標準,OpenAI、螞蟻集團、科大訊飛等參編)
與會的WDTA人工智能安全可信負責任工作組組長黃連金表示,隨著人工智能系統,特別是大語言模型繼續成為社會各方面不可或缺的一部分,以一個全面的標準來解決它們的安全挑戰變得至關重要。此次發布的標準匯集了全球AI安全領域的專家智慧,填補了大語言模型和生成式AI應用方面安全測試領域的空白,為業界提供了統一的測試框架和明確的測試方法,有助于提高AI系統安全性,促進AI技術負責任發展,增強公眾信任。
世界數字技術院(WDTA)是在日內瓦注冊的國際非政府組織,遵從聯合國指導框架,致力于在全球范圍內推進數字技術,促進國際合作。AISTR(安全、可信、負責任)計劃是WDTA的核心倡議,旨在確保人工智能系統的安全性、可信性和責任性。螞蟻集團、華為、科大訊飛、國際數據空間協會(IDSA)、弗勞恩霍夫研究所、中國電子等均為其成員單位。
近年來,世界各國都在加強對于大模型安全的研究和管控。我國先后發布了《全球人工智能治理倡議》《生成式人工智能服務管理暫行辦法》《生成式人工智能服務安全基本要求》等,旨在促進生成式人工智能安全可信發展,推進全球人工智能治理領域合作共識。
信息顯示,此次發布的兩項標準是大模型及生成式AI應用方面的安全測試標準。
其中,《生成式人工智能應用安全測試標準》由WDTA作為牽頭單位。該標準為測試和驗證生成式AI應用的安全性提供了一個框架,特別是那些使用大語言模型(LLM)構建的應用程序。它定義了人工智能應用程序架構每一層的測試和驗證范圍,包括基礎模型選擇、嵌入和矢量數據庫、RAG或檢索增強生成、AI應用運行時安全等等,確保AI應用各個方面都經過嚴格的安全性和合規性評估,保障其在整個生命周期內免受威脅和漏洞侵害。
《大語言模型安全測試方法》由螞蟻集團作為牽頭單位。該標準則為大模型本身的安全性評估提供了一套全面、嚴謹且實操性強的結構性方案。它提出了大語言模型的安全風險分類、攻擊的分類分級方法以及測試方法,并率先給出了四種不同攻擊強度的攻擊手法分類標準,提供了嚴格的評估指標和測試程序等,可解決大語言模型固有的復雜性,全面測試其抵御敵對攻擊的能力,使開發人員和組織能夠識別和緩解潛在漏洞,并最終提高使用大語言模型構建的人工智能系統的安全性和可靠性。
(圖:螞蟻集團王維強作為標準參與單位代表,在會上發言)
作為標準參與單位代表,螞蟻集團機器智能部總經理、螞蟻安全實驗室首席科學家王維強受邀參會并進行了發言。他表示,生成式AI將釋放巨大的生產力,但也要對它帶來的新風險高度警惕。大型科技公司應在促進生成式AI安全和負責任的發展中發揮關鍵作用,利用其資源、專業知識和影響力推動最佳實踐,構建一個優先考慮安全、隱私和道德考量的生態系統。例如,通過制定行業標準與指南,為開發和部署生成式AI系統的開發者和機構提供清晰指導;投入研發并開放保障生成式AI安全的工具,形成產業共治。
公開資料顯示,螞蟻集團從2015年起就積極投入可信AI技術研究,目前已建立了大模型綜合安全治理體系。螞蟻集團還自研了業界首個大模型安全一體化解決方案“蟻天鑒”,用于AIGC安全性和真實性評測、大模型智能化風控、AI魯棒和可解釋性檢測等。此次發布的《大語言模型安全測評方法》,便是基于“蟻天鑒”AI安全檢測體系的應用實踐,與全球生態伙伴交流編制。此外,螞蟻集團在公司內成立了科技倫理委員會和專門團隊來評估和管理生成式AI的風險,公司所有AI產品均需通過科技倫理評測機制,確保AI安全可信。
來源 | 央廣網
轉自:中國標準化