熱門資訊> 正文
2024-05-22 16:21
「如果緩解措施無法將風險控制在閾值以下,則根本不開發或部署模型或系統。」
5月21-22日,人工智能首爾峰會(AI Seoul Summit)在韓國舉辦,這是去年11月在英國召開的全球人工智能安全峰會的后續會議。
周二(21日),美國、英國、加拿大、日本、韓國等10個國家以及歐盟的領導人共同簽署《首爾聲明》,呼籲加強國際AI治理合作以及治理框架之間的互操作性,倡導以風險為基礎的政策和治理框架,支持啟動首個國際AI安全研究所網絡,促使國家間形成對AI安全的共同理解,並在研究、標準和測試方面進行協調。
同日,16家全球領先的科技公司在峰會期間作出「前沿AI安全承諾」,將努力確保其最先進的AI模型的安全性,並實施負責任的治理,實現公開透明。
聯合國祕書長古特雷斯(Antonio Guterres)在峰會開幕式上表示,自去年英國布萊切利峰會召開以來,「我們看到了改變生活的技術進步,也看到了威脅生命的新風險」。他認為,需要就AI問題制定普適的防護措施,並定期開展對話。
歐洲復興開發銀行前行長查克拉巴蒂(Suma Chakrabarti)此前接受第一財經記者採訪時表示,AI等領域的全球數字治理的核心問題是各國政府能否統一標準,以實現數字基礎設施的跨國互操作性。目前來看,其中存在很大的障礙,例如不同國家和地區的公民對政府和私營部門處理數據的信任程度差別很大。
前沿AI企業的安全承諾
AI首爾峰會在開幕前夕發佈了一份名為《關於先進人工智能安全性的國際科學報告(中期報告)》。報告稱,儘管通用AI可以用來推進公共利益,但也可能被用來造成危害,甚至帶來系統性風險。AI的未來充滿不確定性,但社會和政府的決策將顯著影響其未來。
這一背景下,政府官員和AI行業高管同意就此採取基本安全措施。參與承諾的16家公司包括美國、法國、中國、韓國以及阿聯酋的AI企業,例如:美國科技巨頭亞馬遜、微軟、Meta、谷歌,AI初創公司Anthropic、OpenAI和特斯拉創始人馬斯克建立的xAI;法國的Mistral AI;韓國的三星電子以及互聯網公司Naver;阿聯酋的AI公司G42以及技術創新研究所(TII);以及中國的智譜AI等。
這些企業或組織承諾,在開發和部署前沿AI模型和系統時將有效識別、評估和管理風險;對安全開發和部署前沿AI模型和系統負責,遵守承諾並建立內部問責和治理框架;對外部行為者保持適當的透明度,包括政府。例如,企業應設定模型或系統的嚴重風險閾值,並監控是否接近或超過這些閾值;如果超出閾值,必須設定應對風險的明確流程。在保持透明度方面,除非會增加風險或泄露敏感商業信息,企業應公佈承諾的實施情況。
根據英國政府的聲明,這些公司同意,「如果緩解措施無法將風險控制在閾值以下,則根本不開發或部署模型或系統」。
簽署協議的AI公司之一Cohere首席執行官戈麥斯(Aiden Gomez)説,自英國峰會以來,有關人工智能監管的討論已從更長遠的末日場景轉向更實際、更緊迫的問題,比如如何在醫療或金融等領域使用人工智能,如何杜絕錯誤和虛假信息以及偏見,保證數據安全,並確保人類操作員或決策者始終參與或監督關鍵過程。
AI安全的管轄權問題
這並非行業領先的AI公司第一次作出承諾,但從過往經驗來看,在缺乏硬性立法的情況下,這些自願承諾似乎仍有侷限性。
例如,去年11月的英國峰會上,Anthropic、OpenAI和亞馬遜等科技公司同意,在其發佈先進的AI模型之前,政府可以在安全測試中發揮作用。該峰會還成立了英國人工智能安全研究所(UKAISI),大力推動由科學家主導的對AI能力和安全風險的定期評估。但事實上,Anthropic於今年3月推出了最新一批模型,卻尚未允許UKAISI對其模型進行發佈前測試。該公司聯合創始人克拉克(Jack Clark)稱,該公司正在與UKAISI合作,研究政府如何進行部署前測試,但他認為這「很難實施」。
專注於AI研究歐洲智庫Ada Lovelace Institute研究夥伴關係部副主任斯特雷特(Andrew Strait)表示,六個多月過去了,「發佈前測試」的承諾似乎未能以任何有意義的方式實現。「現在應該非常清楚,我們不能依賴人工智能公司的善意。自願協議不能替代提供這種訪問的法律授權。」他稱。
據多位知情人士透露,AI公司對UKAISI更深入地參與測試的主要顧慮包括擔心技術機密泄露,以及測試會拖延產品的推出。
管轄權則是另一個問題。許多經濟體都在建立自己的政府機構,加強對AI安全的治理框架建設。
除了UKAISI外,今年2月,美國啟動了美國人工智能安全研究所(USAISI)。歐盟新設了人工智能辦公室,促進歐盟《人工智能法案》的統一適用,並重點監測由通用AI模型產生的不可預見的風險。在亞洲地區,新加坡去年成立了人工智能驗證基金會(AIVF),與IBM、微軟和谷歌等公司合作開發人工智能測試工具,以便負責任地使用和制定國際標準。日本也在今年2月成立了人工智能安全研究所,研究AI安全評估方法和標準,並開展國際合作。
4月初,美國和英國簽署了一項人工智能協議備忘錄,這是全球首個關於AI安全的雙邊安排,就如何測試和評估新興AI模型的風險開展正式合作。不過,Meta公司全球事務總裁克萊格(Nick Clegg)對媒體表示:「你不能讓這些AI公司在每一個不同的司法管轄區都跳來跳去,從我們的角度來看,我們的主要關係當然是與美國人工智能安全研究所(的互動)。」
隨着歐洲理事會在21日正式批准了歐盟《人工智能法案》,AI領域的硬性立法也不再是一片空白。諮詢公司羅蘭貝格全球管理委員會聯席總裁戴璞(Denis Depoux)對第一財經記者稱,該公司已經提醒客户對AI領域的更多監管作出準備。「(和歐洲不同)美國雖然沒有相應的聯邦法律,但一些州已經實施了自己的規定。這凸顯了監管機構重視保護消費者隱私、防止技術濫用的趨勢。」他説,這種監管轉變是積極的,不僅為消費者提供保護,也通過保護數據為公司自身提供了安全,AI領域也將如此。
意大利經濟發展部前副部長傑拉奇(Michele Geraci)接受第一財經記者採訪時則提醒,進行這一領域的立法並不簡單。他稱:「實現創新與監管之間的平衡是一項重大挑戰,尤其是歐盟經常被認為容易過度監管。目前試圖通過立法解決問題的方法可能不是最有效的策略。人工智能未來五年的影響和發展軌跡在很大程度上仍無法預測,因此很難設想其潛在應用。這種不確定性使制定法律來管理一項仍在發展的技術的任務變得更加複雜。」