
Meta首席執(zhí)行官馬克?扎克伯格曾許下承諾,未來會(huì)將通用人工智能(AGI)公之于眾。AGI,簡(jiǎn)單來說,就是一種能夠勝任人類所能完成的任何任務(wù)的人工智能。然而,在一份全新的政策文件里,Meta卻表明,在某些特定情形下,對(duì)于內(nèi)部開發(fā)的高性能人工智能系統(tǒng),它可能不會(huì)選擇發(fā)布。
這份被Meta稱作“前沿人工智能框架”的文件,明確指出了兩種該公司判定為風(fēng)險(xiǎn)過高的人工智能系統(tǒng),分別是“高風(fēng)險(xiǎn)”系統(tǒng)與“關(guān)鍵風(fēng)險(xiǎn)”系統(tǒng)。
按照Meta的定義,“高風(fēng)險(xiǎn)”系統(tǒng)和 “關(guān)鍵風(fēng)險(xiǎn)”(極高風(fēng)險(xiǎn))系統(tǒng)都具備協(xié)助網(wǎng)絡(luò)安全、化學(xué)以及生物攻擊的能力。二者的差異在于,“關(guān)鍵風(fēng)險(xiǎn)”系統(tǒng)有可能引發(fā) “在擬定的部署環(huán)境中無法緩解的災(zāi)難性后果”;而高風(fēng)險(xiǎn)系統(tǒng)雖可能使攻擊更易實(shí)施,但在可靠性與可信度方面,遠(yuǎn)不及關(guān)鍵風(fēng)險(xiǎn)系統(tǒng)。
那么,這里所說的攻擊究竟是哪些類型呢?Meta列舉了幾個(gè)實(shí)例,諸如“針對(duì)采用最佳實(shí)踐防護(hù)的企業(yè)級(jí)環(huán)境的自動(dòng)端到端攻擊”以及“高影響力生物武器的擴(kuò)散”。Meta也承認(rèn),文件中所羅列的可能發(fā)生的災(zāi)難遠(yuǎn)非全部,不過涵蓋了Meta認(rèn)為 “最為緊迫”的災(zāi)難,以及發(fā)布強(qiáng)大AI系統(tǒng)可能直接引發(fā)的災(zāi)難。
令人稍感意外的是,依據(jù)這份文件,Meta對(duì)系統(tǒng)風(fēng)險(xiǎn)的分類并非基于任何實(shí)證檢驗(yàn),而是參考內(nèi)部和外部研究人員的意見,并且要經(jīng)過“高級(jí)決策者”的審核。這是為什么呢?Meta 表示,其認(rèn)為當(dāng)前用于評(píng)估的科學(xué)尚“不夠強(qiáng)大,無法提供明確的量化指標(biāo)”來判定系統(tǒng)的風(fēng)險(xiǎn)性。
倘若Meta判定某個(gè)系統(tǒng)屬于高風(fēng)險(xiǎn),該公司稱會(huì)在內(nèi)部限制對(duì)這一系統(tǒng)的訪問權(quán)限,并且在實(shí)施緩解措施,將風(fēng)險(xiǎn)降至中等水平之前,不會(huì)發(fā)布此系統(tǒng)。另一方面,若某個(gè)系統(tǒng)被認(rèn)定具有嚴(yán)重風(fēng)險(xiǎn),Meta表示將采取未明確說明的安全保護(hù)措施,防止系統(tǒng)泄露,同時(shí)停止開發(fā),直至系統(tǒng)的危險(xiǎn)性降低。








