
OpenAI聯(lián)合創(chuàng)始人兼前首席科學(xué)家Ilya Sutskever正在創(chuàng)辦一家專注于安全的新AI公司Safe Superintelligence Inc.(SSI),這是一家“只有一個目標(biāo)和一個產(chǎn)品”的初創(chuàng)公司:創(chuàng)建一個安全且強大的AI系統(tǒng)。
Ilya Sutskever將SSI描述為一家“具有高水平業(yè)務(wù)和兼顧安全性”的初創(chuàng)公司,該公司在優(yōu)先考慮安全性的同時快速推進(jìn)AI系統(tǒng)。如今,OpenAI、谷歌和微軟等公司AI團(tuán)隊經(jīng)常面臨不穩(wěn)定的外部壓力,而使企業(yè)“單一專注”將能避免受到“管理費用或產(chǎn)品周期的干擾”。
“我們的商業(yè)模式意味著安全、保障和技術(shù)進(jìn)步都不受短期商業(yè)壓力的影響。這樣,我們就可以安心擴(kuò)大規(guī)模。”除了Sutskever,SSI的聯(lián)合創(chuàng)始人還有蘋果前AI主管Daniel Gross和曾在OpenAI擔(dān)任技術(shù)人員的Daniel Levy。
Sutskever于5月離開OpenAI,并暗示將啟動一個新項目。Sutskever離職后不久,人工智能研究員Jan Leike也離開OpenAI,理由是安全流程“讓位于閃亮的產(chǎn)品”;OpenAI政策研究員Gretchen Krueger在宣布離職時也提到了安全問題。
在接受彭博社采訪時,Sutskever表示,SSI的首款產(chǎn)品將是安全級超級智能,在此之前該公司“不會做任何其他事情”。








