每日經(jīng)濟(jì)新聞 2024-12-09 08:13:44
每經(jīng)記者 鄭雨航 實(shí)習(xí)記者 岳楚鵬 每經(jīng)編輯 蘭素英
人工智能(AI)浪潮正以前所未有的速度重塑世界,隨之而來(lái)的安全和倫理問(wèn)題也日益受到關(guān)注。
8月底,AI巨頭OpenAI和Anthropic與美國(guó)AI安全研究所達(dá)成了一項(xiàng)歷史性協(xié)議,允許美國(guó)政府在其發(fā)布全新的重要AI模型之前先進(jìn)行嚴(yán)格的安全測(cè)試。
針對(duì)這兩家領(lǐng)先的AI初創(chuàng)公司所達(dá)成的協(xié)議以及AI領(lǐng)域的安全和未來(lái)發(fā)展問(wèn)題,《每日經(jīng)濟(jì)新聞》記者(以下簡(jiǎn)稱(chēng)NBD)專(zhuān)訪了圖靈獎(jiǎng)獲得者、被稱(chēng)為“AI教父”的加拿大計(jì)算機(jī)科學(xué)家約書(shū)亞·本 吉 奧(Yoshua Bengio)。2024年,約書(shū)亞·本吉奧入選《時(shí)代》雜志全球100位最具影響力人物年度榜單。
確保AI安全須解決兩挑戰(zhàn)
NBD:您如何看待最近OpenAI和Anthropic與美國(guó)AI安全研究所的合作?這是否會(huì)成為AI治理方面的一種更廣泛趨勢(shì)?
Bengio:除OpenAI和Anthropic外,還有其他公司已經(jīng)承諾與英國(guó)政府的AI安全研究所私下分享他們的最新模型??紤]到OpenAI和Anthropic都是美國(guó)公司,他們對(duì)美國(guó)政府采取同樣的做法也是理所應(yīng)當(dāng)?shù)摹?/p>
NBD:要確保AI系統(tǒng)的安全開(kāi)發(fā)和部署,尤其是在企業(yè)和政府合作的情況下,您認(rèn)為需要解決哪些最關(guān)鍵的挑戰(zhàn)?
Bengio:站在更高的角度看,我們需要解決兩個(gè)挑戰(zhàn)。
首先是技術(shù)層面,我們需要開(kāi)發(fā)能夠在AGI(通用人工智能,相當(dāng)于普通人類(lèi)水平)或ASI(超級(jí)人工智能,即超越人類(lèi)水平)階段仍然有效的安全技術(shù),包括對(duì)危險(xiǎn)能力的評(píng)估、檢測(cè)和緩解,以及設(shè)計(jì)可控且保證安全的AI系統(tǒng)。
其次是政治層面,我們需要全球范圍內(nèi)的協(xié)調(diào),以確保所有國(guó)家和公司在開(kāi)發(fā)最強(qiáng)大的AI系統(tǒng)時(shí),遵循最佳的安全實(shí)踐,避免人類(lèi)失去控制的災(zāi)難性后果。并且,要達(dá)成最佳的安全和治理協(xié)議,以確保某些人不會(huì)濫用AGI的力量為自己謀利,而犧牲其他許多人的利益。
NBD:在您看來(lái),促進(jìn)AI治理國(guó)際合作的最有效方法是什么?
Bengio:國(guó)際協(xié)調(diào)對(duì)于避免未來(lái)幾年或幾十年人類(lèi)可能面臨的兩種最危險(xiǎn)情況至關(guān)重要:一是少數(shù)人將通過(guò)控制ASI來(lái)控制全人類(lèi);二是人類(lèi)失去對(duì)ASI的控制,而ASI的目標(biāo)是自我保護(hù)(這可能與人類(lèi)目標(biāo)相沖突并導(dǎo)致人類(lèi)滅絕),從而危及人類(lèi)的生存。
為了避免這些情況,必須讓世界各地的更多人和政府了解這些風(fēng)險(xiǎn)。我們需要類(lèi)似于核武器(監(jiān)管)條約的國(guó)際條約。而考慮到各國(guó)/地區(qū)之間的軍事和地緣政治競(jìng)爭(zhēng),必須要有足夠的驗(yàn)證技術(shù)(來(lái)證明其危險(xiǎn)),促進(jìn)條約的有效實(shí)施,我認(rèn)為只要專(zhuān)注這方面發(fā)展,幾年內(nèi)是可以實(shí)現(xiàn)的。
AI安全不能靠企業(yè)“自覺(jué)”
NBD:您如何看待學(xué)術(shù)研究對(duì)AI治理行業(yè)的影響或指導(dǎo)作用?可以采取哪些措施來(lái)加強(qiáng)研究與實(shí)際實(shí)施之間的聯(lián)系?
Bengio:在AI安全方面,企業(yè)之間存在著內(nèi)在的利益沖突。它們之間競(jìng)爭(zhēng)激烈,為了生存,它們不得不在安全方面偷工減料,以犧牲公共安全為代價(jià),在商業(yè)上取得領(lǐng)先地位。它們有動(dòng)機(jī)隱瞞風(fēng)險(xiǎn)和事故,并拒絕監(jiān)管。因此,必須有一大批獨(dú)立學(xué)者參與AI安全研究以及前沿AI系統(tǒng)的評(píng)估和審計(jì)。
NBD:展望未來(lái),在技術(shù)快速進(jìn)步的背景下,您認(rèn)為有哪些額外的研究或舉措可以進(jìn)一步推進(jìn)AI的安全和治理?
Bengio:在科學(xué)技術(shù)層面上,我們需要更好的風(fēng)險(xiǎn)評(píng)估方法。在治理和政治層面上,全球需要提高對(duì)AI風(fēng)險(xiǎn)的認(rèn)識(shí),尤其是對(duì)災(zāi)難性風(fēng)險(xiǎn)的認(rèn)識(shí)。另外,全球需要對(duì)開(kāi)發(fā)最強(qiáng)大AI系統(tǒng)的AI實(shí)驗(yàn)室進(jìn)行國(guó)家監(jiān)管,引入有關(guān)其AI安全計(jì)劃、工作和事故報(bào)告透明度等。
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線(xiàn):4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP