因為這是人類第一次由一個龐大的國際頂尖專家組,就先進AI的風(fēng)險推進全球政策制定。
人們已清晰認(rèn)識到:我">

    1. <kbd id="hxllo"></kbd>
        <th id="hxllo"></th>

          首頁  »  財經(jīng)  »  經(jīng)濟觀察

          采取更強有力行動防范AI風(fēng)險

          2024-05-22 08:55:00

          來源:科技日報

          原標(biāo)題:采取更強有力行動防范AI風(fēng)險

          當(dāng)以后的人們?yōu)槿斯ぶ悄埽ˋI)撰寫一部編年史時,這可能是一個里程碑。

          因為這是人類第一次由一個龐大的國際頂尖專家組,就先進AI的風(fēng)險推進全球政策制定。

          人們已清晰認(rèn)識到:我們離不開AI,亦需要大力推動AI技術(shù)發(fā)展,但我們必須有能力防范其中的風(fēng)險。

          自6個月前在英國布萊奇利公園舉行第一屆AI安全峰會以來,世界各國領(lǐng)導(dǎo)人承諾以負(fù)責(zé)任的方式管理AI,但是AI專家認(rèn)為這依然不夠。隨著第二屆AI安全峰會(5月21日至22日)在韓國首爾舉行,25位世界頂尖AI科學(xué)家呼吁,全世界應(yīng)對AI風(fēng)險采取更強有力的行動。

          發(fā)表于《科學(xué)》雜志的一份專家共識文章中,專家組概述了全球應(yīng)采取的緊急政策優(yōu)先事項。文章作者之一、英國牛津大學(xué)工程科學(xué)系教授菲利普·托爾表示:“在上屆AI峰會上,世界一致認(rèn)為我們需要采取行動,而現(xiàn)在是時候?qū)⒛:慕ㄗh轉(zhuǎn)變?yōu)榫唧w的承諾了!

          安全性研究嚴(yán)重匱乏

          這25位全球頂尖的AI及其治理專家來自中國、美國、歐盟、英國和其他AI技術(shù)強國,其中包括圖靈獎獲得者以及諾貝爾獎獲得者。這也是首次由國際專家組就AI風(fēng)險的全球政策制定達成一致。

          文章指出,全球領(lǐng)導(dǎo)人需認(rèn)真考慮,在未來十年內(nèi)可能開發(fā)出超越人類能力的通用AI系統(tǒng)。他們表示,盡管世界各國政府一直在討論先進AI,并嘗試引入初步指導(dǎo)方針,但這與許多專家期望的快速、變革性進展仍有距離。

          目前關(guān)于AI安全的研究嚴(yán)重缺乏,只有1%—3%的AI出版物涉及相關(guān)安全問題。此外,全球沒有適當(dāng)?shù)臋C制或機構(gòu)來防止濫用和魯莽行為,包括如何使用能獨立采取行動和自行實現(xiàn)目標(biāo)的自治系統(tǒng)。

          在快速發(fā)展中防范極端風(fēng)險

          文章建議,各國政府需建立可快速行動的AI監(jiān)管機構(gòu),并為這些機構(gòu)提供資金。美國AI安全研究所目前的年度預(yù)算為1000萬美元,聽起來并不少,但相比之下,美國食品和藥物管理局(FDA)的預(yù)算達67億美元。

          AI領(lǐng)域需要更嚴(yán)格的風(fēng)險評估并制定可執(zhí)行的措施,而不是依賴一些不甚明確的模型評估。應(yīng)要求AI研發(fā)企業(yè)優(yōu)先考慮安全性,并證明其系統(tǒng)不會造成傷害,AI開發(fā)人員要承擔(dān)起證明安全性的責(zé)任。

          人們還要有一個與AI系統(tǒng)帶來的風(fēng)險水平相稱的緩解辦法,解決之道是制定一個“自動”政策,當(dāng)AI達到某些能力里程碑時“自動觸發(fā)”——如果AI發(fā)展迅速,這一嚴(yán)格的要求就會自動生效;如果進展緩慢,要求將相應(yīng)放緩。

          對于能力超凡的未來AI系統(tǒng),政府必須作好帶頭監(jiān)管的準(zhǔn)備。這包括許可開發(fā),限制其在關(guān)鍵社會角色中的自主權(quán),停止部署部分能力,強制執(zhí)行訪問控制,以及要求對國家級黑客采取強有力的信息安全手段,直到人們準(zhǔn)備好足夠的保護措施。

          謹(jǐn)記AI不是玩具

          不列顛哥倫比亞大學(xué)AI教授、強化學(xué)習(xí)領(lǐng)域?qū)<医芊颉た藗惣{表示,太空飛行、核武器和互聯(lián)網(wǎng)等技術(shù)在數(shù)年內(nèi)就從科幻變成了現(xiàn)實,AI也不例外!拔覀儸F(xiàn)在必須為那些看似科幻小說的風(fēng)險做好準(zhǔn)備”。

          現(xiàn)在,AI已經(jīng)在黑客攻擊、社交操縱和戰(zhàn)略規(guī)劃等關(guān)鍵領(lǐng)域取得了快速進展,并可能很快帶來前所未有的關(guān)于“控制”的挑戰(zhàn)。AI系統(tǒng)可能會為了實現(xiàn)某個“不良目的”而騙取人類信任、獲取資源并影響關(guān)鍵決策者。為了避免人為干預(yù),它們還可以在全球服務(wù)器網(wǎng)絡(luò)上復(fù)制自身算法。

          在這種情況下,大規(guī)模網(wǎng)絡(luò)犯罪、社會操縱和其他危害會因此迅速升級。而在公開沖突中,AI系統(tǒng)能自主部署各種武器,甚至包括生物武器。因此,當(dāng)AI的進步不受控制,很可能最終導(dǎo)致大規(guī)模生命損失、生物圈破壞、人類邊緣化甚至滅絕。

          美國加州大學(xué)伯克利分校計算機科學(xué)教授斯圖爾特·盧塞爾表示:“此次是權(quán)威專家的共識文章,其呼吁政府嚴(yán)格監(jiān)管,而不是自愿制定一些規(guī)范行業(yè)的行為。”

          “企業(yè)可能抱怨說滿足這些法規(guī)太難,但所謂‘法規(guī)扼殺創(chuàng)新’的說法是荒謬的。”盧塞爾這樣說,“是時候認(rèn)真對待先進AI系統(tǒng)了,它們不是玩具。在我們了解如何確保它們的安全性之前,輕易增強它們的能力是完全魯莽的行為。”

          • 相關(guān)閱讀
          免責(zé)聲明:本網(wǎng)對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔(dān)全部責(zé)任。 本網(wǎng)站轉(zhuǎn)載圖片、文字之類版權(quán)申明,本網(wǎng)站無法鑒別所上傳圖片或文字的知識版權(quán),如果侵犯,請及時通知我們,本網(wǎng)站將在第一時間及時刪除。
          国产精品久久影视,国产中文字幕在线,色综合久久88色综合天天免费,国产成人精品免费av 国产精品白浆无码流出嗯啊豆 国产精品一区精品国产自在

          1. <kbd id="hxllo"></kbd>
              <th id="hxllo"></th>