中新社北京3月25日電 (王夢瑤)圖靈獎(jiǎng)得主約瑟夫·希發(fā)基思(Joseph Sifakis)24日在中國發(fā)展高層論壇2024年年會(huì)上表示:“中國可以利用其龐大的工業(yè)系統(tǒng),在邁向自主人工智能的道路上取得領(lǐng)先地位?!?/p>
希發(fā)基思2007年因在模型檢查理論和應(yīng)用方面的貢獻(xiàn)獲得圖靈獎(jiǎng)。他在年會(huì)發(fā)言中指出,當(dāng)前人類社會(huì)還處在“弱人工智能”時(shí)代,對AI系統(tǒng)的使用主要有助手、監(jiān)視器和控制器三種方式。就后兩種方式而言,需要能夠結(jié)合生成式人工智能和傳統(tǒng)信息通信技術(shù)的系統(tǒng)工程學(xué),也需要新的基礎(chǔ)和技術(shù)確保安全性和保障性。中國可以憑借龐大的工業(yè)系統(tǒng),在人工智能領(lǐng)域取得領(lǐng)先地位。
3月24日,圖靈獎(jiǎng)得主約瑟夫·希發(fā)基思在中國發(fā)展高層論壇2024年年會(huì)上發(fā)言。(主辦方供圖)“人工智能本身既不是好的,也不是壞的”,他說,關(guān)鍵要明智地使用它,通過規(guī)范預(yù)防風(fēng)險(xiǎn)。
希發(fā)基思繼而提出人工智能發(fā)展面臨的幾種主要風(fēng)險(xiǎn),一種是技術(shù)風(fēng)險(xiǎn),一種是人為風(fēng)險(xiǎn),“這來自于對AI的誤用或無意中使用產(chǎn)生的影響”,可以通過監(jiān)管或法律框架加以控制。
此外,希發(fā)基思還提出兩類社會(huì)性風(fēng)險(xiǎn):其一是在選擇和性能之間的平衡,“如果我們不能確保系統(tǒng)是以公正、中立的方式使用可靠信息,就不要將決策權(quán)交給系統(tǒng)”;其二是性能的提升,需要考慮是否與人類控制的缺失相平衡。
在監(jiān)管方面,希發(fā)基思直言歐盟和美國的差距。他表示,歐盟擁有嚴(yán)格和更完善的人工智能監(jiān)管,要求人工智能系統(tǒng)在關(guān)鍵應(yīng)用中高度可靠,因此排除了許多“存在著不可接受的高風(fēng)險(xiǎn)”的應(yīng)用程序。而美國監(jiān)管的強(qiáng)制性相對較低,“并不是基于非常嚴(yán)格的技術(shù)標(biāo)準(zhǔn)對人工智能系統(tǒng)進(jìn)行評估”,他說。
“人們都認(rèn)識(shí)到必須對人工智能進(jìn)行監(jiān)管,但實(shí)際如何監(jiān)管,目前并沒有達(dá)成一致”,希發(fā)基思表示。(完)