【環(huán)球時快訊】對話中科院曾毅:AI不應(yīng)無所不在 需要將一定空間留給人類自己

2023-03-25 22:08:59

“當(dāng)下中國最應(yīng)該關(guān)心的問題是什么?當(dāng)中國產(chǎn)生了類似(ChatGPT)的技術(shù),要不要向全球開放?我們現(xiàn)在應(yīng)該達成這樣的共識——中國的技術(shù)永遠不對任何一個國家封鎖。我覺得至少我代表中國科研人員可以作出這個承諾?!?/p>


(相關(guān)資料圖)

3月25日,在中國發(fā)展高層論壇2023年年會上,中國科學(xué)院自動化研究所人工智能倫理與治理中心主任曾毅如是說。

談及“脫鉤斷鏈”和技術(shù)封鎖對我國人工智能發(fā)展可能帶來的影響,曾毅表示,確實存在這樣的風(fēng)險,所以類人工智能生成等技術(shù)必須要有中國自己的替代版本。

“中國沒有失去機會,失去機會的是禁止中國使用技術(shù)的企業(yè)?!痹惚硎?,“中國人工智能生成技術(shù)、類ChatGPT的技術(shù),大家很快就可以看到。我不能講是水平相當(dāng)?shù)奶娲a(chǎn)品,但是它足以達到基本可用的程度?!?/p>

會后,曾毅接受了澎湃新聞記者的采訪,就AI勞動替代、人工智能數(shù)字鴻溝、人工智能倫理與算法黑箱等問題進行了探討。

澎湃新聞:隨著人工智能技術(shù)發(fā)展,很多人擔(dān)心工作崗位或可能被AI替代。關(guān)于勞動力崗位替代的速度和規(guī)模,當(dāng)前各方有不同的預(yù)測,對此您怎么看?AI會快速替代人類勞動者么?

曾毅:我想從兩個層面回答您的問題。

一方面,在未來我們可能需要重新定義什么是“工作”。長期以來,撫養(yǎng)子女、照顧老人,以及很多社會服務(wù)并不被人們稱為工作。但布魯金斯學(xué)會的一項研究表明,或許未來在家當(dāng)全職媽媽照看子女,照顧年邁老人等可以被稱為“工作”,甚至社會應(yīng)該支付薪酬。

當(dāng)前,很多人認(rèn)為需要通過工作的意義和價值來定義自己,然而我認(rèn)為恰恰應(yīng)該是情感付出、情感交互才是人類真正難以被替代的,當(dāng)“工作”被重新定義,一個人對于社會的價值,對于周圍人的價值也會被重新定義。

另一方面,我并不同意那些“某年某項工作會被替代”的預(yù)測。從我目前的觀察來看,任何一項工作都有人不可替代的部分。盡管當(dāng)前人工智能也可以從事新聞寫作,但相比于專業(yè)的人類記者,它缺少對真實世界的理解和價值觀,所以讀者必然會更傾向于人類作者。所以,面對所謂的AI崗位替代,我們要思考的就是自己對工作有哪些獨特的、不可替代的貢獻。

澎湃新聞:今天上午蘋果公司CEO庫克談道,他認(rèn)為編程或應(yīng)成為今后人們生存發(fā)展的必備能力。如果不掌握編程能力,或?qū)⒓铀倥c社會脫節(jié)。未來AI編程會產(chǎn)生新的數(shù)字鴻溝么?這是否會加劇社會的不平等?

曾毅:編程是教人如何像計算機一樣思考,可以培養(yǎng)并提升人的思維能力。大概在2016年左右,美國就提出了計算思維的概念,并籍此發(fā)展出了很多課程。但我并不認(rèn)同未來編程要成為人所必須的技能,整個社會中人工智能也不應(yīng)該無處不在。

在為聯(lián)合國教科文組織編寫人工智能倫理的時候,我們就加入了一條“適度使用”原則:應(yīng)該用人工智能的地方,留給人工智能,應(yīng)該留給人類社會的地方就按照人類的方式去發(fā)展。

作家舒可文在《城里:關(guān)于城市夢想的敘述》中指出,城市的發(fā)展,一半是野蠻生長,一半是規(guī)劃,這才叫做城市。人工智能與人類也一樣,也需要將一定空間留給人類自己。

澎湃新聞:人工智能與人類的邊界該怎么劃定?又該怎么設(shè)定人工智能不能逾越的紅線?

曾毅:當(dāng)前很多工程技術(shù)人員對人文社科和倫理規(guī)范還缺乏理解,這可能會造成很大的風(fēng)險。比如一個技術(shù)研究者將某項未經(jīng)倫理論證的先進技術(shù)上線,技術(shù)在應(yīng)用中或可能會造成負(fù)面影響,甚至給社會造成重大損失,這時候再發(fā)現(xiàn)補救,很多損失可能已經(jīng)不能挽回。

當(dāng)前我們的人工智能技術(shù)發(fā)展還處于初步階段,能夠?qū)懭虢炭茣拇_定性結(jié)論還不多,還需要更多的研究和探索。

此外,我認(rèn)為一定要針對理工科領(lǐng)域開設(shè)人工智能相關(guān)的哲學(xué)課、倫理課、工程倫理課。包括人工智能學(xué)系、計算機科學(xué)系、工程計算系在內(nèi)的專業(yè)應(yīng)將這些課程設(shè)為必修課。未來,人工智能倫理道德不應(yīng)該是一個分支的研究領(lǐng)域,而應(yīng)該是所有人工智能從業(yè)者的第一課,倫理規(guī)范也應(yīng)成為所有人工智能服務(wù)的基礎(chǔ)。

澎湃新聞:當(dāng)前主流的人工智能采取遺傳算法、神經(jīng)網(wǎng)絡(luò)等方式發(fā)展演進,但也存在“算法黑箱”的風(fēng)險,您是否會擔(dān)心不可解釋的人工智能引發(fā)“黑天鵝”事件?是否有存在超預(yù)期風(fēng)險的可能?

曾毅:我們不應(yīng)該接受深度學(xué)習(xí)成為所有人工智能基座的這件事,因為它不可解釋。現(xiàn)在最應(yīng)該做的是什么?應(yīng)該做科學(xué)應(yīng)有突破的科研攻關(guān),哪怕是從零開始,做可解釋的人工智能,并向著高智能、低能耗的方向延伸。

不能因為深度學(xué)習(xí)好用,可以解決現(xiàn)在的問題,當(dāng)下也沒有更好的替代方案,就放棄了最初應(yīng)該努力的方向。我希望,這些應(yīng)該努力實現(xiàn)的基礎(chǔ)突破能更多誕生在中國。

然而現(xiàn)狀是,學(xué)術(shù)界和產(chǎn)業(yè)界對深度學(xué)習(xí)更感興趣,致力于將已經(jīng)完成的99.9%再往下延伸。

我覺得,如果這些是產(chǎn)業(yè)追求短期利益不得不做的事情,那么至少學(xué)術(shù)界不應(yīng)該把這個精力花在這里。

(文章來源:澎湃新聞)

標(biāo)簽:

關(guān)閉
新聞速遞