環(huán)球觀察:專家熱議科技倫理:AI不該以人為中心 數(shù)字人不能成為主體

2022-09-08 22:54:26

自動駕駛、人臉識別、基因編輯、腦機(jī)接口......毫無疑問,這是一個科技高速發(fā)展的時代,高速發(fā)展的科學(xué)技術(shù)帶動了工業(yè)、服務(wù)業(yè)等多個領(lǐng)域的快速轉(zhuǎn)型,也使得技術(shù)應(yīng)用的界限愈加模糊,人臉識別帶來的銀行財(cái)產(chǎn)糾紛、虛擬人的知識產(chǎn)權(quán)歸屬、數(shù)據(jù)采集涉及到的隱私權(quán)問題等等諸多爭議也一并出現(xiàn)。

而這些爭議就與倫理相關(guān)原則有關(guān),如涉及到隱私保護(hù)的數(shù)據(jù)倫理,涉及到透明性問題的算法倫理,以及機(jī)器服務(wù)人類時涉及到的“保護(hù)人類還是聽從命令”的道德抉擇??梢哉f,只有更好地理解和規(guī)范科技倫理,才能使科技長久地發(fā)展下去,并真正為人類帶來福祉。


【資料圖】

9月7日,在2022中國互聯(lián)網(wǎng)法治大會的分論壇“合規(guī)科技——科技倫理治理分論壇”上,來自中國信通院、中科院的學(xué)者,以及阿里、百度、科大訊飛等多名企業(yè)高管對上述問題進(jìn)行了討論。有專家表示,科技中的倫理問題并不等同于底線,也有專家認(rèn)為,機(jī)器人和數(shù)字人絕對不能作為主體。

倫理不是底線,人工智能不應(yīng)以人類為中心

“首先,倫理講的肯定不是底線問題。”中國科學(xué)院大學(xué)自動化研究所研究員、人工智能倫理與治理研究中心主任曾毅這樣表示。

他認(rèn)為,人工智能的發(fā)展實(shí)際上就是倫理和治理的問題,倫理討論會同時包括“應(yīng)該做什么”和“不應(yīng)該做什么”兩個問題,而底線只會講“不應(yīng)該做什么”,但現(xiàn)在對于應(yīng)該往哪個方向走的問題講得太少,所以當(dāng)有觸碰底線的情況發(fā)生,就不得不去講不應(yīng)該做什么。

在曾毅看來,倫理和治理不是監(jiān)管,要把倫理和治理變成服務(wù),才能真正推動人工智能產(chǎn)品和產(chǎn)業(yè)的創(chuàng)新,幫助企業(yè)——特別是中小企業(yè)推動在倫理治理方面的發(fā)展,使人工智能能夠“負(fù)責(zé)任且可持續(xù)”地發(fā)展。

并且,由于現(xiàn)在人工智能的概念已經(jīng)泛化,出現(xiàn)了諸如大數(shù)據(jù)、虛擬現(xiàn)實(shí)、自動控制、腦機(jī)接口等多個“外延”應(yīng)用,因此,曾毅認(rèn)為應(yīng)該特別規(guī)范這些外延的野蠻生長。

他舉了一個隱私方面的例子,比如現(xiàn)在大眾都耳熟能詳?shù)娜四樧R別技術(shù)在有些國家是被禁用的,但這并不意味著這樣的國家就更負(fù)責(zé)任,因?yàn)槌吮娝灾摹叭四樧R別”之外,還有步態(tài)識別、虹膜識別、聲紋識別等手段,也能達(dá)到相同的目的。在這個過程中,最重要的是在使用中讓用戶對相關(guān)隱私問題真正知情,而非禁用之后再用其他方式去做替代。

而且,曾毅及團(tuán)隊(duì)通過對1000萬篇計(jì)算機(jī)科學(xué)及人工智能領(lǐng)域的英文文獻(xiàn)進(jìn)行數(shù)據(jù)分析,還發(fā)現(xiàn)人工智能在不同領(lǐng)域展現(xiàn)出了不同的可持續(xù)發(fā)展傾向,其中前三位分別為工業(yè)創(chuàng)新、優(yōu)質(zhì)教育和健康。

為何是這三個領(lǐng)域?“原因很簡單,因?yàn)樗鼈兌假嶅X?!?曾毅說。

他補(bǔ)充解釋,像是性別平等、清潔能源、水資源等等問題是社會政府非常關(guān)注的,但在商業(yè)價(jià)值上卻沒那么強(qiáng),因此科技也就并不關(guān)注它們。也正因如此,才應(yīng)該倡導(dǎo)產(chǎn)學(xué)研在政府的引導(dǎo)下去賦能。

那么對于人工智能本身來說呢?曾毅的觀點(diǎn)是:既不能讓人工智能構(gòu)建下的數(shù)字人、虛擬人成為主體,也不要完全以人類為中心,

“如果從哲學(xué)的觀點(diǎn)來講,人工智能是人工的僵尸,它能夠做信息處理,但沒有真正地理解,更沒有自我的視角,也沒有推己及人,本質(zhì)上它是一個智能信息處理工具,你把什么樣的規(guī)則灌輸給它,它就會變成什么樣。”曾毅表示。

至于為什么“不要完全以人類為中心”,曾毅認(rèn)為在科技高速發(fā)展的現(xiàn)代社會,人類與不同生命個體有著高度的關(guān)聯(lián),所以應(yīng)該是“以生態(tài)為中心”。

AI正在模仿法律意義上的“主體”

對于“人工智能應(yīng)該以整個生態(tài)為研究中心”的看法,北京理工大學(xué)法學(xué)院副教授,智能科技風(fēng)險(xiǎn)法律防控工信部重點(diǎn)實(shí)驗(yàn)室執(zhí)行主任陳姿含從法律角度提出了自己的看法。

“法學(xué)在解決問題的時候,首先要進(jìn)行人和客觀世界的劃分,那么智能算法可能產(chǎn)生的倫理問題,就是由人工智能沖擊了人與客觀世界的邊界之后帶來的?!标愖撕f。

什么意思呢?像是性別、宗教信息等等數(shù)據(jù),在法律中會將其視為個人敏感信息或公共數(shù)據(jù),用其保證公平和爭議,而智能算法不僅會輔助法律去規(guī)制對信息不必要的利用行為,還會在其間建立一種關(guān)聯(lián),同時挖掘更多的關(guān)聯(lián)性信息作為替代。因此,這就有可能產(chǎn)生對既有的秩序、公平和正義的沖擊。

在陳姿含看來,解決人工智能的倫理問題有兩個非常重要的思考點(diǎn):

首先是解決人工智能算法相關(guān)決策,建立具體法律的制度性保障。這本質(zhì)上也是安全問題,也是科技探求最為重要的出發(fā)點(diǎn),解決了安全需求,知道如何用法律對自己和事件進(jìn)行保護(hù),才能夠探討其他制度性構(gòu)建。

其次是公共算法決策對制度的整體性沖擊,尤其要思考人類的主體性危機(jī)。陳姿含表示,大眾現(xiàn)在已經(jīng)建立起對國家和法律的一種信任,但如果將決策依據(jù)調(diào)整為公共算法,誰是治理主體,算法又有沒有可能導(dǎo)致不公,存不存在權(quán)力的外包等等新問題就會出現(xiàn)。

“主體性危機(jī)”是什么?陳姿含從兩個方面解釋:

首先人工智能或者算法模擬了人作為法律主題的物理性基礎(chǔ),比如像是AlphaGo這樣的AI就模仿了人類的理性思維,擁有強(qiáng)大的計(jì)算能力。

其次算法復(fù)制了“法律主體”的擬制過程。法律上人的概念與生物學(xué)上的人是相互區(qū)別的,法律劃定的個人的社會關(guān)系是指一個人能夠控制的與個體相關(guān)的信息,比如身體、物理空間以及隱私,這些信息不僅可以在個體組成的社會網(wǎng)絡(luò)中進(jìn)行有效連接,還能夠刺破公共區(qū)域,介入到私人領(lǐng)域中去而。但很多時候,人工智能恰好需要這些信息才能做到非常穩(wěn)定的決策,那么這時,人的心智在某種程度上就被還原為了客觀的物質(zhì)。

現(xiàn)在,人工智能律師、人工智能警察等等都在進(jìn)入人類的生活,作為一個法律學(xué)者,陳姿含認(rèn)為,這都使得法律主體的一元論受到了挑戰(zhàn),因此這時就需要思考,算法、人工智能、數(shù)字人到底是服務(wù)于人類,還是在決定人類。

“事實(shí)上,法律上將人類劃分社會契約的主體,并不是因?yàn)槿祟愝^之于以往的生物多么的優(yōu)秀,而是在強(qiáng)調(diào)人都是理性的,縱然在現(xiàn)實(shí)生活中有千差萬別,也應(yīng)該受到平等的保護(hù)。但差異化定價(jià)、個性化歧視等算法則加劇了人類差別的挖掘。而對于我們?nèi)祟悂碚f,應(yīng)當(dāng)是以人作為出發(fā)點(diǎn),并且以保障個體權(quán)利為最終歸宿?!标愖撕f。

(文章來源:南方都市報(bào))

標(biāo)簽:

關(guān)閉
新聞速遞