【世界新要聞】谷歌CEO:AI虛假內(nèi)容說明監(jiān)管必要性

2023-04-17 23:15:34
澎湃新聞 發(fā)布時間:2023/4/17 22:23:22
選擇字號:
谷歌CEO:AI虛假內(nèi)容說明監(jiān)管必要性

 

“我一直認為 AI (人工智能)是人類正在研究的最深刻的技術(shù),比火、電或我們過去所做的任何事情都要深刻。”當?shù)貢r間4月16日,在哥倫比亞廣播公司(CBS)的采訪節(jié)目《60分鐘》里,谷歌及其母公司Alphabet的首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)表達了他對人工智能的快速發(fā)展及其對社會潛在威脅的擔憂。

皮查伊認為,社會需要適應(yīng)新技術(shù),各行各業(yè)或許都會受到影響,作家、會計師、建筑師,以及軟件工程師在內(nèi)的“知識工作者”或?qū)⒈蝗斯ぶ悄茴嵏病?/p>

“新技術(shù)將影響每家公司的每一種產(chǎn)品。”皮查伊舉例,假如你是一名放射科醫(yī)生,想象一下從現(xiàn)在起的五年到十年,會有一個人工智能與你共同工作,當你早上起來面對上百件待處理任務(wù)時,它能夠告訴你哪些是需要優(yōu)先處理的最嚴重的事件。

對于新技術(shù)帶來的安全問題,皮查伊表示,虛假信息、假新聞和圖像方面有很大問題,他強調(diào)生成式人工智能的風險之一是深度偽造視頻(deep fake videos),在這些視頻中,一個人的行為可能會被偽造,例如發(fā)布從未說過的某種言論。

“這些陷阱說明了監(jiān)管的必要性。”他說道,“制作這些深度偽造視頻的人必須承擔后果。任何與人工智能合作過的人都會意識到,這是如此不同、如此深刻的東西,以至于我們需要社會法規(guī)來思考如何適應(yīng)。” 

因此他強調(diào)必須有監(jiān)管存在,“我們周圍已經(jīng)發(fā)生的技術(shù),將比我們以前見過的任何東西更有能力。”

在采訪中皮查伊表示,讓他夜不能寐的一件事是谷歌的AI技術(shù)被以有害的方式利用。 

在OpenAI推出ChatGPT后,谷歌開始部署自己的聊天機器人Bard。目前,谷歌一直對Bard采取謹慎的態(tài)度,強調(diào)這只是“實驗性”產(chǎn)品。

據(jù)介紹,Bard內(nèi)置安全過濾器,以幫助抵御惡意用戶的威脅。皮查伊表示,公司需要不斷更新系統(tǒng)的算法,以打擊虛假信息活動并檢測深度造假行為,比如檢測計算機生成的看似真實的圖像。

此前,谷歌發(fā)布了一份關(guān)于“監(jiān)管人工智能建議”的文件。皮查伊表示,社會必須迅速適應(yīng)監(jiān)管濫用行為的法律和條約,以確保人工智能對世界的影響。

皮查伊強調(diào),“這不是一家公司可以決定的。這也是為什么我認為新技術(shù)的發(fā)展不僅需要工程師的努力,還需要社會科學(xué)家、倫理學(xué)家、哲學(xué)家等共同參與。”

當被問及社會是否為像Bard這樣的人工智能技術(shù)做好準備時,皮查伊回答說,“一方面,我覺得沒有,因為我們的思考和適應(yīng)的速度趕不上技術(shù)發(fā)展的速度。”  

不過,他補充說自己很樂觀,因為與過去的其他技術(shù)相比,“開始擔心其影響的人”很早就有所準備了。

(原題:《谷歌CEO: 社會需要適應(yīng)AI,但AI虛假內(nèi)容說明監(jiān)管必要性》)

 
 
 
特別聲明:本文轉(zhuǎn)載僅僅是出于傳播信息的需要,并不意味著代表本網(wǎng)站觀點或證實其內(nèi)容的真實性;如其他媒體、網(wǎng)站或個人從本網(wǎng)站轉(zhuǎn)載使用,須保留本網(wǎng)站注明的“來源”,并自負版權(quán)等法律責任;作者如果不希望被轉(zhuǎn)載或者聯(lián)系轉(zhuǎn)載稿費等事宜,請與我們接洽。
<script src="/html/js/share.js" type="text/javascript"></script>
 
 打印  發(fā)E-mail給: 
    
 

“我一直認為 AI (人工智能)是人類正在研究的最深刻的技術(shù),比火、電或我們過去所做的任何事情都要深刻。”當?shù)貢r間4月16日,在哥倫比亞廣播公司(CBS)的采訪節(jié)目《60分鐘》里,谷歌及其母公司Alphabet的首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)表達了他對人工智能的快速發(fā)展及其對社會潛在威脅的擔憂。


(資料圖)

皮查伊認為,社會需要適應(yīng)新技術(shù),各行各業(yè)或許都會受到影響,作家、會計師、建筑師,以及軟件工程師在內(nèi)的“知識工作者”或?qū)⒈蝗斯ぶ悄茴嵏病?/p>

“新技術(shù)將影響每家公司的每一種產(chǎn)品。”皮查伊舉例,假如你是一名放射科醫(yī)生,想象一下從現(xiàn)在起的五年到十年,會有一個人工智能與你共同工作,當你早上起來面對上百件待處理任務(wù)時,它能夠告訴你哪些是需要優(yōu)先處理的最嚴重的事件。

對于新技術(shù)帶來的安全問題,皮查伊表示,虛假信息、假新聞和圖像方面有很大問題,他強調(diào)生成式人工智能的風險之一是深度偽造視頻(deep fake videos),在這些視頻中,一個人的行為可能會被偽造,例如發(fā)布從未說過的某種言論。

“這些陷阱說明了監(jiān)管的必要性。”他說道,“制作這些深度偽造視頻的人必須承擔后果。任何與人工智能合作過的人都會意識到,這是如此不同、如此深刻的東西,以至于我們需要社會法規(guī)來思考如何適應(yīng)。” 

因此他強調(diào)必須有監(jiān)管存在,“我們周圍已經(jīng)發(fā)生的技術(shù),將比我們以前見過的任何東西更有能力。”

在采訪中皮查伊表示,讓他夜不能寐的一件事是谷歌的AI技術(shù)被以有害的方式利用。 

在OpenAI推出ChatGPT后,谷歌開始部署自己的聊天機器人Bard。目前,谷歌一直對Bard采取謹慎的態(tài)度,強調(diào)這只是“實驗性”產(chǎn)品。

據(jù)介紹,Bard內(nèi)置安全過濾器,以幫助抵御惡意用戶的威脅。皮查伊表示,公司需要不斷更新系統(tǒng)的算法,以打擊虛假信息活動并檢測深度造假行為,比如檢測計算機生成的看似真實的圖像。

此前,谷歌發(fā)布了一份關(guān)于“監(jiān)管人工智能建議”的文件。皮查伊表示,社會必須迅速適應(yīng)監(jiān)管濫用行為的法律和條約,以確保人工智能對世界的影響。

皮查伊強調(diào),“這不是一家公司可以決定的。這也是為什么我認為新技術(shù)的發(fā)展不僅需要工程師的努力,還需要社會科學(xué)家、倫理學(xué)家、哲學(xué)家等共同參與。”

當被問及社會是否為像Bard這樣的人工智能技術(shù)做好準備時,皮查伊回答說,“一方面,我覺得沒有,因為我們的思考和適應(yīng)的速度趕不上技術(shù)發(fā)展的速度。”  

不過,他補充說自己很樂觀,因為與過去的其他技術(shù)相比,“開始擔心其影響的人”很早就有所準備了。

(原題:《谷歌CEO: 社會需要適應(yīng)AI,但AI虛假內(nèi)容說明監(jiān)管必要性》)

標簽:

關(guān)閉
新聞速遞