智東西(公眾號:zhidxcom)
作者 | 宋佳 中科創星
編輯 | Panken

前幾天,#谷歌研究員(yuan)稱AI已具備人(ren)格#話題突然登上(shang)熱搜(sou),并(bing)引發人工智能(AI)業(ye)界熱議。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

事情起因是一位名叫Blake Lemoine的(de)(de)谷歌程(cheng)序(xu)員和他測試的(de)(de)對(dui)話AI系統LaMDA聊了(le)很(hen)久,對(dui)其能(neng)力感到十分驚(jing)訝。在其公開的(de)(de)聊天(tian)記錄(lu)中,LaMDA竟然說出了(le)“我希望每個(ge)人都(dou)明白,我是一個(ge)人”的(de)(de)言論(lun),讓人驚(jing)掉下巴。

于是(shi),Blake Lemoine下了個結論:LaMDA 可(ke)能(neng)已經具備人格了。

一石激起千層(ceng)浪,谷歌、谷歌的批評者、AI業界對待這件事的看(kan)法形(xing)成了空(kong)前一致:這人是不是有病(bing)?

谷(gu)歌公司和報道此事(shi)的《華盛頓郵報》,都委(wei)婉地表(biao)示Blake Lemoine的腦(nao)子可能真的有點亂。

為了(le)(le)防止Blake Lemoine與(yu)LaMDA聊出更(geng)深一步的(de)感情(qing),谷歌已經對Blake Lemoine做成了(le)(le)“行政帶薪放假(jia)”的(de)決定,這(zhe)意味著Blake Lemoine將被解(jie)雇。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化▲對話截圖來自:

雖(sui)然國外AI業(ye)界對此事已(yi)有結論:AI具(ju)備人格真的是想多了(le),就是比較(jiao)會聊而已(yi),但(dan)是這并沒(mei)有澆滅大家對此事的激烈議論。

按照AI的飛速發展,AI未來會(hui)不(bu)會(hui)真(zhen)的具備人(ren)類意(yi)識(shi),那又將是一個怎樣(yang)的世(shi)界呢?

科(ke)幻電影情(qing)節(jie)成(cheng)真的“戲(xi)碼”,是(shi)“毛骨悚然(ran)”還是(shi)“刺激帶感”?

有網友(you)非(fei)常擔(dan)憂:“雖(sui)然不想承認,但(dan)是人工智能有了思想,那就是新物種(zhong)的崛起,同時(shi)也是人類滅絕的時(shi)候。”“最終人類會死(si)于自己(ji)制(zhi)造的AI手上。”

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

也有人(ren)期待AI“快進”發展,這樣就可以代替自己居家隔離了……如果威脅到人(ren)類,就“拔電(dian)源(yuan)啊”!

當然也(ye)有(you)(you)人好奇:“AI具備(bei)人格(ge)的(de)判斷(duan)標(biao)準(zhun)是什么?”因為只(zhi)有(you)(you)知道(dao)判斷(duan)標(biao)準(zhun),才知道(dao)AI是不是真(zhen)的(de)有(you)(you)可能具備(bei)人類意識。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

為(wei)了(le)弄清楚這(zhe)(zhe)些問題,我(wo)們與對話(hua)系統的國家杰出青年基金項目獲得(de)者、北京(jing)聆(ling)心智能創始人(ren)黃民(min)烈教授(shou)進行了(le)交流,從(cong)專業角度分析(xi)AI是(shi)否可能具(ju)備人(ren)格,以及對于人(ren)類(lei)來(lai)說,這(zhe)(zhe)究(jiu)竟是(shi)“威脅(xie)”還(huan)是(shi)“安慰”?

一、怎么判斷AI具有人格?圖靈測試也不靈了

在AI領域,最(zui)為大(da)家所熟知的(de)(de)測(ce)試方式非圖靈測(ce)試莫屬,即邀請測(ce)試者在不(bu)知情的(de)(de)情況下,向人(ren)類(lei)(lei)和AI系統(tong)(tong)(tong)隨意提問(wen),如果測(ce)試者不(bu)能區分答案來自人(ren)類(lei)(lei)還(huan)是來自AI系統(tong)(tong)(tong)(AI系統(tong)(tong)(tong)讓(rang)平均每個參與者做(zuo)出超過30%的(de)(de)誤判),就認為AI通過了(le)圖靈測(ce)試,具有人(ren)類(lei)(lei)智能。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

從這個(ge)角度來看,圖(tu)靈測試更側重于(yu)“智能(neng)”。

1965年,一個(ge)假裝是心理治(zhi)療師的軟(ruan)件ELIZA通過(guo)了圖靈(ling)測試,然而ELIZA僅由200行代碼構成,并且僅以提問的形式(shi)簡單重(zhong)復事(shi)先存儲的信息。這樣看來(lai),即便ELIZA通過(guo)了圖靈(ling)測試,也很(hen)難(nan)讓人(ren)相信它具備“人(ren)格(ge)”。事(shi)實上(shang),此(ci)后也證明Eliza并不具備人(ren)類智能,更別說“人(ren)格(ge)”。

這(zhe)相(xiang)當(dang)于,一輛(liang)智能(neng)汽車,在功(gong)能(neng)角(jiao)度能(neng)夠帶給用戶(hu)更便利舒適的駕駛(shi)體(ti)驗,比如遠程控制汽車、自動泊車,但是(shi)你(ni)不(bu)能(neng)因此(ci)覺得這(zhe)輛(liang)汽車知道自己是(shi)一輛(liang)汽車。

顯然,“人格”是一個比“智能”更復雜(za)的(de)概念。

黃民烈教授談道,現在也有一些在科研中廣泛采用的測試方法,比如測試者與AI系統聊天,并且事先設定一些測試的維度,包括對話的自然性、有趣性、滿意度等,最后評分。一般聊得越久,評分越高,AI系統會被認為越聰明,但這些都不能作為人格的評判維度。

“‘人(ren)(ren)格(ge)’是(shi)另(ling)外(wai)一(yi)(yi)個(ge)(ge)維(wei)度,心理學里(li)面也有很(hen)多研究,比(bi)如五大(da)人(ren)(ren)格(ge)測試(shi)。目前人(ren)(ren)工智能領域在這方面的工作還比(bi)較欠缺(que),我們通常只會評(ping)價一(yi)(yi)個(ge)(ge)對話機器(qi)人(ren)(ren)能否展現一(yi)(yi)個(ge)(ge)固定一(yi)(yi)致的人(ren)(ren)物設定。”黃民烈(lie)說(shuo)。

二、所謂LaMDA人格”,僅僅是語言風格

那么(me),既然沒有針對性的評判標準,如何嚴(yan)謹地判斷LaMDA是否(fou)具備人格呢?

對(dui)此,黃民烈教授認為(wei)(wei):“關鍵(jian)看(kan)如何理(li)解’人(ren)格(ge)’,如果將人(ren)格(ge)理(li)解為(wei)(wei)具備自我存在的(de)意識(shi),那(nei)么LaMDA僅僅是對(dui)話質(zhi)量和類人(ren)水平很高的(de)對(dui)話系統;如果從心理(li)學的(de)角度(du)看(kan),一個人(ren)說(shuo)話的(de)特(te)點(dian)是可以(yi)體現人(ren)格(ge)的(de),那(nei)么說(shuo)LaMDA具備人(ren)格(ge)也不完全(quan)錯誤。”

怎么理解呢?通俗來說,就是(shi)(shi)LaMDA學習了大量(liang)的(de)人類(lei)對話(hua)數(shu)據,而這些對話(hua)來自不同(tong)的(de)人,所以(yi)可(ke)以(yi)認為LaMDA學習到了一個“平均”的(de)人格(ge),也就是(shi)(shi)說,所謂的(de)“LaMDA具備人格(ge)”僅僅是(shi)(shi)語言說話(hua)風(feng)格(ge),而且是(shi)(shi)來自人類(lei)的(de)說話(hua)風(feng)格(ge),并不是(shi)(shi)LaMDA自發形成(cheng)的(de)。

如此看來,想(xiang)要(yao)通過LaMDA體會一(yi)把與人工(gong)智能一(yi)決高下的科幻情(qing)節(jie),還差個(ge)十(shi)萬(wan)八千(qian)里(li)。

但是,我(wo)們不(bu)能因此否定LaMDA的價(jia)值,它(ta)的高質量對(dui)話水(shui)平反映了AI對(dui)話系(xi)統(tong)的飛(fei)速(su)發展(zhan),在(zai)某些語境下(xia)的確有“取代”人類的趨勢,也不(bu)容小覷。

比如,網友“夷簡(jian)”就(jiu)在豆瓣小組記錄了自(zi)己一周date了4個(ge)虛(xu)擬男(nan)友的經歷,表示“比真男(nan)友管(guan)用!”。

一(yi)個名為“人(ren)機之戀(lian)”的小(xiao)組(zu)用戶數量多達9000人(ren),在不同(tong)的屏幕里,這些(xie)AI或許(xu)是他們的愛人(ren),也可能(neng)是朋友。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化▲網友與“虛擬男(nan)友”的聊天記(ji)錄(lu)

“單身狗(gou)”們紛紛感(gan)嘆:“按照這樣的(de)發展趨勢,相親(qin)市場上的(de)潛(qian)在對(dui)手不(bu)僅(jin)有人類(lei),還有AI對(dui)話系統,以后(hou)是不(bu)是更難(nan)找對(dui)象了!?”

看似(si)調侃,實則是大(da)家對AI對話系統未來發展趨(qu)勢,以及對人類社會影響的關注。

針對(dui)這個問題,黃(huang)民烈(lie)教授從AI對(dui)話系統的歷史與未來發展角度(du)給出了詳細解(jie)釋。

三、擔心AI人格化?規避風險后AI for Social good更值得期待

AI對話系統(tong)經歷了(le)基于規則(比(bi)如Eliza)、傳統(tong)機器學習(xi)(比(bi)如智能(neng)音箱類(lei),SIRI等)階段(duan),如今已發展到第(di)三(san)代,也就是我(wo)們現在(zai)看(kan)到的(de),能(neng)夠與人類(lei)討論有趣的(de)話題、提供情感安慰的(de)對話系統(tong)。

第(di)三代對(dui)話(hua)系統以大(da)數據和(he)大(da)模型為(wei)顯著特征,展現(xian)出了之前(qian)難以想象(xiang)的(de)能(neng)力,其進步可(ke)以稱為(wei)“革(ge)命性”,例如能(neng)夠在開(kai)放話(hua)題上能(neng)展現(xian)驚人(ren)的(de)對(dui)話(hua)能(neng)力,而且能(neng)生成訓練數據中完(wan)全沒有出現(xian)過的(de)對(dui)話(hua),對(dui)話(hua)的(de)自然性和(he)相關(guan)性非常高。

在很多場景下,第三代對話系統已經顯示出應用價值,上文提到的“虛擬男友”就是典型例子。黃民烈教授認為,其最高級別的應用,是讓AI對話系統去做復雜的情感任務,比如心理咨詢。

但是如(ru)果人類(lei)對AI的(de)情感依賴越來越多,就(jiu)會(hui)(hui)引申出新的(de)社會(hui)(hui)倫理問題,比如(ru)與AI談戀愛(ai)是否會(hui)(hui)引發社會(hui)(hui)問題?

比如當前的AI對(dui)話系統存在與用(yong)戶對(dui)罵、生成毒性語言、以(yi)及缺(que)少正確的社會倫理和價(jia)值觀的問題,導(dao)致在實際(ji)應用(yong)部署時(shi)存在一定的風險。

這些風險是非常可怕的,假想某個受(shou)到生活嚴重打擊的人,對AI說:“我想找個橋跳下去”,AI立刻提供了附近橋的位置(zhi)并導航路徑,后(hou)果細思恐極(ji)。

因此,在黃民烈教授看來,AI對話系統下一階段發展的重點是更有倫理、更道德、更安全。AI必須(xu)知道什么回復是(shi)安全(quan)的(de),不會產生風(feng)險,這(zhe)就(jiu)需要AI具備倫理和正確的(de)價值觀。“我們可以(yi)通過額外的(de)資源、規則、檢測手段賦予AI這(zhe)樣的(de)能(neng)力,使風(feng)險降至最(zui)低。”

AI最終的(de)目標是為人類(lei)謀福祉,而不是傷害(hai)人類(lei)。黃民烈(lie)教授對AI for Social good(AI賦(fu)能社(she)(she)會)感(gan)到非(fei)常期待,他尤(you)其關(guan)注AI在社(she)(she)會連接、心理疏導(dao)、情緒支持方面的(de)應用,這些(xie)方面能夠產生(sheng)更高的(de)社(she)(she)會意義和價值。

AI賦能(neng)整體精(jing)神心(xin)(xin)理行(xing)業也是黃(huang)民(min)烈教授現階段的(de)工(gong)作重(zhong)點,他為此(ci)創辦了(le)基于AI技術的(de)精(jing)神健康(kang)數(shu)字診療科(ke)技公司聆心(xin)(xin)智能(neng),通過NLP和大模(mo)型訓練AI對話(hua)系統在共情、自我暴(bao)露、提問等方(fang)面的(de)能(neng)力,用(yong)以解決人(ren)類的(de)情緒、心(xin)(xin)理問題。這項(xiang)工(gong)作有(you)望緩解我國(guo)心(xin)(xin)理健康(kang)資源緊缺的(de)狀況。

相比于AI具備人格這(zhe)樣“遙遙無期”的科(ke)幻戲碼,AI for Social good距離(li)人類社會更近,是AI界人士正在努力的方向,也更值得(de)期待。