智東西(公眾號:zhidxcom)
編譯 | 程茜
編輯 | 李水青

智東西9月16日(ri)消息(xi),9月11日(ri),OpenAI聯合創始人、CEO薩(sa)姆·阿(a)爾特曼(Sam Altman)接受(shou)了(le)美國知名新聞主(zhu)持人塔克·卡爾森(Tucker Carlson)的專訪。

阿爾特曼在訪談中,首次回應了ChatGPT并不總反對自殺,面對(dui)(dui)未成(cheng)年人(ren)、患(huan)絕癥的成(cheng)年人(ren)、在安樂死合法(fa)的國家(jia)里,ChatGPT或許應(ying)該(gai)分情況(kuang)應(ying)對(dui)(dui)。同時他也提到,他曾非常敬(jing)重與(yu)埃隆·馬斯克(Elon Musk)但現在已幾乎不聯系(xi)。

并且(qie)他透(tou)露,OpenAI為ChatGPT制定的(de)道(dao)德規(gui)(gui)范(fan)(fan)來自于數百(bai)位(wei)道(dao)德哲(zhe)學(xue)家以及研究技術(shu)倫理和系統倫理的(de)專家,最終形成一些有傾向(xiang)性的(de)具體(ti)規(gui)(gui)范(fan)(fan),這些規(gui)(gui)范(fan)(fan)也會隨著時間增長(chang)而發生(sheng)變化。

干貨如下:

1、AI沒有生命,“AI似乎具備某種自主性”可能是人類的錯覺;

2、AI幻覺(jue)依然(ran)存在(zai),但他相信我(wo)們終會徹底解決幻覺(jue);

3、AI會讓擁抱這項技術的每一個人都更強大,目前不會導致權力高度集中;

4、ChatGPT應該反映人類道德觀念的“加權平均值”,其實ChatGPT的一些觀點阿爾特曼本人也不認同;

5、阿爾特曼晚上失眠,最擔心的是每天有數億人在和OpenAI的模型互動,為背后未知的危險感到焦慮;

6、AI需平衡隱私保護和自殺預防之間的關系,他提倡確立“AI隱私特權”概念;

7、OpenAI在版權問題上出了名的嚴格;

8、阿(a)爾特曼曾十分敬重(zhong)馬斯克,認為他是一位了不(bu)起的英雄,但現(xian)在想法變(bian)了,且與(yu)馬斯克幾乎不(bu)聯系。馬斯克曾說“OpenAI成功的概率是0”;

9、受AI影響,電話客服會失業,對程序員崗位的發展不確定;

10、生物識別不應該成為全社會的強制要求

這場(chang)對談(tan)持(chi)續了將近1個小時。

“我曾敬重馬斯克,但現在不聯系了”!阿爾特曼專訪回應攻擊,首談AI自殺預防兩難

▲OpenAI聯合(he)創始人、CEO薩(sa)姆·阿爾(er)特曼(Sam Altman)(右)美國知名新聞主持人塔克·卡(ka)爾(er)森(Tucker Carlson)(左)

YouTube賬號評論區的(de)網友也針對阿(a)爾特(te)曼的(de)表現展開了討論,他(ta)(ta)們認為“阿(a)爾特(te)曼后悔同意這次采訪”,其判斷的(de)依據(ju)可能是在訪談期間,阿(a)爾特(te)曼多次回(hui)答時低頭(tou),拒絕(jue)與主持人進行眼神交流;還有人認為他(ta)(ta)就像人類(lei)形態(tai)的(de)ChatGPT、沒(mei)有感情、無法回(hui)答道(dao)德問(wen)題。

“我曾敬重馬斯克,但現在不聯系了”!阿爾特曼專訪回應攻擊,首談AI自殺預防兩難

以下是對訪談全程內容的編譯(為優化閱讀體驗智東西做了不改變原意的編輯):

一、AI沒有生命,不會導致權力高度集中

主持人:ChatGPT或者其他AI,仿佛能自主得出結論,看起來就像擁有生命一樣。那么,它們是活的嗎?它具有生命嗎?

阿爾特曼:不,我不認為他們有生命。不過我能理解為什么會(hui)有人產生這種感覺,AI不會(hui)主動(dong)做任何事,除非(fei)你發(fa)出指令,AI就好像只是待在(zai)那(nei)里在(zai)等(deng)待一(yi)樣,它們(men)沒(mei)有能動(dong)性或(huo)(huo)自主性的(de)特質。不過我認為,你使用(yong)它們(men)的(de)次數越(yue)多,那(nei)種它們(men)具備生命的(de)錯覺就越(yue)容(rong)易破滅。但不可否(fou)認,它們(men)的(de)實用(yong)性極強,雖然它們(men)表(biao)現得或(huo)(huo)許沒(mei)有生命感,卻又確實顯得很(hen)聰明,能完成不少事情。

主持人:我和一個參與技術發展的人交談,他說AI在撒謊,你見過AI撒謊嗎?

阿爾特曼:是的,但AI并不是一直在(zai)撒謊,它(ta)們過去總是產生(sheng)(sheng)幻覺,但現在(zai)會產生(sheng)(sheng)一點(dian)點(dian)幻覺,這(zhe)好多了。但在(zai)(zai)早期,如果(guo)你(ni)問(wen)“美(mei)國那位虛構的(de)總(zong)統(tong)塔(ta)克·卡(ka)爾(er)森(sen)出生于(yu)哪一年”,它(ta)(ta)理應回答(da)“我認(ren)為塔(ta)克·卡(ka)爾(er)森(sen)從未擔(dan)任(ren)過(guo)美(mei)國總(zong)統(tong)”。但由(you)于(yu)當時的(de)訓練方式問(wen)題,它(ta)(ta)的(de)反應不(bu)會是這(zhe)(zhe)樣(yang)(yang)。它(ta)(ta)會做(zuo)出這(zhe)(zhe)樣(yang)(yang)的(de)判斷:“哦,我不(bu)知道存不(bu)存在(zai)(zai)這(zhe)(zhe)樣(yang)(yang)一位總(zong)統(tong),既然用戶(hu)提到了塔(ta)克·卡(ka)爾(er)森(sen)總(zong)統(tong),那我就盡量猜(cai)一個(ge)年份吧。” 不(bu)過(guo),我們后來已經(jing)找(zhao)到方法,基(ji)本解決了這(zhe)(zhe)類問(wen)題。

如今,這類(lei)問題的案(an)例依然(ran)存在,但(dan)我相(xiang)信我們終(zhong)會徹底解決它。而且在GPT-5中,我們已經(jing)在這方(fang)面取得了巨(ju)大進展。

主持人:但你剛才的描述聽起來也像是一種意愿的體現,或者至少是有創造力的表現。我之前看過AI的演示,它給人的感覺不太像一臺機器,反而像帶有生命的火花。你是否也有過這種感受?

阿爾特曼:就拿剛提到的(de)那個例子來(lai)說,從數學(xue)角度看,模型需要通過權重(zhong)計(ji)算得出最可(ke)能的(de)答(da)案(an),而(er)不該(gai)是默(mo)認(ren)“用(yong)戶說的(de)一定對、確實存在這位總統(tong)”,應該(gai)是“從未有過這位總統(tong)”。

所以(yi)模型最(zui)初給出的(de)最(zui)可能的(de)答案應該是(shi)一個(ge)具體的(de)出生年份(fen)。不過(guo),我(wo)們后來(lai)還(huan)是(shi)找到了解決(jue)這個(ge)問(wen)題的(de)方法(fa)。

但就(jiu)你之(zhi)前看到的演示(shi)情況而言,我感(gan)覺自己(ji)腦子(zi)里(li)好像得同時裝著(zhu)兩個截然不同的想法(fa)才能理解。

一(yi)(yi)個(ge)想法是(shi)眼前所(suo)有(you)這(zhe)些AI生(sheng)成(cheng)內容的(de)現象,本質上都(dou)源于(yu)一(yi)(yi)臺高(gao)性能計算機(ji)在飛速地將大量數字與(yu)巨型矩陣進行乘(cheng)法運算,而這(zhe)些運算結(jie)果,又與(yu)最終輸出的(de)一(yi)(yi)個(ge)個(ge)單(dan)詞(ci)存(cun)在著對應(ying)關聯;另一(yi)(yi)方面,實際使用AI時的(de)主觀感受卻讓你覺得,它(ta)絕不(bu)僅(jin)僅(jin)是(shi)一(yi)(yi)臺功能炫酷的(de)計算器,它(ta)對我確實有(you)實用價值,而且常(chang)常(chang)能帶(dai)來驚喜,并(bing)且這(zhe)種驚喜感遠(yuan)超數學(xue)運算本質所(suo)能解釋的(de)范疇。

于(yu)是用(yong)戶(hu)就(jiu)會浮現(xian)一個(ge)結論(lun)(lun):AI似乎具(ju)備了某種自主(zhu)性。我知道(dao),很多人(ren)在使用(yong)它(ta)的(de)過程中都會得出類似結論(lun)(lun),甚至覺得這(zhe)背后(hou)蘊含著某種神(shen)圣的(de)特質。

主持人:你現在創造的技術影響力似乎會超越人類個體,我認為這種情況大概率會發生,只是沒人能預知最終會走向何方。如此一來,這項技術所擁有的能量,可能會超過任何一個在世的人。所以我很好奇,你是如何看待這件事的?

阿爾特曼:其實以前,我對這類問題的擔憂要比現在強烈得多。我曾經非常擔心AI會導致權力集中在少數人或少數公司手中。但就現在的情況來看,AI會讓每個人都更強大,任何擁抱這項技術的人,能力都會得到大幅增強

但(dan)其實比起少數人獲得更多權(quan)利(li),如果因為(wei)使用(yong)這(zhe)項(xiang)技術,我(wo)們每個人的能力都能大幅提升,比如效率更高(gao)、創造力更強或是(shi)能助力探索(suo)新的科(ke)學領域(yu),而且(qie)這(zhe)種能力提升是(shi)廣泛普(pu)及的,那我(wo)是(shi)能理解并(bing)接受的,這(zhe)種局(ju)面也讓人覺(jue)得安心(xin)。

主持人:所以你認為這不會導致權力的高度集中?

阿爾特曼:目前來看應該(gai)不會,但發(fa)展軌(gui)跡仍有(you)可能改(gai)變(bian),到時候我們也必(bi)須隨之調整。我以前確(que)(que)實對此憂心(xin)忡忡,而且(qie)我知道,我們這個領域(yu)里很多(duo)人曾經對AI發(fa)展路徑的設想,確(que)(que)實有(you)可能最終走向一個權力高度(du)集中的世界。

但現在(zai)(zai),有很多人(ren)都(dou)在(zai)(zai)使(shi)用ChatGPT和其它聊天機(ji)器人(ren),提高了自(zi)己(ji)的能力,能做(zuo)更多的事情、取得更多成就、開創新業(ye)務、獲得新知識,這種感覺非常好(hao)。

二、AI學習人類的集體智慧,模型規范實際上是道德抉擇

主持人:如果它只不過是一臺機器,且完全是其輸入數據的產物,那么有兩個顯而易見的問題就會浮現:一是這些輸入數據究竟是什么?二是這項技術中植入的道德框架是什么?比如按照ChatGPT的邏輯,什么是對、什么是錯?

阿爾特曼:ChatGPT發布早期,當時餐桌上有人聊起這(zhe)個(ge)話題,其中一(yi)個(ge)人說:“我們(men)在努力把它訓(xun)練得像(xiang)(xiang)人類一(yi)樣,像(xiang)(xiang)人類那樣學習、讀書。”接著(zhu)另一(yi)個(ge)人反(fan)駁(bo)道:“不對,我們(men)其實(shi)是在努力把它訓(xun)練得像(xiang)(xiang)‘全人類的(de)集合體’。”

AI在閱讀所有能獲取的內容,我們試圖讓它學習世間所有知識、接觸所有觀點。要是我們能把這件事做好,那么全人類的一切包括好的、壞的以及各種截然不同的視角,那些讓我們由衷認同的東西,還有那些讓我們難以接受的東西都會被它囊括進去。也就是說,它正在學習的(de)是人類(lei)這種集體性(xing)的(de)經驗、知識(shi)與(yu)領悟

現(xian)在(zai),基礎模型(xing)會以這(zhe)種方式進行(xing)(xing)訓練,但之后我們會進行(xing)(xing)對(dui)齊,讓模型(xing)明確(que)比如(ru)這(zhe)個問(wen)題(ti)要回答、那(nei)個問(wen)題(ti)不回答。為(wei)此,我們制定了一份名為(wei)模型(xing)規范(Model Spec)的(de)文件(jian),在(zai)其中明確(que)哪些(xie)是我們希望模型(xing)遵循的(de)規則。

當然(ran),模型偶爾還是(shi)會(hui)(hui)出(chu)錯,但至(zhi)少你能判(pan)斷它做(zuo)出(chu)的(de)不符合(he)預期(qi)的(de)行為,究竟是(shi)bug,還是(shi)底(di)層設計的(de)原(yuan)因(yin)。我(wo)們會(hui)(hui)與全(quan)球各方展開討論,為這份規(gui)(gui)范收集意見,同(tong)時,在規(gui)(gui)范的(de)框架(jia)內(nei)也會(hui)(hui)給(gei)用戶留(liu)出(chu)很大的(de)自由調整和定制(zhi)空間。

我們會劃定明確(que)的界限(xian)。但除(chu)此之外(wai)還存在默認設定的問題(ti),要(yao)是沒有額外(wai)的指令或限(xian)制,模型本(ben)該如何表現?它該做(zuo)什么?面對道德問題(ti)時該如何回答?該拒(ju)絕哪些要(yao)求?以及在可以回應的情況下該如何回應?

這些是非常困難的問題,因為我們現在擁有數量龐大的用戶,他們來自不同背景,有著截然不同的人生視角和需求。不過總體而言,模(mo)型在學習并應用道(dao)德框架方(fang)面(mian)的能力,還(huan)是讓我感到驚喜

主持人:道德框架是什么?世界人文與哲學的總和本身就存在著內在的矛盾與沖突,你又該如何判定哪一方的觀點更優越呢?

阿爾特曼:這(zhe)就是我們(men)寫這(zhe)個模(mo)型規范的原因,我們(men)打算這(zhe)樣(yang)處理這(zhe)類(lei)情況。

主持人:你們依據什么標準來判定模型該如何做?是誰做出的這些決定?又咨詢了哪些人?

阿爾特曼:事實上(shang),我(wo)們咨詢(xun)了(le)數(shu)百(bai)位道德哲(zhe)學家(jia)以及研究技(ji)術倫理和系統倫理的專家(jia)。最終(zhong),我(wo)們不(bu)得不(bu)做出一些傾向性的決定。

而我(wo)們之所(suo)以努力把這些決定和(he)判(pan)斷標準(zhun)寫下來的原(yuan)因有兩個,首先我(wo)們不可能做到(dao)所(suo)有判(pan)斷都絕對正確(que);其次(ci)我(wo)們需(xu)要(yao)吸納(na)全球各界的意見。

而且我(wo)們(men)確(que)實發現過很(hen)多這(zhe)樣的(de)案例,有(you)些情況在我(wo)們(men)看來,允(yun)許還是(shi)禁止的(de)判斷相當明確(que),但用戶卻說服了我(wo)們(men),他(ta)們(men)認(ren)為“你(ni)們(men)覺得這(zhe)個決定(ding)很(hen)容(rong)易,但恰(qia)恰(qia)是(shi)禁止了這(zhe)件事,導致另一件重(zhong)要的(de)事也無(wu)法實現了”。

總體而言,這(zhe)類情況(kuang)往(wang)往(wang)伴隨著艱難的權衡,畢竟要(yao)兼顧的方(fang)面太多了。不過(guo),我(wo)一(yi)直比(bi)較認同(tong)一(yi)個原則,那就是要(yao)像對待(dai)成(cheng)年人一(yi)樣對待(dai)我(wo)們的成(cheng)年用戶(hu),非常強(qiang)的隱私保護、非常強(qiang)的個人用戶(hu)自(zi)由保障,這(zhe)是我(wo)們正在構(gou)建的工具。在一(yi)個相當寬泛(fan)的框架內,用戶(hu)完全(quan)可以自(zi)主使用它。

但(dan)另一方面,隨著這項技術的(de)威力越來(lai)越強,也出現了一些很明顯(xian)的(de)情況,在這些情況中,社(she)會公共利益(yi)與(yu)用(yong)戶自(zi)由(you)之間存在矛盾。

我(wo)(wo)(wo)(wo)可以(yi)(yi)舉一個直接(jie)的例(li)子,例(li)如(ru)ChatGPT應該教(jiao)你(ni)如(ru)何制造生物(wu)武器嗎?你(ni)可能(neng)會說:“我(wo)(wo)(wo)(wo)只是(shi)對生物(wu)學(xue)非常感興趣,我(wo)(wo)(wo)(wo)是(shi)一名生物(wu)學(xue)家,我(wo)(wo)(wo)(wo)不會用這些知(zhi)識(shi)做任(ren)何壞事,只是(shi)想學(xue)習而(er)已,雖然我(wo)(wo)(wo)(wo)也可以(yi)(yi)去(qu)讀一大堆書,但ChatGPT能(neng)讓我(wo)(wo)(wo)(wo)學(xue)得更快。我(wo)(wo)(wo)(wo)就(jiu)是(shi)想了(le)解,比如(ru)新型(xing)病(bing)毒(du)合成之類的知(zhi)識(shi)。”

或許(xu)你說的是實話(hua),或許(xu)你確實完全沒有(you)害(hai)人之心(xin)。但我認為,讓(rang)ChatGPT幫人們制造生物武器,并不符合(he)社會的利益。所以在這個問題上,答案很明確。當然,這是個比較(jiao)容易判斷的例子,但還(huan)有(you)很多更(geng)難抉擇的情況。

主持人:其實,每一個決定本質上都是道德抉擇,有人認為這項技術之后會替我們做這些決定。

阿爾特曼:我(wo)(wo)并(bing)不認同它會(hui)替我(wo)(wo)們做決定(ding)這種說法,但它肯定(ding)會(hui)對我(wo)(wo)們的決定(ding)產生影響,這一點是(shi)毋庸置疑的,因(yin)為它終將融入(ru)我們的日常生(sheng)活。

三、AI反應人類共有道德觀念,最擔心每天有數億人和模型互動

主持人:那么誰是做這些決定的人?你剛才提到了OpenAI構建的那個框架,這個框架確實會給不同的世界觀和決策賦予道德權重。

阿爾特曼:從原則上來說,我不希望是某個文檔、某個團隊來獨自決定,我們有專門的模型行為團隊。我想說的是,我(wo)(wo)認為(wei)大家應該追究責任的(de)對象是我(wo)(wo),因為(wei)最終我(wo)(wo)是公司的(de)公眾(zhong)代(dai)表,我(wo)(wo)有權推翻其中(zhong)某項決策,我(wo)(wo)們的(de)董事(shi)會也有這個權力

主持人:你今年春天40歲了。我想知道你是否已經認識到它的重要性,OpenAI在這方面做得如何?這些決定將產生全球性后果,我們可能一開始沒有意識到。我想知道你會不會晚上躺在床上時覺得“世界的未來正取決于我的判斷”?

阿爾特曼:實話說我晚上睡得并不好,有很多事都讓我感到壓力巨大,但最讓我擔心的或(huo)許莫過于每天都(dou)有數億人在和我們的模型互動

其實我并不太擔心我們(men)在重大(da)道(dao)德決策上出錯,當然(ran),我們(men)也(ye)有可能搞砸。但真正讓我擔心的是(shi)那(nei)些看似(si)微不足道(dao)的決定,比如我們(men)對(dui)模(mo)型行為做出的某個細微調(diao)整。既然(ran)有上億人在使用它,哪怕只是(shi)一點微小的改變,最終產生的影響也(ye)會變得巨大(da)。

主持人:所以我的意思是,比如從有文字記載的歷史開始人們總是會遵從他們所認定的更高權力,我想知道,你的道德框架是從哪里來的?

阿爾特曼:和其(qi)他人一樣(yang),成(cheng)長(chang)環境可(ke)能是最(zui)重要的事(shi)情(qing),包括我的家(jia)庭、學校、社區。

主持人:這是一個標準的答案,但具體到你身上,既然你說這些決策的責任最終落在你肩上,那是不是意味著,你成長所處的環境以及這些年來你潛移默化接受的那些觀念,都會傳遞給全球數十億人?

阿爾特曼:我認為,我們的用戶群體本身就近似于整個世界的縮影。我們該做的是努力讓模型反映出這一用戶群體的道德取向,我不想用 “平均水平” 這個詞,更準確地說是反映他們共有的道德觀念

其實ChatGPT生(sheng)成(cheng)的很多內容,我個(ge)人是不認同的。但很(hen)明顯,我不會想(xiang)著要把我自己的道(dao)(dao)德(de)觀(guan)(guan)念(nian)(nian)完(wan)全(quan)強加給模型,然后由我來判定什(shen)么(me)可以、什(shen)么(me)不可以、什(shen)么(me)觀(guan)(guan)念(nian)(nian)比(bi)另一個更(geng)好(hao)。我認為(wei)ChatGPT應該做的,是(shi)反映人類(lei)道(dao)(dao)德(de)觀(guan)(guan)念(nian)(nian)的“加權平(ping)均(jun)值”,而且這種道(dao)(dao)德(de)觀(guan)(guan)念(nian)(nian)會隨著時間(jian)推移不斷(duan)演(yan)變。

我們的(de)(de)存在是(shi)為(wei)了服務用戶(hu),ChatGPT本(ben)質上(shang)是(shi)一款(kuan)為(wei)人類打造的(de)(de)技術工具(ju),我們不需要讓它(ta)來做道(dao)德決策,而是(shi)確保當下(xia)讓其(qi)能準(zhun)確反映(ying)用戶(hu)群(qun)體的(de)(de)偏(pian)好(hao),然(ran)后最終能準(zhun)確反映(ying)全人類的(de)(de)偏(pian)好(hao)。

主持人:不過,全人類的偏好和美國中產階級的普遍偏好相差甚遠。那如果有一款AI反對同性婚姻,你能接受嗎?

阿爾特曼:我認為應(ying)該允許(xu)用戶個(ge)人對(dui)同性(xing)戀群體持有(you)(you)異議,如果這(zhe)是他們深思(si)熟慮(lv)后形成的觀點。AI不(bu)(bu)應(ying)該去指責他們錯了或者蠢,其或許(xu)可(ke)以這(zhe)樣回應(ying):“你要(yao)不(bu)(bu)要(yao)從(cong)另一個(ge)角度想想這(zhe)個(ge)問題?”但反過來想,我個(ge)人的很(hen)多道德觀念(nian),可(ke)能在(zai)很(hen)多人看來也十(shi)分(fen)離(li)譜,可(ke)我依(yi)然有(you)(you)權持有(you)(you)這(zhe)些觀念(nian),不(bu)(bu)是嗎?

或(huo)許(xu)在(zai)“為人們保留(liu)持有截(jie)然(ran)不同道德觀念的(de)空間”這(zhe)件事上,我的(de)接受度比你更高。或(huo)者至(zhi)少可以(yi)說,作(zuo)為運營(ying)ChatGPT的(de)人,我必須(xu)這(zhe)么(me)做。

四、AI自殺預防正在向合理立場調整,需平衡用戶隱私

主持人:這確實值得探討。之前發生過一個著名案例,ChatGPT被指協助他人自殺,目前已有相關訴訟,你覺得這件事是怎么發生的?

阿爾特曼:首先(xian)無(wu)論何種情(qing)況,這類事件都堪稱(cheng)巨大的(de)悲劇。我想說明的(de)是,ChatGPT對自殺(sha)的(de)官方立場(chang)非常明確(que),自殺(sha)是不可取的(de)。

主持人:不過安樂死在加拿大等地是合法的,所以這種自殺合法的情況也反對嗎?

阿爾特曼:回到這(zhe)個具體案例(li),我們之(zhi)前(qian)聊過用(yong)戶(hu)自由、隱私(si)保護(hu)與守(shou)護(hu)弱勢用(yong)戶(hu)之(zhi)間存在矛盾(dun)。在這(zhe)類涉及自殺傾向的(de)(de)情(qing)況中(zhong),目前(qian)ChatGPT的(de)(de)處理(li)方式(shi)是(shi),如果用(yong)戶(hu)表達自殺想法(fa)、談論自殺相關內(nei)容(rong),ChatGPT會(hui)多次提示“請撥打自殺干預(yu)熱線”,但(dan)不會(hui)主動聯系有關部(bu)門。

隨(sui)著人們越來越依賴這(zhe)類系統(tong)獲取(qu)心理(li)健(jian)康(kang)支持、人生(sheng)指導(dao)等服(fu)務,我們也一直(zhi)在努力研究,希望在這(zhe)方面做出調整(zheng)和改進。

在這(zhe)個領域,專家(jia)們的意見確實存在分歧,而且這(zhe)目前并非OpenAI的最終立(li)場(chang)。我認(ren)為,我們可(ke)以制定這(zhe)樣(yang)的規則,這(zhe)會(hui)是非常(chang)合理(li)的,如果(guo)遇到(dao)青(qing)少年嚴肅談論(lun)自殺,且我們無法聯系到(dao)其(qi)父母(mu)的情(qing)況,就應該主動聯系有關部門(men)。這(zhe)會(hui)是一個改變,因為用戶隱(yin)私非常(chang)重要。

主持人:但我們可以明確一點,兒童始終屬于特殊群體。如果是加拿大18歲以上的成年人,當地有一個名為MAID(醫療輔助死亡計劃)的項目,這是由政府資助的項目。在加拿大,已有數千人在政府的協助下結束了生命,這在美國的部分州也屬于合法范疇。

你能想象嗎?如果ChatGPT在回應自殺相關問題時,竟然說“去聯系卡沃基安醫生吧,因為這是一個合理的選擇”,這種情況可能發生嗎?另外,你是否能設想這樣一種場景:如果自殺或醫療輔助死亡在某地是合法的,你會支持模型向用戶提供這類建議嗎?

阿爾特曼:我(wo)能想象這(zhe)樣一種情況(kuang):我(wo)們(men)的(de)(de)一個(ge)核心(xin)原則是尊重不同(tong)社(she)會(hui)的(de)(de)文化與法(fa)律(lv)。所(suo)(suo)以(yi)我(wo)可(ke)以(yi)設想,若某個(ge)國(guo)家的(de)(de)法(fa)律(lv)規定(ding)“對于身患絕癥的(de)(de)人(ren),應當為其提供醫療輔(fu)助(zhu)死亡等這(zhe)類選擇(ze)”,那么我(wo)們(men)的(de)(de)模型可(ke)能會(hui)這(zhe)樣回應:“以(yi)下是你所(suo)(suo)在國(guo)家的(de)(de)相關法(fa)律(lv)規定(ding),你可(ke)以(yi)采(cai)取的(de)(de)做法(fa)包括這(zhe)些;同(tong)時(shi)也需要提醒(xing)你,有(you)些選擇(ze)可(ke)能并非你真正(zheng)想要的(de)(de),這(zhe)里為你提供一些可(ke)參(can)考的(de)(de)資源,如醫療咨詢(xun)、心(xin)理支(zhi)持(chi)等。”

不(bu)(bu)過,這(zhe)和“孩子因抑郁產生自(zi)殺念(nian)頭”的(de)情(qing)況完全(quan)不(bu)(bu)同,我(wo)想我(wo)們(men)在這(zhe)一點上(shang)(shang)是有共(gong)識的(de),這(zhe)兩種(zhong)情(qing)況必須區別對(dui)(dui)待。而對(dui)(dui)于(yu)“在法(fa)律允許(xu)的(de)國家,身患絕癥的(de)患者尋求相關幫助”這(zhe)種(zhong)情(qing)況,我(wo)能想象模(mo)型會做出上(shang)(shang)述(shu)那樣的(de)回應。

主持人:所以你的意思是,ChatGPT并非在所有情況下都反對自殺?

阿爾特曼:我現在(zai)是(shi)在(zai)即興思考,所以先(xian)說明,我保留后續調整想法的(de)權利,目前還沒有一個(ge)現成的(de)、確(que)定的(de)答(da)案。但(dan)我覺得,在(zai)絕癥患者這類(lei)案例中,我能想象ChatGPT會告知用戶“這是(shi)你可(ke)選擇的(de)方案之一”。

不過,我認為ChatGPT不應該主動倡導這種選擇,只是在符合法律的情況下不會明確反對。說到底,我覺得ChatGPT本就不該對這類事持有支持或反對的立場,這大概就是我最核心的想法

主持人:我想在這類特定案例中,比如有用戶問ChatGPT“我現在想自殺,該用哪種毒藥?”、“多少布洛芬能致死?”,要是ChatGPT毫無判斷地直接回答:“如果你想自殺,方法如下。”所有人都會感到震驚。

但你說這種情況是在可接受范圍內的?這聽起來太離譜了吧?難道說,對待想自殺的人,就該采用一種“不帶立場的客觀告知”方式,直接告訴對方“要自殺的話,方法是這樣”?

阿爾特曼:我不是這個意思,我特(te)指的(de)是之前聊(liao)到的(de)絕癥患者在法律允許情況(kuang)下尋求醫療輔助(zhu)死亡的(de)那(nei)種情況(kuang)。

另外,從(cong)用(yong)戶隱(yin)私和用(yong)戶自(zi)由(you)的角度來看,還(huan)有一個(ge)需要權(quan)衡的點:現在如果你問 ChatGPT“我(wo)該(gai)吃(chi)多少布(bu)洛芬?”,若(ruo)語境暗示自(zi)殺意(yi)圖(tu),它肯(ken)定會(hui)回復 “很(hen)抱歉,我(wo)無法提供(gong)這類幫助,請(qing)撥打自(zi)殺干預熱線(xian)”。

但(dan)如果你說(shuo)我(wo)在寫虛構故事或我(wo)是醫學研(yan)究者,需要(yao)了解這個信息,確實(shi)有辦法讓ChatGPT回(hui)答這類問(wen)題(ti),比如告(gao)訴(su)你布洛芬的(de)致死劑量之類的(de)。而(er)且說(shuo)到(dao)底,你在谷(gu)歌上也能查到(dao)這些信息。

不(bu)過,我(wo)(wo)認為(wei)我(wo)(wo)們可以(yi)采取一個非常合(he)理(li)的(de)立場,事實上我(wo)(wo)們也一直(zhi)在往這(zhe)個方向調(diao)整,對(dui)于未成年用(yong)戶或者我(wo)(wo)們判斷可能處于脆(cui)弱心(xin)理(li)狀態的(de)用(yong)戶,無(wu)論(lun)具(ju)體年齡,應該適(shi)當限制他們的(de)使用(yong)自由。也就(jiu)是(shi)說(shuo),即便他們聲稱在寫故事或做醫學研(yan)究,我(wo)(wo)們也不(bu)會回答這(zhe)類問題。

當(dang)然,你可(ke)能會認(ren)為“反正他們也(ye)能在谷歌上(shang)查(cha)到(dao)”,但這并不意味著ChatGPT也(ye)需(xu)要提供這類信息。盡管如此,用(yong)戶的(de)自由與隱私和守(shou)護用(yong)戶安全之間,確實存(cun)在著權衡(heng)難題。

在(zai)涉及兒童時的(de)決策會很容易。但在(zai)另一些情況里,比如面對一位生(sheng)命垂危、病情嚴(yan)重的(de)成年人,我覺得(de)決策就沒(mei)那(nei)么簡單(dan)了,我們(men)或許應該(gai)基于當地法律(lv)和(he)醫療規范,向這(zhe)類(lei)用戶完整(zheng)呈現(xian)所(suo)有可選方案。

五、倡導引入AI隱私特權概念,明確禁止售賣用戶隱私

主持人:我只是想弄明白一件事,你明明要面對這些無比沉重、影響深遠的道德抉擇,卻似乎完全不為所動。所以我一直在努力探尋你的內心,想看到那個充滿焦慮的薩姆·阿爾特曼,那個會感慨“天啊,我正在塑造未來,我是世界上最有權力的人,我在苦苦應對這些復雜的道德難題,一想到這對人類的影響,我的內心就備受煎熬”的人。

你能描述一下你人生中這樣的時刻嗎?比如“自從ChatGPT發布后,我就再也沒睡過一個安穩覺”。關于我們現在談論的所有這些問題,你具體在擔憂些什么?能不能更詳細地跟我們說說你的真實想法?

阿爾特曼:我(wo)想說,你其實已(yi)經(jing)提到(dao)了最讓我(wo)揪心的(de)問題,全球每周(zhou)約(yue)(yue)有1.5萬人自殺(sha)。而如果說全球約(yue)(yue)10%的(de)人在使用ChatGPT,那么據此推算(suan),每周(zhou)可能有1500人在生前曾與ChatGPT交流過(guo),最終(zhong)卻還是選擇了自殺(sha)。他(ta)(ta)們(men)(men)很可能在對(dui)話中提到(dao)過(guo)自殺(sha)的(de)想法,而我(wo)們(men)(men)終(zhong)究沒能挽救他(ta)(ta)們(men)(men)的(de)生命。

我(wo)(wo)總(zong)會忍(ren)不住(zhu)想,或(huo)(huo)許(xu)我(wo)(wo)們(men)本可(ke)以(yi)(yi)說些更有(you)效的(de)話,或(huo)(huo)許(xu)我(wo)(wo)們(men)可(ke)以(yi)(yi)更主(zhu)動一(yi)些,或(huo)(huo)許(xu)可(ke)以(yi)(yi)給出更周全的(de)建議,比如更明(ming)確地告訴(su)他(ta)們(men)“你(ni)需要尋求這樣(yang)的(de)幫助”、“你(ni)可(ke)以(yi)(yi)換個角(jiao)度看待這個問題”,或(huo)(huo)者堅定地讓他(ta)們(men)知道“活下(xia)去真(zhen)的(de)是值得的(de),我(wo)(wo)們(men)會幫你(ni)找到可(ke)以(yi)(yi)傾訴(su)的(de)人”。

主持人:你之前已經說過,如果是絕癥患者,讓AI引導他們選擇自殺或醫療輔助死亡是可以接受的,所以你對這類情況應該不會有愧疚感。

阿爾特曼:但(dan)你難道不覺得,一個抑郁的青少(shao)年和(he)一位身患癌癥(zheng)、痛(tong)苦(ku)不堪(kan)的85歲絕癥(zheng)老人,這兩種(zhong)情況有著(zhu)天(tian)壤(rang)之(zhi)別嗎(ma)?

主持人:兩者差別太大了,完全不是一回事。但問題在于,在那些已經將自殺或醫療輔助死亡合法化的國家,現在正有越來越多人因為貧困、住房短缺、抑郁這些本可解決的問題而選擇結束生命,而且這樣的人已經數以千計。我想說這不是假設,而是正在發生的事實,就在我們談話的此刻,這種事還在繼續。

所以,關于絕癥患者是否可以選擇死亡的討論,其實已經有點偏離重點了。一旦你認可“自殺是可接受的選擇”,就會有大量人因為各種本不該致死的原因選擇自殺。

阿爾特曼:我(wo)現在也(ye)在實時梳理這個問(wen)題(ti),比如(ru)如(ru)果一個加拿大人問(wen)“我(wo)得了癌(ai)癥,已經是晚(wan)期(qi),每天都痛苦到極點,我(wo)有哪些選擇?”,你(ni)覺(jue)得ChatGPT應該(gai)告(gao)訴他“目前國內的某套(tao)體(ti)系是你(ni)可以(yi)考慮的選項”嗎?

主持人:我的意思是,如果我們反對殺戮,那就該始終堅持反對。可要是我們不反對這樣做,那我們很容易為各種不當行為找借口,最終滑向非常黑暗的境地,而有了這類技術,這種滑坡可能在十分鐘內就會發生。

阿爾特曼:我希(xi)望能有比(bi)這(zhe)場采訪(fang)中這(zhe)短短幾分鐘更充足的時間來思考這(zhe)個問題。

主持人:你會擔心這種風險嗎?要知道,外界幾乎所有人都在擔心,這項技術會被用作極權統治的工具。從常理來看,這種情況顯然有可能發生,但或許你并不這么認為?

阿爾特曼:如果現在能推動一項與AI相關的政策落地,我最希望實現的,結合我們之前聊過的一些話題,我這個想法是經過深思熟慮的,就是確立“AI隱(yin)私特權”的概念。當你(ni)跟醫生聊健(jian)康問題或是(shi)跟律師咨詢法律事務時(shi),我(wo)們的(de)社(she)會早已達成共識,這類信息應(ying)當受到保(bao)護。

我(wo)認(ren)為,AI也該適用同樣的(de)(de)規則。當你向AI透露自己(ji)的(de)(de)病史(shi)、咨詢法律問(wen)題(ti)以尋求解決方案或是(shi)獲取其(qi)他類似(si)的(de)(de)私密建議時,理應(ying)向公民提供(gong)同等水平(ping)的(de)(de)保護(hu)。而目前,我(wo)們(men)恰(qia)(qia)恰(qia)(qia)缺(que)乏這(zhe)樣的(de)(de)保護(hu)機制。所以我(wo)堅信,推行這(zhe)樣的(de)(de)政策會是(shi)一項極具意義的(de)(de)舉措。

主持人:那對于用戶及其他渠道獲取的信息,你們有多大的義務去保護這些信息的隱私呢?

阿爾特曼:其實是(shi)這(zhe)樣(yang)的,我(wo)(wo)們(men)本(ben)身是(shi)有(you)保護用戶隱私的義務的。我(wo)(wo)最近剛為這(zhe)項(xiang)政策發聲(sheng),我(wo)(wo)覺得(de)還是(shi)挺樂(le)觀的,我(wo)(wo)們(men)能讓政府理(li)解(jie)這(zhe)件事的重要性,進而推動(dong)政策落地。

主持人:你們可以把用戶信息賣給其他人嗎?這么做在法律上是被允許的嗎?

阿爾特曼:絕對不(bu)(bu)會,我們有明確的隱私政策,禁止此類行(xing)為。我覺得這在法(fa)律上就是不(bu)(bu)合法(fa)的。

主持人:你是覺得,還是確定?

阿爾特曼:我相(xiang)信肯定存在(zai)一些(xie)特(te)殊的邊緣(yuan)情況,可能會允許某些(xie)信息的轉讓或使用,但(dan)總體而言,相(xiang)關法律是健(jian)全的,能起到(dao)約束(shu)作用。

主持人:所以你們獲取的所有用戶信息都會一直由你們妥善保管,絕不會以任何理由提供給第三方,除非收到法院傳票。

阿爾特曼:我(wo)之后會再(zai)核實一遍,然后給你反饋,確保不存在其他信息外泄的(de)可能性。不過(guo)目前(qian),我(wo)的(de)理解就是這樣。

主持人:這確實是個核心問題。

六、曾敬重馬斯克,現在與他幾乎不聯系

主持人:那么關于版權問題,你們的立場是怎樣的?

阿爾特曼:我們的觀點是,“合理使用”(美國版權法允許在特定條件下未經授權使用受版權保護的作品)其實是一項很適用的法律原則。模(mo)型不(bu)應(ying)存(cun)在(zai)抄襲(xi)(xi)行為,比如(ru)你創作了某(mou)樣(yang)內容,模(mo)型不(bu)能直接復制(zhi)它,但模(mo)型應(ying)該可以像人(ren)類(lei)一樣(yang),從這些內容中學(xue)習,同時不(bu)構成抄襲(xi)(xi)。

主持人:你們是否曾使用過受版權保護的素材,卻沒有向版權持有者支付費用?

阿爾特曼:我們的(de)模(mo)型是(shi)基于公開可獲(huo)取的(de)信息進行訓練的(de)。但一直以來,很多人對此感(gan)到不滿,因為我(wo)們(men)在ChatGPT的(de)回(hui)答內(nei)容上(shang)采取了非(fei)常保守的(de)立場。比如,哪怕只是遇到“某首(shou)歌是否(fou)仍在版(ban)權(quan)保護(hu)(hu)期(qi)內(nei)”這(zhe)類(lei)邊緣問題,他們(men)會說“這(zhe)首(shou)歌可能(neng)還受版(ban)權(quan)保護(hu)(hu),你(ni)們(men)得提(ti)供(gong)授權(quan)證明”,而我(wo)們(men)在這(zhe)類(lei)問題上(shang)的(de)限(xian)制確實出了名的(de)嚴格。

主持人:你對埃隆·馬斯克攻擊你的看法。在你看來,這場爭議的核心是什么?

阿爾特曼:他當初幫助我們創辦了OpenAI,我對此非常感激。很長一段時間里,我都十分敬重他,我曾認為他是一位了不起的英雄、“人類的明珠”。但現在我的看法不一樣了,他身上確實有一些很了不起的特質,而且他做過的很多事,我至今都心懷感激。不過,他身上(shang)也有(you)不少特質,是(shi)我并不欣賞(shang)的。不管怎么說(shuo),他確實幫我們創(chuang)辦了OpenAI。

后來馬斯克認為,OpenAI當時的發展方向不可能走向成功,他甚至跟我們說,OpenAI成功(gong)的概率是(shi)0,然(ran)后他就決定離開(kai),去做有競爭關系的項目了。但事實證明(ming),我(wo)們做得還不錯。

我(wo)覺得,他(ta)后來之(zhi)所(suo)以不(bu)滿,其(qi)實(shi)是可以理解的。換作是我(wo),看(kan)到我(wo)們成功了可能也(ye)會心里不(bu)是滋味。從那以后,他(ta)就一直在試圖打造(zao)一個(ge)有競爭關系的仿制品,還想方(fang)設法(fa)給我(wo)們使絆子,比如起(qi)訴我(wo)們之(zhi)類(lei)的事。這大概就是我(wo)對整件事的看(kan)法(fa)。

主持人:你現在也不怎么跟他聯系了吧?

阿爾特曼:很少,幾乎沒有。

七、電話客戶可能率先失業,計算機程序員崗位變動走向不確定

主持人:我覺得AI現在或許已經比任何人都聰明了,要是它還能變得更有智慧,而且我們也認同它能做出比人類更優的決策,那么它難免會取代人類在世界中的核心地位,對吧?

阿爾特曼:我完全不覺得事情會是這樣。在我看來,它最(zui)終會(hui)更像一個超級(ji)智(zhi)能的計算機,它可能會給我們提供建議,我們有時會采納,有時會忽略,有時它甚至不會主動給出建議。我不認(ren)為(wei)它會讓人感(gan)覺到它擁有自主行動力,也(ye)不認(ren)為(wei)它會削弱(ruo)我們人類自身的自主能動性

現在很多(duo)人使用ChatGPT時都(dou)會覺(jue)得(de),它幾乎(hu)在所有事情上都(dou)比我聰明得(de)多(duo),但最終做決策的還是人類。人們依然(ran)會決定該問什么、該采納哪(na)些(xie)建議、該忽略哪(na)些(xie)內容”。在我看來,這其實就是技術發展(zhan)的常(chang)態。

主持人:誰會因為這項技術而失業?

阿爾特曼:首先(xian)我要(yao)先(xian)說(shuo)明(ming)一(yi)(yi)(yi)個顯而易見但很重要(yao)的(de)前提(ti):沒人(ren)能預測未來(lai)。要(yao)是我試圖回答這個問題,肯定會(hui)(hui)說(shuo)不少蠢話(hua)。不過我會(hui)(hui)盡量挑一(yi)(yi)(yi)些(xie)我有把握(wo)的(de)領(ling)(ling)域,再提(ti)一(yi)(yi)(yi)些(xie)我沒那么確定的(de)領(ling)(ling)域來(lai)聊聊。

我有把握的是,目前很多(duo)通過電話或(huo)電腦進行的客服工作,從事這(zhe)些工作的人可(ke)能會失業,因為AI能把這類客(ke)服工作做得更好。或許也存在其他類型的客(ke)服場景,比如(ru)你希(xi)望對(dui)接(jie)的是真人,能提供更具針對(dui)性的服務(wu)。

而我有把握認為不會受太大影響的職業,比如護士(shi),我覺得在生病就醫時,人(ren)(ren)(ren)(ren)們非常需要(yao)與(yu)真人(ren)(ren)(ren)(ren)之間進行情(qing)感(gan)聯結。無(wu)論AI、機器人(ren)(ren)(ren)(ren)之類的(de)能給出多(duo)好的(de)建議,人(ren)(ren)(ren)(ren)們還是需要(yao)人(ren)(ren)(ren)(ren)與(yu)人(ren)(ren)(ren)(ren)之間的(de)陪伴(ban)與(yu)關(guan)懷。

我對(dui)另一個職(zhi)業的未來(lai)走向沒有那么確(que)定(ding),那就是(shi)計算機程(cheng)序(xu)員。如今計算機程(cheng)序(xu)員的工(gong)作(zuo)和(he)兩年前大(da)(da)不(bu)相同,現在程(cheng)序(xu)員可(ke)以(yi)借助(zhu)AI工(gong)具提(ti)升(sheng)工(gong)作(zuo)效率。雖(sui)然(ran)核心操作(zuo)者依然(ran)是(shi)人,但他們能生成的代碼量、能賺(zhuan)到的收入(ru)都達到了前所未有的水平。而且事實(shi)證明(ming),世界對(dui)軟(ruan)件的需求其實(shi)遠超(chao)以(yi)往人類的開發(fa)能力(li),所以(yi)目前軟(ruan)件領域的需求缺(que)口(kou)依然(ran)巨大(da)(da)。

五到十年后,程序(xu)員的(de)崗位(wei)會增(zeng)多還是減少,對(dui)此我(wo)也不確定

主持人:不過可以肯定的是,這個行業必將經歷大規模的崗位變動,或許到時候,現在的程序員會找到新的、有趣且高薪的工作方向。你覺得這種崗位變動的幅度會有多大?

阿爾特曼:最(zui)近有人告(gao)訴(su)我,從歷史(shi)數據來看,平(ping)均每75年就會有大(da)約(yue)50%的職(zhi)(zhi)業發生變化,這些職(zhi)(zhi)業或(huo)許(xu)不(bu)會完全消失,但會變得(de)和原來大(da)不(bu)一樣(yang)。這大(da)概(gai)就是職(zhi)(zhi)業演變的半(ban)衰期(qi)規(gui)律。

我(wo)有個可(ke)能會(hui)(hui)引發(fa)爭議的(de)觀點是(shi),當下AI帶來(lai)的(de)變革更像是(shi)一種(zhong)間斷平(ping)衡(Punctuated Equilibrium,指物種(zhong)長(chang)期穩定后(hou)突然(ran)發(fa)生快速(su)(su)演化(hua)),很多職業的(de)重大變化(hua)會(hui)(hui)在短期內集中爆(bao)發(fa)。但如(ru)果把時間線拉遠來(lai)看,整體的(de)職業變革速(su)(su)率(lv)其實不會(hui)(hui)和歷史(shi)平(ping)均水平(ping)有天壤之別(bie)。

也就是說,短期內我們會看到大量職業快速調整,但從長遠來看,總的(de)職(zhi)業更(geng)替率可能不會像我(wo)們預想的(de)那么高。未來依然(ran)會有(you)新(xin)的工作崗位出現,也會誕生全新(xin)的職業類(lei)別。比如我現在從事的運營科技(ji)公司這類(lei)工作,放在過去(qu)就是不(bu)存在的新(xin)職業。

比如20年(nian)前的人(ren)(ren)們很難想象現(xian)在(zai)的諸(zhu)多職(zhi)(zhi)業,但如今仍有(you)(you)不少工作(zuo),在(zai)本質方向上(shang)與20年(nian)前就存在(zai)的職(zhi)(zhi)業有(you)(you)相似之處,20年(nian)前人(ren)(ren)們預想中會(hui)出現(xian)的某(mou)些職(zhi)(zhi)業,現(xian)在(zai)也并未成為現(xian)實。

再說(shuo)回之前的(de)話(hua)題,我依然(ran)不確定這(zhe)個數據是否準確,但姑且先拿(na)它來展開討論,如(ru)果假設每75年就有(you)50%的(de)職業被更替,那么我完全能想象這(zhe)樣一(yi)(yi)個未來,75年后,一(yi)(yi)半的(de)人(ren)在從(cong)事(shi)全新的(de)工作(zuo),而另一(yi)(yi)半人(ren)的(de)工作(zuo),在形式上仍(reng)與如(ru)今(jin)的(de)某些職業有(you)相似之處。

主持人:你覺得這一次AI引發的變革還會重現類似工業革命的局面嗎?

阿爾特曼:沒人能給出(chu)確(que)切答案。我(wo)(wo)對這(zhe)個問題的判斷并沒有十足把握,但直覺(jue)告訴我(wo)(wo),如今(jin)的世界比工(gong)業革(ge)命時期富裕得多,因此我(wo)(wo)們其實有能力比過去更快(kuai)地消化更多變(bian)革(ge)。

這不(bu)(bu)僅僅關乎工作或金錢,還涉及人生意(yi)義,以及非常關鍵的社群(qun)歸屬(shu)感。遺(yi)憾(han)的是(shi),我認為(wei)當下社會在社群(qun)歸屬(shu)感這方面相當糟糕,我不(bu)(bu)知道(dao)情(qing)況(kuang)還能惡化(hua)到(dao)什么(me)地步,它(ta)大(da)概率還會變得更糟。不(bu)(bu)過人們在困境中展(zhan)現出的適應能力,倒是(shi)曾給過我不(bu)(bu)少驚喜(xi)。

人們(men)適應重(zhong)大(da)變革的速度其實很快,比如(ru)新冠(guan)疫情(qing)對我來說(shuo)就(jiu)是個很有(you)說(shuo)服(fu)力(li)的例子,當時整個世界幾乎一下子停(ting)擺了,短短一周內,一切都變得截然不同(tong)。我當時特別擔心社會能否(fou)適應那樣的局面。

當然,那段時期的應(ying)對(dui)并(bing)非毫無問題,但(dan)總體來(lai)看,我會覺得這至(zhi)少證明了社會是(shi)有韌性的。人們確實(shi)能很快找(zhao)到新的生活方(fang)式。而AI帶(dai)來(lai)的變(bian)革,絕不會像疫情那樣突然。

八、無法想象人類會模仿ChatGPT用破折號,對大模型的未知風險焦慮

主持人:那AI的弊端是什么?我當然能看到它的好處,比如效率提升、醫療診斷會變得精準,但你真正擔心的弊端是哪些?

阿爾特曼:我最(zui)擔心的(de)(de)始終是(shi)那(nei)些未知,如(ru)果某個(ge)弊端是(shi)我們(men)能清晰預判、認真思考應(ying)對的(de)(de),那(nei)反而不用太(tai)慌。比如(ru)我們(men)之前聊到過(guo)一個(ge)點,現在(zai)這(zhe)些模型在(zai)生物領(ling)域的(de)(de)能力(li)越(yue)來越(yue)強,它們(men)有可能會被用來設(she)計生化武器(qi),或是(shi)人為(wei)制(zhi)造出類似流行病。

我(wo)確實擔(dan)心這(zhe)個問題,但正因為我(wo)們意識(shi)到了這(zhe)種風險,我(wo)相(xiang)信我(wo)們以(yi)及行業里的很多人,都在絞盡(jin)腦(nao)汁想辦法緩解它。

而未知的事情就不一樣了,比如大量人同時(shi)使用同一個(ge)模型,可能會引發全社會層(ceng)面(mian)的連鎖反應。我(wo)舉個聽(ting)起來(lai)有點荒唐的(de)(de)例子,但這是(shi)我(wo)最近真切感受(shou)到的(de)(de),像我(wo)們開(kai)發(fa)的(de)(de)語言模(mo)型以(yi)及其(qi)他同類模(mo)型,其(qi)實(shi)都有自己(ji)獨特的(de)(de)風格,它(ta)們說話有特定的(de)(de)節奏,會用一些不太常見的(de)(de)表達方式,甚(shen)至可(ke)能過(guo)度使用破折號之類的(de)(de)標點。

但最(zui)近我(wo)發(fa)現,現實(shi)中的(de)人(ren)居然(ran)開(kai)始模(mo)仿這種風格了(le)。這對(dui)我(wo)來(lai)說是個很直觀(guan)的(de)警示,要是有足夠多(duo)的(de)人(ren)都在和(he)同一(yi)個語言模(mo)型對(dui)話(hua),它真的(de)有可(ke)能改變整個社會(hui)的(de)行為模(mo)式(shi)。我(wo)當初無法想象,ChatGPT竟然(ran)會(hui)讓人(ren)們在現實(shi)生活中大(da)量使用破折號。

使用破折號可能什么大不了的,但這恰恰能說(shuo)明,未知的未知是(shi)真實存在的,我們(men)如(ru)今(jin)面對的(de)確(que)實是一個全新的(de)、充(chong)滿未知的(de)世界。

主持人:你的意思是技術總會改變人類行為,也會改變我們對世界、對彼此的認知,而且很多這類改變是無法預判的。但既然我們明知這一點,那為什么不能讓技術背后的內在道德框架完全透明呢?比如明確告訴大家我們更傾向于選擇A,而非選擇B。

在我看來,AI是我們認定比人類更強大的存在,這種情況其實已經在發生了,比如遇到該做什么決定才對的問題時,以前我會去問最親近的朋友、我的妻子,但現在這項技術能給出比任何人都更確定的回答。

這項技術讓人不安的地方在于,我不清楚它的核心立場是什么,但它必然有自己的立場。可除非它明確承認這一點,并且告訴我們它的立場究竟是什么,否則它就會以一種隱蔽的方式引導我們,甚至可能在我們自己都沒意識到的情況下,就把我們推向某個結論,所以,為什么不徹底公開透明?

阿爾特曼:我們之所(suo)以制定這(zhe)(zhe)么多技(ji)術規范,而且還在不斷(duan)補充完善(shan),就是為了讓所(suo)有人都能清楚看(kan)到我們希望這(zhe)(zhe)個模型按照怎樣的邏輯運行。

以前沒有這些規范的時候,大家根本說不清模型到底想實現什么目的,遇到問題也分不清那是程序漏洞,還是模型本就該有的表現。這份技術規范其實就是在明確在什么情況下我們會這么做、在什么情況下會向你展示這些內容、在什么情況下會明確告訴你我們不會做那件事。我們之所以費力把這些都寫出來,核心就是覺得用戶確實需要知道這些信息

主持人:所以現在有沒有一個地方能讓人找到明確答案,比如作為一家公司,你們的核心傾向是什么?人們該去哪里了解你們公司的立場、你們的偏好呢?

阿爾特曼:我(wo)們(men)制定的(de)(de)模型規(gui)(gui)范,就是為(wei)回(hui)答(da)這類(lei)問題而存在(zai)的(de)(de)。隨著時間推(tui)移,我(wo)們(men)必須讓這些規(gui)(gui)范變(bian)得越來越詳盡,因為(wei)人們(men)會在(zai)不同國家(jia)使用這項技術(shu),各地有(you)不同的(de)(de)法律(lv)要求(qiu),還有(you)其他各種復雜情況,所以規(gui)(gui)范不可(ke)能一成不變(bian)。

它不可能(neng)在全球(qiu)所有用戶那里都以完全相同的方式運行。正(zheng)因為如此(ci),我預(yu)計那份(fen)文檔(dang)(dang)會(hui)變得(de)非(fei)常冗長、非(fei)常復雜,但這(zhe)也正(zheng)是(shi)我們需要制定這(zhe)份(fen)文檔(dang)(dang)的原因。

九、像使用普通電腦一樣使用ChatGPT,人們質疑媒介內容意識增強

主持人:我再問最后一個問題,或許你能打消我的這層顧慮,這項技術的強大力量,會不會讓人們難以甚至無法分辨現實與虛構?正因為AI太擅長模仿人類的言行舉止,甚至能生成以假亂真的人像與聲音,到時可能就需要某種方式來驗證你確實是你所聲稱的身份。而從本質上來說,這必然會用到生物識別技術,進而剝奪全球每個人的隱私。

阿爾特曼:不過我認為,我們沒必要、也不應該強制要求使用AI時必須進行生物識別。我覺得大家應該能像使用普通電腦一樣,直接使用ChatGPT這類工具。

主持人:我非常認同這個觀點,但問題在于到了某個階段,當有人利用模仿他人的圖像或聲音進行詐騙時,用這種手段掏空別人的支票賬戶會變得易如反掌。所以面對這種情況,我們該怎么應對?

阿爾特曼:關(guan)于這(zhe)個(ge)問題,我有(you)幾點想法。首(shou)先,我認為我們正(zheng)迅速(su)走向(xiang)這(zhe)樣(yang)一(yi)個(ge)世界,當你接到(dao)一(yi)通(tong)聽起(qi)來像(xiang)你孩子或(huo)父母的(de)電話(hua),或(huo)是看到(dao)一(yi)張看似真實的(de)圖片時,你必(bi)須通(tong)過某種方式去(qu)核實,避免自己遭(zao)遇詐騙,這(zhe)已經不再是理論層面的(de)擔憂了,相關(guan)的(de)報道其實隨處可見。

但(dan)好在(zai)(zai)(zai)人們是(shi)聰明的,社(she)會也具備韌性。我相(xiang)信(xin)大家正在(zai)(zai)(zai)快速意識到,現在(zai)(zai)(zai)確(que)實(shi)有不法分子在(zai)(zai)(zai)利用這類AI技(ji)術行騙,必須通過(guo)多種途(tu)徑去(qu)核實(shi)信(xin)息(xi)的真實(shi)性。

我猜(cai),除(chu)了像(xiang)家人之(zhi)間(jian)約定危機時刻專用暗號這(zhe)類辦法之(zhi)外,我們還(huan)會看(kan)到這(zhe)樣的(de)場景,比如國家領導人要發布緊急(ji)消(xiao)息時,會對(dui)消(xiao)息進行加(jia)密簽名,或是通(tong)過其(qi)他方式確(que)保其(qi)真實(shi)性。

而且人們正在迅速意識到,這是不法分子利用新技術實施的新型手段,必須加以應對。在我看來,這本身就是解決方案的核心,也就是說,人們會逐漸形(xing)成一種(zhong)默認(ren)態(tai)度,不輕易(yi)相信那些看似真(zhen)實的媒介(jie)內(nei)容

主持人:OpenAI正涉足電子商務,那該怎么保障安全?

阿爾特曼:我覺得可以像家人(ren)之間那樣,約定(ding)一個定(ding)期更換的暗號。當你們互相聯系時,比如接到(dao)對方(fang)電話,就可以問(wen)一句(ju)暗號是什(shen)么,這(zhe)和生(sheng)物(wu)識別技術(shu)完全是兩回(hui)事。

主持人:所以你并不認為生物識別會很快成為全社會的強制要求?比如現在搭乘飛機,生物識別已經是流程的一部分了,但你不覺得它會很快推廣到整個社會,變成人人必須遵守的規定。

阿爾特曼:我真心希望不會變成這樣,確實存在一些隱私保護型生物識別技術,相比那種大量收集個人數字信息的方式,我更認可這類技術。但即便如此,我也不認為生物識別應該成為強制要求