當(dāng)前位置:國際 > 正文
              AI倫理之惑:馬斯克等科技大佬為何攔停GPT-5
              2023-03-30 22:35:38 來源:

              在OpenAI的帶領(lǐng)下,GPT一遍又一遍地沖破人們對于AI的預(yù)期。

              而在對GPT-4進行一系列實驗后,微軟研究團隊也在報告中承認(rèn)大模型背后的AI潛力:GPT-4是使用前所未有的計算和數(shù)據(jù)規(guī)模訓(xùn)練出來的,而除了對語言的掌握,GPT-4還能解決跨越數(shù)學(xué)、編碼、視覺、醫(yī)學(xué)、法律、心理學(xué)等領(lǐng)域的新穎而困難的任務(wù),而不需要任何特殊的提示。


              【資料圖】

              “此外,在所有這些任務(wù)中,GPT-4的表現(xiàn)都驚人地接近人類水平,而且往往大大超過了ChatGPT等現(xiàn)有模型。鑒于GPT-4能力的廣度和深度,我們認(rèn)為可以合理地將其視為通用人工智能(AGI)系統(tǒng)的早期(但仍不完整)版本。”微軟在研究報告中表示。

              另一邊,在人們都在為AI的飛速進化而歡呼雀躍時,研究機構(gòu)未來生命研究所(Future Life Institute)近日卻公布了一封公開信,呼吁所有AI實驗室立即暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng)至少6個月。

              “我們不應(yīng)該冒著失去對文明控制的風(fēng)險,將決定委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當(dāng)確保強大的人工智能系統(tǒng)的效果是積極的,其風(fēng)險是可控的才能繼續(xù)開發(fā)。”該機構(gòu)在信中表示,而“未經(jīng)選舉的技術(shù)領(lǐng)袖”顯然是在內(nèi)涵占盡風(fēng)光的OpenAI。

              截至目前,馬斯克、蘋果聯(lián)合創(chuàng)始人Steve Wozniak和Stability AI創(chuàng)始人Emad Mostaque在內(nèi)的諸多科技大佬和AI專家已經(jīng)簽署公開信,他們認(rèn)為,人工智能實驗室和獨立專家應(yīng)在暫停期間,共同制定和實施一套先進的人工智能設(shè)計和開發(fā)的共享安全協(xié)議,由獨立的外部專家進行嚴(yán)格的審查和監(jiān)督。

              當(dāng)AI開始對齊甚至超越人類能力時,“對社會和人類構(gòu)成潛在風(fēng)險”就已經(jīng)不再是充滿科幻色彩的口號。

              潘多拉魔盒

              盡管GPT-3在2020年就已推出,但直到2022年,研究人員才發(fā)現(xiàn)預(yù)訓(xùn)練大模型產(chǎn)生了類似人類推理思維的能力。

              當(dāng)用戶向語言大模型提問的時候,可以在提示問題(Prompt)里寫幾個示例,讓模型照著例子做生成,像ChatGPT就可以根據(jù)用戶演示的推理過程,來推導(dǎo)其它問題的答案,這種模仿人類思維的推理能力不需要再進行復(fù)雜的訓(xùn)練,只需要在提問時給出提示,模型就能自動學(xué)習(xí),并做出相應(yīng)推理得到正確結(jié)果。

              但問題在于,通過“喂數(shù)據(jù)”得到的AI思維能力在原理上是如何實現(xiàn)的,以及繼續(xù)“大力出奇跡”之后,AI又會如何進化?

              日前,OpenAI CEO Sam Altman公開坦誠表示,GPT系列為何會出現(xiàn)推理能力,OpenAI的研究者自己也搞不明白,他們只知道,在不斷測試中,人們忽然發(fā)現(xiàn),從ChatGPT開始,GPT系列開始出現(xiàn)了推理能力。

              2022年6月15日,谷歌研究院聯(lián)合DeepMind和斯坦福大學(xué)發(fā)表了一篇論文:《大語言模型的突現(xiàn)能力》(Emergent Abilities of Large Language Models)。研究人員驚訝發(fā)現(xiàn),AI的思維能力,并不是隨著模型參數(shù)大小的線性變化逐漸出現(xiàn)的,而是當(dāng)參數(shù)規(guī)模超過某一閾值后,模型的思維能力突然涌現(xiàn)出來,即所謂大模型的“突現(xiàn)能力”(Emergent Abilities)。

              論文指出,大模型在參數(shù)規(guī)模達到某個臨界值之前,其性能是近乎隨機的,之后性能會忽然大幅增加,仿佛突然開竅一般,參數(shù)規(guī)模的量變導(dǎo)致了質(zhì)變,而這種質(zhì)變會何時發(fā)生,卻充滿不確定性,參數(shù)量級夠大只是一個必要條件,一些大模型在大量“投喂”后卻并沒有表現(xiàn)出思維能力。

              “我們一般認(rèn)為這個參數(shù)規(guī)模是在千億左右,但問題在于,隨著投喂量進一步擴大,模型會再突現(xiàn)出什么能力是無法預(yù)測的。比如GPT-4已經(jīng)能夠依據(jù)命令設(shè)定自己的身份與人交流,如果再投喂下去,GPT-6或者GPT-8會不會進化到可以自行設(shè)定身份,具備自我意識甚至主動隱藏自己的某種‘價值觀’?”一位NLP領(lǐng)域?qū)I(yè)人士對21世紀(jì)經(jīng)濟報道記者表示。

              謹(jǐn)防AI危險競賽

              技術(shù)的不確定性之外,另一個擔(dān)憂在于AI浪潮裹挾下,AI又會被帶向何方?

              在AI所帶來的生產(chǎn)力革命以及顛覆傳統(tǒng)人機交互模式的巨大想象力下,微軟“梭哈”O(jiān)penAI;落后一步的谷歌越挫越勇、緊追不舍;賭對了的英偉達高喊“AI的iPhone時刻”;國內(nèi)大小科技廠商更是直接將大模型奉為“政治正確”……

              在這樣新一輪瘋狂的AI競賽中,科技公司爭搶新時代的船票,無疑都希望用更短的時間開發(fā)和部署更強大的AI,而這個過程中,是否會裹挾更多瘋狂,加劇未來AI技術(shù)進化的不確定性。一個看上去不那么妙的信號是,大型科技公司在不斷提高對AI投入的同時,卻又一直在裁減致力于評估部署AI相關(guān)倫理問題的團隊員工。

              根據(jù)公開信息統(tǒng)計,微軟、Meta、谷歌、亞馬遜等公司都裁減了其“負(fù)責(zé)任的人工智能團隊”(Responsible AI)的成員,這些團隊負(fù)責(zé)為使用AI的消費產(chǎn)品提供安全建議。

              例如,今年1月,在微軟的萬人級別大裁員行動中,微軟解散了其所有的倫理道德與社會團隊,在加速將OpenAI的技術(shù)整合到自家商業(yè)帝國每個角落的同時,卻不再設(shè)立專門的團隊來確保AI原則和產(chǎn)品設(shè)計緊密相關(guān)。

              此前,谷歌內(nèi)部也出現(xiàn)過關(guān)于AI技術(shù)的發(fā)展、影響和安全性之間的緊張關(guān)系,兩位AI倫理研究負(fù)責(zé)人Timnit Gebru和Margaret Mitchell在與該公司爆發(fā)了一場激烈爭吵后,分別于2020年和2021年離職。

              在公認(rèn)機會與風(fēng)險并存的情況下,科技巨頭們努力發(fā)出信號,證明自己正在認(rèn)真對待AI中的潛在風(fēng)險。比如在社會道德倫理團隊被解散之后,微軟表示仍有三個不同的團隊在這個問題上開展工作。

              盡管被裁減的道德團隊員工也僅有幾十人,只是整個科技行業(yè)低迷而被裁掉的數(shù)萬名員工中的冰山一角,在AI高速發(fā)展以及大型科技公司主導(dǎo)權(quán)越來越重的當(dāng)下,對有責(zé)任出于安全考慮給產(chǎn)品開發(fā)速度踩剎車的道德團隊進行任何削減,似乎都值得注意。

              公開信在最后提到,如今,我們的社會已經(jīng)暫停其他可能造成災(zāi)難性影響的技術(shù),對于人工智能也應(yīng)該如此,“讓我們享受一個漫長的‘AI之夏’,而不是毫無準(zhǔn)備地進入秋天”。

              (文章來源:21世紀(jì)經(jīng)濟報道)

              關(guān)鍵詞:
              責(zé)任編輯:zN_3053