當前位置:國際 > 正文
              馬斯克、沃茲尼亞克......千名科技大佬集體發聲,要“封殺”AI?_速遞
              2023-03-29 17:33:32 來源:

              3月29日,國外知名非營利機構未來生命研究所(Future of Life Institute)發布了一封公開信,呼吁將類似GPT-4這樣的超強人工智能訓練計劃暫停六個月。

              目前,包括馬斯克、蘋果聯合創始人斯蒂夫·沃茲尼亞克在內的一千多名人工智能專家和行業高管簽署了一份公開信,理由是他們認為目前人工智能系統訓練對社會和人性存在潛在風險


              (資料圖)

              公開信表示,大量研究表明,得到頂級AI實驗室的認可、具有人類競爭智能的AI系統,可能對社會和人類構成深遠的風險。正如業界廣泛認可的Asilomar AI原則中所述,高級AI可能意味著地球生命史上的深刻變化,我們應該投入相應的考量和資源,對之進行規劃和管理。

              公開信認為,不幸的是,到目前為止,還沒有任何人采取行動。最近這幾個月,全球的AI實驗室已經完全失控了。它們瘋狂地開展AI競賽,來開發和部署更強大的AI,而沒有任何人可以理解、預測、控制這些AI,連它們的創造者都不能。

              公開信對此前OpenAI關于人工智能的一份聲明表示了贊同:某個階段,在開始訓練未來的系統之前,進行獨立的審查可能非常重要。而對于創建新模型所用算力的增長速度,也應該有所限制。

              對此,這一千多名專家學者呼吁,暫停高級人工智能開發,直至此類設計的共享安全協議經由獨立專家開發、實施和審核。

              具體來看,學者們認為這一AI管理系統應該包含以下幾個功能:

              1、專門負責監管AI的機構。

              2、出處和水印系統,從而幫助區分真實與生成的內容,并且能夠跟蹤模型的泄漏。

              3、強大的審計和認證系統。

              4、在AI造成傷害后,明確誰該承擔責任。

              5、為AI安全技術研究提供強大的公共資金。

              公開資料顯示,未來生命研究所建立于2014年,是一個非營利組織,由一系列個人和組織資助,以“引導變革性技術造福生活,遠離極端的大規模風險”為使命。

              這封重磅的專家聯名信一經發布,便引發全球媒體輿論的高度關注。對于是否應該放緩AI研發的腳步,人們也眾說紛紜。不過超強AI是否真的已經步入“臨界點”確實已成為當下業內關注的焦點。

              日前,OpenAI創始人Sam Altman在接受采訪時表示:GPT系列為何會出現推理能力,OpenAI的研究者自己搞不明白。他們只知道,在不斷測試中,人們忽然發現:從ChatGPT開始,GPT系列開始出現了推理能力。

              事實上,目前業內在訓練此類大模型時也都發現了這一特征。

              “我們之前就觀察到,在給人工智能投喂數據的時候存在一個‘躍遷’點。”一位人工智能領域資深工程師告訴記者,此類模型的“智能”水平的提升并非平滑曲線,而是存在某一臨界點上突然地增長,“當時就發現在十幾億的一個量級時,出現了一次明顯提升。”

              采訪中,多位業內人士也表示了,公開信中的擔憂不無道理。

              “由于目前并不清楚其中的機制,從過去幾次的躍遷來看,AI智能的量級提升程度很難預測。”一位業內人士稱,因此若進一步擴大數據投喂與訓練程度,GPT5的智能化程度可能超出目前的預期。

              事實上,由AI引發的風險已經出現。

              3月27日,歐洲刑警組織發布了一份報告,對采用ChatGPT類工具進行犯罪的可能性進行了討論。

              報告中表示,大型語言模型檢測和重現語言模式的能力不僅有助于網絡釣魚和在線欺詐,而且通常還可以用來冒充特定個人或群體的講話風格。這種能力可能會被大規模濫用,以誤導潛在受害者將他們的信任交給犯罪分子。

              值得注意的是,目前有國外科技團隊預測,作為過渡版本的GPT-4.5或許將在今年9月左右推出,屆時AI的性能將進一步提升。

              (文章來源:上海證券報)

              關鍵詞:
              責任編輯:zN_2953