當前位置:國際 > 正文
              迅猛突進的人工智能需要“韁繩”嗎?-全球今頭條
              2023-03-30 13:41:23 來源:


              【資料圖】

              近日,美國億萬富翁埃隆·馬斯克和人工智能領域頂尖專家、圖靈獎得主約書亞·本吉奧等人聯名簽署了一封公開信,呼吁暫停開發比GPT-4更強大的AI系統至少6個月,稱其“對社會和人類構成潛在風險”。盡管有人懷疑馬斯克的動機,但對迅猛突進的人工智能技術進行規范和約束卻是刻不容緩。

              在人類歷史上,多次出現顛覆性的革命技術,如蒸汽機、內燃機、電燈、電報、電視、衛星技術等,這些技術,極大地釋放人類生產力,但卻完全能為人類所駕馭和利用。

              真正第一次對社會和人類構成潛在風險的,是核武器的出現。當時,各國對核武器的熱情,也讓全球陷入核恐怖之中,有識之士認識到不限制核武器,可能讓人類親手毀掉自己。在國際社會的共同努力之下,1968年,聯合國大會通過了《不擴散核武器條約》。

              在人工智能飛速發展之前,還有一項沖擊人類倫理底限的技術,那就是克隆技術。克隆技術是“無性繁殖”的科學技術,技術上尚不完善,其使用干擾了自然進化過程,也違背了很多倫理問題。 因此,2005年,聯合國通過《聯合國關于人類克隆宣言》,要求所有成員國禁止任何形式的人類克隆。這也是前沿技術發展過程中得到規范和約束的范例。

              回到人工智能,馬斯克曾說人工智能比核武器更危險。危險在哪里?在于人工智能可能最終發展出在數量上、智能上超越人類,甚至能淘汰并取代人類的非人類思維。這意味著失去對人類文明控制的風險。

              不同于人類以往技術創新成果漫長的轉化過程,人工智能技術突破能借助互聯網一夜之間遍布全球。而隨著人工智能的不斷進步,其無所不能的邊界不斷擴大。人類真想好了么?讓人工智能把所有的工作自動化,或者將所有信息和渠道交由人工智能產生和控制?那人做什么呢?信息真假如何辨別呢?讓人工智能控制人類么?

              著名物理學家霍金也曾說過,“成功創造了人工智能,很可能是人類文明史上最偉大的事件。但如果我們不能學會如何避免風險,那么我們會把自己置于絕境”。

              馬斯克等呼吁的暫停并不意味著停止人工智能的開發,而是希望通過約束和規范來解決其發展可能帶來的社會和倫理問題。沒有規矩難成方圓,不能放縱人工智能“野蠻生長”,最后“反噬”人類社會。

              上游新聞陳力

              (文章來源:上游新聞)

              關鍵詞:
              責任編輯:zN_3053