環球最資訊丨歐盟數字服務法新動態:劃定首批大型平臺、成立算法透明中心
              2023-05-12 18:28:36 來源:

              歐盟算法治理又有新動態。

              近日,歐盟委員會通過了《數字服務法》(Digital Services Act,以下簡稱“DSA”)下的第一批確定決議,劃定總計19個超大型平臺,這些平臺將履行歐盟規定的一系列義務。4月底,歐盟宣布成立算法透明度中心(European Centre for Algorithmic Transparency,以下簡稱“ECAT”),為DSA監管大型平臺提供技術支持。

              受訪專家指出,DSA對超大型平臺和搜索引擎提出了更加全面的監管要求,在算法治理方面的要求也更為直接和明確。DSA的落地施行、算法透明度中心以及劃定超大型平臺體現了歐盟打造人工智能領域規范性力量的野心。當前,人工智能革命的浪涌給算法透明帶來了新的影響和挑戰,未來,監管、企業側均應發力實現算法綜合治理。


              (資料圖)

              劃定監管范圍、審查算法透明

              根據《數字服務法》, 在2023 年 2 月 17 日每月活躍用戶達到4500萬及以上的平臺將被認為是大型平臺。此次劃定了17個超大型在線平臺(Very Large Online Platforms,以下簡稱“VLOP”)和2個超大型在線搜索引擎(Very Large Online Search Engines,以下簡稱“VLOSE”)。其中VLOP包括:阿里巴巴全球速賣通、亞馬遜商店、蘋果應用商店、谷歌地圖、TikTok、推特、維基百科等,而VLOSE則是必應、谷歌搜索。

              據悉,在接下來四個月內,這些平臺需要履行DSA規定的多項義務。包括發布關于內容審核決策和風險管理的透明度報告;識別、分析和緩解平臺的系統性風險等。

              4月底,歐盟還宣布成立算法透明度中心(ECAT),以期“為人們和企業創造一個更安全、更可預測和更值得信賴的在線環境”。

              ECAT隸屬于歐盟委員會聯合研究中心( Joint Research Center,以下簡稱“JRC”),JRC則屬于歐盟委員會,承擔歐盟專項計劃研究項目,為制定和執行歐盟政策提供科技支持。JRC發布的2023-2024年的工作計劃中,打造值得信賴的人工智能,主持歐洲算法透明度中心工作是任務之一。

              “對算法的監管是一個復雜和技術要求極高的工作?!睆偷┐髮W國際問題研究院副研究員嚴少華解釋道,要對算法進行有效的監管,首先要對算法的運行有深入的了解,將算法透明度中心設置在歐盟聯合研究中心下,可以借助聯合研究中心已有的研究力量開展工作。

              北京師范大學法學院博士生導師、中國互聯網協會研究中心副主任吳沈括則指出,對于專門的問題設立專門設立的機構解決,是歐盟在執法方面一貫的思維和立場。ECAT體現了算法的透明度、算法的可解釋性在算法治理、平臺治理和數字服務治理方面的地位。

              官網顯示,ECAT由數據科學家、人工智能專家、社會科學家和法律專家等多領域專業人員組成。ECAT將利用技術、倫理、經濟、法律、環境等多領域的專業知識,集中開展以算法透明度為重點的研究,確保數字服務的算法決策透明、可解釋,并符合DSA中平臺風險管理義務。

              ECAT的具體工作包括開展平臺評估和調查、科學研究與前瞻、交流和社群建構三個方面的工作。

              平臺評估和調查方面,ECAT將支持歐盟相關的調查、檢查;對算法系統進行技術測試;對VLOP和VLOSE提交的透明度報告、風險評估和獨立審計進行分析;定義相關程序,確保監管機構和研究人員的數據訪問。

              科學研究與前瞻的具體工作則包括識別和衡量與VLOP和VLOSE相關的系統性風險和可能產生的新風險,評估平臺的風險緩解措施;研究算法的長期社會影響以及識別可能產生的新風險;研究算法的長期社會影響。

              ECAT還被賦予了促進交流和社群建構的職責,未來將分享相關領域的科學發現和實踐案例。

              數字服務法與歐盟的算法治理之路

              在嚴少華看來,ECAT的建立以及對算法可信度和透明度的重視是歐盟在人工智能領域打造自身名片的嘗試?!皻W盟在人工智能領域的技術和產業發展相對滯后,因此會尋求在制度和標準上發力,強化對人工智能相關規則的監管,打造人工智能領域規范性力量的形象?!彼€提到,歐盟正在醞釀的《人工智能法案》(AI Act)也是這種努力的一部分。

              事實上,作為數字立法大國,歐盟近年來針對算法治理推出了多個規則、框架。早在2018年,歐盟就通過并施行了《通用數據保護條例》(General Data Protection Regulation,GDPR),對算法針對個人數據收集、檢索、使用等處理行為進行嚴格規制;首次在立法中提出和創設了“算法解釋權”,當數據主體認為算法決策得出的結果與自己預期不相符合時,有權要求獲得算法設計以及運行(即數據的分析處理過程)的解釋。

              2019年,歐洲議會研究服務機構發布《算法問責及透明治理框架》(A Governance Framework for Algorithmic Accountability and Transparency)則在算法相關權利確立的基礎上提出了全面的監管框架。其中提到,算法及其在自動化決策系統中的應用應受到全面監管,并就歐盟人工智能戰略中的“建立適當的倫理和法律框架”要求提出政策建議與規制路徑。

              2020年12月,歐盟以“為所有人提供一個更安全、更公平的數字空間”為宗旨,公布《數字服務法》(Digital Services Act,DSA)和《數字市場法》(Digital Markets Act,DMA)兩份法律的草案。這兩份法案已分別于2022 年 11 月 16 日和2023年5月2日正式施行。

              其中,DSA要求平臺,尤其是VLOP和VLOSE識別、分析和減輕其平臺上的一系列系統性風險。其中就包括算法治理方面的義務,包括但不限于保證算法的透明度,評估推薦系統和其他相關算法機制的設計。

              嚴少華指出,GDPR只要求對用戶產生重大影響的算法決策機制做出解釋,注重的是用戶的隱私保護和知情權,而DSA則對超大型平臺和搜索引擎提出了更加全面的監管要求。

              吳沈括則表示,新法案在數據保護領域是繼承和延續了GDPR的規定的核心要點,更加突出了算法治理和內容治理方面的更為直接和明確的要求。

              如何打破“黑箱”,踐行算法透明?

              為何算法透明和算法治理如此重要?

              “算法透明是技術性正當程序中的重要節點?!睂ν饨洕Q易大學數字經濟與法律創新研究中心執行主任張欣告訴南方財經全媒體記者,所謂技術性正當程序,是指通過代碼公開、開發公眾參與程序、系統軟件測試等手段優化計算機程序設計以提高自動化決策系統的透明性和可問責性。

              作為技術性正當程序中的關鍵一步,算法透明它決定著人的知情權和參與權,沒有它,人們將無從知曉自動化決策做出來的邏輯和預期產生的后果;另一方面,如果算法運行不具有可解釋性,一旦產生相應的侵害和危害,我們無從了解誰需為此負責,自然也難以獲得救濟。

              以自動駕駛汽車為例,人工智能系統的運行涉及多個組件和節點,如果算法不具備解釋性、透明度,那么事故中的責任分配將會成為不可破解的難題。

              從震蕩藝術界的AI作畫到影響全人類的GPT-4,AIGC可能引發的革命性變化受到越來越多的關注。

              在張欣看來,ChatGPT及類似大型語言模型的研究和投入使用給算法治理帶來了新的影響。作為一種基于神經網絡的自然語言處理技術,可解釋性差是大型語言模型天然的缺點。隨著應用范圍的擴大,算法的研發者和設計者更應履行好相應的算法透明義務。使用了何種數據、數據的處理規則、如何做好數據的糾偏、如何保證算法公平性和多元性等問題都需要被關注和解決。

              進入數字化時代,人類的日常生活與算法緊密交織。事實上,如何打開算法系統的“黑匣子”,使系統變得透明、可解釋是一個受到多方關注的問題。

              2022年3月,美國國家標準與技術研究院(National Institute of Standards and Technology,NIST)發布《邁向識別和管理人工智能偏見的標準》,其中指出,人工智能系統需要更易理解和解釋,由于不同人對相同輸出結果的解釋也可能會存在明顯差異,因此需要一致的透明工具指南。

              2020年英國信息專員辦公室(Information Commissioner"s Office,ICO)和艾倫·圖靈研究所共同編制的《人工智能決策解釋指南》發布,為算法提供服務者提供了一個框架,以便向用戶解釋使用AI系統做出的決策。

              近年來,我國也出臺了一系列針對算法的規則,如《互聯網信息服務算法推薦管理規定》《關于加強互聯網信息服務算法綜合治理的指導意見》等,“算法透明”的概念在其中也屢次被提及。

              吳沈括從監管、企業側給出了建議。他認為,監管側需要提升專業的技術配備,提高技術能力,尤其是技術監測方面的水平;在企業側,公司一方面需要積極履行主體責任,主動地提高算法的透明度和可解釋性。另一方面,也應當積極引入第三方監督,運用社會監督的力量來提高各方的信任水平。

              (文章來源:21世紀經濟報道)

              關鍵詞:
              責任編輯:zN_1253