• <i id="jpjum"></i>

      <i id="jpjum"></i><small id="jpjum"></small>
      <kbd id="jpjum"></kbd>
      首頁 > 科技 > 正文

      《人工智能法(學者建議稿)》發布,權益保障、產業發展為當前法學界AI治理研究焦點問題

      2024-03-18 11:25:31 21世紀經濟報道 21財經APP 吳立洋

      南方財經全媒體記者吳立洋上海報道

      2024年3月16日上午,“AI善治論壇人工智能法律治理前瞻”專題研討會在北京舉辦。會上,由中國政法大學數據法治研究院、西北政法大學法治學院、中國信息通信研究院、北京航空航天大學法學院等單位專家聯合起草的《中華人民共和國人工智能法(學者建議稿)》(以下簡稱“建議稿”)正式發布。

      自從2022年人工智能大模型熱潮興起以來,在深刻影響科技發展、積極與現有產業融合的同時,技術的高速迭代也衍生出多重治理問題。在本次研討會上,多位專家學者在介紹建議稿條款內容的同時,也根據自身的研究內容和產業實踐中出現的具體問題提出了自己的觀點。從這些發言與觀點,亦可一窺當前人工智能產業發展面臨的不同層次問題,以及在法律層面對其進行治理的多元化思路。

      監管應以人的要素為中心

      縱觀本輪人工智能發展浪潮中社會關注的焦點問題,除技術發展問題外,個人信息保護、AI是否會取代人類、知識產權保護等問題,均與人在和AI相處中的權益保護息息相關。本次研討會上,多位與會專家在發言中也提到,當前對AI的治理需圍繞人類在數字社會的基本權益保障展開,強調科技倫理對技術發展中衍生出的各類問題的預防和抑制作用。

      例如在本次發布的建議稿中,第三章就重點提及了“使用者權益保護”。北京航空航天大學法學院院長助理、副教授趙精武在介紹相關內容時表示,其中蘊含的治理思路包括:

      一是將平等權作為使用者權益保護的首項權利,能夠預防“唯數據主義”導致的人工智能產品、服務被應用于不合理、不科學的社會群體分類目的;二是將知情權作為使用者權益保護的重要內容之一,因為該項權利是使用者行使其他權利的前提條件;三是正面回應生成內容知識產權問題,采用“按照貢獻程度”的動態認定模式明確相關的權利主體,并明確否定了人工智能作為權利主體的可能性;四是關注勞動者和數字弱勢群體權益保護,明確規定禁止用人單位侵害勞動者的合法權益,尤其是利用人工智能技術對勞動者的工作情況開展不合理、不合法的監控活動。

      中南財經政法大學知識產權研究中心徐小奔副教授則重點強調人工智能開發者與提供者的義務與規范,他指出,建議稿中重點區分了一般人工智能和關鍵人工智能,強調關鍵人工智能需要在組織機構、風險評估、風險披露、安全應急處理等方面所應該承擔的關鍵義務,同時應該在不同行業領域對關鍵人工智能作出特別規范。

      北京大學法學院副院長、副教授戴昕則認為,要建設比較客觀的認知環境,使用戶或者公眾理解如何規范應用人工智能。如果有風險,應當明確風險的具體指向。此外,可以結合保險機制設計責任救濟制度,在結合保險與合規免責的基礎上,可以考慮運行成本更低的嚴格責任,避免人工智能領域過錯責任認定帶來的復雜問題。

      以治理推動發展

      除了在數字化時代保障個人權益外,當前人工智能治理的一大重點方向是促進技術的進一步發展與應用。有別于此前其他技術革新,人工智能發展既有賴于數據的累積和算法的迭代,也需要在實際應用中找到與人類社會的結合點,通過更廣泛地應用實現自我進化。因此,在當前的治理思路下,如何兼顧合規與發展,是規范人工智能產業發展的關鍵問題。

      中國政法大學數據法治研究院教授張凌寒表示,目前全球激烈競爭的格局下,“不發展是最大的不安全”。我國人工智能產業“領先的追趕者”的獨特國際生態位要求我們在技術和產業的國際競爭中必須以發展為制度設計的主要目標,安全問題也需要通過技術發展來回應和解決。

      結合建議法第五章“監督管理”內容,中國信通院政策與經濟研究所高級工程師程瑩表示,可以從以下三方面構建相關管理體系:其一,建立人工智能監管統籌協調機制,發揮其在戰略規劃、風險管控、規則制定、社會服務體系建立等方面的總體協調作用;其二,建立分級分類監管制度,根據技術發展、行業領域、應用場景等因素動態調整人工智能分級分類標準;其三,完善監管沙箱試點制度,一方面在準入條件、風險評估、審計、法律責任等方面給予主體相應便利、激勵或者責任減免,為人工智能技術產業發展提供寬松環境;另一方面加強風險管控和評估評測,統籌建立國家人工智能評估評測平臺,發揮多元協同力量。

      “在把控風險的同時,也要促進人工智能發展?!?中國人民大學未來法治研究院執行院長、法學院副教授張吉豫認為,事前的科技倫理審查確有必要,但可以考慮刪除一些不必要的事前義務。對于所有大型基礎模型未來是否都進行較嚴的監管是需要考慮的,并非所有人工智能均需要備案,備案是進入市場的前置要求還是僅為一項待完成的任務有待思考。從促發展的角度而言,監管行為本身的規范也是比較重要的方面。

      中國社會科學院大學互聯網法治研究中心執行主任劉曉春則建議,一方面,在立法上構建支撐人工智能發展的促進型基礎設施,例如建立促進高質量數據集合的生產和獲取、促進算力資源優化分配的基礎機制等;另一方面,在承擔加重義務的特定類型人工智能部分,例如關鍵人工智能、通用人工智能、特殊類型人工智能等,建議明確科學、清晰、風險導向的基礎概念和類型,為人工智能產業快速健康發展樹立具有較強確定性的規則和責任機制。

      21財經客戶端下載

      国产精品民宅偷窥盗摄,把腿抬高我要添你下面口述,顶开妈妈的生命之门列表