對外經濟貿易大學兼職教授邵長茂在《數字法治》撰文指出,人工智能正在一點一點地當然也是迅速地顛覆著人類既有的社會結構、組織形式和生活狀態。在這個過程中,一定會有大量的、意想不到的風險出現。對于這些風險,有兩種應對方式:一種是搭建法治軌道,另一種是劃出法治邊界。
搭建法治軌道,就是設定目的地,至少有明確的方向;嚴格的過程控制,以及標準化的流程;對發展規律的全面把握,加上完備的制度體系。比如,正在制定的歐盟《人工智能法案》要求在人工智能發展過程中進行前置規劃和連續監督,以嚴格縝密的規范體系引導技術前行,這就是典型的軌道性立法。但是,對我國而言,人工智能立法宜采用法治邊界模式而非法治軌道模式。這是因為,人工智能還處于質變前夜,方向未明,標準的制式監管既不現實更不合時宜。實際上,歐盟法案也建立了監管沙盒機制,允許并不成熟的技術與社會直接接觸,通過監管上的極大松動和更加靈活的機制為人工智能發展拓展空間。
劃出法治邊界,就是在法律上劃出人工智能發展不能逾越的紅線,并列明具體的負面清單。具體來說,應基于產業發展、權利保護、倫理捍衛三原則,分別從技術、社會和倫理的層面研究與應對風險。就技術層面而言,至少有三類風險:人工智能技術自身導致的不確定風險,人工智能偏離設計應用的風險,人工智能技術被非法使用、濫用的風險。就社會層面而言,至少有三類風險:算法歧視、深度偽造、錯誤信息等造成的混亂和失序,個體失業和社會失常風險,經濟上的過分不平等和權力過分集中風險。就倫理層面而言,至少有三類風險:反人類的風險,異化人類的風險,奴役人類的風險。
為了有效管控風險,可從三個維度建立類型化、立體式的監管體系,提升監管措施的區分度和顆粒度。一是區分應用場景。基于人工智能技術廣泛應用于政務、金融、醫療、教育、交通、零售、物流等領域的實際,區分不同的業務場景和行業場景制定監管政策。二是區分清單內外。在清單內的應當適用許可制,并進行全程監管;在清單外的,可適用備案制,并進行重點環節監管。三是區分風險程度。對不同類別以及不同程度的風險進行分類分級,適用不同的監管政策。類型化的處理方式是由人工智能的特性決定的,有效的人工智能技術無疑就是一種“魔法”,能夠帶來顛覆性變革,讓生活更美好,當然也可能更糟糕。人工智能立法應基于不同的風險情形,明確完全禁止、部分禁止、有條件開放、完全開放的范圍,明確事前許可、事前備案、事后備案、完全自主的情形,明確全程監管、重點環節監管、無需監管的條件。