期刊VIP學術指導 符合學術規范和道德
保障品質 保證專業,沒有后顧之憂
摘 要:人臉識別技術是社會治理智能化轉型過程中廣泛應用的技術之一。人臉識別技術的身份認證和識別功能在虛擬空間實現了個人信息的自動化集合。人臉識別技術本身存在著技術風險,一旦被濫用將會侵犯公民權利、危害社會秩序、消弭共同體信任。當下,現有對人臉識別技術的法律規制呈現分散性和碎片化特征,法律本身的事后規制邏輯更是難以有效規制技術應用、防止技術濫用。應把握國家綜合性立法的契機,根據場景理論對人臉識別技術進行細化規制,既發揮其強大的社會功用,又預防化解其潛在危害,實現法治化社會化協同治理的目標。
關鍵詞:人臉識別;個人信息保護法;場景理論;數字正義
刷臉進小區、進學校、進公司,刷臉支付、刷臉健康認證等刷臉行為已經成為當今社會向智能化轉型的行為標志。人工智能和大數據等技術的發展與應用,已然成為影響社會治理現代化進程的重要技術因素,智能社會正在快速形成。人臉識別技術作為其中的代表,為社會生活帶來高效便捷的同時,也為人身安全帶來了新的風險和問題,引發了人們對技術倫理的擔憂與反思。2020年初,Clearview AI公司30億人臉數據被泄露,同年11月3日“萬豪因泄露3億客人信息被罰1.6億”的新聞成為微博熱搜。此前亦出現過諸多類似新聞,針對技術帶來的風險進行法律規制的必要性,已經觸動到了學者們敏銳的神經。“中國人臉識別第一案”受到各界關注,其當事人郭兵是一名法政學院副教授。郭兵憑借其敏銳的思維感受到了動物世界采集人臉信息行為背后存在的技術應用邊界問題,并希望通過該案來推動各界對人臉識別技術應用達成最低共識[1]。法學界對人臉識別技術相關法律問題的探討在近兩年急劇增加。雖然人臉識別技術發展迅猛,但關于其技術應用限度和法律規制的問題卻亟待完善,尤其是在《中華人民共和國民法典》和《中華人民共和國個人信息保護法(草案)》(以下簡稱《草案》)公布以后,如何對人臉識別技術進行體系化法律規制是實現社會治理現代化的重點。
一、人臉識別技術應用的風險
人臉識別又稱人像識別、面像識別、面部識別等。人臉識別技術是一種利用已經存儲的若干已知身份的人臉圖像數據庫,對給定場景的靜態或動態圖像中的一人或多人身份進行驗證和鑒別的生物識別技術。人臉識別技術目前主要應用于金融業、安防業、公共場所、司法系統等。人臉識別主要有三種識別模式:第一種是一對一的識別模式,例如電子支付、企業打卡、地鐵進站等;第二種是一對多或多對多的識別模式,主要是對特定群體的監控、追蹤和識別;第三種是監控檢測模式,例如公共場所客流量的監控,其主要目的不是用來識別,而是用來監測。
人臉識別技術識別的是生物面部特征信息,屬于個人信息的子項?!恫莅浮返谒臈l規定,個人信息是以電子或者其他方式記錄的與已識別或者可識別的自然人有關的各種信息,不包括匿名化處理后的信息。第二十九條對敏感個人信息進行了定義,個人生物特征被列舉在內1。《網絡安全法》規定的個人信息包括個人生物識別信息。2020年修訂的《信息安全技術 個人信息安全規范》中列舉了個人信息范圍,其中個人生物識別信息中就包括了面部識別特征。因此,人臉識別技術所涉及的生物面部識別特征屬于個人信息中的敏感個人信息。敏感個人信息與個人的人身安全和財產安全息息相關,一旦被泄露、非法使用會產生無法預料的后果。
(一)人臉識別技術應用隱含的技術風險
科技是把雙刃劍。技術本身的發展在帶來收益的同時必然會帶來風險。風險包括技術本身存在的風險和技術運用過程中引發的社會風險。人臉識別技術作為人工智能技術發展的一個分支,其本身受制于現有技術發展水平。人工智能技術的核心是算法,而算法的核心是數據,數據在收集、整理、計算過程中則會出現偏差和泄露,這是技術本身所不可避免的問題,是技術發展的自身局限性。對數據的依賴和盲目崇拜會陷入“技術烏托邦”的誤區,導致唯數據論的甚囂塵上[2]。雖然人臉具有獨特性,但這種獨特性是分等級的,如果個體面部的獨特性高,即與其他人臉差別較大,則人臉識別的出錯率更低。如果個體面部的獨特性低,即與其他人臉差別較小,尤其是雙胞胎或相似度較高的近親屬之間,人臉識別出錯率會明顯提升。這是技術本身存在的誤差風險,如果人臉識別不與其他驗證手段相結合,這種誤差所帶來的現實影響是不可估量的。此外,人臉具有可變性,會隨著年齡的增長、妝容的修飾、自然環境的影響等而發生變化。這就導致人臉識別技術具有被破解的可能性。人臉識別技術還受制于攝像頭等硬件設施的發展,和成像技術等軟件技術的發展。研究機構已經證明了利用3D打印技術來破解人臉識別的可能性。
隨著人臉識別技術的廣泛運用,技術的發展和衍生帶來了更多的技術倫理風險。換臉視頻的出現可以說是人臉識別技術的衍生品。換臉視頻依托于深度偽造技術,即通過深度學習技術將視頻進行智能化技術處理,從而實現對視頻人物進行換臉,利用楊冪等公眾人物制作的換臉視頻就是其中的典型[3]。眾多公眾人物的形象被廣泛用于換臉視頻的制作,尤其是用于色情視頻制作,真假難辨的視頻被廣泛傳播,在倫理和道德領域引發公眾的關注。顯而易見,當前的人臉識別技術不僅止步于“識別”,更走向了“替換”,肖像的真實性問題引發了更深入的倫理討論。進一步而言,關于人工智能技術的道德問題,是選擇規制在前模式,還是選擇實踐演進模式,再次成為技術倫理的焦點。
(二)人臉識別技術應用產生的侵權風險
個體生物特征可以分為個人隱私信息、一般個人信息和個人數據三種[4]。一般個人信息和個人隱私信息都具有人格權屬性,前者涵蓋的范圍更廣,后者屬于隱私權保護范圍且不具有財產屬性。個人數據是智能社會的產物,是數字經濟的主要生產資料,包含財產屬性。人臉識別技術應用所涉及的人臉信息包含多種法益,是人格屬性與財產屬性的結合,僅從個人角度而言,涉及公民個人的隱私、財產、個人身份、人身安全等各方面。陌陌旗下的AI變臉軟件ZAO因為隱私問題被工信部約談[5];Facebook因運用面部識別功能將他人詳細個人信息進行標記鏈接而受到訴訟;瑞典一學校因未備案就運用面部識別技術進行考勤,違背了歐盟通過的《通用數據保護條例》(以下簡稱GDPR)中的隱私條款而被處罰款,如此種種都是技術侵權的體現。人臉識別技術應用不僅包括個人,還包括技術管理者、提供者、經營者等眾多主體,涉及的不僅是個體的人格權與財產權,更是公共利益與社會安全。從數據安全法益的角度來看,人臉識別信息具有多元化、復雜化的法律特征,具有復合型的權利屬性。因此,一旦人臉識別信息發生泄露,將產生廣泛的侵權風險。如前所述的楊冪換臉視頻,其轉發量以億為單位,造成的社會影響不可估量,對公眾人物的肖像侵犯和情感傷害難以估量。
推薦閱讀:發表人臉識別論文的計算機類期刊