深度合成算法的備案=審批放松?NO!

2023-09-29 22:55史繼紅
台商 2023年4期
关键词:規定技術提供者

史繼紅

算法,可謂是2023年經濟技術領域中最火熱的詞之一了。2023年1月,《互聯網信息服務深度合成管理規定》(下稱「規定」)正式落地施行,其中第19條規定,具有輿論屬性或者社會動員能力的深度合成服務提供者,應當按照《規定》履行備案和變更、注銷備案手續。6月20日,國家互信辦發佈國內首批深度合成領域的算法發佈清單,百度、阿里、騰訊、抖音、快手、美團等互聯網企業的41個深度合成算法在列。有人有疑,這個規定算法需備案,備案不是審批,是否可視為生成式人工智能技術審批放松的信號?把這個問題先放一下,我們先系統地認知一下規定吧。

深度合成技術的定義、廣泛運用及風險

規定第23條明確了深度合成技術的定義,是指利用深度學習、虛擬現實等生成合成類算法製作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術,定義後非限制性的羅列了幾種技術,如大家熟悉的篇章/問答生成(如CHATGPT、文心一格)、文本轉語音、人臉生成/替換、圖象生成/修複、虛擬場景等。說到深度合成技術,首先人們想到的是「AI換臉」(包括人臉再現、人臉生成、語音合成等),確實它是現在應用較多的深度合成形式,但深度合成早從局部合成轉向全身合成,後者從數字虛擬人技術為代表,整合3D人臉和人體重建、文本/語音/口型驅動和神經網絡渲染等技術,並利用生成完成人體動作的遷移。這種捕捉和渲染隨技術發展更加靈敏生動,在遊戲、社交、影視、醫療等領域大有作為。得益於源代碼的開放和易用性工具的開發,深度合成技術的使用門檻已大為降低,普通用戶在手機、電腦等終端設備上,借助深度合成應用程序,即可輕易製作、獲取人臉合成、語音合成等娛樂性的深度合成內容。但問題就大量產生了,首先,視頻文件的真實性存疑,視頻文件難以識別的可修改性給名譽權和肖像權的保護增加了困難;其次,隨著人臉、語音深度合成工具的日趨成熟,換臉常常和聲音模擬等技術進行融合,出現了新型詐騙,識別難度極高;第三,AI技術的突破,直接改變了人類傳統的創作模式,人的創作從以往從無到有的創造變成了在AI給出的若幹選項中完成從「N到1式」的遴選、判斷、調整和優化,所以著作權權屬問題遭到了空前的挑戰。除外,更可怕的是,在深度合成技術的運用中,因機器學習的需要必須收集一些人的面部特征,這些生物特征數據安全若保護欠佳,則刷臉支付、人臉認證或許都將不再安全,再如政治層面或民生方面相關人物、事件的深度合成視頻,易給政治謠言及虛假信息的傳播提供溫床,給公眾話語權及社會輿論造成扭曲。

深度合成服務提供者躲不進「避風港」了

對於深度合成技術的監管,規定對深度合成內容更有針對性地進行規制,主要針對誰呢?就是深度合成服務提供者!規制體現在以下幾個方面:

1.信息服務安全合法規範,要求算法服務提供者建立健全用戶注冊、信息發佈審核、數據安全和個人信息保護、安全事件應急處置等管理制度和技術措施,定期審核、評估、驗證算法機制機理、模型、數據和應用結果等;建立健全用於識別違法和不良信息的特征庫,發現違法和不良信息的,應當採取相應的處置措施;加強用戶模型和用戶標簽管理,完善記入用戶模型的興趣點規則和用戶標簽管理規則;加強算法推薦服務版面頁面生態管理,建立完善人工幹預和用戶自主選擇機制,在重點環節積極呈現符合主流價值導向的信息;規範開展互聯網新聞信息服務,不得生成合成虛假新聞信息或者傳播非國家規定範圍內的單位發佈的新聞信息;不得利用算法實施影響網絡輿論、規避監督管理以及壟斷和不正當競爭行為。

2.用戶權益保護規範,包括保障算法知情權,要求告知用戶其提供算法推薦服務的情況,並公示服務的基本原理、目的意圖和主要運行機制等;保障算法選擇權,應當向用戶提供不針對其個人特征的選項,或者便捷的關閉算法推薦服務的選項。此外,對向未成年人、老年人、勞動者和消費者等主體提供算法推薦服務的,則規定不得利用算法推薦服務誘導未成年人沉迷網絡,應當便利老年人安全使用算法推薦服務,以及不得根據消費者的偏好、交易習慣等特征利用算法在交易價格等交易條件上實施不合理的差別待遇等。

3.備案、履行安全評估和配合監督檢查義務規範,包括開篇提到的,具有輿論屬性或者社會動員能力的算法推薦服務提供者應當在提供服務之日起十個工作日內通過互聯網信息服務算法備案系統填報服務提供者的名稱、服務形式、應用領域、算法類型等備案信息,履行備案手續,而且這類提供者應按照國家有關規定開展安全評估。此外,算法推薦服務提供者應當依法留存網絡日志,配合網信部門和電信、公安、市場監管等有關部門開展安全評估和監督檢查工作,並提供必要的技術、數據等支持和協助。

隨著深度合成技術門檻的降低,如有利可圖,掌握該技術卻不依法使用的情形很難杜絕,若使用技術侵犯知識產權、肖像權、名譽權的,如何對行為人進行處置,證據的收集、鑒定是擺在受害人和司法機關面前的難題,確保使用深度合成技術必須登記,也就確保執法者對行為人的追蹤。同時,進行用戶標簽及日志信息管理,能實現執法者對於技術產物的追蹤,並確保任何通過深度合成技術生成的產品可以被公眾識別,以避免產生公眾認知偏差。

另外,規定將信息安全合規審查的義務重點加持在深度合成服務者身上,意味著深度合成服務者需要採取技術或者人工方式對輸入數據和合成結果進行審核,管理深度合成內容,建立辟謠、算法機制機理、科技倫理、信息發佈、數據安全、個人信息保護、反電信網絡詐騙、應急處置等機制或審核管理制度。說實話,合規要求還是很多的,對於小規模服務商與初創企業來說,如此高的合規成本將使其運營更加艱難。

再而,規定24條明確:深度合成服務提供者和技術支持者提供人臉、人聲等生物識別信息編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,並取得其單獨同意。這一條毫不費力讓人聯想AI換臉應用中,未經他人同意情況下,使用他人照片進行AI換臉內容製作被明確認定為違規行為。在前述條例支持下,人工智能模型的訓練不能隨意使用未經同意的人臉、聲音等帶有生物特征的數據,而許多人工智能模型的訓練通常會通過「全網爬取數據」的渠道將他人公佈在公共媒體的照片、視頻可能會在不知情的情況下被機器學習,成為某個模型的養份。

筆者還注意到,規定給應用商店佈置了一條任務:落實上架審核、日常管理、應急處置等安全管理責任,核驗深度合成類應用程序的安全評估、備案等情況;對違反國家有關規定的,應當及時採取不予上架、警示、暫停服務或者下架等處置措施。那有些只將前述類似功能做娛樂的App很有可能無法承擔相應的監管義務,只能將功能下線最省心,你若不甘心應用商店沖著守門員義務也會讓你被迫下架的。

在法律人看來,規定加持更多自查自管義務在深度合成服務提供者遠大於使用者身上,使得過去服務提供者呆在《侵權責任法》第三十六條的「避風港規則」的舒適區,而今得裸泳在類「紅旗規則」的驚濤駭浪中,除非花大精力大價錢穿好「救生衣」。

在旁人看來,服務商負擔過重,「連監管部門都難以做到的事情服務商們靠自身的技術能將安全合規保障得以健全麼?」筆者不是這麼看的。在新技術的治理與風險防範方面,監管部門主導的法律規制確實必不可少,但立法是滯後的,在深度合成技術領域,完全跟不上技術發展的步伐,立法可能起不到應有的效果,還可能阻礙技術的正向發展。所以借助鑒別、溯源等技術措施,要求更有能力的製作者對深度合成內容進行源頭管理,而後通過行業公約、標准、最佳實踐指南等進行行業自律,來實現多元治理。實際上,互聯網行業內的主流網絡平台早已著手應對深度合成技術的潛在濫用。穀歌、Facebook等美國主流科技公司已經採取了應對方案,如穀歌開發的「Reality Defender」工具,積極開發甄別AI合成內容、對抗深度合成技術濫用的方法和工具。由於OpenAI的DALL-E和ChatGPT的突然爆發,生成式人工智能進入了主流意識,這導致更多的投資引向開發某種容易檢測人工智能謊言的方法,一些公司,如Optic和英特爾的FakeCatch,正專注於找出人工智能參與音頻和視頻的情況,而另一些公司,如Fictious.AI,則更直接地將重點放在人工智能聊天機器人生成的文本上。在國內,騰訊信息安全團隊自研的「換臉鑒別模型的訓練方法、換臉鑒別方法、裝置和設備」獲得專利,對相關深度合成內容的檢測都達到了很高的准確率。此外,不斷改良的數字水印技術也可在避免合成技術的濫用中發揮關鍵作用,和視覺可見的明水印不同,數字水印通過在媒體作品如音頻、視頻、圖像、文本中嵌入不可見的信息,從而實現信息隱藏、版權認證、追蹤溯源、真實性驗證等作用。這些須依賴制定相關標准的大廠與技術大咖的支持,監管層孤軍作戰是完全實現不了監管作用的。

算法備案遠不等於產品審批放松

算法備案手續並不等同於生成式AI審批,也不意味著備案企業就能據此落地執行該算法的AI產品。

規定第15條要求深度合成服務提供者和技術支持者提供生成或者編輯人臉、人聲等生物識別信息的,或生成或者編輯可能涉及國家安全、國家形象、國家利益和社會公共利益的特殊物體、場景等非生物識別信息的,應依法自行或者委托專業機構開展安全評估;第20條則要求深度合成服務提供者開發上線具有輿論屬性或者社會動員能力的新產品、新應用、新功能的,應當按照國家有關規定開展安全評估。所以,不少深度合成技術服務商最近接到深度合成算法評估的通知,應用市場也通知企業需先開展算法備案和安全評估之後才能上線。那倒底做哪種評估,評估該怎麼做,按什麼標准來開展?

評估的法律支撐主要有四個,分別是2017年發佈的《互聯網新聞信息服務新技術新應用安全評估管理規定》,2018年發佈的《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》,2022年發佈的《互聯網信息服務算法推薦管理規定》和今天討論的《互聯網信息服務深度合成管理規定》,匯總一下評估分為自評估、第三方機構評估、監管部門開展的評估,從評估對象來說可以是算法、互聯網服務、新技術新應用三個對象。算法自評估目前還沒有公開的標準,但在開展算法備案的時候,需要提交一份有模板可借鑒的算法安全自評估報告,而且自評估是需按照周期開展的,同時對企業的自評估制度的建設也提出了要求。如果企業未建立評估制度,對如何開展評估無從下手,這時候就可以求助第三方專業機構的協助,這一塊需要考量第三方機構的專業性和技術能力。如果企業的產品服務或算法可能已經走到時代的前列,或者複雜到引起相關部門的熱切關注或擔憂了,可能觸發網信部門或公安部門在監管層面的評估。另外還有互聯網服務評估和新技術新應用的評估這裡就略過了。

發展無止境,治理無窮期。規定的出台標誌著中國網絡綜合治理能力的進一步提升,在深度合成技術應用與治理尚處於起步階段的現下,筆者認為,規定所體現的多元化自律評估、管理與監督,在技術商用領域的規制上放大了格局,變通了意識思想,對臻進深度合成治理水平,助力中國式現代化數字經濟高質量發展邁出了堅實的步伐。

猜你喜欢
規定技術提供者
Cloze完形填空
无土栽培为什么受欢迎?
网络交易平台提供者的法律地位与民事责任分析
技术比赛
基于隐私度和稳定度的D2D数据共享伙伴选择机制
周其仁 共享經濟的難點是什麼
2017技术展望
网络言论自由的行政法规制研究
落实中央八项规定精神(2)
本刊启事