人工智能(AI)助手正在迅速全面地介入到人類(lèi)日常生活的各個(gè)層面,從個(gè)體的日常起居、學(xué)習(xí)到企業(yè)職場(chǎng)的辦公決策,甚至深入到健康管理、金融決策和個(gè)人關(guān)系維護(hù)等敏感領(lǐng)域。伴隨著這一趨勢(shì)的快速演進(jìn),我們面臨的并非僅僅是技術(shù)本身的便利性提升,更是與隱私、安全、倫理和個(gè)人自決權(quán)相關(guān)的諸多深層次問(wèn)題。
顯然,2018版和2020版《個(gè)人信息安全規(guī)范》在編制過(guò)程中并未考慮這樣的業(yè)務(wù)形態(tài)。最近一段時(shí)間在收集修訂需求的期間,無(wú)論是App廠商還是硬件廠商,多數(shù)想法和意見(jiàn)都聚焦于AI助手,尤其是對(duì)啟用AI助手的告知同意機(jī)制問(wèn)題。
在公號(hào)君看來(lái),告知同意機(jī)制的顆粒度,直接與AI助手的性質(zhì)、用途成相關(guān)關(guān)系。簡(jiǎn)言之,如果AI助手猶如手機(jī)上的記事本那樣,完全忠誠(chéng)于用戶,沒(méi)有其自主的目的,那么告知同意就可以顆粒度粗一些。反之,那可能告知同意就得細(xì)粒度一些。目前,各種AI助手層出不窮,作為全面嵌入個(gè)人生活的技術(shù)工具,其在忠實(shí)性保障、精細(xì)化權(quán)限控制的可行性、持續(xù)性隱私暴露以及對(duì)第三方隱私的潛在侵害這四個(gè)維度的問(wèn)題,都層次不齊。這個(gè)問(wèn)題繼續(xù)系統(tǒng)研究,公號(hào)君在此拋出這個(gè)議題,供大家討論。公號(hào)君本身也非常歡迎與大家交流。
從理論上看,AI助手作為用戶的工具理應(yīng)以用戶利益最大化為最終導(dǎo)向,忠實(shí)地執(zhí)行和支持用戶的各項(xiàng)需求。但實(shí)際層面上,“忠實(shí)性”的問(wèn)題卻是一個(gè)復(fù)雜的技術(shù)、經(jīng)濟(jì)與倫理交織的議題。
首先,從技術(shù)邏輯上看,AI助手在實(shí)現(xiàn)功能時(shí)往往嚴(yán)重依賴(lài)于數(shù)據(jù)驅(qū)動(dòng)的算法決策。這種決策機(jī)制的核心是以用戶歷史數(shù)據(jù)及行為模式為基礎(chǔ)的統(tǒng)計(jì)分析與預(yù)測(cè)。然而,無(wú)論數(shù)據(jù)集如何完善,都不可能完全擺脫數(shù)據(jù)選擇偏差與算法訓(xùn)練的局限性。具體來(lái)說(shuō),數(shù)據(jù)的有限性與非均衡性使得算法生成的決策與建議不可避免地帶有一定的偏差。例如,經(jīng)常被用戶吐槽的信息內(nèi)容推薦機(jī)制,可能更傾向于推送高互動(dòng)率或高商業(yè)價(jià)值的內(nèi)容,而非用戶實(shí)際意義上所需要的內(nèi)容。這種偏差在金融、醫(yī)療領(lǐng)域甚至可能帶來(lái)實(shí)質(zhì)性的負(fù)面影響。
其次,人工智能的“黑箱”特性進(jìn)一步加劇了AI助手忠實(shí)性的挑戰(zhàn)。由于深度學(xué)習(xí)模型等算法架構(gòu)的復(fù)雜性,用戶無(wú)法明確地了解算法如何根據(jù)特定數(shù)據(jù)得出特定建議或決策。這種不透明性造成了信息不對(duì)稱(chēng),使得用戶對(duì)助手行為的信任成為一種“被動(dòng)的信任”。即使助手表現(xiàn)出表面上的忠實(shí),也無(wú)法確保這種忠實(shí)在深層決策邏輯上真正代表用戶的最佳利益。
更為關(guān)鍵的是,AI助手的忠實(shí)性還受到商業(yè)驅(qū)動(dòng)力的影響,企業(yè)通過(guò)AI助手服務(wù)追求商業(yè)利潤(rùn)最大化,在商業(yè)邏輯與用戶利益之間往往存在潛在沖突嚴(yán)重挑戰(zhàn)了AI助手的獨(dú)立性與中立性,從根本上動(dòng)搖了其作為用戶“忠實(shí)助手”的可信度。
二、對(duì)AI助手精細(xì)顆粒度權(quán)限控制的現(xiàn)實(shí)困境
在理想情況下,用戶應(yīng)能精準(zhǔn)掌控AI助手對(duì)個(gè)人數(shù)據(jù)的訪問(wèn)范圍與權(quán)限,以有效地實(shí)現(xiàn)隱私保護(hù)與數(shù)據(jù)主權(quán)的自主管控。然而,現(xiàn)實(shí)中的精細(xì)顆粒度控制卻面臨多個(gè)維度的阻礙與困難。
首先,技術(shù)實(shí)現(xiàn)層面的難題。當(dāng)前主流的AI助手設(shè)計(jì)與移動(dòng)操作系統(tǒng)往往采取較為粗放的“一攬子”授權(quán)方式。用戶在初次安裝或使用時(shí),僅能被動(dòng)接受系統(tǒng)默認(rèn)的權(quán)限需求,比如對(duì)位置、相冊(cè)、通訊錄、麥克風(fēng)和攝像頭的統(tǒng)一授權(quán)。絕大部分手機(jī)系統(tǒng)的權(quán)限管理模型天生偏重于“要么全部同意、要么全部拒絕”。智能助手跨應(yīng)用調(diào)用場(chǎng)景多,往往在初次啟動(dòng)時(shí)一次性索取麥克風(fēng)、相機(jī)、定位、通知讀取等組合權(quán)限。要把權(quán)限切分到“僅對(duì)A應(yīng)用讀取文本、對(duì)B應(yīng)用只讀標(biāo)題”這一級(jí)別,需要底層操作系統(tǒng)、API規(guī)范乃至隱私沙箱并行升級(jí),開(kāi)發(fā)與測(cè)試成本隨之指數(shù)上升。盡管部分系統(tǒng)已經(jīng)嘗試逐步優(yōu)化權(quán)限管理,但要實(shí)現(xiàn)真正意義上的精細(xì)化權(quán)限控制,如對(duì)特定數(shù)據(jù)或特定場(chǎng)景的訪問(wèn)單獨(dú)授權(quán),目前技術(shù)層面仍缺乏統(tǒng)一、通用的解決方案。此外,細(xì)顆粒度權(quán)限控制還需要系統(tǒng)開(kāi)發(fā)者與AI算法開(kāi)發(fā)者進(jìn)行跨平臺(tái)協(xié)作,在當(dāng)前產(chǎn)業(yè)生態(tài)中存在較大難度。
其次,用戶認(rèn)知與操作能力層面的障礙也不容忽視。一般用戶對(duì)于AI助手?jǐn)?shù)據(jù)訪問(wèn)權(quán)限的技術(shù)細(xì)節(jié)和背后的隱私風(fēng)險(xiǎn)缺乏清晰的理解,而過(guò)于復(fù)雜的權(quán)限設(shè)置界面與專(zhuān)業(yè)術(shù)語(yǔ)往往導(dǎo)致用戶決策成本過(guò)高,最終使得多數(shù)用戶選擇默認(rèn)放棄細(xì)顆粒度控制。也就是說(shuō),精細(xì)化權(quán)限控制的落實(shí)不僅僅是技術(shù)問(wèn)題,更涉及用戶界面設(shè)計(jì)與交互模式的重大改進(jìn),這對(duì)于產(chǎn)業(yè)鏈上的企業(yè)構(gòu)成了不小的挑戰(zhàn)。
最后,企業(yè)的商業(yè)激勵(lì)在本質(zhì)上與精細(xì)顆粒度權(quán)限控制存在沖突。AI企業(yè)天然希望盡可能多地獲取用戶數(shù)據(jù),以改善算法性能并提升商業(yè)化潛力,而細(xì)顆粒度的權(quán)限控制會(huì)嚴(yán)重削弱企業(yè)數(shù)據(jù)獲取的便捷性和規(guī)模優(yōu)勢(shì)。因此,除非受到強(qiáng)有力的外部監(jiān)管驅(qū)動(dòng),企業(yè)往往缺乏主動(dòng)推動(dòng)細(xì)化權(quán)限控制的內(nèi)在動(dòng)力。
三、AI助手持續(xù)性收集信息的內(nèi)在必然性
AI助手服務(wù)的技術(shù)邏輯決定了其在實(shí)際運(yùn)營(yíng)中必然需要持續(xù)性地獲取并處理大量用戶數(shù)據(jù)。這種“嵌入式”的數(shù)據(jù)獲取模式與保護(hù)隱私的天然矛盾幾乎不可避免。
具體而言,AI助手的“智能性”高度依賴(lài)對(duì)用戶實(shí)時(shí)情境的全面感知,包括位置信息、行為軌跡、通訊內(nèi)容甚至生理數(shù)據(jù)。這些數(shù)據(jù)的持續(xù)收集是AI算法提供精準(zhǔn)化、個(gè)性化服務(wù)的前提條件。然而,持續(xù)收集本身即意味著用戶隱私暴露的風(fēng)險(xiǎn)是持續(xù)且無(wú)法根本性地切斷的。在算法運(yùn)作的不透明背景下,用戶很難真正理解自己的數(shù)據(jù)何時(shí)、以何種方式、在何種范圍內(nèi)被AI所采集、處理和存儲(chǔ)。
此外,盡管新興的隱私保護(hù)技術(shù)(如聯(lián)邦學(xué)習(xí)、差分隱私和可信執(zhí)行環(huán)境)已經(jīng)開(kāi)始應(yīng)用于部分AI系統(tǒng),但其應(yīng)用成本高、技術(shù)復(fù)雜性強(qiáng),且并不能徹底阻止持續(xù)性的數(shù)據(jù)暴露風(fēng)險(xiǎn)。因?yàn)槿魏渭夹g(shù)性防護(hù)措施,都無(wú)法完全消除由于數(shù)據(jù)采集過(guò)程本身帶來(lái)的系統(tǒng)性隱私風(fēng)險(xiǎn)。
四、第三方隱私侵害的不可避免性與責(zé)任分配難題
當(dāng)AI助手廣泛應(yīng)用于人際互動(dòng)場(chǎng)景時(shí),第三方主體(也就是他人)隱私侵害問(wèn)題便難以避免。比如,當(dāng)用戶利用AI助手通過(guò)實(shí)時(shí)錄屏分析通話錄音、分析商務(wù)洽談內(nèi)容、上傳用戶聊天記錄、生成會(huì)議紀(jì)要時(shí),第三方參與者的個(gè)人信息與隱私數(shù)據(jù)勢(shì)必被一并記錄和處理。
從法律層面而言,這種“代位授權(quán)”可能并不具備嚴(yán)格意義上的合法性。即便主用戶本人同意AI收集和處理自己的數(shù)據(jù),但第三方的個(gè)人信息或隱私數(shù)據(jù)收集行為顯然未經(jīng)明確同意,因此在法律上屬于灰色甚至違法地帶。更加復(fù)雜的是,一旦發(fā)生數(shù)據(jù)泄露或?yàn)E用,第三方的隱私侵害責(zé)任如何分配至今尚不明晰。究竟是AI助手的提供商、數(shù)據(jù)存儲(chǔ)平臺(tái),還是主用戶本身應(yīng)該承擔(dān)法律責(zé)任,均存在較大的解釋空間與爭(zhēng)議。這種責(zé)任劃分的模糊性嚴(yán)重阻礙了對(duì)第三方隱私的有效保護(hù)。
綜上所述,盡管人工智能助手為人們的日常生活帶來(lái)了前所未有的便利和效率,但其在忠實(shí)性保障、權(quán)限控制細(xì)化、隱私持續(xù)暴露及第三方隱私侵害等方面所帶來(lái)的復(fù)雜挑戰(zhàn),必須通過(guò)技術(shù)創(chuàng)新、產(chǎn)業(yè)自律、法律規(guī)制和用戶教育的多維治理路徑予以應(yīng)對(duì),也就是說(shuō)對(duì)AI助手的告知同意機(jī)制的設(shè)計(jì)需要有系統(tǒng)性思維和路徑。這也將是《個(gè)人信息安全規(guī)范》需要認(rèn)真處理的問(wèn)題之一。