讓AI用戶更有安全感
2024-06-04
數據和人工智能(néng)(AI)之間的關系是什麼(me)?有人作了個形象比喻:就像煤炭之于蒸汽機,電能(néng)之于燈泡,汽油之于汽車。
的确,幾乎所有形式的AI都(dōu)需要大量訓練數據。要想讓AI更加“懂你”,就必須收集和分析你的個人信息,這(zhè)是AI深度學(xué)習的原材料,也是其“思考”和“決策”的依據。
這(zhè)引發(fā)了公衆對(duì)個人信息安全的擔憂。就拿一個常見現象來說,當你第一次打開(kāi)一款APP時,總會彈出一份冗長(cháng)的“數據收集和隐私保護協議”。在絕大多數用戶看來,完整讀完這(zhè)份協議是一道(dào)難題,遑論讀懂。然而,如果你不點“已完成(chéng)閱讀并同意”,就無法使用APP。“說是給了用戶選擇權,但真正的選項隻有一個,這(zhè)不是霸王條款嗎?”筆者聽到過(guò)不少這(zhè)樣(yàng)的抱怨。
大量調查顯示,多數用戶在簽署各類智能(néng)平台收集數據的“同意書”時,并不清楚自己在同意什麼(me)。随著(zhe)AI技術被(bèi)不斷應用于各類手機APP,各大互聯網平台紛紛更新隐私保護政策,告知用戶將(jiāng)使用其個人信息以支持人工智能(néng)的開(kāi)發(fā)和優化。對(duì)用戶信息的收集都(dōu)包括什麼(me)呢?有人作了一些梳理,涵蓋通訊錄、相冊、定位等,甚至我們的聲音、指紋、臉部特征也在網羅之列。
這(zhè)還(hái)隻限于手機應用場景。有人對(duì)未來信息洩露風險作出更大膽的預測:隻要你進(jìn)入商場、飯店等商業公共場合,你的臉,你的聲音,你的衣服顔色,你的興趣愛好(hǎo)和行爲習慣,都(dōu)將(jiāng)暴露在空氣中。在AI眼裡(lǐ),你就是一個行走的“數據群”。試想,一旦這(zhè)種(zhǒng)情形變爲現實,將(jiāng)給個人信息安全帶來多大的隐患?
從全球範圍來看,人工智能(néng)侵犯隐私的案例已有不少。例如,一批匿名人士曾向(xiàng)世界最大的一家人工智能(néng)巨頭發(fā)起(qǐ)集體訴訟,指責它從互聯網上竊取和挪用了大量個人數據和信息來訓練AI工具。起(qǐ)訴書稱其“在用戶不知情的情況下,使用這(zhè)些‘竊取’來的信息”。不久前,北京互聯網法院宣判了中國(guó)首例AI聲音侵權案,原告因其聲音被(bèi)AI技術模仿并商業化使用而獲得勝訴。
中國(guó)有句老話:“晴帶雨傘,飽帶幹糧。”隻有未雨綢缪,才能(néng)爲AI長(cháng)遠發(fā)展奠定堅實基礎。解決AI信息保護問題的關鍵,是如何合理規範使用用戶數據。通俗來講,就是讓AI技術既在提供智能(néng)服務方面(miàn)“更懂你”,也要在個人信息識别上“不懂你”,掌握兩(liǎng)者之間的平衡。
在AI服務“更懂你”方面(miàn),業界已經(jīng)做了不少努力;在讓AI“不懂你”方面(miàn),還(hái)要繼續深化探索。目前,中國(guó)已出台了《生成(chéng)式人工智能(néng)服務管理暫行辦法》等規定,明确提出AI應用必須保護商業秘密、個人隐私等不受侵犯。同時,進(jìn)一步從服務規範和法律責任等具體方面(miàn)對(duì)生成(chéng)式人工智能(néng)服務作了規範。下一步,應繼續在頂層設計上跟進(jìn)AI技術發(fā)展,确立信息數據的收集、使用、消除等一系列具體條款。在此基礎上,還(hái)要在提升用戶素養上下功夫。社會需要普及各類信息保護的基本知識,提升用戶的安全意識。
有這(zhè)麼(me)一個故事(shì):一個年輕人和一位長(cháng)者過(guò)橋,年輕人問,我們走過(guò)時并沒(méi)有扶橋兩(liǎng)旁的護欄,要護欄有什麼(me)用呢?長(cháng)者說,沒(méi)有護欄,我們還(hái)能(néng)如此安然地從橋上經(jīng)過(guò)嗎?護欄給我們的不僅是安全,更是安全感。
當下的AI行業,正需要這(zhè)樣(yàng)的“護欄”。