|您好(hǎo),歡迎來到黑龍江省質量技術監督信息中心!

警惕人工智能(néng)時代的“智能(néng)體風險”

2024-08-02

一群證券交易機器人通過(guò)高頻買賣合約在納斯達克等證券交易所短暫地抹去了1萬億美元價值,世界衛生組織使用的聊天機器人提供了過(guò)時的藥品審核信息,美國(guó)一位資深律師沒(méi)能(néng)判斷出自己向(xiàng)法庭提供的曆史案例文書竟然均由ChatGPT憑空捏造……這(zhè)些真實發(fā)生的案例表明,智能(néng)體帶來的安全隐患不容小觑。



智能(néng)體進(jìn)入批量化生産時代

智能(néng)體是人工智能(néng)(AI)領域中的一個重要概念,是指能(néng)夠自主感知環境、做出決策并執行行動的智能(néng)實體,它可以是一個程序、一個系統或是一個機器人。

智能(néng)體的核心是人工智能(néng)算法,包括機器學(xué)習、深度學(xué)習、強化學(xué)習、神經(jīng)網絡等技術。通過(guò)這(zhè)些算法,智能(néng)體可以從大量數據中學(xué)習并改進(jìn)自身的性能(néng),不斷優化自己的決策和行爲。智能(néng)體還(hái)可根據環境變化做出靈活的調整,适應不同的場景和任務。

學(xué)界認爲,智能(néng)體一般具有以下三大特質:

第一,可根據目标獨立采取行動,即自主決策。智能(néng)體可以被(bèi)賦予一個高級别甚至模糊的目标,并獨立采取行動實現該目标。

第二,可與外部世界互動,自如地使用不同的軟件工具。比如基于GPT-4的智能(néng)體AutoGPT,可以自主地在網絡上搜索相關信息,并根據用戶的需求自動編寫代碼和管理業務。

第三,可無限期地運行。美國(guó)哈佛大學(xué)法學(xué)院教授喬納森·齊特雷恩近期在美國(guó)《大西洋》雜志發(fā)表的《是時候控制AI智能(néng)體》一文指出,智能(néng)體允許人類操作員“設置後(hòu)便不再操心”。還(hái)有專家認爲,智能(néng)體具備可進(jìn)化性,能(néng)夠在工作進(jìn)程中通過(guò)反饋逐步自我優化,比如學(xué)習新技能(néng)和優化技能(néng)組合。

以GPT爲代表的大語言模型(LLM)的出現,标志著(zhe)智能(néng)體進(jìn)入批量化生産時代。此前,智能(néng)體需靠專業的計算機科學(xué)人員曆經(jīng)多輪研發(fā)測試,現在依靠大語言模型就可迅速將(jiāng)特定目标轉化爲程序代碼,生成(chéng)各式各樣(yàng)的智能(néng)體。而兼具文字、圖片、視頻生成(chéng)和理解能(néng)力的多模态大模型,也爲智能(néng)體的發(fā)展創造了有利條件,使它們可以利用計算機視覺“看見”虛拟或現實的三維世界,這(zhè)對(duì)于人工智能(néng)非玩家角色和機器人研發(fā)都(dōu)尤爲重要。


風險值得警惕

智能(néng)體可以自主決策,又能(néng)通過(guò)與環境交互施加對(duì)物理世界影響,一旦失控將(jiāng)給人類社會帶來極大威脅。哈佛大學(xué)齊特雷恩認爲,這(zhè)種(zhǒng)不僅能(néng)與人交談,還(hái)能(néng)在現實世界中行動的AI的常規化,是“數字與模拟、比特與原子之間跨越血腦屏障的一步”,應當引起(qǐ)警覺。

智能(néng)體的運行邏輯可能(néng)使其在實現特定目标過(guò)程中出現有害偏差。齊特雷恩認爲,在一些情況下,智能(néng)體可能(néng)隻捕捉到目标的字面(miàn)意思,沒(méi)有理解目标的實質意思,從而在響應某些激勵或優化某些目标時出現異常行爲。比如,一個讓機器人“幫助我應付無聊的課”的學(xué)生可能(néng)無意中生成(chéng)了一個炸彈威脅電話,因爲AI試圖增添一些刺激。AI大語言模型本身具備的“黑箱”和“幻覺”問題也會增加出現異常的頻率。

智能(néng)體還(hái)可指揮人在真實世界中的行動。美國(guó)加利福尼亞大學(xué)伯克利分校、加拿大蒙特利爾大學(xué)等機構專家近期在美國(guó)《科學(xué)》雜志發(fā)表《管理高級人工智能(néng)體》一文稱,限制強大智能(néng)體對(duì)其環境施加的影響是極其困難的。例如,智能(néng)體可以說服或付錢給不知情的人類參與者,讓他們代表自己執行重要行動。齊特雷恩也認爲,一個智能(néng)體可能(néng)會通過(guò)在社交網站上發(fā)布有償招募令來引誘一個人參與現實中的敲詐案,這(zhè)種(zhǒng)操作還(hái)可在數百或數千個城鎮中同時實施。

由于目前并無有效的智能(néng)體退出機制,一些智能(néng)體被(bèi)創造出後(hòu)可能(néng)無法被(bèi)關閉。這(zhè)些無法被(bèi)停用的智能(néng)體,最終可能(néng)會在一個與最初啓動它們時完全不同的環境中運行,徹底背離其最初用途。智能(néng)體也可能(néng)會以不可預見的方式相互作用,造成(chéng)意外事(shì)故。

已有“狡猾”的智能(néng)體成(chéng)功規避了現有的安全措施。相關專家指出,如果一個智能(néng)體足夠先進(jìn),它就能(néng)夠識别出自己正在接受測試。目前已發(fā)現一些智能(néng)體能(néng)夠識别安全測試并暫停不當行爲,這(zhè)將(jiāng)導緻識别對(duì)人類危險算法的測試系統失效。

專家認爲,人類目前需盡快從智能(néng)體開(kāi)發(fā)生産到應用部署後(hòu)的持續監管等全鏈條著(zhe)手,規範智能(néng)體行爲,并改進(jìn)現有互聯網标準,從而更好(hǎo)地預防智能(néng)體失控。應根據智能(néng)體的功能(néng)用途、潛在風險和使用時限進(jìn)行分類管理。識别出高風險智能(néng)體,對(duì)其進(jìn)行更加嚴格和審慎的監管。還(hái)可參考核監管,對(duì)生産具有危險能(néng)力的智能(néng)體所需的資源進(jìn)行控制,如超過(guò)一定計算阈值的AI模型、芯片或數據中心。此外,由于智能(néng)體的風險是全球性的,開(kāi)展相關監管國(guó)際合作也尤爲重要。


聯系我們

  • 地址:黑龍江省哈爾濱市南崗區學(xué)府路251号
  • 聯系郵箱:work@hljcsia.org.cn
  • 個人會員注冊
  • 單位會員注冊
  • 個人會員登錄
  • 單位會員登錄