首頁(yè)>要論>微言大義
警惕人工智能時(shí)代的“智能體風(fēng)險(xiǎn)”
一群證券交易機(jī)器人通過(guò)高頻買賣合約在納斯達(dá)克等證券交易所短暫地抹去了1萬(wàn)億美元價(jià)值,世界衛(wèi)生組織使用的聊天機(jī)器人提供了過(guò)時(shí)的藥品審核信息,美國(guó)一位資深律師沒(méi)能判斷出自己向法庭提供的歷史案例文書(shū)竟然均由ChatGPT憑空捏造……這些真實(shí)發(fā)生的案例表明,智能體帶來(lái)的安全隱患不容小覷。
智能體是人工智能(AI)領(lǐng)域中的一個(gè)重要概念,是指能夠自主感知環(huán)境、做出決策并執(zhí)行行動(dòng)的智能實(shí)體,它可以是一個(gè)程序、一個(gè)系統(tǒng)或是一個(gè)機(jī)器人。
智能體的核心是人工智能算法,包括機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等技術(shù)。通過(guò)這些算法,智能體可以從大量數(shù)據(jù)中學(xué)習(xí)并改進(jìn)自身的性能,不斷優(yōu)化自己的決策和行為。智能體還可根據(jù)環(huán)境變化做出靈活的調(diào)整,適應(yīng)不同的場(chǎng)景和任務(wù)。
學(xué)界認(rèn)為,智能體一般具有以下三大特質(zhì):
第一,可根據(jù)目標(biāo)獨(dú)立采取行動(dòng),即自主決策。智能體可以被賦予一個(gè)高級(jí)別甚至模糊的目標(biāo),并獨(dú)立采取行動(dòng)實(shí)現(xiàn)該目標(biāo)。
第二,可與外部世界互動(dòng),自如地使用不同的軟件工具。比如基于GPT-4的智能體AutoGPT,可以自主地在網(wǎng)絡(luò)上搜索相關(guān)信息,并根據(jù)用戶的需求自動(dòng)編寫代碼和管理業(yè)務(wù)。
第三,可無(wú)限期地運(yùn)行。美國(guó)哈佛大學(xué)法學(xué)院教授喬納森·齊特雷恩近期在美國(guó)《大西洋》雜志發(fā)表的《是時(shí)候控制AI智能體》一文指出,智能體允許人類操作員“設(shè)置后便不再操心”。還有專家認(rèn)為,智能體具備可進(jìn)化性,能夠在工作進(jìn)程中通過(guò)反饋逐步自我優(yōu)化,比如學(xué)習(xí)新技能和優(yōu)化技能組合。
以GPT為代表的大語(yǔ)言模型(LLM)的出現(xiàn),標(biāo)志著智能體進(jìn)入批量化生產(chǎn)時(shí)代。此前,智能體需靠專業(yè)的計(jì)算機(jī)科學(xué)人員歷經(jīng)多輪研發(fā)測(cè)試,現(xiàn)在依靠大語(yǔ)言模型就可迅速將特定目標(biāo)轉(zhuǎn)化為程序代碼,生成各式各樣的智能體。而兼具文字、圖片、視頻生成和理解能力的多模態(tài)大模型,也為智能體的發(fā)展創(chuàng)造了有利條件,使它們可以利用計(jì)算機(jī)視覺(jué)“看見(jiàn)”虛擬或現(xiàn)實(shí)的三維世界,這對(duì)于人工智能非玩家角色和機(jī)器人研發(fā)都尤為重要。
智能體可以自主決策,又能通過(guò)與環(huán)境交互施加對(duì)物理世界影響,一旦失控將給人類社會(huì)帶來(lái)極大威脅。哈佛大學(xué)齊特雷恩認(rèn)為,這種不僅能與人交談,還能在現(xiàn)實(shí)世界中行動(dòng)的AI的常規(guī)化,是“數(shù)字與模擬、比特與原子之間跨越血腦屏障的一步”,應(yīng)當(dāng)引起警覺(jué)。
智能體的運(yùn)行邏輯可能使其在實(shí)現(xiàn)特定目標(biāo)過(guò)程中出現(xiàn)有害偏差。齊特雷恩認(rèn)為,在一些情況下,智能體可能只捕捉到目標(biāo)的字面意思,沒(méi)有理解目標(biāo)的實(shí)質(zhì)意思,從而在響應(yīng)某些激勵(lì)或優(yōu)化某些目標(biāo)時(shí)出現(xiàn)異常行為。比如,一個(gè)讓機(jī)器人“幫助我應(yīng)付無(wú)聊的課”的學(xué)生可能無(wú)意中生成了一個(gè)炸彈威脅電話,因?yàn)锳I試圖增添一些刺激。AI大語(yǔ)言模型本身具備的“黑箱”和“幻覺(jué)”問(wèn)題也會(huì)增加出現(xiàn)異常的頻率。
智能體還可指揮人在真實(shí)世界中的行動(dòng)。美國(guó)加利福尼亞大學(xué)伯克利分校、加拿大蒙特利爾大學(xué)等機(jī)構(gòu)專家近期在美國(guó)《科學(xué)》雜志發(fā)表《管理高級(jí)人工智能體》一文稱,限制強(qiáng)大智能體對(duì)其環(huán)境施加的影響是極其困難的。例如,智能體可以說(shuō)服或付錢給不知情的人類參與者,讓他們代表自己執(zhí)行重要行動(dòng)。齊特雷恩也認(rèn)為,一個(gè)智能體可能會(huì)通過(guò)在社交網(wǎng)站上發(fā)布有償招募令來(lái)引誘一個(gè)人參與現(xiàn)實(shí)中的敲詐案,這種操作還可在數(shù)百或數(shù)千個(gè)城鎮(zhèn)中同時(shí)實(shí)施。
由于目前并無(wú)有效的智能體退出機(jī)制,一些智能體被創(chuàng)造出后可能無(wú)法被關(guān)閉。這些無(wú)法被停用的智能體,最終可能會(huì)在一個(gè)與最初啟動(dòng)它們時(shí)完全不同的環(huán)境中運(yùn)行,徹底背離其最初用途。智能體也可能會(huì)以不可預(yù)見(jiàn)的方式相互作用,造成意外事故。
已有“狡猾”的智能體成功規(guī)避了現(xiàn)有的安全措施。相關(guān)專家指出,如果一個(gè)智能體足夠先進(jìn),它就能夠識(shí)別出自己正在接受測(cè)試。目前已發(fā)現(xiàn)一些智能體能夠識(shí)別安全測(cè)試并暫停不當(dāng)行為,這將導(dǎo)致識(shí)別對(duì)人類危險(xiǎn)算法的測(cè)試系統(tǒng)失效。
專家認(rèn)為,人類目前需盡快從智能體開(kāi)發(fā)生產(chǎn)到應(yīng)用部署后的持續(xù)監(jiān)管等全鏈條著手,規(guī)范智能體行為,并改進(jìn)現(xiàn)有互聯(lián)網(wǎng)標(biāo)準(zhǔn),從而更好地預(yù)防智能體失控。應(yīng)根據(jù)智能體的功能用途、潛在風(fēng)險(xiǎn)和使用時(shí)限進(jìn)行分類管理。識(shí)別出高風(fēng)險(xiǎn)智能體,對(duì)其進(jìn)行更加嚴(yán)格和審慎的監(jiān)管。還可參考核監(jiān)管,對(duì)生產(chǎn)具有危險(xiǎn)能力的智能體所需的資源進(jìn)行控制,如超過(guò)一定計(jì)算閾值的AI模型、芯片或數(shù)據(jù)中心。此外,由于智能體的風(fēng)險(xiǎn)是全球性的,開(kāi)展相關(guān)監(jiān)管國(guó)際合作也尤為重要。
編輯:崔姝音