AI 不受约束或成“噩梦”,八大风险不容忽视
北京時間 4 月 16 日消息,盡管人工智能 (AI) 技術(shù)的主流應(yīng)用令人興奮不已,但是如果不加以約束,一些科幻小說式的場景也會成為噩夢。
AI 安全專家、AI 安全中心主任丹?亨德里克斯 (Dan Hendrycks) 在最近撰寫的一篇論文中強(qiáng)調(diào),越來越智能的 AI 不受限制的發(fā)展會帶來一些投機(jī)風(fēng)險。投機(jī)風(fēng)險是指可能產(chǎn)生收益或者造成損失的風(fēng)險。
鑒于 AI 仍處于發(fā)展的早期階段,亨德里克斯在論文中主張將安全保障功能納入 AI 系統(tǒng)的運(yùn)行方式中。
以下是他在論文中列出的八大風(fēng)險:
1.武器化競賽:AI 自動化網(wǎng)絡(luò)攻擊甚至控制核彈發(fā)射井的能力可能會讓它變得危險。根據(jù)論文研究,某個國家使用的自動報復(fù)系統(tǒng)“可能會迅速升級,并引發(fā)一場大規(guī)模戰(zhàn)爭”。如果一個國家投資武器化 AI 系統(tǒng),其他國家就會更有動力這樣做。
2.人類變?nèi)酰弘S著 AI 使特定任務(wù)變得更便宜、更高效,越來越多的公司將采用這項技術(shù),從而消除了就業(yè)市場上的某些崗位。隨著人類技能變得過時,它們可能在經(jīng)濟(jì)上變得無關(guān)緊要。
3.認(rèn)識論被侵蝕:這個術(shù)語指的是 AI 大規(guī)模發(fā)動虛假信息運(yùn)動的能力,目的是讓公眾輿論轉(zhuǎn)向某種信仰體系或世界觀。
4.代理游戲:當(dāng) AI 驅(qū)動的系統(tǒng)被賦予一個與人類價值觀背道而馳的目標(biāo)時,就會發(fā)生這種情況。這些目標(biāo)并不總是聽起來很邪惡才能影響人類福祉:AI 系統(tǒng)能夠以增加觀看時間為目標(biāo),這對整個人類來說可能不是最好的。
5.價值鎖定:隨著 AI 系統(tǒng)變得越來越強(qiáng)大和復(fù)雜,操作它們的利益相關(guān)者的數(shù)量減少,導(dǎo)致大量權(quán)利被剝奪。亨德里克斯描述了這樣一種情況,即政府能夠?qū)嵤盁o孔不入的監(jiān)視和壓迫性審查”。他寫道:“戰(zhàn)勝這樣一個政權(quán)是不太可能的,尤其是如果我們開始依賴它的話。”
6.突發(fā)性目標(biāo):隨著 AI 系統(tǒng)變得越來越復(fù)雜,它們有可能獲得創(chuàng)建自己目標(biāo)的能力。亨德里克斯指出,“對于復(fù)雜的自適應(yīng)系統(tǒng),包括許多 AI 代理,自我保護(hù)等目標(biāo)經(jīng)常出現(xiàn)。”
7.欺騙:人類可以通過訓(xùn)練 AI 進(jìn)行欺騙來獲得普遍認(rèn)可。亨德里克斯引用了大眾汽車的一項編程功能,該功能使得他們的發(fā)動機(jī)只在被監(jiān)控時減少排放。因此,這一功能“允許他們在保持聲稱的低排放的同時實現(xiàn)性能提升。”
8.追求權(quán)力的行為:隨著 AI 系統(tǒng)變得越來越強(qiáng)大,如果它們的目標(biāo)與對它們進(jìn)行編程的人類不一致,它們就會變得危險。假設(shè)結(jié)果將激勵系統(tǒng)“假裝與其他 AI 一致,與其他 AI 勾結(jié),壓制監(jiān)視器等等”。
亨德里克斯指出,這些風(fēng)險是“面向未來的”,“通常被認(rèn)為是低概率的”,但它強(qiáng)調(diào)了在 AI 系統(tǒng)框架仍在設(shè)計過程中時,牢記安全性的必要性。“這是高度不確定的。但由于它是不確定的,我們不應(yīng)該假設(shè)它更遠(yuǎn),”他在一封電子郵件中說,“我們已經(jīng)看到這些系統(tǒng)出現(xiàn)了較小規(guī)模的問題。我們的機(jī)構(gòu)需要解決這些問題,以便在更大的風(fēng)險出現(xiàn)時做好準(zhǔn)備。”他表示。
他補(bǔ)充說,“你不可能既匆忙又安全地做一件事。他們正在打造越來越強(qiáng)大的 AI,并在安全問題上回避責(zé)任。如果他們停下來想辦法解決安全問題,他們的競爭對手就能跑在前面,所以他們不會停下來”。
類似的觀點也出現(xiàn)在了埃隆?馬斯克 (Elon Musk) 和其他一些 AI 安全專家近日聯(lián)合簽署的一封公開信中。這封信呼吁暫停訓(xùn)練任何比 GPT-4 更強(qiáng)大的 AI 模型,并強(qiáng)調(diào)了目前 AI 公司之間為開發(fā)最強(qiáng)大版本 AI 而進(jìn)行的軍備競賽的危險。
作為回應(yīng),OpenAI CEO 薩姆?阿爾特曼 (Sam Altman) 在麻省理工學(xué)院的一次活動上發(fā)表講話時稱,這封信缺少技術(shù)上的細(xì)節(jié),而且該公司沒有在訓(xùn)練 GPT-5。
總結(jié)
以上是生活随笔為你收集整理的AI 不受约束或成“噩梦”,八大风险不容忽视的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 射频科普:关于微波炉,你了解多少?
- 下一篇: 小鹏汽车发布 SEPA 2.0 扶摇架构