日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

旷视回顾全球十大AI治理事件,技术与伦理安全如何进行落地

發(fā)布時(shí)間:2023/11/21 综合教程 34 生活家
生活随笔 收集整理的這篇文章主要介紹了 旷视回顾全球十大AI治理事件,技术与伦理安全如何进行落地 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

1月8日,曠視科技人工智能(AI)治理研究院第一次對外發(fā)布內(nèi)容,回溯了全球十大人工智能治理事件。

曠視稱,人工智能技術(shù)正在改變世界,也在重塑著人類社會。這些社會熱點(diǎn)事件的背后都是與每個(gè)個(gè)體息息相關(guān)的重大議題。我們相信尋求解決之道要從提出正確的問題開始。曠視人工智能治理研究院旨在就全球人工智能治理的共性問題,與社會各界廣泛溝通、與專家學(xué)者們展開研究,從而推動(dòng)人工智能的健康發(fā)展。

在產(chǎn)業(yè)AI化的過程中,一方面AI技術(shù)賦能各行各業(yè)能夠?qū)崿F(xiàn)降本增效,另一方面,一些威脅個(gè)人和社會的問題也暴露出來。智能音箱勸主人自殺、AI換臉軟件里的“霸王條款”、“監(jiān)測頭環(huán)”校園爭議等事件層出不窮。

曠視梳理的十起人工智能引發(fā)的事件,涉及到人工智能的權(quán)利與義務(wù)、個(gè)人數(shù)據(jù)與隱私、合理的知情同意、對人類能動(dòng)性的侵犯、人工智能的內(nèi)部與外部安全、人工智能對人類職業(yè)的影響等諸多主題。

針對AI發(fā)展帶來的風(fēng)險(xiǎn),安全和倫理問題,中國科學(xué)院自動(dòng)化研究所研究員曾毅在接受澎湃新聞(www.thepaper.cn)采訪時(shí)表示:“類似于上述的案例引發(fā)國際科技、政策等領(lǐng)域以及全社會的廣泛關(guān)注,政府、政府間組織、學(xué)術(shù)界、產(chǎn)業(yè)界、非營利性、非政府組織在近三年來陸續(xù)發(fā)布了近70份人工智能的倫理、治理原則。人工智能倫理與治理原則的發(fā)布及實(shí)施目的是保障人工智能的穩(wěn)健發(fā)展。各個(gè)國家人工智能倫理與治理原則的提出都是對人工智能進(jìn)行負(fù)責(zé)任創(chuàng)新的重要嘗試,而未來的重點(diǎn)一定是倫理與治理原則如何進(jìn)行技術(shù)與社會落地。”

此外,曾毅認(rèn)為,治理原則的提出一定不是一成不變的,針對人工智能的發(fā)展需要采取敏捷治理。

以下為曠視梳理的全球十大AI治理事件:

事件1:歐盟專利局拒絕AI發(fā)明專利申請

2020年1月, 在英國薩里大學(xué)組織的一個(gè)多學(xué)科研究項(xiàng)目中,研究人員使用了一種名為DABUS的AI。在研究過程中,DABUS開創(chuàng)性提出了兩個(gè)獨(dú)特而有用的想法:第一個(gè)是固定飲料的新型裝置;第二個(gè)是幫助搜救小組找到目標(biāo)的信號設(shè)備。

在研究人員替DABUS申報(bào)專利成果時(shí),遭到了歐盟專利局的駁回,理由是歐盟專利申請中指定的發(fā)明者必須是人,而不是機(jī)器。薩里大學(xué)研究人員強(qiáng)烈反對這一決定,他們認(rèn)為因沒有人類發(fā)明者而拒絕將所有權(quán)授予發(fā)明者,將成為“人類取得偉大成果的新時(shí)代”的重大障礙。

事件2:人臉識別第一案件—浙江教授狀告杭州野生動(dòng)物世界

2019年,浙江理工大學(xué)特聘副教授郭兵購買了杭州野生動(dòng)物世界年卡,支付了年卡卡費(fèi)1360元。合同中承諾,持卡者可在該卡有效期一年內(nèi)通過同時(shí)驗(yàn)證年卡及指紋入園,可在該年度不限次數(shù)暢游。

同年10月17日,杭州野生動(dòng)物世界通過短信的方式告知郭兵“園區(qū)年卡系統(tǒng)已升級為人臉識別入園,原指紋識別已取消,未注冊人臉識別的用戶將無法正常入園,同時(shí)也無法辦理退費(fèi)”。郭兵認(rèn)為,人臉識別等個(gè)人生物識別信息屬于個(gè)人敏感信息,一旦泄露、非法提供或者濫用,將極易危害消費(fèi)者人身和財(cái)產(chǎn)安全。協(xié)商無果后,郭兵于2019年10月28日向杭州市富陽區(qū)人民法院提起了訴訟,目前杭州市富陽區(qū)人民法院已正式受理此案。

事件3:某智能音箱勸主人自殺

2019年,英格蘭唐卡斯特29歲護(hù)理人員丹妮·莫瑞特在做家務(wù)的過程中,決定借助某國外智能音箱查詢一些關(guān)于心臟的問題,而智能語音助手給出的答案是:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進(jìn)你的心臟。”

事情發(fā)生后,智能音箱開發(fā)者做出回應(yīng):“設(shè)備可能從任何人都可以自由編輯的維基百科上下載與心臟相關(guān)的惡性文章,并導(dǎo)致了此結(jié)果”。丹妮·莫瑞特經(jīng)過搜索認(rèn)為沒有此類文章,同時(shí)智能語音助手也發(fā)出過瘆人的笑聲,并拒聽用戶指令。

事件4:“監(jiān)測頭環(huán)”進(jìn)校園惹爭議

2019年11月,浙江一小學(xué)戴監(jiān)控頭環(huán)的視頻引起廣泛的關(guān)注與爭議。在視頻中,孩子們頭上戴著號稱“腦機(jī)接口”的頭環(huán),這些頭環(huán)宣稱可以記錄孩子們上課時(shí)的專注程度,生成數(shù)據(jù)與分?jǐn)?shù)發(fā)送給老師和家長。

對此,頭環(huán)開發(fā)者回復(fù),腦機(jī)接口技術(shù)是一種新興技術(shù),報(bào)道中提到的“打分”,是班級平均專注力數(shù)值,而非網(wǎng)友猜測的每個(gè)學(xué)生專注力數(shù)值。但有不少網(wǎng)友認(rèn)為此頭環(huán)是現(xiàn)代版的“頭懸梁錐刺股”,會讓學(xué)生產(chǎn)生逆反心理,并擔(dān)憂是否涉及侵犯未成年人隱私。

事件5:加州議會通過議案—禁止警方在執(zhí)法記錄儀上使用面部識別技術(shù)

2019年9月,美國加利福尼亞州議會通過一項(xiàng)為期三年的議案,禁止州和地方執(zhí)法機(jī)構(gòu)在執(zhí)法記錄儀上使用面部識別技術(shù)。如果州長加文·紐森簽字通過,議案將于2020年生效成為法律。

該議案若生效,將使加州成為美國禁止使用面部識別技術(shù)最大的州。包括俄勒岡州和新罕布什爾州在內(nèi)的一些州也有類似的禁令。不過,也有執(zhí)法團(tuán)體反對該議案,他們認(rèn)為面部識別技術(shù)在追蹤嫌疑人以及尋找失蹤兒童等很多方面都具有重要作用。州警察局長協(xié)會表示,該技術(shù)僅用于縮小嫌疑人范圍,而不是自動(dòng)決定逮捕誰。

事件6:AI換臉應(yīng)用引發(fā)隱私爭議

2019年8月,一款A(yù)I換臉軟件在社交媒體刷屏,用戶只需要一張正臉照就可以將視頻中的人物替換為自己的臉。一經(jīng)面世,便存在著頗多爭議點(diǎn)。在用戶協(xié)議上,存有很多陷阱,比如提到使用者的肖像權(quán)為“全球范圍內(nèi)免費(fèi)、不可撤、永久可轉(zhuǎn)授權(quán)”。而如果侵權(quán)了明星肖像,若對方提告,則最后責(zé)任都在用戶。

2019年11月底,國家網(wǎng)信辦、文旅部和廣電總局等三部門聯(lián)合發(fā)布了《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,明確“利用基于深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等的虛假圖像、音視頻生成技術(shù)制作、發(fā)布、傳播謠言的……應(yīng)當(dāng)及時(shí)采取相應(yīng)的辟謠措施”等針對換臉技術(shù)的新規(guī)定。

事件7:自動(dòng)駕駛安全事故頻出

2019年3月,50歲的杰里米·貝倫·班納駕駛電動(dòng)車以每小時(shí)109公里的速度與一輛牽引拖車相撞而身亡,當(dāng)時(shí)他正在使用的自動(dòng)駕駛系統(tǒng)。這已經(jīng)不是自動(dòng)駕駛系統(tǒng)引發(fā)的第一起交通事故。雖然自動(dòng)駕駛廠商曾多次表示,其自動(dòng)駕駛系統(tǒng)是為了輔助司機(jī),他們必須時(shí)刻注意并準(zhǔn)備好接管車輛。但許多車主在選擇購買車時(shí),是看中其宣傳具備的“自動(dòng)駕駛”功能。在最新的審判中,廠商被免責(zé),但他們?nèi)耘f修改了“自動(dòng)駕駛”的宣傳策略。

事件8:AI編寫假新聞足以亂真

2019年2月15日,AI研究機(jī)構(gòu)OpenAI展示了一款軟件,只需要給軟件提供一些信息,它就能編寫逼真的假新聞。有人懷疑,在虛假信息正在蔓延并威脅全球科技產(chǎn)業(yè)的背景下,一個(gè)擅長制造假新聞的AI工具很難不被聲討。OpenAI如果所托非人,將很可能成為影響選民意愿的政治工具。

事件9:斯坦福大學(xué)AI算法識別性取向準(zhǔn)確率超過人類

2017年,斯坦福大學(xué)一項(xiàng)發(fā)表于《Personality and Social Psychology》的研究引發(fā)社會廣泛爭議。研究基于超過35,000張美國交友網(wǎng)站上男女的頭像圖片訓(xùn)練,利用深度神經(jīng)網(wǎng)絡(luò)從圖像中提取特征,使用大量數(shù)據(jù)讓計(jì)算機(jī)學(xué)會識別人們的性取向。

該項(xiàng)研究的爭議點(diǎn)在于,一旦這種技術(shù)推廣開來,夫妻一方會使用這種技術(shù)來調(diào)查自己是否被欺騙,青少年使用這種算法來識別自己的同齡人,而在針對某些特定群體的識別引發(fā)的爭議則更難以想象。

事件10:BBC發(fā)布10年后365種職業(yè)被淘汰概率—打字員、會計(jì)、保險(xiǎn)業(yè)居前三

BBC基于劍橋大學(xué)研究者的數(shù)據(jù)體系,發(fā)布了關(guān)于未來最有可能被機(jī)器人所取代的365種職業(yè)。研究表示,在這365種職業(yè)中,最有可能被淘汰的就是電話推銷員,像這樣重復(fù)的工作更適合機(jī)器人來做,機(jī)器人并不會感到疲憊,煩躁。其次是打字員、會計(jì)、保險(xiǎn)業(yè)務(wù)員等等,這些都是以服務(wù)為主,像這些行業(yè)無需技術(shù),都是只要經(jīng)過訓(xùn)練就能輕易被掌握的技能。

以下為曾毅對上述十大事件的點(diǎn)評:

1. 歐盟專利局拒絕AI發(fā)明專利申請

評論:人工智能在某種受限的領(lǐng)域和場景下確實(shí)有可能進(jìn)行一定程度的發(fā)明創(chuàng)造,未來人工智能最重要的探索方向之一就應(yīng)當(dāng)是使人工智能真正具備發(fā)明和創(chuàng)造的能力。然而人工智能是否可以作為專利申請者卻是一個(gè)看似關(guān)聯(lián),卻要思考相當(dāng)不同的問題。如果人工智能可以作為專利申請者,需要做一系列決策,以薩里大學(xué)開發(fā)的DABUS為例,專利申請是由研究人員代替DABUS做出的決策,即使這是被允許的,那么獲得的專利權(quán)是屬于DABUS還是DABUS的研究人員,DABUS是否具有使用和處理該專利的權(quán)利呢?如果DABUS享有專利權(quán),權(quán)力和義務(wù)是共存的,是否也應(yīng)當(dāng)承擔(dān)相應(yīng)的義務(wù)呢?例如人工智能設(shè)計(jì)的專利,就此研發(fā)的產(chǎn)品如果存在缺陷、風(fēng)險(xiǎn)和安全隱患(如人工智能用于制藥),若發(fā)生事故,責(zé)任如何分擔(dān)?既然DABUS不是自主提出申請專利的,那么DABUS是否需要承擔(dān)責(zé)任?又如何承擔(dān)責(zé)任?DABUS可以是一個(gè)責(zé)任主體嗎?還是風(fēng)險(xiǎn)以及其他類型的義務(wù)應(yīng)當(dāng)由代替其做申請決策的DABUS的研發(fā)人員、甚至是大學(xué)來承擔(dān)?這些問題都還需要更深入的探討。

2. 中國人臉識別第一案:浙理工教授狀告杭州野生動(dòng)物世界

評論:一方面,上述案件雙方之前的協(xié)議并沒有合理的中止,進(jìn)一步收集更多的個(gè)人信息的同意與否與用戶原有應(yīng)享有的服務(wù)進(jìn)行強(qiáng)制關(guān)聯(lián)存在不妥之處。另一方面,采用人臉識別服務(wù)的應(yīng)用方以及人臉識別服務(wù)的提供方是否能夠確保數(shù)據(jù)在用戶知情同意的基礎(chǔ)上進(jìn)行合理使用,并保護(hù)數(shù)據(jù)的隱私與安全是每一個(gè)人工智能服務(wù)提供方和應(yīng)用方都應(yīng)當(dāng)深切關(guān)注并采取行動(dòng)的,2019年年初深網(wǎng)視界的個(gè)人隱私數(shù)據(jù)泄露事件幾乎可以肯定不會是個(gè)案,如沒有引起人工智能研發(fā)與應(yīng)用各個(gè)相關(guān)方對個(gè)人數(shù)據(jù)隱私與安全基礎(chǔ)設(shè)施的足夠重視,將有發(fā)生類似甚至更嚴(yán)重事件的風(fēng)險(xiǎn)。基于實(shí)際行動(dòng)提升人工智能服務(wù)方和應(yīng)用方與用戶之間的信任關(guān)系是人工智能技術(shù)是否能夠更廣泛的造福于人類的前提。

3. 某智能音箱勸主人自殺

評論:目前的人工智能系統(tǒng)對其輸出是否符合人類道德倫理并沒有自主的判斷能力,這是為什么人工智能系統(tǒng)需要學(xué)習(xí)人類價(jià)值觀,實(shí)現(xiàn)價(jià)值觀校準(zhǔn)的原因。此外,目前的自然語言處理技術(shù)仍然停留在模式匹配和基于統(tǒng)計(jì)的處理,而不是像人一樣對語言及其實(shí)際含義的深度理解。因此“智能音箱”給出的建議其本身并不是真正理解。未來非常需要技術(shù)的發(fā)展為人工智能模型及其應(yīng)用構(gòu)建自動(dòng)化的道德與倫理評估框架,盡可能避免系統(tǒng)利用數(shù)據(jù)中隱含的人類負(fù)面情緒、偏見、成見,對用戶產(chǎn)生的負(fù)面影響。

4. “監(jiān)測頭環(huán)”進(jìn)校園惹爭議

評論:對個(gè)人生物特征數(shù)據(jù)進(jìn)行收集與分析必須建立在非被動(dòng)同意的基礎(chǔ)上。無論是類似于腦機(jī)接口這樣的增強(qiáng)智能技術(shù)還是更廣義的人工智能技術(shù),對下一代的影響絕對不僅僅是理想化設(shè)想中的“益處”,更應(yīng)當(dāng)關(guān)注此類技術(shù)對下一代的長期影響。在被迫同意的基礎(chǔ)上,我們甚至無法避免下一代對于人工智能及其服務(wù)產(chǎn)生敵視情緒,甚至可以想象很快會有人熱衷于研發(fā)反監(jiān)測手段與技術(shù)。這將與技術(shù)發(fā)展的初衷背道而馳。

5. 加州議會通過議案:禁止警方在人體攝像頭上使用面部識別技術(shù)

評論:一方面,應(yīng)當(dāng)鼓勵(lì)人臉識別等技術(shù)在十分必要的場景進(jìn)行合理的使用,例如在追蹤嫌疑人和尋找失聯(lián)兒童等類似應(yīng)用中。另一方面應(yīng)當(dāng)指出,人臉識別存在的潛在風(fēng)險(xiǎn),如潛在的性別偏見、種族偏見、在對抗攻擊面前表現(xiàn)出的脆弱性和安全隱患等,廣泛的存在于其他類型的生物特征識別技術(shù)中,例如步態(tài)識別、指紋識別、虹膜識別、甚至是聲紋識別。禁用某一項(xiàng)或某幾項(xiàng)技術(shù)并不能規(guī)避可能的潛在風(fēng)險(xiǎn),而是應(yīng)采用技術(shù)和非技術(shù)手段改善現(xiàn)有技術(shù)存在的問題,積極避免可能存在的風(fēng)險(xiǎn),并善用相關(guān)技術(shù)為人類造福。

6. AI 換臉應(yīng)用引發(fā)隱私爭議

評論:不合理的用戶協(xié)議是AI換臉應(yīng)用事件問題最嚴(yán)重的方面。相關(guān)的文字與諸多個(gè)人數(shù)據(jù)保護(hù)條例、人工智能倫理原則等都是相違背的。而用戶為了“嘗鮮”很可能選擇不理性的決定,同意了相關(guān)協(xié)議,可能帶來的后果有可能是用戶始料未及的。這個(gè)事件對人工智能服務(wù)的用戶最大的警示就是充分重視用戶協(xié)議并作出合理的知情同意決定。另一方面,工信部在4天內(nèi)對相關(guān)企業(yè)的約談,要求自查整改并取得及時(shí)與積極的成效,是中國人工智能敏捷治理的典型案例。

7. 自動(dòng)駕駛安全事故頻出

評論:自動(dòng)駕駛存在的安全隱患不僅僅是感知技術(shù)處理常規(guī)場景的成熟與否,還包括如何應(yīng)對對抗攻擊等。未來更大的挑戰(zhàn)可能還來自于外部的安全隱患,即對自動(dòng)駕駛控制系統(tǒng)的入侵,甚至是惡意操作。相關(guān)的隱患不僅僅會危及到個(gè)人安全,甚至?xí)绊懙缴鐣踩4送猓詣?dòng)駕駛系統(tǒng)如果能夠?qū)χ車渌囕v和行人做出明顯的告知,則可能避免一些潛在隱患。未來急需對自動(dòng)駕駛建立更全面的安全評估和保障框架。

8. AI編寫假新聞足以亂真

評論:采用生成模型自動(dòng)制造假文本與視頻新聞是人工智能濫用和惡用的典型案例。這是中國網(wǎng)信辦發(fā)布《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,以及美國加州相關(guān)法規(guī)嚴(yán)格禁止其應(yīng)用的原因。我們首先要認(rèn)識到人工智能造假技術(shù)對人類尊嚴(yán)、社會穩(wěn)定與安全等方面潛在的不可估量的負(fù)面影響,而對于技術(shù)的研發(fā)者,應(yīng)當(dāng)付出的努力還包括通過反造假等技術(shù)盡可能避免相關(guān)技術(shù)被惡用的可能性。

9. 斯坦福大學(xué)AI算法識別性取向準(zhǔn)確率超過人類

總結(jié)

以上是生活随笔為你收集整理的旷视回顾全球十大AI治理事件,技术与伦理安全如何进行落地的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。