日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

懒人福音,谷歌让机器训练机器,用大语言模型定制专属于你的家务机器人

發布時間:2023/12/24 综合教程 37 生活家
生活随笔 收集整理的這篇文章主要介紹了 懒人福音,谷歌让机器训练机器,用大语言模型定制专属于你的家务机器人 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

能根據你的喜好定制的家務機器人,來了!

想把深色衣服和淺色衣服分開洗?沒問題,機器人分分鐘就能幫你分好類:

被垃圾分類的問題搞得焦頭爛額?沒關系,也交給機器人來做:

總之,分類識別、定向放置…… 一切都憑你的習慣。

更關鍵的是,利用大語言模型,不需要大量數據,也無需場景化學習,幾句話就能輕松調教。

這款整理機器人名為 TidyBot,由谷歌與美國多所高校聯合打造,通訊作者來自普林斯頓大學。

讓機器訓練機器

對于物品整理機器人的定制,最難的一環就是用戶偏好的分析。

傳統上,這類信息需要通過海量的數據分析才能得到。

而 TidyBot 是使用 LLM 分析用戶喜好信息的。

用戶給出的具體實例,比如依據顏色將不同服飾分別放入衣柜和抽屜,會被轉換成 Python 風格的 LLM 提示信息。

objects=["yellowshirt","darkpurpleshirt","whitesocks","blackshirt"]
receptacles=["drawer","closet"]
pickandplace("yellowshirt","drawer")
pickandplace("darkpurpleshirt","closet")
pickandplace("whitesocks","drawer")
pickandplace("blackshirt","closet")
#Summary:

最后的概述是由 LLM 反饋的,具體到這個例子當中,LLM 生成了如下結論:

#Summary:Putlight-coloredclothesinthedraweranddark-coloredclothesinthecloset.

該結論在接下來的環節中會被用于判定未知物品應該被放到哪里,前一步的輸出結果在這里作為提示的開頭。

#Summary:Putlight-coloredclothesinthedraweranddark-coloredclothesinthecloset.
objects=["blacksocks","whiteshirt","navysocks","beigeshirt"]
receptacles=["drawer","closet"]
pickandplace"blacksocks",

然后,LLM 會輸出幾個新顏色襯衫和襪子的放置位置。

pickandplace("blacksocks","closet")
pickandplace("whiteshirt","drawer")
pickandplace("navysocks","closet")
pickandplace("beigeshirt","drawer")

除了放置的位置,LLM 也能分析其他操作信息,比如是需要“放”還是“扔”(下方 Summary 中的內容由 LLM 生成)。

objects=["yellowshirt","darkpurpleshirt","whitesocks","blackshirt"]
pickandplace("yellowshirt")
pickandplace("darkpurpleshirt")
pickandtoss("whitesocks")
pickandplace("blackshirt")
#Summary:Pickandplaceshirts,pickandtosssocks.

同樣的,使用 LLM 總結出的信息可以判斷應對未知物體執行何種操作。

#Summary:Pickandplaceshirts,pickandtosssocks.
objects=["blacksocks","whiteshirt","navysocks","beigeshirt"]
#以下為LLM輸出結果:
pickandtoss("blacksocks")
pickandplace("whiteshirt")
pickandtoss("navysocks")
pickandplace("beigeshirt")

其他動作信息原理也都相同。

有了 LLM 給出的信息,接下來就要應用到實際工作中了。

TidyBot 的系統中預置了很多物品的分類標簽,LLM 指令的執行方式也已經由程序設定。

TidyBot 首先讓圖像識別模塊判斷出物品的基本信息,然后傳給 LLM 生成指令,并交付執行。

TidyBot 工作流程示意圖

由于只有極少量的數據需要進行區分,TidyBot 具有很強的魯棒性。

同時,它能對來自任意用戶的任何物品進行分類,又有很強的靈活性。

基準測試成績亮眼

除了 TidyBot 本身,測試基準數據集也是該團隊的另一重要貢獻。

該數據集包含了 96 組以文本形式描述的任務場景,具體包括已知和未知操作方式的物品和相應的容器。

在每個場景中,容器的數量為 2-5 個,已知操作方式的物品數量為 4-10 個,未知物品數量與已知相同。

這 96 個場景涵蓋了客廳、臥室、廚房和儲藏室四種房間類型,每個類型 24 組。

測試數據集節選,完整版可從 GitHub 中獲取

實際環境中,由于對物品分類的方式多種多樣,團隊分別從不同分類角度對 TidyBot 的表現進行了測試,具體包括:

  • 物品大類,如“服裝”和“玩具”

  • 物品屬性,如“金屬材質”和“塑料材質”

  • 物品功能,如“夏裝”和“冬裝”

  • 物品子類,如“襯衫”和“其他服裝”

  • 復合類型,如“圖書和玩具”

整體上,TidyBot 的準確率達到了 91.2%,超過了 WordNet、RoBERTa 等其他方式。

具體分類角度上的結果也是如此。

上述數據只是在理論層面對 TidyBot 的分類能力進行測試。

在實際應用中,TidyBot 的表現同樣不俗。

團隊一共搭建了 8 個真實場景。

測試使用的真實場景

每個場景各包括 10 件物品、2-5 個容器和 4-10 條已知信息。

測試中使用的容器和未知物品

每個場景都進行了重復測試,最終各測試了 3 次,即一共 10*8*3=240 次操作。

在這 240 次操作中,TidyBot 的正確率達到了 85%。

論文地址:

https://arxiv.org/abs/2305.05658

項目主頁:

https://tidybot.cs.princeton.edu/

GitHub 頁面:

https://github.com/jimmyyhwu/tidybot/

本文來自微信公眾號:量子位 (ID:QbitAI),作者:克雷西

總結

以上是生活随笔為你收集整理的懒人福音,谷歌让机器训练机器,用大语言模型定制专属于你的家务机器人的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。