日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

MIT新机器人“成精了” 能通过视觉和触觉识别事物

發布時間:2023/11/21 综合教程 58 生活家
生活随笔 收集整理的這篇文章主要介紹了 MIT新机器人“成精了” 能通过视觉和触觉识别事物 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.


MIT 新機器人項目領導者李云珠

  騰訊科技訊,6 月 17 日消息,據外媒報道,對于人類來說,很容易通過觀察某個物體來判斷其外觀,或者通過觸摸它來判斷它給人的感受,但是這對機器來說是可能是個巨大的挑戰。現在,美國麻省理工學院(MIT)計算機科學和人工智能實驗室(CSAIL)開發的一種新機器人,正試圖獲得人類的視覺和觸覺能力。

  CSAIL 團隊使用 KUKA 機器人手臂,并添加了一種名為 GelSight 的觸覺傳感器,該傳感器是由 CSAIL 下屬泰德·阿德爾森(Ted Adelson)團隊開發。GelSight 收集的信息會被傳輸給人工智能(AI),以便后者能夠理解視覺信息和觸覺信息之間的關系。

  為了教授 AI 如何通過觸摸來識別物體,CSAIL 團隊錄制了 12000 個視頻,記錄了 200 個物體,如織物、工具以及被觸摸的家居物品。這些視頻被分解成靜態圖像,AI 使用這個數據集來連接觸覺和視覺數據。

  CSAIL 博士生、關于該系統的新論文主要作者李云珠(音譯)表示:“通過觀察場景,我們的模型可以想象觸摸平面或鋒利邊緣的感覺。通過盲目的觸摸,我們的模型可以純粹通過觸覺來預測與環境的交互。將這兩種感覺結合起來,可以增強機器人的能力,減少我們在操作和抓取對象時可能需要的數據。”

  目前,機器人只能在受控環境中識別物體。下一步是建立更大的數據集,這樣機器人就可以在更不同的環境下工作。

  加州大學伯克利分校博士后安德魯·歐文斯(Andrew Owens)表示:“這種方法可能對機器人非常有用,因為它們需要回答這樣的問題:‘這個物體是硬的還是軟的?’或者‘如果我用手把這個杯子舉起來,我的抓力會有多好?’這些都是非常具有挑戰性的問題,因為信號是如此的不同,而 MIT 的模型已經顯示出很強的能力。”(騰訊科技審校/金鹿)

總結

以上是生活随笔為你收集整理的MIT新机器人“成精了” 能通过视觉和触觉识别事物的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。