<table id="z5u38"><ruby id="z5u38"></ruby></table>
  • <td id="z5u38"></td>

    <table id="z5u38"></table>
    <acronym id="z5u38"><label id="z5u38"><xmp id="z5u38"></xmp></label></acronym>
    <table id="z5u38"><strike id="z5u38"></strike></table>
    <p id="z5u38"><del id="z5u38"></del></p>
    1. 斯坦?;鸨槿W的做菜機器人,原來還得靠遙控。。。

      原標題:斯坦?;鸨槿W的做菜機器人,原來還得靠遙控。。。

      見過機器人在工廠擰螺絲,那大伙兒見過在家里炒菜的機器人嗎?

      相信有不少差友,在幾天前就已經刷到了一個機器人下廚的視頻了吧。

      撕開生菜包裝,切菜,打雞蛋,一套操作行云流水,它甚至還會在往鍋里倒青菜的時候,拿鍋蓋來擋一下。

      不瞞大伙兒說,世超看到視頻的第一反應是:?????

      我對機器人做飯的印象,還停留在食堂里的那個刀削面機器人。

      像視頻里這種跟人類無異的操作,如果不是親眼所見,或許沒人敢相信這是一個機器人干的。

      這個機器人,就是斯坦福大學的 Mobile ALOHA 機器人項目。

      根據項目負責人發布的視頻,除了會做飯以外, ALOHA 機器人還精通各種家務。

      澆花逗貓煮咖啡,擦地洗碗疊被洗衣服,這些家務活兒完全不在話下。

      特別是套枕套最后抖那倆下,我仿佛看到了我本人。。。

      反正視頻發出來之后,在國內外引起了不小的熱度。

      網友熱評, “ 只要這玩意兒不會趁我睡著的時候殺了我,我真的很需要它 ”“ 下次如果家里人再催結婚生孩子,就把視頻發到家族群里。 ”

      但,也有人質疑視頻經過了加速和剪輯處理,就像上次谷歌發布的 Gemini 演示視頻那樣,是真是假還有待證明。

      很快,網上就流傳出了 ALOHA 機器人翻車的視頻。

      一言不合就打碎酒杯和餐盤、識別不清障礙物撞上柜子、把鍋燒糊...

      智能程度跟前幾天視頻里靈活的機器人相比,簡直判若兩 “ 機 ” 。

      有意思的是,這個視頻的爆料人,就是項目團隊的內部人員。

      上周末的時候, Mobile ALOHA 的項目共同負責人 Tony Z.Zhao ,在 X 平臺上發布了機器人的失敗花絮,并澄清了外界對于機器人 “ 完全自動 ” 的誤會。

      事實上, ALOHA 機器人并不是全自動的,而是自動 + 遙控的混合模式。

      世超認真翻了翻 GitHub 上的 Mobile ALOHA 項目,在自主模式下,人類需要先操控機械臂打個樣,才能讓 ALOHA 機器人學習類似的動作。

      前面視頻里的各種復雜家務活兒,都是有人在后面遙控的。

      就像這樣。

      而且,并不是只要人類演示了,機器人就能百分百學會。

      在論文中也有提到, ALOHA 機器人自動擦紅酒漬的成功率有 95% ,推椅子是 80% ,而炒蝦只有 40% 。

      世超盲猜,可能是一開始的視頻效果過于驚艷,一傳十十傳百,這才讓 ALOHA 機器人背上了 “ 保姆機器人已經落地 ” 的名頭。

      但就像 Tony Z.Zhao 推文里說的那樣, “ 機器人還沒準備好接管世界! ” ,現在的機器人離我們想象中的全能保姆,還差得遠。

      所以,與其大肆去吹這次的 ALOHA 機器人有多牛,倒不如說它給之后的機器人研發都打了個樣。

      根據英偉達科學家 Jim Fan 的說法,數據一直是機器人技術的致命弱點。

      而項目團隊對 ALOHA 機器人的定義,恰恰就是 “ 一種用于數據收集的低成本全身遠程操作系統” 。

      怎么個意思呢?

      在算法上,他們基于 Transformer 開發了一種動作學習算法 ACT 。

      這種算法,能夠讓 ALOHA 機器人在 15 分鐘的動作演示后,模仿人類做出相似的動作。

      你可以理解成,人類操控機械臂的過程,也是數據收集的過程。接著,再利用收集好的數據來進行一波“ 模仿秀 ”。

      就比如,你把擦玻璃這個動作給機器人提前演示了 50 次,很大概率最后真就訓練成功了。

      而除了算法上的巧妙設計以外, ALOHA 機器人還有個優點就是低成本。

      在硬件配置上,項目團隊給機器人裝上了兩組機械臂,還有一個倉庫里用來運貨的 AGV 移動底盤,相當于機器人的手腳。

      從團隊公開的成本清單來看,費用主要也是集中在移動底盤和機械臂上,其他零部件的成本并不算高。

      而且,將近 3.2 萬美元(折合人民幣 22.7 萬人民幣 )的造價成本,跟波士頓動力 Atlas 將近 200 萬美元的成本比起來,也是小巫見大巫了。

      等以后技術成熟了,花二十多萬買個機器人養老,好像也不是不行。

      更重要的是,這次的 Mobile ALOHA 直接來了波開源,包括硬件代碼、數據集還有教程都對外公開了。

      開發者們你貢獻一點我貢獻一點,說不定哪天全能保姆機器人就真落地了。

      包括前幾天, ALOHA 機器人勢頭正旺的時候, DeepMind 也趁熱打鐵發布了一系列關于機器人的最新進展。

      國外有個叫 Figure 的機器人公司,他們家的人形機器人現在甚至具備了自主學習能力,看個視頻就能學會煮咖啡。

      反正,世超對于今年機器人的發展還挺期待的。

      在人工智能界,一直有個莫拉維克悖論。

      通俗來解釋就是,明明 AI 在算數學題這種需要邏輯推理能力的事情上,都能夠做得很好,但感知能力和運動能力卻連三歲小孩都不如。

      但這次 ALOHA 機器人的出現,的確有了那么一點真正意義上 “ 智能 ” 機器人的苗頭。

      咱們也可以展望展望,今年大模型 + 機器人的組合究竟能碰撞出什么樣的火花。

      撰文:西西 編輯:江江&面線 封面:煥妍

      圖片、資料來源

      Mobile ALOHA、Deepmind

      X(Twitter):@Jim Fan、@Tony Z.Zhao返回搜狐,查看更多

      責任編輯:

      平臺聲明:該文觀點僅代表作者本人,搜狐號系信息發布平臺,搜狐僅提供信息存儲空間服務。
      閱讀 ()
      推薦閱讀
      超碰国产精品青青线上看|欧美专区亚洲专区|国产愉拍99线观看|综合国产精品第一页
      <table id="z5u38"><ruby id="z5u38"></ruby></table>
    2. <td id="z5u38"></td>

      <table id="z5u38"></table>
      <acronym id="z5u38"><label id="z5u38"><xmp id="z5u38"></xmp></label></acronym>
      <table id="z5u38"><strike id="z5u38"></strike></table>
      <p id="z5u38"><del id="z5u38"></del></p>