• <samp id="pv2xq"><tbody id="pv2xq"><tt id="pv2xq"></tt></tbody></samp>
  • 
    
  • <rp id="pv2xq"><acronym id="pv2xq"></acronym></rp>
  • 中文在线√天堂_精品亚洲成A人片在线观看_亚洲人成亚洲人成在线观看_天堂在线中文_国产精品自在线拍国产电影

    具身智能模型學習方式與兒童相似

    放大字體  縮小字體 發(fā)布日期:2025-02-07     來源:科技日報     瀏覽次數(shù):12
    核心提示:日本沖繩科學技術(shù)研究所認知神經(jīng)機器人團隊開發(fā)了一種具有新穎架構(gòu)的具身智能模型。它允許科學家訪問神經(jīng)網(wǎng)絡(luò)的各種內(nèi)部狀態(tài),并且能夠以與人類兒童相似的方式學習泛化,揭曉了神經(jīng)網(wǎng)絡(luò)中認知發(fā)展和信息處理的關(guān)鍵信息。

    科技日報北京24日電 (記者張夢然)日本沖繩科學技術(shù)研究所認知神經(jīng)機器人團隊開發(fā)了一種具有新穎架構(gòu)的具身智能模型。它允許科學家訪問神經(jīng)網(wǎng)絡(luò)的各種內(nèi)部狀態(tài),并且能夠以與人類兒童相似的方式學習泛化,揭曉了神經(jīng)網(wǎng)絡(luò)中認知發(fā)展和信息處理的關(guān)鍵信息。該成果發(fā)表在新一期《科學·機器人學》雜志上。

     

    對人工智能(AI)至關(guān)重要的大型語言模型(LLM)主要依賴于大規(guī)模數(shù)據(jù)集,但其無法像人類那樣有效地從有限信息中進行泛化。而具身智能是一種基于物理實體進行感知和行動的智能系統(tǒng)。它可以通過智能體與環(huán)境的交互來獲取信息、理解問題、做出決策并執(zhí)行行動。

     

    此次的具身智能模型基于預(yù)測編碼啟發(fā),變分遞歸神經(jīng)網(wǎng)絡(luò)框架,通過集成視覺、本體感覺和語言指令三種感官輸入進行訓(xùn)練。具體來說,該模型處理了以下輸入:觀看機械臂移動彩色塊的視頻;感知人體四肢運動的感覺及機械臂移動時的關(guān)節(jié)角度;以及語言指令如“把紅色物體放在藍色物體上”。

     

    該模型的靈感,是大腦不斷根據(jù)過去的經(jīng)驗預(yù)測感官輸入,并采取行動將預(yù)測與觀察之間的差異降至最低。因為大腦的工作記憶和注意力有限,所以必須按順序處理輸入并更新其預(yù)測,而不是像LLM那樣一次性處理所有信息。

     

    研究表明,新模型只需更小的訓(xùn)練集和更少的計算資源就可實現(xiàn)泛化學習。盡管它比LLM犯錯更多,但這些錯誤類似于人類的錯誤。

     

    這意味著,將語言與行為相結(jié)合可能是兒童快速語言學習的重要因素。這種具身智能不僅提高了透明度,還能更好地了解AI的行為效果,為未來更安全、更合乎道德的AI發(fā)展指明了方向。

     

    這項研究為理解和模擬人類認知提供了一個新的視角,展示了如何通過整合多種感官輸入來實現(xiàn)高效的泛化能力。這不僅有助于開發(fā)更加智能和靈活的AI系統(tǒng),也為認知科學提供了寶貴見解。


    工博士工業(yè)品商城聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負責。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與商城(m.jwggg.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
    聯(lián)系電話:021-31666777
    新聞、技術(shù)文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com
    推薦文章
    最新更新
    點擊排行
    无码精品a∨在线观看中文_精品亚洲成A人片在线观看_亚洲人成亚洲人成在线观看_天堂在线中文
  • <samp id="pv2xq"><tbody id="pv2xq"><tt id="pv2xq"></tt></tbody></samp>
  • 
    
  • <rp id="pv2xq"><acronym id="pv2xq"></acronym></rp>