1月4日大模型日報合輯

資訊1年前 (2024)发布 AIWindVane
582 0
1月4日大模型日報合輯

【1月4日大模型日報合輯】讓機器人感知你的「Here you are」,清華團隊使用百萬場景打造通用人機交接;李飛飛團隊新作:AI透視眼,穿越障礙看清你,渲染遮擋人體 有新突破了


讓機器人感知你的「Here you are」,清華團隊使用百萬場景打造通用人機交接

 

連結:https://news.miracleplus.com/share_link/14990

來自清華大學交叉資訊研究院的研究者提出了「GenH2R」框架,讓機器人學習通用的基於視覺的人機交接策略(generalizable vision-based human-to-robot handover policies)。 這種可泛化策略使得機器人能更可靠地從人們手中接住幾何形狀多樣、運動軌跡複雜的物體,為人機互動提供了新的可能性。


李飛飛團隊新作:AI透視眼,穿越障礙看清你,渲染遮擋人體有新突破了

 

連結:https://news.miracleplus.com/share_link/14991

AR/VR 、電影和醫療等領域都在廣泛地應用影片渲染人類形象。 由於單眼攝影機的視訊擷取較為容易,因此從單眼攝影機渲染人體一直是研究的主要方式。 Vid2Avatar、MonoHuman 和 NeuMan 等方法都取得了令人矚目的成就。 儘管只有一個攝影機視角,這些方法仍能從新的視角準確地渲染人體。 最近,著名人工智慧教授李飛飛在 X 上發布了有關 3D 人體渲染工作的新進展 —— 一種名為 Wild2Avatar 的新模型,該模型即使在有遮擋的情況下仍然能夠完整、高保真地渲染人體。


快速篩選大量數據,即時做出明智決策,MIT、普林斯頓&卡內基美隆大學團隊利用LLM進行聚變研究

 

連結:https://news.miracleplus.com/share_link/14992

可控核融合能具有安全、清潔、燃料豐富等優點,是解決人類未來能源問題的主要選擇之一。 也許最有前途的核融合裝置是託卡馬克(Tokamak)。 儘管前景光明,但在人類和經濟型託卡馬克發電廠之間仍然存在著重要的懸而未決的問題。 現在,普林斯頓大學、卡內基美隆大學(CMU)和麻省理工學院(MIT) 的科學家已經應用大型語言模型(ChatGPT、Bard 和LLaMA 等工具背後的驅動力)來幫助核融合研究人員快速 篩選數量驚人的數據,以便即時做出更明智的決策。 該模型允許使用者識別具有相似特徵的先前實驗,提供有關設備控制系統的信息,並快速返回有關聚變反應器和等離子體物理學問題的答案。


Nature子刊 | 透過視訊去雜訊擴散模型進行非線性機械超材料逆向設計

 

連結:https://news.miracleplus.com/share_link/14993

複雜材料特性的逆向設計,在解決軟機器人、生物醫學植入物和織工程等方面具有巨大潛力。 儘管機器學習模型提供了此類逆映射,但它們通常僅限於線性目標屬性。 近日,蘇黎世聯邦理工學院(ETH Zurich)的研究人員為了定制非線性響應,證明了在周期性隨機cellular 結構的全場數據上訓練的視頻擴散生成模型,可以成功地預測和調整它們在大應變狀態 下的非線性變形和應力響應,包括屈曲和接觸。 成功的關鍵是打破直接學習從屬性到設計的映射的常見策略,並將框架擴展為內在估計預期變形路徑和全場內應力分佈,這與有限元素模擬非常一致。 因此,該研究有可能簡化和加速具有複雜目標性能的材料識別。

© 版权声明

相關文章

暫無評論

暫無評論...