1月25日大模型日報

【1月25日大模型日報】研究 “think step by step”還不夠,讓模型“think more steps”更有用 產業 Hinton、LeCun、Bengio三巨頭,馬維英、陳海波等華人入選
「think step by step」還不夠,讓模型「think more steps」更有用
https://news.miracleplus.com/share_link/16768
如今,大型語言模型(LLM)及其高階提示策略的出現,標誌著對語言模型的研究取得了重大進展,尤其是在經典的 NLP 任務中。 這其中一個關鍵的創新是思維鏈(CoT)提示技術,該技術因其在多步驟問題解決中的能力而聞名。 這項技術遵循了人類的順序推理,在各種挑戰中表現出了優秀的性能,其中包括跨域、長泛化和跨語言的任務。 CoT 及其富有邏輯的、循序漸進的推理方法,在複雜的問題解決場景中提供了至關重要的可解釋性。 來自美國西北大學、利物浦大學和新澤西理工大學等的研究者們,進一步探討了推理步驟的長度與結論準確性之間的關係,幫助人們加深關於如何有效解決 NLP 問題的理解。 以下這篇文章探討了推理步驟是否是促使 CoT 發揮作用的 prompt 中最關鍵的部分(見圖 1)。 本文實驗中嚴格的控制變量,特別是在加入新的推理步驟時,研究者會確保不會引入額外的知識。 在零樣本實驗中,研究者將初始 prompt 從「請逐步思考」調整為「請逐步思考,並且盡可能思考出更多的步驟」。 對於小樣本問題,研究者設計了一個實驗,在保持所有其他因素不變的情況下,擴展基礎推理步驟。
湯曉鷗弟子帶隊:免調優長影片生成,支援512格! 任何擴散模型都能用
https://news.miracleplus.com/share_link/16769
現在,有人提出了一個效果很不錯的免調優方法,直接就能作用於預先訓練好的視訊擴散模型。 它最長可支援512幀(假設幀率以30fps算,理論上那就是能生成約17秒長的作品了)。 可應用於任何視訊生成模型,例如AnimateDiff、LaVie等等。 以及還能支援多文本生成,例如可以讓駱駝一會跑一會兒。 這項成果來自騰訊AI Lab、南洋理工大學以及港科大,入選了ICLR 2024。
未來五年AI如何改變各學科? 從LLM到AI蛋白設計、醫療保健……
https://news.miracleplus.com/share_link/16770
五年前(2019 年 1 月),《Nature Machine Intelligence創刊。 當然,就人工智慧(AI)而言,五年前似乎是一個不同的時代。 1 月24 日,Nature Machine Intelligence 雜誌在《Anniversary AI reflections(週年人工智慧反思)專題中,再次聯繫並採訪了近期在期刊發表評論和觀點文章的作者,請他們從各自所在領域中舉例說明人工智慧 如何改變科學過程。 想知道,他們對人工智慧領域的哪些其他主題感到興奮、驚訝或擔憂,以及他們對 2024 年以及未來五年的人工智慧的希望和期望是什麼。 一個反覆出現的主題是大型語言模型和生成人工智慧的持續發展、它們對科學過程的變革性影響以及對倫理影響的擔憂。
Hinton、LeCun、Bengio三巨頭,馬維英、陳海波等華人入選,2023 ACM Fellow公佈
https://news.miracleplus.com/share_link/16771
今天,美國電腦協會 ACM(Association for Computing Machinery)公佈了最新一屆 Fellow 名單。 ACM 創立於 1947 年,是全世界電腦領域影響力最大的專業學術組織之一。 ACM Fellow 是由該組織授予資深會員的榮譽,目的為表彰會員中對於計算機相關領域貢獻前 1% 的學者,其審查過程十分嚴格,每年遴選一次,研究員由同行提名,提名由委員會審查。 本年度新入選科學家中共有 68 人,他們的貢獻涉及網路安全、人機互動、行動運算和推薦系統等領域。 令人驚訝的是,曾獲 ACM 圖靈獎的深度學習三巨頭 Geoffrey Hinton、Yoshua Bengio、Yann LeCun,今年全數入選 ACM Fellow。 今年入選者還包括馬維英、陳海波等多位華裔學者。
全世界機器人共用一個大腦,GoogleDeepMind已經完成了第一步
https://news.miracleplus.com/share_link/16772
過去一年,生成式人工智慧發展的核心關鍵字,就是「大」。 人們逐漸接受了強化學習先驅 Rich Sutton 充分利用算力「大力出奇蹟」的思潮,龐大的數據量是 AI 模型展現出驚人智慧的核心原因。 資料規模越大、品質越高、標註越細,模型就能了解更全面的世界知識,進而擬合出更聰明的結果。 那麼,為什麼人工智慧的進展還沒有轉化成科幻片中那種全能管家機器人呢? 能清理桌子、摺衣服、做早餐的機器人在哪裡? 一個重要的原因是機器人領域很難「大力出奇蹟」,生成式AI 的文字或圖片訓練資料在網路上就能輕鬆獲取,而機器人的訓練資料通常是由研究人員在實驗室裡根據具體的任務 一個一個地創建的。 這個過程往往漫長而又乏味。 為了得到問題的答案,由Google Deepmind 發起,來自北美、歐洲、亞洲的 34 個機器人實驗室共同啟動了 RT-X 計畫。 RT-X 專案的目標是匯集資料、資源和程式碼,讓通用機器人走進現實。 該計畫的主要參與者加州大學柏克萊分校的Sergey Levine 教授和Google DeepMind 的資深科學家Karol Hausman 共同撰寫了「THE GLOBAL PROJECT TO MAKE A GENERAL ROBOTIC BRAIN(打造通用機器人大腦的全球合作計畫)」一文,總結了 RT-X 專案取得的進展。
【2.1 萬字實錄】Rabbit 創辦人&CEO 呂騁最新對談|R1 更像是 AI + iPod,而不是 iPhone 殺手
https://news.miracleplus.com/share_link/16773
這是 Rabbit CEO 呂騁(Jesse Lyu)在 CES 後在《This Week Startup》節目上與矽谷知名天使投資人 Jason Calacanis 最新對話,長達 90 分鐘的對談詳細描述了他最新的產品思考。 呂騁強調了技術的演進是為了解決相同的問題,但以更直觀的方式。 他詳細介紹了LAM (Large Action Model)的工作原理, LAM 旨在提高效率、節省時間,這是一個真正的時間節省裝置,讓用戶更專注於其他事情,而這一理念是公司的核心驅動 力。
Apache 頂級專案 MXNet 退役! 大神李沐創辦、亞馬遜首選深度學習框架如何從大廠「寵兒」到落入「冷宮」?
https://news.miracleplus.com/share_link/16774
近日,知名深度學習技術專家李沐的開源學習框架專案 MXNet 已被移至 Apache Attic,因為這個專案不活躍。 Apache Attic(阿帕契閣樓)是 Apache 軟體基金會的一個項目,為已終止的 Apache 項目提供解決方案。 Attic 計畫成立於 2008 年 11 月。 已退休的項目也可以保留。
美國家AI研究資源試辦計畫上線,NASA、英偉達、OpenAI等捐贈關鍵基礎資源
https://news.miracleplus.com/share_link/16775
美國國家科學基金會(NSF)啟動了國家人工智慧研究資源試點計畫(NAIRR),旨在透過共享國家研究基礎設施,確保廣泛的研究和教育界能夠公平獲取AI基礎資源和工具。 該計畫獲得了包括NASA、英偉達、OpenAI等在內的多家政府機構和私人企業的資源捐贈。 NAIRR將提供資料集、AI模型、軟體和培訓資源,以支持AI研究,特別是對資源有限的小型機構和代表性不足的群體。 計畫預算每年8億美元,為期三年,旨在維持美國在AI技術領域的國際競爭力。