1月17日大模型日報合輯

【1月17日大模型日報合輯】終於,NLP頂會ACL投稿不用匿名了;Stability AI發布Stable Code 3B模型,沒有GPU也能本地運行;Mollick分享微軟Copilot Pro應用程式簡要評測:一套相當令 人印象深刻的工具
ICLR 2024接收率31%,清華LCM論文作者:講個笑話,被拒絕了。
連結:https://news.miracleplus.com/share_link/16003
ICLR 2024 國際學習表徵會議已經來到了第十二屆,將手今年5月7日-11日在奧地利維也納會展中心舉行。 在機器學習社群中,ICLR是較為「年輕」的學術頂會,它由深度學習巨頭、圖靈獎得主 Yoshua Bengio 和Yann LeCun 牽頭舉辦,2013 年才舉辦了第一屆。 不過ICLR 很快就獲得學術研究者們的廣泛認可,被認為是深度學習頂會。 在Google Scholar 的學術會議/ 雜誌排名中,ICLR 目前排名第十位,高於 NeurIPS。 今日,ICLR 2024 將錄用結果陸續通知了論文提交者。 本屆會議共收到了 7262 篇提交論文,整體接收率約為 31%,與去年持平 (31.8%)。 此外 Spotights 論文比例為5%,Oral論文比例為 1.2%。
終於,NLP頂會ACL投稿不用匿名了
連結:https://news.miracleplus.com/share_link/16004
對於自然語言處理領域的研究人員,最近有一個好消息。 近日,計算語言學協會年會(ACL)正式宣布,該系列會議論文投稿已取消匿名期,同時允許作者在投稿期間宣傳自身工作。 新規定直接適用於下一個審稿週期。 今年的 ACL 是第 62屆,將於 2024年8月11日至16 日在泰國曼谷舉行。 自2022 年起,ACL啟用了滾動審查機制 (ACL Rolling Review, ARR),每月設deadline。 需要注意的是,在上一個截止日期之前提交給評審流程的論文仍受1日匿名政策的約束。
機器人領域首個開源視覺-語言操作大模型,RoboFlamingo框架激發開源VLMs更大潛能
連結:https://news.miracleplus.com/share_link/16005
近年來,大模型的研究正在加速推進,它逐漸在各類任務上展現出多模態的理解和時間空間上的推理能力。 機器人的各類具身操作任務天然就對語言指令理解、場景感知和時空規劃等能力有著很高的要求,這自然引申出一個問題:能不能充分利用大模型能力,將其遷移到機器人領域, 直接規劃底層動作序列呢? OpenFlamingo在機器人操作資料集 CALVIN 上進行了驗證,實驗結果表明,RoboFlamingo 只利用了 1% 的帶有語言標註的數據即在一系列機器人操作任務上取得了 SOTA 的性能。 隨著 RT-X 資料集開放,採用開源資料預訓練RoboFlamingo 並 finetune 到不同機器人平台,將有希望成為一個簡單有效的機器人大模型 pipeline。 論文也測試了各種不同 policy head、不同訓練範式和不同Flamingo 結構的VLM 在Robotics 任務上微調的表現,得到了一些有趣的結論。
用大模型幫程式設計師找Bug,中科院剖析102篇論文總結出這些方案
連結:https://news.miracleplus.com/share_link/16006
大模型由於其卓越的自然語言理解、推理等能力,已經被應用於各種場景,取得了前所未有的效果。 類似的,軟體測試領域也受益於其強大的能力,能夠幫助生成逼
真且多樣化測試輸入,模擬各種異常,加速缺陷的發現,提升測試效率,進行潛在提升軟體品質。 來自中國科學院軟體研究所、澳洲Monash大學、加拿大
rork大學的研究團隊收集了截止到2023年10月 30日發
表的102篇相關論文,並分別從軟體測試和大模型視角進行了全面分析,總結出一篇關於大模型在軟體測試領域應用的全面綜述。
Nature 子刊|化學家和機器人都可以讀懂,用於機器人合成可重複性的通用化學程式語言
連結:https://news.miracleplus.com/share_link/16007
有關化學合成的文獻數量快速增長;然而,實驗室之間共享和評估新流程需要很長時間。 在此,來自加拿大不列顛哥倫比亞大學(UBC)和英國格拉斯哥大學的研究團隊,提出了一種方法,使用通用化學程式語言(XDL) 在兩個實驗室的四種不同硬體系統上編碼和執行各種 化學反應的合成程序,包括還原胺化、成環、酯化、碳-碳鍵形成和醯胺偶聯。 每個反應大約有 50 行程式碼,所提方法使用抽象來有效壓縮化學協議。 不同的機器人平台始終如一地產生預期的合成,每步產量高達90%,從而實現更快、更安全的研究工作流程,可以透過數量增加而不是規模擴大來提高製程的吞吐量。
Stability Al發表Stable Code 3B模型,沒有GPU也能本地運行
連結:https://news.miracleplus.com/share_link/16008
在文生圖領域大火的 Stability Al,今天宣布了其 2024年的第一個新 Al模型:Stable Code 3B。 顧名思義,Stable Code 3B 是一個擁有 30 億參數的模型,專注於輔助程式碼任務。 無需專用 GPU 即可在筆記型電腦上本地運行,同時仍可提供與 Meta 的 CodeLLaMA 7B 等大型模型具有競爭力的性能。 2023年底,Stability Al 便開始推動更小、更緊湊、更強大模型的發展,例如用於文本生成的 StableLM Zephyr 3B模型。 隨著2024年的到來,Stability Al 開年便馬不停蹄的發布2024年第一個大型語言模型Stable Code 3B,其實這個模型早在去年八月就發布了預覽版Stable Code Alpha 3B,此後Stability Al一直在 穩步改進該技術。 新版的 StableCode 3B 專為程式碼補全而設計,具有多種附加功能。
上海AI實驗室書生-浦語2.0正式開源,回歸語言建模本質
連結:https://news.miracleplus.com/share_link/16009
1月17日,書生•浦語2.0 (nternLM2) 發表會暨書生•浦源大模型挑戰賽啟動儀式在上海舉行。 上海人工智慧實驗室與商湯科技聯合香港中文大學和復旦大學正式發布新一代大語言模型書生•浦語2.0。 InternLM2是在2.6兆token的高品質語料上訓練得到的。 沿襲第一代書生•浦語(nternLM)的設定,InternLM2包含7B及20B兩種參數規格及基座、對話等版本,滿足不同複雜應用場景需求。 秉持「以高品質開源賦能創新”理念,上海人工智慧實驗室持續提供lnternLM2免費商用授權。
OpenAl組成新團隊,收集公眾意見以確保 Al大模型與人類價值觀保持一致
連結:https://news.miracleplus.com/share_link/16010
1月17日消息,美國當地時問週二,人工智慧領域的佼佼者 OpenAl 在其部落格上宣布,他們正在組建一個名為「集體對齊」 (Collective Alignment) 的全新團隊。 這個團隊主要由研究人員和工程師組成,將專注於設計和實施收集公眾意見的流程,以幫助訓練和塑造其人工智慧模型的行為,從而解決潛在的偏見和其他問題。