10月25日大模型日報

資訊1年前 (2023)发布 AIWindVane
540 0
10月25日大模型日報

【10月25日大模型日報】全球最強CPU一夜易主,130億參數大模型被塞進PC,沒網也能生成郵件週報PPT;LeCun又雙詠唱衰自回歸LLM:GPT-4的 推理能力非常有限,有兩篇論文為證;蘋果「套娃」式擴散模型,訓練步數減少七成;淨利潤暴漲1763%,世界第三大軟體公司如何靠AIGC逆風翻盤


全球最強CPU一夜易主,130億參數大模型被塞進PC,沒網也能產生郵件週報PPT

連結:https://news.miracleplus.com/share_link/11164

全球最強性能CPU,一夜之間王座易主了。 就在剛剛,驍龍峰會,高通旗下驍龍X Elite晶片正式亮相,專為PC筆記本打造,性能和功耗都創下行業新紀錄。 發表會現場,大有「拳打蘋果腳踢英特爾」之勢。 高通CEO更是直接放出數據對比,現場喊話:照片隨便拍,歡迎傳出去!


Perplexity最新估價5億美元! IVP宣布領投;OpenAI首位投資人Khosla開始“退服”,表示AI仍然遵循贏家通吃!

連結:https://news.miracleplus.com/share_link/11165

根據 The Information 最新報導,IVP 正在領導 Perplexity 的投資, Perplexity 最新估值約為 5 億美元,較 3 月宣布的 1.5 億美元估值上漲 300% 以上。 據悉, Perplexity 目前的付費用戶數量達到了1.5 萬人,Perplexity 的付費版本允許用戶查找答案並總結他們上傳的PDF等文件中的信息,並讓他們使用高級模型,如Claude和GPT-4,以生成 更詳細和複雜的答案。 Perplexity CEO Aravind Srinivas 也是 OpenAI 的前研究科學家,在往期的內容中有專門分享過 Aravind Srinivas,Srinivas 與 前 Meta 研究科學家 Denis Yarats(Perplexity CTO)等合夥人共同創辦了 Perplexity。


淨利暴漲1763%,世界第三大軟體公司如何靠AIGC逆風翻盤?

 

連結:https://news.miracleplus.com/share_link/11166

近日,國際知名行研機構IDC發布了一份關於雲端巨頭Salesforce的研究報告,預計在AI驅動的雲端解決方案推動下,2022年到2028年間,Salesforce經濟將為全球帶來超過2兆美元的 營收及1160萬個就業機會成長。 此前,Salesforce曾於8月30日發布截至7月31日的2024財年第二季財報。 財報顯示,公司第二季淨利12.67億美元,年增1763.24%。 從Salesforce的股價走勢不難看出,在經歷了2022年持續一整年的暴跌、市值近乎腰斬後,今年年初以來,Salesforce終於扭轉頹勢,股價逐步回升。


老黃蘇媽齊聚現場! 晶片巨擘圍觀首款AI PC,聯想造

 

連結:https://news.miracleplus.com/share_link/11167

這邊高通在夏威夷開峰會,那邊英偉達AMD已齊聚德州——包括英偉達黃仁勳、AMD蘇姿豐等晶片巨頭CEO,都來到了另一個發布會現場,談吐字裡行間全是AI。 聯想一年一度的Tech World,會中不僅發布了首款AI PC,還展示了一系列其他AI新技術和基礎設施。 聯想董事長兼CEO楊元慶直接放話:要讓大家擁有自己的大模型。


LeCun又雙詠唱衰自回歸LLM:GPT-4的推理能力非常有限,有兩篇論文為證

 

連結:https://news.miracleplus.com/share_link/11168

「任何認為自動回歸式LLM 已經接近人類水平的AI,或者僅僅需要擴大規模就能達到人類水平的人,都必須讀一讀這個。AR-LLM 的推理和規劃能力非常有限,要解決這個問題, 並不是把它們變大、用更多數據進行訓練就能解決的。」一直以來,圖靈獎得主Yann LeCun 就是LLM 的「質疑者」,而自回歸模型是GPT 系列LLM 模型所依賴的學習範式 。 他不只一次公開表達對自回歸和LLM 的批評,並產出了不少金句,例如:「從現在起5 年內,沒有哪個頭腦正常的人會使用自回歸模型。」「自回歸生成模型 弱爆了!(Auto-Regressive Generative Models suck!)」「LLM 對世界的理解非常膚淺。」讓LeCun 近日再次發出疾呼的,是兩篇新發布的論文:「LLM 真的能像文獻中所 說的那樣自我批判(並迭代改進)其解決方案嗎?我們小組的兩篇新論文在推理(https://arxiv.org/abs/2310.12397) 和規劃(https://arxiv.org/abs/ 2310.08118) 任務中對這些說法進行了調查(並提出了質疑)。」


開源版「ChatGPT Plus」來了,可以做數據分析、外掛呼叫、自動上網,落地真實世界的智能體

 

連結:https://news.miracleplus.com/share_link/11169

OpenAI ChatGPT Plus 訂閱付費功能強大,可實現高階「數據分析」(Advanced Data Analysis)、「外掛程式呼叫」(Plugins)以及「自動網頁瀏覽」(Browse with Bing),能夠作為日常生活中的重要生產力工具 。 可是因為商業原因而選擇了閉源,研究者和開發者也只能使用而沒有辦法在其上面做任何的研究或改進。 基於此,來自香港大學、XLang實驗室、Sea AI實驗室和Salesforce的研究者共同打造了一款用於真實世界生產力工具的開源智能體框架——OpenAgents,並開源了全端程式碼(完整前後端 ,研究程式碼),以滿足從研究者到開發者再到使用者的所有人的需要。 OpenAgents 以基於「大語言模型」(LLMs)的技術和全端工程程式碼嘗試近似複刻了 ChatGPT Plus 的功能。 智能體能執行 Python/SQL 程式碼,熟練呼叫工具,也能上網找地圖發帖子,一路從研究程式碼實現到後端前端,讓其變成了人人都能用的落地級應用。 OpenAgents 完整地揭露了他們採用的技術和遇到的困難,完全開源了程式碼,包含從科學研究到邏輯程式碼到前端程式碼的一切。 程式碼完善、易於拓展,本地直接可以一鍵部署,配套提供了含有豐富的使用案例的文檔,幫助研究者和開發者在模型上搭建自己的智能體和應用。


蘋果「套娃」式擴散模型,訓練步數減少七成!

 

連結:https://news.miracleplus.com/share_link/11170

蘋果的一項最新研究,大幅提高了擴散模型在高解析度影像上表現。 利用這種方法,同樣解析度的影像,訓練步數減少了超過七成。 在1024×1024的解析度下,圖片畫質直接拉滿,細節都清晰可見。 蘋果把這項成果命名為MDM,DM就是擴散模型(Diffusion Model)的縮寫,而第一個M則代表了套娃(Matryoshka)。 就像真的套娃一樣,MDM在高解析度過程中嵌套了低解析度過程,而且是多層嵌套。 高低解析度擴散過程同時進行,大大降低了傳統擴散模型在高解析度過程中的資源消耗。


最高20倍! 壓縮ChatGPT等模型文字提示,極大節省AI算力

 

連結:https://news.miracleplus.com/share_link/11171

 

在長文本場景中,ChatGPT等大語言模型經常面臨更高算力成本、更長的延遲以及更差的性能。 為了解決這三大難題,微軟開源了LongLLMLingua。 據悉,LLMLingua的核心技術原理是將「文字提示」實現最高20倍的極限壓縮,同時又可以準確評估提示中內容與問題的相關程度,消除無關內容保留關鍵資訊,達到降本增效目的。 實驗結果顯示,經過LongLLMLingua壓縮後的提示,比原始提示的性能提升了17.1%,同時輸入GPT-3.5-Turbo的tokens減少了4倍。 在LongBench和ZeroScrolls測試中顯示,每1,000個樣本節省28.5美元和27.4美元的成本。


DISC-FinLLM:復旦大學團隊發表中文智慧金融系統,採用多元專家微調框架

 

連結:https://news.miracleplus.com/share_link/11172

復旦大學資料智慧與社會運算實驗室(FudanDISC)發表金融領域的大語言模式 ——DISC-FinLLM。 此模型是由 4 個面向不同金融情境的模組:金融諮詢、金融文本分析、金融計算、金融知識檢索問答所構成的多專家智慧金融系統。 這些模組在金融 NLP 任務、人類試題、資料分析和時事分析等四個評測中展現出明顯優勢,證明了 DISC-FinLLM 能為廣泛的金融領域提供強而有力的支持。 主題組開源了模型參數,並且提供了翔實的技術報告和資料建構範例。

– 首頁網址:https://fin.fudan-disc.com

– Github 網址:https://github.com/FudanDISC/DISC-FinLLM

– 技術報告:http://arxiv.org/abs/2310.15205

© 版权声明

相關文章

暫無評論

暫無評論...