11月15日大模型日報

資訊1年前 (2023)发布 AIWindVane
573 0
11月15日大模型日報

【11月15日大模型日報】研究: 過去10個月訪問量前50的AI工具累計超240億次訪問,僅ChatGPT就佔了60%的流量;由於使用量過大,Open AI 暫停ChatGPT Plus 新用戶註冊;Notion 推出問答功能,可AI 智慧詢問和檢索筆記內容


研究: 過去10個月訪問量前50的AI工具累計超240億次訪問,光是ChatGPT就佔了60%的流量

 

https://news.miracleplus.com/share_link/11733

Writerbuddy 使用SEMrush 統計了 2022年9 月至2023年 8 月期間的網站流量數據,排名前 50 的人工智慧工具吸引了超過 240 億次造訪。 其中 ChatGPT 以 140 億次訪問量遙遙領先,佔分析流量的 60% 以上。


由於使用量過大,Open AI 暫停 ChatGPT Plus 新用戶註冊

 

https://news.miracleplus.com/share_link/11734

OpenAI的付費服務ChatGPT Plus因使用量過大而暫停註冊。 11月15日,OpenAI執行長薩姆·奧特曼(Sam Altman)在X(原推特)上表示,「我們將暫停新的ChatGPT Plus用戶註冊。開發日後使用量的激增已經超出了我們 的承受能力,我們希望確保每個人都有良好的體驗。你仍然可以在應用程式內註冊,以便在訂閱者重新開放時收到通知。”


即時文生圖速度提升5-10倍,清華LCM/LCM-LoRA爆火,瀏覽超百萬、下載超20萬

 

https://news.miracleplus.com/share_link/11735

文生圖、圖生圖已經不是什麼新鮮事。 但在使用這些工具的過程中,我們發現它們通常運作緩慢,導致我們要等一段時間才能拿到產生結果。 但最近,一種名叫「LCM」的模型改變了這種情況,它甚至能做到即時的連續生圖。 LCM 的全名是 Latent Consistency Models(潛在一致性模型),由清華大學交叉資訊研究院的研究者們建構。 在這個模型發布之前,Stable Diffusion 等潛在擴散模型(LDM)由於迭代採樣過程計算量大,生成速度非常緩慢。 透過一些創新的方法,LCM 只用少數的幾步推理就能產生高解析度影像。 根據統計,LCM 能將主流文生圖模型的效率提高 5-10 倍,所以能呈現即時的效果。 在此基礎上,研究團隊進一步提出LCM-LoRA,可以將LCM 的快速採樣能力在未經任何額外訓練的情況下遷移到其他LoRA 模型上,為開源社群已經存在的大量不同畫風的模型提供了 一個直接而有效的解決方案。


又快又準! DeepMind發布AI天氣預報模型,90%指標擊敗世界最先進系統

 

https://news.miracleplus.com/share_link/11736

谷歌DeepMind發布的AI天氣預報模式GraphCast AI又快又準確,首次超越了傳統的預測方法。 在1380項指標中,GraphCast AI在90%的指標上優於ECMWF的系統。 GraphCast AI在GoogleTPU v4雲端電腦上運行,1分鐘內就可以產生10天內的天氣預報。


微軟用GPT-4V解讀視頻,看懂電影還能講給盲人聽,1小時不是問題

 

https://news.miracleplus.com/share_link/11737

差不多已經掌握語言能力的大模型正在進軍視覺領域,但具有里程碑意義的GPT-4V 也仍有諸多不足之處,參閱《試過GPT-4V 後,微軟寫了個166 頁的測評報告,業內人士 :進階用戶必讀。 近日,微軟Azure AI 將GPT-4V 與一些專用工具整合到一起,打造出了更強大的MM-Vid,其不僅具備其它LMM 的基本能力,還能分析長達一小時的長視頻以及解說視頻給 視障人士聽。


微軟必應聊天測試 nosearch 模式,可關閉/開啟連網搜尋即時資訊

 

https://news.miracleplus.com/share_link/11738

微軟近日以插件的形式,邀請部分必應聊天(Bing Chat)用戶,測試「nosearch」模式。 使用者開啟該模式之後,不依賴網路的大量資訊來回答問題,而是提供更精確、更相關的訊息,符合使用者的偏好和需求。


李彥宏:百度目前20%程式碼由AI完成 基礎大模型過多是浪費

 

https://news.miracleplus.com/share_link/11739

李彥宏表示,百度已堅決對旗下各產品線進行AI原生化重構,百度每100行程式碼,20行就由AI完成。 他表示,大模型是基礎底座,類似作業系統不會太多,重複開發大模型是對基礎資源的浪費。


Notion 推出問答功能,可 AI 智慧詢問和檢索筆記內容

 

https://news.miracleplus.com/share_link/11740

Notion 是一款流行的筆記、文件和資料庫一體式協作應用程序,最新發布了一項名為”Q&A”問答的新人工智慧功能,該功能允許用戶透過查詢和檢索儲存在其Notion 工作區中的 資訊和筆記來獲得問題的即時答案。


比ChatGPT早發兩週,噴下線的Galactica成了LeCun最大的意難平

 

https://news.miracleplus.com/share_link/11741

今天我們提到大型語言模型(LLM),第一個想到的就是 OpenAI 的 ChatGPT。 一年來,ChatGPT 因其強大的性能,廣泛的應用前景而爆火出圈。 但談到大型語言模型,ChatGPT 並不是第一個。 一年前,也就是 OpenAI 發布 ChatGPT 的前兩週,Meta 發布了一個名為 Galactica 的試用版模型。 作為一個大型語言模型,Galactica 是在大量的論文、參考資料、知識庫和許多其他來源的科學語料庫上進行訓練的,包括超過4800 萬篇論文、教科書和講義、數百萬種化合物和蛋白質知識、 科學網站、百科全書等。 彼時,Meta 聲稱 Galactica 能夠總結學術文獻、解決數學問題、產生 Wiki 文章、編寫科學程式碼,甚至可以執行涉及化學公式和蛋白質序列的多模態任務。 然而,上線不到三天,Galactica 就迅速下架了,原因是 Galactica 生成的文本不嚴謹,不負責任地胡編亂造。


S-LoRA:一個GPU運行數千大模型成為可能

 

https://news.miracleplus.com/share_link/11742

一般來說,大語言模型的部署都會採用「預訓練 — 然後微調」的模式。 但是,當針對眾多任務(如個人化助手)對 base 模型進行微調時,訓練和服務成本會變得非常高。 低秩適配(LowRank Adaptation,LoRA)是一種參數效率高的微調方法,通常用於將 base 模型適配到多種任務中,從而產生了大量從一個 base 模型衍生出來的 LoRA 適配程序。 這種模式為服務過程中的批量推理提供了大量機會。 LoRA 的研究顯示了一點,只對適配器權重進行微調,就能獲得與全權重微調相當的效能。 雖然這種方法可以實現單一適配器的低延遲推理和跨適配器的串行執行,但在同時為多個適配器提供服務時,會顯著降低整體服務吞吐量並增加總延遲。 總之,如何大規模服務這些微調變體的問題仍未解決。 在最近的一篇論文中,來自 UC 伯克利、史丹佛等大學的研究者提出了一種名為 S-LoRA 的新微調方式。

© 版权声明

相關文章

暫無評論

暫無評論...