Big Model Daily、11 月 15 日

情報1数年前 (2023)更新 AIWindVane
57 0
Big Model Daily、11 月 15 日

[Big Model Daily、11 月 15 日] 調査: 最もアクセス数の多かった AI ツール上位 50 は、過去 10 か月で累計 240 億回以上のアクセスを記録し、ChatGPT だけでトラフィックの 60% を占めました; 過剰な使用のため、Open AI は ChatGPT を一時停止しましたPlus 新規ユーザー登録; Notion が、AI でノートの内容をインテリジェントに質問して取得できる質問と回答機能を開始


調査: 最もアクセス数が多かった上位 50 の AI ツールは、過去 10 か月間で累計 240 億回以上のアクセスを記録しており、ChatGPT だけでトラフィックの 60% を占めています。

 

https://news.miracleplus.com/share_link/11733

Writerbuddy は SEMrush を使用して、2022 年 9 月から 2023 年 8 月までの Web サイトのトラフィック データを集計しました。上位 50 の人工知能ツールには 240 億回以上のアクセスが集まりました。 その中で、ChatGPT は 140 億件の訪問で先頭に立ち、分析されたトラフィックの 60% 以上を占めています。


Open AIは過度の使用のため、ChatGPT Plusの新規ユーザー登録を一時停止します

 

https://news.miracleplus.com/share_link/11734

OpenAIの有料サービスChatGPT Plusは、過剰な利用のため登録を停止した。 11月15日、OpenAIの最高経営責任者(CEO)サム・アルトマン氏は、手頃な価格について「誰もが素晴らしい体験をできるようにしたいと考えている。アプリ内でサインアップして、サブスクライバー向けに再開したときに通知を受け取ることもできる」と語った。


リアルタイム画像速度が 5 ~ 10 倍に向上し、清華 LCM/LCM-LoRA が人気となり、100 万回以上の再生回数と 200,000 回以上のダウンロードを達成しました。

 

https://news.miracleplus.com/share_link/11735

写真から絵を描くこと、写真から絵を描くことは何も新しいことではありません。 しかし、これらのツールを使用する過程で、ツールの動作が遅くなることが多く、生成された結果を取得するまでに時間がかかることがわかりました。 しかし最近、「LCM」と呼ばれるモデルがこの状況を変え、リアルタイムで画像を生成し続けることもできるようになりました。 LCM の正式名は Latent Consistency Models (潜在整合性モデル) で、清華大学学際情報研究所の研究者によって構築されました。 このモデルがリリースされる前は、安定拡散などの潜在拡散モデル (LDM) は、反復サンプリング プロセスの計算の複雑さのため、生成に非常に時間がかかりました。 いくつかの革新的な方法により、LCM はわずか数ステップの推論で高解像度の画像を生成できます。 統計によると、LCM は主流のヴィンセント グラフ モデルの効率を 5 ~ 10 倍向上させることができるため、リアルタイムの効果を示すことができます。 これに基づいて、研究チームはさらに、追加のトレーニングなしで LCM の高速サンプリング能力を他の LoRA モデルに転送できる LCM-LoRA を提案し、オープンソース コミュニティにすでに存在するさまざまなスタイルの多数のモデルを提供しました。簡単で効果的な解決策。


早くて正確! DeepMind が AI 天気予報モデルをリリース、指標の 90% で世界最先端のシステムを上回る

 

https://news.miracleplus.com/share_link/11736

Google DeepMindがリリースしたAI天気予報モデルGraphCast AIは、高速かつ正確で、初めて従来の予測手法を超えました。 1,380 のインジケーターのうち、GraphCast AI は 90% のインジケーターで ECMWF のシステムを上回っています。 GraphCast AI は Google の TPU v4 クラウド コンピューター上で実行され、10 日間の天気予報を 1 分で生成できます。


Microsoft は GPT-4V を使用してビデオをデコードし、映画を理解し、視覚障害者に説明しています。1 時間は問題ありません。

 

https://news.miracleplus.com/share_link/11737

言語機能をほぼ習得した大型モデルがビジュアル分野に参入しつつありますが、画期的な GPT-4V にはまだ多くの欠点があります。「GPT-4V を試した後、マイクロソフトは 166 ページの評価レポートを作成しました、業界関係者: 業界関係者必読」を参照してください。上級ユーザー。 最近、Microsoft Azure AI は GPT-4V をいくつかの特別なツールと統合して、より強力な MM-Vid を作成しました。これは、他の LMM の基本機能を備えているだけでなく、視覚障害者向けの 1 時間のビデオや説明ビデオを分析することもできます。


Microsoft Bing Chat は、リアルタイム情報を検索するためにインターネットをオフ/オンにする nosearch モードをテストします。

 

https://news.miracleplus.com/share_link/11738

Microsoft は最近、一部の Bing Chat ユーザーに対し、プラグインの形式で「nosearch」モードをテストするよう招待しました。 ユーザーがこのモードをオンにすると、質問に答えるためにインターネット上の膨大な情報に依存するのではなく、ユーザーの好みやニーズを満たす、より正確で関連性の高い情報が提供されます。


ロビン・リー氏: 現在、Baidu のコードの 20% は AI によって完成されており、大規模な基本モデルが多すぎるのは無駄です。

 

https://news.miracleplus.com/share_link/11739

Robin Li 氏は、Baidu はその製品ラインを AI ネイティブになるよう断固として再構築しており、Baidu のコード 100 行ごとに 20 行が AI によって完成されていると述べました。 同氏は、大規模モデルが基本ベースであり、同様のオペレーティングシステムはあまり多くないため、大規模モデルの開発を繰り返すことは基本リソースの無駄であると述べた。


Notion、AIでインテリジェントに質問してメモ内容を取得できるQ&A機能を開始

 

https://news.miracleplus.com/share_link/11740

メモ、ドキュメント、データベース用の人気のオールインワン コラボレーション アプリケーションである Notion は、ユーザーが Notion ワークスペースに保存されている情報をクエリして取得できるようにする、「Q&A」と呼ばれる新しい人工知能機能をリリースしました。あなたの質問に対する答え。


ChatGPT より 2 週間早く発売された Gaoptica は生産ラインから外され、LeCun の最大の不満となった。

 

https://news.miracleplus.com/share_link/11741

今日、大規模言語モデル (LLM) について言及するとき、最初に思い浮かぶのは OpenAI の ChatGPT です。 ChatGPT は、その強力なパフォーマンスと幅広いアプリケーションの可能性により、ここ 1 年で人気が高まりました。 しかし、大規模な言語モデルに関しては、ChatGPT が最初ではありません。 1 年前、OpenAI が ChatGPT をリリースする 2 週間前に、Meta は Gaoptica と呼ばれる試用モデルをリリースしました。 大規模な言語モデルとして、ギャラクティカは、論文、参考資料、知識ベース、および 4,800 万を超える論文、教科書、配布資料、数百万の化合物、タンパク質の知識を含むその他の多くのソースからなる大規模な科学コーパスでトレーニングされています。 、科学ウェブサイト、百科事典など。 当時メタ氏は、ギャラクティカは学術文献を要約し、数学的問題を解決し、Wiki記事を生成し、科学コードを記述し、さらには化学式やタンパク質配列を含むマルチモーダルなタスクを実行できると主張した。 しかし、ギャラクティカが生成したテキストが厳密でなく、無責任に捏造されていたことが理由として、オンライン公開から 3 日も経たないうちに、ギャラクティカはすぐに棚から削除されました。


S-LoRA: 1 つの GPU で数千の大規模モデルを実行可能

 

https://news.miracleplus.com/share_link/11742

一般的に、大規模な言語モデルのデプロイメントでは、「事前トレーニングとその後の微調整」モデルが採用されます。 ただし、基本モデルが多数のタスク (パーソナライズされたアシスタントなど) に合わせて微調整されると、トレーニングとサービスのコストが法外に高価になる可能性があります。 LowRank Adaptation (LoRA) は、ベース モデルをさまざまなタスクに適応させるためによく使用されるパラメーター効率の高い微調整方法であり、その結果、ベース モデルから多数の LoRA アダプターが派生します。 このパターンは、サービス プロセスでバッチ推論を行う機会を数多く提供します。 LoRA の研究では、アダプターの重みのみを微調整すると、全重みを微調整した場合と同等のパフォーマンスを達成できることが示されています。 このアプローチにより、単一アダプターの低遅延推論とアダプター間でのシリアル実行が可能になりますが、複数のアダプターを同時に処理する場合、サービス全体のスループットが大幅に低下し、全体の遅延が増加します。 要約すると、これらの微調整されたバリアントを大規模に提供する方法の問題は未解決のままです。 最近の論文で、カリフォルニア大学バークレー校、スタンフォード大学、その他の大学の研究者らは、S-LoRA と呼ばれる新しい微調整方法を提案しました。

© 版权声明

関連記事

コメントなし

コメントはありません…