Big Model Daily、10 月 25 日

情報1数年前 (2023)发布 AIWindVane
57 0

Big Model Daily、10 月 25 日

[Big Model Daily、10 月 25 日] 世界で最も強力な CPU が一夜にして交代し、130 億個のパラメータを持つ大型モデルが PC に詰め込まれ、インターネット接続なしで毎週の電子メール PPT を生成できるようになりました; LeCun が再び自己回帰 LLM: GPT を悪口-4 2 つの論文で証明されているように、推論能力は非常に限られています; Apple の「マトリョーシカ」スタイルの普及モデルにより、トレーニングのステップ数が 70% 削減されました; 純利益は 1763% 増加しました、世界第 3 位のソフトウェア会社が AIGC にどのように依存したか振り返って


世界で最も強力な CPU が一夜にして交代し、130 億個のパラメータを備えた大型モデルが PC に詰め込まれ、インターネット接続がなくても毎週の電子メール PPT レポートを生成できるようになりました

リンク: https://news.miracleplus.com/share_link/11164世界で最も強力な CPU は一夜にして交代しました。 ちょうど今、Snapdragon Summit で、PC ノートブック向けに特別に設計された Qualcomm の Snapdragon X Elite チップが正式に発表され、パフォーマンスと消費電力で業界の新記録を打ち立てました。 記者会見では「アップルを殴ってインテルを蹴る」という風潮が強かった。 クアルコムの CEO は、データ比較を直接公開し、その場で「好きなように写真を撮って、共有することを歓迎します!」と叫びました。


Perplexity の最新の評価額は 5 億ドルです。 IVP が投資を主導すると発表しましたが、OpenAI の最初の投資家であるコスラ氏は、AI は依然として勝者総取りのアプローチに従っていると述べ、「引退」し始めました。

リンク: https://news.miracleplus.com/share_link/11165

The Informationの新しいレポートによると、IVPはPerplexityへの投資を主導しており、前回の評価額は約5億ドルで、3月に発表された1億5,000万ドルの評価額から300%以上増加しました。 現在の Perplexity の有料ユーザー数は 15,000 人に達していると報告されており、有料版の Perplexity では、ユーザーがアップロードした PDF などのドキュメントで答えを見つけたり、情報を要約したりできるほか、Claude や GPT などの高度なモデルを使用することができます。 4 より詳細で複雑な回答を生成します。 Perplexity CEO の Aravind Srinivas は、OpenAI の元研究科学者でもあります。彼は以前のコンテンツで Aravind Srinivas について特に共有しています。Srinivas は、元メタ研究科学者の Denis Yarats (Perplexity CTO) などのパートナーと Perplexity を共同設立しました。


純利益は 1,763% 増加しました。世界第 3 位のソフトウェア会社は、どのようにして AIGC に依存して立て直しを図ったのでしょうか?

 

リンク: https://news.miracleplus.com/share_link/11166

最近、世界的に有名な研究機関 IDC がクラウド大手 Salesforce に関する調査レポートを発表し、AI 主導のクラウド ソリューションによって Salesforce 経済は 2022 年から 2028 年までに世界に 2 兆米ドル以上をもたらすと予想されています。そして1160万人の雇用が増加した。 これに先立ち、Salesforceは8月30日に7月31日終了の2024会計年度第2四半期財務報告書を発表した。 財務報告書によると、同社の第2四半期の純利益は12億6,700万米ドルで、前年同期比1763.24%増加した。 Salesforce の株価の動向を見れば、2022 年に 1 年間続き時価総額がほぼ半減した暴落を経験した後、今年に入ってから Salesforce がついに下落を反転させ、株価は徐々に回復してきました。


老黄蘇の母親が現場に集結! チップ大手がレノボ製初の AI PC に注目

 

リンク: https://news.miracleplus.com/share_link/11167

ここではクアルコムがハワイでサミットを開催しており、向こうではNvidiaとAMDがテキサスに集まり、Nvidia Huang Jen-Hun氏やAMD Su Zifeng氏といった半導体大手のCEOが揃って別の記者会見に来ており、彼らの会話はAIの話題でいっぱいだった。 Lenovo が毎年開催する Tech World では、初の AI PC をリリースしただけでなく、他の一連の AI の新しいテクノロジーやインフラストラクチャも紹介されました。 Lenovo 会長兼 CEO の楊源清氏は、次のように直接言いました。「誰もが自分の大きなモデルを持ちましょう。」


LeCun 氏は再び自己回帰 LLM の悪口を言った: 2 つの論文で証明されているように、GPT-4 の推論能力は非常に限られている

 

リンク: https://news.miracleplus.com/share_link/11168

「自己回帰 LLM はすでに人間レベルの AI に近づいていると考えている人、または人間レベルの AI に到達するには単純にスケールアップする必要があると考えている人は、必ずこれを読んでください。AR-LLM の推論と計画の能力は非常に限られており、この問題を解決するにはチューリング賞受賞者のヤン・ルカン氏は常にLLMに「懐疑的」であり、自己回帰モデルはLLMモデルのGPTシリーズが依存する学習パラダイムである。 。 彼は自己回帰と LLM に対する批判を何度も公に表明しており、「正気の心を持っている人は、今から 5 年後には自己回帰モデルを使用することはないでしょう。」「自己回帰生成モデル」「自動回帰モデル」など、多くの金言を生み出してきました。 「回帰生成モデルはひどい!」「LLM は世界を非常に表面的に理解しています。」最近ルカンを再び叫ばせたのは、新しく発表された 2 つの論文でした:「LLM は文献で言われていることを実際に実行できます。とはいえ、自己批判 (私たちのグループの 2 つの新しい論文では、推論 (https://arxiv.org/abs/2310.12397) と計画 (https://arxiv.org/abs/ 2310.08118) でこの問題を取り上げており、これらの主張は次のとおりです。ミッション中に調査(そして挑戦)されました。」


データ分析、プラグイン呼び出し、自動インターネット アクセスを実行し、現実世界のインテリジェンスを実装できるオープン ソース バージョン「ChatGPT Plus」が登場しました。

 

リンク: https://news.miracleplus.com/share_link/11169

OpenAI ChatGPT Plusのサブスクリプション料金は強力で、高度な「データ分析」(高度なデータ分析)、「プラグイン呼び出し」(プラグイン)、「自動Webブラウジング」(Bingで閲覧)を実現でき、日常生活における重要な生産性ツールです。 ただし、商業的な理由により、クローズド ソースが選択され、研究者や開発者は、研究や改善を行う方法なしでのみ使用することができました。 これに基づいて、香港大学、XLang Lab、Sea AI Lab、Salesforce の研究者が共同で、現実世界の生産性ツール用のオープンソース エージェント フレームワークである OpenAgents を作成し、フルスタック コード (完全なフロントエンドとバック) をオープンソース化しました。 -end 、研究コード) 研究者から開発者、ユーザーまであらゆるニーズに対応します。 OpenAgents は、「ラージ言語モデル」(LLM) とフルスタック エンジニアリング コードに基づくテクノロジを使用して、ChatGPT Plus の機能に近づけようとします。 エージェントは Python/SQL コードを実行したり、ツールを巧みに呼び出したり、地図の検索やインターネットへの投稿も行うことができ、リサーチ コードの実装からバックエンド、フロントエンドまで、誰もが利用できるランディング レベルのアプリケーションとなっています。使用。 OpenAgents は、使用したテクノロジと遭遇した困難を完全に公開し、科学研究からロジック コード、フロントエンド コードに至るまでのすべてを含むコードを完全にオープンソース化しました。 コードは完全で、拡張が簡単で、ワンクリックでローカルにデプロイできます。研究者や開発者がモデル上で独自のエージェントやアプリケーションを構築するのに役立つ豊富なユースケースを含むドキュメントが提供されます。


Apple の「マトリョーシカ」スタイルの普及モデルにより、トレーニングのステップ数が 70% 削減されました。

 

リンク: https://news.miracleplus.com/share_link/11170

最近の Apple の研究により、高解像度画像における拡散モデルのパフォーマンスが大幅に向上しました。 この方法を使用すると、同じ解像度の画像のトレーニング ステップの数が 70% 以上削減されます。 1024×1024の解像度では、画質がそのままフルに引き伸ばされ、細部まではっきりと見えます。 Apple はこの成果を MDM と名付けました。DM は Diffusion Model の略で、最初の M は Matryoshka の略です。 本物のマトリョーシカ人形と同じように、MDM は高解像度プロセス内に低解像度プロセスをネストし、複数のレイヤーにネストします。 高解像度と低解像度の拡散プロセスが同時に実行されるため、高解像度プロセスにおける従来の拡散モデルのリソース消費が大幅に削減されます。


最大20回まで! ChatGPT などのモデルのテキスト プロンプトを圧縮し、AI の計算能力を大幅に節約します

 

リンク: https://news.miracleplus.com/share_link/11171

長いテキストのシナリオでは、ChatGPT などの大規模な言語モデルは、多くの場合、コンピューティング コストの増加、遅延の増大、パフォーマンスの低下に直面します。 これら 3 つの主要な問題を解決するために、Microsoft は LongLLMLingua をオープンソース化しました。 LLMLingua の中核となる技術原理は、「テキスト プロンプト」を最大 20 倍まで究極的に圧縮することであると報告されており、同時にプロンプ​​ト内の内容と問題との関連性を正確に評価し、無関係な内容を排除することができます。重要な情報を保持してコストを削減し、効率を高めます。 実験結果は、LongLLMLingua によって圧縮されたプロンプトのパフォーマンスが元のプロンプトより 17.1% 向上し、GPT-3.5-Turbo に入力されるトークンの数が 4 分の 1 に減少することを示しています。 LongBench テストと ZeroScrolls テストでは、1,000 サンプルあたり 28.5 ドルと 27.4 ドルのコスト削減が示されました。


DISC-FinLLM: 復旦大学チームが複数の専門家による微調整フレームワークを使用して中国のスマート金融システムをリリース

 

リンク: https://news.miracleplus.com/share_link/11172

復旦大学データインテリジェンスおよびソーシャルコンピューティング研究所 (FudanDISC) は、金融分野の大規模言語モデル DISC-FinLLM をリリースしました。 このモデルは、さまざまな財務シナリオに対応する 4 つのモジュール (財務コンサルティング、財務テキスト分析、財務計算、財務知識の検索と質問応答) で構成されるマルチエキスパートのスマート財務システムです。 これらのモジュールは、財務NLPタスク、ヒューマンテスト問題、データ分析、時事問題分析を含む4つの評価において明らかな優位性を示し、DISC-FinLLMが幅広い金融分野を強力にサポートできることを証明しました。 研究チームはモデルパラメータをオープンソース化し、詳細な技術レポートとデータ構築例を提供した。

– ホームページアドレス:https://fin.fudan-disc.com

– Github アドレス: https://github.com/FudanDISC/DISC-FinLLM

– 技術レポート: http://arxiv.org/abs/2310.15205

© 版权声明

関連記事

コメントなし

コメントはありません…