Big Model Daily 1 月 25 日

[Big Model Daily 1 月 25 日] 研究「段階的に考える」だけでは十分ではなく、モデル「さらに段階的に考える」をより有用なものにする ヒントン、ルクン、ベンジオの三大産業大手、馬偉英、陳海波ら中国人は、選択された
「ステップごとに考える」だけでは不十分、「さらにステップを考える」モデルをより便利に
https://news.miracleplus.com/share_link/16768
現在、大規模言語モデル (LLM) とその高度なプロンプト戦略の出現により、言語モデル、特に古典的な NLP タスクの研究が大きく進歩しました。 主要なイノベーションの 1 つは、思考連鎖 (CoT) プロンプト テクノロジであり、複数ステップの問題解決における機能で知られています。 このテクノロジーは人間の逐次推論に従い、クロスドメイン、長期一般化、クロス言語タスクなどのさまざまな課題に対して優れたパフォーマンスを示します。 CoT は、論理的で段階的な推論アプローチにより、複雑な問題解決シナリオにおいて重要な説明可能性を提供します。 ノースウェスタン大学、リバプール大学、ニュージャージー工科大学の研究者らは、推論ステップの長さと結論の正確さとの関係をさらに調査し、人々が NLP の問題を効果的に解決する方法についての理解を深められるようにしました。 次の記事では、推論ステップが CoT を機能させるためのプロンプトの最も重要な部分であるかどうかを検討します (図 1 を参照)。 この記事の実験では変数が厳密に制御されており、特に新しい推論ステップを追加する場合、研究者は追加の知識が導入されないようにします。 ゼロサンプル実験では、研究者らは最初のプロンプトを「段階的に考えてください」から「段階的に考えて、できるだけ多くの段階を考えてください」に調整した。 少数のサンプルの問題について、研究者らは、他のすべての要素を一定に保ちながら、基本的な推論ステップを拡張する実験を設計しました。
Tang Xiaoou の弟子がチームを率いています。調整なしで長いビデオを生成し、512 フレームをサポートしています。 あらゆる拡散モデルを使用可能
https://news.miracleplus.com/share_link/16769
さて、誰かが、事前にトレーニングされたビデオ拡散モデルに直接適用できる、非常に効果的なチューニング不要の方法を提案しました。 最大512フレームまで対応可能(フレームレートが30fpsとすると、理論上は約17秒の作品を生成できる)。 AnimateDiff、LaVie など、あらゆるビデオ生成モデルに適用できます。 ラクダを走らせたり、一時停止させたりするなどのマルチテキスト生成もサポートしています。 この成果は Tencent AI Lab、南洋理工大学、香港科技大学から得られたもので、ICLR 2024 に選ばれました。
AIは今後5年間でさまざまな分野をどのように変えるでしょうか? LLMからAIタンパク質設計、医療まで…。
https://news.miracleplus.com/share_link/16770
5年前(2019年1月)、「Nature Machine Intelligence」がローンチされました。 もちろん、人工知能 (AI) に関しては、5 年前は別の時代のように思えました。 1 月 24 日、Nature Machine Intelligence 誌は、特集トピック「AI 周年記念回想」で最近同誌にコメントや意見記事を発表した著者に再度連絡してインタビューし、それぞれの分野の人工知能の例を挙げるよう依頼しました。科学のプロセスを変える。 AI に関して他にどのようなトピックに興奮しているか、驚いているか、心配しているか、また 2024 年および今後 5 年間の AI に対する希望や期待について知りたいと考えています。 繰り返し取り上げられるテーマは、大規模な言語モデルと生成人工知能の継続的な開発、それらが科学プロセスに変革をもたらす影響、そして倫理的影響についての懸念です。
ヒントン、ルカン、ベンジオの三大巨頭、馬偉英、陳海波ら中国人が選出、2023年度ACMフェローを発表
https://news.miracleplus.com/share_link/16771
本日、Association for Computing Machinery (ACM) はフェローの最新リストを発表しました。 1947 年に設立された ACM は、コンピューティング分野で世界で最も影響力のある専門学術団体の 1 つです。 ACM フェローは、組織が上級会員に授与する栄誉であり、コンピュータ関連分野で貢献した会員の中から上位 1% の学者を表彰することを目的としており、非常に厳格な審査プロセスにより年に 1 回選出されます。同僚によって推薦され、その推薦は委員会によって検討されます。 今年は新たに 68 人の科学者が選ばれ、彼らの貢献はネットワーク セキュリティ、人間とコンピュータのインタラクション、モバイル コンピューティング、推奨システムなどの分野をカバーしています。 驚くべきことに、ACMチューリング賞を受賞したディープラーニングの3人の巨人、ジェフリー・ヒントン、ヨシュア・ベンジオ、ヤン・ルカンは全員、今年のACMフェローに選ばれた。 今年の候補者には、馬偉英、陳海波、その他多くの中国学者も含まれています。
世界中のロボットが同じ脳を共有、Google DeepMind が最初のステップを完了
https://news.miracleplus.com/share_link/16772
過去 1 年間、生成型人工知能の開発における中心的なキーワードは「ビッグ」でした。 強化学習の先駆者であるリッチ・サットン氏が提唱した、コンピューティング能力を駆使して「奇跡を起こす」という考え方は、人々に徐々に受け入れられてきましたが、AI モデルが驚くべき知恵を示す中心的な理由は、膨大な量のデータにあります。 データの規模が大きいほど品質が高くなり、注釈がより詳細になるため、モデルが理解できる世界の知識がより包括的になり、よりインテリジェントな結果を当てはめることができます。 では、なぜ人工知能の進歩が、SF 映画に登場するような全能の執事ロボットに反映されなかったのでしょうか? テーブルを片付けたり、洗濯物を畳んだり、朝食を作ったりできるロボットはどこにあるのでしょうか? 重要な理由は、ロボット工学の分野では「奇跡を起こす」ことが難しいということです。ロボットの学習データは通常、研究室の研究者によって提供されるのに対し、生成AIのテキストや画像の学習データはインターネット上で簡単に入手できます。特定のタスクに基づいて 1 つずつ作成されます。 このプロセスは多くの場合長くて退屈です。 この疑問に対する答えを得るために、北米、ヨーロッパ、アジアの 34 のロボット研究室が共同で、Google Deepmind が始めた RT-X プロジェクトを立ち上げました。 RT-X プロジェクトの目標は、データ、リソース、コードを統合して汎用ロボットを実現することです。 このプロジェクトの主な参加者であるカリフォルニア大学バークレー校のセルゲイ・レビン教授と、Google DeepMind の主任科学者であるカロル・ハウスマンは、共同で記事「THE GLOBAL PROJECT TO MAKE A GENERAL ROBOTIC BRAIN (汎用ロボット脳を作成するための世界協力プロジェクト)」を執筆しました。 Universal Robot Brain)」に、RT-X プロジェクトの進捗状況がまとめられています。
【21,000語書き起こし】Rabbit創業者兼CEO Lu Cheng氏との最新対談|R1はiPhoneキラーではなく、AI + iPodのようなもの
https://news.miracleplus.com/share_link/16773
これは、CES 後の「This Week Startup」プログラムで、Rabbit CEO の Jesse Lyu 氏がシリコンバレーの著名なエンジェル投資家である Jason Calacanis 氏と交わした最新の会話であり、90 分間の会話で彼の最新の製品に対する考え方が詳述されました。 Lu Cheng 氏は、同じ問題をより直感的な方法で解決するテクノロジーの進化を強調しました。 同氏は、LAM (ラージ アクション モデル) の動作原理を詳しく紹介しました。LAM は、効率を向上させ、時間を節約するように設計されています。ユーザーが他のことに集中できるようにする、真の時間節約デバイスです。このコンセプトが、会社の力。
Apache のトップレベル プロジェクト MXNet は廃止されました。 偉大な巨匠、李牧によって創設され、アマゾンに好まれていた深層学習フレームワークは、どのようにして大企業の「寵児」から「公平性」に陥るまでに至ったのでしょうか?
https://news.miracleplus.com/share_link/16774
最近、深層学習技術の著名な専門家である Li Mu 氏のオープンソース学習フレームワーク プロジェクト MXNet が、プロジェクトが非アクティブになったため、Apache Attic に移動されました。 Apache Attic は、中止された Apache プロジェクトのソリューションを提供する Apache Software Foundation のプロジェクトです。 Attic プロジェクトは 2008 年 11 月に設立されました。 廃止されたプロジェクトを保持することもできます。
米国国家 AI 研究リソース パイロット プロジェクトがオンラインになり、NASA、NVIDIA、OpenAI などから寄贈された主要な基本リソースが利用されます。
https://news.miracleplus.com/share_link/16775
米国科学財団 (NSF) は、国家人工知能研究リソース パイロット プロジェクト (NAIRR) を立ち上げました。このプロジェクトは、国家研究インフラを共有することで、広範な研究および教育コミュニティが基本的な AI リソースとツールに公平にアクセスできるようにすることを目的としています。 このプロジェクトは、NASA、Nvidia、OpenAI などを含む多くの政府機関や民間企業からリソースの寄付を受けています。 NAIRR は、特にリソースが限られ、過小評価されているグループを対象とした、AI 研究をサポートするためのデータセット、AI モデル、ソフトウェア、トレーニング リソースを提供します。 プロジェクトの予算は3年間で年間8億ドルで、AI技術分野における米国の国際競争力を維持することを目的としている。