1 月 17 日の Big Model Daily Collection

情報12ひと月前更新 AIWindVane
51 0
1 月 17 日の Big Model Daily Collection

[1 月 17 日の Big Model Daily Collection] ついに、トップ NLP カンファレンス ACL への提出は匿名である必要がなくなりました; Stability AI は、GPU なしでローカルで実行できる Stable Code 3B モデルをリリースしました; Mollick は Microsoft の簡単なレビューを共有しましたCopilot Pro アプリケーション: 非常に印象的なセット 印象的なツール


ICLR 2024 の採択率は 31% 清華 LCM 論文の著者: 冗談ですが、論文は却下されました。

 

リンク: https://news.miracleplus.com/share_link/16003

ICLR 2024 学習表現国際会議は第 12 回会期を迎え、今年 5 月 7 日から 11 日までオーストリアのウィーン コンベンション & エキシビション センターで開催されます。 ICLR は機械学習コミュニティの中で比較的「若い」学術サミットであり、深層学習の巨人でチューリング賞受賞者のヨシュア ベンジオ氏とヤン ルカン氏が主導しており、最初のセッションは 2013 年に開催されたばかりです。 しかし、ICLR はすぐに学術研究者から広く認知されるようになり、ディープラーニングに関する最高のカンファレンスとみなされました。 Google Scholar の学会・雑誌ランキングでは、ICLR は現在、NeurIPS よりも上位の 10 位にランクされています。 本日、ICLR 2024 は論文投稿者に受理結果を順次通知しました。 このカンファレンスには合計 7,262 件の応募があり、全体の採択率は約 31% で、昨年 (31.8%) と同じでした。 また、Spotlights 論文の割合は 5%、Oral Paper の割合は 1.2% です。


最後に、NLP カンファレンスのトップである ACL への投稿は匿名である必要がなくなりました。

 

リンク: https://news.miracleplus.com/share_link/16004

自然言語処理分野の研究者にとって朗報です。 最近、計算言語学協会年次会議 (ACL) は、この一連の会議への論文投稿の匿名期間がキャンセルされ、著者は投稿期間中に自分の研究を宣伝することが許可されると正式に発表しました。 新しい規制は次のレビューサイクルに直接適用されます。 62回目となる今年のACLは、2024年8月11日から16日までタイのバンコクで開催される。 2022 年から、ACL は毎月の期限付きのローリング レビュー メカニズム (ACL ローリング レビュー、ARR) を開始しました。 前回の締め切り前に審査プロセスに提出された論文には、依然として 1 日の匿名性ポリシーが適用されることに注意することが重要です。


ロボティクス分野における初のオープンソースのビジュアル言語操作大規模モデルである RoboFlamingo フレームワークは、オープンソース VLM の潜在力をさらに高めます

 

リンク: https://news.miracleplus.com/share_link/16005

近年、大規模モデルの研究が加速しており、さまざまなタスクにおけるマルチモーダルな理解と時間的および空間的推論能力が徐々に実証されています。 ロボットのさまざまな身体化された操作タスクには、言語コマンドの理解、シーンの認識、時空間プランニングに対する高い要求が当然ありますが、これは当然のことながら、「大型モデルの機能を最大限に活用してロボット工学の分野に移行できるか?」という疑問につながります。基礎となるアクションシーケンスを直接計画しますか? OpenFlamingo はロボット操作データセット CALVIN で検証され、実験結果では、RoboFlamingo が一連のロボット操作タスクで SOTA パフォーマンスを達成するために言語注釈付きデータの 1% のみを利用していることが示されました。 RT-X データセットの公開により、オープンソース データを使用して RoboFlamingo を事前トレーニングし、さまざまなロボット プラットフォームに合わせて微調整することが、シンプルで効果的な大規模ロボット モデル パイプラインになることが期待されます。 この論文ではまた、ロボティクス タスクに関するさまざまなポリシー ヘッド、さまざまなトレーニング パラダイム、およびさまざまな Flamingo 構造を使用して VLM の微調整パフォーマンスをテストし、いくつかの興味深い結論を得ました。


中国科学院は、プログラマーのバグ発見を支援するために大規模なモデルを使用して 102 件の論文を分析し、これらの解決策をまとめました。

 

リンク: https://news.miracleplus.com/share_link/16006

その優れた自然言語理解、推論、その他の機能により、大規模なモデルがさまざまなシナリオに適用され、前例のない結果が達成されています。 同様に、ソフトウェア テストの分野でも、強制的な生成を支援する強力な機能の恩恵を受けています。

実際の多様なテスト入力により、さまざまな異常をシミュレートし、欠陥の発見を加速し、テストの効率を向上させ、ソフトウェアの品質を向上させる可能性があります。 中国科学院ソフトウェア研究所、モナシュ大学、オーストラリア、カナダより

ローク大学の研究チームは、2023 年 10 月 30 日時点で発行された情報を収集しました

表にある102件の関連論文は、それぞれソフトウェアテストと大規模モデルの観点から包括的に分析され、ソフトウェアテスト分野における大規模モデルの適用に関する包括的なレビューがまとめられています。


Nature サブジャーナル | 化学者とロボットの両方が読むことができる、再現可能なロボット合成のための汎用化学プログラミング言語

 

リンク: https://news.miracleplus.com/share_link/16007

化学合成に関する文献の量は急速に増加していますが、新しい手順が研究室間で共有され、評価されるまでには長い時間がかかります。 ここでは、カナダのブリティッシュ コロンビア大学 (UBC) と英国のグラスゴー大学の研究者チームが、一般化学プログラミング言語 (XDL) を使用して 4 つの異なるハードウェア上でさまざまなタスクをコーディングおよび実行する方法を提案しています。 2 つの研究室のシステム 還元的アミノ化、環化、エステル化、炭素-炭素結合形成、アミドカップリングなどの化学反応の合成手順。 提案されたアプローチでは、反応ごとに約 50 行のコードがあり、抽象化を使用して化学プロトコルを効果的に凝縮します。 さまざまなロボット プラットフォームにより、ステップごとに最大 90% の収率で目的の合成が一貫して生成され、より高速かつ安全な研究ワークフローが可能になり、スケールではなくボリュームによるプロセス スループットが向上します。


Stability Al が、GPU なしでローカルで実行できる Stable Code 3B モデルをリリース

 

リンク: https://news.miracleplus.com/share_link/16008

Vincent グラフィックスの分野で人気のある Stability Al は、本日、2024 年の最初の新しい Al モデルである Stable Code 3B を発表しました。 名前が示すように、Stable Code 3B は、補助的なコーディング タスクに焦点を当てた 30 億のパラメーター モデルです。 専用の GPU を必要とせずにラップトップ上でネイティブに実行しながら、Meta の CodeLLaMA 7B のような大型モデルでも競争力のあるパフォーマンスを提供します。 2023 年末、Stability Al は、テキスト生成用の StableLM Zephyr 3B モデルなど、より小さく、よりコンパクトで、より強力なモデルの開発を推進し始めました。 2024 年の到来に伴い、Stability Al は、2024 年の最初の大規模言語モデルである Stable Code 3B を年初にノンストップでリリースしています。実際、このモデルは Stable Code Alpha 3B のプレビュー バージョンを次のようにリリースしました。昨年の8月以来、スタビリティ・アルは着々と技術を向上させてきました。 StableCode 3B の新バージョンはコード補完用に設計されており、さまざまな追加機能が備わっています。


Shanghai AI Lab Scholar-Puyu 2.0 が正式にオープンソースとなり、言語モデリングの本質に立ち返る

 

リンク: https://news.miracleplus.com/share_link/16009

1月17日、上海でScholar Puyuan 2.0(nternLM2)の記者発表会とScholar Puyuan Large Model Challengeの開始式が開催された。 上海人工知能研究所とSenseTimeは、香港中文大学および復丹大学と協力して、新世代の大規模言語モデルPuyu 2.0を正式にリリースしました。 InternLM2 は、2.6 兆トークンの高品質コーパスでトレーニングされています。 初代学者 Puyu (nternLM) の設定を踏襲し、InternLM2 には 7B と 20B の 2 つのパラメータ仕様と、さまざまな複雑なアプリケーション シナリオのニーズを満たすベース バージョンとダイアログ バージョンが含まれています。 「高品質のオープンソースでイノベーションを可能にする」というコンセプトに従い、上海人工知能研究所は引き続き lnternLM2 の商用ライセンスを無料で提供します。


OpenAl は、Al の大規模モデルが人間の価値観と一致していることを確認するために一般の意見を収集するための新しいチームを設立します

 

リンク: https://news.miracleplus.com/share_link/16010

米国現地時間1月17日、人工知能分野のリーダーであるOpenAlは、「Collective Alignment」と呼ばれる新チームを結成するとブログで発表した。 主に研究者とエンジニアで構成されるこのチームは、潜在的な偏見やその他の問題に対処するために AI モデルの動作をトレーニングおよび形成するのに役立つ一般の意見を収集するプロセスの設計と実装に焦点を当てます。

© 版权声明

関連記事

コメントなし

コメントはありません…