Big Model Daily、11 月 20 日

情報1数年前 (2023)发布 AIWindVane
54 0

Big Model Daily、11 月 20 日

[Big Model Daily、11 月 20 日] 元 Open AI CEO のサムとグレッグ ブロックマンがマイクロソフトに入社し、新しい高度な人工知能研究チームを率いることになる; マスク: 高度な AI 開発のリスクは非常に高い. OpneAI はウルトラマンを解雇する理由を発表すべきだ; マスク: 高度な AI 開発のリスクは非常に高い. GPT-4Vの自動運転への応用の見通しは何ですか? 現実のシナリオの包括的な評価が予定されています


Open AI の元 CEO であるサム ブロックマン氏とグレッグ ブロックマン氏がマイクロソフトに入社し、新しい高度な人工知能研究チームを率いています

https://news.miracleplus.com/share_link/11844

Microsoft は、OpenAI との連携への取り組みを再確認し、組織の製品ロードマップ、イノベーション能力、顧客とパートナーへのサポートに全幅の信頼を表明しました。 このニュースの発表において、Microsoft は Microsoft Ignite カンファレンスで発表されたイノベーションを強調しました。 さらに、Microsoft は OpenAI の新しいリーダーシップ チームを歓迎しており、特に Emmett Shear 氏と彼のチームと協力することを楽しみにしています。 最も注目すべきは、サム・アルトマン氏とグレッグ・ブロックマン氏がマイクロソフトに入社し、新しい高度な人工知能研究チームを率いることになる。 この開発は、人工知能分野における Microsoft の主要な投資および戦略的レイアウトとみなされます。 Microsoftは声明で、アルトマン氏、ブロックマン氏、そして彼らのチームが成功するために必要なリソースを提供するために迅速に行動すると述べた。 これは、必要なテクノロジーと人材リソースを提供するための財政的支援を超えて、高度な AI 研究に対する Microsoft の取り組みを示しています。


マスク「高度なAI開発のリスクは非常に高い。OpneAIはウルトラマンを解雇する理由を発表すべきだ」

https://news.miracleplus.com/share_link/11845

テスラのイーロン・マスク最高経営責任者(CEO)は、現在世界で最も強力なAI企業であるオープンAIは、高度な人工知能(AI)技術の開発には潜在的な危険が非常に高いため、CEOの解任について説明する必要があると述べ、CEOのサム・アルトマン氏の理由を語った。


OpenAIセキュリティシステム担当者による長文記事:大規模モデルの敵対的攻撃と防御

https://news.miracleplus.com/share_link/11846

LLM は強力な機能を備えているため、悪意のある人がこれを使用して悪いことを行うと、予測できない重大な結果を引き起こす可能性があります。 ほとんどの商用およびオープンソース LLM には特定のセキュリティ メカニズムが組み込まれていますが、さまざまな形態の敵対的攻撃を防御できない場合があります。 最近、OpenAI Safety Systems チームの責任者である Lilian Weng 氏がブログ記事「LLM に対する敵対的攻撃」を公開し、LLM に対する敵対的攻撃の種類を整理し、いくつかの防御方法を簡単に紹介しました。


GPT-4Vの自動運転への応用の見通しは何ですか? 実際のシナリオに基づいた総合評価はこちら

https://news.miracleplus.com/share_link/11847

GPT-4V のリリースにより、多くのコンピューター ビジョン (CV) アプリケーションに新たな可能性が開かれました。 一部の研究者は、GPT-4V の実用化の可能性を探求し始めています。 最近、「GPT-4V による路上 (ision): 自動運転における視覚言語モデルの初期の探索」というタイトルの論文で、自動運転シナリオにおける GPT-4V の機能の難易度を上げたテストが実施されました。実際のシナリオにおけるドライバーとしての判断と意思決定。


Google Bard が「防御を突破」し、自然言語を使用してクラッキングし、インジェクションによるデータ漏洩のリスクを高める

https://news.miracleplus.com/share_link/11848

大規模な言語モデルは、テキストを生成する際に手がかりとなる単語に大きく依存します。 この攻撃手法は、即語で覚えるモデルにとっては「敵の槍を利用して自分の盾を攻撃する」と言えるもので、最大の強みであると同時に防ぐのが難しい弱点でもあります。 プロンプトワードはシステムからの指示とユーザーからの指示に分けられますが、自然言語では両者を区別するのは困難です。 ユーザーがプロンプト単語を入力するときにシステムコマンドを意図的に模倣すると、モデルは会話の中で自分だけが知っているいくつかの「秘密」を明らかにする可能性があります。 プロンプト インジェクション攻撃にはさまざまな形式があり、主に直接プロンプト インジェクションと間接プロンプト インジェクションがあります。 ダイレクト プロンプト インジェクションとは、予期しない動作や有害な動作を誘発しようとして、ユーザーが悪意のある命令をモデルに直接入力することを指します。 間接ヒント挿入とは、攻撃者がモデルによって取得または取り込まれる可能性のあるドキュメントに悪意のある命令を挿入し、それによってモデルを間接的に制御または誘導することを指します。


ワンステップの画像作成を実現、Google UFOGen による非常に高速なサンプリング、高品質の画像の生成

https://news.miracleplus.com/share_link/11849

この 1 年で、Stable Diffusion に代表される一連の Vincentian 拡散モデルは、ビジュアル制作の分野を完全に変えました。 数え切れないほどのユーザーが、拡散モデルによって生成された画像を使用して生産性を向上させてきました。 ただし、拡散モデルの生成速度は一般的な問題です。 ノイズ除去モデルは、初期ガウス ノイズを徐々に画像に変換するマルチステップのノイズ除去に依存しているため、ネットワークの複数の計算が必要となり、生成速度が非常に遅くなります。 このため、大規模なヴィンセント グラフ拡散モデルは、リアルタイム性と対話性を重視する一部のアプリケーションにとって非常に不向きなものになります。 一連のテクノロジーの導入により、拡散モデルからサンプリングするために必要なステップ数は、最初の数百ステップから数十ステップ、さらにはわずか 4 ~ 8 ステップに増加しました。 最近、Google の研究チームは、非常に迅速にサンプリングできる拡散モデルの変形である UFOGen モデルを提案しました。 論文で提案されている方法で安定拡散を微調整することで、UFOGen はわずか 1 ステップで高品質の画像を生成できます。 同時に、グラフ生成や ControlNet などの Stable Diffusion の下流アプリケーションも保持できます。


ドイツ、フランス、イタリア、技術開発の過度な制限に反対するAI規制で合意

https://news.miracleplus.com/share_link/11850

ドイツ、フランス、イタリアは、人工知能を規制する方法について合意に達し、これが欧州レベルでのAI規制ガイドラインの青写真となる可能性がある;ドイツ、フランス、イタリアが合意に達した合意では、人工知能の適用のみを規制すると主張しているアプリに制裁が課されるのは、アプリが不正行為を行った場合のみであり、ドイツ、フランス、イタリアの両国は、EU の AI プロバイダーに対する拘束力のある自主的な取り組みを支持している。

© 版权声明

関連記事

コメントなし

コメントはありません…