LLM2LLM: 新しい反復データ拡張による LLM の強化
LLM2LLM: 新しい反復データ拡張による LLM の強化

内容紹介
この論文では、データ不足の下で大規模言語モデル (LLM) のパフォーマンスを向上させる画期的な方法を紹介します。 LLM2LLM と呼ばれるこの手法では、「教師」LLM を利用して「生徒」LLM のエラーに基づいて合成データを生成し、生徒モデルを繰り返し微調整します。 このアプローチは、大規模で高価なデータ ラングリングを必要とせずに、特殊なタスクにおける LLM の機能を大幅に強化できる可能性があるため、特に興味深いものです。 この論文で示されている結果は、従来の微調整方法と比較して、さまざまなデータセットでパフォーマンスが最大 52.6% 向上することを示しています。 このイノベーションは、開発者や研究者がデータに制約のある環境で LLM を使用する方法を変える可能性を秘めており、最先端の人工知能と機械学習の進歩に興味がある人にとっては興味深い読み物になります。
自動要約
– LLM2LLM は、教師 LLM を使用して小さなシード データセットを拡張する、データ量が少ない状況向けの反復的なデータ拡張戦略です。
– LLM2LLM は、初期シード データに基づいてベースラインの生徒 LLM を微調整することにより、モデルが間違っているデータ ポイントを評価および抽出し、教師 LLM を使用してこれらの間違ったデータ ポイントに基づいて合成データを生成し、トレーニング データに追加し直します。 。
– LLM2LLM は、低データ状況での LLM のパフォーマンスを大幅に向上させ、従来の微調整やその他のデータ拡張方法を上回ります。
– LLM2LLM は、労働集約的なデータ フィルタリングへの依存を軽減し、よりスケーラブルでパフォーマンスの高い LLM ソリューションへの道を開きます。
– LLaMA2-7B 学生モデルを使用すると、低データの場合、LLM2LLM は GSM8K データセットで 24.2%、CaseHOLD で 32.6%、SNIPS で 32.0%、TREC で 52.6% 改善され、SST-2 で 39.8% 増加しました。 。