特集
FEATURE
ビジネス
BUSINESS
ラーニング
LEARNING
エンジニアリング
ENGINEERING
学術&研究
ACADEMICS & STUDY
公共
PUBLIC
エンタメ&アート
ENTERTAINMENT & ART
1~13 / 490件
NTTは2025年7月9日、生成AIの特化モデルを再学習せずに基盤モデル間で転移可能とする新技術「ポータブルチューニング」を[発表]{target=“_blank”}」の実現にも貢献するとしている。 ## カスタマイズコストの抜本的削減を実現 生成AIを業務に応用する際、用途特化のカスタマイズが求められるが、基盤モデルが更新されるたびに再学習が必要となり、大きなコストと時間を要していた。NTTはこの課題に対し、特化学習で得た知見を、報酬モデルという中立的なモジュールを介して「持ち運ぶ」手法を開発。報酬モデルを一度構築すれば、異なる構造や規模の基盤モデルにも適用でき、再学習を行わずに高い性能を維持できると説明している。 ![250709ab.jpg] :::small 画像の出典:[NTT]{target=“_blank”} ::: ## 技術の仕組みと特徴 ポータブルチューニングは、以下の3点を軸に構成されている。 - **報酬モデルによる出力補正** :特化学習の成果を、基盤モデルの出力を評価・調整する報酬モデルとして独立して学習。 - **モデル非依存の汎用性** :報酬モデルは特定の基盤モデルに依存せず、構造やパラメータ数が異なる複数のモデルに転用可能。 - **再学習工程の削減** :基盤モデルを更新しても報酬モデルを再利用できるため、再学習を行わずに特化性能を保持。 これにより、モデル更新のたびに必要だったGPU使用やデータ再整理といったリソース投入が不要となり、運用面・環境面の両面での負荷を大幅に軽減できるとされる。 ## 「tsuzumi」など複数基盤モデルで検証 NTTは、自社開発の日本語LLM「tsuzumi」を含む複数の基盤モデルに対してポータブルチューニングを適用し、特化性能を高水準で維持できることを確認したと述べている。実験では、異なるモデル間においても同一の報酬モデルを適用することで、再学習なしで特化出力の一貫性が保たれることを実証した。 さらに、NTTは本技術の研究成果を、2025年7月13日からカナダ・バンクーバーで開催されている国際機械学習会議(ICML 2025)で発表する予定としている。 ## 今後の展望 NTTは今回の技術が、既存の軽量ファインチューニング手法(LoRA、QLoRAなど)と比較しても、再学習に伴う作業負荷・GPU時間・電力消費を本質的に削減できる点を強調している。 将来的には、複数の小型AIを連携・協調させる分散型AIネットワーク「AIコンステレーション®」構想の中核技術としても活用する計画で、今後は省電力型LLM群との組み合わせによる持続可能なAI運用環境の構築を目指す方針だ。 生成AIを導入する企業や自治体にとって、特化モデルを持続的に運用するための最大の障壁は「モデル更新のたびに再チューニングが必要」という運用コストであった。今回発表されたポータブルチューニングは、その運用課題を根本から解消する可能性がある。NTTは今後、外部パートナーと協力して、さまざまな業務用途への適用を広げる考えを示している。 :::box [関連記事:NTT独自のLLM「tsuzumi」 2024年3月に商用サービス提供予定] ::: :::box [関連記事:NTTの自社開発LLM「tsuzumi」を3月25日から商用サービス提供開始] ::: :::box [関連記事:NTT、サカナ AI と連携を発表「AIコンステレーション研究」でサステナブルな社会を目指す] ::: :::box [関連記事:LoRAとは|画像生成AI・LLMの軽量ファインチューニング技術] ::: :::box [関連記事:LoRAより少ない計算コストと時間で高性能な「DoRA」] :::
Ledge.aiにソリューション情報を掲載しませんか?
使い方や具体的な目標などを詳しくご説明します
お問い合わせ