Diffusion Model
拡散モデル
かくさんもでる
Definition
A diffusion model is a generative model that learns to reconstruct images by progressively removing noise, enabling high-quality image generation. Understanding it helps explain quality, speed, and controllability in modern generators.
Stable Diffusion、DALL-E、Midjourneyなど、現在の画像生成AIのほとんどが「拡散モデル」と呼ばれる技術に基づいています。拡散モデルとは、画像にノイズを段階的に加えて完全なノイズにする過程を逆再生するように学習し、ノイズから高品質な画像を生成する手法です。
「壊して戻す」を学ぶ
拡散モデルの学習プロセスは2つのフェーズで構成されます。まず拡散過程(Forward Process)で、元の画像に少しずつガウスノイズを加えていき、最終的には完全なランダムノイズにします。次に逆拡散過程(Reverse Process)で、このノイズ除去のステップを逆方向にたどる方法をニューラルネットワークに学習させます。訓練済みのモデルは、ランダムノイズを入力として受け取り、ステップごとにノイズを少しずつ取り除き、最終的に鮮明な画像を生成します。
なぜ高品質な画像が作れるのか
拡散モデル以前に主流だったGAN(敵対的生成ネットワーク)は、生成器と識別器の2つのネットワークを競わせて学習する手法でしたが、学習が不安定になりやすく、多様性が欠ける(モード崩壊)という課題がありました。拡散モデルは数学的に安定した学習プロセスを持つため、GANより学習が容易で、かつ高い多様性と品質を両立できます。
テキストから画像へ
拡散モデルが実用化された最大の要因は、テキスト条件付き生成の成功です。CLIP(テキストと画像の関係を学習したモデル)と組み合わせることで、「夕焼けのビーチで走る犬」のようなテキストプロンプトから、その描写に合った画像を生成できるようになりました。Stable Diffusionでは、さらに潜在拡散モデル(Latent Diffusion Model)の技術を使い、画像を圧縮した潜在空間でノイズ除去を行うことで、計算コストを大幅に削減しています。
画像以外への拡張
拡散モデルの応用範囲は画像生成にとどまりません。動画生成(OpenAIのSora、GoogleのVeo)、音声生成、3Dモデル生成、さらには分子構造の設計(創薬分野)にまで広がっています。「ノイズから段階的に目的のデータを復元する」という原理は、画像に限らずあらゆる種類のデータ生成に応用可能だからです。
現在のトレンド
2024年以降のトレンドとして、拡散モデルの生成速度の高速化が進んでいます。従来は1枚の画像生成に数十ステップのノイズ除去が必要でしたが、蒸留(Distillation)やConsistency Modelなどの技術により、数ステップで高品質な画像を生成できるようになっています。また、ControlNetのような技術で、ポーズや構図を細かく制御しながら生成する方法も実用化が進んでおり、デザインや広告制作での活用が急速に広がっています。