タグ: LoRA

Qwen Image Edit + LoRAで2回目から高速になる理由【キャッシュの仕組みを解説】

Qwen Image EditでLoRAを使っていると、初回は1時間かかるのに、2回目からは10分で終わるという現象に気づいた方も多いのではないでしょうか。しかも、プログラムを再起動しても2回目以降は速いまま。この記事では、その理由をキャッシュの仕組みから丁寧に解説します。 結論:2種類のキャッシュが組み合わさっている 速度差の正体は、主に以下の2つのキャッシュ機構です。 OSのページキャッシュ(RAMへのファイルキャッシュ) CUDA

続きを読む

safetensorsの「配線」はどこにある?Netronで線が見えない理由をわかりやすく解説

機械学習モデル(特にTransformer系)を触っていると、.safetensors ファイルをNetronで開いたときに、 「ノードが並んでいるだけで、配線(接続)が見えない」 という疑問にぶつかることがあります。 この記事ではこの現象の理由と、実際にブロックの接続(配線)がどこに記録されているのかを整理して解説します。 なぜNetronで配線が見えないのか? 結論から言うと: safetensorsには「配線情報」が入っていないた

続きを読む

Stable DiffusionとLCMとは?生成AIの仕組みと高速化技術をわかりやすく解説

近年、画像生成AIの分野で注目されている「Stable Diffusion」。そして、その高速化技術として話題になっている「LCM(Latent Consistency Model)」。 この記事では、これらの技術の基本から違いまで、初心者にもわかりやすく解説します。 Stable Diffusionとは?生成モデルの一種 Stable Diffusionは、テキストから画像を生成できるAIモデルで、**生成モデル(Generative

続きを読む

Stable Diffusion U-Net の ONNX に別の ONNX モデルを結合する方法

Stable Diffusion ONNX U-Net に別モデルを統合する方法 Stable Diffusion の ONNX 版 U-Net を改造して、別の ONNX モデルを内部に結合することで、 IP-Adapter カスタム Attention Control 信号 などを直接モデル内部に組み込むことができます。 この記事では 既存の model.onnx に別の model.onnx を統合する方法を紹介します。 例として

続きを読む