Qwen Image EditでLoRAを使っていると、初回は1時間かかるのに、2回目からは10分で終わるという現象に気づいた方も多いのではないでしょうか。しかも、プログラムを再起動しても2回目以降は速いまま。この記事では、その理由をキャッシュの仕組みから丁寧に解説します。 結論:2種類のキャッシュが組み合わさっている 速度差の正体は、主に以下の2つのキャッシュ機構です。 OSのページキャッシュ(RAMへのファイルキャッシュ) CUDA
Stable Diffusion系の画像生成でよく使われる IP-Adapter-FaceID と ControlNet(OpenPose)。 どちらも「条件を与えて画像をコントロールする」技術ですが、 内部の仕組みはかなり異なります。 この記事では、以下を順番に解説します: 顔特徴ベクトルとは何か Cross-Attention Layer の役割 IP-Adapter-FaceID の仕組み ControlNet(OpenPose)
WAN 2.1で動画生成を試みたとき、出力が緑がかったブロックノイズのような壊れた画像になった経験はないでしょうか。この問題の原因は、テキストエンコーダーの種類の間違いとFP8量子化の非互換性の組み合わせにあります。 原因①:テキストエンコーダーのアーキテクチャが違う よく混同されるのが、以下の2つのエンコーダーです。 モデル 使うT5エンコーダー FLUX T5-XXL(標準) WAN 2.1 umt5-XXL(UniMax T5、別
AIモデル(例:Qwen・Stable Diffusionなど)を使っていると、 「どこにダウンロードされてるの?」「気づいたら容量がヤバい…」と感じたことはありませんか? この記事では、Hugging Face系モデルの保存場所・容量の仕組み・削除方法・保存先変更まで、まとめて解説します。 ■ モデルはどこにダウンロードされるのか? from_pretrained() を使うと、モデルは自動的に Hugging Faceのキャッシュ領
近年、画像生成AIやテキスト生成AIの普及に伴い、「AIモデルの利用ルール」が重要視されています。 その中でも注目されているのが OpenRAIL(Open Responsible AI License) です。 この記事では、OpenRAILの概要から「できること・できないこと」まで、わかりやすく解説します。 ■ OpenRAILとは? OpenRAILとは、 AIモデルの自由な利用を認めつつ「責任ある使い方」を義務付けるライセンスで
機械学習モデル(特にTransformer系)を触っていると、.safetensors ファイルをNetronで開いたときに、 「ノードが並んでいるだけで、配線(接続)が見えない」 という疑問にぶつかることがあります。 この記事ではこの現象の理由と、実際にブロックの接続(配線)がどこに記録されているのかを整理して解説します。 なぜNetronで配線が見えないのか? 結論から言うと: safetensorsには「配線情報」が入っていないた
エラー内容 ONNXモデルを読み込む際に、以下のようなエラーが出ることがあります。 Microsoft.ML.OnnxRuntime.OnnxRuntimeException: [ErrorCode:Fail] Load model failed: Type Error: Type parameter (T) of Optype (MatMul) bound to different types (tensor(float) and t
はじめに 最近のGPU環境では「CUDAは自動で入っているのか?」「PyTorchはどこまで自動でやってくれるのか?」といった疑問を持つ人が多いと思います。 この記事では、Pythonのembed版(ポータブル環境)でCUDA対応PyTorchを使ったGPU推論を行う方法を、最小構成でわかりやすく解説します。 結論(重要ポイントまとめ) RTX 20xx以降でも CUDAは自動では入らない ただし PyTorch(CUDA版)に必要なラ
画像・動画生成AIを使っていると必ず出てくる Guidance Scale(CFG Scale)と、最近よく見かける True CFG。「なんとなく数値を変えて試している」という方も多いと思いますが、この記事ではその仕組みと、実用的な設定値を口語でわかりやすく解説します。 そもそも拡散モデルは何をしているのか WAN や Qwen ベースの生成モデルは、「ノイズだらけの画像から、少しずつノイズを取り除いて絵を作る」 という仕組み(拡散モ
Wan2.1やWan2.2などの動画生成AIを動かそうとすると、必ずセットで必要になるのが UMT5-XXL というモデルです。「テキストエンコーダー」と呼ばれるこのモデル、一体何をしているのでしょうか。 UMT5-XXL の正式名称と意味 正式名称は Unified Multilingual T5 Extra Extra Large(統合多言語T5・超特大モデル)、HuggingFace上の識別子は google/umt5-xxl で
WindowsでTritonをインストールしたにもかかわらず、torch_has_triton()がFalseを返してしまう問題に遭遇することがあります。この記事では、その原因と解決方法を解説します。 Tritonとは? GPUカーネルをPythonで書けるようにするコンパイラ/言語です。 通常、GPUで高速な処理をするにはCUDA(C++)でカーネルを書く必要がありますが、TritonはそれをPythonに近い書き方で実現
近年、画像生成AIの分野で注目されている「Stable Diffusion」。そして、その高速化技術として話題になっている「LCM(Latent Consistency Model)」。 この記事では、これらの技術の基本から違いまで、初心者にもわかりやすく解説します。 Stable Diffusionとは?生成モデルの一種 Stable Diffusionは、テキストから画像を生成できるAIモデルで、**生成モデル(Generative
HuggingFace の diffusers ライブラリに含まれる QwenImageEditPlusPipeline を使って 512×512 の画像を編集しようとすると、出力画像が不自然にズームインされたり画角がズレる現象が起きます。この記事ではその原因とコード修正方法を解説します。 🔍 現象 以下のようなコードで 512×512 の入力画像を処理すると、生成結果が元画像よりも「寄り」になってしまいます。 inputs = { "
Stable Diffusion ONNX U-Net に別モデルを統合する方法 Stable Diffusion の ONNX 版 U-Net を改造して、別の ONNX モデルを内部に結合することで、 IP-Adapter カスタム Attention Control 信号 などを直接モデル内部に組み込むことができます。 この記事では 既存の model.onnx に別の model.onnx を統合する方法を紹介します。 例として


