AIモデル(例:Qwen・Stable Diffusionなど)を使っていると、
「どこにダウンロードされてるの?」「気づいたら容量がヤバい…」と感じたことはありませんか?

この記事では、Hugging Face系モデルの保存場所・容量の仕組み・削除方法・保存先変更まで、まとめて解説します。


■ モデルはどこにダウンロードされるのか?

from_pretrained() を使うと、モデルは自動的に Hugging Faceのキャッシュ領域に保存されます。

コード例
pipeline = QwenImageEditPipeline.from_pretrained( “Qwen/Qwen-Image-Edit”, transformer=transformer, scheduler=scheduler, torch_dtype=torch.bfloat16 )

▼ デフォルト保存先

Linux / macOS

~/.cache/huggingface/hub/

Windows

C:\Users\<ユーザー名>\.cache\huggingface\hub\

■ 【重要】ダウンロードされないケース(ローカルパス指定)

以下のように ローカルパス(フルパスも含む)を指定した場合、モデルはダウンロードされません。

pipeline = QwenImageEditPipeline.from_pretrained(
    "./models/Qwen-Image-Edit"
)

この挙動になるのは以下の場合:

  • 指定したパスが存在する
  • その中にモデルファイルが揃っている

■ 実際のフォルダ構造

モデルは以下のような構造でキャッシュフォルダに保存されます:

huggingface/
└── hub/
    ├── models--<組織名>--<モデル名>/
    │   ├── snapshots/
    │   ├── refs/
    │   └── blobs/

例:

models--Qwen--Qwen-Image-Edit
models--runwayml--stable-diffusion-v1-5

▼ 各フォルダの役割

  • snapshots/:実際に使われるモデル本体
  • blobs/:ファイルの実体(重複排除の仕組み)
  • refs/:バージョン管理情報

■ なぜ容量が大きくなるのか?

AIモデルは非常に大きいです。

▼ 代表的なサイズ感

  • 画像生成モデル:数GB〜10GB以上
  • LLM(大規模言語モデル):10GB〜数百GB
  • ファインチューニング版:さらに増える

さらに以下の理由で容量が増えます:

  • バージョン違い(snapshotが増える)
  • 複数モデルをダウンロード
  • 同じモデルの別精度(fp16 / bf16 / int8など)

👉 気づくと 数十GB〜100GB超えは普通に起きます


■ 現在のキャッシュ場所を確認する方法

Pythonで確認できます:

from huggingface_hub.constants import HF_HUB_CACHE

print(HF_HUB_CACHE)

■ 不要なモデルの削除方法

方法①:手動で削除(シンプル)

キャッシュディレクトリに移動して削除:

~/.cache/huggingface/hub/

削除例:

rm -rf models--Qwen--Qwen-Image-Edit

Windowsならフォルダを削除するだけです。


方法②:まとめて削除(全キャッシュ)

rm -rf ~/.cache/huggingface

⚠ 注意:すべてのモデルが消えます。パス間違いにご注意ください!


方法③:CLIツールで管理(おすすめ)

huggingface-cli cache info
huggingface-cli cache delete

これで安全に削除できます。


■ 保存場所を変更する方法

容量問題を避けるため、保存先を別ドライブに変えるのが有効です。


方法①:環境変数(最も推奨)

Linux / macOS

export HF_HOME=/mnt/big_storage/huggingface

または

export HUGGINGFACE_HUB_CACHE=/mnt/big_storage/hf_cache

Windows

setx HF_HOME D:\huggingface

方法②:コードで指定

pipeline = QwenImageEditPipeline.from_pretrained(
    "Qwen/Qwen-Image-Edit",
    cache_dir="./models"
)

■ 容量管理のコツ(重要)

  • 不要なモデルは定期的に削除する
  • 保存先は最初から大容量ドライブにする
  • 同じモデルの重複DLを避ける
  • snapshotが増えていないか確認する

■ よくあるトラブル

▼ ディスクが突然いっぱいになる

→ Hugging Faceキャッシュが原因のことが多い

▼ 同じモデルなのに容量が増える

→ バージョン違い or 精度違い

▼ 削除したのに容量が減らない

→ ゴミ箱 or 別ディレクトリに残っている可能性


■ まとめ

  • モデルは Hugging Faceキャッシュに保存される
  • 容量は数GB〜数百GBに膨らむこともある
  • 不要なモデルは手動 or CLIで削除可能
  • 保存先は環境変数で変更できる

AI開発を続けるなら、ストレージ管理はかなり重要なポイントです。
早めに運用ルールを決めておくと、後で困りません。