AIモデル(例:Qwen・Stable Diffusionなど)を使っていると、
「どこにダウンロードされてるの?」「気づいたら容量がヤバい…」と感じたことはありませんか?
この記事では、Hugging Face系モデルの保存場所・容量の仕組み・削除方法・保存先変更まで、まとめて解説します。
■ モデルはどこにダウンロードされるのか?
from_pretrained() を使うと、モデルは自動的に Hugging Faceのキャッシュ領域に保存されます。
コード例
pipeline = QwenImageEditPipeline.from_pretrained( “Qwen/Qwen-Image-Edit”, transformer=transformer, scheduler=scheduler, torch_dtype=torch.bfloat16 )
▼ デフォルト保存先
Linux / macOS
~/.cache/huggingface/hub/
Windows
C:\Users\<ユーザー名>\.cache\huggingface\hub\
■ 【重要】ダウンロードされないケース(ローカルパス指定)
以下のように ローカルパス(フルパスも含む)を指定した場合、モデルはダウンロードされません。
pipeline = QwenImageEditPipeline.from_pretrained(
"./models/Qwen-Image-Edit"
)
この挙動になるのは以下の場合:
- 指定したパスが存在する
- その中にモデルファイルが揃っている
■ 実際のフォルダ構造
モデルは以下のような構造でキャッシュフォルダに保存されます:
huggingface/
└── hub/
├── models--<組織名>--<モデル名>/
│ ├── snapshots/
│ ├── refs/
│ └── blobs/
例:
models--Qwen--Qwen-Image-Edit
models--runwayml--stable-diffusion-v1-5
▼ 各フォルダの役割
snapshots/:実際に使われるモデル本体blobs/:ファイルの実体(重複排除の仕組み)refs/:バージョン管理情報
■ なぜ容量が大きくなるのか?
AIモデルは非常に大きいです。
▼ 代表的なサイズ感
- 画像生成モデル:数GB〜10GB以上
- LLM(大規模言語モデル):10GB〜数百GB
- ファインチューニング版:さらに増える
さらに以下の理由で容量が増えます:
- バージョン違い(snapshotが増える)
- 複数モデルをダウンロード
- 同じモデルの別精度(fp16 / bf16 / int8など)
👉 気づくと 数十GB〜100GB超えは普通に起きます
■ 現在のキャッシュ場所を確認する方法
Pythonで確認できます:
from huggingface_hub.constants import HF_HUB_CACHE
print(HF_HUB_CACHE)
■ 不要なモデルの削除方法
方法①:手動で削除(シンプル)
キャッシュディレクトリに移動して削除:
~/.cache/huggingface/hub/
削除例:
rm -rf models--Qwen--Qwen-Image-Edit
Windowsならフォルダを削除するだけです。
方法②:まとめて削除(全キャッシュ)
rm -rf ~/.cache/huggingface
⚠ 注意:すべてのモデルが消えます。パス間違いにご注意ください!
方法③:CLIツールで管理(おすすめ)
huggingface-cli cache info
huggingface-cli cache delete
これで安全に削除できます。
■ 保存場所を変更する方法
容量問題を避けるため、保存先を別ドライブに変えるのが有効です。
方法①:環境変数(最も推奨)
Linux / macOS
export HF_HOME=/mnt/big_storage/huggingface
または
export HUGGINGFACE_HUB_CACHE=/mnt/big_storage/hf_cache
Windows
setx HF_HOME D:\huggingface
方法②:コードで指定
pipeline = QwenImageEditPipeline.from_pretrained(
"Qwen/Qwen-Image-Edit",
cache_dir="./models"
)
■ 容量管理のコツ(重要)
- 不要なモデルは定期的に削除する
- 保存先は最初から大容量ドライブにする
- 同じモデルの重複DLを避ける
- snapshotが増えていないか確認する
■ よくあるトラブル
▼ ディスクが突然いっぱいになる
→ Hugging Faceキャッシュが原因のことが多い
▼ 同じモデルなのに容量が増える
→ バージョン違い or 精度違い
▼ 削除したのに容量が減らない
→ ゴミ箱 or 別ディレクトリに残っている可能性
■ まとめ
- モデルは Hugging Faceキャッシュに保存される
- 容量は数GB〜数百GBに膨らむこともある
- 不要なモデルは手動 or CLIで削除可能
- 保存先は環境変数で変更できる
AI開発を続けるなら、ストレージ管理はかなり重要なポイントです。
早めに運用ルールを決めておくと、後で困りません。



