タグ: LLM

Hugging Faceモデルの保存場所・容量・削除方法まとめ(QwenやStable Diffusionにも対応)

AIモデル(例:Qwen・Stable Diffusionなど)を使っていると、 「どこにダウンロードされてるの?」「気づいたら容量がヤバい…」と感じたことはありませんか? この記事では、Hugging Face系モデルの保存場所・容量の仕組み・削除方法・保存先変更まで、まとめて解説します。 ■ モデルはどこにダウンロードされるのか? from_pretrained() を使うと、モデルは自動的に Hugging Faceのキャッシュ領

続きを読む

Python(embed版)でCUDA対応PyTorchを使ったGPU推論環境の作り方

はじめに 最近のGPU環境では「CUDAは自動で入っているのか?」「PyTorchはどこまで自動でやってくれるのか?」といった疑問を持つ人が多いと思います。 この記事では、Pythonのembed版(ポータブル環境)でCUDA対応PyTorchを使ったGPU推論を行う方法を、最小構成でわかりやすく解説します。 結論(重要ポイントまとめ) RTX 20xx以降でも CUDAは自動では入らない ただし PyTorch(CUDA版)に必要なラ

続きを読む