私がChatGPTなどに質問したことを書いていくブログ

Chat GPTヘビーユーザーの管理人が、日常に役立つことからどうでもいいことまで様々な質問をまとめたブログです。

KSampler mat1 and mat2 shapes cannot be multiplied (4x3584 and 2816x1280) comfy UI のこのエラーはどういう意味ですか?

KSampler mat1 and mat2 shapes cannot be multiplied (4x3584 and 2816x1280) comfy UI のこのエラーはどういう意味ですか?
 
ChatGPT:

このエラー:

 
KSampler mat1 and mat2 shapes cannot be multiplied (4x3584 and 2816x1280)

は、行列の形状(サイズ)が合わなくて内積マトリックス乗算)ができないという意味です。Python(PyTorchやNumPy)でよくある線形代数のエラーです。


エラーの内容を分解すると:

  • mat1 のサイズ:(4 x 3584)

  • mat2 のサイズ:(2816 x 1280)

行列の掛け算では、左の列数と右の行数が一致していないといけません

  • 今回は 3584 ≠ 2816 なので掛け算できず、エラーになります。


ComfyUIでこのエラーが出る原因は?

主に以下のような原因が考えられます:

  1. 異なるサイズのベースモデルとLoRAを組み合わせている

    • 例:SDXLベースモデルに SD1.5用のLoRAを適用しようとした。

    • ネットワーク層のサイズが一致せずエラーになります。

  2. 互換性のないVAEやClipを読み込んでいる

    • 例:異なる解像度・構造のエンコーダ/デコーダを使っている。

  3. 解像度やLatentサイズを変更したのに、古い中間テンソルが使われている

    • → リロードやノード再接続で解決することがあります。


解決策

  1. LoRAや他の追加モデルの互換性を確認

    • SDXLモデルならLoRAもSDXL用である必要があります。

    • 適用中のLoRA、VAE、Clipなどを一度外して、少しずつ戻してみてください。

  2. ComfyUIを一度リロードしてみる

    • 変なキャッシュが原因でShape不一致が出ていることがあります。

  3. 正確なノード構成を見直す

    • どのノードでこのエラーが出ているのかを確認し、その前後の出力サイズをチェック。


補足

もし「KSampler」ノードで出ているなら、UNetやConditioning(テキストエンコーダなど)からの入力サイズが合ってない可能性が高いです。


ご希望であれば、スクリーンショットかワークフローの内容を見せていただければ、より具体的にどこが問題かお伝えできます。

 
あなた:
CLIPTextEncode 'NoneType' object has no attribute 'tokenize' このエラーはなんですか?
 
ChatGPT:

このエラー:

 
CLIPTextEncode 'NoneType' object has no attribute 'tokenize'

は、**CLIPTextEncode ノードに必要な「CLIPトークナイザー」が渡されていない(= Noneになっている)**という意味です。


🔍 原因

主な原因は以下のどれかです:

1. CLIP モデルがロードされていない / 接続されていない

  • CLIPTextEncode ノードには、CLIPのエンコーダ(CLIPTextModel)が必要です。

  • 通常は Load CLIP ノード(またはベースモデルに紐づいているもの)から接続されます。

  • それが未接続だと、None が渡されてこのエラーになります。

2. SDXL用のモデルにSD1.5用のCLIPを接続している(または逆)

  • SDXLでは CLIPモデルが2本(Clip AとClip G)ありますが、SD1.5には1本だけ。

  • モデルとCLIPの対応が取れていないと、内部的に None が渡されてしまうことがあります。

3. ワークフローが壊れている / 保存ミス

  • ワークフローを読み込んだとき、CLIPがうまくロードされていない可能性もあります。


✅ 解決策

✅ 1. CLIP モデルの接続を確認

  • CLIPTextEncode ノードに入力が接続されているか確認してください。

  • Load CLIP または Load Checkpoint からCLIPが出力されているかを見てください。

✅ 2. モデルの整合性を保つ

  • SD1.5系のベースモデルにはSD1.5用のCLIPを

  • SDXL系にはSDXL用のCLIP Aと Gを使う

  • ワークフローの中でモデルの世代(SD1.5 vs SDXL)を混ぜないようにします。

✅ 3. 再接続・再起動

  • すべてのCLIPやテキスト関連ノードを再接続してみてください。

  • ComfyUI自体を再起動するのも有効です。


🎁 ヒント

もし「Load Checkpoint ノード」からCLIPが出力されていない場合、ComfyUIが自動でCLIPをロードしてくれていない可能性があります。そのときは、Load CLIP ノードを明示的に追加して、CLIPTextEncode に接続してください。


エラー箇所のスクショやワークフローを貼っていただければ、ピンポイントで修正点をアドバイスできます。

 
あなた:
Unable to find workflow in stableDiffusion35_largeTurbo.safetensors このエラーは?
 
ChatGPT:

このエラー:

 
Unable to find workflow in stableDiffusion35_largeTurbo.safetensors

は、**「この.safetensorsファイルの中にワークフロー(workflow)は含まれていません」**という意味です。


🔍 解説

ComfyUI では .safetensors ファイル(LoRAやモデルなど)に ワークフローデータが含まれている場合、ファイルをドラッグ&ドロップすると自動でそのワークフローを展開してくれます。

しかし、

  • .safetensors ファイルの中に「ワークフロー(workflow)」というメタ情報が含まれていない

  • もしくは、形式が非対応(例:新しいモデル形式)

だった場合、このエラーが出ます。


✅ エラーが出る具体例

  • stableDiffusion35_largeTurbo.safetensorsLoRAやモデルのウェイトファイルだけで、ワークフローを内包していない

  • HuggingFaceなどからDLした .safetensors にワークフローが含まれていない

  • .safetensors を単にモデルとして読み込む目的で使っていて、ワークフローとして使おうとするとこのエラーになる


✅ 解決方法

✅ 1. そのまま使う(エラーは無視してOK)

  • このエラーは「workflowが含まれていない」だけで、モデルやLoRA自体が壊れているわけではありません

  • 普通に Load CheckpointApply LoRA ノードから読み込んで使えます。

✅ 2. workflowを読み込もうとしているなら、別途 .json で用意する

  • 本当にワークフローを復元したいなら、 .json 形式のワークフローファイルを使ってください。

  • .safetensors にワークフローが含まれていないなら、別ファイルが必要です。


🔧 補足

ComfyUIは .safetensors ファイルをドラッグ&ドロップしたときに、内部に workflow があれば自動で読み込みますが、それがないと今回のようなエラーを吐きます。

これは「読み込めない」というより「中にないので無視するよ」という通知的なエラーなので、基本的に無視してOKです。


📌 結論

モデルファイル stableDiffusion35_largeTurbo.safetensors にワークフローが含まれていないだけ。モデルとしては問題なく使えます。

必要ならそのモデルを使ったワークフローを一緒に作るお手伝いもできます。気軽に聞いてください!