v0.4.1
版本发布时间: 2023-02-03 21:05:01
kohya-ss/sd-scripts最新发布版本:v0.8.7(2024-04-07 20:09:15)
Updates at 29 Jan. 2023, 2023/1/29
- Add
--lr_scheduler_num_cycles
and--lr_scheduler_power
options fortrain_network.py
for cosine_with_restarts and polynomial learning rate schedulers. Thanks to mgz-dev! - Fixed U-Net
sample_size
parameter to64
when converting from SD to Diffusers format, inconvert_diffusers20_original_sd.py
-
--lr_scheduler_num_cycles
と--lr_scheduler_power
オプションをtrain_network.py
に追加しました。前者は cosine_with_restarts、後者は polynomial の学習率スケジューラに有効です。mgz-dev氏に感謝します。 -
convert_diffusers20_original_sd.py
で SD 形式から Diffusers に変換するときの U-Net のsample_size
パラメータを64
に修正しました。
Updates at 26 Jan. 2023, 2023/1/26
- Add Textual Inversion training. Documentation is here (in Japanese.)
- Textual Inversionの学習をサポートしました。ドキュメントはこちら。
Updates at 24 Jan. 2023, 2023/1/24
- Change the default save format to
.safetensors
fortrain_network.py
. - Add
--save_n_epoch_ratio
option to specify how often to save. Thanks to forestsource!- For example, if 5 is specified, 5 (or 6) files will be saved in training.
- Add feature to pre-calculate hash to reduce loading time in the extension. Thanks to space-nuko!
- Add bucketing metadata. Thanks to space-nuko!
- Fix an error with bf16 model in
gen_img_diffusers.py
. -
train_network.py
のモデル保存形式のデフォルトを.safetensors
に変更しました。 - モデルを保存する頻度を指定する
--save_n_epoch_ratio
オプションが追加されました。forestsource氏に感謝します。- たとえば 5 を指定すると、学習終了までに合計で5個(または6個)のファイルが保存されます。
- 拡張でモデル読み込み時間を短縮するためのハッシュ事前計算の機能を追加しました。space-nuko氏に感謝します。
- メタデータにbucket情報が追加されました。space-nuko氏に感謝します。
-
gen_img_diffusers.py
でbf16形式のモデルを読み込んだときのエラーを修正しました。