File size: 103,763 Bytes
d5f7baf 900e760 d5f7baf |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 |
14:19:54-924440 INFO Starting SD-Trainer Mikazuki GUI... 14:19:54-927178 INFO Base directory: /root/lora-scripts, Working directory: /root/lora-scripts 14:19:54-927884 INFO Linux Python 3.10.9 /root/.conda/envs/lora/bin/python 14:19:54-933201 INFO Starting tageditor... 14:19:54-936010 INFO Starting tensorboard... 14:19:58-704848 INFO Server started at http://127.0.0.1:28000 TensorFlow installation not found - running with reduced feature set. NOTE: Using experimental fast data loading logic. To disable, pass "--load_fast=false" and report issues on GitHub. More details: https://github.com/tensorflow/tensorboard/issues/4784 TensorBoard 2.10.1 at http://127.0.0.1:6006/ (Press CTRL+C to quit) 14:20:52-995764 INFO Torch 2.3.0+cu121 14:20:53-470315 INFO Torch backend: nVidia CUDA 12.1 cuDNN 8902 14:20:53-876159 INFO Torch detected GPU: NVIDIA A100-SXM4-80GB VRAM 81051 Arch (8, 0) Cores 108 14:24:14-346637 INFO Training started with config file / 训练开始,使用配置文件: /root/lora-scripts/config/autosave/20240716-142414.toml 14:24:14-349477 INFO Task 6fd14190-b173-4715-b710-7293b373447e created The following values were not passed to `accelerate launch` and had defaults used instead: `--num_processes` was set to a value of `1` `--num_machines` was set to a value of `1` `--mixed_precision` was set to a value of `'no'` `--dynamo_backend` was set to a value of `'no'` To avoid this warning pass in values for each of the problematic parameters or run `accelerate config`. 2024-07-16 14:24:58 INFO Loading settings from /root/lora-scripts/config/autosave/20240716-142414.toml... train_util.py:3744 INFO /root/lora-scripts/config/autosave/20240716-142414 train_util.py:3763 2024-07-16 14:24:58 INFO prepare tokenizer train_util.py:4227 2024-07-16 14:24:59 INFO update token length: 255 train_util.py:4244 2024-07-16 14:25:00 INFO prepare images. train_util.py:1572 INFO found directory /train6/1_dongman contains 916 image files train_util.py:1519 INFO 916 train images with repeating. train_util.py:1613 INFO 0 reg images. train_util.py:1616 WARNING no regularization images / 正則化画像が見つかりませんでした train_util.py:1621 INFO [Dataset 0] config_util.py:565 batch_size: 64 resolution: (1024, 1024) enable_bucket: True network_multiplier: 1.0 min_bucket_reso: 256 max_bucket_reso: 2048 bucket_reso_steps: 64 bucket_no_upscale: False [Subset 0 of Dataset 0] image_dir: "/train6/1_dongman" image_count: 916 num_repeats: 1 shuffle_caption: True keep_tokens: 0 keep_tokens_separator: secondary_separator: None enable_wildcard: False caption_dropout_rate: 0.0 caption_dropout_every_n_epoches: 0 caption_tag_dropout_rate: 0.0 caption_prefix: None caption_suffix: None color_aug: False flip_aug: False face_crop_aug_range: None random_crop: False token_warmup_min: 1, token_warmup_step: 0, is_reg: False class_tokens: dongman caption_extension: .txt INFO [Dataset 0] config_util.py:571 INFO loading image sizes. train_util.py:853 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 916/916 [00:00<00:00, 85199.42it/s] INFO make buckets train_util.py:859 INFO number of images (including repeats) / 各bucketの画像枚数(繰り返し回数を含む) train_util.py:905 INFO bucket 0: resolution (704, 1408), count: 29 train_util.py:910 INFO bucket 1: resolution (768, 1280), count: 6 train_util.py:910 INFO bucket 2: resolution (768, 1344), count: 723 train_util.py:910 INFO bucket 3: resolution (832, 1216), count: 123 train_util.py:910 INFO bucket 4: resolution (1216, 832), count: 2 train_util.py:910 INFO bucket 5: resolution (1344, 768), count: 33 train_util.py:910 INFO mean ar error (without repeats): 0.011380946831128346 train_util.py:915 INFO prepare accelerator train_db.py:106 wandb: Currently logged in as: cn42083120024 (renwu). Use `wandb login --relogin` to force relogin wandb: Appending key for api.wandb.ai to your netrc file: /root/.netrc accelerator device: cuda 2024-07-16 14:25:24 INFO loading model for process 0/1 train_util.py:4385 INFO load StableDiffusion checkpoint: ./sd-models/model.safetensors train_util.py:4341 2024-07-16 14:25:29 INFO UNet2DConditionModel: 64, 8, 768, False, False original_unet.py:1387 2024-07-16 14:25:56 INFO loading u-net: <All keys matched successfully> model_util.py:1009 2024-07-16 14:26:01 INFO loading vae: <All keys matched successfully> model_util.py:1017 2024-07-16 14:26:09 INFO loading text encoder: <All keys matched successfully> model_util.py:1074 INFO Enable xformers for U-Net train_util.py:2660 INFO [Dataset 0] train_util.py:2079 INFO caching latents. train_util.py:974 INFO checking cache validity... train_util.py:984 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 916/916 [00:00<00:00, 4252.76it/s] 2024-07-16 14:26:10 INFO caching latents... train_util.py:1021 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 916/916 [08:53<00:00, 1.72it/s] 2024-07-16 14:35:03 INFO CrossAttnDownBlock2D False -> True original_unet.py:1521 INFO CrossAttnDownBlock2D False -> True original_unet.py:1521 INFO CrossAttnDownBlock2D False -> True original_unet.py:1521 INFO DownBlock2D False -> True original_unet.py:1521 INFO UNetMidBlock2DCrossAttn False -> True original_unet.py:1521 INFO UpBlock2D False -> True original_unet.py:1521 INFO CrossAttnUpBlock2D False -> True original_unet.py:1521 INFO CrossAttnUpBlock2D False -> True original_unet.py:1521 INFO CrossAttnUpBlock2D False -> True original_unet.py:1521 prepare optimizer, data loader etc. 2024-07-16 14:35:04 INFO use 8-bit AdamW optimizer | {} train_util.py:3889 override steps. steps for 30 epochs is / 指定エポックまでのステップ数: 540 running training / 学習開始 num train images * repeats / 学習画像の数×繰り返し回数: 916 num reg images / 正則化画像の数: 0 num batches per epoch / 1epochのバッチ数: 18 num epochs / epoch数: 30 batch size per device / バッチサイズ: 64 total train batch size (with parallel & distributed & accumulation) / 総バッチサイズ(並列学習、勾配合計含む): 64 gradient ccumulation steps / 勾配を合計するステップ数 = 1 total optimization steps / 学習ステップ数: 540 steps: 0%| | 0/540 [00:00<?, ?it/s]wandb: wandb version 0.17.4 is available! To upgrade, please run: wandb: $ pip install wandb --upgrade wandb: Tracking run with wandb version 0.16.2 wandb: Run data is saved locally in ./logs/GPU-使用率-温度检测_perfix20240716142500/wandb/run-20240716_143506-aynrisa1 wandb: Run `wandb offline` to turn off syncing. wandb: Syncing run fluent-meadow-42 wandb: ⭐️ View project at https://wandb.ai/renwu/GPU-%E4%BD%BF%E7%94%A8%E7%8E%87-%E6%B8%A9%E5%BA%A6%E6%A3%80%E6%B5%8B wandb: 🚀 View run at https://wandb.ai/renwu/GPU-%E4%BD%BF%E7%94%A8%E7%8E%87-%E6%B8%A9%E5%BA%A6%E6%A3%80%E6%B5%8B/runs/aynrisa1 epoch 1/30 steps: 3%|███▋ | 18/540 [03:02<1:28:15, 10.14s/it, avr_loss=0.124]2024-07-16 14:38:08 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000001.safetensors train_util.py:4694 wandb: WARNING Step only supports monotonically increasing values, use define_metric to set a custom x axis. For details see: https://wandb.me/define-metric wandb: WARNING (User provided step: 1 is less than current step: 18. Dropping entry: {'loss/epoch': 0.12387802017231782, '_timestamp': 1721111888.7564518}). epoch 2/30 steps: 7%|███████▍ | 36/540 [05:53<1:22:28, 9.82s/it, avr_loss=0.127]2024-07-16 14:40:59 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000002.safetensors train_util.py:4694 wandb: WARNING (User provided step: 2 is less than current step: 36. Dropping entry: {'loss/epoch': 0.12723200561271775, '_timestamp': 1721112059.637897}). epoch 3/30 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 916/916 [08:53<00:00, 1.72it/s] 2024-07-16 14:35:03 INFO CrossAttnDownBlock2D False -> True original_unet.py:1521 INFO CrossAttnDownBlock2D False -> True original_unet.py:1521 INFO CrossAttnDownBlock2D False -> True original_unet.py:1521 INFO DownBlock2D False -> True original_unet.py:1521 INFO UNetMidBlock2DCrossAttn False -> True original_unet.py:1521 INFO UpBlock2D False -> True original_unet.py:1521 INFO CrossAttnUpBlock2D False -> True original_unet.py:1521 INFO CrossAttnUpBlock2D False -> True original_unet.py:1521 INFO CrossAttnUpBlock2D False -> True original_unet.py:1521 prepare optimizer, data loader etc. 2024-07-16 14:35:04 INFO use 8-bit AdamW optimizer | {} train_util.py:3889 override steps. steps for 30 epochs is / 指定エポックまでのステップ数: 540 running training / 学習開始 num train images * repeats / 学習画像の数×繰り返し回数: 916 num reg images / 正則化画像の数: 0 num batches per epoch / 1epochのバッチ数: 18 num epochs / epoch数: 30 batch size per device / バッチサイズ: 64 total train batch size (with parallel & distributed & accumulation) / 総バッチサイズ(並列学習、勾配合計含む): 64 gradient ccumulation steps / 勾配を合計するステップ数 = 1 total optimization steps / 学習ステップ数: 540 steps: 0%| | 0/540 [00:00<?, ?it/s]wandb: wandb version 0.17.4 is available! To upgrade, please run: wandb: $ pip install wandb --upgrade wandb: Tracking run with wandb version 0.16.2 wandb: Run data is saved locally in ./logs/GPU-使用率-温度检测_perfix20240716142500/wandb/run-20240716_143506-aynrisa1 wandb: Run `wandb offline` to turn off syncing. wandb: Syncing run fluent-meadow-42 wandb: ⭐️ View project at https://wandb.ai/renwu/GPU-%E4%BD%BF%E7%94%A8%E7%8E%87-%E6%B8%A9%E5%BA%A6%E6%A3%80%E6%B5%8B wandb: 🚀 View run at https://wandb.ai/renwu/GPU-%E4%BD%BF%E7%94%A8%E7%8E%87-%E6%B8%A9%E5%BA%A6%E6%A3%80%E6%B5%8B/runs/aynrisa1 epoch 1/30 steps: 3%|███▋ | 18/540 [03:02<1:28:15, 10.14s/it, avr_loss=0.124]2024-07-16 14:38:08 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000001.safetensors train_util.py:4694 wandb: WARNING Step only supports monotonically increasing values, use define_metric to set a custom x axis. For details see: https://wandb.me/define-metric wandb: WARNING (User provided step: 1 is less than current step: 18. Dropping entry: {'loss/epoch': 0.12387802017231782, '_timestamp': 1721111888.7564518}). epoch 2/30 steps: 7%|███████▍ | 36/540 [05:53<1:22:28, 9.82s/it, avr_loss=0.127]2024-07-16 14:40:59 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000002.safetensors train_util.py:4694 wandb: WARNING (User provided step: 2 is less than current step: 36. Dropping entry: {'loss/epoch': 0.12723200561271775, '_timestamp': 1721112059.637897}). epoch 3/30 steps: 10%|███████████ | 54/540 [08:56<1:20:24, 9.93s/it, avr_loss=0.127]2024-07-16 14:44:02 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000003.safetensors train_util.py:4694 epoch 4/30 wandb: WARNING (User provided step: 3 is less than current step: 54. Dropping entry: {'loss/epoch': 0.1265922114253044, '_timestamp': 1721112242.1847267}). steps: 13%|██████████████▊ | 72/540 [11:52<1:17:14, 9.90s/it, avr_loss=0.127]2024-07-16 14:46:59 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000004.safetensors train_util.py:4694 epoch 5/30 wandb: WARNING (User provided step: 4 is less than current step: 72. Dropping entry: {'loss/epoch': 0.12727194983098242, '_timestamp': 1721112419.1562445}). steps: 17%|██████████████████▌ | 90/540 [14:49<1:14:05, 9.88s/it, avr_loss=0.137]2024-07-16 14:49:55 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000005.safetensors train_util.py:4694 epoch 6/30 wandb: WARNING (User provided step: 5 is less than current step: 90. Dropping entry: {'loss/epoch': 0.13734278620945084, '_timestamp': 1721112595.198857}). steps: 20%|██████████████████████ | 108/540 [17:23<1:09:35, 9.67s/it, avr_loss=0.118]2024-07-16 14:52:30 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000006.safetensors train_util.py:4694 wandb: WARNING (User provided step: 6 is less than current step: 108. Dropping entry: {'loss/epoch': 0.11821738423572646, '_timestamp': 1721112750.0980027}). epoch 7/30 steps: 23%|█████████████████████████▋ | 126/540 [20:11<1:06:20, 9.61s/it, avr_loss=0.124]2024-07-16 14:55:17 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000007.safetensors train_util.py:4694 wandb: WARNING (User provided step: 7 is less than current step: 126. Dropping entry: {'loss/epoch': 0.12375647243526247, '_timestamp': 1721112917.4713383}). epoch 8/30 steps: 27%|█████████████████████████████▎ | 144/540 [23:01<1:03:18, 9.59s/it, avr_loss=0.121]2024-07-16 14:58:07 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000008.safetensors train_util.py:4694 wandb: WARNING (User provided step: 8 is less than current step: 144. Dropping entry: {'loss/epoch': 0.1209758756061395, '_timestamp': 1721113087.5138469}). epoch 9/30 steps: 30%|█████████████████████████████████▎ | 162/540 [26:18<1:01:23, 9.75s/it, avr_loss=0.12]2024-07-16 15:01:24 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000009.safetensors train_util.py:4694 wandb: WARNING (User provided step: 9 is less than current step: 162. Dropping entry: {'loss/epoch': 0.12002807193332249, '_timestamp': 1721113284.88461}). epoch 10/30 steps: 33%|█████████████████████████████████████▎ | 180/540 [29:06<58:13, 9.70s/it, avr_loss=0.123]2024-07-16 15:04:13 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000010.safetensors train_util.py:4694 wandb: WARNING (User provided step: 10 is less than current step: 180. Dropping entry: {'loss/epoch': 0.12288845289084646, '_timestamp': 1721113453.062439}). epoch 11/30 steps: 36%|███████████████████████████████████████▊ | 192/540 [31:07<56:25, 9.73s/it, avr_loss=0.129] steps: 37%|█████████████████████████████████████████▍ | 198/540 [31:57<55:12, 9.68s/it, avr_loss=0.13]2024-07-16 15:07:03 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000011.safetensors train_util.py:4694 epoch 12/30 wandb: WARNING (User provided step: 11 is less than current step: 198. Dropping entry: {'loss/epoch': 0.1302021476957533, '_timestamp': 1721113623.696793}). steps: 39%|███████████████████████████████████████████▌ | 210/540 [33:40<52:55, 9.62s/it, avr_loss=0.116] steps: 22%|████████████████████████▍ | 120/540 [19:22<1:07:47, 9.68s/it,steps: 22%|████████████████████████▍ | 120/540 [19:22<1:07:47, 9.68s/it,steps: 22%|████████████████████████▋ | 121/540 [19:25<1:07:16, 9.63s/it,steps: 22%|████████████████████████▋ | 121/540 [19:25<1:07:16, 9.63s/it,steps: 23%|████████████████████████▊ | 122/540 [19:36<1:07:09, 9.64s/it,steps: 23%|████████████████████████▊ | 122/540 [19:36<1:07:09, 9.64s/it,steps: 23%|█████████████████████████ | 123/540 [19:47<1:07:05, 9.65s/it,steps: 23%|█████████████████████████ | 123/540 [19:47<1:07:05, 9.65s/it,steps: 23%|█████████████████████████▎ | 124/540 [19:58<1:07:02, 9.67s/it,steps: 23%|█████████████████████████▎ | 124/540 [19:58<1:07:02, 9.67s/it,steps: 23%|█████████████████████████▍ | 125/540 [20:00<1:06:24, 9.60s/it,steps: 23%|█████████████████████████▍ | 125/540 [20:00<1:06:24, 9.60s/it,steps: 23%|█████████████████████████▋ | 126/540 [20:11<1:06:20, 9.61s/it,steps: 23%|█████████████████████████▋ | 126/540 [20:11<1:06:20, 9.61s/it, avr_loss=0.124]2024-07-16 14:55:17 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000007.safetensors train_util.py:4694 wandb: WARNING (User provided step: 7 is less than current step: 126. Dropping entry: {'loss/epoch': 0.12375647243526247, '_timestamp': 1721112917.4713383}). epoch 8/30 steps: 24%|█████████████████████████▊ | 127/540 [20:27<1:06:30, 9.66s/it,steps: 24%|██████████████████████████ | 127/540 [20:27<1:06:30, 9.66s/itsteps: 24%|██████████████████████████▎ | 128/540 [20:27<1:05:51, 9.59s/itsteps: 24%|██████████████████████████ | 128/540 [20:27<1:05:51, 9.59s/it,steps: 24%|██████████████████████████▎ | 129/540 [20:39<1:05:47, 9.61s/it,steps: 24%|██████████████████████████▎ | 129/540 [20:39<1:05:47, 9.61s/it,steps: 24%|██████████████████████████▍ | 130/540 [20:50<1:05:43, 9.62s/it,steps: 24%|██████████████████████████▍ | 130/540 [20:50<1:05:43, 9.62s/it,steps: 24%|██████████████████████████▋ | 131/540 [21:01<1:05:39, 9.63s/it,steps: 24%|██████████████████████████▋ | 131/540 [21:01<1:05:39, 9.63s/it,steps: 24%|██████████████████████████▉ | 132/540 [21:13<1:05:35, 9.65s/it,steps: 24%|██████████████████████████▉ | 132/540 [21:13<1:05:35, 9.65s/it,steps: 25%|███████████████████████████ | 133/540 [21:24<1:05:31, 9.66s/it,steps: 25%|███████████████████████████ | 133/540 [21:24<1:05:31, 9.66s/it,steps: 25%|███████████████████████████▎ | 134/540 [21:30<1:05:10, 9.63s/it,steps: 25%|███████████████████████████▌ | 134/540 [21:30<1:05:10, 9.63s/itsteps: 25%|███████████████████████████▊ | 135/540 [21:41<1:05:05, 9.64s/itsteps: 25%|███████████████████████████▌ | 135/540 [21:41<1:05:05, 9.64s/it,steps: 25%|███████████████████████████▋ | 136/540 [21:45<1:04:38, 9.60s/it,steps: 25%|███████████████████████████▉ | 136/540 [21:45<1:04:38, 9.60s/itsteps: 25%|████████████████████████████▏ | 137/540 [21:56<1:04:33, 9.61s/itsteps: 25%|███████████████████████████▉ | 137/540 [21:56<1:04:33, 9.61s/it,steps: 26%|████████████████████████████ | 138/540 [21:58<1:03:59, 9.55s/it,steps: 26%|████████████████████████████ | 138/540 [21:58<1:03:59, 9.55s/it,steps: 26%|████████████████████████████▎ | 139/540 [22:09<1:03:55, 9.57s/it,steps: 26%|████████████████████████████▎ | 139/540 [22:09<1:03:55, 9.57s/it,steps: 26%|████████████████████████████▌ | 140/540 [22:15<1:03:35, 9.54s/it,steps: 26%|████████████████████████████▌ | 140/540 [22:15<1:03:35, 9.54s/it,steps: 26%|████████████████████████████▋ | 141/540 [22:26<1:03:31, 9.55s/it,steps: 26%|████████████████████████████▋ | 141/540 [22:26<1:03:31, 9.55s/it,steps: 26%|████████████████████████████▉ | 142/540 [22:38<1:03:27, 9.57s/it,steps: 26%|████████████████████████████▉ | 142/540 [22:38<1:03:27, 9.57s/it,steps: 26%|█████████████████████████████▏ | 143/540 [22:49<1:03:23, 9.58s/it,steps: 26%|█████████████████████████████▍ | 143/540 [22:49<1:03:23, 9.58s/itsteps: 27%|█████████████████████████████▌ | 144/540 [23:01<1:03:18, 9.59s/itsteps: 27%|█████████████████████████████▎ | 144/540 [23:01<1:03:18, 9.59s/it, avr_loss=0.121]2024-07-16 14:58:07 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000008.safetensors train_util.py:4694 wandb: WARNING (User provided step: 8 is less than current step: 144. Dropping entry: {'loss/epoch': 0.1209758756061395, '_timestamp': 1721113087.5138469}). epoch 9/30 steps: 27%|█████████████████████████████▌ | 145/540 [23:23<1:03:43, 9.68s/it,steps: 27%|█████████████████████████████▌ | 145/540 [23:23<1:03:43, 9.68s/it,steps: 27%|█████████████████████████████▋ | 146/540 [23:35<1:03:38, 9.69s/it,steps: 27%|█████████████████████████████▋ | 146/540 [23:35<1:03:38, 9.69s/it,steps: 27%|█████████████████████████████▉ | 147/540 [23:45<1:03:30, 9.70s/it,steps: 27%|█████████████████████████████▉ | 147/540 [23:45<1:03:30, 9.70s/it,steps: 27%|██████████████████████████████▏ | 148/540 [23:56<1:03:25, 9.71s/it,steps: 27%|██████████████████████████████▏ | 148/540 [23:56<1:03:25, 9.71s/it,steps: 28%|██████████████████████████████▎ | 149/540 [24:08<1:03:20, 9.72s/it,steps: 28%|██████████████████████████████▎ | 149/540 [24:08<1:03:20, 9.72s/it,steps: 28%|██████████████████████████████▌ | 150/540 [24:19<1:03:15, 9.73s/it,steps: 28%|██████████████████████████████▌ | 150/540 [24:19<1:03:15, 9.73s/it,steps: 28%|██████████████████████████████▊ | 151/540 [24:31<1:03:10, 9.74s/it,steps: 28%|██████████████████████████████▊ | 151/540 [24:31<1:03:10, 9.74s/it,steps: 28%|██████████████████████████████▉ | 152/540 [24:42<1:03:04, 9.75s/it,steps: 28%|██████████████████████████████▉ | 152/540 [24:42<1:03:04, 9.75s/it,steps: 28%|███████████████████████████████▏ | 153/540 [24:54<1:02:59, 9.77s/it,steps: 28%|███████████████████████████████▏ | 153/540 [24:54<1:02:59, 9.77s/it,steps: 29%|███████████████████████████████▎ | 154/540 [25:05<1:02:53, 9.78s/it,steps: 29%|███████████████████████████████▎ | 154/540 [25:05<1:02:53, 9.78s/it,steps: 29%|███████████████████████████████▌ | 155/540 [25:16<1:02:47, 9.79s/it,steps: 29%|███████████████████████████████▌ | 155/540 [25:16<1:02:47, 9.79s/it,steps: 29%|███████████████████████████████▊ | 156/540 [25:28<1:02:42, 9.80s/it,steps: 29%|███████████████████████████████▊ | 156/540 [25:28<1:02:42, 9.80s/it,steps: 29%|███████████████████████████████▉ | 157/540 [25:38<1:02:33, 9.80s/it,steps: 29%|███████████████████████████████▉ | 157/540 [25:38<1:02:33, 9.80s/it,steps: 29%|████████████████████████████████▏ | 158/540 [25:43<1:02:12, 9.77s/it,steps: 29%|████████████████████████████████▍ | 158/540 [25:43<1:02:12, 9.77s/itsteps: 29%|████████████████████████████████▋ | 159/540 [25:55<1:02:06, 9.78s/itsteps: 29%|████████████████████████████████▍ | 159/540 [25:55<1:02:06, 9.78s/it,steps: 30%|████████████████████████████████▌ | 160/540 [25:55<1:01:35, 9.72s/it,steps: 30%|████████████████████████████████▌ | 160/540 [25:55<1:01:35, 9.72s/it,steps: 30%|████████████████████████████████▊ | 161/540 [26:07<1:01:29, 9.73s/it,steps: 30%|████████████████████████████████▊ | 161/540 [26:07<1:01:29, 9.73s/it,steps: 30%|█████████████████████████████████ | 162/540 [26:18<1:01:23, 9.75s/it,steps: 30%|█████████████████████████████████▎ | 162/540 [26:18<1:01:23, 9.75s/it, avr_loss=0.12]2024-07-16 15:01:24 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000009.safetensors train_util.py:4694 wandb: WARNING (User provided step: 9 is less than current step: 162. Dropping entry: {'loss/epoch': 0.12002807193332249, '_timestamp': 1721113284.88461}). epoch 10/30 steps: 30%|█████████████████████████████████▌ | 163/540 [26:30<1:01:18, 9.76s/itsteps: 30%|█████████████████████████████████▏ | 163/540 [26:30<1:01:18, 9.76s/it,steps: 30%|█████████████████████████████████▍ | 164/540 [26:41<1:01:12, 9.77s/it,steps: 30%|█████████████████████████████████▍ | 164/540 [26:41<1:01:12, 9.77s/it,steps: 31%|█████████████████████████████████▌ | 165/540 [26:53<1:01:06, 9.78s/it,steps: 31%|█████████████████████████████████▌ | 165/540 [26:53<1:01:06, 9.78s/it,steps: 31%|█████████████████████████████████▊ | 166/540 [26:58<1:00:46, 9.75s/it,steps: 31%|█████████████████████████████████▊ | 166/540 [26:58<1:00:46, 9.75s/it,steps: 31%|██████████████████████████████████ | 167/540 [27:09<1:00:40, 9.76s/it,steps: 31%|██████████████████████████████████ | 167/540 [27:09<1:00:40, 9.76s/it,steps: 31%|██████████████████████████████████▏ | 168/540 [27:21<1:00:34, 9.77s/it,steps: 31%|██████████████████████████████████▏ | 168/540 [27:21<1:00:34, 9.77s/it,steps: 31%|██████████████████████████████████▍ | 169/540 [27:32<1:00:28, 9.78s/it,steps: 31%|██████████████████████████████████▍ | 169/540 [27:32<1:00:28, 9.78s/it,steps: 31%|██████████████████████████████████▋ | 170/540 [27:43<1:00:20, 9.78s/it,steps: 31%|██████████████████████████████████▋ | 170/540 [27:43<1:00:20, 9.78s/it,steps: 32%|██████████████████████████████████▊ | 171/540 [27:54<1:00:14, 9.79s/it,steps: 32%|██████████████████████████████████▊ | 171/540 [27:54<1:00:14, 9.79s/it,steps: 32%|███████████████████████████████████ | 172/540 [28:05<1:00:07, 9.80s/it,steps: 32%|███████████████████████████████████▎ | 172/540 [28:05<1:00:07, 9.80s/itsteps: 32%|████████████████████████████████████▏ | 173/540 [28:06<59:37, 9.75s/itsteps: 32%|███████████████████████████████████▉ | 173/540 [28:06<59:37, 9.75s/it,steps: 32%|████████████████████████████████████ | 174/540 [28:17<59:31, 9.76s/it,steps: 32%|████████████████████████████████████ | 174/540 [28:17<59:31, 9.76s/it,steps: 32%|████████████████████████████████████▎ | 175/540 [28:21<59:08, 9.72s/it,steps: 32%|████████████████████████████████████▎ | 175/540 [28:21<59:08, 9.72s/it,steps: 33%|████████████████████████████████████▌ | 176/540 [28:26<58:49, 9.70s/it,steps: 33%|████████████████████████████████████▌ | 176/540 [28:26<58:49, 9.70s/it,steps: 33%|████████████████████████████████████▋ | 177/540 [28:37<58:43, 9.71s/it,steps: 33%|████████████████████████████████████▋ | 177/540 [28:37<58:43, 9.71s/it,steps: 33%|████████████████████████████████████▉ | 178/540 [28:49<58:37, 9.72s/it,steps: 33%|████████████████████████████████████▉ | 178/540 [28:49<58:37, 9.72s/it,steps: 33%|█████████████████████████████████████▏ | 179/540 [29:00<58:30, 9.73s/it,steps: 33%|█████████████████████████████████████▏ | 179/540 [29:00<58:30, 9.73s/it,steps: 33%|█████████████████████████████████████▎ | 180/540 [29:06<58:13, 9.70s/it,steps: 33%|█████████████████████████████████████▎ | 180/540 [29:06<58:13, 9.70s/it, avr_loss=0.123]2024-07-16 15:04:13 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000010.safetensors train_util.py:4694 wandb: WARNING (User provided step: 10 is less than current step: 180. Dropping entry: {'loss/epoch': 0.12288845289084646, '_timestamp': 1721113453.062439}). epoch 11/30 steps: 34%|█████████████████████████████████████▌ | 181/540 [29:31<58:33, 9.79s/it,steps: 34%|█████████████████████████████████████▌ | 181/540 [29:31<58:33, 9.79s/it,steps: 34%|█████████████████████████████████████▋ | 182/540 [29:42<58:26, 9.79s/it,steps: 34%|█████████████████████████████████████▋ | 182/540 [29:42<58:26, 9.79s/it,steps: 34%|█████████████████████████████████████▉ | 183/540 [29:46<58:04, 9.76s/it,steps: 34%|█████████████████████████████████████▉ | 183/540 [29:46<58:04, 9.76s/it,steps: 34%|██████████████████████████████████████▏ | 184/540 [29:57<57:57, 9.77s/it,steps: 34%|██████████████████████████████████████▏ | 184/540 [29:57<57:58, 9.77s/it,steps: 34%|██████████████████████████████████████▎ | 185/540 [30:09<57:51, 9.78s/it,steps: 34%|██████████████████████████████████████▎ | 185/540 [30:09<57:51, 9.78s/it,steps: 34%|██████████████████████████████████████▌ | 186/540 [30:20<57:44, 9.79s/it,steps: 34%|██████████████████████████████████████▌ | 186/540 [30:20<57:44, 9.79s/it,steps: 35%|██████████████████████████████████████▊ | 187/540 [30:21<57:18, 9.74s/it,steps: 35%|██████████████████████████████████████▊ | 187/540 [30:21<57:18, 9.74s/it,steps: 35%|██████████████████████████████████████▉ | 188/540 [30:33<57:12, 9.75s/it,steps: 35%|██████████████████████████████████████▉ | 188/540 [30:33<57:12, 9.75s/it,steps: 35%|███████████████████████████████████████▏ | 189/540 [30:43<57:03, 9.75s/it,steps: 35%|███████████████████████████████████████▏ | 189/540 [30:43<57:03, 9.75s/it,steps: 35%|███████████████████████████████████████▍ | 190/540 [30:44<56:38, 9.71s/it,steps: 35%|███████████████████████████████████████▍ | 190/540 [30:44<56:38, 9.71s/it,steps: 35%|███████████████████████████████████████▌ | 191/540 [30:56<56:31, 9.72s/it,steps: 35%|███████████████████████████████████████▌ | 191/540 [30:56<56:31, 9.72s/it,steps: 36%|███████████████████████████████████████▊ | 192/540 [31:07<56:25, 9.73s/it,steps: 36%|███████████████████████████████████████▊ | 192/540 [31:07<56:25, 9.73s/it, avr_loss=0.129] steps: 36%|████████████████████████████████████████ | 193/540 [31:19<56:18, 9.74s/it,steps: 36%|████████████████████████████████████████ | 193/540 [31:19<56:18, 9.74s/it,steps: 36%|████████████████████████████████████████▏ | 194/540 [31:30<56:11, 9.75s/it,steps: 36%|████████████████████████████████████████▌ | 194/540 [31:30<56:11, 9.75s/itsteps: 36%|████████████████████████████████████████▊ | 195/540 [31:42<56:05, 9.75s/itsteps: 36%|████████████████████████████████████████▍ | 195/540 [31:42<56:05, 9.75s/it,steps: 36%|████████████████████████████████████████▋ | 196/540 [31:42<55:39, 9.71s/it,steps: 36%|████████████████████████████████████████▋ | 196/540 [31:42<55:39, 9.71s/it,steps: 36%|████████████████████████████████████████▊ | 197/540 [31:46<55:18, 9.68s/it,steps: 36%|████████████████████████████████████████▊ | 197/540 [31:46<55:18, 9.68s/it,steps: 37%|█████████████████████████████████████████ | 198/540 [31:57<55:12, 9.68s/it,steps: 37%|█████████████████████████████████████████▍ | 198/540 [31:57<55:12, 9.68s/it, avr_loss=0.13]2024-07-16 15:07:03 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000011.safetensors train_util.py:4694 epoch 12/30 wandb: WARNING (User provided step: 11 is less than current step: 198. Dropping entry: {'loss/epoch': 0.1302021476957533, '_timestamp': 1721113623.696793}). steps: 37%|█████████████████████████████████████████▋ | 199/540 [32:20<55:25, 9.75s/itsteps: 37%|█████████████████████████████████████████▋ | 199/540 [32:20<55:25, 9.75s/itsteps: 37%|█████████████████████████████████████████▊ | 200/540 [32:21<55:01, 9.71s/itsteps: 37%|█████████████████████████████████████████▍ | 200/540 [32:21<55:01, 9.71s/it,steps: 37%|█████████████████████████████████████████▋ | 201/540 [32:25<54:40, 9.68s/it,steps: 37%|█████████████████████████████████████████▋ | 201/540 [32:25<54:40, 9.68s/it,steps: 37%|█████████████████████████████████████████▉ | 202/540 [32:36<54:34, 9.69s/it,steps: 37%|██████████████████████████████████████████▎ | 202/540 [32:36<54:34, 9.69s/itsteps: 38%|██████████████████████████████████████████▍ | 203/540 [32:48<54:27, 9.70s/itsteps: 38%|██████████████████████████████████████████▍ | 203/540 [32:48<54:27, 9.70s/itsteps: 38%|██████████████████████████████████████████▋ | 204/540 [32:58<54:19, 9.70s/itsteps: 38%|██████████████████████████████████████████▋ | 204/540 [32:58<54:19, 9.70s/itsteps: 38%|██████████████████████████████████████████▉ | 205/540 [33:04<54:03, 9.68s/itsteps: 38%|██████████████████████████████████████████▌ | 205/540 [33:04<54:03, 9.68s/it,steps: 38%|██████████████████████████████████████████▋ | 206/540 [33:05<53:38, 9.64s/it,steps: 38%|██████████████████████████████████████████▋ | 206/540 [33:05<53:38, 9.64s/it,steps: 38%|██████████████████████████████████████████▉ | 207/540 [33:16<53:32, 9.65s/it,steps: 38%|██████████████████████████████████████████▉ | 207/540 [33:16<53:32, 9.65s/it,steps: 39%|███████████████████████████████████████████▏ | 208/540 [33:28<53:25, 9.65s/it,steps: 39%|███████████████████████████████████████████▏ | 208/540 [33:28<53:25, 9.65s/it,steps: 39%|███████████████████████████████████████████▎ | 209/540 [33:39<53:18, 9.66s/it,steps: 39%|███████████████████████████████████████████▎ | 209/540 [33:39<53:18, 9.66s/it,steps: 39%|███████████████████████████████████████████▌ | 210/540 [33:40<52:55, 9.62s/it,steps: 39%|███████████████████████████████████████████▌ | 210/540 [33:40<52:55, 9.62s/it,steps: 39%|███████████████████████████████████████████▊ | 211/540 [33:52<52:48, 9.63s/it,steps: 39%|███████████████████████████████████████████▊ | 211/540 [33:52<52:48, 9.63s/it,steps: 39%|███████████████████████████████████████████▉ | 212/540 [34:03<52:41, 9.64s/it,steps: 39%|███████████████████████████████████████████▉ | 212/540 [34:03<52:41, 9.64s/it,steps: 39%|████████████████████████████████████████████▏ | 213/540 [34:04<52:18, 9.60s/it,steps: 39%|████████████████████████████████████████████▏ | 213/540 [34:04<52:18, 9.60s/it,steps: 40%|████████████████████████████████████████████▍ | 214/540 [34:15<52:11, 9.61s/it,steps: 40%|████████████████████████████████████████████▍ | 214/540 [34:15<52:11, 9.61s/it,steps: 40%|████████████████████████████████████████████▌ | 215/540 [34:27<52:04, 9.61s/it,steps: 40%|████████████████████████████████████████████▌ | 215/540 [34:27<52:04, 9.61s/it,steps: 40%|████████████████████████████████████████████▊ | 216/540 [34:30<51:46, 9.59s/it,steps: 40%|████████████████████████████████████████████▊ | 216/540 [34:30<51:46, 9.59s/it, avr_loss=0.111]2024-07-16 15:09:36 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000012.safetensors train_util.py:4694 wandb: WARNING (User provided step: 12 is less than current step: 216. Dropping entry: {'loss/epoch': 0.11072513955231342, '_timestamp': 1721113776.9099343}). epoch 13/30 steps: 40%|█████████████████████████████████████████████ | 217/540 [34:56<52:00, 9.66s/it,steps: 40%|█████████████████████████████████████████████ | 217/540 [34:56<52:00, 9.66s/it,steps: 40%|█████████████████████████████████████████████▏ | 218/540 [35:07<51:53, 9.67s/it,steps: 40%|█████████████████████████████████████████████▏ | 218/540 [35:07<51:53, 9.67s/it,steps: 41%|█████████████████████████████████████████████▍ | 219/540 [35:19<51:46, 9.68s/it,steps: 41%|█████████████████████████████████████████████▍ | 219/540 [35:19<51:46, 9.68s/it,steps: 41%|█████████████████████████████████████████████▋ | 220/540 [35:30<51:39, 9.69s/it,steps: 41%|█████████████████████████████████████████████▋ | 220/540 [35:30<51:39, 9.69s/it,steps: 41%|█████████████████████████████████████████████▊ | 221/540 [35:42<51:32, 9.69s/it,steps: 41%|█████████████████████████████████████████████▊ | 221/540 [35:42<51:32, 9.69s/it,steps: 41%|██████████████████████████████████████████████ | 222/540 [35:48<51:17, 9.68s/it,steps: 41%|██████████████████████████████████████████████ | 222/540 [35:48<51:17, 9.68s/it,steps: 41%|██████████████████████████████████████████████▎ | 223/540 [36:00<51:10, 9.69s/it,steps: 41%|██████████████████████████████████████████████▎ | 223/540 [36:00<51:10, 9.69s/it,steps: 41%|██████████████████████████████████████████████▍ | 224/540 [36:01<50:48, 9.65s/it,steps: 41%|██████████████████████████████████████████████▍ | 224/540 [36:01<50:48, 9.65s/it,steps: 42%|██████████████████████████████████████████████▋ | 225/540 [36:07<50:34, 9.63s/it,steps: 42%|██████████████████████████████████████████████▋ | 225/540 [36:07<50:34, 9.63s/it,steps: 42%|██████████████████████████████████████████████▊ | 226/540 [36:18<50:27, 9.64s/it,steps: 42%|██████████████████████████████████████████████▊ | 226/540 [36:18<50:27, 9.64s/it,steps: 42%|███████████████████████████████████████████████ | 227/540 [36:30<50:20, 9.65s/it,steps: 42%|███████████████████████████████████████████████ | 227/540 [36:30<50:20, 9.65s/it,steps: 42%|███████████████████████████████████████████████▎ | 228/540 [36:46<50:19, 9.68s/it,steps: 42%|███████████████████████████████████████████████▎ | 228/540 [36:46<50:19, 9.68s/it,steps: 42%|███████████████████████████████████████████████▍ | 229/540 [36:47<49:57, 9.64s/it,steps: 42%|███████████████████████████████████████████████▍ | 229/540 [36:47<49:57, 9.64s/it,steps: 43%|███████████████████████████████████████████████▋ | 230/540 [36:58<49:50, 9.65s/it,steps: 43%|███████████████████████████████████████████████▋ | 230/540 [36:58<49:50, 9.65s/it,steps: 43%|███████████████████████████████████████████████▉ | 231/540 [37:10<49:43, 9.66s/it,steps: 43%|███████████████████████████████████████████████▉ | 231/540 [37:10<49:43, 9.66s/it,steps: 43%|████████████████████████████████████████████████ | 232/540 [37:21<49:36, 9.66s/it,steps: 43%|████████████████████████████████████████████████ | 232/540 [37:21<49:36, 9.66s/it,steps: 43%|████████████████████████████████████████████████▎ | 233/540 [37:33<49:28, 9.67s/it,steps: 43%|████████████████████████████████████████████████▎ | 233/540 [37:33<49:28, 9.67s/it,steps: 43%|████████████████████████████████████████████████▌ | 234/540 [37:44<49:21, 9.68s/it,steps: 43%|████████████████████████████████████████████████▌ | 234/540 [37:44<49:21, 9.68s/it, avr_loss=0.134]2024-07-16 15:12:50 INFO train_util.py:4693 INFO saving checkpoint: /root/dongman/dongman-000013.safetensors train_util.py:4694 wandb: WARNING (User provided step: 13 is less than current step: 234. Dropping entry: {'loss/epoch': 0.13372551649808884, '_timestamp': 1721113970.8481674}). epoch 14/30 steps: 44%|████████████████████████████████████████████████▋ | 235/540 [38:07<49:28, 9.73s/it,steps: 44%|████████████████████████████████████████████████▋ | 235/540 [38:07<49:28, 9.73s/it,steps: 44%|████████████████████████████████████████████████▉ | 236/540 [38:10<49:10, 9.71s/it,steps: 44%|█████████████████████████████████████████████████▍ | 236/540 [38:10<49:10, 9.71s/itsteps: 44%|█████████████████████████████████████████████████▌ | 237/540 [38:22<49:03, 9.71s/itsteps: 44%|█████████████████████████████████████████████████▏ | 237/540 [38:22<49:03, 9.71s/it,steps: 44%|█████████████████████████████████████████████████▎ | 238/540 [38:22<48:41, 9.67s/it,steps: 44%|█████████████████████████████████████████████████▎ | 238/540 [38:22<48:41, 9.67s/it,steps: 44%|█████████████████████████████████████████████████▌ | 239/540 [38:27<48:26, 9.66s/it,steps: 44%|█████████████████████████████████████████████████▌ | 239/540 [38:27<48:26, 9.66s/it,steps: 44%|█████████████████████████████████████████████████▊ | 240/540 [38:39<48:18, 9.66s/it,steps: 44%|█████████████████████████████████████████████████▊ | 240/540 [38:39<48:18, 9.66s/it,steps: 45%|█████████████████████████████████████████████████▉ | 241/540 [38:40<47:58, 9.63s/it,steps: 45%|█████████████████████████████████████████████████▉ | 241/540 [38:40<47:58, 9.63s/it,steps: 45%|██████████████████████████████████████████████████▏ | 242/540 [38:54<47:54, 9.64s/it,steps: 45%|██████████████████████████████████████████████████▋ | 242/540 [38:54<47:54, ████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ | 531/540 [1:27:18<01:28, 9.87s/it,steps: 99%|████████████████████████████████████████████████████████████████████████████████████████████████████████████▎ | 532/540 [1:27:28<01:18, 9.87s/it,steps: 99%|████████████████████████████████████████████████████████████████████████████████████████████████████████████▎ | 532/540 [1:27:28<01:18, 9.87s/it,steps: 99%|████████████████████████████████████████████████████████████████████████████████████████████████████████████▌ | 533/540 [1:27:32<01:08, 9.85s/it,steps: 99%|████████████████████████████████████████████████████████████████████████████████████████████████████████████▌ | 533/540 [1:27:32<01:08, 9.85s/it,steps: 99%|████████████████████████████████████████████████████████████████████████████████████████████████████████████▊ | 534/540 [1:27:33<00:59, 9.84s/it,steps: 99%|████████████████████████████████████████████████████████████████████████████████████████████████████████████▊ | 534/540 [1:27:33<00:59, 9.84s/it,steps: 99%|████████████████████████████████████████████████████████████████████████████████████████████████████████████▉ | 535/540 [1:27:45<00:49, 9.84s/it,steps: 99%|████████████████████████████████████████████████████████████████████████████████████████████████████████████▉ | 535/540 [1:27:45<00:49, 9.84s/it,steps: 99%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████▏| 536/540 [1:27:56<00:39, 9.84s/it,steps: 99%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████▏| 536/540 [1:27:56<00:39, 9.84s/it,steps: 99%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████▍| 537/540 [1:28:07<00:29, 9.85s/it,steps: 99%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████▍| 537/540 [1:28:07<00:29, 9.85s/it,steps: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████▌| 538/540 [1:28:19<00:19, 9.85s/it,steps: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████▌| 538/540 [1:28:19<00:19, 9.85s/it,steps: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████▊| 539/540 [1:28:30<00:09, 9.85s/it,steps: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████▊| 539/540 [1:28:30<00:09, 9.85s/it,steps: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████| 540/540 [1:28:36<00:00, 9.85s/it,steps: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████| 540/540 [1:28:36<00:00, 9.85s/it, wandb: wandb: wandb: Run history: wandb: loss ▅▃▃▁▂▃█▄▄▂▄▂▂▃▃▄▃▄▂▃▃▂▅▂▅▂▃▂▃▃▁▂▂▂▄▂▄▁▃▁ wandb: lr/text_encoder1 ███████▇▇▇▇▇▆▆▆▆▅▅▅▅▄▄▄▄▃▃▃▃▂▂▂▂▂▁▁▁▁▁▁▁ wandb: lr/unet ███████▇▇▇▇▇▆▆▆▆▅▅▅▅▄▄▄▄▃▃▃▃▂▂▂▂▂▁▁▁▁▁▁▁ wandb: wandb: Run summary: wandb: loss 0.11099 wandb: lr/text_encoder1 0.0 wandb: lr/unet 0.0 wandb: wandb: 🚀 View run fluent-meadow-42 at: https://wandb.ai/renwu/GPU-%E4%BD%BF%E7%94%A8%E7%8E%87-%E6%B8%A9%E5%BA%A6%E6%A3%80%E6%B5%8B/runs/aynrisa1 wandb: ️⚡ View job at https://wandb.ai/renwu/GPU-%E4%BD%BF%E7%94%A8%E7%8E%87-%E6%B8%A9%E5%BA%A6%E6%A3%80%E6%B5%8B/jobs/QXJ0aWZhY3RDb2xsZWN0aW9uOjI3NTExODY0Mw==/version_details/v0 wandb: Synced 6 W&B file(s), 0 media file(s), 2 artifact file(s) and 0 other file(s) wandb: Find logs at: ./logs/GPU-使用率-温度检测_perfix20240716142500/wandb/run-20240716_143506-aynrisa1/logs wandb: WARNING (User provided step: 30 is less than current step: 540. Dropping entry: {'loss/epoch': 0.11476703153716193, '_timestamp': 1721117023.0890737}). 2024-07-16 16:04:05 INFO save trained model as StableDiffusion checkpoint to /root/dongman/dongman.safetensors train_util.py:4851 2024-07-16 16:04:16 INFO model saved. train_db.py:479 steps: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████| 540/540 [1:29:09<00:00, 9.91s/it, avr_loss=0.115] 16:04:23-707257 INFO Training finished / 训练完成 |