|
{ |
|
"best_metric": 0.04972463101148605, |
|
"best_model_checkpoint": "./results/checkpoint-3000", |
|
"epoch": 10.0, |
|
"eval_steps": 500, |
|
"global_step": 7500, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.013333333333333334, |
|
"grad_norm": 8.725549697875977, |
|
"learning_rate": 1.0000000000000002e-06, |
|
"loss": 0.684, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.02666666666666667, |
|
"grad_norm": 5.472214221954346, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 0.4894, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"grad_norm": 2.4220633506774902, |
|
"learning_rate": 3e-06, |
|
"loss": 0.2556, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.05333333333333334, |
|
"grad_norm": 0.7857047915458679, |
|
"learning_rate": 4.000000000000001e-06, |
|
"loss": 0.145, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.06666666666666667, |
|
"grad_norm": 0.4604698121547699, |
|
"learning_rate": 5e-06, |
|
"loss": 0.1109, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"grad_norm": 0.7275335192680359, |
|
"learning_rate": 6e-06, |
|
"loss": 0.0831, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.09333333333333334, |
|
"grad_norm": 0.4567217528820038, |
|
"learning_rate": 7.000000000000001e-06, |
|
"loss": 0.0714, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.10666666666666667, |
|
"grad_norm": 0.5304622054100037, |
|
"learning_rate": 8.000000000000001e-06, |
|
"loss": 0.0628, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"grad_norm": 0.8135391473770142, |
|
"learning_rate": 9e-06, |
|
"loss": 0.0559, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.13333333333333333, |
|
"grad_norm": 0.5205259323120117, |
|
"learning_rate": 1e-05, |
|
"loss": 0.056, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.14666666666666667, |
|
"grad_norm": 0.48187530040740967, |
|
"learning_rate": 1.1000000000000001e-05, |
|
"loss": 0.0596, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"grad_norm": 0.6816896200180054, |
|
"learning_rate": 1.2e-05, |
|
"loss": 0.0554, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.17333333333333334, |
|
"grad_norm": 0.2854405641555786, |
|
"learning_rate": 1.3000000000000001e-05, |
|
"loss": 0.0559, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.18666666666666668, |
|
"grad_norm": 0.3061729967594147, |
|
"learning_rate": 1.4000000000000001e-05, |
|
"loss": 0.0563, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"grad_norm": 0.4867664575576782, |
|
"learning_rate": 1.5e-05, |
|
"loss": 0.0566, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.21333333333333335, |
|
"grad_norm": 0.23565839231014252, |
|
"learning_rate": 1.6000000000000003e-05, |
|
"loss": 0.0577, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.22666666666666666, |
|
"grad_norm": 0.3666606843471527, |
|
"learning_rate": 1.7000000000000003e-05, |
|
"loss": 0.06, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"grad_norm": 0.24223241209983826, |
|
"learning_rate": 1.8e-05, |
|
"loss": 0.0564, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.25333333333333335, |
|
"grad_norm": 0.5945714712142944, |
|
"learning_rate": 1.9e-05, |
|
"loss": 0.0554, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 0.26666666666666666, |
|
"grad_norm": 0.19689810276031494, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0577, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"grad_norm": 0.34613969922065735, |
|
"learning_rate": 2.1e-05, |
|
"loss": 0.0558, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 0.29333333333333333, |
|
"grad_norm": 0.6478371620178223, |
|
"learning_rate": 2.2000000000000003e-05, |
|
"loss": 0.0554, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.30666666666666664, |
|
"grad_norm": 0.2349582463502884, |
|
"learning_rate": 2.3000000000000003e-05, |
|
"loss": 0.0577, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"grad_norm": 0.2001052051782608, |
|
"learning_rate": 2.4e-05, |
|
"loss": 0.0493, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 0.3333333333333333, |
|
"grad_norm": 0.30669882893562317, |
|
"learning_rate": 2.5e-05, |
|
"loss": 0.06, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.3466666666666667, |
|
"grad_norm": 0.2223307192325592, |
|
"learning_rate": 2.6000000000000002e-05, |
|
"loss": 0.0547, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"grad_norm": 0.22245067358016968, |
|
"learning_rate": 2.7000000000000002e-05, |
|
"loss": 0.0549, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 0.37333333333333335, |
|
"grad_norm": 0.37316733598709106, |
|
"learning_rate": 2.8000000000000003e-05, |
|
"loss": 0.0501, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 0.38666666666666666, |
|
"grad_norm": 0.23923040926456451, |
|
"learning_rate": 2.9e-05, |
|
"loss": 0.0584, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"grad_norm": 0.16949036717414856, |
|
"learning_rate": 3e-05, |
|
"loss": 0.0584, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.41333333333333333, |
|
"grad_norm": 0.1930493414402008, |
|
"learning_rate": 3.1e-05, |
|
"loss": 0.0526, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 0.4266666666666667, |
|
"grad_norm": 0.26514557003974915, |
|
"learning_rate": 3.2000000000000005e-05, |
|
"loss": 0.0525, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"grad_norm": 0.4111441969871521, |
|
"learning_rate": 3.3e-05, |
|
"loss": 0.0507, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 0.4533333333333333, |
|
"grad_norm": 0.2635890245437622, |
|
"learning_rate": 3.4000000000000007e-05, |
|
"loss": 0.0562, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 0.4666666666666667, |
|
"grad_norm": 0.16341601312160492, |
|
"learning_rate": 3.5e-05, |
|
"loss": 0.0552, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"grad_norm": 0.13680022954940796, |
|
"learning_rate": 3.6e-05, |
|
"loss": 0.0608, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 0.49333333333333335, |
|
"grad_norm": 0.17087237536907196, |
|
"learning_rate": 3.7e-05, |
|
"loss": 0.0524, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 0.5066666666666667, |
|
"grad_norm": 0.19987235963344574, |
|
"learning_rate": 3.8e-05, |
|
"loss": 0.0522, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"grad_norm": 0.17424574494361877, |
|
"learning_rate": 3.9000000000000006e-05, |
|
"loss": 0.053, |
|
"step": 390 |
|
}, |
|
{ |
|
"epoch": 0.5333333333333333, |
|
"grad_norm": 0.2626163959503174, |
|
"learning_rate": 4e-05, |
|
"loss": 0.0562, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 0.5466666666666666, |
|
"grad_norm": 0.30992329120635986, |
|
"learning_rate": 4.1e-05, |
|
"loss": 0.0586, |
|
"step": 410 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"grad_norm": 0.15127162635326385, |
|
"learning_rate": 4.2e-05, |
|
"loss": 0.0558, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 0.5733333333333334, |
|
"grad_norm": 0.3681893050670624, |
|
"learning_rate": 4.3e-05, |
|
"loss": 0.0566, |
|
"step": 430 |
|
}, |
|
{ |
|
"epoch": 0.5866666666666667, |
|
"grad_norm": 0.21431119740009308, |
|
"learning_rate": 4.4000000000000006e-05, |
|
"loss": 0.0504, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"grad_norm": 0.5735889077186584, |
|
"learning_rate": 4.5e-05, |
|
"loss": 0.0561, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 0.6133333333333333, |
|
"grad_norm": 0.16527162492275238, |
|
"learning_rate": 4.600000000000001e-05, |
|
"loss": 0.0539, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 0.6266666666666667, |
|
"grad_norm": 0.221268430352211, |
|
"learning_rate": 4.7e-05, |
|
"loss": 0.0534, |
|
"step": 470 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"grad_norm": 0.15448009967803955, |
|
"learning_rate": 4.8e-05, |
|
"loss": 0.054, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 0.6533333333333333, |
|
"grad_norm": 0.1298859566450119, |
|
"learning_rate": 4.9e-05, |
|
"loss": 0.0562, |
|
"step": 490 |
|
}, |
|
{ |
|
"epoch": 0.6666666666666666, |
|
"grad_norm": 0.4119648039340973, |
|
"learning_rate": 5e-05, |
|
"loss": 0.0583, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"grad_norm": 0.4405224919319153, |
|
"learning_rate": 4.992857142857143e-05, |
|
"loss": 0.0573, |
|
"step": 510 |
|
}, |
|
{ |
|
"epoch": 0.6933333333333334, |
|
"grad_norm": 0.1450592279434204, |
|
"learning_rate": 4.985714285714286e-05, |
|
"loss": 0.0526, |
|
"step": 520 |
|
}, |
|
{ |
|
"epoch": 0.7066666666666667, |
|
"grad_norm": 0.12949694693088531, |
|
"learning_rate": 4.978571428571429e-05, |
|
"loss": 0.0525, |
|
"step": 530 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"grad_norm": 0.3533790409564972, |
|
"learning_rate": 4.971428571428572e-05, |
|
"loss": 0.0522, |
|
"step": 540 |
|
}, |
|
{ |
|
"epoch": 0.7333333333333333, |
|
"grad_norm": 0.1314944475889206, |
|
"learning_rate": 4.964285714285715e-05, |
|
"loss": 0.0581, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 0.7466666666666667, |
|
"grad_norm": 0.20394937694072723, |
|
"learning_rate": 4.957142857142857e-05, |
|
"loss": 0.0571, |
|
"step": 560 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"grad_norm": 0.2799670398235321, |
|
"learning_rate": 4.9500000000000004e-05, |
|
"loss": 0.0576, |
|
"step": 570 |
|
}, |
|
{ |
|
"epoch": 0.7733333333333333, |
|
"grad_norm": 0.13372468948364258, |
|
"learning_rate": 4.942857142857143e-05, |
|
"loss": 0.0547, |
|
"step": 580 |
|
}, |
|
{ |
|
"epoch": 0.7866666666666666, |
|
"grad_norm": 0.18102829158306122, |
|
"learning_rate": 4.935714285714286e-05, |
|
"loss": 0.0519, |
|
"step": 590 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"grad_norm": 0.29366248846054077, |
|
"learning_rate": 4.928571428571429e-05, |
|
"loss": 0.0565, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 0.8133333333333334, |
|
"grad_norm": 0.12053946405649185, |
|
"learning_rate": 4.921428571428572e-05, |
|
"loss": 0.0544, |
|
"step": 610 |
|
}, |
|
{ |
|
"epoch": 0.8266666666666667, |
|
"grad_norm": 0.23446927964687347, |
|
"learning_rate": 4.9142857142857144e-05, |
|
"loss": 0.0568, |
|
"step": 620 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"grad_norm": 0.3044653534889221, |
|
"learning_rate": 4.9071428571428574e-05, |
|
"loss": 0.0472, |
|
"step": 630 |
|
}, |
|
{ |
|
"epoch": 0.8533333333333334, |
|
"grad_norm": 0.23837679624557495, |
|
"learning_rate": 4.9e-05, |
|
"loss": 0.0573, |
|
"step": 640 |
|
}, |
|
{ |
|
"epoch": 0.8666666666666667, |
|
"grad_norm": 0.10183203965425491, |
|
"learning_rate": 4.892857142857143e-05, |
|
"loss": 0.0598, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"grad_norm": 0.14676718413829803, |
|
"learning_rate": 4.885714285714286e-05, |
|
"loss": 0.0586, |
|
"step": 660 |
|
}, |
|
{ |
|
"epoch": 0.8933333333333333, |
|
"grad_norm": 0.13648320734500885, |
|
"learning_rate": 4.878571428571429e-05, |
|
"loss": 0.0574, |
|
"step": 670 |
|
}, |
|
{ |
|
"epoch": 0.9066666666666666, |
|
"grad_norm": 0.10775018483400345, |
|
"learning_rate": 4.8714285714285714e-05, |
|
"loss": 0.0558, |
|
"step": 680 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"grad_norm": 0.07217590510845184, |
|
"learning_rate": 4.8642857142857145e-05, |
|
"loss": 0.0518, |
|
"step": 690 |
|
}, |
|
{ |
|
"epoch": 0.9333333333333333, |
|
"grad_norm": 0.24559026956558228, |
|
"learning_rate": 4.8571428571428576e-05, |
|
"loss": 0.056, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 0.9466666666666667, |
|
"grad_norm": 0.3462614417076111, |
|
"learning_rate": 4.85e-05, |
|
"loss": 0.057, |
|
"step": 710 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"grad_norm": 0.19252799451351166, |
|
"learning_rate": 4.842857142857143e-05, |
|
"loss": 0.0575, |
|
"step": 720 |
|
}, |
|
{ |
|
"epoch": 0.9733333333333334, |
|
"grad_norm": 0.1303693950176239, |
|
"learning_rate": 4.835714285714286e-05, |
|
"loss": 0.0546, |
|
"step": 730 |
|
}, |
|
{ |
|
"epoch": 0.9866666666666667, |
|
"grad_norm": 0.1383420079946518, |
|
"learning_rate": 4.828571428571429e-05, |
|
"loss": 0.0518, |
|
"step": 740 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"grad_norm": 0.2627663314342499, |
|
"learning_rate": 4.8214285714285716e-05, |
|
"loss": 0.0516, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_loss": 0.0562853068113327, |
|
"eval_runtime": 10.019, |
|
"eval_samples_per_second": 49.905, |
|
"eval_steps_per_second": 6.288, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 1.0133333333333334, |
|
"grad_norm": 0.33433371782302856, |
|
"learning_rate": 4.8142857142857147e-05, |
|
"loss": 0.0533, |
|
"step": 760 |
|
}, |
|
{ |
|
"epoch": 1.0266666666666666, |
|
"grad_norm": 0.13513435423374176, |
|
"learning_rate": 4.807142857142857e-05, |
|
"loss": 0.0604, |
|
"step": 770 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"grad_norm": 0.2732197046279907, |
|
"learning_rate": 4.8e-05, |
|
"loss": 0.0546, |
|
"step": 780 |
|
}, |
|
{ |
|
"epoch": 1.0533333333333332, |
|
"grad_norm": 0.22010153532028198, |
|
"learning_rate": 4.7928571428571425e-05, |
|
"loss": 0.0542, |
|
"step": 790 |
|
}, |
|
{ |
|
"epoch": 1.0666666666666667, |
|
"grad_norm": 0.13326552510261536, |
|
"learning_rate": 4.785714285714286e-05, |
|
"loss": 0.0548, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"grad_norm": 0.34271347522735596, |
|
"learning_rate": 4.7785714285714287e-05, |
|
"loss": 0.0553, |
|
"step": 810 |
|
}, |
|
{ |
|
"epoch": 1.0933333333333333, |
|
"grad_norm": 0.1879703551530838, |
|
"learning_rate": 4.771428571428572e-05, |
|
"loss": 0.0526, |
|
"step": 820 |
|
}, |
|
{ |
|
"epoch": 1.1066666666666667, |
|
"grad_norm": 0.1101825013756752, |
|
"learning_rate": 4.764285714285715e-05, |
|
"loss": 0.053, |
|
"step": 830 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"grad_norm": 0.2390560805797577, |
|
"learning_rate": 4.757142857142857e-05, |
|
"loss": 0.0538, |
|
"step": 840 |
|
}, |
|
{ |
|
"epoch": 1.1333333333333333, |
|
"grad_norm": 0.14126978814601898, |
|
"learning_rate": 4.75e-05, |
|
"loss": 0.0519, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 1.1466666666666667, |
|
"grad_norm": 0.1727863997220993, |
|
"learning_rate": 4.742857142857143e-05, |
|
"loss": 0.0545, |
|
"step": 860 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"grad_norm": 0.24541416764259338, |
|
"learning_rate": 4.7357142857142864e-05, |
|
"loss": 0.0567, |
|
"step": 870 |
|
}, |
|
{ |
|
"epoch": 1.1733333333333333, |
|
"grad_norm": 0.14753466844558716, |
|
"learning_rate": 4.728571428571429e-05, |
|
"loss": 0.052, |
|
"step": 880 |
|
}, |
|
{ |
|
"epoch": 1.1866666666666668, |
|
"grad_norm": 0.08342089504003525, |
|
"learning_rate": 4.721428571428572e-05, |
|
"loss": 0.0531, |
|
"step": 890 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"grad_norm": 0.1875409483909607, |
|
"learning_rate": 4.714285714285714e-05, |
|
"loss": 0.0512, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 1.2133333333333334, |
|
"grad_norm": 0.20995482802391052, |
|
"learning_rate": 4.707142857142857e-05, |
|
"loss": 0.0546, |
|
"step": 910 |
|
}, |
|
{ |
|
"epoch": 1.2266666666666666, |
|
"grad_norm": 0.2344016134738922, |
|
"learning_rate": 4.7e-05, |
|
"loss": 0.0531, |
|
"step": 920 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"grad_norm": 0.1306418776512146, |
|
"learning_rate": 4.6928571428571435e-05, |
|
"loss": 0.0507, |
|
"step": 930 |
|
}, |
|
{ |
|
"epoch": 1.2533333333333334, |
|
"grad_norm": 0.33188673853874207, |
|
"learning_rate": 4.685714285714286e-05, |
|
"loss": 0.0533, |
|
"step": 940 |
|
}, |
|
{ |
|
"epoch": 1.2666666666666666, |
|
"grad_norm": 0.12947222590446472, |
|
"learning_rate": 4.678571428571429e-05, |
|
"loss": 0.053, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"grad_norm": 0.19594353437423706, |
|
"learning_rate": 4.671428571428571e-05, |
|
"loss": 0.0546, |
|
"step": 960 |
|
}, |
|
{ |
|
"epoch": 1.2933333333333334, |
|
"grad_norm": 0.1253182739019394, |
|
"learning_rate": 4.6642857142857144e-05, |
|
"loss": 0.0579, |
|
"step": 970 |
|
}, |
|
{ |
|
"epoch": 1.3066666666666666, |
|
"grad_norm": 0.2498236447572708, |
|
"learning_rate": 4.6571428571428575e-05, |
|
"loss": 0.0509, |
|
"step": 980 |
|
}, |
|
{ |
|
"epoch": 1.32, |
|
"grad_norm": 0.22198714315891266, |
|
"learning_rate": 4.6500000000000005e-05, |
|
"loss": 0.046, |
|
"step": 990 |
|
}, |
|
{ |
|
"epoch": 1.3333333333333333, |
|
"grad_norm": 0.284244567155838, |
|
"learning_rate": 4.642857142857143e-05, |
|
"loss": 0.0553, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 1.3466666666666667, |
|
"grad_norm": 0.12197231501340866, |
|
"learning_rate": 4.635714285714286e-05, |
|
"loss": 0.0562, |
|
"step": 1010 |
|
}, |
|
{ |
|
"epoch": 1.3599999999999999, |
|
"grad_norm": 0.5158632397651672, |
|
"learning_rate": 4.628571428571429e-05, |
|
"loss": 0.0593, |
|
"step": 1020 |
|
}, |
|
{ |
|
"epoch": 1.3733333333333333, |
|
"grad_norm": 0.07657347619533539, |
|
"learning_rate": 4.6214285714285715e-05, |
|
"loss": 0.0531, |
|
"step": 1030 |
|
}, |
|
{ |
|
"epoch": 1.3866666666666667, |
|
"grad_norm": 0.13441196084022522, |
|
"learning_rate": 4.6142857142857145e-05, |
|
"loss": 0.0468, |
|
"step": 1040 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"grad_norm": 0.4040902554988861, |
|
"learning_rate": 4.607142857142857e-05, |
|
"loss": 0.0547, |
|
"step": 1050 |
|
}, |
|
{ |
|
"epoch": 1.4133333333333333, |
|
"grad_norm": 0.1260378658771515, |
|
"learning_rate": 4.600000000000001e-05, |
|
"loss": 0.0507, |
|
"step": 1060 |
|
}, |
|
{ |
|
"epoch": 1.4266666666666667, |
|
"grad_norm": 0.15826746821403503, |
|
"learning_rate": 4.592857142857143e-05, |
|
"loss": 0.0508, |
|
"step": 1070 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"grad_norm": 0.27735596895217896, |
|
"learning_rate": 4.585714285714286e-05, |
|
"loss": 0.0494, |
|
"step": 1080 |
|
}, |
|
{ |
|
"epoch": 1.4533333333333334, |
|
"grad_norm": 0.16800598800182343, |
|
"learning_rate": 4.5785714285714285e-05, |
|
"loss": 0.0544, |
|
"step": 1090 |
|
}, |
|
{ |
|
"epoch": 1.4666666666666668, |
|
"grad_norm": 0.21816496551036835, |
|
"learning_rate": 4.5714285714285716e-05, |
|
"loss": 0.0527, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"grad_norm": 0.13412387669086456, |
|
"learning_rate": 4.564285714285714e-05, |
|
"loss": 0.053, |
|
"step": 1110 |
|
}, |
|
{ |
|
"epoch": 1.4933333333333334, |
|
"grad_norm": 0.2320614606142044, |
|
"learning_rate": 4.557142857142858e-05, |
|
"loss": 0.0507, |
|
"step": 1120 |
|
}, |
|
{ |
|
"epoch": 1.5066666666666668, |
|
"grad_norm": 0.31624799966812134, |
|
"learning_rate": 4.55e-05, |
|
"loss": 0.0548, |
|
"step": 1130 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"grad_norm": 0.22088557481765747, |
|
"learning_rate": 4.542857142857143e-05, |
|
"loss": 0.0575, |
|
"step": 1140 |
|
}, |
|
{ |
|
"epoch": 1.5333333333333332, |
|
"grad_norm": 0.13105565309524536, |
|
"learning_rate": 4.5357142857142856e-05, |
|
"loss": 0.0599, |
|
"step": 1150 |
|
}, |
|
{ |
|
"epoch": 1.5466666666666666, |
|
"grad_norm": 0.33955448865890503, |
|
"learning_rate": 4.528571428571429e-05, |
|
"loss": 0.0535, |
|
"step": 1160 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"grad_norm": 0.12070120871067047, |
|
"learning_rate": 4.521428571428572e-05, |
|
"loss": 0.0523, |
|
"step": 1170 |
|
}, |
|
{ |
|
"epoch": 1.5733333333333333, |
|
"grad_norm": 0.1361754834651947, |
|
"learning_rate": 4.514285714285714e-05, |
|
"loss": 0.0533, |
|
"step": 1180 |
|
}, |
|
{ |
|
"epoch": 1.5866666666666667, |
|
"grad_norm": 0.3271886110305786, |
|
"learning_rate": 4.507142857142858e-05, |
|
"loss": 0.0509, |
|
"step": 1190 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"grad_norm": 0.13583555817604065, |
|
"learning_rate": 4.5e-05, |
|
"loss": 0.0517, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 1.6133333333333333, |
|
"grad_norm": 0.09063301235437393, |
|
"learning_rate": 4.4928571428571434e-05, |
|
"loss": 0.0491, |
|
"step": 1210 |
|
}, |
|
{ |
|
"epoch": 1.6266666666666667, |
|
"grad_norm": 0.13109685480594635, |
|
"learning_rate": 4.485714285714286e-05, |
|
"loss": 0.0507, |
|
"step": 1220 |
|
}, |
|
{ |
|
"epoch": 1.6400000000000001, |
|
"grad_norm": 0.2342015653848648, |
|
"learning_rate": 4.478571428571429e-05, |
|
"loss": 0.0555, |
|
"step": 1230 |
|
}, |
|
{ |
|
"epoch": 1.6533333333333333, |
|
"grad_norm": 0.23255020380020142, |
|
"learning_rate": 4.471428571428571e-05, |
|
"loss": 0.0501, |
|
"step": 1240 |
|
}, |
|
{ |
|
"epoch": 1.6666666666666665, |
|
"grad_norm": 0.10982577502727509, |
|
"learning_rate": 4.464285714285715e-05, |
|
"loss": 0.0498, |
|
"step": 1250 |
|
}, |
|
{ |
|
"epoch": 1.6800000000000002, |
|
"grad_norm": 0.21275991201400757, |
|
"learning_rate": 4.4571428571428574e-05, |
|
"loss": 0.0507, |
|
"step": 1260 |
|
}, |
|
{ |
|
"epoch": 1.6933333333333334, |
|
"grad_norm": 0.3174327611923218, |
|
"learning_rate": 4.4500000000000004e-05, |
|
"loss": 0.0489, |
|
"step": 1270 |
|
}, |
|
{ |
|
"epoch": 1.7066666666666666, |
|
"grad_norm": 0.13145875930786133, |
|
"learning_rate": 4.442857142857143e-05, |
|
"loss": 0.0535, |
|
"step": 1280 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"grad_norm": 0.10083083808422089, |
|
"learning_rate": 4.435714285714286e-05, |
|
"loss": 0.0508, |
|
"step": 1290 |
|
}, |
|
{ |
|
"epoch": 1.7333333333333334, |
|
"grad_norm": 0.12133139371871948, |
|
"learning_rate": 4.428571428571428e-05, |
|
"loss": 0.0504, |
|
"step": 1300 |
|
}, |
|
{ |
|
"epoch": 1.7466666666666666, |
|
"grad_norm": 0.16503684222698212, |
|
"learning_rate": 4.4214285714285714e-05, |
|
"loss": 0.0558, |
|
"step": 1310 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"grad_norm": 0.12504585087299347, |
|
"learning_rate": 4.4142857142857144e-05, |
|
"loss": 0.0518, |
|
"step": 1320 |
|
}, |
|
{ |
|
"epoch": 1.7733333333333334, |
|
"grad_norm": 0.10716963559389114, |
|
"learning_rate": 4.4071428571428575e-05, |
|
"loss": 0.0532, |
|
"step": 1330 |
|
}, |
|
{ |
|
"epoch": 1.7866666666666666, |
|
"grad_norm": 0.2373497486114502, |
|
"learning_rate": 4.4000000000000006e-05, |
|
"loss": 0.0528, |
|
"step": 1340 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"grad_norm": 0.1100727766752243, |
|
"learning_rate": 4.392857142857143e-05, |
|
"loss": 0.0531, |
|
"step": 1350 |
|
}, |
|
{ |
|
"epoch": 1.8133333333333335, |
|
"grad_norm": 0.14225316047668457, |
|
"learning_rate": 4.385714285714286e-05, |
|
"loss": 0.057, |
|
"step": 1360 |
|
}, |
|
{ |
|
"epoch": 1.8266666666666667, |
|
"grad_norm": 0.1384698450565338, |
|
"learning_rate": 4.3785714285714284e-05, |
|
"loss": 0.0552, |
|
"step": 1370 |
|
}, |
|
{ |
|
"epoch": 1.8399999999999999, |
|
"grad_norm": 0.10602777451276779, |
|
"learning_rate": 4.371428571428572e-05, |
|
"loss": 0.0506, |
|
"step": 1380 |
|
}, |
|
{ |
|
"epoch": 1.8533333333333335, |
|
"grad_norm": 0.2008180022239685, |
|
"learning_rate": 4.3642857142857146e-05, |
|
"loss": 0.053, |
|
"step": 1390 |
|
}, |
|
{ |
|
"epoch": 1.8666666666666667, |
|
"grad_norm": 0.1649533063173294, |
|
"learning_rate": 4.3571428571428576e-05, |
|
"loss": 0.0555, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"grad_norm": 0.14544807374477386, |
|
"learning_rate": 4.35e-05, |
|
"loss": 0.0477, |
|
"step": 1410 |
|
}, |
|
{ |
|
"epoch": 1.8933333333333333, |
|
"grad_norm": 0.24377340078353882, |
|
"learning_rate": 4.342857142857143e-05, |
|
"loss": 0.0528, |
|
"step": 1420 |
|
}, |
|
{ |
|
"epoch": 1.9066666666666667, |
|
"grad_norm": 0.29177284240722656, |
|
"learning_rate": 4.3357142857142855e-05, |
|
"loss": 0.0533, |
|
"step": 1430 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"grad_norm": 0.3291325271129608, |
|
"learning_rate": 4.328571428571429e-05, |
|
"loss": 0.0548, |
|
"step": 1440 |
|
}, |
|
{ |
|
"epoch": 1.9333333333333333, |
|
"grad_norm": 0.15374711155891418, |
|
"learning_rate": 4.3214285714285716e-05, |
|
"loss": 0.0503, |
|
"step": 1450 |
|
}, |
|
{ |
|
"epoch": 1.9466666666666668, |
|
"grad_norm": 0.1259704977273941, |
|
"learning_rate": 4.314285714285715e-05, |
|
"loss": 0.0504, |
|
"step": 1460 |
|
}, |
|
{ |
|
"epoch": 1.96, |
|
"grad_norm": 0.24009272456169128, |
|
"learning_rate": 4.307142857142857e-05, |
|
"loss": 0.0505, |
|
"step": 1470 |
|
}, |
|
{ |
|
"epoch": 1.9733333333333334, |
|
"grad_norm": 0.22257213294506073, |
|
"learning_rate": 4.3e-05, |
|
"loss": 0.0503, |
|
"step": 1480 |
|
}, |
|
{ |
|
"epoch": 1.9866666666666668, |
|
"grad_norm": 0.4394012987613678, |
|
"learning_rate": 4.292857142857143e-05, |
|
"loss": 0.0498, |
|
"step": 1490 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"grad_norm": 0.13578003644943237, |
|
"learning_rate": 4.2857142857142856e-05, |
|
"loss": 0.0461, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_loss": 0.054075684398412704, |
|
"eval_runtime": 10.0156, |
|
"eval_samples_per_second": 49.922, |
|
"eval_steps_per_second": 6.29, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 2.013333333333333, |
|
"grad_norm": 0.16438980400562286, |
|
"learning_rate": 4.278571428571429e-05, |
|
"loss": 0.0522, |
|
"step": 1510 |
|
}, |
|
{ |
|
"epoch": 2.026666666666667, |
|
"grad_norm": 0.20826704800128937, |
|
"learning_rate": 4.271428571428572e-05, |
|
"loss": 0.0519, |
|
"step": 1520 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"grad_norm": 0.11790334433317184, |
|
"learning_rate": 4.264285714285715e-05, |
|
"loss": 0.0546, |
|
"step": 1530 |
|
}, |
|
{ |
|
"epoch": 2.0533333333333332, |
|
"grad_norm": 0.10623537749052048, |
|
"learning_rate": 4.257142857142857e-05, |
|
"loss": 0.0463, |
|
"step": 1540 |
|
}, |
|
{ |
|
"epoch": 2.066666666666667, |
|
"grad_norm": 0.1282428652048111, |
|
"learning_rate": 4.25e-05, |
|
"loss": 0.05, |
|
"step": 1550 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"grad_norm": 0.17629238963127136, |
|
"learning_rate": 4.242857142857143e-05, |
|
"loss": 0.0539, |
|
"step": 1560 |
|
}, |
|
{ |
|
"epoch": 2.0933333333333333, |
|
"grad_norm": 0.12544283270835876, |
|
"learning_rate": 4.2357142857142864e-05, |
|
"loss": 0.0449, |
|
"step": 1570 |
|
}, |
|
{ |
|
"epoch": 2.1066666666666665, |
|
"grad_norm": 0.20133888721466064, |
|
"learning_rate": 4.228571428571429e-05, |
|
"loss": 0.0572, |
|
"step": 1580 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"grad_norm": 0.2364024966955185, |
|
"learning_rate": 4.221428571428572e-05, |
|
"loss": 0.0527, |
|
"step": 1590 |
|
}, |
|
{ |
|
"epoch": 2.1333333333333333, |
|
"grad_norm": 0.06316623836755753, |
|
"learning_rate": 4.214285714285714e-05, |
|
"loss": 0.0506, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 2.1466666666666665, |
|
"grad_norm": 0.17969930171966553, |
|
"learning_rate": 4.2071428571428574e-05, |
|
"loss": 0.0522, |
|
"step": 1610 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"grad_norm": 0.43240031599998474, |
|
"learning_rate": 4.2e-05, |
|
"loss": 0.052, |
|
"step": 1620 |
|
}, |
|
{ |
|
"epoch": 2.1733333333333333, |
|
"grad_norm": 0.1348673552274704, |
|
"learning_rate": 4.192857142857143e-05, |
|
"loss": 0.0543, |
|
"step": 1630 |
|
}, |
|
{ |
|
"epoch": 2.1866666666666665, |
|
"grad_norm": 0.10737530887126923, |
|
"learning_rate": 4.185714285714286e-05, |
|
"loss": 0.0517, |
|
"step": 1640 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"grad_norm": 0.35941430926322937, |
|
"learning_rate": 4.178571428571429e-05, |
|
"loss": 0.0555, |
|
"step": 1650 |
|
}, |
|
{ |
|
"epoch": 2.2133333333333334, |
|
"grad_norm": 0.07631855458021164, |
|
"learning_rate": 4.1714285714285714e-05, |
|
"loss": 0.0488, |
|
"step": 1660 |
|
}, |
|
{ |
|
"epoch": 2.2266666666666666, |
|
"grad_norm": 0.06476607173681259, |
|
"learning_rate": 4.1642857142857144e-05, |
|
"loss": 0.0509, |
|
"step": 1670 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"grad_norm": 0.16520707309246063, |
|
"learning_rate": 4.1571428571428575e-05, |
|
"loss": 0.053, |
|
"step": 1680 |
|
}, |
|
{ |
|
"epoch": 2.2533333333333334, |
|
"grad_norm": 0.44324541091918945, |
|
"learning_rate": 4.15e-05, |
|
"loss": 0.0524, |
|
"step": 1690 |
|
}, |
|
{ |
|
"epoch": 2.2666666666666666, |
|
"grad_norm": 0.12983335554599762, |
|
"learning_rate": 4.1428571428571437e-05, |
|
"loss": 0.0491, |
|
"step": 1700 |
|
}, |
|
{ |
|
"epoch": 2.2800000000000002, |
|
"grad_norm": 0.1432163417339325, |
|
"learning_rate": 4.135714285714286e-05, |
|
"loss": 0.0487, |
|
"step": 1710 |
|
}, |
|
{ |
|
"epoch": 2.2933333333333334, |
|
"grad_norm": 0.13836470246315002, |
|
"learning_rate": 4.128571428571429e-05, |
|
"loss": 0.0504, |
|
"step": 1720 |
|
}, |
|
{ |
|
"epoch": 2.3066666666666666, |
|
"grad_norm": 0.23527877032756805, |
|
"learning_rate": 4.1214285714285715e-05, |
|
"loss": 0.0505, |
|
"step": 1730 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"grad_norm": 0.07424179464578629, |
|
"learning_rate": 4.1142857142857146e-05, |
|
"loss": 0.0495, |
|
"step": 1740 |
|
}, |
|
{ |
|
"epoch": 2.3333333333333335, |
|
"grad_norm": 0.14068065583705902, |
|
"learning_rate": 4.107142857142857e-05, |
|
"loss": 0.0474, |
|
"step": 1750 |
|
}, |
|
{ |
|
"epoch": 2.3466666666666667, |
|
"grad_norm": 0.12768574059009552, |
|
"learning_rate": 4.1e-05, |
|
"loss": 0.0493, |
|
"step": 1760 |
|
}, |
|
{ |
|
"epoch": 2.36, |
|
"grad_norm": 0.1718904823064804, |
|
"learning_rate": 4.092857142857143e-05, |
|
"loss": 0.048, |
|
"step": 1770 |
|
}, |
|
{ |
|
"epoch": 2.3733333333333335, |
|
"grad_norm": 0.13147805631160736, |
|
"learning_rate": 4.085714285714286e-05, |
|
"loss": 0.0475, |
|
"step": 1780 |
|
}, |
|
{ |
|
"epoch": 2.3866666666666667, |
|
"grad_norm": 0.08944166451692581, |
|
"learning_rate": 4.0785714285714286e-05, |
|
"loss": 0.0501, |
|
"step": 1790 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"grad_norm": 0.24558790028095245, |
|
"learning_rate": 4.0714285714285717e-05, |
|
"loss": 0.0506, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 2.413333333333333, |
|
"grad_norm": 0.16107410192489624, |
|
"learning_rate": 4.064285714285714e-05, |
|
"loss": 0.0512, |
|
"step": 1810 |
|
}, |
|
{ |
|
"epoch": 2.4266666666666667, |
|
"grad_norm": 0.1700991988182068, |
|
"learning_rate": 4.057142857142857e-05, |
|
"loss": 0.0499, |
|
"step": 1820 |
|
}, |
|
{ |
|
"epoch": 2.44, |
|
"grad_norm": 0.2655865550041199, |
|
"learning_rate": 4.05e-05, |
|
"loss": 0.0541, |
|
"step": 1830 |
|
}, |
|
{ |
|
"epoch": 2.453333333333333, |
|
"grad_norm": 0.20461224019527435, |
|
"learning_rate": 4.042857142857143e-05, |
|
"loss": 0.0523, |
|
"step": 1840 |
|
}, |
|
{ |
|
"epoch": 2.466666666666667, |
|
"grad_norm": 0.3652881383895874, |
|
"learning_rate": 4.035714285714286e-05, |
|
"loss": 0.0513, |
|
"step": 1850 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"grad_norm": 0.2154848426580429, |
|
"learning_rate": 4.028571428571429e-05, |
|
"loss": 0.0517, |
|
"step": 1860 |
|
}, |
|
{ |
|
"epoch": 2.493333333333333, |
|
"grad_norm": 0.26713937520980835, |
|
"learning_rate": 4.021428571428572e-05, |
|
"loss": 0.0492, |
|
"step": 1870 |
|
}, |
|
{ |
|
"epoch": 2.506666666666667, |
|
"grad_norm": 0.15230190753936768, |
|
"learning_rate": 4.014285714285714e-05, |
|
"loss": 0.0559, |
|
"step": 1880 |
|
}, |
|
{ |
|
"epoch": 2.52, |
|
"grad_norm": 0.30474409461021423, |
|
"learning_rate": 4.007142857142857e-05, |
|
"loss": 0.0488, |
|
"step": 1890 |
|
}, |
|
{ |
|
"epoch": 2.533333333333333, |
|
"grad_norm": 0.2997805178165436, |
|
"learning_rate": 4e-05, |
|
"loss": 0.0498, |
|
"step": 1900 |
|
}, |
|
{ |
|
"epoch": 2.546666666666667, |
|
"grad_norm": 0.19172672927379608, |
|
"learning_rate": 3.9928571428571434e-05, |
|
"loss": 0.0585, |
|
"step": 1910 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"grad_norm": 0.382513165473938, |
|
"learning_rate": 3.985714285714286e-05, |
|
"loss": 0.0552, |
|
"step": 1920 |
|
}, |
|
{ |
|
"epoch": 2.5733333333333333, |
|
"grad_norm": 0.23635518550872803, |
|
"learning_rate": 3.978571428571429e-05, |
|
"loss": 0.0538, |
|
"step": 1930 |
|
}, |
|
{ |
|
"epoch": 2.586666666666667, |
|
"grad_norm": 0.11122988909482956, |
|
"learning_rate": 3.971428571428571e-05, |
|
"loss": 0.046, |
|
"step": 1940 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"grad_norm": 0.2611789405345917, |
|
"learning_rate": 3.964285714285714e-05, |
|
"loss": 0.053, |
|
"step": 1950 |
|
}, |
|
{ |
|
"epoch": 2.6133333333333333, |
|
"grad_norm": 0.12125597149133682, |
|
"learning_rate": 3.9571428571428574e-05, |
|
"loss": 0.05, |
|
"step": 1960 |
|
}, |
|
{ |
|
"epoch": 2.626666666666667, |
|
"grad_norm": 0.4137856066226959, |
|
"learning_rate": 3.9500000000000005e-05, |
|
"loss": 0.0502, |
|
"step": 1970 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"grad_norm": 0.11748076975345612, |
|
"learning_rate": 3.942857142857143e-05, |
|
"loss": 0.0497, |
|
"step": 1980 |
|
}, |
|
{ |
|
"epoch": 2.6533333333333333, |
|
"grad_norm": 0.377098947763443, |
|
"learning_rate": 3.935714285714286e-05, |
|
"loss": 0.0505, |
|
"step": 1990 |
|
}, |
|
{ |
|
"epoch": 2.6666666666666665, |
|
"grad_norm": 0.11372966319322586, |
|
"learning_rate": 3.928571428571429e-05, |
|
"loss": 0.0487, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 2.68, |
|
"grad_norm": 0.19125735759735107, |
|
"learning_rate": 3.9214285714285714e-05, |
|
"loss": 0.0483, |
|
"step": 2010 |
|
}, |
|
{ |
|
"epoch": 2.6933333333333334, |
|
"grad_norm": 0.44038212299346924, |
|
"learning_rate": 3.9142857142857145e-05, |
|
"loss": 0.0527, |
|
"step": 2020 |
|
}, |
|
{ |
|
"epoch": 2.7066666666666666, |
|
"grad_norm": 0.15510571002960205, |
|
"learning_rate": 3.9071428571428575e-05, |
|
"loss": 0.0509, |
|
"step": 2030 |
|
}, |
|
{ |
|
"epoch": 2.7199999999999998, |
|
"grad_norm": 0.25460880994796753, |
|
"learning_rate": 3.9000000000000006e-05, |
|
"loss": 0.0553, |
|
"step": 2040 |
|
}, |
|
{ |
|
"epoch": 2.7333333333333334, |
|
"grad_norm": 0.1712125986814499, |
|
"learning_rate": 3.892857142857143e-05, |
|
"loss": 0.0498, |
|
"step": 2050 |
|
}, |
|
{ |
|
"epoch": 2.7466666666666666, |
|
"grad_norm": 0.12470956891775131, |
|
"learning_rate": 3.885714285714286e-05, |
|
"loss": 0.0508, |
|
"step": 2060 |
|
}, |
|
{ |
|
"epoch": 2.76, |
|
"grad_norm": 0.16354122757911682, |
|
"learning_rate": 3.8785714285714285e-05, |
|
"loss": 0.0532, |
|
"step": 2070 |
|
}, |
|
{ |
|
"epoch": 2.7733333333333334, |
|
"grad_norm": 0.08440346270799637, |
|
"learning_rate": 3.8714285714285715e-05, |
|
"loss": 0.0489, |
|
"step": 2080 |
|
}, |
|
{ |
|
"epoch": 2.7866666666666666, |
|
"grad_norm": 0.13046309351921082, |
|
"learning_rate": 3.8642857142857146e-05, |
|
"loss": 0.0508, |
|
"step": 2090 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"grad_norm": 0.1991935819387436, |
|
"learning_rate": 3.857142857142858e-05, |
|
"loss": 0.0478, |
|
"step": 2100 |
|
}, |
|
{ |
|
"epoch": 2.8133333333333335, |
|
"grad_norm": 0.15155845880508423, |
|
"learning_rate": 3.85e-05, |
|
"loss": 0.0538, |
|
"step": 2110 |
|
}, |
|
{ |
|
"epoch": 2.8266666666666667, |
|
"grad_norm": 0.17168861627578735, |
|
"learning_rate": 3.842857142857143e-05, |
|
"loss": 0.0497, |
|
"step": 2120 |
|
}, |
|
{ |
|
"epoch": 2.84, |
|
"grad_norm": 0.12003040313720703, |
|
"learning_rate": 3.8357142857142855e-05, |
|
"loss": 0.0482, |
|
"step": 2130 |
|
}, |
|
{ |
|
"epoch": 2.8533333333333335, |
|
"grad_norm": 0.2565872073173523, |
|
"learning_rate": 3.8285714285714286e-05, |
|
"loss": 0.0484, |
|
"step": 2140 |
|
}, |
|
{ |
|
"epoch": 2.8666666666666667, |
|
"grad_norm": 0.13114257156848907, |
|
"learning_rate": 3.821428571428572e-05, |
|
"loss": 0.0504, |
|
"step": 2150 |
|
}, |
|
{ |
|
"epoch": 2.88, |
|
"grad_norm": 0.3810775578022003, |
|
"learning_rate": 3.814285714285715e-05, |
|
"loss": 0.0552, |
|
"step": 2160 |
|
}, |
|
{ |
|
"epoch": 2.8933333333333335, |
|
"grad_norm": 0.2469027042388916, |
|
"learning_rate": 3.807142857142857e-05, |
|
"loss": 0.0563, |
|
"step": 2170 |
|
}, |
|
{ |
|
"epoch": 2.9066666666666667, |
|
"grad_norm": 0.14966650307178497, |
|
"learning_rate": 3.8e-05, |
|
"loss": 0.0545, |
|
"step": 2180 |
|
}, |
|
{ |
|
"epoch": 2.92, |
|
"grad_norm": 0.1862277090549469, |
|
"learning_rate": 3.792857142857143e-05, |
|
"loss": 0.0474, |
|
"step": 2190 |
|
}, |
|
{ |
|
"epoch": 2.9333333333333336, |
|
"grad_norm": 0.26608338952064514, |
|
"learning_rate": 3.785714285714286e-05, |
|
"loss": 0.0493, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 2.9466666666666668, |
|
"grad_norm": 0.125716432929039, |
|
"learning_rate": 3.778571428571429e-05, |
|
"loss": 0.0507, |
|
"step": 2210 |
|
}, |
|
{ |
|
"epoch": 2.96, |
|
"grad_norm": 0.16496026515960693, |
|
"learning_rate": 3.771428571428572e-05, |
|
"loss": 0.049, |
|
"step": 2220 |
|
}, |
|
{ |
|
"epoch": 2.9733333333333336, |
|
"grad_norm": 0.22474133968353271, |
|
"learning_rate": 3.764285714285715e-05, |
|
"loss": 0.0501, |
|
"step": 2230 |
|
}, |
|
{ |
|
"epoch": 2.986666666666667, |
|
"grad_norm": 0.11562592536211014, |
|
"learning_rate": 3.757142857142857e-05, |
|
"loss": 0.0521, |
|
"step": 2240 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"grad_norm": 0.19955560564994812, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 0.0464, |
|
"step": 2250 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"eval_loss": 0.05110824480652809, |
|
"eval_runtime": 10.0148, |
|
"eval_samples_per_second": 49.926, |
|
"eval_steps_per_second": 6.291, |
|
"step": 2250 |
|
}, |
|
{ |
|
"epoch": 3.013333333333333, |
|
"grad_norm": 0.16816431283950806, |
|
"learning_rate": 3.742857142857143e-05, |
|
"loss": 0.0443, |
|
"step": 2260 |
|
}, |
|
{ |
|
"epoch": 3.026666666666667, |
|
"grad_norm": 0.45735976099967957, |
|
"learning_rate": 3.735714285714286e-05, |
|
"loss": 0.0515, |
|
"step": 2270 |
|
}, |
|
{ |
|
"epoch": 3.04, |
|
"grad_norm": 0.1592942327260971, |
|
"learning_rate": 3.728571428571428e-05, |
|
"loss": 0.0481, |
|
"step": 2280 |
|
}, |
|
{ |
|
"epoch": 3.0533333333333332, |
|
"grad_norm": 0.32670077681541443, |
|
"learning_rate": 3.721428571428572e-05, |
|
"loss": 0.0503, |
|
"step": 2290 |
|
}, |
|
{ |
|
"epoch": 3.066666666666667, |
|
"grad_norm": 0.20668624341487885, |
|
"learning_rate": 3.7142857142857143e-05, |
|
"loss": 0.051, |
|
"step": 2300 |
|
}, |
|
{ |
|
"epoch": 3.08, |
|
"grad_norm": 0.13852283358573914, |
|
"learning_rate": 3.7071428571428574e-05, |
|
"loss": 0.0479, |
|
"step": 2310 |
|
}, |
|
{ |
|
"epoch": 3.0933333333333333, |
|
"grad_norm": 0.2132701426744461, |
|
"learning_rate": 3.7e-05, |
|
"loss": 0.0489, |
|
"step": 2320 |
|
}, |
|
{ |
|
"epoch": 3.1066666666666665, |
|
"grad_norm": 0.1702883541584015, |
|
"learning_rate": 3.692857142857143e-05, |
|
"loss": 0.044, |
|
"step": 2330 |
|
}, |
|
{ |
|
"epoch": 3.12, |
|
"grad_norm": 0.18299806118011475, |
|
"learning_rate": 3.685714285714286e-05, |
|
"loss": 0.0494, |
|
"step": 2340 |
|
}, |
|
{ |
|
"epoch": 3.1333333333333333, |
|
"grad_norm": 0.1809345781803131, |
|
"learning_rate": 3.678571428571429e-05, |
|
"loss": 0.05, |
|
"step": 2350 |
|
}, |
|
{ |
|
"epoch": 3.1466666666666665, |
|
"grad_norm": 0.1421690732240677, |
|
"learning_rate": 3.671428571428572e-05, |
|
"loss": 0.0464, |
|
"step": 2360 |
|
}, |
|
{ |
|
"epoch": 3.16, |
|
"grad_norm": 0.20509889721870422, |
|
"learning_rate": 3.6642857142857145e-05, |
|
"loss": 0.0491, |
|
"step": 2370 |
|
}, |
|
{ |
|
"epoch": 3.1733333333333333, |
|
"grad_norm": 0.12411938607692719, |
|
"learning_rate": 3.6571428571428576e-05, |
|
"loss": 0.0505, |
|
"step": 2380 |
|
}, |
|
{ |
|
"epoch": 3.1866666666666665, |
|
"grad_norm": 0.19250600039958954, |
|
"learning_rate": 3.65e-05, |
|
"loss": 0.0458, |
|
"step": 2390 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"grad_norm": 0.37988996505737305, |
|
"learning_rate": 3.642857142857143e-05, |
|
"loss": 0.0504, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 3.2133333333333334, |
|
"grad_norm": 0.11754297465085983, |
|
"learning_rate": 3.6357142857142854e-05, |
|
"loss": 0.0488, |
|
"step": 2410 |
|
}, |
|
{ |
|
"epoch": 3.2266666666666666, |
|
"grad_norm": 0.1923026740550995, |
|
"learning_rate": 3.628571428571429e-05, |
|
"loss": 0.0488, |
|
"step": 2420 |
|
}, |
|
{ |
|
"epoch": 3.24, |
|
"grad_norm": 0.2408144474029541, |
|
"learning_rate": 3.6214285714285716e-05, |
|
"loss": 0.0505, |
|
"step": 2430 |
|
}, |
|
{ |
|
"epoch": 3.2533333333333334, |
|
"grad_norm": 0.23655633628368378, |
|
"learning_rate": 3.6142857142857146e-05, |
|
"loss": 0.0449, |
|
"step": 2440 |
|
}, |
|
{ |
|
"epoch": 3.2666666666666666, |
|
"grad_norm": 0.1541142463684082, |
|
"learning_rate": 3.607142857142857e-05, |
|
"loss": 0.0516, |
|
"step": 2450 |
|
}, |
|
{ |
|
"epoch": 3.2800000000000002, |
|
"grad_norm": 0.2851203978061676, |
|
"learning_rate": 3.6e-05, |
|
"loss": 0.0495, |
|
"step": 2460 |
|
}, |
|
{ |
|
"epoch": 3.2933333333333334, |
|
"grad_norm": 0.20948311686515808, |
|
"learning_rate": 3.5928571428571425e-05, |
|
"loss": 0.0489, |
|
"step": 2470 |
|
}, |
|
{ |
|
"epoch": 3.3066666666666666, |
|
"grad_norm": 0.15014463663101196, |
|
"learning_rate": 3.585714285714286e-05, |
|
"loss": 0.0518, |
|
"step": 2480 |
|
}, |
|
{ |
|
"epoch": 3.32, |
|
"grad_norm": 0.14630897343158722, |
|
"learning_rate": 3.5785714285714286e-05, |
|
"loss": 0.0493, |
|
"step": 2490 |
|
}, |
|
{ |
|
"epoch": 3.3333333333333335, |
|
"grad_norm": 0.12098649889230728, |
|
"learning_rate": 3.571428571428572e-05, |
|
"loss": 0.0491, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 3.3466666666666667, |
|
"grad_norm": 0.6136795878410339, |
|
"learning_rate": 3.564285714285715e-05, |
|
"loss": 0.0519, |
|
"step": 2510 |
|
}, |
|
{ |
|
"epoch": 3.36, |
|
"grad_norm": 0.19456863403320312, |
|
"learning_rate": 3.557142857142857e-05, |
|
"loss": 0.0512, |
|
"step": 2520 |
|
}, |
|
{ |
|
"epoch": 3.3733333333333335, |
|
"grad_norm": 0.5618788003921509, |
|
"learning_rate": 3.55e-05, |
|
"loss": 0.0503, |
|
"step": 2530 |
|
}, |
|
{ |
|
"epoch": 3.3866666666666667, |
|
"grad_norm": 0.30272796750068665, |
|
"learning_rate": 3.5428571428571426e-05, |
|
"loss": 0.0489, |
|
"step": 2540 |
|
}, |
|
{ |
|
"epoch": 3.4, |
|
"grad_norm": 0.19792865216732025, |
|
"learning_rate": 3.5357142857142864e-05, |
|
"loss": 0.0528, |
|
"step": 2550 |
|
}, |
|
{ |
|
"epoch": 3.413333333333333, |
|
"grad_norm": 0.31040942668914795, |
|
"learning_rate": 3.528571428571429e-05, |
|
"loss": 0.0497, |
|
"step": 2560 |
|
}, |
|
{ |
|
"epoch": 3.4266666666666667, |
|
"grad_norm": 0.19779431819915771, |
|
"learning_rate": 3.521428571428572e-05, |
|
"loss": 0.0518, |
|
"step": 2570 |
|
}, |
|
{ |
|
"epoch": 3.44, |
|
"grad_norm": 0.15589947998523712, |
|
"learning_rate": 3.514285714285714e-05, |
|
"loss": 0.0493, |
|
"step": 2580 |
|
}, |
|
{ |
|
"epoch": 3.453333333333333, |
|
"grad_norm": 0.1930648535490036, |
|
"learning_rate": 3.507142857142857e-05, |
|
"loss": 0.0525, |
|
"step": 2590 |
|
}, |
|
{ |
|
"epoch": 3.466666666666667, |
|
"grad_norm": 0.18375195562839508, |
|
"learning_rate": 3.5e-05, |
|
"loss": 0.0461, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 3.48, |
|
"grad_norm": 0.2192424237728119, |
|
"learning_rate": 3.4928571428571434e-05, |
|
"loss": 0.0497, |
|
"step": 2610 |
|
}, |
|
{ |
|
"epoch": 3.493333333333333, |
|
"grad_norm": 0.1559227854013443, |
|
"learning_rate": 3.485714285714286e-05, |
|
"loss": 0.053, |
|
"step": 2620 |
|
}, |
|
{ |
|
"epoch": 3.506666666666667, |
|
"grad_norm": 0.15121030807495117, |
|
"learning_rate": 3.478571428571429e-05, |
|
"loss": 0.045, |
|
"step": 2630 |
|
}, |
|
{ |
|
"epoch": 3.52, |
|
"grad_norm": 0.16507183015346527, |
|
"learning_rate": 3.471428571428571e-05, |
|
"loss": 0.0518, |
|
"step": 2640 |
|
}, |
|
{ |
|
"epoch": 3.533333333333333, |
|
"grad_norm": 0.22757488489151, |
|
"learning_rate": 3.4642857142857144e-05, |
|
"loss": 0.0451, |
|
"step": 2650 |
|
}, |
|
{ |
|
"epoch": 3.546666666666667, |
|
"grad_norm": 0.1340194046497345, |
|
"learning_rate": 3.4571428571428574e-05, |
|
"loss": 0.0463, |
|
"step": 2660 |
|
}, |
|
{ |
|
"epoch": 3.56, |
|
"grad_norm": 0.384883850812912, |
|
"learning_rate": 3.45e-05, |
|
"loss": 0.0466, |
|
"step": 2670 |
|
}, |
|
{ |
|
"epoch": 3.5733333333333333, |
|
"grad_norm": 0.19904693961143494, |
|
"learning_rate": 3.442857142857143e-05, |
|
"loss": 0.0457, |
|
"step": 2680 |
|
}, |
|
{ |
|
"epoch": 3.586666666666667, |
|
"grad_norm": 0.3202771246433258, |
|
"learning_rate": 3.435714285714286e-05, |
|
"loss": 0.0518, |
|
"step": 2690 |
|
}, |
|
{ |
|
"epoch": 3.6, |
|
"grad_norm": 0.3006669580936432, |
|
"learning_rate": 3.428571428571429e-05, |
|
"loss": 0.0472, |
|
"step": 2700 |
|
}, |
|
{ |
|
"epoch": 3.6133333333333333, |
|
"grad_norm": 0.1989063322544098, |
|
"learning_rate": 3.4214285714285714e-05, |
|
"loss": 0.0523, |
|
"step": 2710 |
|
}, |
|
{ |
|
"epoch": 3.626666666666667, |
|
"grad_norm": 0.16822995245456696, |
|
"learning_rate": 3.4142857142857145e-05, |
|
"loss": 0.0495, |
|
"step": 2720 |
|
}, |
|
{ |
|
"epoch": 3.64, |
|
"grad_norm": 0.1562507003545761, |
|
"learning_rate": 3.407142857142857e-05, |
|
"loss": 0.0527, |
|
"step": 2730 |
|
}, |
|
{ |
|
"epoch": 3.6533333333333333, |
|
"grad_norm": 0.1633797138929367, |
|
"learning_rate": 3.4000000000000007e-05, |
|
"loss": 0.0458, |
|
"step": 2740 |
|
}, |
|
{ |
|
"epoch": 3.6666666666666665, |
|
"grad_norm": 0.16070666909217834, |
|
"learning_rate": 3.392857142857143e-05, |
|
"loss": 0.0502, |
|
"step": 2750 |
|
}, |
|
{ |
|
"epoch": 3.68, |
|
"grad_norm": 0.2407410889863968, |
|
"learning_rate": 3.385714285714286e-05, |
|
"loss": 0.0503, |
|
"step": 2760 |
|
}, |
|
{ |
|
"epoch": 3.6933333333333334, |
|
"grad_norm": 0.35909250378608704, |
|
"learning_rate": 3.3785714285714285e-05, |
|
"loss": 0.0531, |
|
"step": 2770 |
|
}, |
|
{ |
|
"epoch": 3.7066666666666666, |
|
"grad_norm": 0.18820758163928986, |
|
"learning_rate": 3.3714285714285716e-05, |
|
"loss": 0.0462, |
|
"step": 2780 |
|
}, |
|
{ |
|
"epoch": 3.7199999999999998, |
|
"grad_norm": 0.14336512982845306, |
|
"learning_rate": 3.364285714285714e-05, |
|
"loss": 0.0458, |
|
"step": 2790 |
|
}, |
|
{ |
|
"epoch": 3.7333333333333334, |
|
"grad_norm": 0.22497084736824036, |
|
"learning_rate": 3.357142857142857e-05, |
|
"loss": 0.0507, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 3.7466666666666666, |
|
"grad_norm": 0.19693425297737122, |
|
"learning_rate": 3.35e-05, |
|
"loss": 0.0491, |
|
"step": 2810 |
|
}, |
|
{ |
|
"epoch": 3.76, |
|
"grad_norm": 0.13213084638118744, |
|
"learning_rate": 3.342857142857143e-05, |
|
"loss": 0.0514, |
|
"step": 2820 |
|
}, |
|
{ |
|
"epoch": 3.7733333333333334, |
|
"grad_norm": 0.16602641344070435, |
|
"learning_rate": 3.3357142857142856e-05, |
|
"loss": 0.0453, |
|
"step": 2830 |
|
}, |
|
{ |
|
"epoch": 3.7866666666666666, |
|
"grad_norm": 0.2550041675567627, |
|
"learning_rate": 3.3285714285714286e-05, |
|
"loss": 0.0479, |
|
"step": 2840 |
|
}, |
|
{ |
|
"epoch": 3.8, |
|
"grad_norm": 0.1765415370464325, |
|
"learning_rate": 3.321428571428572e-05, |
|
"loss": 0.0448, |
|
"step": 2850 |
|
}, |
|
{ |
|
"epoch": 3.8133333333333335, |
|
"grad_norm": 0.11827313154935837, |
|
"learning_rate": 3.314285714285714e-05, |
|
"loss": 0.0486, |
|
"step": 2860 |
|
}, |
|
{ |
|
"epoch": 3.8266666666666667, |
|
"grad_norm": 0.2375144213438034, |
|
"learning_rate": 3.307142857142858e-05, |
|
"loss": 0.0436, |
|
"step": 2870 |
|
}, |
|
{ |
|
"epoch": 3.84, |
|
"grad_norm": 0.3061915636062622, |
|
"learning_rate": 3.3e-05, |
|
"loss": 0.0495, |
|
"step": 2880 |
|
}, |
|
{ |
|
"epoch": 3.8533333333333335, |
|
"grad_norm": 0.10031377524137497, |
|
"learning_rate": 3.292857142857143e-05, |
|
"loss": 0.0487, |
|
"step": 2890 |
|
}, |
|
{ |
|
"epoch": 3.8666666666666667, |
|
"grad_norm": 0.21883299946784973, |
|
"learning_rate": 3.285714285714286e-05, |
|
"loss": 0.046, |
|
"step": 2900 |
|
}, |
|
{ |
|
"epoch": 3.88, |
|
"grad_norm": 1.590725302696228, |
|
"learning_rate": 3.278571428571429e-05, |
|
"loss": 0.0502, |
|
"step": 2910 |
|
}, |
|
{ |
|
"epoch": 3.8933333333333335, |
|
"grad_norm": 0.22590704262256622, |
|
"learning_rate": 3.271428571428571e-05, |
|
"loss": 0.0521, |
|
"step": 2920 |
|
}, |
|
{ |
|
"epoch": 3.9066666666666667, |
|
"grad_norm": 0.1639569103717804, |
|
"learning_rate": 3.264285714285714e-05, |
|
"loss": 0.0477, |
|
"step": 2930 |
|
}, |
|
{ |
|
"epoch": 3.92, |
|
"grad_norm": 0.12696650624275208, |
|
"learning_rate": 3.257142857142857e-05, |
|
"loss": 0.0505, |
|
"step": 2940 |
|
}, |
|
{ |
|
"epoch": 3.9333333333333336, |
|
"grad_norm": 0.3780568540096283, |
|
"learning_rate": 3.2500000000000004e-05, |
|
"loss": 0.0489, |
|
"step": 2950 |
|
}, |
|
{ |
|
"epoch": 3.9466666666666668, |
|
"grad_norm": 0.3392542600631714, |
|
"learning_rate": 3.242857142857143e-05, |
|
"loss": 0.0496, |
|
"step": 2960 |
|
}, |
|
{ |
|
"epoch": 3.96, |
|
"grad_norm": 0.17197130620479584, |
|
"learning_rate": 3.235714285714286e-05, |
|
"loss": 0.0534, |
|
"step": 2970 |
|
}, |
|
{ |
|
"epoch": 3.9733333333333336, |
|
"grad_norm": 0.17180047929286957, |
|
"learning_rate": 3.228571428571428e-05, |
|
"loss": 0.0522, |
|
"step": 2980 |
|
}, |
|
{ |
|
"epoch": 3.986666666666667, |
|
"grad_norm": 0.11891971528530121, |
|
"learning_rate": 3.221428571428571e-05, |
|
"loss": 0.0483, |
|
"step": 2990 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"grad_norm": 0.26933804154396057, |
|
"learning_rate": 3.2142857142857144e-05, |
|
"loss": 0.045, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"eval_loss": 0.04972463101148605, |
|
"eval_runtime": 9.9852, |
|
"eval_samples_per_second": 50.074, |
|
"eval_steps_per_second": 6.309, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 4.013333333333334, |
|
"grad_norm": 0.1280890852212906, |
|
"learning_rate": 3.2071428571428575e-05, |
|
"loss": 0.0439, |
|
"step": 3010 |
|
}, |
|
{ |
|
"epoch": 4.026666666666666, |
|
"grad_norm": 0.19228434562683105, |
|
"learning_rate": 3.2000000000000005e-05, |
|
"loss": 0.0472, |
|
"step": 3020 |
|
}, |
|
{ |
|
"epoch": 4.04, |
|
"grad_norm": 0.14311255514621735, |
|
"learning_rate": 3.192857142857143e-05, |
|
"loss": 0.0416, |
|
"step": 3030 |
|
}, |
|
{ |
|
"epoch": 4.053333333333334, |
|
"grad_norm": 0.2973020374774933, |
|
"learning_rate": 3.185714285714286e-05, |
|
"loss": 0.0461, |
|
"step": 3040 |
|
}, |
|
{ |
|
"epoch": 4.066666666666666, |
|
"grad_norm": 0.35978373885154724, |
|
"learning_rate": 3.1785714285714284e-05, |
|
"loss": 0.0453, |
|
"step": 3050 |
|
}, |
|
{ |
|
"epoch": 4.08, |
|
"grad_norm": 0.1885947585105896, |
|
"learning_rate": 3.1714285714285715e-05, |
|
"loss": 0.0465, |
|
"step": 3060 |
|
}, |
|
{ |
|
"epoch": 4.093333333333334, |
|
"grad_norm": 0.1686437427997589, |
|
"learning_rate": 3.1642857142857145e-05, |
|
"loss": 0.0436, |
|
"step": 3070 |
|
}, |
|
{ |
|
"epoch": 4.1066666666666665, |
|
"grad_norm": 0.32327356934547424, |
|
"learning_rate": 3.1571428571428576e-05, |
|
"loss": 0.0468, |
|
"step": 3080 |
|
}, |
|
{ |
|
"epoch": 4.12, |
|
"grad_norm": 0.1771514117717743, |
|
"learning_rate": 3.15e-05, |
|
"loss": 0.0435, |
|
"step": 3090 |
|
}, |
|
{ |
|
"epoch": 4.133333333333334, |
|
"grad_norm": 0.24426552653312683, |
|
"learning_rate": 3.142857142857143e-05, |
|
"loss": 0.0473, |
|
"step": 3100 |
|
}, |
|
{ |
|
"epoch": 4.1466666666666665, |
|
"grad_norm": 0.34170758724212646, |
|
"learning_rate": 3.1357142857142855e-05, |
|
"loss": 0.0488, |
|
"step": 3110 |
|
}, |
|
{ |
|
"epoch": 4.16, |
|
"grad_norm": 0.389569491147995, |
|
"learning_rate": 3.1285714285714285e-05, |
|
"loss": 0.0471, |
|
"step": 3120 |
|
}, |
|
{ |
|
"epoch": 4.173333333333334, |
|
"grad_norm": 0.154135063290596, |
|
"learning_rate": 3.1214285714285716e-05, |
|
"loss": 0.0504, |
|
"step": 3130 |
|
}, |
|
{ |
|
"epoch": 4.1866666666666665, |
|
"grad_norm": 0.20886152982711792, |
|
"learning_rate": 3.114285714285715e-05, |
|
"loss": 0.0493, |
|
"step": 3140 |
|
}, |
|
{ |
|
"epoch": 4.2, |
|
"grad_norm": 0.25208762288093567, |
|
"learning_rate": 3.107142857142857e-05, |
|
"loss": 0.046, |
|
"step": 3150 |
|
}, |
|
{ |
|
"epoch": 4.213333333333333, |
|
"grad_norm": 0.22597253322601318, |
|
"learning_rate": 3.1e-05, |
|
"loss": 0.0471, |
|
"step": 3160 |
|
}, |
|
{ |
|
"epoch": 4.226666666666667, |
|
"grad_norm": 0.3389430046081543, |
|
"learning_rate": 3.092857142857143e-05, |
|
"loss": 0.0467, |
|
"step": 3170 |
|
}, |
|
{ |
|
"epoch": 4.24, |
|
"grad_norm": 0.14547674357891083, |
|
"learning_rate": 3.0857142857142856e-05, |
|
"loss": 0.0478, |
|
"step": 3180 |
|
}, |
|
{ |
|
"epoch": 4.253333333333333, |
|
"grad_norm": 0.14806978404521942, |
|
"learning_rate": 3.078571428571429e-05, |
|
"loss": 0.0432, |
|
"step": 3190 |
|
}, |
|
{ |
|
"epoch": 4.266666666666667, |
|
"grad_norm": 0.1521328240633011, |
|
"learning_rate": 3.071428571428572e-05, |
|
"loss": 0.0427, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 4.28, |
|
"grad_norm": 0.25624796748161316, |
|
"learning_rate": 3.064285714285715e-05, |
|
"loss": 0.0426, |
|
"step": 3210 |
|
}, |
|
{ |
|
"epoch": 4.293333333333333, |
|
"grad_norm": 0.16778859496116638, |
|
"learning_rate": 3.057142857142857e-05, |
|
"loss": 0.0484, |
|
"step": 3220 |
|
}, |
|
{ |
|
"epoch": 4.306666666666667, |
|
"grad_norm": 0.33370229601860046, |
|
"learning_rate": 3.05e-05, |
|
"loss": 0.0529, |
|
"step": 3230 |
|
}, |
|
{ |
|
"epoch": 4.32, |
|
"grad_norm": 0.12687399983406067, |
|
"learning_rate": 3.042857142857143e-05, |
|
"loss": 0.0509, |
|
"step": 3240 |
|
}, |
|
{ |
|
"epoch": 4.333333333333333, |
|
"grad_norm": 0.16694316267967224, |
|
"learning_rate": 3.0357142857142857e-05, |
|
"loss": 0.0486, |
|
"step": 3250 |
|
}, |
|
{ |
|
"epoch": 4.346666666666667, |
|
"grad_norm": 0.20952953398227692, |
|
"learning_rate": 3.0285714285714288e-05, |
|
"loss": 0.0467, |
|
"step": 3260 |
|
}, |
|
{ |
|
"epoch": 4.36, |
|
"grad_norm": 0.17989033460617065, |
|
"learning_rate": 3.021428571428572e-05, |
|
"loss": 0.0417, |
|
"step": 3270 |
|
}, |
|
{ |
|
"epoch": 4.373333333333333, |
|
"grad_norm": 0.21700678765773773, |
|
"learning_rate": 3.0142857142857146e-05, |
|
"loss": 0.0446, |
|
"step": 3280 |
|
}, |
|
{ |
|
"epoch": 4.386666666666667, |
|
"grad_norm": 0.24408932030200958, |
|
"learning_rate": 3.0071428571428573e-05, |
|
"loss": 0.0436, |
|
"step": 3290 |
|
}, |
|
{ |
|
"epoch": 4.4, |
|
"grad_norm": 0.26848065853118896, |
|
"learning_rate": 3e-05, |
|
"loss": 0.0477, |
|
"step": 3300 |
|
}, |
|
{ |
|
"epoch": 4.413333333333333, |
|
"grad_norm": 0.21593162417411804, |
|
"learning_rate": 2.9928571428571428e-05, |
|
"loss": 0.0504, |
|
"step": 3310 |
|
}, |
|
{ |
|
"epoch": 4.426666666666667, |
|
"grad_norm": 0.1462465077638626, |
|
"learning_rate": 2.9857142857142862e-05, |
|
"loss": 0.0495, |
|
"step": 3320 |
|
}, |
|
{ |
|
"epoch": 4.44, |
|
"grad_norm": 0.21064093708992004, |
|
"learning_rate": 2.978571428571429e-05, |
|
"loss": 0.051, |
|
"step": 3330 |
|
}, |
|
{ |
|
"epoch": 4.453333333333333, |
|
"grad_norm": 0.2157047837972641, |
|
"learning_rate": 2.9714285714285717e-05, |
|
"loss": 0.0469, |
|
"step": 3340 |
|
}, |
|
{ |
|
"epoch": 4.466666666666667, |
|
"grad_norm": 0.46844473481178284, |
|
"learning_rate": 2.9642857142857144e-05, |
|
"loss": 0.0467, |
|
"step": 3350 |
|
}, |
|
{ |
|
"epoch": 4.48, |
|
"grad_norm": 0.21853956580162048, |
|
"learning_rate": 2.957142857142857e-05, |
|
"loss": 0.046, |
|
"step": 3360 |
|
}, |
|
{ |
|
"epoch": 4.493333333333333, |
|
"grad_norm": 0.35187217593193054, |
|
"learning_rate": 2.95e-05, |
|
"loss": 0.0465, |
|
"step": 3370 |
|
}, |
|
{ |
|
"epoch": 4.506666666666667, |
|
"grad_norm": 0.19527539610862732, |
|
"learning_rate": 2.9428571428571426e-05, |
|
"loss": 0.0496, |
|
"step": 3380 |
|
}, |
|
{ |
|
"epoch": 4.52, |
|
"grad_norm": 0.14757445454597473, |
|
"learning_rate": 2.935714285714286e-05, |
|
"loss": 0.0454, |
|
"step": 3390 |
|
}, |
|
{ |
|
"epoch": 4.533333333333333, |
|
"grad_norm": 0.23194049298763275, |
|
"learning_rate": 2.9285714285714288e-05, |
|
"loss": 0.0466, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 4.546666666666667, |
|
"grad_norm": 0.4799308776855469, |
|
"learning_rate": 2.9214285714285715e-05, |
|
"loss": 0.0465, |
|
"step": 3410 |
|
}, |
|
{ |
|
"epoch": 4.5600000000000005, |
|
"grad_norm": 0.6150541305541992, |
|
"learning_rate": 2.9142857142857146e-05, |
|
"loss": 0.0448, |
|
"step": 3420 |
|
}, |
|
{ |
|
"epoch": 4.573333333333333, |
|
"grad_norm": 0.6280333995819092, |
|
"learning_rate": 2.9071428571428573e-05, |
|
"loss": 0.0476, |
|
"step": 3430 |
|
}, |
|
{ |
|
"epoch": 4.586666666666667, |
|
"grad_norm": 0.1919979453086853, |
|
"learning_rate": 2.9e-05, |
|
"loss": 0.0444, |
|
"step": 3440 |
|
}, |
|
{ |
|
"epoch": 4.6, |
|
"grad_norm": 0.20357218384742737, |
|
"learning_rate": 2.8928571428571434e-05, |
|
"loss": 0.0465, |
|
"step": 3450 |
|
}, |
|
{ |
|
"epoch": 4.613333333333333, |
|
"grad_norm": 0.20106828212738037, |
|
"learning_rate": 2.885714285714286e-05, |
|
"loss": 0.047, |
|
"step": 3460 |
|
}, |
|
{ |
|
"epoch": 4.626666666666667, |
|
"grad_norm": 0.1517418622970581, |
|
"learning_rate": 2.878571428571429e-05, |
|
"loss": 0.0537, |
|
"step": 3470 |
|
}, |
|
{ |
|
"epoch": 4.64, |
|
"grad_norm": 0.1732490360736847, |
|
"learning_rate": 2.8714285714285716e-05, |
|
"loss": 0.0496, |
|
"step": 3480 |
|
}, |
|
{ |
|
"epoch": 4.653333333333333, |
|
"grad_norm": 0.27341416478157043, |
|
"learning_rate": 2.8642857142857144e-05, |
|
"loss": 0.048, |
|
"step": 3490 |
|
}, |
|
{ |
|
"epoch": 4.666666666666667, |
|
"grad_norm": 0.224649578332901, |
|
"learning_rate": 2.857142857142857e-05, |
|
"loss": 0.0485, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 4.68, |
|
"grad_norm": 0.2698359489440918, |
|
"learning_rate": 2.8499999999999998e-05, |
|
"loss": 0.0461, |
|
"step": 3510 |
|
}, |
|
{ |
|
"epoch": 4.693333333333333, |
|
"grad_norm": 0.4223543405532837, |
|
"learning_rate": 2.8428571428571432e-05, |
|
"loss": 0.0499, |
|
"step": 3520 |
|
}, |
|
{ |
|
"epoch": 4.706666666666667, |
|
"grad_norm": 0.1418469399213791, |
|
"learning_rate": 2.835714285714286e-05, |
|
"loss": 0.0518, |
|
"step": 3530 |
|
}, |
|
{ |
|
"epoch": 4.72, |
|
"grad_norm": 0.2546938359737396, |
|
"learning_rate": 2.8285714285714287e-05, |
|
"loss": 0.0446, |
|
"step": 3540 |
|
}, |
|
{ |
|
"epoch": 4.733333333333333, |
|
"grad_norm": 0.17660008370876312, |
|
"learning_rate": 2.8214285714285714e-05, |
|
"loss": 0.0465, |
|
"step": 3550 |
|
}, |
|
{ |
|
"epoch": 4.746666666666667, |
|
"grad_norm": 0.22174446284770966, |
|
"learning_rate": 2.814285714285714e-05, |
|
"loss": 0.0464, |
|
"step": 3560 |
|
}, |
|
{ |
|
"epoch": 4.76, |
|
"grad_norm": 0.20787426829338074, |
|
"learning_rate": 2.8071428571428572e-05, |
|
"loss": 0.0486, |
|
"step": 3570 |
|
}, |
|
{ |
|
"epoch": 4.773333333333333, |
|
"grad_norm": 0.10017558187246323, |
|
"learning_rate": 2.8000000000000003e-05, |
|
"loss": 0.0484, |
|
"step": 3580 |
|
}, |
|
{ |
|
"epoch": 4.786666666666667, |
|
"grad_norm": 0.26309919357299805, |
|
"learning_rate": 2.792857142857143e-05, |
|
"loss": 0.0469, |
|
"step": 3590 |
|
}, |
|
{ |
|
"epoch": 4.8, |
|
"grad_norm": 0.150121808052063, |
|
"learning_rate": 2.785714285714286e-05, |
|
"loss": 0.0443, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 4.8133333333333335, |
|
"grad_norm": 0.27192163467407227, |
|
"learning_rate": 2.778571428571429e-05, |
|
"loss": 0.0455, |
|
"step": 3610 |
|
}, |
|
{ |
|
"epoch": 4.826666666666666, |
|
"grad_norm": 0.1837795376777649, |
|
"learning_rate": 2.7714285714285716e-05, |
|
"loss": 0.0465, |
|
"step": 3620 |
|
}, |
|
{ |
|
"epoch": 4.84, |
|
"grad_norm": 0.2993681728839874, |
|
"learning_rate": 2.7642857142857143e-05, |
|
"loss": 0.0422, |
|
"step": 3630 |
|
}, |
|
{ |
|
"epoch": 4.8533333333333335, |
|
"grad_norm": 0.19127249717712402, |
|
"learning_rate": 2.757142857142857e-05, |
|
"loss": 0.0483, |
|
"step": 3640 |
|
}, |
|
{ |
|
"epoch": 4.866666666666667, |
|
"grad_norm": 0.3117179870605469, |
|
"learning_rate": 2.7500000000000004e-05, |
|
"loss": 0.0479, |
|
"step": 3650 |
|
}, |
|
{ |
|
"epoch": 4.88, |
|
"grad_norm": 0.18669332563877106, |
|
"learning_rate": 2.742857142857143e-05, |
|
"loss": 0.0469, |
|
"step": 3660 |
|
}, |
|
{ |
|
"epoch": 4.8933333333333335, |
|
"grad_norm": 0.3257408142089844, |
|
"learning_rate": 2.735714285714286e-05, |
|
"loss": 0.052, |
|
"step": 3670 |
|
}, |
|
{ |
|
"epoch": 4.906666666666666, |
|
"grad_norm": 0.1863989531993866, |
|
"learning_rate": 2.7285714285714286e-05, |
|
"loss": 0.049, |
|
"step": 3680 |
|
}, |
|
{ |
|
"epoch": 4.92, |
|
"grad_norm": 0.2505623400211334, |
|
"learning_rate": 2.7214285714285714e-05, |
|
"loss": 0.0478, |
|
"step": 3690 |
|
}, |
|
{ |
|
"epoch": 4.933333333333334, |
|
"grad_norm": 0.15007373690605164, |
|
"learning_rate": 2.714285714285714e-05, |
|
"loss": 0.0515, |
|
"step": 3700 |
|
}, |
|
{ |
|
"epoch": 4.946666666666666, |
|
"grad_norm": 0.22236911952495575, |
|
"learning_rate": 2.7071428571428575e-05, |
|
"loss": 0.0436, |
|
"step": 3710 |
|
}, |
|
{ |
|
"epoch": 4.96, |
|
"grad_norm": 0.13962723314762115, |
|
"learning_rate": 2.7000000000000002e-05, |
|
"loss": 0.0458, |
|
"step": 3720 |
|
}, |
|
{ |
|
"epoch": 4.973333333333334, |
|
"grad_norm": 0.20792247354984283, |
|
"learning_rate": 2.692857142857143e-05, |
|
"loss": 0.0399, |
|
"step": 3730 |
|
}, |
|
{ |
|
"epoch": 4.986666666666666, |
|
"grad_norm": 0.224558025598526, |
|
"learning_rate": 2.6857142857142857e-05, |
|
"loss": 0.0456, |
|
"step": 3740 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"grad_norm": 0.3151889741420746, |
|
"learning_rate": 2.6785714285714288e-05, |
|
"loss": 0.042, |
|
"step": 3750 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"eval_loss": 0.052445825189352036, |
|
"eval_runtime": 10.0051, |
|
"eval_samples_per_second": 49.975, |
|
"eval_steps_per_second": 6.297, |
|
"step": 3750 |
|
}, |
|
{ |
|
"epoch": 5.013333333333334, |
|
"grad_norm": 0.22088025510311127, |
|
"learning_rate": 2.6714285714285715e-05, |
|
"loss": 0.0466, |
|
"step": 3760 |
|
}, |
|
{ |
|
"epoch": 5.026666666666666, |
|
"grad_norm": 0.18221135437488556, |
|
"learning_rate": 2.6642857142857142e-05, |
|
"loss": 0.0432, |
|
"step": 3770 |
|
}, |
|
{ |
|
"epoch": 5.04, |
|
"grad_norm": 0.18888497352600098, |
|
"learning_rate": 2.6571428571428576e-05, |
|
"loss": 0.0473, |
|
"step": 3780 |
|
}, |
|
{ |
|
"epoch": 5.053333333333334, |
|
"grad_norm": 0.22202156484127045, |
|
"learning_rate": 2.6500000000000004e-05, |
|
"loss": 0.0422, |
|
"step": 3790 |
|
}, |
|
{ |
|
"epoch": 5.066666666666666, |
|
"grad_norm": 0.35848468542099, |
|
"learning_rate": 2.642857142857143e-05, |
|
"loss": 0.0497, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 5.08, |
|
"grad_norm": 0.5926501750946045, |
|
"learning_rate": 2.635714285714286e-05, |
|
"loss": 0.0474, |
|
"step": 3810 |
|
}, |
|
{ |
|
"epoch": 5.093333333333334, |
|
"grad_norm": 0.2399061918258667, |
|
"learning_rate": 2.6285714285714286e-05, |
|
"loss": 0.0474, |
|
"step": 3820 |
|
}, |
|
{ |
|
"epoch": 5.1066666666666665, |
|
"grad_norm": 0.15344364941120148, |
|
"learning_rate": 2.6214285714285713e-05, |
|
"loss": 0.0453, |
|
"step": 3830 |
|
}, |
|
{ |
|
"epoch": 5.12, |
|
"grad_norm": 0.28791823983192444, |
|
"learning_rate": 2.6142857142857147e-05, |
|
"loss": 0.0457, |
|
"step": 3840 |
|
}, |
|
{ |
|
"epoch": 5.133333333333334, |
|
"grad_norm": 0.42499181628227234, |
|
"learning_rate": 2.6071428571428574e-05, |
|
"loss": 0.0447, |
|
"step": 3850 |
|
}, |
|
{ |
|
"epoch": 5.1466666666666665, |
|
"grad_norm": 0.2630499005317688, |
|
"learning_rate": 2.6000000000000002e-05, |
|
"loss": 0.0444, |
|
"step": 3860 |
|
}, |
|
{ |
|
"epoch": 5.16, |
|
"grad_norm": 0.3585303723812103, |
|
"learning_rate": 2.592857142857143e-05, |
|
"loss": 0.0462, |
|
"step": 3870 |
|
}, |
|
{ |
|
"epoch": 5.173333333333334, |
|
"grad_norm": 0.4009641408920288, |
|
"learning_rate": 2.5857142857142856e-05, |
|
"loss": 0.0438, |
|
"step": 3880 |
|
}, |
|
{ |
|
"epoch": 5.1866666666666665, |
|
"grad_norm": 0.30510854721069336, |
|
"learning_rate": 2.5785714285714284e-05, |
|
"loss": 0.0423, |
|
"step": 3890 |
|
}, |
|
{ |
|
"epoch": 5.2, |
|
"grad_norm": 0.33192190527915955, |
|
"learning_rate": 2.5714285714285714e-05, |
|
"loss": 0.0462, |
|
"step": 3900 |
|
}, |
|
{ |
|
"epoch": 5.213333333333333, |
|
"grad_norm": 0.22773562371730804, |
|
"learning_rate": 2.5642857142857145e-05, |
|
"loss": 0.0406, |
|
"step": 3910 |
|
}, |
|
{ |
|
"epoch": 5.226666666666667, |
|
"grad_norm": 0.1751355677843094, |
|
"learning_rate": 2.5571428571428572e-05, |
|
"loss": 0.0434, |
|
"step": 3920 |
|
}, |
|
{ |
|
"epoch": 5.24, |
|
"grad_norm": 0.47083598375320435, |
|
"learning_rate": 2.5500000000000003e-05, |
|
"loss": 0.0499, |
|
"step": 3930 |
|
}, |
|
{ |
|
"epoch": 5.253333333333333, |
|
"grad_norm": 0.3869628608226776, |
|
"learning_rate": 2.542857142857143e-05, |
|
"loss": 0.044, |
|
"step": 3940 |
|
}, |
|
{ |
|
"epoch": 5.266666666666667, |
|
"grad_norm": 0.30719777941703796, |
|
"learning_rate": 2.5357142857142858e-05, |
|
"loss": 0.0468, |
|
"step": 3950 |
|
}, |
|
{ |
|
"epoch": 5.28, |
|
"grad_norm": 0.31004104018211365, |
|
"learning_rate": 2.5285714285714285e-05, |
|
"loss": 0.0424, |
|
"step": 3960 |
|
}, |
|
{ |
|
"epoch": 5.293333333333333, |
|
"grad_norm": 0.1561647355556488, |
|
"learning_rate": 2.521428571428572e-05, |
|
"loss": 0.0467, |
|
"step": 3970 |
|
}, |
|
{ |
|
"epoch": 5.306666666666667, |
|
"grad_norm": 0.23501700162887573, |
|
"learning_rate": 2.5142857142857147e-05, |
|
"loss": 0.0408, |
|
"step": 3980 |
|
}, |
|
{ |
|
"epoch": 5.32, |
|
"grad_norm": 0.25091812014579773, |
|
"learning_rate": 2.5071428571428574e-05, |
|
"loss": 0.0464, |
|
"step": 3990 |
|
}, |
|
{ |
|
"epoch": 5.333333333333333, |
|
"grad_norm": 0.22517889738082886, |
|
"learning_rate": 2.5e-05, |
|
"loss": 0.0385, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 5.346666666666667, |
|
"grad_norm": 0.32612693309783936, |
|
"learning_rate": 2.492857142857143e-05, |
|
"loss": 0.049, |
|
"step": 4010 |
|
}, |
|
{ |
|
"epoch": 5.36, |
|
"grad_norm": 0.3170875608921051, |
|
"learning_rate": 2.485714285714286e-05, |
|
"loss": 0.0424, |
|
"step": 4020 |
|
}, |
|
{ |
|
"epoch": 5.373333333333333, |
|
"grad_norm": 0.28239452838897705, |
|
"learning_rate": 2.4785714285714287e-05, |
|
"loss": 0.0451, |
|
"step": 4030 |
|
}, |
|
{ |
|
"epoch": 5.386666666666667, |
|
"grad_norm": 0.266434907913208, |
|
"learning_rate": 2.4714285714285714e-05, |
|
"loss": 0.043, |
|
"step": 4040 |
|
}, |
|
{ |
|
"epoch": 5.4, |
|
"grad_norm": 0.4982646703720093, |
|
"learning_rate": 2.4642857142857145e-05, |
|
"loss": 0.0398, |
|
"step": 4050 |
|
}, |
|
{ |
|
"epoch": 5.413333333333333, |
|
"grad_norm": 0.23417595028877258, |
|
"learning_rate": 2.4571428571428572e-05, |
|
"loss": 0.0416, |
|
"step": 4060 |
|
}, |
|
{ |
|
"epoch": 5.426666666666667, |
|
"grad_norm": 0.3201580345630646, |
|
"learning_rate": 2.45e-05, |
|
"loss": 0.0468, |
|
"step": 4070 |
|
}, |
|
{ |
|
"epoch": 5.44, |
|
"grad_norm": 0.13527755439281464, |
|
"learning_rate": 2.442857142857143e-05, |
|
"loss": 0.041, |
|
"step": 4080 |
|
}, |
|
{ |
|
"epoch": 5.453333333333333, |
|
"grad_norm": 0.2432165890932083, |
|
"learning_rate": 2.4357142857142857e-05, |
|
"loss": 0.0474, |
|
"step": 4090 |
|
}, |
|
{ |
|
"epoch": 5.466666666666667, |
|
"grad_norm": 0.3149632513523102, |
|
"learning_rate": 2.4285714285714288e-05, |
|
"loss": 0.0441, |
|
"step": 4100 |
|
}, |
|
{ |
|
"epoch": 5.48, |
|
"grad_norm": 0.17609484493732452, |
|
"learning_rate": 2.4214285714285715e-05, |
|
"loss": 0.0439, |
|
"step": 4110 |
|
}, |
|
{ |
|
"epoch": 5.493333333333333, |
|
"grad_norm": 0.1788036823272705, |
|
"learning_rate": 2.4142857142857146e-05, |
|
"loss": 0.0469, |
|
"step": 4120 |
|
}, |
|
{ |
|
"epoch": 5.506666666666667, |
|
"grad_norm": 0.21031226217746735, |
|
"learning_rate": 2.4071428571428573e-05, |
|
"loss": 0.0439, |
|
"step": 4130 |
|
}, |
|
{ |
|
"epoch": 5.52, |
|
"grad_norm": 0.1996523141860962, |
|
"learning_rate": 2.4e-05, |
|
"loss": 0.0413, |
|
"step": 4140 |
|
}, |
|
{ |
|
"epoch": 5.533333333333333, |
|
"grad_norm": 0.21124641597270966, |
|
"learning_rate": 2.392857142857143e-05, |
|
"loss": 0.0416, |
|
"step": 4150 |
|
}, |
|
{ |
|
"epoch": 5.546666666666667, |
|
"grad_norm": 0.2244388461112976, |
|
"learning_rate": 2.385714285714286e-05, |
|
"loss": 0.0427, |
|
"step": 4160 |
|
}, |
|
{ |
|
"epoch": 5.5600000000000005, |
|
"grad_norm": 0.19848261773586273, |
|
"learning_rate": 2.3785714285714286e-05, |
|
"loss": 0.0396, |
|
"step": 4170 |
|
}, |
|
{ |
|
"epoch": 5.573333333333333, |
|
"grad_norm": 0.12894198298454285, |
|
"learning_rate": 2.3714285714285717e-05, |
|
"loss": 0.0387, |
|
"step": 4180 |
|
}, |
|
{ |
|
"epoch": 5.586666666666667, |
|
"grad_norm": 0.3353809714317322, |
|
"learning_rate": 2.3642857142857144e-05, |
|
"loss": 0.0404, |
|
"step": 4190 |
|
}, |
|
{ |
|
"epoch": 5.6, |
|
"grad_norm": 0.6403726935386658, |
|
"learning_rate": 2.357142857142857e-05, |
|
"loss": 0.0457, |
|
"step": 4200 |
|
}, |
|
{ |
|
"epoch": 5.613333333333333, |
|
"grad_norm": 0.19038082659244537, |
|
"learning_rate": 2.35e-05, |
|
"loss": 0.041, |
|
"step": 4210 |
|
}, |
|
{ |
|
"epoch": 5.626666666666667, |
|
"grad_norm": 0.14913398027420044, |
|
"learning_rate": 2.342857142857143e-05, |
|
"loss": 0.0413, |
|
"step": 4220 |
|
}, |
|
{ |
|
"epoch": 5.64, |
|
"grad_norm": 0.2654531002044678, |
|
"learning_rate": 2.3357142857142857e-05, |
|
"loss": 0.0432, |
|
"step": 4230 |
|
}, |
|
{ |
|
"epoch": 5.653333333333333, |
|
"grad_norm": 0.24876222014427185, |
|
"learning_rate": 2.3285714285714287e-05, |
|
"loss": 0.048, |
|
"step": 4240 |
|
}, |
|
{ |
|
"epoch": 5.666666666666667, |
|
"grad_norm": 0.2298961579799652, |
|
"learning_rate": 2.3214285714285715e-05, |
|
"loss": 0.0448, |
|
"step": 4250 |
|
}, |
|
{ |
|
"epoch": 5.68, |
|
"grad_norm": 0.33520784974098206, |
|
"learning_rate": 2.3142857142857145e-05, |
|
"loss": 0.0406, |
|
"step": 4260 |
|
}, |
|
{ |
|
"epoch": 5.693333333333333, |
|
"grad_norm": 0.21793897449970245, |
|
"learning_rate": 2.3071428571428573e-05, |
|
"loss": 0.0409, |
|
"step": 4270 |
|
}, |
|
{ |
|
"epoch": 5.706666666666667, |
|
"grad_norm": 0.3945554494857788, |
|
"learning_rate": 2.3000000000000003e-05, |
|
"loss": 0.0399, |
|
"step": 4280 |
|
}, |
|
{ |
|
"epoch": 5.72, |
|
"grad_norm": 0.25150808691978455, |
|
"learning_rate": 2.292857142857143e-05, |
|
"loss": 0.0473, |
|
"step": 4290 |
|
}, |
|
{ |
|
"epoch": 5.733333333333333, |
|
"grad_norm": 0.20286360383033752, |
|
"learning_rate": 2.2857142857142858e-05, |
|
"loss": 0.0514, |
|
"step": 4300 |
|
}, |
|
{ |
|
"epoch": 5.746666666666667, |
|
"grad_norm": 0.16253048181533813, |
|
"learning_rate": 2.278571428571429e-05, |
|
"loss": 0.0448, |
|
"step": 4310 |
|
}, |
|
{ |
|
"epoch": 5.76, |
|
"grad_norm": 0.19236809015274048, |
|
"learning_rate": 2.2714285714285716e-05, |
|
"loss": 0.0452, |
|
"step": 4320 |
|
}, |
|
{ |
|
"epoch": 5.773333333333333, |
|
"grad_norm": 0.2273574024438858, |
|
"learning_rate": 2.2642857142857143e-05, |
|
"loss": 0.0409, |
|
"step": 4330 |
|
}, |
|
{ |
|
"epoch": 5.786666666666667, |
|
"grad_norm": 0.2535451650619507, |
|
"learning_rate": 2.257142857142857e-05, |
|
"loss": 0.0463, |
|
"step": 4340 |
|
}, |
|
{ |
|
"epoch": 5.8, |
|
"grad_norm": 0.20072722434997559, |
|
"learning_rate": 2.25e-05, |
|
"loss": 0.0424, |
|
"step": 4350 |
|
}, |
|
{ |
|
"epoch": 5.8133333333333335, |
|
"grad_norm": 0.24119997024536133, |
|
"learning_rate": 2.242857142857143e-05, |
|
"loss": 0.0443, |
|
"step": 4360 |
|
}, |
|
{ |
|
"epoch": 5.826666666666666, |
|
"grad_norm": 0.22056333720684052, |
|
"learning_rate": 2.2357142857142856e-05, |
|
"loss": 0.0439, |
|
"step": 4370 |
|
}, |
|
{ |
|
"epoch": 5.84, |
|
"grad_norm": 0.2562674283981323, |
|
"learning_rate": 2.2285714285714287e-05, |
|
"loss": 0.0478, |
|
"step": 4380 |
|
}, |
|
{ |
|
"epoch": 5.8533333333333335, |
|
"grad_norm": 0.3935871422290802, |
|
"learning_rate": 2.2214285714285714e-05, |
|
"loss": 0.0438, |
|
"step": 4390 |
|
}, |
|
{ |
|
"epoch": 5.866666666666667, |
|
"grad_norm": 0.18070188164710999, |
|
"learning_rate": 2.214285714285714e-05, |
|
"loss": 0.0426, |
|
"step": 4400 |
|
}, |
|
{ |
|
"epoch": 5.88, |
|
"grad_norm": 0.4703986346721649, |
|
"learning_rate": 2.2071428571428572e-05, |
|
"loss": 0.0422, |
|
"step": 4410 |
|
}, |
|
{ |
|
"epoch": 5.8933333333333335, |
|
"grad_norm": 0.2319023162126541, |
|
"learning_rate": 2.2000000000000003e-05, |
|
"loss": 0.0437, |
|
"step": 4420 |
|
}, |
|
{ |
|
"epoch": 5.906666666666666, |
|
"grad_norm": 0.22039149701595306, |
|
"learning_rate": 2.192857142857143e-05, |
|
"loss": 0.0442, |
|
"step": 4430 |
|
}, |
|
{ |
|
"epoch": 5.92, |
|
"grad_norm": 0.24316591024398804, |
|
"learning_rate": 2.185714285714286e-05, |
|
"loss": 0.0488, |
|
"step": 4440 |
|
}, |
|
{ |
|
"epoch": 5.933333333333334, |
|
"grad_norm": 0.3603535294532776, |
|
"learning_rate": 2.1785714285714288e-05, |
|
"loss": 0.048, |
|
"step": 4450 |
|
}, |
|
{ |
|
"epoch": 5.946666666666666, |
|
"grad_norm": 0.16338956356048584, |
|
"learning_rate": 2.1714285714285715e-05, |
|
"loss": 0.0405, |
|
"step": 4460 |
|
}, |
|
{ |
|
"epoch": 5.96, |
|
"grad_norm": 0.2578754127025604, |
|
"learning_rate": 2.1642857142857146e-05, |
|
"loss": 0.0418, |
|
"step": 4470 |
|
}, |
|
{ |
|
"epoch": 5.973333333333334, |
|
"grad_norm": 0.3756501078605652, |
|
"learning_rate": 2.1571428571428574e-05, |
|
"loss": 0.0435, |
|
"step": 4480 |
|
}, |
|
{ |
|
"epoch": 5.986666666666666, |
|
"grad_norm": 0.284015029668808, |
|
"learning_rate": 2.15e-05, |
|
"loss": 0.04, |
|
"step": 4490 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"grad_norm": 0.27236321568489075, |
|
"learning_rate": 2.1428571428571428e-05, |
|
"loss": 0.0371, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"eval_loss": 0.05113682523369789, |
|
"eval_runtime": 10.002, |
|
"eval_samples_per_second": 49.99, |
|
"eval_steps_per_second": 6.299, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 6.013333333333334, |
|
"grad_norm": 0.28439006209373474, |
|
"learning_rate": 2.135714285714286e-05, |
|
"loss": 0.0383, |
|
"step": 4510 |
|
}, |
|
{ |
|
"epoch": 6.026666666666666, |
|
"grad_norm": 0.3238149583339691, |
|
"learning_rate": 2.1285714285714286e-05, |
|
"loss": 0.0431, |
|
"step": 4520 |
|
}, |
|
{ |
|
"epoch": 6.04, |
|
"grad_norm": 0.2470373958349228, |
|
"learning_rate": 2.1214285714285713e-05, |
|
"loss": 0.0444, |
|
"step": 4530 |
|
}, |
|
{ |
|
"epoch": 6.053333333333334, |
|
"grad_norm": 0.34257015585899353, |
|
"learning_rate": 2.1142857142857144e-05, |
|
"loss": 0.0388, |
|
"step": 4540 |
|
}, |
|
{ |
|
"epoch": 6.066666666666666, |
|
"grad_norm": 0.27521657943725586, |
|
"learning_rate": 2.107142857142857e-05, |
|
"loss": 0.041, |
|
"step": 4550 |
|
}, |
|
{ |
|
"epoch": 6.08, |
|
"grad_norm": 0.26085391640663147, |
|
"learning_rate": 2.1e-05, |
|
"loss": 0.0399, |
|
"step": 4560 |
|
}, |
|
{ |
|
"epoch": 6.093333333333334, |
|
"grad_norm": 0.25732582807540894, |
|
"learning_rate": 2.092857142857143e-05, |
|
"loss": 0.0419, |
|
"step": 4570 |
|
}, |
|
{ |
|
"epoch": 6.1066666666666665, |
|
"grad_norm": 0.20789028704166412, |
|
"learning_rate": 2.0857142857142857e-05, |
|
"loss": 0.0401, |
|
"step": 4580 |
|
}, |
|
{ |
|
"epoch": 6.12, |
|
"grad_norm": 0.37284407019615173, |
|
"learning_rate": 2.0785714285714288e-05, |
|
"loss": 0.0338, |
|
"step": 4590 |
|
}, |
|
{ |
|
"epoch": 6.133333333333334, |
|
"grad_norm": 0.3639441132545471, |
|
"learning_rate": 2.0714285714285718e-05, |
|
"loss": 0.0365, |
|
"step": 4600 |
|
}, |
|
{ |
|
"epoch": 6.1466666666666665, |
|
"grad_norm": 0.21574179828166962, |
|
"learning_rate": 2.0642857142857146e-05, |
|
"loss": 0.0391, |
|
"step": 4610 |
|
}, |
|
{ |
|
"epoch": 6.16, |
|
"grad_norm": 0.5293833017349243, |
|
"learning_rate": 2.0571428571428573e-05, |
|
"loss": 0.0405, |
|
"step": 4620 |
|
}, |
|
{ |
|
"epoch": 6.173333333333334, |
|
"grad_norm": 0.2752041816711426, |
|
"learning_rate": 2.05e-05, |
|
"loss": 0.0462, |
|
"step": 4630 |
|
}, |
|
{ |
|
"epoch": 6.1866666666666665, |
|
"grad_norm": 0.2359626442193985, |
|
"learning_rate": 2.042857142857143e-05, |
|
"loss": 0.0399, |
|
"step": 4640 |
|
}, |
|
{ |
|
"epoch": 6.2, |
|
"grad_norm": 0.44820666313171387, |
|
"learning_rate": 2.0357142857142858e-05, |
|
"loss": 0.0399, |
|
"step": 4650 |
|
}, |
|
{ |
|
"epoch": 6.213333333333333, |
|
"grad_norm": 0.33150073885917664, |
|
"learning_rate": 2.0285714285714286e-05, |
|
"loss": 0.0416, |
|
"step": 4660 |
|
}, |
|
{ |
|
"epoch": 6.226666666666667, |
|
"grad_norm": 0.3929821848869324, |
|
"learning_rate": 2.0214285714285716e-05, |
|
"loss": 0.0417, |
|
"step": 4670 |
|
}, |
|
{ |
|
"epoch": 6.24, |
|
"grad_norm": 0.28515151143074036, |
|
"learning_rate": 2.0142857142857144e-05, |
|
"loss": 0.0376, |
|
"step": 4680 |
|
}, |
|
{ |
|
"epoch": 6.253333333333333, |
|
"grad_norm": 0.45453956723213196, |
|
"learning_rate": 2.007142857142857e-05, |
|
"loss": 0.0436, |
|
"step": 4690 |
|
}, |
|
{ |
|
"epoch": 6.266666666666667, |
|
"grad_norm": 0.31413015723228455, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0384, |
|
"step": 4700 |
|
}, |
|
{ |
|
"epoch": 6.28, |
|
"grad_norm": 0.20988261699676514, |
|
"learning_rate": 1.992857142857143e-05, |
|
"loss": 0.0382, |
|
"step": 4710 |
|
}, |
|
{ |
|
"epoch": 6.293333333333333, |
|
"grad_norm": 0.4511539340019226, |
|
"learning_rate": 1.9857142857142856e-05, |
|
"loss": 0.0415, |
|
"step": 4720 |
|
}, |
|
{ |
|
"epoch": 6.306666666666667, |
|
"grad_norm": 0.33754661679267883, |
|
"learning_rate": 1.9785714285714287e-05, |
|
"loss": 0.0373, |
|
"step": 4730 |
|
}, |
|
{ |
|
"epoch": 6.32, |
|
"grad_norm": 0.27522793412208557, |
|
"learning_rate": 1.9714285714285714e-05, |
|
"loss": 0.0451, |
|
"step": 4740 |
|
}, |
|
{ |
|
"epoch": 6.333333333333333, |
|
"grad_norm": 0.2612554728984833, |
|
"learning_rate": 1.9642857142857145e-05, |
|
"loss": 0.0413, |
|
"step": 4750 |
|
}, |
|
{ |
|
"epoch": 6.346666666666667, |
|
"grad_norm": 0.2866500914096832, |
|
"learning_rate": 1.9571428571428572e-05, |
|
"loss": 0.0389, |
|
"step": 4760 |
|
}, |
|
{ |
|
"epoch": 6.36, |
|
"grad_norm": 0.24721892178058624, |
|
"learning_rate": 1.9500000000000003e-05, |
|
"loss": 0.0385, |
|
"step": 4770 |
|
}, |
|
{ |
|
"epoch": 6.373333333333333, |
|
"grad_norm": 0.2447904795408249, |
|
"learning_rate": 1.942857142857143e-05, |
|
"loss": 0.0465, |
|
"step": 4780 |
|
}, |
|
{ |
|
"epoch": 6.386666666666667, |
|
"grad_norm": 0.23549911379814148, |
|
"learning_rate": 1.9357142857142858e-05, |
|
"loss": 0.0404, |
|
"step": 4790 |
|
}, |
|
{ |
|
"epoch": 6.4, |
|
"grad_norm": 0.3222012221813202, |
|
"learning_rate": 1.928571428571429e-05, |
|
"loss": 0.0407, |
|
"step": 4800 |
|
}, |
|
{ |
|
"epoch": 6.413333333333333, |
|
"grad_norm": 0.24000577628612518, |
|
"learning_rate": 1.9214285714285716e-05, |
|
"loss": 0.0428, |
|
"step": 4810 |
|
}, |
|
{ |
|
"epoch": 6.426666666666667, |
|
"grad_norm": 0.41279396414756775, |
|
"learning_rate": 1.9142857142857143e-05, |
|
"loss": 0.0438, |
|
"step": 4820 |
|
}, |
|
{ |
|
"epoch": 6.44, |
|
"grad_norm": 0.32830923795700073, |
|
"learning_rate": 1.9071428571428574e-05, |
|
"loss": 0.0414, |
|
"step": 4830 |
|
}, |
|
{ |
|
"epoch": 6.453333333333333, |
|
"grad_norm": 0.22011080384254456, |
|
"learning_rate": 1.9e-05, |
|
"loss": 0.0384, |
|
"step": 4840 |
|
}, |
|
{ |
|
"epoch": 6.466666666666667, |
|
"grad_norm": 0.22864176332950592, |
|
"learning_rate": 1.892857142857143e-05, |
|
"loss": 0.0424, |
|
"step": 4850 |
|
}, |
|
{ |
|
"epoch": 6.48, |
|
"grad_norm": 0.33714690804481506, |
|
"learning_rate": 1.885714285714286e-05, |
|
"loss": 0.0398, |
|
"step": 4860 |
|
}, |
|
{ |
|
"epoch": 6.493333333333333, |
|
"grad_norm": 0.2948991358280182, |
|
"learning_rate": 1.8785714285714286e-05, |
|
"loss": 0.0351, |
|
"step": 4870 |
|
}, |
|
{ |
|
"epoch": 6.506666666666667, |
|
"grad_norm": 0.2972581684589386, |
|
"learning_rate": 1.8714285714285714e-05, |
|
"loss": 0.044, |
|
"step": 4880 |
|
}, |
|
{ |
|
"epoch": 6.52, |
|
"grad_norm": 0.26458117365837097, |
|
"learning_rate": 1.864285714285714e-05, |
|
"loss": 0.042, |
|
"step": 4890 |
|
}, |
|
{ |
|
"epoch": 6.533333333333333, |
|
"grad_norm": 0.2332325428724289, |
|
"learning_rate": 1.8571428571428572e-05, |
|
"loss": 0.0345, |
|
"step": 4900 |
|
}, |
|
{ |
|
"epoch": 6.546666666666667, |
|
"grad_norm": 0.4530335068702698, |
|
"learning_rate": 1.85e-05, |
|
"loss": 0.0389, |
|
"step": 4910 |
|
}, |
|
{ |
|
"epoch": 6.5600000000000005, |
|
"grad_norm": 0.2417517900466919, |
|
"learning_rate": 1.842857142857143e-05, |
|
"loss": 0.0386, |
|
"step": 4920 |
|
}, |
|
{ |
|
"epoch": 6.573333333333333, |
|
"grad_norm": 0.4352799355983734, |
|
"learning_rate": 1.835714285714286e-05, |
|
"loss": 0.039, |
|
"step": 4930 |
|
}, |
|
{ |
|
"epoch": 6.586666666666667, |
|
"grad_norm": 0.2908789813518524, |
|
"learning_rate": 1.8285714285714288e-05, |
|
"loss": 0.0419, |
|
"step": 4940 |
|
}, |
|
{ |
|
"epoch": 6.6, |
|
"grad_norm": 0.33274784684181213, |
|
"learning_rate": 1.8214285714285715e-05, |
|
"loss": 0.0435, |
|
"step": 4950 |
|
}, |
|
{ |
|
"epoch": 6.613333333333333, |
|
"grad_norm": 0.3407377302646637, |
|
"learning_rate": 1.8142857142857146e-05, |
|
"loss": 0.0411, |
|
"step": 4960 |
|
}, |
|
{ |
|
"epoch": 6.626666666666667, |
|
"grad_norm": 0.17707602679729462, |
|
"learning_rate": 1.8071428571428573e-05, |
|
"loss": 0.0416, |
|
"step": 4970 |
|
}, |
|
{ |
|
"epoch": 6.64, |
|
"grad_norm": 0.35761526226997375, |
|
"learning_rate": 1.8e-05, |
|
"loss": 0.0422, |
|
"step": 4980 |
|
}, |
|
{ |
|
"epoch": 6.653333333333333, |
|
"grad_norm": 0.22335325181484222, |
|
"learning_rate": 1.792857142857143e-05, |
|
"loss": 0.0393, |
|
"step": 4990 |
|
}, |
|
{ |
|
"epoch": 6.666666666666667, |
|
"grad_norm": 0.2689099609851837, |
|
"learning_rate": 1.785714285714286e-05, |
|
"loss": 0.0413, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 6.68, |
|
"grad_norm": 0.4584427773952484, |
|
"learning_rate": 1.7785714285714286e-05, |
|
"loss": 0.0391, |
|
"step": 5010 |
|
}, |
|
{ |
|
"epoch": 6.693333333333333, |
|
"grad_norm": 0.3261905610561371, |
|
"learning_rate": 1.7714285714285713e-05, |
|
"loss": 0.0382, |
|
"step": 5020 |
|
}, |
|
{ |
|
"epoch": 6.706666666666667, |
|
"grad_norm": 0.2664514482021332, |
|
"learning_rate": 1.7642857142857144e-05, |
|
"loss": 0.0438, |
|
"step": 5030 |
|
}, |
|
{ |
|
"epoch": 6.72, |
|
"grad_norm": 0.43043455481529236, |
|
"learning_rate": 1.757142857142857e-05, |
|
"loss": 0.0371, |
|
"step": 5040 |
|
}, |
|
{ |
|
"epoch": 6.733333333333333, |
|
"grad_norm": 0.40681377053260803, |
|
"learning_rate": 1.75e-05, |
|
"loss": 0.0393, |
|
"step": 5050 |
|
}, |
|
{ |
|
"epoch": 6.746666666666667, |
|
"grad_norm": 0.32754334807395935, |
|
"learning_rate": 1.742857142857143e-05, |
|
"loss": 0.0392, |
|
"step": 5060 |
|
}, |
|
{ |
|
"epoch": 6.76, |
|
"grad_norm": 0.2980782985687256, |
|
"learning_rate": 1.7357142857142856e-05, |
|
"loss": 0.0411, |
|
"step": 5070 |
|
}, |
|
{ |
|
"epoch": 6.773333333333333, |
|
"grad_norm": 0.2525476813316345, |
|
"learning_rate": 1.7285714285714287e-05, |
|
"loss": 0.0374, |
|
"step": 5080 |
|
}, |
|
{ |
|
"epoch": 6.786666666666667, |
|
"grad_norm": 0.3402542173862457, |
|
"learning_rate": 1.7214285714285715e-05, |
|
"loss": 0.0413, |
|
"step": 5090 |
|
}, |
|
{ |
|
"epoch": 6.8, |
|
"grad_norm": 0.2940175533294678, |
|
"learning_rate": 1.7142857142857145e-05, |
|
"loss": 0.0384, |
|
"step": 5100 |
|
}, |
|
{ |
|
"epoch": 6.8133333333333335, |
|
"grad_norm": 0.621030330657959, |
|
"learning_rate": 1.7071428571428573e-05, |
|
"loss": 0.0438, |
|
"step": 5110 |
|
}, |
|
{ |
|
"epoch": 6.826666666666666, |
|
"grad_norm": 0.22870491445064545, |
|
"learning_rate": 1.7000000000000003e-05, |
|
"loss": 0.0374, |
|
"step": 5120 |
|
}, |
|
{ |
|
"epoch": 6.84, |
|
"grad_norm": 0.4343583285808563, |
|
"learning_rate": 1.692857142857143e-05, |
|
"loss": 0.0416, |
|
"step": 5130 |
|
}, |
|
{ |
|
"epoch": 6.8533333333333335, |
|
"grad_norm": 0.41182470321655273, |
|
"learning_rate": 1.6857142857142858e-05, |
|
"loss": 0.0389, |
|
"step": 5140 |
|
}, |
|
{ |
|
"epoch": 6.866666666666667, |
|
"grad_norm": 0.3504036068916321, |
|
"learning_rate": 1.6785714285714285e-05, |
|
"loss": 0.0464, |
|
"step": 5150 |
|
}, |
|
{ |
|
"epoch": 6.88, |
|
"grad_norm": 0.20417426526546478, |
|
"learning_rate": 1.6714285714285716e-05, |
|
"loss": 0.0429, |
|
"step": 5160 |
|
}, |
|
{ |
|
"epoch": 6.8933333333333335, |
|
"grad_norm": 0.29321151971817017, |
|
"learning_rate": 1.6642857142857143e-05, |
|
"loss": 0.0396, |
|
"step": 5170 |
|
}, |
|
{ |
|
"epoch": 6.906666666666666, |
|
"grad_norm": 0.6400166153907776, |
|
"learning_rate": 1.657142857142857e-05, |
|
"loss": 0.0475, |
|
"step": 5180 |
|
}, |
|
{ |
|
"epoch": 6.92, |
|
"grad_norm": 0.25363731384277344, |
|
"learning_rate": 1.65e-05, |
|
"loss": 0.0382, |
|
"step": 5190 |
|
}, |
|
{ |
|
"epoch": 6.933333333333334, |
|
"grad_norm": 0.35815390944480896, |
|
"learning_rate": 1.642857142857143e-05, |
|
"loss": 0.0396, |
|
"step": 5200 |
|
}, |
|
{ |
|
"epoch": 6.946666666666666, |
|
"grad_norm": 0.3104015290737152, |
|
"learning_rate": 1.6357142857142856e-05, |
|
"loss": 0.0419, |
|
"step": 5210 |
|
}, |
|
{ |
|
"epoch": 6.96, |
|
"grad_norm": 0.4277138113975525, |
|
"learning_rate": 1.6285714285714287e-05, |
|
"loss": 0.0401, |
|
"step": 5220 |
|
}, |
|
{ |
|
"epoch": 6.973333333333334, |
|
"grad_norm": 0.32475119829177856, |
|
"learning_rate": 1.6214285714285714e-05, |
|
"loss": 0.0418, |
|
"step": 5230 |
|
}, |
|
{ |
|
"epoch": 6.986666666666666, |
|
"grad_norm": 0.4522613286972046, |
|
"learning_rate": 1.614285714285714e-05, |
|
"loss": 0.0359, |
|
"step": 5240 |
|
}, |
|
{ |
|
"epoch": 7.0, |
|
"grad_norm": 0.5487978458404541, |
|
"learning_rate": 1.6071428571428572e-05, |
|
"loss": 0.0434, |
|
"step": 5250 |
|
}, |
|
{ |
|
"epoch": 7.0, |
|
"eval_loss": 0.0524735189974308, |
|
"eval_runtime": 9.9985, |
|
"eval_samples_per_second": 50.008, |
|
"eval_steps_per_second": 6.301, |
|
"step": 5250 |
|
}, |
|
{ |
|
"epoch": 7.013333333333334, |
|
"grad_norm": 0.3833777606487274, |
|
"learning_rate": 1.6000000000000003e-05, |
|
"loss": 0.0359, |
|
"step": 5260 |
|
}, |
|
{ |
|
"epoch": 7.026666666666666, |
|
"grad_norm": 0.4304543435573578, |
|
"learning_rate": 1.592857142857143e-05, |
|
"loss": 0.0345, |
|
"step": 5270 |
|
}, |
|
{ |
|
"epoch": 7.04, |
|
"grad_norm": 0.23763971030712128, |
|
"learning_rate": 1.5857142857142857e-05, |
|
"loss": 0.0393, |
|
"step": 5280 |
|
}, |
|
{ |
|
"epoch": 7.053333333333334, |
|
"grad_norm": 0.29464441537857056, |
|
"learning_rate": 1.5785714285714288e-05, |
|
"loss": 0.0374, |
|
"step": 5290 |
|
}, |
|
{ |
|
"epoch": 7.066666666666666, |
|
"grad_norm": 0.2814094126224518, |
|
"learning_rate": 1.5714285714285715e-05, |
|
"loss": 0.0319, |
|
"step": 5300 |
|
}, |
|
{ |
|
"epoch": 7.08, |
|
"grad_norm": 0.31800875067710876, |
|
"learning_rate": 1.5642857142857143e-05, |
|
"loss": 0.0355, |
|
"step": 5310 |
|
}, |
|
{ |
|
"epoch": 7.093333333333334, |
|
"grad_norm": 0.3363518714904785, |
|
"learning_rate": 1.5571428571428573e-05, |
|
"loss": 0.0363, |
|
"step": 5320 |
|
}, |
|
{ |
|
"epoch": 7.1066666666666665, |
|
"grad_norm": 0.3628841042518616, |
|
"learning_rate": 1.55e-05, |
|
"loss": 0.0376, |
|
"step": 5330 |
|
}, |
|
{ |
|
"epoch": 7.12, |
|
"grad_norm": 0.19503237307071686, |
|
"learning_rate": 1.5428571428571428e-05, |
|
"loss": 0.034, |
|
"step": 5340 |
|
}, |
|
{ |
|
"epoch": 7.133333333333334, |
|
"grad_norm": 0.41542547941207886, |
|
"learning_rate": 1.535714285714286e-05, |
|
"loss": 0.0393, |
|
"step": 5350 |
|
}, |
|
{ |
|
"epoch": 7.1466666666666665, |
|
"grad_norm": 0.3643752336502075, |
|
"learning_rate": 1.5285714285714286e-05, |
|
"loss": 0.0355, |
|
"step": 5360 |
|
}, |
|
{ |
|
"epoch": 7.16, |
|
"grad_norm": 0.4670146703720093, |
|
"learning_rate": 1.5214285714285715e-05, |
|
"loss": 0.0384, |
|
"step": 5370 |
|
}, |
|
{ |
|
"epoch": 7.173333333333334, |
|
"grad_norm": 0.2502428889274597, |
|
"learning_rate": 1.5142857142857144e-05, |
|
"loss": 0.0308, |
|
"step": 5380 |
|
}, |
|
{ |
|
"epoch": 7.1866666666666665, |
|
"grad_norm": 0.4326808750629425, |
|
"learning_rate": 1.5071428571428573e-05, |
|
"loss": 0.0367, |
|
"step": 5390 |
|
}, |
|
{ |
|
"epoch": 7.2, |
|
"grad_norm": 0.4298126697540283, |
|
"learning_rate": 1.5e-05, |
|
"loss": 0.0345, |
|
"step": 5400 |
|
}, |
|
{ |
|
"epoch": 7.213333333333333, |
|
"grad_norm": 0.5471469759941101, |
|
"learning_rate": 1.4928571428571431e-05, |
|
"loss": 0.039, |
|
"step": 5410 |
|
}, |
|
{ |
|
"epoch": 7.226666666666667, |
|
"grad_norm": 0.1898823380470276, |
|
"learning_rate": 1.4857142857142858e-05, |
|
"loss": 0.0371, |
|
"step": 5420 |
|
}, |
|
{ |
|
"epoch": 7.24, |
|
"grad_norm": 0.32298484444618225, |
|
"learning_rate": 1.4785714285714286e-05, |
|
"loss": 0.0406, |
|
"step": 5430 |
|
}, |
|
{ |
|
"epoch": 7.253333333333333, |
|
"grad_norm": 0.28163355588912964, |
|
"learning_rate": 1.4714285714285713e-05, |
|
"loss": 0.037, |
|
"step": 5440 |
|
}, |
|
{ |
|
"epoch": 7.266666666666667, |
|
"grad_norm": 0.4609764814376831, |
|
"learning_rate": 1.4642857142857144e-05, |
|
"loss": 0.0365, |
|
"step": 5450 |
|
}, |
|
{ |
|
"epoch": 7.28, |
|
"grad_norm": 0.2847744822502136, |
|
"learning_rate": 1.4571428571428573e-05, |
|
"loss": 0.0341, |
|
"step": 5460 |
|
}, |
|
{ |
|
"epoch": 7.293333333333333, |
|
"grad_norm": 0.39045828580856323, |
|
"learning_rate": 1.45e-05, |
|
"loss": 0.037, |
|
"step": 5470 |
|
}, |
|
{ |
|
"epoch": 7.306666666666667, |
|
"grad_norm": 0.6568509936332703, |
|
"learning_rate": 1.442857142857143e-05, |
|
"loss": 0.0338, |
|
"step": 5480 |
|
}, |
|
{ |
|
"epoch": 7.32, |
|
"grad_norm": 0.6085466742515564, |
|
"learning_rate": 1.4357142857142858e-05, |
|
"loss": 0.0387, |
|
"step": 5490 |
|
}, |
|
{ |
|
"epoch": 7.333333333333333, |
|
"grad_norm": 0.38249829411506653, |
|
"learning_rate": 1.4285714285714285e-05, |
|
"loss": 0.0335, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 7.346666666666667, |
|
"grad_norm": 0.36587628722190857, |
|
"learning_rate": 1.4214285714285716e-05, |
|
"loss": 0.0397, |
|
"step": 5510 |
|
}, |
|
{ |
|
"epoch": 7.36, |
|
"grad_norm": 0.43576809763908386, |
|
"learning_rate": 1.4142857142857143e-05, |
|
"loss": 0.0372, |
|
"step": 5520 |
|
}, |
|
{ |
|
"epoch": 7.373333333333333, |
|
"grad_norm": 0.45476198196411133, |
|
"learning_rate": 1.407142857142857e-05, |
|
"loss": 0.0378, |
|
"step": 5530 |
|
}, |
|
{ |
|
"epoch": 7.386666666666667, |
|
"grad_norm": 0.42212429642677307, |
|
"learning_rate": 1.4000000000000001e-05, |
|
"loss": 0.0366, |
|
"step": 5540 |
|
}, |
|
{ |
|
"epoch": 7.4, |
|
"grad_norm": 0.5353995561599731, |
|
"learning_rate": 1.392857142857143e-05, |
|
"loss": 0.0395, |
|
"step": 5550 |
|
}, |
|
{ |
|
"epoch": 7.413333333333333, |
|
"grad_norm": 0.30457690358161926, |
|
"learning_rate": 1.3857142857142858e-05, |
|
"loss": 0.0322, |
|
"step": 5560 |
|
}, |
|
{ |
|
"epoch": 7.426666666666667, |
|
"grad_norm": 0.35228821635246277, |
|
"learning_rate": 1.3785714285714285e-05, |
|
"loss": 0.0381, |
|
"step": 5570 |
|
}, |
|
{ |
|
"epoch": 7.44, |
|
"grad_norm": 0.4502037465572357, |
|
"learning_rate": 1.3714285714285716e-05, |
|
"loss": 0.0395, |
|
"step": 5580 |
|
}, |
|
{ |
|
"epoch": 7.453333333333333, |
|
"grad_norm": 0.4583280682563782, |
|
"learning_rate": 1.3642857142857143e-05, |
|
"loss": 0.0351, |
|
"step": 5590 |
|
}, |
|
{ |
|
"epoch": 7.466666666666667, |
|
"grad_norm": 0.26433423161506653, |
|
"learning_rate": 1.357142857142857e-05, |
|
"loss": 0.0384, |
|
"step": 5600 |
|
}, |
|
{ |
|
"epoch": 7.48, |
|
"grad_norm": 0.34963172674179077, |
|
"learning_rate": 1.3500000000000001e-05, |
|
"loss": 0.0339, |
|
"step": 5610 |
|
}, |
|
{ |
|
"epoch": 7.493333333333333, |
|
"grad_norm": 0.3657793402671814, |
|
"learning_rate": 1.3428571428571429e-05, |
|
"loss": 0.0313, |
|
"step": 5620 |
|
}, |
|
{ |
|
"epoch": 7.506666666666667, |
|
"grad_norm": 0.5166221261024475, |
|
"learning_rate": 1.3357142857142858e-05, |
|
"loss": 0.0344, |
|
"step": 5630 |
|
}, |
|
{ |
|
"epoch": 7.52, |
|
"grad_norm": 0.3821184039115906, |
|
"learning_rate": 1.3285714285714288e-05, |
|
"loss": 0.0364, |
|
"step": 5640 |
|
}, |
|
{ |
|
"epoch": 7.533333333333333, |
|
"grad_norm": 0.23523779213428497, |
|
"learning_rate": 1.3214285714285716e-05, |
|
"loss": 0.0389, |
|
"step": 5650 |
|
}, |
|
{ |
|
"epoch": 7.546666666666667, |
|
"grad_norm": 0.2710420489311218, |
|
"learning_rate": 1.3142857142857143e-05, |
|
"loss": 0.0386, |
|
"step": 5660 |
|
}, |
|
{ |
|
"epoch": 7.5600000000000005, |
|
"grad_norm": 0.3356967866420746, |
|
"learning_rate": 1.3071428571428574e-05, |
|
"loss": 0.0368, |
|
"step": 5670 |
|
}, |
|
{ |
|
"epoch": 7.573333333333333, |
|
"grad_norm": 0.3889558017253876, |
|
"learning_rate": 1.3000000000000001e-05, |
|
"loss": 0.0338, |
|
"step": 5680 |
|
}, |
|
{ |
|
"epoch": 7.586666666666667, |
|
"grad_norm": 0.29293912649154663, |
|
"learning_rate": 1.2928571428571428e-05, |
|
"loss": 0.0341, |
|
"step": 5690 |
|
}, |
|
{ |
|
"epoch": 7.6, |
|
"grad_norm": 0.24440932273864746, |
|
"learning_rate": 1.2857142857142857e-05, |
|
"loss": 0.0361, |
|
"step": 5700 |
|
}, |
|
{ |
|
"epoch": 7.613333333333333, |
|
"grad_norm": 0.3795033395290375, |
|
"learning_rate": 1.2785714285714286e-05, |
|
"loss": 0.0365, |
|
"step": 5710 |
|
}, |
|
{ |
|
"epoch": 7.626666666666667, |
|
"grad_norm": 0.24400892853736877, |
|
"learning_rate": 1.2714285714285715e-05, |
|
"loss": 0.0313, |
|
"step": 5720 |
|
}, |
|
{ |
|
"epoch": 7.64, |
|
"grad_norm": 0.29860273003578186, |
|
"learning_rate": 1.2642857142857143e-05, |
|
"loss": 0.0359, |
|
"step": 5730 |
|
}, |
|
{ |
|
"epoch": 7.653333333333333, |
|
"grad_norm": 0.4908790588378906, |
|
"learning_rate": 1.2571428571428573e-05, |
|
"loss": 0.0373, |
|
"step": 5740 |
|
}, |
|
{ |
|
"epoch": 7.666666666666667, |
|
"grad_norm": 0.36568260192871094, |
|
"learning_rate": 1.25e-05, |
|
"loss": 0.0388, |
|
"step": 5750 |
|
}, |
|
{ |
|
"epoch": 7.68, |
|
"grad_norm": 0.3280797302722931, |
|
"learning_rate": 1.242857142857143e-05, |
|
"loss": 0.0381, |
|
"step": 5760 |
|
}, |
|
{ |
|
"epoch": 7.693333333333333, |
|
"grad_norm": 0.46353018283843994, |
|
"learning_rate": 1.2357142857142857e-05, |
|
"loss": 0.0339, |
|
"step": 5770 |
|
}, |
|
{ |
|
"epoch": 7.706666666666667, |
|
"grad_norm": 0.3837544918060303, |
|
"learning_rate": 1.2285714285714286e-05, |
|
"loss": 0.0354, |
|
"step": 5780 |
|
}, |
|
{ |
|
"epoch": 7.72, |
|
"grad_norm": 0.3167145550251007, |
|
"learning_rate": 1.2214285714285715e-05, |
|
"loss": 0.038, |
|
"step": 5790 |
|
}, |
|
{ |
|
"epoch": 7.733333333333333, |
|
"grad_norm": 0.36111217737197876, |
|
"learning_rate": 1.2142857142857144e-05, |
|
"loss": 0.0386, |
|
"step": 5800 |
|
}, |
|
{ |
|
"epoch": 7.746666666666667, |
|
"grad_norm": 0.251993328332901, |
|
"learning_rate": 1.2071428571428573e-05, |
|
"loss": 0.0338, |
|
"step": 5810 |
|
}, |
|
{ |
|
"epoch": 7.76, |
|
"grad_norm": 0.4600783884525299, |
|
"learning_rate": 1.2e-05, |
|
"loss": 0.0315, |
|
"step": 5820 |
|
}, |
|
{ |
|
"epoch": 7.773333333333333, |
|
"grad_norm": 0.32375648617744446, |
|
"learning_rate": 1.192857142857143e-05, |
|
"loss": 0.0361, |
|
"step": 5830 |
|
}, |
|
{ |
|
"epoch": 7.786666666666667, |
|
"grad_norm": 0.38023245334625244, |
|
"learning_rate": 1.1857142857142858e-05, |
|
"loss": 0.0393, |
|
"step": 5840 |
|
}, |
|
{ |
|
"epoch": 7.8, |
|
"grad_norm": 0.33348438143730164, |
|
"learning_rate": 1.1785714285714286e-05, |
|
"loss": 0.0372, |
|
"step": 5850 |
|
}, |
|
{ |
|
"epoch": 7.8133333333333335, |
|
"grad_norm": 0.3421650230884552, |
|
"learning_rate": 1.1714285714285715e-05, |
|
"loss": 0.0342, |
|
"step": 5860 |
|
}, |
|
{ |
|
"epoch": 7.826666666666666, |
|
"grad_norm": 0.4711281359195709, |
|
"learning_rate": 1.1642857142857144e-05, |
|
"loss": 0.0361, |
|
"step": 5870 |
|
}, |
|
{ |
|
"epoch": 7.84, |
|
"grad_norm": 0.4378104507923126, |
|
"learning_rate": 1.1571428571428573e-05, |
|
"loss": 0.0413, |
|
"step": 5880 |
|
}, |
|
{ |
|
"epoch": 7.8533333333333335, |
|
"grad_norm": 0.3001810908317566, |
|
"learning_rate": 1.1500000000000002e-05, |
|
"loss": 0.0389, |
|
"step": 5890 |
|
}, |
|
{ |
|
"epoch": 7.866666666666667, |
|
"grad_norm": 0.26972848176956177, |
|
"learning_rate": 1.1428571428571429e-05, |
|
"loss": 0.0416, |
|
"step": 5900 |
|
}, |
|
{ |
|
"epoch": 7.88, |
|
"grad_norm": 0.37173739075660706, |
|
"learning_rate": 1.1357142857142858e-05, |
|
"loss": 0.0414, |
|
"step": 5910 |
|
}, |
|
{ |
|
"epoch": 7.8933333333333335, |
|
"grad_norm": 0.4304920434951782, |
|
"learning_rate": 1.1285714285714285e-05, |
|
"loss": 0.0357, |
|
"step": 5920 |
|
}, |
|
{ |
|
"epoch": 7.906666666666666, |
|
"grad_norm": 0.44841209053993225, |
|
"learning_rate": 1.1214285714285714e-05, |
|
"loss": 0.0369, |
|
"step": 5930 |
|
}, |
|
{ |
|
"epoch": 7.92, |
|
"grad_norm": 0.40513983368873596, |
|
"learning_rate": 1.1142857142857143e-05, |
|
"loss": 0.0364, |
|
"step": 5940 |
|
}, |
|
{ |
|
"epoch": 7.933333333333334, |
|
"grad_norm": 0.38901185989379883, |
|
"learning_rate": 1.107142857142857e-05, |
|
"loss": 0.0398, |
|
"step": 5950 |
|
}, |
|
{ |
|
"epoch": 7.946666666666666, |
|
"grad_norm": 0.3767634928226471, |
|
"learning_rate": 1.1000000000000001e-05, |
|
"loss": 0.0354, |
|
"step": 5960 |
|
}, |
|
{ |
|
"epoch": 7.96, |
|
"grad_norm": 0.2898011803627014, |
|
"learning_rate": 1.092857142857143e-05, |
|
"loss": 0.0376, |
|
"step": 5970 |
|
}, |
|
{ |
|
"epoch": 7.973333333333334, |
|
"grad_norm": 0.2954081892967224, |
|
"learning_rate": 1.0857142857142858e-05, |
|
"loss": 0.0352, |
|
"step": 5980 |
|
}, |
|
{ |
|
"epoch": 7.986666666666666, |
|
"grad_norm": 0.3539218008518219, |
|
"learning_rate": 1.0785714285714287e-05, |
|
"loss": 0.0413, |
|
"step": 5990 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"grad_norm": 0.3952479362487793, |
|
"learning_rate": 1.0714285714285714e-05, |
|
"loss": 0.0368, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"eval_loss": 0.053337376564741135, |
|
"eval_runtime": 10.024, |
|
"eval_samples_per_second": 49.88, |
|
"eval_steps_per_second": 6.285, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 8.013333333333334, |
|
"grad_norm": 0.27596500515937805, |
|
"learning_rate": 1.0642857142857143e-05, |
|
"loss": 0.0265, |
|
"step": 6010 |
|
}, |
|
{ |
|
"epoch": 8.026666666666667, |
|
"grad_norm": 0.2773725390434265, |
|
"learning_rate": 1.0571428571428572e-05, |
|
"loss": 0.031, |
|
"step": 6020 |
|
}, |
|
{ |
|
"epoch": 8.04, |
|
"grad_norm": 0.42934033274650574, |
|
"learning_rate": 1.05e-05, |
|
"loss": 0.0303, |
|
"step": 6030 |
|
}, |
|
{ |
|
"epoch": 8.053333333333333, |
|
"grad_norm": 0.436980277299881, |
|
"learning_rate": 1.0428571428571428e-05, |
|
"loss": 0.03, |
|
"step": 6040 |
|
}, |
|
{ |
|
"epoch": 8.066666666666666, |
|
"grad_norm": 0.6325439214706421, |
|
"learning_rate": 1.0357142857142859e-05, |
|
"loss": 0.0326, |
|
"step": 6050 |
|
}, |
|
{ |
|
"epoch": 8.08, |
|
"grad_norm": 0.8861053586006165, |
|
"learning_rate": 1.0285714285714286e-05, |
|
"loss": 0.0283, |
|
"step": 6060 |
|
}, |
|
{ |
|
"epoch": 8.093333333333334, |
|
"grad_norm": 0.3249625861644745, |
|
"learning_rate": 1.0214285714285715e-05, |
|
"loss": 0.0323, |
|
"step": 6070 |
|
}, |
|
{ |
|
"epoch": 8.106666666666667, |
|
"grad_norm": 0.4463777244091034, |
|
"learning_rate": 1.0142857142857143e-05, |
|
"loss": 0.0347, |
|
"step": 6080 |
|
}, |
|
{ |
|
"epoch": 8.12, |
|
"grad_norm": 0.4576132297515869, |
|
"learning_rate": 1.0071428571428572e-05, |
|
"loss": 0.0348, |
|
"step": 6090 |
|
}, |
|
{ |
|
"epoch": 8.133333333333333, |
|
"grad_norm": 0.44988828897476196, |
|
"learning_rate": 1e-05, |
|
"loss": 0.0368, |
|
"step": 6100 |
|
}, |
|
{ |
|
"epoch": 8.146666666666667, |
|
"grad_norm": 0.3282490670681, |
|
"learning_rate": 9.928571428571428e-06, |
|
"loss": 0.0303, |
|
"step": 6110 |
|
}, |
|
{ |
|
"epoch": 8.16, |
|
"grad_norm": 0.3981810212135315, |
|
"learning_rate": 9.857142857142857e-06, |
|
"loss": 0.03, |
|
"step": 6120 |
|
}, |
|
{ |
|
"epoch": 8.173333333333334, |
|
"grad_norm": 0.6639798283576965, |
|
"learning_rate": 9.785714285714286e-06, |
|
"loss": 0.0341, |
|
"step": 6130 |
|
}, |
|
{ |
|
"epoch": 8.186666666666667, |
|
"grad_norm": 0.31547537446022034, |
|
"learning_rate": 9.714285714285715e-06, |
|
"loss": 0.0361, |
|
"step": 6140 |
|
}, |
|
{ |
|
"epoch": 8.2, |
|
"grad_norm": 0.3515768349170685, |
|
"learning_rate": 9.642857142857144e-06, |
|
"loss": 0.0329, |
|
"step": 6150 |
|
}, |
|
{ |
|
"epoch": 8.213333333333333, |
|
"grad_norm": 0.4336012303829193, |
|
"learning_rate": 9.571428571428572e-06, |
|
"loss": 0.0284, |
|
"step": 6160 |
|
}, |
|
{ |
|
"epoch": 8.226666666666667, |
|
"grad_norm": 0.6061497330665588, |
|
"learning_rate": 9.5e-06, |
|
"loss": 0.0287, |
|
"step": 6170 |
|
}, |
|
{ |
|
"epoch": 8.24, |
|
"grad_norm": 0.4288567900657654, |
|
"learning_rate": 9.42857142857143e-06, |
|
"loss": 0.0327, |
|
"step": 6180 |
|
}, |
|
{ |
|
"epoch": 8.253333333333334, |
|
"grad_norm": 0.329947292804718, |
|
"learning_rate": 9.357142857142857e-06, |
|
"loss": 0.0334, |
|
"step": 6190 |
|
}, |
|
{ |
|
"epoch": 8.266666666666667, |
|
"grad_norm": 0.32713133096694946, |
|
"learning_rate": 9.285714285714286e-06, |
|
"loss": 0.0323, |
|
"step": 6200 |
|
}, |
|
{ |
|
"epoch": 8.28, |
|
"grad_norm": 0.33366158604621887, |
|
"learning_rate": 9.214285714285715e-06, |
|
"loss": 0.0319, |
|
"step": 6210 |
|
}, |
|
{ |
|
"epoch": 8.293333333333333, |
|
"grad_norm": 0.4390224516391754, |
|
"learning_rate": 9.142857142857144e-06, |
|
"loss": 0.0331, |
|
"step": 6220 |
|
}, |
|
{ |
|
"epoch": 8.306666666666667, |
|
"grad_norm": 0.46331650018692017, |
|
"learning_rate": 9.071428571428573e-06, |
|
"loss": 0.0357, |
|
"step": 6230 |
|
}, |
|
{ |
|
"epoch": 8.32, |
|
"grad_norm": 0.37731102108955383, |
|
"learning_rate": 9e-06, |
|
"loss": 0.0331, |
|
"step": 6240 |
|
}, |
|
{ |
|
"epoch": 8.333333333333334, |
|
"grad_norm": 0.28968992829322815, |
|
"learning_rate": 8.92857142857143e-06, |
|
"loss": 0.028, |
|
"step": 6250 |
|
}, |
|
{ |
|
"epoch": 8.346666666666668, |
|
"grad_norm": 0.3214893341064453, |
|
"learning_rate": 8.857142857142857e-06, |
|
"loss": 0.0359, |
|
"step": 6260 |
|
}, |
|
{ |
|
"epoch": 8.36, |
|
"grad_norm": 0.40379831194877625, |
|
"learning_rate": 8.785714285714286e-06, |
|
"loss": 0.0305, |
|
"step": 6270 |
|
}, |
|
{ |
|
"epoch": 8.373333333333333, |
|
"grad_norm": 0.4397960901260376, |
|
"learning_rate": 8.714285714285715e-06, |
|
"loss": 0.0328, |
|
"step": 6280 |
|
}, |
|
{ |
|
"epoch": 8.386666666666667, |
|
"grad_norm": 0.50385582447052, |
|
"learning_rate": 8.642857142857144e-06, |
|
"loss": 0.0306, |
|
"step": 6290 |
|
}, |
|
{ |
|
"epoch": 8.4, |
|
"grad_norm": 0.39875203371047974, |
|
"learning_rate": 8.571428571428573e-06, |
|
"loss": 0.0322, |
|
"step": 6300 |
|
}, |
|
{ |
|
"epoch": 8.413333333333334, |
|
"grad_norm": 0.4327872693538666, |
|
"learning_rate": 8.500000000000002e-06, |
|
"loss": 0.0297, |
|
"step": 6310 |
|
}, |
|
{ |
|
"epoch": 8.426666666666666, |
|
"grad_norm": 0.45140984654426575, |
|
"learning_rate": 8.428571428571429e-06, |
|
"loss": 0.0327, |
|
"step": 6320 |
|
}, |
|
{ |
|
"epoch": 8.44, |
|
"grad_norm": 0.3679892420768738, |
|
"learning_rate": 8.357142857142858e-06, |
|
"loss": 0.0294, |
|
"step": 6330 |
|
}, |
|
{ |
|
"epoch": 8.453333333333333, |
|
"grad_norm": 0.6987299919128418, |
|
"learning_rate": 8.285714285714285e-06, |
|
"loss": 0.032, |
|
"step": 6340 |
|
}, |
|
{ |
|
"epoch": 8.466666666666667, |
|
"grad_norm": 0.44229957461357117, |
|
"learning_rate": 8.214285714285714e-06, |
|
"loss": 0.0354, |
|
"step": 6350 |
|
}, |
|
{ |
|
"epoch": 8.48, |
|
"grad_norm": 0.3527892529964447, |
|
"learning_rate": 8.142857142857143e-06, |
|
"loss": 0.033, |
|
"step": 6360 |
|
}, |
|
{ |
|
"epoch": 8.493333333333334, |
|
"grad_norm": 0.3722743093967438, |
|
"learning_rate": 8.07142857142857e-06, |
|
"loss": 0.0337, |
|
"step": 6370 |
|
}, |
|
{ |
|
"epoch": 8.506666666666666, |
|
"grad_norm": 0.5211774706840515, |
|
"learning_rate": 8.000000000000001e-06, |
|
"loss": 0.0307, |
|
"step": 6380 |
|
}, |
|
{ |
|
"epoch": 8.52, |
|
"grad_norm": 0.3126635253429413, |
|
"learning_rate": 7.928571428571429e-06, |
|
"loss": 0.0336, |
|
"step": 6390 |
|
}, |
|
{ |
|
"epoch": 8.533333333333333, |
|
"grad_norm": 0.48934802412986755, |
|
"learning_rate": 7.857142857142858e-06, |
|
"loss": 0.0322, |
|
"step": 6400 |
|
}, |
|
{ |
|
"epoch": 8.546666666666667, |
|
"grad_norm": 0.4217057526111603, |
|
"learning_rate": 7.785714285714287e-06, |
|
"loss": 0.0284, |
|
"step": 6410 |
|
}, |
|
{ |
|
"epoch": 8.56, |
|
"grad_norm": 0.3128513693809509, |
|
"learning_rate": 7.714285714285714e-06, |
|
"loss": 0.0341, |
|
"step": 6420 |
|
}, |
|
{ |
|
"epoch": 8.573333333333334, |
|
"grad_norm": 0.4288753569126129, |
|
"learning_rate": 7.642857142857143e-06, |
|
"loss": 0.034, |
|
"step": 6430 |
|
}, |
|
{ |
|
"epoch": 8.586666666666666, |
|
"grad_norm": 0.38975703716278076, |
|
"learning_rate": 7.571428571428572e-06, |
|
"loss": 0.0294, |
|
"step": 6440 |
|
}, |
|
{ |
|
"epoch": 8.6, |
|
"grad_norm": 0.36867496371269226, |
|
"learning_rate": 7.5e-06, |
|
"loss": 0.033, |
|
"step": 6450 |
|
}, |
|
{ |
|
"epoch": 8.613333333333333, |
|
"grad_norm": 0.44279348850250244, |
|
"learning_rate": 7.428571428571429e-06, |
|
"loss": 0.0302, |
|
"step": 6460 |
|
}, |
|
{ |
|
"epoch": 8.626666666666667, |
|
"grad_norm": 0.43570375442504883, |
|
"learning_rate": 7.3571428571428565e-06, |
|
"loss": 0.0308, |
|
"step": 6470 |
|
}, |
|
{ |
|
"epoch": 8.64, |
|
"grad_norm": 0.3775009214878082, |
|
"learning_rate": 7.285714285714286e-06, |
|
"loss": 0.0343, |
|
"step": 6480 |
|
}, |
|
{ |
|
"epoch": 8.653333333333332, |
|
"grad_norm": 0.47819623351097107, |
|
"learning_rate": 7.214285714285715e-06, |
|
"loss": 0.0344, |
|
"step": 6490 |
|
}, |
|
{ |
|
"epoch": 8.666666666666666, |
|
"grad_norm": 0.31844547390937805, |
|
"learning_rate": 7.142857142857143e-06, |
|
"loss": 0.0254, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 8.68, |
|
"grad_norm": 0.6527644395828247, |
|
"learning_rate": 7.071428571428572e-06, |
|
"loss": 0.0359, |
|
"step": 6510 |
|
}, |
|
{ |
|
"epoch": 8.693333333333333, |
|
"grad_norm": 0.49534961581230164, |
|
"learning_rate": 7.000000000000001e-06, |
|
"loss": 0.035, |
|
"step": 6520 |
|
}, |
|
{ |
|
"epoch": 8.706666666666667, |
|
"grad_norm": 0.5839009881019592, |
|
"learning_rate": 6.928571428571429e-06, |
|
"loss": 0.0309, |
|
"step": 6530 |
|
}, |
|
{ |
|
"epoch": 8.72, |
|
"grad_norm": 0.33588001132011414, |
|
"learning_rate": 6.857142857142858e-06, |
|
"loss": 0.0342, |
|
"step": 6540 |
|
}, |
|
{ |
|
"epoch": 8.733333333333333, |
|
"grad_norm": 0.4374123513698578, |
|
"learning_rate": 6.785714285714285e-06, |
|
"loss": 0.0322, |
|
"step": 6550 |
|
}, |
|
{ |
|
"epoch": 8.746666666666666, |
|
"grad_norm": 0.5746548771858215, |
|
"learning_rate": 6.714285714285714e-06, |
|
"loss": 0.0341, |
|
"step": 6560 |
|
}, |
|
{ |
|
"epoch": 8.76, |
|
"grad_norm": 0.5548771619796753, |
|
"learning_rate": 6.642857142857144e-06, |
|
"loss": 0.0311, |
|
"step": 6570 |
|
}, |
|
{ |
|
"epoch": 8.773333333333333, |
|
"grad_norm": 0.34086015820503235, |
|
"learning_rate": 6.5714285714285714e-06, |
|
"loss": 0.0293, |
|
"step": 6580 |
|
}, |
|
{ |
|
"epoch": 8.786666666666667, |
|
"grad_norm": 0.44007524847984314, |
|
"learning_rate": 6.5000000000000004e-06, |
|
"loss": 0.0316, |
|
"step": 6590 |
|
}, |
|
{ |
|
"epoch": 8.8, |
|
"grad_norm": 0.4433547556400299, |
|
"learning_rate": 6.428571428571429e-06, |
|
"loss": 0.0335, |
|
"step": 6600 |
|
}, |
|
{ |
|
"epoch": 8.813333333333333, |
|
"grad_norm": 0.3907774090766907, |
|
"learning_rate": 6.357142857142858e-06, |
|
"loss": 0.034, |
|
"step": 6610 |
|
}, |
|
{ |
|
"epoch": 8.826666666666666, |
|
"grad_norm": 0.3344619870185852, |
|
"learning_rate": 6.285714285714287e-06, |
|
"loss": 0.0335, |
|
"step": 6620 |
|
}, |
|
{ |
|
"epoch": 8.84, |
|
"grad_norm": 0.4088001251220703, |
|
"learning_rate": 6.214285714285715e-06, |
|
"loss": 0.0332, |
|
"step": 6630 |
|
}, |
|
{ |
|
"epoch": 8.853333333333333, |
|
"grad_norm": 0.5895838141441345, |
|
"learning_rate": 6.142857142857143e-06, |
|
"loss": 0.0301, |
|
"step": 6640 |
|
}, |
|
{ |
|
"epoch": 8.866666666666667, |
|
"grad_norm": 0.3776351809501648, |
|
"learning_rate": 6.071428571428572e-06, |
|
"loss": 0.0344, |
|
"step": 6650 |
|
}, |
|
{ |
|
"epoch": 8.88, |
|
"grad_norm": 0.4882928729057312, |
|
"learning_rate": 6e-06, |
|
"loss": 0.033, |
|
"step": 6660 |
|
}, |
|
{ |
|
"epoch": 8.893333333333333, |
|
"grad_norm": 0.2995430529117584, |
|
"learning_rate": 5.928571428571429e-06, |
|
"loss": 0.0318, |
|
"step": 6670 |
|
}, |
|
{ |
|
"epoch": 8.906666666666666, |
|
"grad_norm": 0.4289156198501587, |
|
"learning_rate": 5.857142857142857e-06, |
|
"loss": 0.0282, |
|
"step": 6680 |
|
}, |
|
{ |
|
"epoch": 8.92, |
|
"grad_norm": 0.252230167388916, |
|
"learning_rate": 5.785714285714286e-06, |
|
"loss": 0.032, |
|
"step": 6690 |
|
}, |
|
{ |
|
"epoch": 8.933333333333334, |
|
"grad_norm": 0.2991114854812622, |
|
"learning_rate": 5.7142857142857145e-06, |
|
"loss": 0.0323, |
|
"step": 6700 |
|
}, |
|
{ |
|
"epoch": 8.946666666666667, |
|
"grad_norm": 0.29242953658103943, |
|
"learning_rate": 5.642857142857143e-06, |
|
"loss": 0.0318, |
|
"step": 6710 |
|
}, |
|
{ |
|
"epoch": 8.96, |
|
"grad_norm": 0.39433249831199646, |
|
"learning_rate": 5.571428571428572e-06, |
|
"loss": 0.0306, |
|
"step": 6720 |
|
}, |
|
{ |
|
"epoch": 8.973333333333333, |
|
"grad_norm": 0.4435175061225891, |
|
"learning_rate": 5.500000000000001e-06, |
|
"loss": 0.0354, |
|
"step": 6730 |
|
}, |
|
{ |
|
"epoch": 8.986666666666666, |
|
"grad_norm": 0.4153237044811249, |
|
"learning_rate": 5.428571428571429e-06, |
|
"loss": 0.0354, |
|
"step": 6740 |
|
}, |
|
{ |
|
"epoch": 9.0, |
|
"grad_norm": 0.47582104802131653, |
|
"learning_rate": 5.357142857142857e-06, |
|
"loss": 0.0336, |
|
"step": 6750 |
|
}, |
|
{ |
|
"epoch": 9.0, |
|
"eval_loss": 0.0599554218351841, |
|
"eval_runtime": 10.0035, |
|
"eval_samples_per_second": 49.982, |
|
"eval_steps_per_second": 6.298, |
|
"step": 6750 |
|
}, |
|
{ |
|
"epoch": 9.013333333333334, |
|
"grad_norm": 0.41843903064727783, |
|
"learning_rate": 5.285714285714286e-06, |
|
"loss": 0.0273, |
|
"step": 6760 |
|
}, |
|
{ |
|
"epoch": 9.026666666666667, |
|
"grad_norm": 0.44430795311927795, |
|
"learning_rate": 5.214285714285714e-06, |
|
"loss": 0.033, |
|
"step": 6770 |
|
}, |
|
{ |
|
"epoch": 9.04, |
|
"grad_norm": 0.5938581824302673, |
|
"learning_rate": 5.142857142857143e-06, |
|
"loss": 0.027, |
|
"step": 6780 |
|
}, |
|
{ |
|
"epoch": 9.053333333333333, |
|
"grad_norm": 0.7742740511894226, |
|
"learning_rate": 5.071428571428571e-06, |
|
"loss": 0.0364, |
|
"step": 6790 |
|
}, |
|
{ |
|
"epoch": 9.066666666666666, |
|
"grad_norm": 0.4659274220466614, |
|
"learning_rate": 5e-06, |
|
"loss": 0.0257, |
|
"step": 6800 |
|
}, |
|
{ |
|
"epoch": 9.08, |
|
"grad_norm": 0.4654858112335205, |
|
"learning_rate": 4.9285714285714286e-06, |
|
"loss": 0.0302, |
|
"step": 6810 |
|
}, |
|
{ |
|
"epoch": 9.093333333333334, |
|
"grad_norm": 0.5938997268676758, |
|
"learning_rate": 4.857142857142858e-06, |
|
"loss": 0.0229, |
|
"step": 6820 |
|
}, |
|
{ |
|
"epoch": 9.106666666666667, |
|
"grad_norm": 0.38648200035095215, |
|
"learning_rate": 4.785714285714286e-06, |
|
"loss": 0.0267, |
|
"step": 6830 |
|
}, |
|
{ |
|
"epoch": 9.12, |
|
"grad_norm": 0.6443151831626892, |
|
"learning_rate": 4.714285714285715e-06, |
|
"loss": 0.0269, |
|
"step": 6840 |
|
}, |
|
{ |
|
"epoch": 9.133333333333333, |
|
"grad_norm": 0.5167721509933472, |
|
"learning_rate": 4.642857142857143e-06, |
|
"loss": 0.0247, |
|
"step": 6850 |
|
}, |
|
{ |
|
"epoch": 9.146666666666667, |
|
"grad_norm": 0.44495123624801636, |
|
"learning_rate": 4.571428571428572e-06, |
|
"loss": 0.0315, |
|
"step": 6860 |
|
}, |
|
{ |
|
"epoch": 9.16, |
|
"grad_norm": 0.5312309265136719, |
|
"learning_rate": 4.5e-06, |
|
"loss": 0.0298, |
|
"step": 6870 |
|
}, |
|
{ |
|
"epoch": 9.173333333333334, |
|
"grad_norm": 0.4099298119544983, |
|
"learning_rate": 4.428571428571428e-06, |
|
"loss": 0.0315, |
|
"step": 6880 |
|
}, |
|
{ |
|
"epoch": 9.186666666666667, |
|
"grad_norm": 0.3159441649913788, |
|
"learning_rate": 4.357142857142857e-06, |
|
"loss": 0.0269, |
|
"step": 6890 |
|
}, |
|
{ |
|
"epoch": 9.2, |
|
"grad_norm": 0.3764984905719757, |
|
"learning_rate": 4.285714285714286e-06, |
|
"loss": 0.028, |
|
"step": 6900 |
|
}, |
|
{ |
|
"epoch": 9.213333333333333, |
|
"grad_norm": 0.4458373785018921, |
|
"learning_rate": 4.2142857142857145e-06, |
|
"loss": 0.0277, |
|
"step": 6910 |
|
}, |
|
{ |
|
"epoch": 9.226666666666667, |
|
"grad_norm": 0.33140939474105835, |
|
"learning_rate": 4.142857142857143e-06, |
|
"loss": 0.0259, |
|
"step": 6920 |
|
}, |
|
{ |
|
"epoch": 9.24, |
|
"grad_norm": 0.40546560287475586, |
|
"learning_rate": 4.071428571428572e-06, |
|
"loss": 0.0296, |
|
"step": 6930 |
|
}, |
|
{ |
|
"epoch": 9.253333333333334, |
|
"grad_norm": 0.4506683051586151, |
|
"learning_rate": 4.000000000000001e-06, |
|
"loss": 0.0294, |
|
"step": 6940 |
|
}, |
|
{ |
|
"epoch": 9.266666666666667, |
|
"grad_norm": 0.3401450514793396, |
|
"learning_rate": 3.928571428571429e-06, |
|
"loss": 0.0324, |
|
"step": 6950 |
|
}, |
|
{ |
|
"epoch": 9.28, |
|
"grad_norm": 0.52297443151474, |
|
"learning_rate": 3.857142857142857e-06, |
|
"loss": 0.0258, |
|
"step": 6960 |
|
}, |
|
{ |
|
"epoch": 9.293333333333333, |
|
"grad_norm": 0.46997833251953125, |
|
"learning_rate": 3.785714285714286e-06, |
|
"loss": 0.0303, |
|
"step": 6970 |
|
}, |
|
{ |
|
"epoch": 9.306666666666667, |
|
"grad_norm": 0.5551085472106934, |
|
"learning_rate": 3.7142857142857146e-06, |
|
"loss": 0.0319, |
|
"step": 6980 |
|
}, |
|
{ |
|
"epoch": 9.32, |
|
"grad_norm": 0.3970550000667572, |
|
"learning_rate": 3.642857142857143e-06, |
|
"loss": 0.0288, |
|
"step": 6990 |
|
}, |
|
{ |
|
"epoch": 9.333333333333334, |
|
"grad_norm": 0.7092918157577515, |
|
"learning_rate": 3.5714285714285714e-06, |
|
"loss": 0.0304, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 9.346666666666668, |
|
"grad_norm": 0.3969880938529968, |
|
"learning_rate": 3.5000000000000004e-06, |
|
"loss": 0.0262, |
|
"step": 7010 |
|
}, |
|
{ |
|
"epoch": 9.36, |
|
"grad_norm": 0.42058366537094116, |
|
"learning_rate": 3.428571428571429e-06, |
|
"loss": 0.0303, |
|
"step": 7020 |
|
}, |
|
{ |
|
"epoch": 9.373333333333333, |
|
"grad_norm": 0.35471147298812866, |
|
"learning_rate": 3.357142857142857e-06, |
|
"loss": 0.0301, |
|
"step": 7030 |
|
}, |
|
{ |
|
"epoch": 9.386666666666667, |
|
"grad_norm": 0.38898906111717224, |
|
"learning_rate": 3.2857142857142857e-06, |
|
"loss": 0.0292, |
|
"step": 7040 |
|
}, |
|
{ |
|
"epoch": 9.4, |
|
"grad_norm": 0.4597848951816559, |
|
"learning_rate": 3.2142857142857143e-06, |
|
"loss": 0.0305, |
|
"step": 7050 |
|
}, |
|
{ |
|
"epoch": 9.413333333333334, |
|
"grad_norm": 0.35790571570396423, |
|
"learning_rate": 3.1428571428571433e-06, |
|
"loss": 0.028, |
|
"step": 7060 |
|
}, |
|
{ |
|
"epoch": 9.426666666666666, |
|
"grad_norm": 0.4128783643245697, |
|
"learning_rate": 3.0714285714285715e-06, |
|
"loss": 0.027, |
|
"step": 7070 |
|
}, |
|
{ |
|
"epoch": 9.44, |
|
"grad_norm": 0.4925912916660309, |
|
"learning_rate": 3e-06, |
|
"loss": 0.0298, |
|
"step": 7080 |
|
}, |
|
{ |
|
"epoch": 9.453333333333333, |
|
"grad_norm": 0.4631553292274475, |
|
"learning_rate": 2.9285714285714287e-06, |
|
"loss": 0.03, |
|
"step": 7090 |
|
}, |
|
{ |
|
"epoch": 9.466666666666667, |
|
"grad_norm": 0.3700734078884125, |
|
"learning_rate": 2.8571428571428573e-06, |
|
"loss": 0.0286, |
|
"step": 7100 |
|
}, |
|
{ |
|
"epoch": 9.48, |
|
"grad_norm": 0.5990931391716003, |
|
"learning_rate": 2.785714285714286e-06, |
|
"loss": 0.0318, |
|
"step": 7110 |
|
}, |
|
{ |
|
"epoch": 9.493333333333334, |
|
"grad_norm": 0.5871394872665405, |
|
"learning_rate": 2.7142857142857144e-06, |
|
"loss": 0.0285, |
|
"step": 7120 |
|
}, |
|
{ |
|
"epoch": 9.506666666666666, |
|
"grad_norm": 0.37236857414245605, |
|
"learning_rate": 2.642857142857143e-06, |
|
"loss": 0.0296, |
|
"step": 7130 |
|
}, |
|
{ |
|
"epoch": 9.52, |
|
"grad_norm": 0.585112988948822, |
|
"learning_rate": 2.5714285714285716e-06, |
|
"loss": 0.0294, |
|
"step": 7140 |
|
}, |
|
{ |
|
"epoch": 9.533333333333333, |
|
"grad_norm": 0.3314462900161743, |
|
"learning_rate": 2.5e-06, |
|
"loss": 0.0261, |
|
"step": 7150 |
|
}, |
|
{ |
|
"epoch": 9.546666666666667, |
|
"grad_norm": 0.40238332748413086, |
|
"learning_rate": 2.428571428571429e-06, |
|
"loss": 0.029, |
|
"step": 7160 |
|
}, |
|
{ |
|
"epoch": 9.56, |
|
"grad_norm": 0.5411038994789124, |
|
"learning_rate": 2.3571428571428574e-06, |
|
"loss": 0.0297, |
|
"step": 7170 |
|
}, |
|
{ |
|
"epoch": 9.573333333333334, |
|
"grad_norm": 0.3584795892238617, |
|
"learning_rate": 2.285714285714286e-06, |
|
"loss": 0.0304, |
|
"step": 7180 |
|
}, |
|
{ |
|
"epoch": 9.586666666666666, |
|
"grad_norm": 0.23877915740013123, |
|
"learning_rate": 2.214285714285714e-06, |
|
"loss": 0.029, |
|
"step": 7190 |
|
}, |
|
{ |
|
"epoch": 9.6, |
|
"grad_norm": 0.4653366804122925, |
|
"learning_rate": 2.142857142857143e-06, |
|
"loss": 0.0271, |
|
"step": 7200 |
|
}, |
|
{ |
|
"epoch": 9.613333333333333, |
|
"grad_norm": 0.41974076628685, |
|
"learning_rate": 2.0714285714285713e-06, |
|
"loss": 0.0268, |
|
"step": 7210 |
|
}, |
|
{ |
|
"epoch": 9.626666666666667, |
|
"grad_norm": 0.2386159747838974, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 0.0258, |
|
"step": 7220 |
|
}, |
|
{ |
|
"epoch": 9.64, |
|
"grad_norm": 0.3894519805908203, |
|
"learning_rate": 1.9285714285714285e-06, |
|
"loss": 0.0283, |
|
"step": 7230 |
|
}, |
|
{ |
|
"epoch": 9.653333333333332, |
|
"grad_norm": 0.488768994808197, |
|
"learning_rate": 1.8571428571428573e-06, |
|
"loss": 0.0311, |
|
"step": 7240 |
|
}, |
|
{ |
|
"epoch": 9.666666666666666, |
|
"grad_norm": 0.3641781210899353, |
|
"learning_rate": 1.7857142857142857e-06, |
|
"loss": 0.0242, |
|
"step": 7250 |
|
}, |
|
{ |
|
"epoch": 9.68, |
|
"grad_norm": 0.7276709079742432, |
|
"learning_rate": 1.7142857142857145e-06, |
|
"loss": 0.0302, |
|
"step": 7260 |
|
}, |
|
{ |
|
"epoch": 9.693333333333333, |
|
"grad_norm": 0.6283189058303833, |
|
"learning_rate": 1.6428571428571429e-06, |
|
"loss": 0.0299, |
|
"step": 7270 |
|
}, |
|
{ |
|
"epoch": 9.706666666666667, |
|
"grad_norm": 0.6860916614532471, |
|
"learning_rate": 1.5714285714285717e-06, |
|
"loss": 0.0291, |
|
"step": 7280 |
|
}, |
|
{ |
|
"epoch": 9.72, |
|
"grad_norm": 0.37233075499534607, |
|
"learning_rate": 1.5e-06, |
|
"loss": 0.029, |
|
"step": 7290 |
|
}, |
|
{ |
|
"epoch": 9.733333333333333, |
|
"grad_norm": 0.5310814380645752, |
|
"learning_rate": 1.4285714285714286e-06, |
|
"loss": 0.0284, |
|
"step": 7300 |
|
}, |
|
{ |
|
"epoch": 9.746666666666666, |
|
"grad_norm": 0.4718201756477356, |
|
"learning_rate": 1.3571428571428572e-06, |
|
"loss": 0.0297, |
|
"step": 7310 |
|
}, |
|
{ |
|
"epoch": 9.76, |
|
"grad_norm": 0.34711670875549316, |
|
"learning_rate": 1.2857142857142858e-06, |
|
"loss": 0.0295, |
|
"step": 7320 |
|
}, |
|
{ |
|
"epoch": 9.773333333333333, |
|
"grad_norm": 0.37757256627082825, |
|
"learning_rate": 1.2142857142857144e-06, |
|
"loss": 0.0292, |
|
"step": 7330 |
|
}, |
|
{ |
|
"epoch": 9.786666666666667, |
|
"grad_norm": 0.6463954448699951, |
|
"learning_rate": 1.142857142857143e-06, |
|
"loss": 0.0322, |
|
"step": 7340 |
|
}, |
|
{ |
|
"epoch": 9.8, |
|
"grad_norm": 0.4733719825744629, |
|
"learning_rate": 1.0714285714285716e-06, |
|
"loss": 0.0237, |
|
"step": 7350 |
|
}, |
|
{ |
|
"epoch": 9.813333333333333, |
|
"grad_norm": 0.400206059217453, |
|
"learning_rate": 1.0000000000000002e-06, |
|
"loss": 0.0317, |
|
"step": 7360 |
|
}, |
|
{ |
|
"epoch": 9.826666666666666, |
|
"grad_norm": 0.43989384174346924, |
|
"learning_rate": 9.285714285714287e-07, |
|
"loss": 0.0259, |
|
"step": 7370 |
|
}, |
|
{ |
|
"epoch": 9.84, |
|
"grad_norm": 0.44566187262535095, |
|
"learning_rate": 8.571428571428572e-07, |
|
"loss": 0.0285, |
|
"step": 7380 |
|
}, |
|
{ |
|
"epoch": 9.853333333333333, |
|
"grad_norm": 0.378282368183136, |
|
"learning_rate": 7.857142857142858e-07, |
|
"loss": 0.0292, |
|
"step": 7390 |
|
}, |
|
{ |
|
"epoch": 9.866666666666667, |
|
"grad_norm": 0.4129701852798462, |
|
"learning_rate": 7.142857142857143e-07, |
|
"loss": 0.0304, |
|
"step": 7400 |
|
}, |
|
{ |
|
"epoch": 9.88, |
|
"grad_norm": 0.3859052062034607, |
|
"learning_rate": 6.428571428571429e-07, |
|
"loss": 0.0274, |
|
"step": 7410 |
|
}, |
|
{ |
|
"epoch": 9.893333333333333, |
|
"grad_norm": 0.6175478100776672, |
|
"learning_rate": 5.714285714285715e-07, |
|
"loss": 0.0291, |
|
"step": 7420 |
|
}, |
|
{ |
|
"epoch": 9.906666666666666, |
|
"grad_norm": 0.44381043314933777, |
|
"learning_rate": 5.000000000000001e-07, |
|
"loss": 0.0243, |
|
"step": 7430 |
|
}, |
|
{ |
|
"epoch": 9.92, |
|
"grad_norm": 0.32128116488456726, |
|
"learning_rate": 4.285714285714286e-07, |
|
"loss": 0.0253, |
|
"step": 7440 |
|
}, |
|
{ |
|
"epoch": 9.933333333333334, |
|
"grad_norm": 0.5063470005989075, |
|
"learning_rate": 3.5714285714285716e-07, |
|
"loss": 0.0331, |
|
"step": 7450 |
|
}, |
|
{ |
|
"epoch": 9.946666666666667, |
|
"grad_norm": 0.4667315185070038, |
|
"learning_rate": 2.8571428571428575e-07, |
|
"loss": 0.0305, |
|
"step": 7460 |
|
}, |
|
{ |
|
"epoch": 9.96, |
|
"grad_norm": 0.6741827726364136, |
|
"learning_rate": 2.142857142857143e-07, |
|
"loss": 0.0267, |
|
"step": 7470 |
|
}, |
|
{ |
|
"epoch": 9.973333333333333, |
|
"grad_norm": 0.2599794566631317, |
|
"learning_rate": 1.4285714285714287e-07, |
|
"loss": 0.0287, |
|
"step": 7480 |
|
}, |
|
{ |
|
"epoch": 9.986666666666666, |
|
"grad_norm": 0.5331473350524902, |
|
"learning_rate": 7.142857142857144e-08, |
|
"loss": 0.031, |
|
"step": 7490 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"grad_norm": 0.5690405964851379, |
|
"learning_rate": 0.0, |
|
"loss": 0.0262, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"eval_loss": 0.06324269622564316, |
|
"eval_runtime": 10.0528, |
|
"eval_samples_per_second": 49.737, |
|
"eval_steps_per_second": 6.267, |
|
"step": 7500 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 7500, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 10, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 1.567519243659264e+16, |
|
"train_batch_size": 8, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|