Mistral-7B-v0.1-orpo-final1

This model is a fine-tuned version of mistralai/Mistral-7B-v0.1 on the vipinkatara/dataset_complete_final dataset. It achieves the following results on the evaluation set:

  • Loss: nan
  • Rewards/chosen: nan
  • Rewards/rejected: nan
  • Rewards/accuracies: 0.0
  • Rewards/margins: nan
  • Logps/rejected: nan
  • Logps/chosen: nan
  • Logits/rejected: nan
  • Logits/chosen: nan
  • Nll Loss: nan
  • Log Odds Ratio: nan
  • Log Odds Chosen: nan

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-06
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • distributed_type: multi-GPU
  • num_devices: 4
  • total_train_batch_size: 32
  • total_eval_batch_size: 32
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: inverse_sqrt
  • lr_scheduler_warmup_steps: 100
  • num_epochs: 1

Training results

Training Loss Epoch Step Validation Loss Rewards/chosen Rewards/rejected Rewards/accuracies Rewards/margins Logps/rejected Logps/chosen Logits/rejected Logits/chosen Nll Loss Log Odds Ratio Log Odds Chosen
3.4851 0.0045 10 1.5241 -0.0138 -0.0138 0.0 0.0 -0.2768 -0.2768 -2.5524 -2.5524 1.4894 -0.6931 0.0
1.086 0.0089 20 0.9466 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.7727 -1.7727 0.9119 -0.6931 0.0
0.9087 0.0134 30 0.8376 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.5712 -1.5712 0.8029 -0.6931 0.0
0.7774 0.0179 40 0.6912 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.5837 -1.5837 0.6565 -0.6931 0.0
0.5426 0.0224 50 0.1591 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.5343 -1.5343 0.1244 -0.6931 0.0
0.4926 0.0268 60 0.0728 -0.0025 -0.0025 0.0 0.0 -0.0497 -0.0497 -2.1702 -2.1702 0.0382 -0.6931 0.0
0.3784 0.0313 70 0.0374 -0.0001 -0.0001 0.0 0.0 -0.0015 -0.0015 -1.8683 -1.8683 0.0028 -0.6931 0.0
0.1081 0.0358 80 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.9697 -1.9697 0.0000 -0.6931 0.0
0.2173 0.0402 90 0.5148 -0.0349 -0.0349 0.0 0.0 -0.6984 -0.6984 -2.7805 -2.7805 0.4802 -0.6931 0.0
0.0845 0.0447 100 0.0565 -0.0016 -0.0016 0.0 0.0 -0.0317 -0.0317 -2.2378 -2.2378 0.0218 -0.6931 0.0
0.1317 0.0492 110 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -2.4884 -2.4884 0.0000 -0.6931 0.0
0.21 0.0536 120 0.0348 -0.0000 -0.0000 0.0 0.0 -0.0002 -0.0002 -2.1373 -2.1373 0.0002 -0.6931 0.0
0.0859 0.0581 130 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.8577 -1.8577 0.0000 -0.6931 0.0
0.0347 0.0626 140 0.0348 -0.0000 -0.0000 0.0 0.0 -0.0002 -0.0002 -1.8252 -1.8252 0.0001 -0.6931 0.0
0.0495 0.0671 150 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.8505 -1.8505 0.0000 -0.6931 0.0
0.0347 0.0715 160 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.9784 -1.9784 0.0000 -0.6931 0.0
0.0347 0.0760 170 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.7608 -1.7608 0.0000 -0.6931 0.0
0.0347 0.0805 180 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.5161 -1.5161 0.0000 -0.6931 0.0
0.0347 0.0849 190 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.4646 -1.4646 0.0000 -0.6931 0.0
0.0347 0.0894 200 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.4565 -1.4565 0.0000 -0.6931 0.0
0.0347 0.0939 210 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.4377 -1.4377 0.0000 -0.6931 0.0
0.0347 0.0983 220 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.4224 -1.4224 0.0000 -0.6931 0.0
0.0347 0.1028 230 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.4131 -1.4131 0.0000 -0.6931 0.0
0.0347 0.1073 240 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.4159 -1.4159 0.0000 -0.6931 0.0
0.0347 0.1118 250 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.4384 -1.4384 0.0000 -0.6931 0.0
0.0347 0.1162 260 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.4592 -1.4592 0.0000 -0.6931 0.0
0.0347 0.1207 270 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.4682 -1.4682 0.0000 -0.6931 0.0
0.0348 0.1252 280 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.1261 -1.1261 0.0000 -0.6931 0.0
0.066 0.1296 290 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.9084 -0.9084 0.0000 -0.6931 0.0
0.0347 0.1341 300 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.8419 -0.8419 0.0000 -0.6931 0.0
0.0347 0.1386 310 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7935 -0.7935 0.0000 -0.6931 0.0
0.0347 0.1430 320 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7703 -0.7703 0.0000 -0.6931 0.0
0.0347 0.1475 330 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7746 -0.7746 0.0000 -0.6931 0.0
0.0347 0.1520 340 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7745 -0.7745 0.0000 -0.6931 0.0
0.0347 0.1565 350 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7768 -0.7768 0.0000 -0.6931 0.0
0.0347 0.1609 360 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7753 -0.7753 0.0000 -0.6931 0.0
0.0347 0.1654 370 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7760 -0.7760 0.0000 -0.6931 0.0
0.0347 0.1699 380 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7688 -0.7688 0.0000 -0.6931 0.0
0.0347 0.1743 390 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7688 -0.7688 0.0000 -0.6931 0.0
0.0347 0.1788 400 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7668 -0.7668 0.0000 -0.6931 0.0
0.0347 0.1833 410 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7660 -0.7660 0.0000 -0.6931 0.0
0.0347 0.1878 420 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7656 -0.7656 0.0000 -0.6931 0.0
0.0347 0.1922 430 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7680 -0.7680 0.0000 -0.6931 0.0
0.0347 0.1967 440 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7653 -0.7653 0.0000 -0.6931 0.0
0.0347 0.2012 450 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7624 -0.7624 0.0000 -0.6931 0.0
0.0347 0.2056 460 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7612 -0.7612 0.0000 -0.6931 0.0
0.0347 0.2101 470 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7622 -0.7622 0.0000 -0.6931 0.0
0.0347 0.2146 480 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7637 -0.7637 0.0000 -0.6931 0.0
0.0347 0.2190 490 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7612 -0.7612 0.0000 -0.6931 0.0
0.0347 0.2235 500 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7622 -0.7622 0.0000 -0.6931 0.0
0.0347 0.2280 510 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7672 -0.7672 0.0000 -0.6931 0.0
0.0347 0.2325 520 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7621 -0.7621 0.0000 -0.6931 0.0
0.0347 0.2369 530 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7622 -0.7622 0.0000 -0.6931 0.0
0.0347 0.2414 540 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7637 -0.7637 0.0000 -0.6931 0.0
0.0347 0.2459 550 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7630 -0.7630 0.0000 -0.6931 0.0
0.0347 0.2503 560 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7591 -0.7591 0.0000 -0.6931 0.0
0.0347 0.2548 570 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7590 -0.7590 0.0000 -0.6931 0.0
0.0347 0.2593 580 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7541 -0.7541 0.0000 -0.6931 0.0
0.0347 0.2637 590 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7554 -0.7554 0.0000 -0.6931 0.0
0.0347 0.2682 600 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7636 -0.7636 0.0000 -0.6931 0.0
0.0347 0.2727 610 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.7175 -0.7175 0.0000 -0.6931 0.0
0.0347 0.2772 620 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.9073 -0.9073 0.0000 -0.6931 0.0
0.0347 0.2816 630 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.0013 -1.0013 0.0000 -0.6931 0.0
0.0347 0.2861 640 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -1.0971 -1.0971 0.0000 -0.6931 0.0
0.0347 0.2906 650 0.0347 -0.0000 -0.0000 0.0 0.0 -0.0000 -0.0000 -0.8988 -0.8988 0.0000 -0.6931 0.0
0.1054 0.2950 660 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.2995 670 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3040 680 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3084 690 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3129 700 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3174 710 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3219 720 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3263 730 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3308 740 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3353 750 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3397 760 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3442 770 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3487 780 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3532 790 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3576 800 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3621 810 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3666 820 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3710 830 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3755 840 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3800 850 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3844 860 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3889 870 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3934 880 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.3979 890 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4023 900 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4068 910 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4113 920 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4157 930 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4202 940 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4247 950 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4291 960 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4336 970 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4381 980 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4426 990 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4470 1000 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4515 1010 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4560 1020 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4604 1030 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4649 1040 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4694 1050 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4738 1060 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4783 1070 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4828 1080 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4873 1090 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4917 1100 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.4962 1110 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5007 1120 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5051 1130 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5096 1140 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5141 1150 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5186 1160 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5230 1170 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5275 1180 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5320 1190 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5364 1200 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5409 1210 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5454 1220 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5498 1230 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5543 1240 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5588 1250 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5633 1260 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5677 1270 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5722 1280 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5767 1290 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5811 1300 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5856 1310 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5901 1320 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5945 1330 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.5990 1340 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6035 1350 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6080 1360 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6124 1370 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6169 1380 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6214 1390 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6258 1400 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6303 1410 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6348 1420 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6392 1430 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6437 1440 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6482 1450 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6527 1460 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6571 1470 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6616 1480 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6661 1490 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6705 1500 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6750 1510 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6795 1520 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6840 1530 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6884 1540 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6929 1550 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.6974 1560 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7018 1570 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7063 1580 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7108 1590 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7152 1600 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7197 1610 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7242 1620 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7287 1630 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7331 1640 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7376 1650 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7421 1660 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7465 1670 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7510 1680 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7555 1690 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7599 1700 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7644 1710 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7689 1720 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7734 1730 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7778 1740 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7823 1750 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7868 1760 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7912 1770 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.7957 1780 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8002 1790 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8046 1800 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8091 1810 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8136 1820 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8181 1830 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8225 1840 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8270 1850 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8315 1860 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8359 1870 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8404 1880 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8449 1890 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8494 1900 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8538 1910 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8583 1920 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8628 1930 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8672 1940 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8717 1950 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8762 1960 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8806 1970 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8851 1980 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8896 1990 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8941 2000 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.8985 2010 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9030 2020 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9075 2030 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9119 2040 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9164 2050 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9209 2060 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9253 2070 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9298 2080 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9343 2090 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9388 2100 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9432 2110 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9477 2120 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9522 2130 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9566 2140 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9611 2150 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9656 2160 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9700 2170 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9745 2180 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9790 2190 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9835 2200 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9879 2210 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9924 2220 nan nan nan 0.0 nan nan nan nan nan nan nan nan
0.0 0.9969 2230 nan nan nan 0.0 nan nan nan nan nan nan nan nan

Framework versions

  • Transformers 4.40.1
  • Pytorch 2.3.0+cu121
  • Datasets 2.19.1
  • Tokenizers 0.19.1
Downloads last month
8
Safetensors
Model size
7.24B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for vipinkatara/Mistral-7B-v0.1-orpo-final1

Finetuned
(718)
this model

Dataset used to train vipinkatara/Mistral-7B-v0.1-orpo-final1