anhtuansh's picture
Add new SentenceTransformer model
1b981a4 verified
metadata
base_model: keepitreal/vietnamese-sbert
library_name: sentence-transformers
metrics:
  - cosine_accuracy@1
  - cosine_accuracy@3
  - cosine_accuracy@5
  - cosine_accuracy@10
  - cosine_precision@1
  - cosine_precision@3
  - cosine_precision@5
  - cosine_precision@10
  - cosine_recall@1
  - cosine_recall@3
  - cosine_recall@5
  - cosine_recall@10
  - cosine_ndcg@10
  - cosine_mrr@10
  - cosine_map@100
pipeline_tag: sentence-similarity
tags:
  - sentence-transformers
  - sentence-similarity
  - feature-extraction
  - generated_from_trainer
  - dataset_size:10200
  - loss:MatryoshkaLoss
  - loss:MultipleNegativesRankingLoss
widget:
  - source_sentence: >-
      1.500.000 ( một triệu năm trăm_nghìn ) đồng / giấy_phép ( theo quy_định
      tại khoản b điều 4 thông_tư số 143 / 2016 / tt - btc ngày 26 / 9 / 2016
      của bộ tài_chính , có hiệu_lực thi_hành kể từ ngày 01 / 01 / 2017 ) .
    sentences:
      - >-
        phí lệ_phí của thủ_tục : thủ_tục cấp lại giấy_phép thành_lập văn_phòng
        đại_diện của thương_nhân nước_ngoài tại việt_nam là bao_nhiêu ?
      - khi nào người giải_quyết tố_cáo tạm đình_chỉ việc giải_quyết tố_cáo ?
      - >-
        người điều_khiển , người đi trên phương_tiện , phương_tiện xuất_cảnh ,
        nhập_cảnh qua cửa_khẩu biên_giới đất_liền phải thực_hiện thủ_tục
        biên_phòng điện_tử như thế_nào ?
  - source_sentence: |-
      bước 1 : tổ_chức sử_dụng đất chuẩn_bị hồ_sơ theo quy_định của pháp_luật ; 
       bước 2 : tổ_chức sử_dụng đất nộp hồ_sơ tại bộ_phận hành_chính công về tài_nguyên và môi_trường của ban quản_lý khu kinh_tế quảng_ninh tại trung_tâm phục_vụ hành_chính công tỉnh ; 
       bước 3 : cán_bộ bộ_phận hành_chính công về tài_nguyên và môi_trường kiểm_tra hồ_sơ và trao giấy tiếp_nhận hồ_sơ cho nhà đầu_tư ; 
       bước 4 : tổ_chức sử_dụng đất căn_cứ thời_gian ghi trên giấy tiếp_nhận hồ_sơ đến trung_tâm phục_vụ hành_chính công_nhận kết_quả .
    sentences:
      - >-
        khiếu_nại quyết_định kỷ_luật cán_bộ , công_chức được thực_hiện trong
        trường_hợp nào ?
      - >-
        trình_tự thực_hiện của thủ_tục : thủ_tục miễn , giảm tiền thuê đất trong
        khu kinh_tế ( trừ khu kinh_tế vân_đồn ) là gì ?
      - >-
        trường_hợp đã hết thời_hiệu yêu_cầu thi_hành án , đề_nghị khôi_phục
        thời_hiệu thi_hành án cần những thủ_tục gì ?
  - source_sentence: >-
      theo quy_định tại nghị_định số 91 / 2017 / nđ - cp ngày 31 / 7 / 2017 của
      chính_phủ quy_định chi_tiết thi_hành luật sửa_đổi , bổ_sung một_số điều
      của luật thi_đua , khen_thưởng năm 2013 : 
       trong thời_hạn 20 ngày_ngày làm_việc ( 30 ngày làm_việc đối_với trường_hợp phải lấy ý_kiến hiệp y ) kể từ ngày nhận đủ hồ_sơ theo quy_định , trưởng ban ban thi_đua - khen_thưởng trung_ương trình thủ_tướng chính_phủ xem_xét , quyết_định ; 
       sau khi nhận được quyết_định khen_thưởng của thủ_tướng chính_phủ , trong thời_hạn 10 ngày làm_việc , ban thi_đua - khen_thưởng trung_ương sao quyết_định và thông_báo kết_quả khen_thưởng cho bộ , ban , ngành , tỉnh , đoàn_thể trung_ương trình khen_thưởng ; 
       sau khi nhận được quyết_định khen_thưởng của cấp có thẩm_quyền , trong thời_hạn 10 ngày làm_việc , cơ_quan trình khen_thưởng thông_báo và gửi kết_quả khen_thưởng cho các trường_hợp được khen_thưởng ; 
       đối_với các trường_hợp không đủ điều_kiện , tiêu_chuẩn , hồ_sơ theo quy_định , trong thời_hạn 10ngày làm_việc kể từ ngày nhận đủ hồ_sơ theo quy_định , ban thi_đua - khen_thưởng trung_ương thông_báo bằng văn_bản cho bộ , ban , ngành , tỉnh , đoàn_thể trung_ương trình khen_thưởng .
    sentences:
      - >-
        yêu_cầu về xác_nhận quá_trình thực_hành trong cấp chứng_chỉ hành_nghề
        khám chữa bệnh là gì ?
      - >-
        đề_nghị cho biết thời_hạn thực_hiện thủ_tục tặng_thưởng " cờ thi_đua của
        chính_phủ " về thành_tích thi_đua theo đợt hoặc chuyên_đề
      - >-
        vợ_chồng tôi năm nay được 38 tuổi , nghề_nghiệp là nông_dân . vợ_chồng
        tôi muốn tham_gia bhxh tự_nguyện để khi về già có lương hưu . vậy
        vợ_chồng tôi có được đóng bhxh không ?
  - source_sentence: >-
      theo quy_định tại điểm c khoản 1 điều 211 luật doanh_nghiệp ,
      trường_hợp_doanh_nghiệp ngừng hoạt_động_kinh_doanh 01 năm mà không
      thông_báo với cơ_quan đăng_ký kinh_doanh và cơ_quan thuế thì doanh_nghiệp
      thuộc trường_hợp bị thu_hồi giấy chứng_nhận đăng_ký doanh_nghiệp . -
      trình_tự , thủ_tục thu_hồi giấy chứng_nhận đăng_ký doanh_nghiệp thực_hiện
      theo quy_định tại khoản 3 điều 63 nghị_định số 78 / 2015 / nđ - cp được
      sửa_đổi , bổ_sung tại khoản 20 điều 1 nghị_định số 108 / 2018 / nđ - cp
      sửa_đổi , bổ_sung một_số điều của nghị_định số 78 / 2015 / nđ - cp. theo
      đó , phòng đăng_ký kinh_doanh thông_báo bằng văn_bản về hành_vi vi_phạm và
      yêu_cầu người đại_diện theo pháp_luật của doanh_nghiệp đến trụ_sở của
      phòng để giải_trình . sau 10 ngày làm_việc , kể từ ngày kết_thúc thời_hạn
      hẹn trong thông_báo mà người được yêu_cầu không đến hoặc nội_dung
      giải_trình không được chấp_thuận thì phòng đăng_ký kinh_doanh ra
      quyết_định thu_hồi giấy chứng_nhận đăng_ký doanh_nghiệp . - như_vậy , theo
      quy_định nêu trên việc công_ty ngừng hoạt_động_kinh_doanh 01 năm mà không
      thông_báo với cơ_quan đăng_ký kinh_doanh và cơ_quan thuế là
      vi_phạm_quy_định pháp_luật và thuộc một trong các trường_hợp bị thu_hồi
      giấy chứng_nhận đăng_ký doanh_nghiệp .
    sentences:
      - >-
        thủ_tục và hồ_sơ xin phép chuyển_đổi mục_đích sử_dụng , di_dời , tháo_dỡ
        ?
      - >-
        thời_gian đăng_ký hoạt_động của chi_nhánh của tổ_chức trọng_tài
        nước_ngoài tại việt_nam được quy_định như thế_nào ?
      - >-
        công_ty tnhh xyz ngừng hoạt_động_kinh_doanh 01 năm mà không thông_báo
        với cơ_quan đăng_ký kinh_doanh và cơ_quan thuế ? trong trường_hợp này ,
        công_ty bị thu_hồi giấy chứng_nhận đăng_ký doanh_nghiệp thì có đúng
        quy_định pháp_luật hiện_hành không ?
  - source_sentence: >-
      thời_hạn giải_quyết việc gia_hạn thời_gian học_tập cho lưu học_sinh để
      hoàn_thành khóa học như sau : tối_đa 20 ngày làm_việc kể từ ngày nhận đủ
      hồ_sơ hợp_lệ .
    sentences:
      - >-
        tôi muốn hỏi về gia_hạn thời_gian học_tập cho lưu học_sinh để hoàn_thành
        khóa học , có thời_hạn giải_quyết như thế_nào ?
      - >-
        thành_phần hồ_sơ giải_quyết chế_độ hỗ_trợ đối_với người việt_nam có công
        với cách_mạng quy_định tại nghị_định số 102 / 2018 / nđ - cp ngày 20 / 7
        / 2018 của chính_phủ về chế_độ hỗ_trợ và một_số chế_độ đãi_ngộ khác
        đối_với người việt_nam có công với cách_mạng , người tham_gia
        kháng_chiến , chiến_tranh bảo_vệ tổ_quốc và làm nhiệm_vụ quốc_tế đang
        định_cư ở nước_ngoài ( nghị_định số 102 / 2018 / nđ - cp ) , bao_gồm
        những giấy_tờ gì ?
      - >-
        nhiệm_vụ thiết_kế bvtc gồm nội_dung gì ? đơn_vị lập và thẩm_quyền
        phê_duyệt nhiệm_vụ thiết_kế bvtc ?
model-index:
  - name: SentenceTransformer based on keepitreal/vietnamese-sbert
    results:
      - task:
          type: information-retrieval
          name: Information Retrieval
        dataset:
          name: dim 768
          type: dim_768
        metrics:
          - type: cosine_accuracy@1
            value: 0.5308641975308642
            name: Cosine Accuracy@1
          - type: cosine_accuracy@3
            value: 0.7028218694885362
            name: Cosine Accuracy@3
          - type: cosine_accuracy@5
            value: 0.753968253968254
            name: Cosine Accuracy@5
          - type: cosine_accuracy@10
            value: 0.8192239858906526
            name: Cosine Accuracy@10
          - type: cosine_precision@1
            value: 0.5308641975308642
            name: Cosine Precision@1
          - type: cosine_precision@3
            value: 0.2342739564961787
            name: Cosine Precision@3
          - type: cosine_precision@5
            value: 0.15079365079365079
            name: Cosine Precision@5
          - type: cosine_precision@10
            value: 0.08192239858906526
            name: Cosine Precision@10
          - type: cosine_recall@1
            value: 0.5308641975308642
            name: Cosine Recall@1
          - type: cosine_recall@3
            value: 0.7028218694885362
            name: Cosine Recall@3
          - type: cosine_recall@5
            value: 0.753968253968254
            name: Cosine Recall@5
          - type: cosine_recall@10
            value: 0.8192239858906526
            name: Cosine Recall@10
          - type: cosine_ndcg@10
            value: 0.6751431227305473
            name: Cosine Ndcg@10
          - type: cosine_mrr@10
            value: 0.629075683771451
            name: Cosine Mrr@10
          - type: cosine_map@100
            value: 0.6352682175282552
            name: Cosine Map@100
      - task:
          type: information-retrieval
          name: Information Retrieval
        dataset:
          name: dim 512
          type: dim_512
        metrics:
          - type: cosine_accuracy@1
            value: 0.527336860670194
            name: Cosine Accuracy@1
          - type: cosine_accuracy@3
            value: 0.6975308641975309
            name: Cosine Accuracy@3
          - type: cosine_accuracy@5
            value: 0.7592592592592593
            name: Cosine Accuracy@5
          - type: cosine_accuracy@10
            value: 0.818342151675485
            name: Cosine Accuracy@10
          - type: cosine_precision@1
            value: 0.527336860670194
            name: Cosine Precision@1
          - type: cosine_precision@3
            value: 0.2325102880658436
            name: Cosine Precision@3
          - type: cosine_precision@5
            value: 0.15185185185185185
            name: Cosine Precision@5
          - type: cosine_precision@10
            value: 0.08183421516754849
            name: Cosine Precision@10
          - type: cosine_recall@1
            value: 0.527336860670194
            name: Cosine Recall@1
          - type: cosine_recall@3
            value: 0.6975308641975309
            name: Cosine Recall@3
          - type: cosine_recall@5
            value: 0.7592592592592593
            name: Cosine Recall@5
          - type: cosine_recall@10
            value: 0.818342151675485
            name: Cosine Recall@10
          - type: cosine_ndcg@10
            value: 0.6726377981394667
            name: Cosine Ndcg@10
          - type: cosine_mrr@10
            value: 0.6260032613868597
            name: Cosine Mrr@10
          - type: cosine_map@100
            value: 0.6319511858960443
            name: Cosine Map@100

SentenceTransformer based on keepitreal/vietnamese-sbert

This is a sentence-transformers model finetuned from keepitreal/vietnamese-sbert on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: keepitreal/vietnamese-sbert
  • Maximum Sequence Length: 256 tokens
  • Output Dimensionality: 768 dimensions
  • Similarity Function: Cosine Similarity
  • Training Dataset:
    • json

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("anhtuansh/vietnamese-sbert-Financial-Matryoshka-5e-11k")
# Run inference
sentences = [
    'thời_hạn giải_quyết việc gia_hạn thời_gian học_tập cho lưu học_sinh để hoàn_thành khóa học như sau : tối_đa 20 ngày làm_việc kể từ ngày nhận đủ hồ_sơ hợp_lệ .',
    'tôi muốn hỏi về gia_hạn thời_gian học_tập cho lưu học_sinh để hoàn_thành khóa học , có thời_hạn giải_quyết như thế_nào ?',
    'thành_phần hồ_sơ giải_quyết chế_độ hỗ_trợ đối_với người việt_nam có công với cách_mạng quy_định tại nghị_định số 102 / 2018 / nđ - cp ngày 20 / 7 / 2018 của chính_phủ về chế_độ hỗ_trợ và một_số chế_độ đãi_ngộ khác đối_với người việt_nam có công với cách_mạng , người tham_gia kháng_chiến , chiến_tranh bảo_vệ tổ_quốc và làm nhiệm_vụ quốc_tế đang định_cư ở nước_ngoài ( nghị_định số 102 / 2018 / nđ - cp ) , bao_gồm những giấy_tờ gì ?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

Metric dim_768 dim_512
cosine_accuracy@1 0.5309 0.5273
cosine_accuracy@3 0.7028 0.6975
cosine_accuracy@5 0.754 0.7593
cosine_accuracy@10 0.8192 0.8183
cosine_precision@1 0.5309 0.5273
cosine_precision@3 0.2343 0.2325
cosine_precision@5 0.1508 0.1519
cosine_precision@10 0.0819 0.0818
cosine_recall@1 0.5309 0.5273
cosine_recall@3 0.7028 0.6975
cosine_recall@5 0.754 0.7593
cosine_recall@10 0.8192 0.8183
cosine_ndcg@10 0.6751 0.6726
cosine_mrr@10 0.6291 0.626
cosine_map@100 0.6353 0.632

Training Details

Training Dataset

json

  • Dataset: json
  • Size: 10,200 training samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 3 tokens
    • mean: 126.9 tokens
    • max: 256 tokens
    • min: 4 tokens
    • mean: 27.04 tokens
    • max: 213 tokens
  • Samples:
    positive anchor
    1 . thẩm_quyền cấp giấy_phép tổ_chức triển_lãm , hội_chợ xuất_bản_phẩm được quy_định cụ_thể như sau : - bộ thông_tin và truyền_thông cấp giấy_phép cho cơ_quan , tổ_chức ở trung_ương ; cơ_quan , tổ_chức , cá_nhân nước_ngoài ; - ủy_ban nhân_dân cấp tỉnh cấp giấy_phép cho cơ_quan , tổ_chức , cá_nhân có trụ_sở hoặc cư_trú tại địa_phương ; chi_nhánh , văn_phòng đại_diện , đơn_vị trực_thuộc cơ_quan , tổ_chức ở trung_ương đặt tại địa_phương . 2 . hồ_sơ bao_gồm : - đơn đề_nghị cấp giấy_phép trong đó ghi rõ mục_đích , thời_gian , địa_điểm và tên các đơn_vị tham_gia triển_lãm , hội_chợ ; - danh_mục xuất_bản_phẩm để triển_lãm , hội_chợ theo mẫu quy_định . ( quy_định tại khoản 2 , 3 điều 44 luật xuất_bản ) hồ_sơ và thẩm_quyền cấp giấy_phép tổ_chức triển_lãm , hội_chợ xuất_bản_phẩm được quy_định cụ_thể như thế_nào ?
    - trường_hợp mất danh_mục và phiếu theo_dõi trừ lùi thì người khai hải_quan có hồ_sơ đề_nghị cơ_quan hải_quan nơi cấp danh_mục lần đầu_đề_nghị cấp lại , bao_gồm :
    + công_văn đề_nghị cấp lại danh_mục , phiếu theo_dõi trừ lùi trong đó nêu rõ : lý_do mất danh_mục , phiếu theo_dõi trừ lùi và cam_kết của người khai hải_quan về tính chính_xác của nội_dung khai_báo ;
    + bảng kê toàn_bộ tờ khai hải_quan ( điện_tử hoặc giấy ) của số_lượng hàng_hóa đã nhập_khẩu theo danh_mục ;
    + bản danh_mục và phiếu theo_dõi trừ lùi của cơ_quan hải_quan nơi làm thủ_tục nhập_khẩu lô hàng cuối_cùng trước khi thất_lạc ( 01 bản chụp có xác_nhận của cơ_quan hải_quan nơi nhập_khẩu ) .
    - khi làm thủ_tục hải_quan , người khai hải_quan nộp , xuất_trình cho cơ_quan hải_quan nơi đăng_ký tờ khai hải_quan các hồ_sơ sau :
    + hồ_sơ hải_quan theo quy_định hiện_hành ;
    + danh_mục hàng_hóa và phiếu theo_dõi trừ lùi đã đăng_ký với cơ_quan hải_quan ( bản giao người khai hải_quan ) để cơ_quan hải_quan làm thủ_tục thực_hiện...
    trường_hợp tôi làm mất danh_mục và phiếu theo_dõi trừ lùi hàng_hóa_nhập_khẩu dung_môi n - hexan dùng trong sản_xuất khô_dầu đậu_tương và dầu thực_vật , cám gạo trích ly và dầu cám thì cần làm những thủ_tục gì ?
    thẩm_quyền cấp giấy chứng_nhận cơ_sở đủ điều_kiện đăng_kiểm tàu cá là : tổng_cục thủy_sản . thẩm_quyền cấp giấy chứng_nhận cơ_sở đủ điều_kiện đăng_kiểm tàu cá ?
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512
        ],
        "matryoshka_weights": [
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Evaluation Dataset

json

  • Dataset: json
  • Size: 1,134 evaluation samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 4 tokens
    • mean: 127.89 tokens
    • max: 256 tokens
    • min: 4 tokens
    • mean: 26.48 tokens
    • max: 256 tokens
  • Samples:
    positive anchor
    việc thực_hiện thủ_tục tặng_thưởng bằng khen cấp bộ , ban , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương về thành_tích đột_xuất được tiến_hành như sau :
    bước 1 . vụ , phòng , ban thi_đua – khen_thưởng các bộ , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương tiếp_nhận đề_nghị khen_thưởng của các đơn_vị thực thuộc .
    bước 2 . thẩm_định hồ_sơ , xin ý_kiến các cơ_quan liên_quan , báo_cáo hội_đồng thi_đua khen_thưởng cùng cấp , tổng_hợp trình bộ_trưởng , thủ_trưởng đơn_vị , chủ_tịch ubnd tỉnh , thành_phố quyết_định khen_thưởng .
    bước 3 . khi có quyết_định của bộ_trưởng , thủ_trưởng đơn_vị , chủ_tịch ubnd tỉnh , thành_phố trực_thuộc trung_ương ; vụ , phòng , ban thi_đua – khen_thưởng các bộ , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương thông_báo quyết_định , viết bằng , đóng_dấu và cấp_phát cho đơn_vị trình khen .
    bước 4 . các trường_hợp không được khen_thưởng ( không đúng đối_tượng , không đủ tiêu_chuẩn , không đủ ...
    đề_nghị cho biết trình_tự thực_hiện thủ_tục tặng_thưởng bằng khen cấp bộ , ban , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương về thành_tích đột_xuất
    bông_thủy_tinh chống cháy là vật_liệu chống cháy , thuộc danh_mục phương_tiện pccc quy_định phụ_lục v nghị_định số 79 / 2014 / nđ - cp ngày 31 / 7 / 2014 quy_định chi_tiết thi_hành một_số điều của luật phòng cháy và chữa_cháy và luật sửa_đổi , bổ_sung một_số điều của luật phòng cháy và chữa_cháy . do đó , nếu đưa vào sử_dụng trong hạng_mục pccc của công_trình thì phải kiểm_định về pccc. tuy_nhiên , đối_với vật_liệu bông thủy_tinh cách_nhiệt chống cháy được các cơ_quan , tổ_chức , cá_nhân cần xem_xét tùy vào yêu_cầu cụ_thể của công_trình để đăng_ký kiểm_định “ tính nguy_hiểm cháy ” đối_với vật_liệu đó hoặc “ giới_hạn chịu_lửa ” của kết_cấu sử_dụng vật_liệu đó . thành_phần hồ_sơ đề_nghị kiểm_định được quy_định tại điểm a khoản 4 điều 18 thông_tư 66 / 2014 / tt - bca ngày 16 / 12 / 2014 quy_định chi_tiết thi_hành một_số điều của nghị_định số 79 / 2014 / nđ - cp ngày 31 / 7 / 2014 quy_định chi_tiết thi_hành một_số điều của luật phòng cháy và chữa_cháy và luật sửa_đổi , bổ_sung một_số điều ... bông_thủy_tinh cách_nhiệt chống cháy có phải kiểm_định không ? thành_phần hồ_sơ đề_nghị kiểm_định như thế_nào ?
    thẻ thường_trú không có thời_hạn nhưng định_kỳ 10 năm một lần , người nước_ngoài thường_trú phải đến nộp hồ_sơ tại phòng quản_lý xuất , nhập_cảnh công_an tỉnh , thành_phố trực_thuộc trung_ương để đề_nghị cấp đổi thẻ thường_trú . thẻ thường_trú có thời_hạn không ?
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512
        ],
        "matryoshka_weights": [
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 2
  • per_device_eval_batch_size: 2
  • gradient_accumulation_steps: 2
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • lr_scheduler_type: cosine
  • warmup_ratio: 0.1
  • fp16: True
  • tf32: False
  • load_best_model_at_end: True
  • optim: adamw_torch_fused
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 2
  • per_device_eval_batch_size: 2
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 2
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: cosine
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: False
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss dim_768_cosine_ndcg@10 dim_512_cosine_ndcg@10
0 0 - - 0.4688 0.4634
0.0039 10 0.0551 - - -
0.0078 20 0.5722 - - -
0.0118 30 0.2544 - - -
0.0157 40 0.0306 - - -
0.0196 50 0.1554 - - -
0.0235 60 0.0535 - - -
0.0275 70 0.1927 - - -
0.0314 80 0.0768 - - -
0.0353 90 0.1411 - - -
0.0392 100 0.2386 - - -
0.0431 110 0.1358 - - -
0.0471 120 0.1214 - - -
0.0510 130 0.1955 - - -
0.0549 140 0.4297 - - -
0.0588 150 0.0866 - - -
0.0627 160 0.052 - - -
0.0667 170 0.121 - - -
0.0706 180 0.2722 - - -
0.0745 190 0.0514 - - -
0.0784 200 0.2062 - - -
0.0824 210 0.0569 - - -
0.0863 220 0.368 - - -
0.0902 230 0.1357 - - -
0.0941 240 0.1182 - - -
0.0980 250 0.0097 - - -
0.1020 260 0.0219 - - -
0.1059 270 0.0105 - - -
0.1098 280 0.1609 - - -
0.1137 290 0.0722 - - -
0.1176 300 0.1336 - - -
0.1216 310 0.0086 - - -
0.1255 320 0.2396 - - -
0.1294 330 0.0123 - - -
0.1333 340 0.1965 - - -
0.1373 350 0.1262 - - -
0.1412 360 0.0818 - - -
0.1451 370 0.0572 - - -
0.1490 380 0.0453 - - -
0.1529 390 0.3129 - - -
0.1569 400 0.1045 - - -
0.1608 410 0.0828 - - -
0.1647 420 0.0025 - - -
0.1686 430 0.0181 - - -
0.1725 440 0.0145 - - -
0.1765 450 0.0782 - - -
0.1804 460 0.2925 - - -
0.1843 470 0.1163 - - -
0.1882 480 0.3702 - - -
0.1922 490 0.1053 - - -
0.1961 500 0.0028 - - -
0.2 510 0.3147 - - -
0.2039 520 0.0051 - - -
0.2078 530 0.0178 - - -
0.2118 540 0.0181 - - -
0.2157 550 0.0037 - - -
0.2196 560 0.016 - - -
0.2235 570 0.0536 - - -
0.2275 580 0.0268 - - -
0.2314 590 0.0679 - - -
0.2353 600 0.0447 - - -
0.2392 610 0.0544 - - -
0.2431 620 0.007 - - -
0.2471 630 0.0632 - - -
0.2510 640 0.2219 - - -
0.2549 650 0.0155 - - -
0.2588 660 0.0081 - - -
0.2627 670 0.0014 - - -
0.2667 680 0.1487 - - -
0.2706 690 0.2035 - - -
0.2745 700 0.0119 - - -
0.2784 710 0.015 - - -
0.2824 720 0.0102 - - -
0.2863 730 0.0077 - - -
0.2902 740 0.0496 - - -
0.2941 750 0.0006 - - -
0.2980 760 0.0598 - - -
0.3020 770 0.0107 - - -
0.3059 780 0.0425 - - -
0.3098 790 0.0165 - - -
0.3137 800 0.0512 - - -
0.3176 810 0.3316 - - -
0.3216 820 0.0011 - - -
0.3255 830 0.0092 - - -
0.3294 840 0.014 - - -
0.3333 850 0.0011 - - -
0.3373 860 0.003 - - -
0.3412 870 0.0058 - - -
0.3451 880 0.0746 - - -
0.3490 890 0.0003 - - -
0.3529 900 0.011 - - -
0.3569 910 0.0276 - - -
0.3608 920 0.0082 - - -
0.3647 930 0.0063 - - -
0.3686 940 0.0046 - - -
0.3725 950 0.0551 - - -
0.3765 960 0.0864 - - -
0.3804 970 0.0052 - - -
0.3843 980 0.018 - - -
0.3882 990 0.0492 - - -
0.3922 1000 0.0716 - - -
0.3961 1010 0.1435 - - -
0.4 1020 0.0439 - - -
0.4039 1030 0.0156 - - -
0.4078 1040 0.0728 - - -
0.4118 1050 0.0252 - - -
0.4157 1060 0.0204 - - -
0.4196 1070 0.0961 - - -
0.4235 1080 0.0016 - - -
0.4275 1090 0.0054 - - -
0.4314 1100 0.0032 - - -
0.4353 1110 0.0009 - - -
0.4392 1120 0.0134 - - -
0.4431 1130 0.0307 - - -
0.4471 1140 0.0632 - - -
0.4510 1150 0.0029 - - -
0.4549 1160 0.0045 - - -
0.4588 1170 0.0827 - - -
0.4627 1180 0.1412 - - -
0.4667 1190 0.0266 - - -
0.4706 1200 0.0462 - - -
0.4745 1210 0.3545 - - -
0.4784 1220 0.0292 - - -
0.4824 1230 0.0471 - - -
0.4863 1240 0.0034 - - -
0.4902 1250 0.0104 - - -
0.4941 1260 0.0019 - - -
0.4980 1270 0.0821 - - -
0.5020 1280 0.0363 - - -
0.5059 1290 0.0203 - - -
0.5098 1300 0.0322 - - -
0.5137 1310 0.0817 - - -
0.5176 1320 0.014 - - -
0.5216 1330 0.0963 - - -
0.5255 1340 0.0175 - - -
0.5294 1350 0.0086 - - -
0.5333 1360 0.0089 - - -
0.5373 1370 0.0057 - - -
0.5412 1380 0.0037 - - -
0.5451 1390 0.0105 - - -
0.5490 1400 0.0001 - - -
0.5529 1410 0.0168 - - -
0.5569 1420 0.201 - - -
0.5608 1430 0.024 - - -
0.5647 1440 0.0083 - - -
0.5686 1450 0.004 - - -
0.5725 1460 0.0394 - - -
0.5765 1470 0.0344 - - -
0.5804 1480 0.0084 - - -
0.5843 1490 0.0069 - - -
0.5882 1500 0.0074 - - -
0.5922 1510 0.123 - - -
0.5961 1520 0.0017 - - -
0.6 1530 0.0001 - - -
0.6039 1540 0.1312 - - -
0.6078 1550 0.1068 - - -
0.6118 1560 0.0013 - - -
0.6157 1570 0.0535 - - -
0.6196 1580 0.0161 - - -
0.6235 1590 0.0158 - - -
0.6275 1600 0.001 - - -
0.6314 1610 0.0159 - - -
0.6353 1620 0.1363 - - -
0.6392 1630 0.0582 - - -
0.6431 1640 0.0577 - - -
0.6471 1650 0.0523 - - -
0.6510 1660 0.0063 - - -
0.6549 1670 0.001 - - -
0.6588 1680 0.0013 - - -
0.6627 1690 0.0011 - - -
0.6667 1700 0.0248 - - -
0.6706 1710 0.1538 - - -
0.6745 1720 0.0428 - - -
0.6784 1730 0.022 - - -
0.6824 1740 0.2588 - - -
0.6863 1750 0.0023 - - -
0.6902 1760 0.175 - - -
0.6941 1770 0.018 - - -
0.6980 1780 0.0554 - - -
0.7020 1790 0.0996 - - -
0.7059 1800 0.0131 - - -
0.7098 1810 0.2192 - - -
0.7137 1820 0.0002 - - -
0.7176 1830 0.0055 - - -
0.7216 1840 0.151 - - -
0.7255 1850 0.1445 - - -
0.7294 1860 0.0023 - - -
0.7333 1870 0.0002 - - -
0.7373 1880 0.196 - - -
0.7412 1890 0.1941 - - -
0.7451 1900 0.0001 - - -
0.7490 1910 0.0019 - - -
0.7529 1920 0.0031 - - -
0.7569 1930 0.0014 - - -
0.7608 1940 0.0854 - - -
0.7647 1950 0.0533 - - -
0.7686 1960 0.0025 - - -
0.7725 1970 0.1148 - - -
0.7765 1980 0.0705 - - -
0.7804 1990 0.0008 - - -
0.7843 2000 0.0003 - - -
0.7882 2010 0.4504 - - -
0.7922 2020 0.1014 - - -
0.7961 2030 0.1145 - - -
0.8 2040 0.3442 - - -
0.8039 2050 0.0008 - - -
0.8078 2060 0.0042 - - -
0.8118 2070 0.0002 - - -
0.8157 2080 0.0005 - - -
0.8196 2090 0.0054 - - -
0.8235 2100 0.0563 - - -
0.8275 2110 0.002 - - -
0.8314 2120 0.0183 - - -
0.8353 2130 0.0076 - - -
0.8392 2140 0.0201 - - -
0.8431 2150 0.0372 - - -
0.8471 2160 0.0073 - - -
0.8510 2170 0.0286 - - -
0.8549 2180 0.0595 - - -
0.8588 2190 0.0139 - - -
0.8627 2200 0.0014 - - -
0.8667 2210 0.0004 - - -
0.8706 2220 0.0379 - - -
0.8745 2230 0.0636 - - -
0.8784 2240 0.0005 - - -
0.8824 2250 0.0048 - - -
0.8863 2260 0.0094 - - -
0.8902 2270 0.0058 - - -
0.8941 2280 0.0004 - - -
0.8980 2290 0.0002 - - -
0.9020 2300 0.1084 - - -
0.9059 2310 0.0789 - - -
0.9098 2320 0.038 - - -
0.9137 2330 0.0078 - - -
0.9176 2340 0.0279 - - -
0.9216 2350 0.0855 - - -
0.9255 2360 0.2273 - - -
0.9294 2370 0.0011 - - -
0.9333 2380 0.0553 - - -
0.9373 2390 0.0246 - - -
0.9412 2400 0.0047 - - -
0.9451 2410 0.0005 - - -
0.9490 2420 0.0029 - - -
0.9529 2430 0.0014 - - -
0.9569 2440 0.002 - - -
0.9608 2450 0.0041 - - -
0.9647 2460 0.0482 - - -
0.9686 2470 0.0 - - -
0.9725 2480 0.1675 - - -
0.9765 2490 0.0004 - - -
0.9804 2500 0.1591 - - -
0.9843 2510 0.1287 - - -
0.9882 2520 0.0278 - - -
0.9922 2530 0.0032 - - -
0.9961 2540 0.2288 - - -
1.0 2550 0.0066 0.0279 0.6408 0.6365
1.0039 2560 0.0005 - - -
1.0078 2570 0.0754 - - -
1.0118 2580 0.1652 - - -
1.0157 2590 0.0018 - - -
1.0196 2600 0.002 - - -
1.0235 2610 0.001 - - -
1.0275 2620 0.0214 - - -
1.0314 2630 0.0415 - - -
1.0353 2640 0.0001 - - -
1.0392 2650 0.0242 - - -
1.0431 2660 0.0003 - - -
1.0471 2670 0.0631 - - -
1.0510 2680 0.0003 - - -
1.0549 2690 0.4786 - - -
1.0588 2700 0.0001 - - -
1.0627 2710 0.0112 - - -
1.0667 2720 0.1316 - - -
1.0706 2730 0.0016 - - -
1.0745 2740 0.0025 - - -
1.0784 2750 0.3482 - - -
1.0824 2760 0.1165 - - -
1.0863 2770 0.0909 - - -
1.0902 2780 0.0019 - - -
1.0941 2790 0.0002 - - -
1.0980 2800 0.0011 - - -
1.1020 2810 0.0002 - - -
1.1059 2820 0.0064 - - -
1.1098 2830 0.2231 - - -
1.1137 2840 0.0007 - - -
1.1176 2850 0.0072 - - -
1.1216 2860 0.0008 - - -
1.1255 2870 0.0303 - - -
1.1294 2880 0.0284 - - -
1.1333 2890 0.0255 - - -
1.1373 2900 0.005 - - -
1.1412 2910 0.0002 - - -
1.1451 2920 0.1946 - - -
1.1490 2930 0.0066 - - -
1.1529 2940 0.0579 - - -
1.1569 2950 0.0024 - - -
1.1608 2960 0.0008 - - -
1.1647 2970 0.0489 - - -
1.1686 2980 0.0015 - - -
1.1725 2990 0.0066 - - -
1.1765 3000 0.0022 - - -
1.1804 3010 0.0458 - - -
1.1843 3020 0.0088 - - -
1.1882 3030 0.146 - - -
1.1922 3040 0.0059 - - -
1.1961 3050 0.0974 - - -
1.2 3060 0.0782 - - -
1.2039 3070 0.0007 - - -
1.2078 3080 0.0005 - - -
1.2118 3090 0.0001 - - -
1.2157 3100 0.0006 - - -
1.2196 3110 0.0016 - - -
1.2235 3120 0.0177 - - -
1.2275 3130 0.001 - - -
1.2314 3140 0.0018 - - -
1.2353 3150 0.0273 - - -
1.2392 3160 0.0021 - - -
1.2431 3170 0.0005 - - -
1.2471 3180 0.0479 - - -
1.2510 3190 0.0336 - - -
1.2549 3200 0.0113 - - -
1.2588 3210 0.0004 - - -
1.2627 3220 0.0001 - - -
1.2667 3230 0.0066 - - -
1.2706 3240 0.0019 - - -
1.2745 3250 0.0013 - - -
1.2784 3260 0.002 - - -
1.2824 3270 0.0005 - - -
1.2863 3280 0.0031 - - -
1.2902 3290 0.0004 - - -
1.2941 3300 0.0001 - - -
1.2980 3310 0.0002 - - -
1.3020 3320 0.0032 - - -
1.3059 3330 0.0022 - - -
1.3098 3340 0.0002 - - -
1.3137 3350 0.0024 - - -
1.3176 3360 0.003 - - -
1.3216 3370 0.0109 - - -
1.3255 3380 0.0004 - - -
1.3294 3390 0.0012 - - -
1.3333 3400 0.0005 - - -
1.3373 3410 0.0023 - - -
1.3412 3420 0.0003 - - -
1.3451 3430 0.0162 - - -
1.3490 3440 0.001 - - -
1.3529 3450 0.0003 - - -
1.3569 3460 0.0001 - - -
1.3608 3470 0.0 - - -
1.3647 3480 0.004 - - -
1.3686 3490 0.0 - - -
1.3725 3500 0.0557 - - -
1.3765 3510 0.0001 - - -
1.3804 3520 0.0182 - - -
1.3843 3530 0.0001 - - -
1.3882 3540 0.0003 - - -
1.3922 3550 0.0026 - - -
1.3961 3560 0.0045 - - -
1.4 3570 0.0 - - -
1.4039 3580 0.0011 - - -
1.4078 3590 0.0022 - - -
1.4118 3600 0.1153 - - -
1.4157 3610 0.0009 - - -
1.4196 3620 0.0018 - - -
1.4235 3630 0.0003 - - -
1.4275 3640 0.0049 - - -
1.4314 3650 0.0003 - - -
1.4353 3660 0.0012 - - -
1.4392 3670 0.0 - - -
1.4431 3680 0.0 - - -
1.4471 3690 0.0025 - - -
1.4510 3700 0.0001 - - -
1.4549 3710 0.0046 - - -
1.4588 3720 0.0001 - - -
1.4627 3730 0.166 - - -
1.4667 3740 0.0003 - - -
1.4706 3750 0.0001 - - -
1.4745 3760 0.0035 - - -
1.4784 3770 0.0001 - - -
1.4824 3780 0.0009 - - -
1.4863 3790 0.0002 - - -
1.4902 3800 0.0001 - - -
1.4941 3810 0.0003 - - -
1.4980 3820 0.0001 - - -
1.5020 3830 0.0 - - -
1.5059 3840 0.0022 - - -
1.5098 3850 0.0009 - - -
1.5137 3860 0.0006 - - -
1.5176 3870 0.0055 - - -
1.5216 3880 0.0002 - - -
1.5255 3890 0.0 - - -
1.5294 3900 0.0034 - - -
1.5333 3910 0.0001 - - -
1.5373 3920 0.0012 - - -
1.5412 3930 0.0001 - - -
1.5451 3940 0.0065 - - -
1.5490 3950 0.0001 - - -
1.5529 3960 0.0007 - - -
1.5569 3970 0.0068 - - -
1.5608 3980 0.0043 - - -
1.5647 3990 0.0095 - - -
1.5686 4000 0.0001 - - -
1.5725 4010 0.0035 - - -
1.5765 4020 0.0019 - - -
1.5804 4030 0.0003 - - -
1.5843 4040 0.0041 - - -
1.5882 4050 0.0 - - -
1.5922 4060 0.0004 - - -
1.5961 4070 0.0001 - - -
1.6 4080 0.0001 - - -
1.6039 4090 0.0003 - - -
1.6078 4100 0.0327 - - -
1.6118 4110 0.0002 - - -
1.6157 4120 0.0004 - - -
1.6196 4130 0.0004 - - -
1.6235 4140 0.0028 - - -
1.6275 4150 0.0 - - -
1.6314 4160 0.0001 - - -
1.6353 4170 0.0023 - - -
1.6392 4180 0.0008 - - -
1.6431 4190 0.0031 - - -
1.6471 4200 0.0003 - - -
1.6510 4210 0.0002 - - -
1.6549 4220 0.0001 - - -
1.6588 4230 0.0001 - - -
1.6627 4240 0.0001 - - -
1.6667 4250 0.0007 - - -
1.6706 4260 0.0003 - - -
1.6745 4270 0.0005 - - -
1.6784 4280 0.0002 - - -
1.6824 4290 0.0007 - - -
1.6863 4300 0.0001 - - -
1.6902 4310 0.0007 - - -
1.6941 4320 0.0001 - - -
1.6980 4330 0.0013 - - -
1.7020 4340 0.033 - - -
1.7059 4350 0.0001 - - -
1.7098 4360 0.0019 - - -
1.7137 4370 0.0001 - - -
1.7176 4380 0.0006 - - -
1.7216 4390 0.0 - - -
1.7255 4400 0.0292 - - -
1.7294 4410 0.0026 - - -
1.7333 4420 0.0001 - - -
1.7373 4430 0.0002 - - -
1.7412 4440 0.0006 - - -
1.7451 4450 0.0002 - - -
1.7490 4460 0.0003 - - -
1.7529 4470 0.0001 - - -
1.7569 4480 0.0002 - - -
1.7608 4490 0.0001 - - -
1.7647 4500 0.0003 - - -
1.7686 4510 0.0 - - -
1.7725 4520 0.0004 - - -
1.7765 4530 0.0003 - - -
1.7804 4540 0.0001 - - -
1.7843 4550 0.0001 - - -
1.7882 4560 0.0011 - - -
1.7922 4570 0.0001 - - -
1.7961 4580 0.001 - - -
1.8 4590 0.0687 - - -
1.8039 4600 0.0005 - - -
1.8078 4610 0.0011 - - -
1.8118 4620 0.0004 - - -
1.8157 4630 0.0003 - - -
1.8196 4640 0.0001 - - -
1.8235 4650 0.0003 - - -
1.8275 4660 0.0 - - -
1.8314 4670 0.0009 - - -
1.8353 4680 0.0 - - -
1.8392 4690 0.0001 - - -
1.8431 4700 0.0 - - -
1.8471 4710 0.0 - - -
1.8510 4720 0.0003 - - -
1.8549 4730 0.0008 - - -
1.8588 4740 0.0003 - - -
1.8627 4750 0.0 - - -
1.8667 4760 0.0536 - - -
1.8706 4770 0.0001 - - -
1.8745 4780 0.0003 - - -
1.8784 4790 0.0017 - - -
1.8824 4800 0.0002 - - -
1.8863 4810 0.0001 - - -
1.8902 4820 0.0003 - - -
1.8941 4830 0.0 - - -
1.8980 4840 0.0002 - - -
1.9020 4850 0.0002 - - -
1.9059 4860 0.001 - - -
1.9098 4870 0.0 - - -
1.9137 4880 0.0017 - - -
1.9176 4890 0.0 - - -
1.9216 4900 0.0079 - - -
1.9255 4910 0.001 - - -
1.9294 4920 0.0001 - - -
1.9333 4930 0.0135 - - -
1.9373 4940 0.0007 - - -
1.9412 4950 0.0001 - - -
1.9451 4960 0.0 - - -
1.9490 4970 0.0001 - - -
1.9529 4980 0.0 - - -
1.9569 4990 0.0001 - - -
1.9608 5000 0.0003 - - -
1.9647 5010 0.0002 - - -
1.9686 5020 0.0001 - - -
1.9725 5030 0.0007 - - -
1.9765 5040 0.0014 - - -
1.9804 5050 0.0432 - - -
1.9843 5060 0.0048 - - -
1.9882 5070 0.0002 - - -
1.9922 5080 0.0005 - - -
1.9961 5090 0.0007 - - -
2.0 5100 0.0 0.0235 0.6555 0.6538
2.0039 5110 0.0 - - -
2.0078 5120 0.0002 - - -
2.0118 5130 0.0006 - - -
2.0157 5140 0.0057 - - -
2.0196 5150 0.0005 - - -
2.0235 5160 0.0 - - -
2.0275 5170 0.0039 - - -
2.0314 5180 0.0007 - - -
2.0353 5190 0.0001 - - -
2.0392 5200 0.003 - - -
2.0431 5210 0.0 - - -
2.0471 5220 0.0001 - - -
2.0510 5230 0.0001 - - -
2.0549 5240 0.0016 - - -
2.0588 5250 0.0 - - -
2.0627 5260 0.0014 - - -
2.0667 5270 0.0001 - - -
2.0706 5280 0.0001 - - -
2.0745 5290 0.0 - - -
2.0784 5300 0.0114 - - -
2.0824 5310 0.011 - - -
2.0863 5320 0.0153 - - -
2.0902 5330 0.0001 - - -
2.0941 5340 0.0004 - - -
2.0980 5350 0.0002 - - -
2.1020 5360 0.0 - - -
2.1059 5370 0.0172 - - -
2.1098 5380 0.0007 - - -
2.1137 5390 0.0001 - - -
2.1176 5400 0.0002 - - -
2.1216 5410 0.0002 - - -
2.1255 5420 0.0009 - - -
2.1294 5430 0.0001 - - -
2.1333 5440 0.0001 - - -
2.1373 5450 0.0002 - - -
2.1412 5460 0.0 - - -
2.1451 5470 0.0001 - - -
2.1490 5480 0.0008 - - -
2.1529 5490 0.0003 - - -
2.1569 5500 0.0001 - - -
2.1608 5510 0.0001 - - -
2.1647 5520 0.0009 - - -
2.1686 5530 0.0001 - - -
2.1725 5540 0.0001 - - -
2.1765 5550 0.0003 - - -
2.1804 5560 0.0004 - - -
2.1843 5570 0.0001 - - -
2.1882 5580 0.1037 - - -
2.1922 5590 0.0053 - - -
2.1961 5600 0.0 - - -
2.2 5610 0.0019 - - -
2.2039 5620 0.0001 - - -
2.2078 5630 0.0013 - - -
2.2118 5640 0.0002 - - -
2.2157 5650 0.0002 - - -
2.2196 5660 0.0 - - -
2.2235 5670 0.0 - - -
2.2275 5680 0.0003 - - -
2.2314 5690 0.0 - - -
2.2353 5700 0.0025 - - -
2.2392 5710 0.0002 - - -
2.2431 5720 0.0007 - - -
2.2471 5730 0.0001 - - -
2.2510 5740 0.0002 - - -
2.2549 5750 0.0006 - - -
2.2588 5760 0.0002 - - -
2.2627 5770 0.0 - - -
2.2667 5780 0.0 - - -
2.2706 5790 0.0018 - - -
2.2745 5800 0.0 - - -
2.2784 5810 0.0002 - - -
2.2824 5820 0.0 - - -
2.2863 5830 0.0 - - -
2.2902 5840 0.0012 - - -
2.2941 5850 0.0001 - - -
2.2980 5860 0.0002 - - -
2.3020 5870 0.0001 - - -
2.3059 5880 0.0001 - - -
2.3098 5890 0.0001 - - -
2.3137 5900 0.0001 - - -
2.3176 5910 0.0001 - - -
2.3216 5920 0.0003 - - -
2.3255 5930 0.0003 - - -
2.3294 5940 0.0002 - - -
2.3333 5950 0.0001 - - -
2.3373 5960 0.0003 - - -
2.3412 5970 0.0004 - - -
2.3451 5980 0.0778 - - -
2.3490 5990 0.0 - - -
2.3529 6000 0.0001 - - -
2.3569 6010 0.0 - - -
2.3608 6020 0.0 - - -
2.3647 6030 0.0 - - -
2.3686 6040 0.0 - - -
2.3725 6050 0.0021 - - -
2.3765 6060 0.0001 - - -
2.3804 6070 0.0002 - - -
2.3843 6080 0.0003 - - -
2.3882 6090 0.0 - - -
2.3922 6100 0.0002 - - -
2.3961 6110 0.0001 - - -
2.4 6120 0.0002 - - -
2.4039 6130 0.0002 - - -
2.4078 6140 0.0011 - - -
2.4118 6150 0.0007 - - -
2.4157 6160 0.0009 - - -
2.4196 6170 0.0007 - - -
2.4235 6180 0.0 - - -
2.4275 6190 0.0002 - - -
2.4314 6200 0.0001 - - -
2.4353 6210 0.0001 - - -
2.4392 6220 0.0005 - - -
2.4431 6230 0.0005 - - -
2.4471 6240 0.0001 - - -
2.4510 6250 0.0013 - - -
2.4549 6260 0.0001 - - -
2.4588 6270 0.0002 - - -
2.4627 6280 0.0 - - -
2.4667 6290 0.0009 - - -
2.4706 6300 0.0001 - - -
2.4745 6310 0.0004 - - -
2.4784 6320 0.0001 - - -
2.4824 6330 0.0008 - - -
2.4863 6340 0.0001 - - -
2.4902 6350 0.0015 - - -
2.4941 6360 0.0001 - - -
2.4980 6370 0.0019 - - -
2.5020 6380 0.0 - - -
2.5059 6390 0.0003 - - -
2.5098 6400 0.0003 - - -
2.5137 6410 0.0 - - -
2.5176 6420 0.0002 - - -
2.5216 6430 0.0007 - - -
2.5255 6440 0.0007 - - -
2.5294 6450 0.0004 - - -
2.5333 6460 0.0001 - - -
2.5373 6470 0.0 - - -
2.5412 6480 0.0 - - -
2.5451 6490 0.0004 - - -
2.5490 6500 0.0005 - - -
2.5529 6510 0.0 - - -
2.5569 6520 0.0001 - - -
2.5608 6530 0.0001 - - -
2.5647 6540 0.0 - - -
2.5686 6550 0.0001 - - -
2.5725 6560 0.0 - - -
2.5765 6570 0.0003 - - -
2.5804 6580 0.0001 - - -
2.5843 6590 0.0002 - - -
2.5882 6600 0.0001 - - -
2.5922 6610 0.0006 - - -
2.5961 6620 0.0 - - -
2.6 6630 0.0 - - -
2.6039 6640 0.0017 - - -
2.6078 6650 0.0191 - - -
2.6118 6660 0.0001 - - -
2.6157 6670 0.0001 - - -
2.6196 6680 0.0 - - -
2.6235 6690 0.0007 - - -
2.6275 6700 0.0 - - -
2.6314 6710 0.0 - - -
2.6353 6720 0.0004 - - -
2.6392 6730 0.0001 - - -
2.6431 6740 0.0006 - - -
2.6471 6750 0.0002 - - -
2.6510 6760 0.0 - - -
2.6549 6770 0.0001 - - -
2.6588 6780 0.0001 - - -
2.6627 6790 0.0001 - - -
2.6667 6800 0.0 - - -
2.6706 6810 0.0 - - -
2.6745 6820 0.0005 - - -
2.6784 6830 0.0 - - -
2.6824 6840 0.0004 - - -
2.6863 6850 0.0 - - -
2.6902 6860 0.0 - - -
2.6941 6870 0.0024 - - -
2.6980 6880 0.0 - - -
2.7020 6890 0.0 - - -
2.7059 6900 0.0001 - - -
2.7098 6910 0.0001 - - -
2.7137 6920 0.0 - - -
2.7176 6930 0.0001 - - -
2.7216 6940 0.0002 - - -
2.7255 6950 0.0 - - -
2.7294 6960 0.0001 - - -
2.7333 6970 0.0001 - - -
2.7373 6980 0.0001 - - -
2.7412 6990 0.0 - - -
2.7451 7000 0.0001 - - -
2.7490 7010 0.0001 - - -
2.7529 7020 0.0 - - -
2.7569 7030 0.0 - - -
2.7608 7040 0.0002 - - -
2.7647 7050 0.0001 - - -
2.7686 7060 0.0 - - -
2.7725 7070 0.0007 - - -
2.7765 7080 0.0 - - -
2.7804 7090 0.0 - - -
2.7843 7100 0.0 - - -
2.7882 7110 0.0004 - - -
2.7922 7120 0.0001 - - -
2.7961 7130 0.0 - - -
2.8 7140 0.001 - - -
2.8039 7150 0.0 - - -
2.8078 7160 0.0 - - -
2.8118 7170 0.0 - - -
2.8157 7180 0.0001 - - -
2.8196 7190 0.0 - - -
2.8235 7200 0.0 - - -
2.8275 7210 0.006 - - -
2.8314 7220 0.0001 - - -
2.8353 7230 0.0 - - -
2.8392 7240 0.0 - - -
2.8431 7250 0.0001 - - -
2.8471 7260 0.0 - - -
2.8510 7270 0.0001 - - -
2.8549 7280 0.0013 - - -
2.8588 7290 0.0005 - - -
2.8627 7300 0.0 - - -
2.8667 7310 0.0001 - - -
2.8706 7320 0.0004 - - -
2.8745 7330 0.0002 - - -
2.8784 7340 0.0 - - -
2.8824 7350 0.0 - - -
2.8863 7360 0.0001 - - -
2.8902 7370 0.0 - - -
2.8941 7380 0.0 - - -
2.8980 7390 0.0 - - -
2.9020 7400 0.0 - - -
2.9059 7410 0.0 - - -
2.9098 7420 0.0 - - -
2.9137 7430 0.0 - - -
2.9176 7440 0.0001 - - -
2.9216 7450 0.0008 - - -
2.9255 7460 0.0004 - - -
2.9294 7470 0.0001 - - -
2.9333 7480 0.0025 - - -
2.9373 7490 0.0002 - - -
2.9412 7500 0.0 - - -
2.9451 7510 0.0 - - -
2.9490 7520 0.0 - - -
2.9529 7530 0.0 - - -
2.9569 7540 0.0 - - -
2.9608 7550 0.0001 - - -
2.9647 7560 0.0001 - - -
2.9686 7570 0.0 - - -
2.9725 7580 0.0001 - - -
2.9765 7590 0.0007 - - -
2.9804 7600 0.0004 - - -
2.9843 7610 0.0036 - - -
2.9882 7620 0.0004 - - -
2.9922 7630 0.0002 - - -
2.9961 7640 0.0005 - - -
3.0 7650 0.0 0.0285 0.6527 0.6551
3.0039 7660 0.0001 - - -
3.0078 7670 0.0003 - - -
3.0118 7680 0.0 - - -
3.0157 7690 0.0005 - - -
3.0196 7700 0.0 - - -
3.0235 7710 0.0 - - -
3.0275 7720 0.0 - - -
3.0314 7730 0.0 - - -
3.0353 7740 0.0001 - - -
3.0392 7750 0.0002 - - -
3.0431 7760 0.0 - - -
3.0471 7770 0.0002 - - -
3.0510 7780 0.0003 - - -
3.0549 7790 0.0 - - -
3.0588 7800 0.0001 - - -
3.0627 7810 0.0001 - - -
3.0667 7820 0.0 - - -
3.0706 7830 0.0001 - - -
3.0745 7840 0.0 - - -
3.0784 7850 0.0 - - -
3.0824 7860 0.0 - - -
3.0863 7870 0.0138 - - -
3.0902 7880 0.0 - - -
3.0941 7890 0.0 - - -
3.0980 7900 0.0 - - -
3.1020 7910 0.0 - - -
3.1059 7920 0.0 - - -
3.1098 7930 0.0001 - - -
3.1137 7940 0.0 - - -
3.1176 7950 0.0021 - - -
3.1216 7960 0.0 - - -
3.1255 7970 0.0045 - - -
3.1294 7980 0.0001 - - -
3.1333 7990 0.0001 - - -
3.1373 8000 0.0002 - - -
3.1412 8010 0.0 - - -
3.1451 8020 0.0006 - - -
3.1490 8030 0.0001 - - -
3.1529 8040 0.0 - - -
3.1569 8050 0.0002 - - -
3.1608 8060 0.0 - - -
3.1647 8070 0.0 - - -
3.1686 8080 0.0003 - - -
3.1725 8090 0.0001 - - -
3.1765 8100 0.0002 - - -
3.1804 8110 0.0005 - - -
3.1843 8120 0.0 - - -
3.1882 8130 0.0 - - -
3.1922 8140 0.0001 - - -
3.1961 8150 0.0 - - -
3.2 8160 0.0001 - - -
3.2039 8170 0.0006 - - -
3.2078 8180 0.0 - - -
3.2118 8190 0.0 - - -
3.2157 8200 0.0 - - -
3.2196 8210 0.0002 - - -
3.2235 8220 0.0001 - - -
3.2275 8230 0.0002 - - -
3.2314 8240 0.0 - - -
3.2353 8250 0.0 - - -
3.2392 8260 0.0 - - -
3.2431 8270 0.0 - - -
3.2471 8280 0.0 - - -
3.2510 8290 0.0004 - - -
3.2549 8300 0.0001 - - -
3.2588 8310 0.0003 - - -
3.2627 8320 0.0 - - -
3.2667 8330 0.0 - - -
3.2706 8340 0.0 - - -
3.2745 8350 0.0 - - -
3.2784 8360 0.0001 - - -
3.2824 8370 0.0 - - -
3.2863 8380 0.0002 - - -
3.2902 8390 0.0 - - -
3.2941 8400 0.0004 - - -
3.2980 8410 0.0 - - -
3.3020 8420 0.0001 - - -
3.3059 8430 0.0 - - -
3.3098 8440 0.0 - - -
3.3137 8450 0.0001 - - -
3.3176 8460 0.0001 - - -
3.3216 8470 0.0002 - - -
3.3255 8480 0.0001 - - -
3.3294 8490 0.0 - - -
3.3333 8500 0.0 - - -
3.3373 8510 0.0 - - -
3.3412 8520 0.0001 - - -
3.3451 8530 0.0001 - - -
3.3490 8540 0.0 - - -
3.3529 8550 0.0 - - -
3.3569 8560 0.0001 - - -
3.3608 8570 0.0 - - -
3.3647 8580 0.0001 - - -
3.3686 8590 0.0001 - - -
3.3725 8600 0.0003 - - -
3.3765 8610 0.0004 - - -
3.3804 8620 0.0 - - -
3.3843 8630 0.0 - - -
3.3882 8640 0.0 - - -
3.3922 8650 0.0 - - -
3.3961 8660 0.0001 - - -
3.4 8670 0.0001 - - -
3.4039 8680 0.0 - - -
3.4078 8690 0.0 - - -
3.4118 8700 0.0001 - - -
3.4157 8710 0.0 - - -
3.4196 8720 0.002 - - -
3.4235 8730 0.0005 - - -
3.4275 8740 0.0047 - - -
3.4314 8750 0.0 - - -
3.4353 8760 0.0 - - -
3.4392 8770 0.0001 - - -
3.4431 8780 0.0 - - -
3.4471 8790 0.0003 - - -
3.4510 8800 0.0 - - -
3.4549 8810 0.0 - - -
3.4588 8820 0.0 - - -
3.4627 8830 0.0 - - -
3.4667 8840 0.0 - - -
3.4706 8850 0.0 - - -
3.4745 8860 0.0 - - -
3.4784 8870 0.0003 - - -
3.4824 8880 0.0 - - -
3.4863 8890 0.0 - - -
3.4902 8900 0.0001 - - -
3.4941 8910 0.0 - - -
3.4980 8920 0.0 - - -
3.5020 8930 0.0 - - -
3.5059 8940 0.0 - - -
3.5098 8950 0.0 - - -
3.5137 8960 0.0001 - - -
3.5176 8970 0.0 - - -
3.5216 8980 0.0001 - - -
3.5255 8990 0.0 - - -
3.5294 9000 0.0 - - -
3.5333 9010 0.0 - - -
3.5373 9020 0.0 - - -
3.5412 9030 0.0 - - -
3.5451 9040 0.0 - - -
3.5490 9050 0.0 - - -
3.5529 9060 0.0 - - -
3.5569 9070 0.0 - - -
3.5608 9080 0.0 - - -
3.5647 9090 0.0 - - -
3.5686 9100 0.0 - - -
3.5725 9110 0.0 - - -
3.5765 9120 0.0003 - - -
3.5804 9130 0.0 - - -
3.5843 9140 0.0 - - -
3.5882 9150 0.0 - - -
3.5922 9160 0.0 - - -
3.5961 9170 0.0 - - -
3.6 9180 0.0 - - -
3.6039 9190 0.0 - - -
3.6078 9200 0.0001 - - -
3.6118 9210 0.0 - - -
3.6157 9220 0.0 - - -
3.6196 9230 0.0 - - -
3.6235 9240 0.0 - - -
3.6275 9250 0.0 - - -
3.6314 9260 0.0 - - -
3.6353 9270 0.0 - - -
3.6392 9280 0.0002 - - -
3.6431 9290 0.0 - - -
3.6471 9300 0.0 - - -
3.6510 9310 0.0 - - -
3.6549 9320 0.0 - - -
3.6588 9330 0.0 - - -
3.6627 9340 0.0 - - -
3.6667 9350 0.0001 - - -
3.6706 9360 0.0 - - -
3.6745 9370 0.0 - - -
3.6784 9380 0.0 - - -
3.6824 9390 0.0 - - -
3.6863 9400 0.0 - - -
3.6902 9410 0.0 - - -
3.6941 9420 0.0 - - -
3.6980 9430 0.0001 - - -
3.7020 9440 0.0 - - -
3.7059 9450 0.0 - - -
3.7098 9460 0.0 - - -
3.7137 9470 0.0 - - -
3.7176 9480 0.0 - - -
3.7216 9490 0.0 - - -
3.7255 9500 0.0 - - -
3.7294 9510 0.0 - - -
3.7333 9520 0.0 - - -
3.7373 9530 0.0 - - -
3.7412 9540 0.0 - - -
3.7451 9550 0.0 - - -
3.7490 9560 0.0 - - -
3.7529 9570 0.0 - - -
3.7569 9580 0.0 - - -
3.7608 9590 0.0 - - -
3.7647 9600 0.0 - - -
3.7686 9610 0.0 - - -
3.7725 9620 0.0 - - -
3.7765 9630 0.0 - - -
3.7804 9640 0.0 - - -
3.7843 9650 0.0 - - -
3.7882 9660 0.0 - - -
3.7922 9670 0.0 - - -
3.7961 9680 0.0 - - -
3.8 9690 0.0002 - - -
3.8039 9700 0.0 - - -
3.8078 9710 0.0 - - -
3.8118 9720 0.0 - - -
3.8157 9730 0.0 - - -
3.8196 9740 0.0 - - -
3.8235 9750 0.0 - - -
3.8275 9760 0.0 - - -
3.8314 9770 0.0 - - -
3.8353 9780 0.0 - - -
3.8392 9790 0.0 - - -
3.8431 9800 0.0 - - -
3.8471 9810 0.0 - - -
3.8510 9820 0.0 - - -
3.8549 9830 0.0001 - - -
3.8588 9840 0.0 - - -
3.8627 9850 0.0 - - -
3.8667 9860 0.0 - - -
3.8706 9870 0.0 - - -
3.8745 9880 0.0001 - - -
3.8784 9890 0.0 - - -
3.8824 9900 0.0 - - -
3.8863 9910 0.0 - - -
3.8902 9920 0.0 - - -
3.8941 9930 0.0 - - -
3.8980 9940 0.0001 - - -
3.9020 9950 0.0001 - - -
3.9059 9960 0.0001 - - -
3.9098 9970 0.0001 - - -
3.9137 9980 0.0 - - -
3.9176 9990 0.0 - - -
3.9216 10000 0.0004 - - -
3.9255 10010 0.0 - - -
3.9294 10020 0.0 - - -
3.9333 10030 0.0 - - -
3.9373 10040 0.0 - - -
3.9412 10050 0.0 - - -
3.9451 10060 0.0 - - -
3.9490 10070 0.0 - - -
3.9529 10080 0.0 - - -
3.9569 10090 0.0 - - -
3.9608 10100 0.0 - - -
3.9647 10110 0.0 - - -
3.9686 10120 0.0 - - -
3.9725 10130 0.0 - - -
3.9765 10140 0.0 - - -
3.9804 10150 0.0 - - -
3.9843 10160 0.0 - - -
3.9882 10170 0.0 - - -
3.9922 10180 0.0 - - -
3.9961 10190 0.0 - - -
4.0 10200 0.0 0.0227 0.6727 0.6703
4.0039 10210 0.0 - - -
4.0078 10220 0.0001 - - -
4.0118 10230 0.0 - - -
4.0157 10240 0.0 - - -
4.0196 10250 0.0 - - -
4.0235 10260 0.0 - - -
4.0275 10270 0.0 - - -
4.0314 10280 0.0001 - - -
4.0353 10290 0.0 - - -
4.0392 10300 0.0 - - -
4.0431 10310 0.0 - - -
4.0471 10320 0.0 - - -
4.0510 10330 0.0001 - - -
4.0549 10340 0.0 - - -
4.0588 10350 0.0 - - -
4.0627 10360 0.0002 - - -
4.0667 10370 0.0001 - - -
4.0706 10380 0.0 - - -
4.0745 10390 0.0 - - -
4.0784 10400 0.0 - - -
4.0824 10410 0.0 - - -
4.0863 10420 0.0 - - -
4.0902 10430 0.0 - - -
4.0941 10440 0.0 - - -
4.0980 10450 0.0 - - -
4.1020 10460 0.0 - - -
4.1059 10470 0.0 - - -
4.1098 10480 0.0 - - -
4.1137 10490 0.0 - - -
4.1176 10500 0.0 - - -
4.1216 10510 0.0001 - - -
4.1255 10520 0.0011 - - -
4.1294 10530 0.0001 - - -
4.1333 10540 0.0 - - -
4.1373 10550 0.0 - - -
4.1412 10560 0.0 - - -
4.1451 10570 0.0 - - -
4.1490 10580 0.0 - - -
4.1529 10590 0.0 - - -
4.1569 10600 0.0 - - -
4.1608 10610 0.0 - - -
4.1647 10620 0.0 - - -
4.1686 10630 0.0 - - -
4.1725 10640 0.0 - - -
4.1765 10650 0.0 - - -
4.1804 10660 0.0 - - -
4.1843 10670 0.0 - - -
4.1882 10680 0.0001 - - -
4.1922 10690 0.0 - - -
4.1961 10700 0.0 - - -
4.2 10710 0.0 - - -
4.2039 10720 0.0 - - -
4.2078 10730 0.0 - - -
4.2118 10740 0.0 - - -
4.2157 10750 0.0 - - -
4.2196 10760 0.0 - - -
4.2235 10770 0.0001 - - -
4.2275 10780 0.0 - - -
4.2314 10790 0.0 - - -
4.2353 10800 0.0 - - -
4.2392 10810 0.0 - - -
4.2431 10820 0.0 - - -
4.2471 10830 0.0 - - -
4.2510 10840 0.0 - - -
4.2549 10850 0.0 - - -
4.2588 10860 0.0 - - -
4.2627 10870 0.0 - - -
4.2667 10880 0.0001 - - -
4.2706 10890 0.0 - - -
4.2745 10900 0.0 - - -
4.2784 10910 0.0 - - -
4.2824 10920 0.0 - - -
4.2863 10930 0.0 - - -
4.2902 10940 0.0 - - -
4.2941 10950 0.0 - - -
4.2980 10960 0.0 - - -
4.3020 10970 0.0004 - - -
4.3059 10980 0.0 - - -
4.3098 10990 0.0 - - -
4.3137 11000 0.0 - - -
4.3176 11010 0.0 - - -
4.3216 11020 0.0 - - -
4.3255 11030 0.0 - - -
4.3294 11040 0.0 - - -
4.3333 11050 0.0001 - - -
4.3373 11060 0.0002 - - -
4.3412 11070 0.0 - - -
4.3451 11080 0.0 - - -
4.3490 11090 0.0 - - -
4.3529 11100 0.0 - - -
4.3569 11110 0.0 - - -
4.3608 11120 0.0 - - -
4.3647 11130 0.0 - - -
4.3686 11140 0.0 - - -
4.3725 11150 0.0 - - -
4.3765 11160 0.0 - - -
4.3804 11170 0.0001 - - -
4.3843 11180 0.0 - - -
4.3882 11190 0.0 - - -
4.3922 11200 0.0 - - -
4.3961 11210 0.0 - - -
4.4 11220 0.0 - - -
4.4039 11230 0.0 - - -
4.4078 11240 0.0 - - -
4.4118 11250 0.0 - - -
4.4157 11260 0.0 - - -
4.4196 11270 0.0003 - - -
4.4235 11280 0.0 - - -
4.4275 11290 0.0 - - -
4.4314 11300 0.0 - - -
4.4353 11310 0.0004 - - -
4.4392 11320 0.0 - - -
4.4431 11330 0.0 - - -
4.4471 11340 0.0001 - - -
4.4510 11350 0.0 - - -
4.4549 11360 0.0 - - -
4.4588 11370 0.0 - - -
4.4627 11380 0.0 - - -
4.4667 11390 0.0 - - -
4.4706 11400 0.0 - - -
4.4745 11410 0.0 - - -
4.4784 11420 0.0 - - -
4.4824 11430 0.0 - - -
4.4863 11440 0.0 - - -
4.4902 11450 0.0 - - -
4.4941 11460 0.0 - - -
4.4980 11470 0.0 - - -
4.5020 11480 0.0 - - -
4.5059 11490 0.0 - - -
4.5098 11500 0.0 - - -
4.5137 11510 0.0 - - -
4.5176 11520 0.0 - - -
4.5216 11530 0.0 - - -
4.5255 11540 0.0 - - -
4.5294 11550 0.0 - - -
4.5333 11560 0.0 - - -
4.5373 11570 0.0 - - -
4.5412 11580 0.0 - - -
4.5451 11590 0.0 - - -
4.5490 11600 0.0 - - -
4.5529 11610 0.0 - - -
4.5569 11620 0.0 - - -
4.5608 11630 0.0 - - -
4.5647 11640 0.0 - - -
4.5686 11650 0.0 - - -
4.5725 11660 0.0 - - -
4.5765 11670 0.0 - - -
4.5804 11680 0.0 - - -
4.5843 11690 0.0 - - -
4.5882 11700 0.0 - - -
4.5922 11710 0.0 - - -
4.5961 11720 0.0 - - -
4.6 11730 0.0 - - -
4.6039 11740 0.0001 - - -
4.6078 11750 0.0 - - -
4.6118 11760 0.0 - - -
4.6157 11770 0.0 - - -
4.6196 11780 0.0 - - -
4.6235 11790 0.0001 - - -
4.6275 11800 0.0 - - -
4.6314 11810 0.0 - - -
4.6353 11820 0.0 - - -
4.6392 11830 0.0 - - -
4.6431 11840 0.0 - - -
4.6471 11850 0.0 - - -
4.6510 11860 0.0 - - -
4.6549 11870 0.0 - - -
4.6588 11880 0.0 - - -
4.6627 11890 0.0 - - -
4.6667 11900 0.0 - - -
4.6706 11910 0.0 - - -
4.6745 11920 0.0 - - -
4.6784 11930 0.0 - - -
4.6824 11940 0.0 - - -
4.6863 11950 0.0 - - -
4.6902 11960 0.0 - - -
4.6941 11970 0.0 - - -
4.6980 11980 0.0 - - -
4.7020 11990 0.0 - - -
4.7059 12000 0.0 - - -
4.7098 12010 0.0 - - -
4.7137 12020 0.0 - - -
4.7176 12030 0.0 - - -
4.7216 12040 0.0 - - -
4.7255 12050 0.0 - - -
4.7294 12060 0.0001 - - -
4.7333 12070 0.0001 - - -
4.7373 12080 0.0 - - -
4.7412 12090 0.0001 - - -
4.7451 12100 0.0 - - -
4.7490 12110 0.0 - - -
4.7529 12120 0.0 - - -
4.7569 12130 0.0 - - -
4.7608 12140 0.0 - - -
4.7647 12150 0.0 - - -
4.7686 12160 0.0 - - -
4.7725 12170 0.0 - - -
4.7765 12180 0.0 - - -
4.7804 12190 0.0 - - -
4.7843 12200 0.0 - - -
4.7882 12210 0.0 - - -
4.7922 12220 0.0 - - -
4.7961 12230 0.0 - - -
4.8 12240 0.0001 - - -
4.8039 12250 0.0 - - -
4.8078 12260 0.0 - - -
4.8118 12270 0.0 - - -
4.8157 12280 0.0 - - -
4.8196 12290 0.0 - - -
4.8235 12300 0.0 - - -
4.8275 12310 0.0 - - -
4.8314 12320 0.0 - - -
4.8353 12330 0.0 - - -
4.8392 12340 0.0 - - -
4.8431 12350 0.0 - - -
4.8471 12360 0.0 - - -
4.8510 12370 0.0 - - -
4.8549 12380 0.0 - - -
4.8588 12390 0.0 - - -
4.8627 12400 0.0 - - -
4.8667 12410 0.0 - - -
4.8706 12420 0.0 - - -
4.8745 12430 0.0 - - -
4.8784 12440 0.0 - - -
4.8824 12450 0.0 - - -
4.8863 12460 0.0 - - -
4.8902 12470 0.0 - - -
4.8941 12480 0.0 - - -
4.8980 12490 0.0 - - -
4.9020 12500 0.0 - - -
4.9059 12510 0.0 - - -
4.9098 12520 0.0 - - -
4.9137 12530 0.0 - - -
4.9176 12540 0.0 - - -
4.9216 12550 0.0 - - -
4.9255 12560 0.0 - - -
4.9294 12570 0.0 - - -
4.9333 12580 0.0 - - -
4.9373 12590 0.0 - - -
4.9412 12600 0.0 - - -
4.9451 12610 0.0 - - -
4.9490 12620 0.0 - - -
4.9529 12630 0.0 - - -
4.9569 12640 0.0 - - -
4.9608 12650 0.0 - - -
4.9647 12660 0.0 - - -
4.9686 12670 0.0 - - -
4.9725 12680 0.0 - - -
4.9765 12690 0.0 - - -
4.9804 12700 0.0 - - -
4.9843 12710 0.0 - - -
4.9882 12720 0.0 - - -
4.9922 12730 0.0 - - -
4.9961 12740 0.0 - - -
5.0 12750 0.0 0.0241 0.6751 0.6726
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.10.14
  • Sentence Transformers: 3.3.1
  • Transformers: 4.41.2
  • PyTorch: 2.1.2+cu121
  • Accelerate: 0.29.3
  • Datasets: 2.19.1
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MatryoshkaLoss

@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}