ilhami commited on
Commit
6fabed4
1 Parent(s): 19553c7

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +19 -1
README.md CHANGED
@@ -12,4 +12,22 @@ tags:
12
  - chemistry
13
  - biology
14
  - medical
15
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
12
  - chemistry
13
  - biology
14
  - medical
15
+ ---
16
+
17
+
18
+ checkpoint = "ilhami/AcademicTranslation2024-tr-to-en"
19
+ from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
20
+ tokenizer = AutoTokenizer.from_pretrained(checkpoint)
21
+ model = AutoModelForSeq2SeqLM.from_pretrained(checkpoint).to("cuda")
22
+ tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlanmıştır. ",
23
+ "İnsanları taklit eden ve daha iyi müşteri memnuniyeti sağlayan sohbet robotları en gelişkin doğal dil işleme tekniklerine ihtiyaç duymaktadır. ",
24
+ "Bu çalışma sohbet robotu konuşmalarının niyet tahminini geliştirmeye odaklanmıştır." ,
25
+ "Kelime gösterimi için TF-IDF, Doc2vec ve BERT gibi geleneksel ve gelişmiş doğal dil işleme yöntemleri, çoklu sınıf ve çoklu etiket tahmini için ise lojistik regresyon, rastgele orman ve yapay sinir ağları kullanılmıştır." ,
26
+ "Sohbet robotu konuşma veri kümeleri, sinema bileti rezervasyonu, restoran rezervasyonu ve taksi çağırma olmak üzere üç farklı alandan alınmıştır. ",
27
+ "Bu çalışmanın sonunda, BERT ve BERT ile TF-IDF birleşimi modellerin diğer kombinasyonlardan daha iyi sonuç verdiği görülmüştür. ",
28
+ "BERT gibi ön eğitimli modellerden faydalanmanın daha iyi bağlamsal anlama sağladığı ortaya çıkmıştır. ",
29
+ "TF-IDF yerleştirmeleri, BERT gösterimi ile birleştirilerek niyet kategorisi tahmininin iyileştirilmesi amaçlanmıştır."]
30
+ encoded_text = tokenizer(tr, return_tensors="pt", padding = True).to("cuda")
31
+ generated_tokens = model.generate(**encoded_text)
32
+ en = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
33
+