Büyük dil modellerinin Türkçe verisetleri ile eğitilmesi ve ince ayarlanması

06/06/2023
by   A. Taha Arslan, et al.
0

Large language models have advanced enormously, gained vast attraction and are having a phase of intensed research. Some of the developed models and training datasets have been made open-accessible. Hence these may be further fine-tuned with some techniques to obtain specialized models for specific tasks. When it comes to Turkish language, open-access models do not provide satisfactory coverage. This is also observed over published datasets. In this work, we propose some ideas to mitigate this issue: creating large Turkish datasets, training LLMs with these and fine-tuning pre-trained models with Turkish inputs. We report our findings on Turkish-based trainings with the problems encountered along the way. We conclude with outcomes of these experiments and propose ideas for further works. – Büyük dil modelleri inanılmaz ölçüde gelişmekte, büyük ilgi toplayarak ve üzerlerinde yoğun araştirmalarin yapildiği bir dönemdedirler. Geliştirilen modeller ve eğitimde kullanilan verisetlerinden bazilari açik erişimli olarak sunulmaktadir. Böylece ince ayarlama teknikleri uygulayarak özelleşmiş görevler için çalişabilir modeller elde edilmektedir. Türkçe söz konusu olduğunda bu modellerinin kapsayiciliği yeterli düzeyde değildir. Bu durum, yayimlanan verisetlerinde de gözlemlenebilir. Bunu aşmanin yollari Türkçe içerikli büyük verisetlerinin oluşturulmasi, büyük dil modellerinin bunlarla eğitilmesi ve önceden eğitilmiş modellerin Türkçe girdilerle ince ayarlanmalari olabilir. Bu çalişmada açik erişimli dil modelleri ve verisetleri üzerinde durulmakta ve Türkçe temelli bazi deneyler, karşilaşilan sorunlar ve sonuçlar irdelenmektedir.

READ FULL TEXT

Please sign up or login with your details

Forgot password? Click here to reset

Sign in with Google

×

Use your Google Account to sign in to DeepAI

×

Consider DeepAI Pro