🤖 Sabir-20M - Türkçe Mini LLM

20 milyon parametreli deneysel Türkçe dil modeli (eğitim ve araştırma amaçlı)

Not: Bu model eğitim amaçlı geliştirilmiştir ve küçük bir veri seti üzerinde eğitilmiştir. Üretilen metinler her zaman tutarlı olmayabilir.

20 200
0.1 1.5
5 50

💡 İpuçları:

  • Temperature: Düşük değerler (0.3-0.5) daha tutarlı, yüksek değerler (0.8-1.2) daha yaratıcı çıktılar üretir
  • Top-K: Düşük değerler daha deterministik, yüksek değerler daha çeşitli sonuçlar verir
  • Max Tokens: Daha uzun yanıtlar için artırın (ancak tutarsızlık riski artar)

📊 Model Bilgileri:

  • Parametre Sayısı: ~20M
  • Mimari: Transformer (8 katman, 384 gizli boyut)
  • Vocabulary: 8000 token (SentencePiece)
Examples