🤖 Sabir-20M - Türkçe Mini LLM
20 milyon parametreli deneysel Türkçe dil modeli (eğitim ve araştırma amaçlı)
Not: Bu model eğitim amaçlı geliştirilmiştir ve küçük bir veri seti üzerinde eğitilmiştir. Üretilen metinler her zaman tutarlı olmayabilir.
20 200
0.1 1.5
5 50
💡 İpuçları:
- Temperature: Düşük değerler (0.3-0.5) daha tutarlı, yüksek değerler (0.8-1.2) daha yaratıcı çıktılar üretir
- Top-K: Düşük değerler daha deterministik, yüksek değerler daha çeşitli sonuçlar verir
- Max Tokens: Daha uzun yanıtlar için artırın (ancak tutarsızlık riski artar)
📊 Model Bilgileri:
- Parametre Sayısı: ~20M
- Mimari: Transformer (8 katman, 384 gizli boyut)
- Vocabulary: 8000 token (SentencePiece)
Examples