SixFinger-2B

Bu model, Kumru-2B temel alınarak RTX 3060 Laptop GPU üzerinde fine-tune edilmiştir.

📋 Model Detayları

  • Base Model: Kumru-2B
  • Model Tipi: Causal Language Model
  • Parametre Sayısı: ~2B
  • Fine-tuning Donanımı: NVIDIA RTX 3060 Laptop GPU
  • Geliştirici: SixFingerDev

🎯 Kullanım Alanları

Bu model aşağıdaki görevler için optimize edilmiştir:

  • Matematik
  • Metin Tamamlama

💻 Kullanım

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "sixfingerdev/sixfinger-2b"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

# Metin üretimi
prompt = "Merhaba, bugün"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0]))

🔧 Fine-tuning Detayları

  • Epoch Sayısı: 3
  • Batch Size: 8
  • QLoRA

⚠️ Limitasyonlar

  • Laptop GPU ile eğitildiği için belirli kısıtlamalar bulunabilir

📜 Lisans

[Lisans bilgisi - Apache 2.0]

🙏 Teşekkürler

  • VNGRS ekibine temel model için teşekkürler

Not: Bu model eğitim/araştırma amaçlıdır. Üretim ortamında kullanmadan önce kapsamlı test yapmanız önerilir.


Downloads last month
9
Safetensors
Model size
2B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support