Loading...

LM Studio ile Kendi Dil Modelinizi Eğitme Rehberi

Resim

LM Studio, kullanıcı dostu arayüzüyle yerel dil modellerini çalıştırmanızı sağlayan bir uygulamadır. Ancak, doğrudan kendi modelinizi sıfırdan eğitmek için tasarlanmamıştır. Bunun yerine, mevcut modelleri fine-tuning (ince ayar) yaparak özelleştirebilirsiniz. İşte adım adım süreç:


1. LM Studio ile Model Özelleştirme (Fine-Tuning)

LM Studio'da bir modeli kendi verilerinizle eğitmek için:

A. Gereksinimler

  • LM Studio (Son sürüm) - İndirme Linki

  • Özel veri setiniz (TXT, JSON veya CSV formatında)

  • En az 8GB RAM (16GB+ önerilir)

  • NVIDIA GPU (CUDA desteği için)

B. Adım Adım Fine-Tuning İşlemi

  1. Model Seçimi:

    • LM Studio'yu açın ve "Download Model"e tıklayın.

    • TheBloke'dan bir GGUF formatında model indirin (örneğin, Mistral-7B-Instruct).

  2. Veri Hazırlama:

    • Modelinizi eğitmek için bir metin dosyası (dataset.txt) hazırlayın.

    • Örnek format:

    • python convert.py --input-model ./output --output-model ./custom-model.gguf
    • Oluşan custom-model.gguf dosyasını LM Studio'ya sürükleyip bırakın.


2. Alternatif: Sıfırdan Model Eğitimi

LM Studio sıfırdan model eğitimi yapmaz, ancak aşağıdaki araçlarla kendi dil modelinizi oluşturabilirsiniz:

A. TinyLLAMA (Küçük Ölçekli Eğitim)

  • Adımlar:

    1. Veri Toplama: Kendi metin verilerinizi .txt dosyasına kaydedin.

    2. Tokenization:

      python
    1. from transformers import AutoModelForCausalLM, TrainingArguments
      model = AutoModelForCausalLM.from_pretrained("TinyLlama/TinyLlama-1.1B")
      training_args = TrainingArguments(output_dir="./my-model", per_device_train_batch_size=2)
      trainer = Trainer(model=model, args=training_args, train_dataset=dataset)
      trainer.train()

B. LoRA (Düşük Kaynaklı Fine-Tuning)

  • NVIDIA GPU gerektirmeden küçük veri setleriyle model özelleştirme:

    python
  • !pip install peft
    from peft import LoraConfig, get_peft_model
    lora_config = LoraConfig(task_type="CAUSAL_LM", r=8, lora_alpha=16)
    model = get_peft_model(model, lora_config)
    model.train()

3. Eğitilmiş Modeli LM Studio'da Kullanma

  1. GGUF Formatına Dönüştürme:

    bash
  1. python llama.cpp/convert.py --input-model ./my-model --output-model ./my-model.gguf
  2. LM Studio'ya Yükleme:

    • my-model.gguf dosyasını LM Studio'ya sürükleyin.

    • Artık kendi özel modelinizle sohbet edebilirsiniz!


Sonuç

  • 🔹 LM Studio doğrudan model eğitimi yapmaz, ancak fine-tuning yapılmış modelleri çalıştırabilir.

  • 🔹 Sıfırdan model eğitmek için TinyLlama, LoRA veya Colab kullanabilirsiniz.

  • 🔹 Eğitilmiş modeli GGUF formatına çevirip LM Studio'da kullanabilirsiniz.

💡 Ek Kaynaklar:


  • AI Sohbet