Loading...

Kendi Bilgisayarınızda Sınırsız AI Modeli Eğitme Rehberi

Resim

Google Colab'in sınırlamalarından kurtulmak için kendi bilgisayarınızda AI modeli eğitebilirsiniz. İşte tam rehber:

1. Donanım Gereksinimleri

Minimum Sistem

BileşenÖnerilen Spec
İşlemciIntel i5 / Ryzen 5 (8+ çekirdek)
RAM16GB (32GB tercih edilir)
GPUNVIDIA GTX 1660 (6GB VRAM)
Depolama500GB SSD (NVMe daha iyi)
İşletim SistemiWindows 10/11 64-bit veya Linux

İdeal Sistem

  • GPU: RTX 3060 (12GB) veya daha iyisi

  • RAM: 32GB+

  • Depolama: 1TB NVMe SSD

2. Kurulum Adımları

A. Temel Yazılımlar

  1. Python 3.10+ İndir

    • Kurulumda "Add Python to PATH" seçeneğini işaretleyin

  2. CUDA Toolkit (NVIDIA GPU'lar için) İndir

    • Sürüm 11.8 veya 12.1 önerilir

  3. Git İndir

B. Sanal Ortam Oluşturma

bash
python -m venv ai_ortam
.\ai_ortam\Scripts\activate  # Windows
source ai_ortam/bin/activate  # Linux/Mac

3. Küçük Ölçekli Model Eğitimi

A. TinyLlama ile Başlangıç

bash
pip install torch transformers datasets accelerate
python
from transformers import AutoModelForCausalLM, Trainer, TrainingArguments

model = AutoModelForCausalLM.from_pretrained("TinyLlama/TinyLlama-1.1B")
training_args = TrainingArguments(
    output_dir="./results",
    per_device_train_batch_size=2,
    num_train_epochs=1,
    save_steps=500
)

# Kendi veri setinizi yükleyin
from datasets import load_dataset
dataset = load_dataset("your_dataset")

trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=dataset
)
trainer.train()

B. LoRA ile Verimli Eğitim (Düşük VRAM Kullanımı)

python
from peft import LoraConfig, get_peft_model

lora_config = LoraConfig(
    r=8,
    lora_alpha=16,
    target_modules=["q_proj", "v_proj"],
    lora_dropout=0.05,
    bias="none"
)

model = get_peft_model(model, lora_config)
model.print_trainable_parameters()  # Sadece %0.1 parametre eğitilecek

4. Büyük Modeller için Optimizasyonlar

A. 4-bit Quantization (RTX 3060'da 13B model çalıştırma)

bash
pip install bitsandbytes
python
from transformers import BitsAndBytesConfig

quant_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_compute_dtype=torch.float16
)

model = AutoModelForCausalLM.from_pretrained(
    "big-model",
    quantization_config=quant_config
)

B. Gradient Checkpointing (VRAM Tasarrufu)

python
model.gradient_checkpointing_enable()

5. Veri Seti Hazırlama

Örnek Türkçe Veri Formatı

json
[
    {
        "instruction": "Türkiye'nin başkenti nedir?",
        "input": "",
        "output": "Türkiye'nin başkenti Ankara'dır."
    },
    {
        "instruction": "Python nedir?",
        "input": "",
        "output": "Python popüler bir programlama dilidir."
    }
]

Veri Artırma Teknikleri

python
from nlpaug import Augmenter
aug = Augmenter()

augmented_text = aug.augment("Orjinal metin", n=3)  # 3 varyant oluştur

6. Performans İyileştirmeleri

Windows Özel Ayarlar

  1. GPU Kullanımını Zorlama:

    python
  1. wsl --install -d Ubuntu

Linux'ta Ek Optimizasyonlar

bash
sudo apt install nvidia-cuda-toolkit
export LD_LIBRARY_PATH=/usr/local/cuda/lib64

7. Eğitim Sonrası Kullanım

Modeli Kaydetme

python
model.save_pretrained("./turkce-modelim")

LM Studio ile Entegrasyon

  1. Modeli GGUF formatına dönüştürün:

    bash
  1. git clone https://github.com/ggerganov/llama.cpp
    python llama.cpp/convert.py --input_model turkce-modelim --output_model turkce-modelim.gguf
  2. LM Studio'ya sürükleyip bırakın

8. Donanım Sınırlarını Aşma Yöntemleri

Düşük Kaynaklı Çözümler

DonanımÖnerilen ModelTeknik
4GB VRAMTinyLlama-1.1B4-bit quantization
8GB VRAMMistral-7BLoRA + Gradient Checkpointing
16GB VRAMLlama2-13B8-bit quantization

CPU ile Eğitim

python
training_args = TrainingArguments(
    per_device_train_batch_size=1,
    no_cuda=True  # CPU modu
)

Sonuç

Kendi bilgisayarınızda:

  • Tam kontrol - Sınırsız çalışma süresi

  • Gizlilik - Verileriniz lokal kalır

  • Maliyet etkin - Tek seferlik donanım yatırımı

Başlangıç için öneri: TinyLlama ile 10,000 Türkçe cümlelik veri setinde LoRA fine-tuning deneyin!

💡 İpucu: Eğitim sırasında nvidia-smi ile GPU kullanımını izleyin. Aşırı ısınmayı önlemek için fan hızını artırabilirsiniz.

AI Sohbet