Google Colab'in sınırlamalarından kurtulmak için kendi bilgisayarınızda AI modeli eğitebilirsiniz. İşte tam rehber:
Bileşen | Önerilen Spec |
---|---|
İşlemci | Intel i5 / Ryzen 5 (8+ çekirdek) |
RAM | 16GB (32GB tercih edilir) |
GPU | NVIDIA GTX 1660 (6GB VRAM) |
Depolama | 500GB SSD (NVMe daha iyi) |
İşletim Sistemi | Windows 10/11 64-bit veya Linux |
GPU: RTX 3060 (12GB) veya daha iyisi
RAM: 32GB+
Depolama: 1TB NVMe SSD
Python 3.10+ İndir
Kurulumda "Add Python to PATH" seçeneğini işaretleyin
CUDA Toolkit (NVIDIA GPU'lar için) İndir
Sürüm 11.8 veya 12.1 önerilir
Git İndir
python -m venv ai_ortam .\ai_ortam\Scripts\activate # Windows source ai_ortam/bin/activate # Linux/Mac
pip install torch transformers datasets accelerate
from transformers import AutoModelForCausalLM, Trainer, TrainingArguments model = AutoModelForCausalLM.from_pretrained("TinyLlama/TinyLlama-1.1B") training_args = TrainingArguments( output_dir="./results", per_device_train_batch_size=2, num_train_epochs=1, save_steps=500 ) # Kendi veri setinizi yükleyin from datasets import load_dataset dataset = load_dataset("your_dataset") trainer = Trainer( model=model, args=training_args, train_dataset=dataset ) trainer.train()
from peft import LoraConfig, get_peft_model lora_config = LoraConfig( r=8, lora_alpha=16, target_modules=["q_proj", "v_proj"], lora_dropout=0.05, bias="none" ) model = get_peft_model(model, lora_config) model.print_trainable_parameters() # Sadece %0.1 parametre eğitilecek
pip install bitsandbytes
from transformers import BitsAndBytesConfig quant_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_compute_dtype=torch.float16 ) model = AutoModelForCausalLM.from_pretrained( "big-model", quantization_config=quant_config )
model.gradient_checkpointing_enable()
[ { "instruction": "Türkiye'nin başkenti nedir?", "input": "", "output": "Türkiye'nin başkenti Ankara'dır." }, { "instruction": "Python nedir?", "input": "", "output": "Python popüler bir programlama dilidir." } ]
from nlpaug import Augmenter aug = Augmenter() augmented_text = aug.augment("Orjinal metin", n=3) # 3 varyant oluştur
GPU Kullanımını Zorlama:
wsl --install -d Ubuntu
sudo apt install nvidia-cuda-toolkit export LD_LIBRARY_PATH=/usr/local/cuda/lib64
model.save_pretrained("./turkce-modelim")
Modeli GGUF formatına dönüştürün:
git clone https://github.com/ggerganov/llama.cpp python llama.cpp/convert.py --input_model turkce-modelim --output_model turkce-modelim.gguf
LM Studio'ya sürükleyip bırakın
Donanım | Önerilen Model | Teknik |
---|---|---|
4GB VRAM | TinyLlama-1.1B | 4-bit quantization |
8GB VRAM | Mistral-7B | LoRA + Gradient Checkpointing |
16GB VRAM | Llama2-13B | 8-bit quantization |
training_args = TrainingArguments( per_device_train_batch_size=1, no_cuda=True # CPU modu )
Kendi bilgisayarınızda:
✅ Tam kontrol - Sınırsız çalışma süresi
✅ Gizlilik - Verileriniz lokal kalır
✅ Maliyet etkin - Tek seferlik donanım yatırımı
Başlangıç için öneri: TinyLlama ile 10,000 Türkçe cümlelik veri setinde LoRA fine-tuning deneyin!
💡 İpucu: Eğitim sırasında
nvidia-smi
ile GPU kullanımını izleyin. Aşırı ısınmayı önlemek için fan hızını artırabilirsiniz.