Yapay Zeka ile Chatbot Eğitimi: Teknik Bir Adli Analiz

Yapay Zeka ile Chatbot Eğitimi: Teknik Bir Adli Analiz

February 16, 2026 13 Views
Yapay Zeka ile Chatbot Eğitimi: Teknik Bir Adli Analiz

Chatbot'lar artık sadece "merhaba" diyen sanal asistanlar değil. Günümüz sistemleri, doğal dil işleme (NLP), derin öğrenme ve büyük dil modelleri (LLM'ler) üzerine inşa edilmiş, bağlamsal anlam kurabilen, hatta duygusal tonu algılayabilen zekâ makineleridir. Ancak bu zekânın arkasında sadece bir API çağrısı yok; disiplinler arası bir mühendislik disiplini var. Bu yazıda, yapay zeka ile chatbot eğitimi konusunu, sıfırdan başlayarak, teknik bir forensik perspektifle ele alacağız. Her adımda ne yapılmalı, ne yapılmamalı, hangi hatalar kritik, hangi veri setleri güvenilir — hepsi burada.

1. Chatbot Eğitiminin Temel Bileşenleri

Chatbot eğitimi, üç temel bileşenden oluşur: veri, model ve değerlendirme. Bu üçlü, birbiriyle iç içe geçmiş bir döngü oluşturur. Veri eksikse model saçmalar, model yanlışsa veri faydasız, değerlendirme yetersizse ise sistem gerçek dünya senaryolarında çöker.

1.1. Veri Seti Hazırlama: Kalite, Miktar ve Temizlik

Veri, chatbot’un “beyin”idir. Ancak bu beyin, kirlenmiş veriyle beslenirse delirir. Günümüzde en yaygın hata, internetten toplanan rastgele sohbet verilerini kullanmaktır. Bu veriler, yanlış bilgi, küfür, önyargı ve tekrar içerebilir. Bu nedenle, veri seti hazırlanırken aşağıdaki adımlar kritiktir:

  • Temizlik (Cleaning): HTML etiketleri, gereksiz boşluklar, emoji’ler, tekrar eden cümleler filtrelenmelidir.
  • Normalizasyon: Büyük/küçük harf dönüşümü, Türkçe karakter düzeltmesi (örn. "ş" yerine "s"), yazım hataları düzeltilebilir.
  • Etiketleme (Labeling): Niyet (intent), varlık (entity), duygu (sentiment) gibi etiketler manuel veya yarı otomatik yöntemlerle atanmalıdır.
  • Dengesizlik (Imbalance): Bazı niyetler (örneğin “ödeme sorgulama”) diğerlerinden (“teşekkür”) çok daha sık gelir. Bu durumda oversampling veya class weighting uygulanmalıdır.

Örnek: Eğer bir banka chatbot’u geliştiriyorsanız, “kredi başvurusu”, “hesap bakiyesi”, “işlem geçmişi” gibi niyetler için yeterli ve temsili veri olmalıdır. Aksi takdirde, bot “kredi” sorduğunda “hava durumu” cevabı verebilir.

1.2. Model Seçimi: Rule-Based mi, ML mi, LLM mi?

Model seçimi, chatbot’un amacına göre değişir. Aşağıda üç temel yaklaşım karşılaştırılmıştır:

Model Türü Avantajlar Dezavantajlar Kullanım Senaryosu
Rule-Based (Kural Tabanlı) Hızlı, şeffaf, hata ayıklaması kolay Sınırlı esneklik, yeni senaryolara uyum sağlayamaz Basit sorgular (örn. mağaza saatleri)
ML Tabanlı (Sınıflandırıcı + NER) Orta düzey esneklik, özelleştirilebilir Veriye bağımlı, eğitim maliyeti yüksek Müşteri hizmetleri, teknik destek
LLM Tabanlı (GPT, LLaMA, Mistral) Yüksek doğruluk, bağlamsal anlama, çok dilli destek Yüksek maliyet, “halüsinasyon” riski, açıklanamazlık Karmaşık diyaloglar, yaratıcı içerik

Günümüzde en etkili çözümler, LLM’ler ile fine-tuning veya Retrieval-Augmented Generation (RAG) mimarileridir. Özellikle Türkçe gibi düşük kaynaklı dillerde, önceden eğitilmiş modeller (örneğin TrOCR, BERTurk, mGPT) üzerine inşa edilen sistemler daha verimlidir.

2. Fine-Tuning: Büyük Dil Modellerini Özelleştirme

Fine-tuning, bir LLM’yi belirli bir görev veya alana uyarlama sürecidir. Örneğin, genel amaçlı bir GPT modelini, bir eczane chatbot’una dönüştürmek istiyorsanız, modeli ecza terimleri, ilaç etkileşimleri, reçete sorguları gibi verilerle yeniden eğitmeniz gerekir.

2.1. Fine-Tuning Stratejileri

Fine-tuning yaparken dikkat edilmesi gereken en kritik nokta: veri kalitesi ve çeşitliliği. Aşağıdaki stratejiler yaygın olarak kullanılır:

  • Full Fine-Tuning: Tüm model parametreleri güncellenir. Yüksek performans ama maliyetli ve overfitting riski yüksektir.
  • LoRA (Low-Rank Adaptation): Sadece küçük adaptör katmanları eğitilir. Orijinal model dondurulur. Düşük maliyet, yüksek verimlilik.
  • Prompt Tuning: Model parametreleri değişmez, sadece girdiye ön ek (prompt) eklenir. Hızlı ama sınırlı etki.

Örnek: LoRA ile bir Mistral-7B modelini Türkçe müşteri hizmetleri verisiyle eğitmek, full fine-tuning’e göre %90 daha az GPU belleği gerektirir ve aynı doğrulukta sonuç verebilir.

Generated image

2.2. Veri Formatı ve Prompt Engineering

Fine-tuning verisi, genellikle aşağıdaki formatta olmalıdır:

{
  "prompt": "Kullanıcı: Hesabımda para yok ama fatura geldi. Ne yapmalıyım?",
  "completion": "Bot: Öncelikle endişelenmeyin. Ödeme tarihini erteleyebilir veya taksitlendirebilirsiniz. Size yardımcı olmam için müşteri numaranızı paylaşmanız yeterli."
}

Burada dikkat edilmesi gereken: prompt ve completion arasında net bir ayrım olmalı. Ayrıca, Türkçe veri setlerinde dilbilgisi hataları, kısaltmalar (“nbr” yerine “ne haber”) ve emojiler filtrelenmelidir. Prompt engineering, özellikle few-shot learning ile kritik hale gelir. Örneğin:

Kullanıcı: Kargo ne zaman gelecek?
Bot: Sipariş numaranızı girer misiniz?
Kullanıcı: 12345
Bot: Kargonuz bugün akşam 6 ile 8 saatleri arasında teslim edilecek.

Bu tür örnekler, modelin “soru-cevap” döngüsünü öğrenmesine yardımcı olur.

3. Değerlendirme ve Test: Gerçek Dünya Performansı

Eğitim bittikten sonra gelen en önemli aşama: değerlendirme. Akademik metrikler (BLEU, ROUGE, Perplexity) yeterli değildir. Gerçek kullanıcıların davranışlarını simüle etmek gerekir.

3.1. Metrikler ve Test Senaryoları

Aşağıdaki metrikler, chatbot’un başarısını ölçmede en etkilidir:

  • Intent Accuracy: Kullanıcı niyetinin doğru tespit edilme oranı.
  • Entity F1-Score: Ad, tarih, miktar gibi varlıkların doğru çıkarımı.
  • Conversation Success Rate: Diyalogun başarılı bir şekilde tamamlanma oranı.
  • User Satisfaction (CSAT): Kullanıcı anketleriyle ölçülür.
  • Hallucination Rate: Modelin uydurma bilgi üretme oranı (LLM’lerde kritik).

Örnek test senaryosu: “Kullanıcı, ‘Kredi kartı ekstremin nerede?’ diye sorduğunda, bot ‘Hesap hareketlerim > Kart işlemleri’ yolunu göstermeli. Yanlış yönlendirme, başarısızlık sayılır.”

3.2. A/B Testi ve Canlı Ortamda İzleme

Chatbot canlıya alındıktan sonra, A/B testi ile farklı versiyonlar karşılaştırılmalıdır. Örneğin, bir versiyon LoRA ile eğitilmiş, diğeri full fine-tuning ile. Hangi versiyon daha az hata veriyor? Daha az kullanıcıyı insan desteğe yönlendiriyor?

Generated image

Ayrıca, log analizi yapılmalıdır. Hangi sorulara bot yanıt veremedi? Hangi cümlelerde kullanıcı “yardıma ihtiyacım var” dedi? Bu veriler, iteratif geliştirme için altın değerindedir.

4. Güvenlik, Etik ve Yasal Uyum

Yapay zeka ile chatbot eğitimi, sadece teknik değil, aynı zamanda etik ve yasal boyutları da vardır.

4.1. Veri Gizliliği ve KVKK

Turkey's personal data processing is subject to the KVKK (Personal Data Protection Law). Chatbots may process sensitive data such as user names, phone numbers, and financial information. Therefore:

  • Data must be anonymized.
  • User consent must be obtained.
  • Data retention periods must be defined.
  • Notification is mandatory in the event of a data breach.

4.2. Bias and Unfairness

Training data may reflect societal biases. For example, a recruitment chatbot might refrain from recommending "managerial positions" to female candidates. In such cases, dataset diversity and fairness metrics should be monitored.

5. Frequently Asked Questions (FAQs)

Q: How much data do I need for chatbot training?

Answer: A minimum of 1,000–5,000 labeled dialogue examples is recommended. However, quality is as important as quantity. 10,000 flawed data points are worse than 1,000 clean ones.

Q: Which model is best for a Turkish chatbot?

Answer: BERTurk, mGPT, Mistral-7B, and LLaMA-3 (Turkish fine-tuned versions) are among the most popular. LLMs, especially with RAG architecture, are effective in Turkish.

Generated image

S: Chatbot’um sürekli yanlış cevap veriyor. Neden?

Cevap: Muhtemelen üç nedenden biri: (1) Eğitim verisi yetersiz, (2) Niyet sınıfları çakışıyor, (3) Model “halüsinasyon” yapıyor. Log analizi yaparak kök nedeni bulunmalı.

Generated image

S: Chatbot’u nasıl canlıya alırım?

Cevap: Önce staging ortamında test edin. API gateway, rate limiting, hata yakalama mekanizmaları kurun. Sonra %5 trafikle canlıya alın, performansı izleyin.

Generated image

S: Chatbot’un maliyeti ne kadar?

Cevap: Maliyet, model boyutuna ve trafik hacmine göre değişir. Örneğin, bir LLM API’si (örn. OpenAI) aylık 1.000 kullanıcı için $50–$200 arası olabilir. Kendi modelinizi eğitmek, GPU maliyetiyle $500–$5.000 arasıdır.

S: Chatbot’um insan gibi konuşabilir mi?

Cevap: Evet, ama sınırlı. LLM’ler duygusal tonu taklit edebilir, ancak gerçek duyguyu hissetmez. Aşırı “insani” tasarım, kullanıcıyı yanıltabilir. Şeffaflık önemlidir.

Sonuç

Yapay zeka ile chatbot eğitimi, sadece bir teknoloji projesi değil; disiplinler arası bir mühendislik serüvenidir. Veri bilimi, yazılım mühendisliği, kullanıcı deneyimi, hukuk ve etik — hepsi bir araya gelmelidir. Başarılı bir chatbot, sadece “doğru cevap veren” değil, aynı zamanda güvenilir, şeffaf ve sürdürülebilir olmalıdır. Bu yolculukta, hata yapmak normal; önemli olan, her hatadan öğrenip sistemi biraz daha zeki hale getirmektir.

Unutmayın: Chatbot’unuz, sadece bir araç değil — markanızın dijital yüzüdür. Onu iyi eğitmek, markanızı korumak demektir.


Share this article