LLM'lerin varoluşsal sorunları

İnsanın pragmatik ve rasyonel bir varlık olduğu varsayımı, insanın irasyonel de bir varlık olduğu gerçeğini yok saymaz. İnsana ilişkin bu öngörülemezlik LLM'lerin gerçek hayatı asla modelleyemeyeceklerini gösteriyor.

Büyük dil modelleri (LLM), büyük miktarda veriyi önceden oluşturulan anlamlı veri kümelerine dayanarak ve bunları sürekli olarak üreterek çalışan derin öğrenme modelleridir. Bu karmaşık modelleme sistemleri, en ince olasılık hesaplarıyla doğruluk oranı yüzde 90'ların üstüne çıkan tahminlerde bulunabilmektedir. 

Yüzde yüz doğru veri girişi sağlandığı varsayılsa bile LLM'lerin gerçek hayatı tüm değişkenleriyle modelleme şansı yoktur. Sisteme girilen herhangi bir veri kümesinin anlamlı bağlamını gerçek hayattan uyarlamak hiçbir zaman tamamen mümkün olmaz. Niçin?

LLM'leri dev bir mutfak mikseri olarak düşünelim. İçerisine birbiriyle alakalı/alakasız farkı şeyler koyduğumuzu ve düğmesine bastığımızı hayal edelim. Ortaya rengi, kokusu, görüntüsü, hacmi olan bir karışım çıkacaktır. 

Verileri ilişkilendirmeye programlı büyük dil modelleri de kaba bir imgelemle böyle çalışır. Tek bir öğeyi/veriyi dışarıda bırakmaz. Dolayısıyla özellikle ilk örneklerinde LLM'den sadece "gerçek olma olasılığı olan safsatalar" çıkabilir. Mikserde olduğu gibi. Çünkü hayatta her şey her şeyle ilintilidir. Sisteme girilern verilerin doğruluğu ve tarafsızlığı henüz büyük bir sorun olsa da asıl sorun, LLM'lerin olayların bağlamını kurmaktaki aşılamaz sorunudur. 

Özetle: Veri kümeleriyle kurulan istatistiki modellemelerle herhangi bir olgunun bağlamını kavrama olasılığı vardır. Ancak bu hiçbir zaman gerçek hayatla yüzde yüz örtüşmeyecektir.

[Yardımcı kaynak]




Bu blogdaki popüler yayınlar

Akran ve siber zorbalıklarıyla çocukları kullanarak evlerin içine sızıyorlar

Film yapımcısı gibi çalışan kurgu ekipleri ve troll ağları

Hz Musa'yı Isıran Köpek