• Publish Date
    May 14, 2025
  • Share

"Nöronlar hayatta kalmak için birbirleriyle sürekli rekabet içindedir. Her nöron ve nöronlar arasındaki her bağlantı, kaynaklar için bir diğeriyle mücadele halindedir. Bu sınır savaşları beynin ömrü süresince devam ederken haritalar, kişinin deneyim ve hedeflerini beynin yapısına yansıtacak şekilde sürekli yeniden çizilir.

Bir muhasebeci piyanist olmak üzere kariyerini bırakırsa parmaklarına ayrılmış olan nöral alanlar genişleyecek, mikroskopi uzmanı olmaya karar verirse görme korteksi, aradığı küçük ayrıntılara paralel olarak daha yüksek çözünürlük özelliği geliştirecektir."

Canlı Devre, David Eagleman

Nasıl Başladı?

Nasıl Başladı?

Sadece bir yazıda tüm yapay zeka çalışmalarını anlatmak takdir edersiniz ki mümkün değil. Yine de olabildiğince geçmişe gidip bugüne kadar  kat ettiğimiz yolu ifade etmeye çalışacağız.

İlk başlangıç noktamız bundan kabaca 13 yıl önce ImageNet isimli yarışmada adını duyuran AlexNet modeli olacak. Basit bir resim sınıflandırma modeli bile olsa AlexNet'in 2012 yılında bize gösterdiği şey GPU (Graphics Processing Unit) yani ekran kartlarının, derin öğrenme modellerinin eğitiminde kullanılabileceği oldu:

13 yıl sonra bugün geldiğimiz noktada dünyanın önde gelen ekran kartı üreticisi NVIDIA dünyanın en değerli şirketi oldu. [2]Devamındaki süreçte ekran kartlarının kabiliyetleri ve alan ilgi arttıkça daha büyük yani daha çok parametreli ve daha çok gizli katman içeren modeller hayatımıza girmeye başladı.

Böylece daha kaliteli görüntü, sinyal, video modelleri görmeye başladık. Büyük modelleri orijinalinde yer almayan görevler için az miktarda veri ve işlem gücüyle eğitmeye dayalı fine-tune, transfer learning gibi kavramlar hayatımıza girdi. Lakin doğal dil için büyük bir model üretmek hala mümkün değildi. 

Bu problem ise yolculuğumuzun bir sonraki önemli adımı olan Attention Is All You Need başlıklı makale çözülmüş oldu. 8 yıl önce Google'ın yayınladığı makale bizi Transformer isimli kavram ile tanıştırdı. Artık “büyük” diye ifade edebileceğimiz doğal dil modelleri yani LLM'leri eğitebiliyorduk. [4]

2022'nin sonlarında ise (yani bundan sadece 3 yıl önce) ise belki de en önemli adımlardan biri OpenAI tarafından atıldı ve o güne kadar eğitilen hiçbir modelin gösteremediği bir reasoning (muhakeme) kabiliyetine sahip olduğu gösteren ChatGPT platformu oldu.

Her ne kadar modelin görevinin sabit olduğu ve eğitim öncesinde belirlendiği klasik makine öğrenmesi ve derin öğrenme modellerinin aksine modelin görevinin doğal dil ile değiştirilebildiği few-shot / zero-shot modellerinin ilki olmasa da, ChatGPT platformunda sunulan ve GPT-3 üzerinden fine-tune edilen GPT modeli, bizi tam anlamıyla Task reformulation ile tanıştırdı. Tamam ama bu neden bu kadar önemli? 

ChatGPT'den sadece birkaç yıl önce bir problemi çözmek için eğitilen her model sadece ilgili model üzerinde çalışabiliyordu. Mesela 2020 yılında Kaggle üzerindeki tweet sentiment analysis yarışmasının temel amacı olan, tweet'lerdeki duyguyu ifade eden cümlecikleri ayıran modellerin tamamı, sadece bu sorunu çözmek üzerine eğitilmişlerdi. Bu modellerden birini alıp başka bir doğal dil görevinde kullanamazdınız. Örneğin tweet'in hangi dilde yazıldığını modele soramazdınız. Görevi değiştirmenin tek yolu yeniden eğitmekti. Yani konuyla ilgili en az bir uzmana ihtiyaç vardı. ChatGPT ile bu durum ortadan kalktı. Artık bir doğal dil görevini yapmak için bir model eğitmeye ihtiyacınız yoktu. ChatGPT modelinin görevini doğal dil ile (kabaca prompt ile) yeniden değiştirebiliyordunuz. İster tweet'in dilini sınıflandırın, ister duygu durumunu. Artık bir uzmana ihtiyaç yoktu. [5]

Günümüz

Evet artık bir uzmana ihtiyacımız yok. Bilgisayar bilimci olmak zorunda değilsiniz. Kodlama bilmeye de gerek yok. Fine-tune? Transfer learning? Eğitim? Artık hiçbirine gerek yok. Yazıp konuşabiliyorsanız bu yeterli. Öyle ki OpenAI 1 milyar kullanıcıya ulaşmış durumda yani tüm dünyanın 8'de 1'ine. Bu da demek oluyor ki LLM'ler artık insan hayatının bir parçası haline geldi. [6]

Peki son zamanlarda LLM alanında ne gibi yenilikler oldu?

Peki son zamanlarda LLM alanında ne gibi yenilikler oldu?

LLM'lerin “zeka”sı artık kelime tamamlama becerisinden çok çok-adımlı akıl yürütme kabiliyetiyle değerlendiriliyor. Araştırmalar, zincir-düşünce sistemlerinin küçük göstergelerle bile karmaşık problemi çözme oranını dramatik biçimde artırdığını ortaya koyuyor. Bu yüzden OpenAI, Eylül 2024'te tanıttığı o1 serisini “daha uzun düşünüp sonra cevap veren” ilk modeller olarak konumlandırdı. Devasa parametre sayıları, exaFLOPS ölçekli eğitim kümeleri ve milyarlarca token, 2020-2024 arası inovasyonun mottosu oldu. Talebin tetiklediği bu dönem, Nvidia'nın piyasa değerini dokuz ayda 1 trilyon $'dan 3 trilyon $'a taşıdı; öyle ki analistler şirketi “AI çağının petrol devi” diye tanımlamaya başladı. [7] Durumu daha iyi kavrayabilmek için şu grafikleri inceleyelim:

Epoch.ai'den aldığımız ilk grafikte özellikle derin öğrenme tekniğinin popüler olması ile birlikte model eğitmek için gereken işlem gücünün (FLOP cinsinden) yılda ortalama 4.6 kat arttığını görebiliyoruz. Kısaca her yıl 5 kat daha fazla işlem gücüne ihtiyaç duyuyoruz. [8]

SEC(Securities and Exchange Commission)'den aldığımız bu grafikte ise, 2019–2024 döneminde NVIDIA hissesinin birikimli toplam getirisinin hem S&P 500 hem de Nasdaq 100 endekslerini ezici biçimde geride bıraktığı görünüyor. Yani, son beş yılda NVIDIA'ya yatırım yapanlar, geniş piyasa endekslerine yatırım yapanlara kıyasla katbekat daha yüksek bir getiri elde etmiş durumda. [9] 

İki grafikte açıkça gösteriyor ki, yapay zeka uygulamaları hızla yaygınlaştıkça, bu teknolojiyi mümkün kılan donanım ve altyapıya olan talep de katlanarak artıyor. Bir yandan modellerin eğitimi için ihtiyaç duyulan işlem gücü sürekli yükselirken, diğer yandan bu gücü sağlayan NVIDIA gibi çip üreticilerinin değeri de benzer bir hızla artıyor.

Fakat bu trendi bozan bazı özel gelişmelerden de bahsetmemiz gerek. Örneğin 2025'in başında Çin merkezli DeepSeek, açık kaynaklı Reasoner-R1 ailesini ve dakikası 0,55 $/M token gibi oldukça rekabetçi fiyatlandırma modelleriyle piyasaya girerek, sektördeki dengeleri değiştirme potansiyeli taşıdığını gösterdi. Normal kullanımda OpenAI GPT-4o modelinin fiyatı 1 milyon output (çıkış) token'i için 10 $ iken, DeepSeek R1 aynı işi 2,19 $'a yapıp; gece indirimiyle bu rakam 0,55 $'a kadar düşürdü. Bu durum Avrupa'daki girişimlerin çoğunun birkaç dakikada OpenAI'den DeepSeek'e göç etmesine neden oldu çünkü DeepSeek ile maliyetleri 40 kata kadar düşürmeyi başardılar. [10]

DeepSeek'in rakipleri ile arasındaki fiyat uçurumunu gösteren bir infografik.

Ancak bu başarının ardında ki tek faktör sadece uygun fiyatlandırma değildi. DeepSeek'in yayınladığı rapor, 671 milyar parametreye sahip R1 modellerinin nasıl üst düzey muhakeme yeteneği sağladığını detaylı biçimde ortaya koyuyordu. R1'in, o güne kadar alanın en güçlü kapalı modeli olan OpenAI GPT-4o ile rekabet edebilen sonuçlar sunması, sektörde "daha fazla işlem gücü eşittir daha iyi muhakeme" anlayışını ciddi şekilde sarstı. Guardian'ın "DeepSeek Paniği" başlıklı haberinde vurguladığı gibi, R1'in kamuya açılması Nvidia hisselerinin ilk işlem gününde %18 değer kaybederek yaklaşık 600 milyar dolarlık tarihi bir düşüş yaşamasına neden oldu. [11]

Detaylara inip ve DeepSeek'in paylaştığı makaleyi göz gezdirdiğimiz zaman DeepSeek'in maliyetleri kısmak için ciddi anlamda optimizasyon yaptığını görebiliyoruz. Örneğin sadece Hooper mimarisine sahip kartlarda çalışan FlashMLA ki burada DeepSeek'in elinde iyi miktarda Hopper mimarisine sahip H800 (NVIDIA tarafından çin pazarına sunulan H100 muadili ekran kartı) bulunduğuna ve R1'in bu kartlarda eğitildiğine dikkat çekelim. Ya da MoE (Mixture of Experts) olarak adlandırılan ve modelin sahip olduğu toplam 671 milyar parametre içinden her işlemde yalnızca küçük bir bölümü (37 milyar parametre gibi) aktif olarak kullanılarak hesaplama maliyeti önemli ölçüde azaltan yöntemler örnek verilebilir. [12]

Son olarak DeepSeek-R1 'in etkileyici performansını küçük ve ekonomik modellere aktarmak için kullanılan distilasyon (distillation) yöntemi de değinmeden geçmeyelim. Eğitim ve çalıştırma maliyetlerinde kayda değer optimizasyonlar yapılmış olsa da R1 hala 671 milyar parametre içeriyor yani sadece çalıştırmak için bile >400GB VRAM (4 bit quantization'a rağmen) lazım (RTX 4090 sadece 24GB VRAM içerdiğine dikkat çekelim). Bu durum bizati farkında olan DeepSeek kaliteli ama daha küçük modeller eğitmek amacıyla, hali hazırda güçlü ve yüksek kapasiteli R1 modelinin ürettiği yine yüksek kaliteli yaklaşık 800 bin örneklik sanal veri kümesini kullanarak daha küçük modellerin eğitimi için kullanmış. Bu şekilde 70, 32, 14, 8, 7 ve 1,5 milyarlık distile edilmiş R1 modellerini paylaşarak DeepSeek herkese imkanı yettiği ölçüde kaliteli bir R1 thinking modeli sağlamış oldu. [13]

DeepSeek’in detaylarından sonra geldiğimiz noktayı kabaca özetlersek 3 yıl önce ChatGPT ile birlikte doğal dil ile modele ya da artık daha genel bir isim ile yapay zekaya görev atayabilir hale geldik. Başlangıçta bunlar basit görevlerdi. Daha önce verdiğimiz örnekler gibi mesela bir metnin dilini sınıflandırmak ya da farklı bir stil ile yeniden yazdırmak. Devamında ise beklentileri karşılamak adına birçok yeni teknik ortaya çıktı ve yapay zekanın tek seferde tek bir prompt ile yapabildiği görevlerin kapasitesi arttı. Bunu şu grafikte çok net görebiliriz [14]:

2023 yaz aylarında standart bir matematik testinde %30 başarılı olan modeller artık %90 seviyesinde başarılılar. Daha iyi reasoning yani muhakeme yeteneğine sahipler. Daha karmaşık problemleri çözebiliyorlar.

Peki bu bizim için bir durak noktası mı? Elbette değil. İnsanlık olarak yapay zekadan beklentimiz bugünden daha iyi bir muhakeme yeteneği. Öyle ki bir insanla aynı seviyede. Şu an için eğitilmiş insan ile aynı seviyede çeşitli (genel) ve uzmanlıkta bir yapay zeka mevcut değil. Şu anda uzmanlar bu seviyeyi AGI (Artificial General Intelligence) yani yapay genel zeka olarak isimlendiriyorlar. Bu seviyede ki bir yapay zeka, kabaca bir insanla aynı seviyede muhakeme yeteneğine sahip olacak ve üretildiği an muhtemelen yapay zeka tarihinde ki yeni kırılma noktası olacak.

Burada muhakeme yeteneğini kabaca bir başarı ölçütü olarak görebiliriz. Ne kadar yüksek muhakeme yeteneği o kadar karmaşık problemlerin, görevlerin çözümü. Biz de Galaksiya olarak, bunlardan biri olan RAG'a (Retrieval Augmented Generation) ve devamında mevcut modellerden daha yüksek muhakeme yeteneğinin elde edilmesi üzerine odaklandık. MindGraph isimli Knowledge Graph (bilgi çizgesi) tabanlı bir yapı geliştirdik ve kayda değer sonuçlar elde ettik.

MindGraph

MindGraph

Bu tanımı açıklamadan önce LLM'lerin hayatımıza girmesiyle iyice anlam kazanmış ve hala aktif olarak üzerine çalışılan konulardan biri olan RAG'ın (Retrieval Augmented Generation) ne olduğundan bahsetmeliyiz. Daha önce de bahsettiğimiz gibi LLM'ler eğitildikleri verileri kullanarak girilen prompt'lara cevap üretebiliyorlar. Örneğin bir LLM'e “Avrupa'nın yüzölçümü nedir?” gibi bir soru sorarsanız doğru cevabı alırsınız (istisnalar dışında). Peki ya yarın avrupa kıtasının yüzölçümü değişirse? Hatta dinamik bir şekilde her gün değişmeye başlarsa? LLM'de bu bilgiyi nasıl güncelleyeceğiz? Başka bir örnek verelim. LLM'leri hayatımızın artık birçok alanında kullanabiliyoruz. Sorular soruyoruz ve cevap alabiliyoruz. Peki ama sürekli değişen ya da halka kapalı olan (private) veriler hakkında ki sorularımıza nasıl cevap alacağız? Mesela bir şirket yönetmeliği, finansallar ya da yasalar. Kısaca LLM'lerin private ya da dinamik veriler hakkında doğru cevaplar üretmesini nasıl sağlarız?

İşte bu soruya şu an verilebilecek ilk cevap RAG. RAG'ın temel amacı sorulacak olan soruya uygun cevabı içeren veriyi soruyla birlikte prompt içerisinde vermek. Böylece ilgili veriyle modeli yeniden eğitmeden LLM veri ile ilgili sorulara cevap verebilir hale geliyor(En azından teoride). Ve evet bu yaklaşımın bazı zayıf noktaları var. Bunlardan en önemlisi context window limiti. Context window kabaca bir LLM'in tek seferde girdi ve çıktı olarak işleyebileceği toplam token (bknz: Tokenization) sayısı. Bizim için önemli olan kısım ise özellikle girdi yani input sınırı. Eski derin öğrenme modellerini düşünün. Bir örneklemin boyutu her zaman sabit idi. Örneğin bir CNN modelinde kullanılan bir resmin boyutu her zaman sabit olmak zorunda idi. Bu bugün de geçerli ve modelden modele göre değişiyor. Şu an ki GPT modelleri için bu boyut maksimum 128,000 token kadar. 75 kelimenin kabaca 100 token yaptığını düşünürsek bu da kabaca 250 sayfalık bir kitap yapar. Yani bizim private ya da dinamik verimiz bundan daha büyük ise modele tek seferde veremeyiz. [15] 

Diğer bir problem ise tüm veriyi modele verebildiğimiz durumlarda dahi her zaman doğru cevabı alamayabiliriz. Özellikle veriler düzensiz yani saf metinlerden oluşuyor ve sorduğumuz soru yüksek muhakeme yeteneği gerektiriyor ise. Bu durumu daha iyi ifade edebilmek için bir metafor kullanalım. Farz edelim ki bir insan uzmana 250 sayfalık bir kitap verip kitapta geçen isimleri alfabetik sırayla söylemesini isteyelim. Uzmanın tamamlaması gereken adımlar kabaca şu şekilde olurdu:

  1. Kitapta geçen tüm isimleri atlamadan tek tek bir yere not al.
  2. Daha sonra not alınan tüm isimleri alfabetik olarak sırala.

Görüldüğü üzere bu sorunun çözümü tek bir adımdan oluşmuyor en azından makul bir çözüm için en az iki adıma dolayısıyla bu adımları oluşturmak için belli bir seviyede muhakeme yeteneğine ihtiyacı var. 

Peki bu problemlerin üstesinden nasıl geleceğiz?

Birinci problemi çözmenin tek yolu veriyi bir şekilde context window içine sığdırmaktan geçiyor. Yani veriyi bir şekilde kısaltmamız ya da filtrelememiz lazım ve bunu yaparken mümkünse sorunun cevabını içeren kısma zarar vermememiz lazım. Bu noktada sıklıkla tercih edilen yollardan biri vektörleri kullanmak [15]:

  1. Öncelikle metin chunk (küçük metin parçaları) bölünür.
  2. Ardından parçalar önceden eğitilmiş bir embedding modeli yardımıyla vektörlere dönüştürülür.
  3. Daha sonra bu vektörler bir veritabanında saklanır.
  4. Kullanıcı soru sorduğu zaman ilgili soruda vektöre dönüştürülür.
  5. Sorunun vektörüne en yakın (genelde kosinüs benzerliği kullanılıyor) olan k sayıda vektör getirilip soru ile birlikte LLM'e verilir.

Böylece metnin sorulan soruyla en alakalı parçaları filtrelenmiş ve context window'a sığmış olur. Vektör çözümü genel basit ve bu alanda sıklıkla kullanılan bir çözüm.

İkinci problem ise daha zor. Çünkü sorulan soruyu alt sorunlara parçalamayı ve alt çözüm adımları oluşturmayı gerektiriyor. Farkettiyseniz bu problem aslında daha önce de belirttiğimiz ve alanın üzerine yöneldiği yüksek muhakeme problemi ile aynı problem. Kabaca LLM'lerden nasıl daha yüksek muhakeme yeteneği elde edebiliriz? 

Doğal olarak bu alan üzerine çalışan neredeyse herkes bu problem üzerine eğilmiş durumda. Bunlara thinking modelleri ya da özel skorlama ajanları içeren çok ajanlı yapıları örnek verebiliriz. Biz ise ise hem birinci hem de ikinci problemi çözebilmek için MindGraph ismini verdiğimiz farklı yaklaşım kullandık.

MindGraph'ın temelini oluşturan bilgi çizgesi, yapısal olarak veriyi node ve edge yani düğüm ve kenarlar olarak tutmakta. İki düğüm arasında bir kenar olması demek iki düğümün bir şekilde birbirleriyle ilişkili olduğu anlamına geliyor. Bu açıdan beyne ve nöronların yapısına benzetebiliriz [17].

Peki biz MindGraph ile bu problemlere nasıl yaklaşıyoruz? Öncelikle birinci problemden başlayalım. Birinci problemde temel amacımız büyük miktarda veri için ham metin verisinin soru ile alakalı olan kısımlarını alıp geri kalanlarını filtrelemek idi. Burada ne kadar iyi bir filtreleme yaparsak o kadar iyi bir cevap alabildiğimizden ve bu problem için genel olarak vektör tabanlı çözümler kullanıldığından daha önce bahsetmiştik. Lakin vektör tabanlı yaklaşımlarında kendine has bazı alt sorunları mevcut.

İçerik filtreleme için sıklıkla tercih edilen vektör tabanlı çözümlerde gördüğümüz ilk sorun bir chunk'ın, sorulan soruyla ne kadar ilgili olup olmadığına dair ölçülebilir bir metriğimizin olmaması. Bu nedenle filtreleme için sabit bir sayı kullanıyoruz ve sıralanan chunk'lar arasından sadece bu sabit sayı kadar chunk seçmek durumunda kalıyoruz (Buna top k selection deniyor). Kullanılan sabit sayı bu çözümde bir hiper parametre olmuş oluyor ve ne olacağı verinin türüne, içeriğe ve konuya göre değişiklik gösterebiliyor.

İkinci sorun ise metni chunk'lara parçalamanın temelinde yatıyor. Her bir vektörün içerdiği öznitelikler sadece kesilen chunk'u temsil ediyor ve yine bu kesilen chunk'ların boyutu bir hiper parametre olarak belirleniyor mesela 800 karakter. Ama ya sorulan soruya cevap vermek için gereken minimum alan en az 2000 karakterden oluşuyorsa ne olacak? Hem sorduğumuz soruyu parçalanan chunklar ile eşleştiremiyoruz hemde ilgili alanı neredeyse tam ortadan ikiye böldüğümüz için ciddi miktarda informasyon kaybediyoruz. Bir çözüm olarak daha yüksek bir sabit sayı kullanıp chunk'ları büyütebiliriz. Ama bu da aynı miktarda öznitelikle daha çok informasyonu ifade etmeyi zorunlu kılıyor. Dahası tam ters bir etki yaparak cevabı çok küçük bir alan (mesela 200 karakter) bir bölgeyi bulmamızı çok daha zor hale getiriyor.

İşte bu nedenle MindGraph metodun da vektör tabanlı yaklaşımın yerine KG tabanlı bir yaklaşım tercih ettik. Bunun için önce veriyi bir bilgi çizgesine oturtuyoruz. Böylece unstructured yani düzensiz ve ham metin verisini structured yani düzenli bir hale getiriyoruz. Daha sonra ise graph engine dilinde SQL benzeri sorgular yazarak veriyi filtreliyoruz [18].

Örneğin yukarıda bulunan KG'a bakalım. Kullanıcı Iron Man'in tüm yapımcılarını sırala gibi bir soru sormuş olsun. Bu soruyu cevaplamak için yapmamız gereken çok basit bir Cypher kodu ile Iron Man düğümüne ait tüm komşuları getirmek ve soru ile birlikte LLM'e vermek.

Bu sayede sorulan soruyla ilgili gereken tüm bilgileri, parçalamadan, structured yani düzgün ve öz bir biçimde LLM'e verebilmiş oluyoruz. Filtrelemeyi ise sorulan soruda geçen özneye göre çok rahat bir şekilde yapabildik.

İkinci olarak ifade ettiğimiz ve çözümü için muhakeme yeteneğine ihtiyaç duyduğumuz probleme ise MindGraph ile getirdiğimiz yaklaşımı şöyle ifade edebiliriz [19].

Yukarıdaki bilgi çizgesini incelediğimizde kişileri, arkadaşlarını ve çalıştıkları şirketleri içeren basit bir yapı görüyoruz. Farz edelim ki kullanıcı Jennifer'in tüm arkadaşlarını ve çalıştıkları firmaları sırala lütfen. şeklinde bir soru sormuş olsun. Şayet bu soruyu eğer vektör benzerlik yöntemi ile cevaplamak isteseydik, sorulan soruyu vektöre dönüştürüp ardından tüm chunk vektörleri ile benzerliğine bakmamız gerekecekti. Ve böylece kalitesiz bir cevap almış olacaktık. Ama neden?

Bunun ilk nedeni metinde Jennifer'in X ile arkadaş olduğu bilgisinin bulunduğu kısım ile X'in Y şirketi için çalıştığı bilgisinin bulunduğu kısmın muhtemelen çok farklı yerlerde geçiyor olması. Mesela farklı iki dokümanın çok farklı sayfalarında. Bunun ikinci nedeni ise sorunun iki adımdan oluşuyor olması:

Jennifer'in arkadaşlarını bul.

Bulunan arkadaşların çalıştıkları şirketleri bul.

yani tesadüfen eksiksiz ve öz miktarda chunk ve informasyonu filtreleyip LLM'e verdiğimiz farz etsek bile LLM'e ham veriyi verip veriler arasında ilişki kurmasını yani muhakeme yeteneği göstermesi bekliyoruz. Hem de hiçbir yol göstermeden.

Şimdi ise MindGraph kullandığımız durumda ise tek yapmamız gereken:

  • Jennifer'i,
  • IS_FRIENDS_WITH üzerinden arkadaşlarını
  • WORKS_FOR üzerinden çalıştıkları şirketleri

getiren basit bir Cypher query yazmak. Daha sonra dönen bilgiyi soru ile LLM'e vermek. Bu sayede LLM'i az ve öz miktarda bilgi ile beslemiş ve gereksiz bilgiden arındırmış oluyoruz. Daha önemlisi ise bilgilerde geçen nesne, özne ve kavramları yani kısaca entity'leri node ve edge yapısında birbirlerine bağlı şekilde verdiğimiz için muhtemel muhakeme yollarını LLM'e işaret etmiş oluyoruz.

Sonuç

Sonuç olarak, MindGraph yaklaşımının potansiyelini değerlendirdiğimiz testler ve ön çalışmalar oldukça heyecan verici sonuçlar ortaya koydu. 

MindGraph'ı klasik RAG yöntemleriyle karşılaştırdığımızda, özellikle maliyet avantajları ve muhakeme yeteneğindeki çarpıcı artışı net bir şekilde görüyoruz. Buna örnek olarak daha önce bir müşterimizde, RAG yerine doğrudan fine-tuning yöntemini tercih ettik ve tamamen müşteriye özel, oldukça özelleşmiş bir model geliştirdik. Bu süreç kabaca 9000 dolara mal oldu. MindGraph yöntemini kullandığımızda ise çok daha düşük maliyetlerle, aynı hatta daha yüksek muhakeme kabiliyetine sahip sonuçlar elde edebildiğimizi gördük.

MindGraph'ın avantajlarını daha iyi ifade etmek için somut örnekler üzerinden ilerleyelim. Diyelim ki bir gıda şirketinde üretimden sorumlu bir yöneticisiniz. Üretim hattınızda kritik bir ekipman olan paketleme makinesi durdu ve hızlıca karar vermeniz gerekiyor. "Paketleme makinesi durursa, önümüzdeki ay sipariş teslimatlarımız, stoklarımız ve lojistik nasıl etkilenir?" gibi bir soruya geleneksel vektör RAG yöntemleriyle doğru cevap almak oldukça zor olacaktır. Çünkü bu tarz sorular çok sayıda verinin analiz edilmesini ve karmaşık ilişkilerin değerlendirilmesini gerektiriyor. Oysa MindGraph sayesinde, üretim hattı, stok ve teslimat gibi farklı kaynaklardan elde edilen verileri grafik tabanlı bir yapıya oturtarak tek seferde net bir cevap alabiliyoruz.

Bir başka örnekte ise daha stratejik bir soruya odaklanalım. Erdem, Galaksiya'nın büyük ortağıdır. Galaksiya ise Deepin'in, Deepin de Twinize'ın büyük ortağı konumundadır. Şimdi Erdem, stratejik bir hamle öncesinde şu soruların cevaplarını arıyor olabilir:

  • "Deepin şirketindeki hisse oranımız %20 azalırsa, Twinize üzerindeki doğrudan ve dolaylı kontrolümüz nasıl etkilenir?"
  • "Galaksiya olarak Twinize'ın büyümesinden elde edeceğimiz toplam değer artışı, Deepin'deki olası bir küçülmenin yaratacağı zararı telafi eder mi?"

Bu tarz çok katmanlı ve ilişkisel soruları geleneksel yöntemlerle ya da basit RAG yaklaşımlarıyla çözmek neredeyse imkansızdır çünkü bu senaryolar yüksek seviyede muhakeme gerektirir. MindGraph ise bu tip karmaşık ilişkileri doğrudan ve verimli şekilde çözebilen, akıllı sorgularla çalışır. Böylece herhangi bir uzman müdahalesine veya yeni bir eğitim sürecine gerek kalmadan, bu soruların yanıtlarını net olarak alabilmekteyiz.

MindGraph'ın diğer bir önemli avantajı ise güncelleme kolaylığı. Fine-tuning modeller her senaryo değiştiğinde yeniden eğitimi gerektirirken, MindGraph'ın esnek yapısı sayesinde bilgi çizgesini güncelleyerek sürekli ve gerçek zamanlı adaptasyon sağlanabiliyor. Bu sayede hem maliyetleri düşürüyor, hem de operasyonel süreçleri basitleştiriyoruz.

Galaksiya olarak, MindGraph metodunu geliştirmeyi, bilgi çizgesi tabanlı yaklaşımları yüksek muhakeme yeteneği gerektiren tüm alanlarda uygulamayı ve bu yöntemlerle yapay zeka modellerinin kabiliyetlerini daha da ileri taşımayı sürdürmekteyiz. Bir sonraki adımda sizlerle daha detaylı benchmark sonuçları paylaşıyor olacağız. O zamana kadar

Esen kalın…

Behçet ŞENTÜRK, Machine Learning Engineer

Referanslar

[1]: viso.ai. 2024. “AlexNet: A Revolutionary Deep Learning Architecture.” Last accessed May 5. https://viso.ai/deep-learning/alexnet/.

[2]: CNBC. 2025. “Nvidia passes Apple again to become world's most valuable company.” Last accessed May 5. https://www.cnbc.com/2025/01/21/nvidia-passes-apple-again-to-become-worlds-most-valuable-company-.html.

[3]: Neural Networks and Deep Learning. 2019. “Why are deep neural networks hard to train?.” Last accessed May 5. http://neuralnetworksanddeeplearning.com/chap5.html.

[4]: Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. 2017. “Attention is all you need.” arXiv (Cornell University), January. https://doi.org/10.48550/arxiv.1706.03762.

[5]: kaggle. 2020. “Tweet Sentiment Extraction.” Last accessed May 5. https://www.kaggle.com/competitions/tweet-sentiment-extraction/overview.

[6]: Forbes. 2025. “ChatGPT Hits 1 Billion Users? ‘Doubled In Just Weeks' Says OpenAI CEO.” Last accessed May 5. https://www.forbes.com/sites/martineparis/2025/04/12/chatgpt-hits-1-billion-users-openai-ceo-says-doubled-in-weeks/.

[7]: Technology Magazine. 2024. “Gen AI Boom Drives Nvidia Value to Overtake Microsoft.” Last accessed May 5. https://technologymagazine.com/digital-transformation/gen-ai-boom-causes-nvidia-value-to-overtake-microsoft.

[8]: EPOCH AI. 2025. “Notable AI Models.” Last accessed May 5. https://epoch.ai/data/notable-ai-models.

[9]: SEC. 2024. “NVIDIA CORPORATION.” Last accessed May 5. https://www.sec.gov/Archives/edgar/data/1045810/000104581024000029/nvda-20240128.htm.

[10]: Reuters. 2025. “DeepSeek gives Europe's tech firms a chance to catch up in global AI race” Last accessed May 5. https://www.reuters.com/technology/artificial-intelligence/deepseek-gives-europes-tech-firms-chance-catch-up-global-ai-race-2025-02-03/.

[11]: The Guardian. 2025. “Tech billionaires lost almost $100bn in stock market selloff sparked by DeepSeek.” Last accessed May 5. https://www.theguardian.com/technology/2025/jan/28/deepseek-selloff.

[12]: github. 2025. “FlashMLA.” Last accessed May 5. https://github.com/deepseek-ai/FlashMLA.

[13]: ollama. 2025. “deepseek-r1.” Last accessed May 5. https://ollama.com/library/deepseek-r1:671b.

[14]: EPOCH AI. 2025. “US models currently outperform non-US models.” Last accessed May 5. https://epoch.ai/data-insights/us-vs-non-us-performance.

[15]: openai. 2025. “What are tokens and how to count them?” Last accessed May 5. https://help.openai.com/en/articles/4936856-what-are-tokens-and-how-to-count-them.

[16]: E2E Cloud. 2025. “Implementing Advanced RAG Techniques with Elasticsearch Vector DB.” Last accessed May 5. https://www.e2enetworks.com/blog/implementing-advanced-rag-techniques-with-elasticsearch-vector-db.

[17]: Xiao, Mingqing, Yixin Zhu, Di He, and Zhouchen Lin. 2024. “Temporal Spiking Neural Networks With Synaptic Delay for Graph Reasoning.” arXiv (Cornell University), May. https://doi.org/10.48550/arxiv.2405.16851.

[18]: Li, Junyi, Tianyi Tang, Wayne Xin Zhao, Zhicheng Wei, Nicholas Jing Yuan, and Ji-Rong Wen. 2021. “Few-shot Knowledge Graph-to-Text Generation With Pretrained Language Models.” arXiv (Cornell University), January. https://doi.org/10.48550/arxiv.2106.01623.

[19]: Analytics Yogi. 2022. “Nvidia passes Apple again to become world's most valuable company.” Last accessed May 5. https://vitalflux.com/nosql-data-models-concepts-examples/.