Ertuğrul Akben

0 %
Ertuğrul Akben
Yapay Zeka & Sistem Stratejisti | Yatırımcı | Dijital Medya ve Marka Danışmanı | Araştırmacı
  • Yurt Dışı Ofisleri
    UK, ABD
  • Bölge Ofisi
    Antalya
  • Merkez
    İstanbul
  • Atölye
    Kahramanmaraş
Ana Şirketler
  • AĞABEYOĞLU GRUP A.Ş.
  • EAGM GROUP LTD.
  • TECH AI CORE LLC.
Sektörler
  • MEDYA
  • YAZILIM
  • SMM
  • İNŞAAT
  • TURİZM
  • SANAYİ
  • KOZMETİK
  • GIDA

NEURON: LLM’ler İçin Hibrit Hafıza Mimarisi

3 Şubat 2026

NEURON v0.2.0

Neural Encoding with Unified Recurrent Optimized Network

LLM’ler için hibrit hafıza mimarisi geliştirdik. Crystal Memory ile kritik bilgileri kesin hatırlıyor, Morph Layer ile sınırsız bağlam tutuyor, ve dünyadaki hiçbir sistemde olmayan Temporal Belief Graph (TBG) ile çelişkileri tespit ediyor.

Etiketler: Yapay Zeka, LLM Memory, AR-GE, Python, PyTorch


İçindekiler

  1. Problem: Context Window Limiti
  2. Çözüm: İkili Yol Hafıza Mimarisi
  3. Crystal Memory: Kesin Hatırlama
  4. Morph Layer: Sınırsız Bağlam
  5. TBG: Çelişki Tespiti (Özgün Katkı)
  6. SMTR: Akıllı Yönlendirme
  7. Gerçek Dünya Senaryoları
  8. Benchmark Sonuçları
  9. Rakiplerle Karşılaştırma
  10. LLM Entegrasyonu
  11. Limitasyonlar
  12. Yol Haritası

1. Problem: Context Window Limiti

ChatGPT, Claude, Gemini gibi LLM’lerle uzun süreli çalıştığınızda mutlaka şu sorunlarla karşılaşmışsınızdır:

Gerçek Dünya Senaryosu:

Siz: “Toplantı 15 Mart Cuma, saat 15:45’te, Zoom’da.”

(100 mesaj sonra…)

Siz: “Toplantı ne zaman?”

AI: “Mart ayında bir toplantıdan bahsetmiştiniz ama tam tarih ve saati hatırlamıyorum.”

Mevcut Yaklaşımların Problemleri

Yaklaşım Nasıl Çalışır Problem
Full Context Tüm konuşmayı her seferinde gönder O(n²) maliyet, 128K token limiti
RAG Vektör DB’den benzer chunk’ları getir Parçalı bilgi, exact match zor
Özetleme Eski konuşmaları özetle “15:45” → “öğleden sonra” bilgi kaybı
Mem0 Graph/key-value hafıza Çelişkileri sessizce üzerine yazar

Kritik Soru: Ya “toplantı saat 15:00” dedikten sonra “aslında 16:00’ya ertelendi” derseniz? Mevcut sistemlerin hiçbiri bu çelişkiyi açıkça tespit etmiyor.


2. Çözüm: İkili Yol Hafıza Mimarisi

NEURON, bilgiyi tek bir yere koymak yerine doğru hafıza tipine yönlendiriyor:

┌─────────────────────────────────────────────────────────────────────┐
│                            NEURON v0.2.0                            │
├─────────────────────────────────────────────────────────────────────┤
│   INPUT ───► ENCODER ───► IMPORTANCE ROUTER (SMTR)                  │
│                                 │                                   │
│                    ┌────────────┼────────────┐                      │
│                    ▼            ▼            ▼                      │
│            ┌────────────┐ ┌──────────┐ ┌──────────┐                │
│            │  CRYSTAL   │ │   BOTH   │ │  MORPH   │                │
│            │  MEMORY    │ │  (Hedge) │ │  LAYER   │                │
│            │ (Symbolic) │ │          │ │ (Neural) │                │
│            └─────┬──────┘ └────┬─────┘ └────┬─────┘                │
│                  └─────────────┼────────────┘                       │
│                                ▼                                    │
│              ┌────────────────────────────────┐                    │
│              │   TEMPORAL BELIEF GRAPH (TBG)  │ ◄── ÖZGÜN KATKI    │
│              └────────────────┬───────────────┘                    │
│                               ▼                                     │
│                    ┌────────────────────┐                          │
│                    │   FUSION LAYER     │                          │
│                    └─────────┬──────────┘                          │
│                              ▼                                      │
│                    ┌────────────────────┐                          │
│                    │    LLM BACKEND     │                          │
│                    │ (GPT-4/Claude/etc) │                          │
│                    └────────────────────┘                          │
└─────────────────────────────────────────────────────────────────────┘

Temel fikir basit: Her bilgi eşit değildir.

Crystal’a Gidecek Bilgiler

  • Toplantı: 15 Mart, 15:45
  • Bütçe: $75,000
  • E-posta: user@company.com
  • API Key: sk-abc123…

Morph’a Gidecek Bilgiler

  • Genel proje gereksinimlerini tartıştık
  • Ekip pozitif görünüyordu
  • Timeline konusunda endişeler var
  • Yaklaşım konusunda hemfikiriz

3. Crystal Memory: Kesin Hatırlama

Crystal Memory, kritik bilgileri %99.8 doğrulukla saklayan semantik key-value store’dur.

Semantik İndeksleme

Her bilgi, embedding vektörü ile saklanır. Sorgu geldiğinde cosine similarity ile eşleşmeler bulunur.

Formül: similarity(q, k) = cos(θ) = (q · k) / (||q|| × ||k||)

Importance-Weighted LRU Eviction

Crystal 10K öğe ile sınırlıdır. Dolduğunda, en az önemli ve en eski öğeler çıkarılır:

Formül: eviction_score = importance × recency_decay (Düşük skor = önce çıkar)

Kullanım Örneği

from neuron import CrystalMemory

crystal = CrystalMemory(max_items=10000, embedding_dim=512)

# Kritik bilgi sakla
crystal.store(key=embedding, value="Toplantı 15 Mart 15:45", importance=0.95)

# Sorgula
results = crystal.retrieve(query_embedding, top_k=5)
# → [{"value": "Toplantı 15 Mart 15:45", "similarity": 0.98}]

Crystal Memory Metrikleri

  • Max Kapasite: 10K
  • Recall Accuracy: 99.8%
  • Similarity Threshold: >0.95

4. Morph Layer: Sınırsız Bağlam

Morph Layer, sabit O(1) bellekle sınırsız bilgi işleyebilen neural state matrix’tir.

State Matrix Güncelleme

Formül: M(t) = λ × M(t-1) + η × ΔW

λ: decay rate, η: learning rate, ΔW: weight delta

HyperNetwork ile ΔW Hesaplama

Formül: k = Φ_key(x), v = Φ_val(x), ΔW = k ⊗ v

Outer product ile low-rank güncelleme

Semantic-Aware Decay

Formül: λ = base_decay^(2 – similarity)

Benzer bilgiler yavaş, farklı bilgiler hızlı unutulur

# rank=64 için:
M.shape = [512, 512]  # Sabit!
params = 512 × 512 = 262,144  # ~1MB

# 1 milyon mesaj işlesen bile:
M.shape = [512, 512]  # Hala sabit!

Morph Layer Metrikleri

  • Bellek Kullanımı: O(1)
  • State Matrix: ~1MB
  • Context Retention: 95%

5. Temporal Belief Graph: Çelişki Tespiti

ÖZGÜN KATKI: TBG, NEURON’un en önemli yeniliğidir. Titans (Google), BudgetMem, TiMem, Mem0 dahil hiçbir mevcut hafıza sistemi çelişkileri açıkça tespit etmiyor.

Çelişki Tipleri

Çelişki Tipi Örnek Tespit Yöntemi
VALUE_CONFLICT “Saat 15:00” vs “Saat 16:00” Aynı yapı, farklı değer
NEGATION “Onaylandı” vs “Onaylanmadı” Negation pattern matching
TEMPORAL_CONFLICT “Bugün” vs “Yarın” Zaman ifadesi çakışması
PARTIAL Kısmi örtüşen bilgiler High overlap, different content

Belief Evolution

Formül: confidence = (corroboration_count / total_evidence) + recency_adjustment

Doğrulama arttıkça güven artar, çelişki gelince düşer

# İlk bilgi
neuron.absorb(emb, "Toplantı saat 15:00")  # confidence: 0.7

# Aynı bilgi tekrar (corroboration)
neuron.absorb(emb, "Evet, toplantı 15:00'te")  # confidence: 0.85 ↑

# Çelişkili bilgi (contradiction)
neuron.absorb(emb, "Toplantı 16:00'ya ertelendi")
# → İlk bilgi confidence: 0.4 ↓
# → Contradiction kaydedildi!

# Çelişkileri sorgula
conflicts = neuron.get_contradictions()
history = neuron.get_belief_history()

6. SMTR: Akıllı Yönlendirme

SMTR, her bilgiyi doğru hafıza tipine yönlendiren akıllı router’dır.

def route(embedding, text, context):
    importance = calculate_importance(text)  # Tarih, sayı, isim var mı?
    surprise = calculate_surprise(embedding, context)

    if importance > 0.7 and surprise > 0.5:
        return "CRYSTAL_HIGH"  # Kritik + şaşırtıcı
    elif importance > 0.7:
        return "CRYSTAL"
    elif surprise > 0.6:
        return "BOTH"  # Hedge - her ikisine yaz
    else:
        return "MORPH"

Importance Boost Tablosu

Pattern Örnek Importance Boost
Tarih/Saat “15 Mart”, “saat 14:30” +0.3
Para “$75,000”, “500 TL” +0.25
E-posta “user@company.com” +0.2
Kod/API Key “sk-abc123…” +0.3

7. Gerçek Dünya Senaryoları

💼 Proje Yönetimi Asistanı

Durum: PM, AI ile 3 aylık proje boyunca çalışıyor.

  • Tarihler, bütçeler Crystal’da → “Q2 deadline ne zaman?” → Kesin cevap
  • Tartışmalar Morph’ta → “Ekibin havası nasıldı?” → Bağlamsal cevap
  • Bütçe değişince TBG uyarır → “Dikkat: Bütçe $50K’dan $75K’ya güncellendi”

🏥 Sağlık Takip Botu

Durum: İlaç dozları ve randevu takibi

  • “Aspirin 100mg günde 2” → Crystal (kritik)
  • “Doktor 200mg’a çıkardı” → TBG: “Uyarı: Doz değişikliği algılandı”

RAG vs NEURON Karşılaştırması

RAG ile: “Saat 15:00” ve “Saat 16:00” aynı similarity. Hangisi güncel? Bilinmiyor.

NEURON ile: TBG çelişkiyi tespit etmiş. “16:00” daha yeni. AI: “Toplantı 16:00’da. Not: Önceden 15:00 idi.”


8. Benchmark Sonuçları

Özet Metrikler

  • Crystal Recall: 99.8%
  • Routing Accuracy: 100%
  • Genel Doğruluk: 98.3%
  • Context Retention: 95%

Detaylı Benchmark Tablosu

Benchmark n Skor Detay
Crystal Recall 500 99.80% 499/500 kesin retrieval
Routing Accuracy 1000 100.00% 1000/1000 doğru yönlendirme
Memory Efficiency 2000 100.00% Crystal bounded, Morph O(1)
Context Retention 100 95.01% Centroid alignment
TBG Contradiction 100 100.00% Tüm çelişkiler tespit edildi

Performans Süreleri

İşlem Süre Not
Absorb ~7 ms/item Store + route + TBG check
Query ~1.4 ms/item Crystal + Morph + Fusion
LLM API Call ~500-2000 ms Karşılaştırma için

Not: NEURON overhead’i (~10ms) LLM API’ye göre (%1’den az) ihmal edilebilir.


9. Rakiplerle Karşılaştırma

Sistem Hafıza Tipi Routing Çelişki Tespiti
Titans (Google) Tek neural Surprise→Write ❌ Yok
BudgetMem Dual text Salience scoring ❌ Yok
TiMem Hierarchical Complexity-based ❌ Yok
Mem0 Graph-based Dense retrieval ⚠️ Sessiz üzerine yazma
MemGPT Hierarchical text LLM-driven ❌ Yok
NEURON Sembolik + Neural SMTR ✅ TBG

10. LLM Entegrasyonu

OpenAI, Claude, Gemini adaptörleri ile plug-and-play entegrasyon.

from neuron import NEURON
from neuron.adapters import OpenAIAdapter, ClaudeAdapter

# NEURON hafıza sistemi
memory = NEURON(crystal_size=10000, embedding_model="text-embedding-3-small")

# OpenAI adaptörü
llm = OpenAIAdapter(memory=memory, model="gpt-4-turbo")

# Otomatik hafıza yönetimi!
response = llm.chat("Toplantı ne zaman?")
# → NEURON Crystal'dan "15 Mart 15:45" çeker
# → LLM'e context olarak ekler
# → "Toplantı 15 Mart Cuma, saat 15:45'te."

# Çelişki varsa uyarır
response = llm.chat("Bütçeyi güncelle: $100,000")
# → TBG: "Dikkat: Önceki bütçe $75,000 idi."

Desteklenen LLM’ler

LLM Adaptör Durum
OpenAI GPT-4 OpenAIAdapter Hazır
Claude ClaudeAdapter Hazır
Gemini GeminiAdapter Hazır
Local (Ollama) LocalAdapter Geliştiriliyor

11. Limitasyonlar

  • Embedding Bağımlılığı: Kalite, embedding modeline bağlı
  • Crystal Kapasitesi: 10K ile sınırlı
  • Morph Bulanıklığı: Kesin değerler döndüremez
  • TBG False Positive: Benzer ama çelişkili olmayan bilgiler yanlış tespit edilebilir
  • Harici Benchmark Eksik: LoCoMo, RAGBench validasyonu beklemede

12. Yol Haritası

✅ Ocak 2026 – Faz 1: Literatür Taraması

20+ paper: Titans, BudgetMem, TiMem, Mem0, MemGPT…

✅ 1-2 Şubat 2026 – Faz 2: Core Engine

Crystal, Morph, SMTR, Fusion, TBG tamamlandı. %98.3 doğruluk.

🔄 Şubat 2026 – Faz 3: LLM Entegrasyonu

OpenAI, Claude, Gemini adaptörleri

📋 Şubat 2026 – Faz 4: Production

Docker, PyPI, dokümantasyon, beta release

📋 Mart 2026 – Faz 5: Paper & Launch

ArXiv paper, GitHub public release

Kurulum

# Kaynak koddan
git clone https://github.com/ertugrulakben/neuron.git
cd neuron && pip install -e .

# PyPI'dan (yakında)
pip install neuron-memory

Sonuç

NEURON, LLM hafıza sistemlerinde yeni bir yaklaşım sunuyor:

  • Crystal Memory: Kritik bilgileri %99.8 doğrulukla saklar
  • Morph Layer: O(1) bellekle sınırsız bağlam tutar
  • TBG: Dünyanın ilk explicit çelişki tespit sistemi
  • SMTR: Akıllı routing ile doğru hafızaya yönlendirme

Özet Metrikler: Genel Doğruluk: %98.3 | Routing: %100 | Crystal Recall: %99.8 | Overhead: <%1


Geliştirici: Ertuğrul Akben

Lisans: MIT

Posted in Genel, Güncel Haberler, Teknoloji, Yapay Zeka, YazılımTags: