NEURON v0.2.0
Neural Encoding with Unified Recurrent Optimized Network
LLM’ler için hibrit hafıza mimarisi geliştirdik. Crystal Memory ile kritik bilgileri kesin hatırlıyor, Morph Layer ile sınırsız bağlam tutuyor, ve dünyadaki hiçbir sistemde olmayan Temporal Belief Graph (TBG) ile çelişkileri tespit ediyor.
Etiketler: Yapay Zeka, LLM Memory, AR-GE, Python, PyTorch
İçindekiler
- Problem: Context Window Limiti
- Çözüm: İkili Yol Hafıza Mimarisi
- Crystal Memory: Kesin Hatırlama
- Morph Layer: Sınırsız Bağlam
- TBG: Çelişki Tespiti (Özgün Katkı)
- SMTR: Akıllı Yönlendirme
- Gerçek Dünya Senaryoları
- Benchmark Sonuçları
- Rakiplerle Karşılaştırma
- LLM Entegrasyonu
- Limitasyonlar
- Yol Haritası
1. Problem: Context Window Limiti
ChatGPT, Claude, Gemini gibi LLM’lerle uzun süreli çalıştığınızda mutlaka şu sorunlarla karşılaşmışsınızdır:
Gerçek Dünya Senaryosu:
Siz: “Toplantı 15 Mart Cuma, saat 15:45’te, Zoom’da.”
(100 mesaj sonra…)
Siz: “Toplantı ne zaman?”
AI: “Mart ayında bir toplantıdan bahsetmiştiniz ama tam tarih ve saati hatırlamıyorum.”
Mevcut Yaklaşımların Problemleri
| Yaklaşım | Nasıl Çalışır | Problem |
|---|---|---|
| Full Context | Tüm konuşmayı her seferinde gönder | O(n²) maliyet, 128K token limiti |
| RAG | Vektör DB’den benzer chunk’ları getir | Parçalı bilgi, exact match zor |
| Özetleme | Eski konuşmaları özetle | “15:45” → “öğleden sonra” bilgi kaybı |
| Mem0 | Graph/key-value hafıza | Çelişkileri sessizce üzerine yazar |
Kritik Soru: Ya “toplantı saat 15:00” dedikten sonra “aslında 16:00’ya ertelendi” derseniz? Mevcut sistemlerin hiçbiri bu çelişkiyi açıkça tespit etmiyor.
2. Çözüm: İkili Yol Hafıza Mimarisi
NEURON, bilgiyi tek bir yere koymak yerine doğru hafıza tipine yönlendiriyor:
┌─────────────────────────────────────────────────────────────────────┐ │ NEURON v0.2.0 │ ├─────────────────────────────────────────────────────────────────────┤ │ INPUT ───► ENCODER ───► IMPORTANCE ROUTER (SMTR) │ │ │ │ │ ┌────────────┼────────────┐ │ │ ▼ ▼ ▼ │ │ ┌────────────┐ ┌──────────┐ ┌──────────┐ │ │ │ CRYSTAL │ │ BOTH │ │ MORPH │ │ │ │ MEMORY │ │ (Hedge) │ │ LAYER │ │ │ │ (Symbolic) │ │ │ │ (Neural) │ │ │ └─────┬──────┘ └────┬─────┘ └────┬─────┘ │ │ └─────────────┼────────────┘ │ │ ▼ │ │ ┌────────────────────────────────┐ │ │ │ TEMPORAL BELIEF GRAPH (TBG) │ ◄── ÖZGÜN KATKI │ │ └────────────────┬───────────────┘ │ │ ▼ │ │ ┌────────────────────┐ │ │ │ FUSION LAYER │ │ │ └─────────┬──────────┘ │ │ ▼ │ │ ┌────────────────────┐ │ │ │ LLM BACKEND │ │ │ │ (GPT-4/Claude/etc) │ │ │ └────────────────────┘ │ └─────────────────────────────────────────────────────────────────────┘
Temel fikir basit: Her bilgi eşit değildir.
Crystal’a Gidecek Bilgiler
- Toplantı: 15 Mart, 15:45
- Bütçe: $75,000
- E-posta: user@company.com
- API Key: sk-abc123…
Morph’a Gidecek Bilgiler
- Genel proje gereksinimlerini tartıştık
- Ekip pozitif görünüyordu
- Timeline konusunda endişeler var
- Yaklaşım konusunda hemfikiriz
3. Crystal Memory: Kesin Hatırlama
Crystal Memory, kritik bilgileri %99.8 doğrulukla saklayan semantik key-value store’dur.
Semantik İndeksleme
Her bilgi, embedding vektörü ile saklanır. Sorgu geldiğinde cosine similarity ile eşleşmeler bulunur.
Formül: similarity(q, k) = cos(θ) = (q · k) / (||q|| × ||k||)
Importance-Weighted LRU Eviction
Crystal 10K öğe ile sınırlıdır. Dolduğunda, en az önemli ve en eski öğeler çıkarılır:
Formül: eviction_score = importance × recency_decay (Düşük skor = önce çıkar)
Kullanım Örneği
from neuron import CrystalMemory
crystal = CrystalMemory(max_items=10000, embedding_dim=512)
# Kritik bilgi sakla
crystal.store(key=embedding, value="Toplantı 15 Mart 15:45", importance=0.95)
# Sorgula
results = crystal.retrieve(query_embedding, top_k=5)
# → [{"value": "Toplantı 15 Mart 15:45", "similarity": 0.98}]
Crystal Memory Metrikleri
- Max Kapasite: 10K
- Recall Accuracy: 99.8%
- Similarity Threshold: >0.95
4. Morph Layer: Sınırsız Bağlam
Morph Layer, sabit O(1) bellekle sınırsız bilgi işleyebilen neural state matrix’tir.
State Matrix Güncelleme
Formül: M(t) = λ × M(t-1) + η × ΔW
λ: decay rate, η: learning rate, ΔW: weight delta
HyperNetwork ile ΔW Hesaplama
Formül: k = Φ_key(x), v = Φ_val(x), ΔW = k ⊗ v
Outer product ile low-rank güncelleme
Semantic-Aware Decay
Formül: λ = base_decay^(2 – similarity)
Benzer bilgiler yavaş, farklı bilgiler hızlı unutulur
# rank=64 için: M.shape = [512, 512] # Sabit! params = 512 × 512 = 262,144 # ~1MB # 1 milyon mesaj işlesen bile: M.shape = [512, 512] # Hala sabit!
Morph Layer Metrikleri
- Bellek Kullanımı: O(1)
- State Matrix: ~1MB
- Context Retention: 95%
5. Temporal Belief Graph: Çelişki Tespiti
ÖZGÜN KATKI: TBG, NEURON’un en önemli yeniliğidir. Titans (Google), BudgetMem, TiMem, Mem0 dahil hiçbir mevcut hafıza sistemi çelişkileri açıkça tespit etmiyor.
Çelişki Tipleri
| Çelişki Tipi | Örnek | Tespit Yöntemi |
|---|---|---|
| VALUE_CONFLICT | “Saat 15:00” vs “Saat 16:00” | Aynı yapı, farklı değer |
| NEGATION | “Onaylandı” vs “Onaylanmadı” | Negation pattern matching |
| TEMPORAL_CONFLICT | “Bugün” vs “Yarın” | Zaman ifadesi çakışması |
| PARTIAL | Kısmi örtüşen bilgiler | High overlap, different content |
Belief Evolution
Formül: confidence = (corroboration_count / total_evidence) + recency_adjustment
Doğrulama arttıkça güven artar, çelişki gelince düşer
# İlk bilgi neuron.absorb(emb, "Toplantı saat 15:00") # confidence: 0.7 # Aynı bilgi tekrar (corroboration) neuron.absorb(emb, "Evet, toplantı 15:00'te") # confidence: 0.85 ↑ # Çelişkili bilgi (contradiction) neuron.absorb(emb, "Toplantı 16:00'ya ertelendi") # → İlk bilgi confidence: 0.4 ↓ # → Contradiction kaydedildi! # Çelişkileri sorgula conflicts = neuron.get_contradictions() history = neuron.get_belief_history()
6. SMTR: Akıllı Yönlendirme
SMTR, her bilgiyi doğru hafıza tipine yönlendiren akıllı router’dır.
def route(embedding, text, context):
importance = calculate_importance(text) # Tarih, sayı, isim var mı?
surprise = calculate_surprise(embedding, context)
if importance > 0.7 and surprise > 0.5:
return "CRYSTAL_HIGH" # Kritik + şaşırtıcı
elif importance > 0.7:
return "CRYSTAL"
elif surprise > 0.6:
return "BOTH" # Hedge - her ikisine yaz
else:
return "MORPH"
Importance Boost Tablosu
| Pattern | Örnek | Importance Boost |
|---|---|---|
| Tarih/Saat | “15 Mart”, “saat 14:30” | +0.3 |
| Para | “$75,000”, “500 TL” | +0.25 |
| E-posta | “user@company.com” | +0.2 |
| Kod/API Key | “sk-abc123…” | +0.3 |
7. Gerçek Dünya Senaryoları
💼 Proje Yönetimi Asistanı
Durum: PM, AI ile 3 aylık proje boyunca çalışıyor.
- Tarihler, bütçeler Crystal’da → “Q2 deadline ne zaman?” → Kesin cevap
- Tartışmalar Morph’ta → “Ekibin havası nasıldı?” → Bağlamsal cevap
- Bütçe değişince TBG uyarır → “Dikkat: Bütçe $50K’dan $75K’ya güncellendi”
🏥 Sağlık Takip Botu
Durum: İlaç dozları ve randevu takibi
- “Aspirin 100mg günde 2” → Crystal (kritik)
- “Doktor 200mg’a çıkardı” → TBG: “Uyarı: Doz değişikliği algılandı”
RAG vs NEURON Karşılaştırması
RAG ile: “Saat 15:00” ve “Saat 16:00” aynı similarity. Hangisi güncel? Bilinmiyor.
NEURON ile: TBG çelişkiyi tespit etmiş. “16:00” daha yeni. AI: “Toplantı 16:00’da. Not: Önceden 15:00 idi.”
8. Benchmark Sonuçları
Özet Metrikler
- Crystal Recall: 99.8%
- Routing Accuracy: 100%
- Genel Doğruluk: 98.3%
- Context Retention: 95%
Detaylı Benchmark Tablosu
| Benchmark | n | Skor | Detay |
|---|---|---|---|
| Crystal Recall | 500 | 99.80% | 499/500 kesin retrieval |
| Routing Accuracy | 1000 | 100.00% | 1000/1000 doğru yönlendirme |
| Memory Efficiency | 2000 | 100.00% | Crystal bounded, Morph O(1) |
| Context Retention | 100 | 95.01% | Centroid alignment |
| TBG Contradiction | 100 | 100.00% | Tüm çelişkiler tespit edildi |
Performans Süreleri
| İşlem | Süre | Not |
|---|---|---|
| Absorb | ~7 ms/item | Store + route + TBG check |
| Query | ~1.4 ms/item | Crystal + Morph + Fusion |
| LLM API Call | ~500-2000 ms | Karşılaştırma için |
Not: NEURON overhead’i (~10ms) LLM API’ye göre (%1’den az) ihmal edilebilir.
9. Rakiplerle Karşılaştırma
| Sistem | Hafıza Tipi | Routing | Çelişki Tespiti |
|---|---|---|---|
| Titans (Google) | Tek neural | Surprise→Write | ❌ Yok |
| BudgetMem | Dual text | Salience scoring | ❌ Yok |
| TiMem | Hierarchical | Complexity-based | ❌ Yok |
| Mem0 | Graph-based | Dense retrieval | ⚠️ Sessiz üzerine yazma |
| MemGPT | Hierarchical text | LLM-driven | ❌ Yok |
| NEURON | Sembolik + Neural | SMTR | ✅ TBG |
10. LLM Entegrasyonu
OpenAI, Claude, Gemini adaptörleri ile plug-and-play entegrasyon.
from neuron import NEURON
from neuron.adapters import OpenAIAdapter, ClaudeAdapter
# NEURON hafıza sistemi
memory = NEURON(crystal_size=10000, embedding_model="text-embedding-3-small")
# OpenAI adaptörü
llm = OpenAIAdapter(memory=memory, model="gpt-4-turbo")
# Otomatik hafıza yönetimi!
response = llm.chat("Toplantı ne zaman?")
# → NEURON Crystal'dan "15 Mart 15:45" çeker
# → LLM'e context olarak ekler
# → "Toplantı 15 Mart Cuma, saat 15:45'te."
# Çelişki varsa uyarır
response = llm.chat("Bütçeyi güncelle: $100,000")
# → TBG: "Dikkat: Önceki bütçe $75,000 idi."
Desteklenen LLM’ler
| LLM | Adaptör | Durum |
|---|---|---|
| OpenAI GPT-4 | OpenAIAdapter | Hazır |
| Claude | ClaudeAdapter | Hazır |
| Gemini | GeminiAdapter | Hazır |
| Local (Ollama) | LocalAdapter | Geliştiriliyor |
11. Limitasyonlar
- Embedding Bağımlılığı: Kalite, embedding modeline bağlı
- Crystal Kapasitesi: 10K ile sınırlı
- Morph Bulanıklığı: Kesin değerler döndüremez
- TBG False Positive: Benzer ama çelişkili olmayan bilgiler yanlış tespit edilebilir
- Harici Benchmark Eksik: LoCoMo, RAGBench validasyonu beklemede
12. Yol Haritası
✅ Ocak 2026 – Faz 1: Literatür Taraması
20+ paper: Titans, BudgetMem, TiMem, Mem0, MemGPT…
✅ 1-2 Şubat 2026 – Faz 2: Core Engine
Crystal, Morph, SMTR, Fusion, TBG tamamlandı. %98.3 doğruluk.
🔄 Şubat 2026 – Faz 3: LLM Entegrasyonu
OpenAI, Claude, Gemini adaptörleri
📋 Şubat 2026 – Faz 4: Production
Docker, PyPI, dokümantasyon, beta release
📋 Mart 2026 – Faz 5: Paper & Launch
ArXiv paper, GitHub public release
Kurulum
# Kaynak koddan git clone https://github.com/ertugrulakben/neuron.git cd neuron && pip install -e . # PyPI'dan (yakında) pip install neuron-memory
Sonuç
NEURON, LLM hafıza sistemlerinde yeni bir yaklaşım sunuyor:
- Crystal Memory: Kritik bilgileri %99.8 doğrulukla saklar
- Morph Layer: O(1) bellekle sınırsız bağlam tutar
- TBG: Dünyanın ilk explicit çelişki tespit sistemi
- SMTR: Akıllı routing ile doğru hafızaya yönlendirme
Özet Metrikler: Genel Doğruluk: %98.3 | Routing: %100 | Crystal Recall: %99.8 | Overhead: <%1
Geliştirici: Ertuğrul Akben
Lisans: MIT