Ertuğrul Akben

0 %
Ertuğrul Akben
Yapay Zeka & Sistem Stratejisti | Yatırımcı | Dijital Medya ve Marka Danışmanı | Araştırmacı
  • Yurt Dışı Ofisleri
    UK, ABD
  • Bölge Ofisi
    Antalya
  • Merkez
    İstanbul
  • Atölye
    Kahramanmaraş
Ana Şirketler
  • AĞABEYOĞLU GRUP A.Ş.
  • EAGM GROUP LTD.
  • TECH AI CORE LLC.
Sektörler
  • MEDYA
  • YAZILIM
  • SMM
  • İNŞAAT
  • TURİZM
  • SANAYİ
  • KOZMETİK
  • GIDA

AI Fluency Index: Yapay Zekayı Gerçekten Ne Kadar İyi Kullanıyorsun?

24 Şubat 2026

Yapay zeka kullanıyorsun. Güzel. Ama onu ne kadar iyi kullanıyorsun?

Bu soru artık retorik değil. Anthropic, 23 Şubat 2026’da yayımladığı “AI Fluency Index” raporuyla tam olarak bunu ölçmeye başladı. 9.830 gerçek Claude konuşmasını analiz ettiler. Sonuçlar? Hepimizin yüzüne tokat gibi çarpıyor.

Çünkü mesele yapay zeka kullanıp kullanmamak değil artık. Mesele, kullanırken ne kadar “akıcı” olduğun. Ve bu akıcılığı ölçmenin bir çerçevesi var.

AI Fluency Nedir ve Neden Herkes Bunu Konuşmalı?

Anthropic, Profesör Rick Dakan ve Joseph Feller ile birlikte geliştirdiği “4D AI Fluency Framework” çerçevesini kullandı. 24 ayrı davranış tanımladılar. Bunlardan 11 tanesi doğrudan konuşma içinde gözlemlenebiliyor. Geri kalan 13’ü ise konuşma dışında yaşanıyor — mesela AI çıktısını paylaşırken dürüst olmak ya da sonuçların etkisini düşünmek gibi şeyler. Bunları ölçmek çok daha zor. Ama gözlemlenebilen 11 davranış bile yeterince çarpıcı bir tablo ortaya koyuyor.

Ocak 2026’nın bir haftasında, Claude.ai üzerinde birden fazla mesaj alışverişi içeren 9.830 konuşma, Clio adlı gizlilik korumalı analiz aracıyla incelendi. Her konuşmada 11 davranışın var olup olmadığı sınıflandırıldı. Sonuç: AI Fluency Index denen bir baz çizgisi ortaya çıktı.

En Güçlü Bulgu: Tekrar Eden Kazanır

Raporun en güçlü bulgusu şu: “Iteration and refinement” yani tekrarlama ve iyileştirme, diğer tüm akıcılık davranışlarıyla doğrudan ilişkili. Örneklerin yüzde 85,7’si bu davranışı gösteriyordu. Ve bu konuşmalarda diğer akıcılık davranışları neredeyse iki kat daha fazla görüldü.

Tekrarlama ve iyileştirme içeren konuşmalarda ortalama 2,67 ek akıcılık davranışı gözlemlendi. Bu davranışı göstermeyen konuşmalarda bu sayı 1,33. Tam iki katı.

Daha da çarpıcısı: tekrarlayarak çalışan kullanıcılar, AI’ın mantığını sorgulama olasılığı 5,6 kat, eksik bağlam tespit etme olasılığı 4 kat daha yüksek.

Ne demek bu? İlk yanıtı alıp “tamam bu yeter” diyorsan, AI’dan gerçek potansiyelinin yarısını bile alamıyorsun. İlk çıktı bir başlangıç noktası. Asıl iş ondan sonra başlıyor.

Parlak Çıktı Tuzağı

İkinci büyük bulgu daha da rahatsız edici. Konuşmaların yüzde 12,3’ü artifact yani somut çıktı (kod, doküman, interaktif araç) içeriyordu. Bu konuşmalarda kullanıcılar çok daha yönlendirici davranıyor:

  • Hedeflerini netleştirme oranı +14,7 puan
  • Format belirtme +14,5 puan
  • Örnek verme +13,4 puan

Buraya kadar her şey güzel. Ama işin karanlık tarafı: bu konuşmalarda kullanıcılar AI’ın çıktısını eleştirel olarak değerlendirme konusunda çok daha zayıf:

  • Eksik bağlam tespit etme oranı −5,2 puan
  • Gerçek doğrulama −3,7 puan
  • AI’ın mantığını sorgulama −3,1 puan

Yani şu oluyor: AI sana güzel görünen bir şey ürettiğinde, “tamam bu iyi” deyip geçiyorsun. Kodun çalışıyor gibi görünüyor, belgenin formatı düzgün, arayüz temiz. Ama altında mantık hatası var mı? Eksik bir varsayım var mı? Doğrulamıyorsun bile.

Buna ben “parlak çıktı tuzağı” diyorum. Ve bu tuzak, AI yetenekleri arttıkça daha da tehlikeli hale gelecek. Çünkü modeller daha profesyonel görünen çıktılar ürettikçe, insanlar daha az sorgulayacak.

Kullanıcıların Sadece Yüzde 30’u Kuralları Belirliyor

Raporun üçüncü önemli bulgusu: konuşmaların sadece yüzde 30’unda kullanıcılar, AI’ın nasıl davranmasını istediklerini söylüyor. Geri kalan yüzde 70 hiçbir yönlendirme yapmadan doğrudan işe giriyor.

“Varsayımlarım yanlışsa bana söyle.”
“Cevabı vermeden önce mantığını açıkla.”
“Emin olmadığın şeyleri belirt.”

Bu tür basit yönlendirmeler konuşmanın tüm dinamiğini değiştiriyor. Ama insanların büyük çoğunluğu bunu yapmıyor.

Düşün bir saniye. Bir danışmanla çalışıyorsun ama ona neyi nasıl istediğini söylemiyorsun. Sonra çıktıdan memnun olmuyorsun. Sorun danışmanda mı yoksa sende mi?

Verinin Arkasındaki Metodoloji

Anthropic’in bu çalışmadaki metodolojisi de dikkat çekici. Clio adlı gizlilik korumalı araçlarını kullandılar. Kişisel veri yok. Claude Sonnet 4 ile davranış sınıflandırması, Claude Haiku 3.5 ile dil tespiti yaptılar. 11 ayrı ikili sınıflandırıcı çalıştırdılar. Haftanın her günü ve altı farklı dilde (İngilizce, Fransızca, İspanyolca, Çince, Japonca, Almanca) tutarlılık kontrolü yaptılar. Sonuçlar günler ve diller arasında 1-5 puanlık sapmayla tutarlı çıktı.

Tabii sınırlamaları da var. Tek haftalık veri. Sadece Claude.ai kullanıcıları. Erken benimseyen, zaten AI’ya aşina bir kitle. Davranışlar var/yok olarak ikili sınıflandırıldı, arada kalan nüanslar kayboldu. Ve en önemlisi: kullanıcılar zihinsel olarak sorgulayıp bunu konuşmada ifade etmemiş olabilir. Özellikle artifact konuşmalarında kod çalıştırıp test eden ama bunu sohbet içinde belirtmeyen kullanıcılar olması çok muhtemel.

3 Pratik Çıkarım

Bu rapordan herkes için geçerli üç pratik ders çıkıyor.

1. Konuşmada kal. İlk yanıtı alıp çıkma. Takip soruları sor. İtiraz et. Rafine et. Tekrarlama ve iyileştirme, diğer tüm akıcılık davranışlarının en güçlü habercisi. Veri bunu net gösteriyor.

2. Güzel görünene güvenme. AI’ın ürettiği çıktı ne kadar profesyonel görünürse görünsün, dur ve sor: bu doğru mu? Eksik bir şey var mı? Bu mantık tutuyor mu? Parlak çıktı tuzağına düşme.

3. Kuralları sen koy. AI ile çalışmaya başlamadan önce beklentilerini tanımla. “Emin olmadığın yerlerde bana söyle” gibi basit bir yönlendirme bile konuşmanın kalitesini kökten değiştirebilir.

Bundan Sonra Ne Olacak?

Anthropic bu çalışmayı bir baz çizgisi olarak tanımlıyor. İlerleyen dönemlerde kohort analizleri yapacaklar. Yeni kullanıcılar ile deneyimli kullanıcıları karşılaştıracaklar. Konuşma dışında gerçekleşen davranışları nitel yöntemlerle inceleyecekler. Ve en önemlisi: nedensellik sorularına yanıt arayacaklar. Tekrarlayıcı konuşmaları teşvik etmek gerçekten eleştirel değerlendirmeyi artırır mı? Bunu deneysel olarak test edecekler.

Claude Code tarafında da benzer analizler planlanıyor. İlk bulgular Claude.ai ile tutarlı çıksa da, yazılım geliştiricilerin çok farklı bir kullanıcı profili olması nedeniyle daha kapsamlı araştırma gerekiyor.

Son Söz

AI fluency yeni okuryazarlık. Nasıl ki internet çağında “bilgisayar kullanmak” yetmediyse ve “dijital okuryazarlık” kavramı doğduysa, şimdi de “AI kullanmak” yetmiyor. Onu nasıl kullandığın, ne kadar sorguladığın, ne kadar yönlendirdiğin belirleyici oluyor.

9.830 konuşma bize şunu söylüyor: çoğu insan AI’ı kullanıyor ama gerçekten “konuşmuyor” onunla. İlk yanıtı kabul edip geçiyor. Güzel görünen çıktıları sorgulamıyor. Ve en baştan beklentilerini bile tanımlamıyor.

AI modelleri her gün daha yetenekli hale geliyor. Ama bu yetenekten faydalanma kapasitemiz otomatik olarak artmıyor. O kapasiteyi bilinçli olarak geliştirmek gerekiyor. Ve bu raporun en değerli katkısı, bu gelişimi ölçülebilir hale getirmesi.

Soru basit: AI ile çalışırken sadece kullanıcı mısın, yoksa gerçekten akıcı mısın?


İlgili Yazılar


Kaynakça

  1. Swanson, K., Bent, D., Huang, S., Ludwig, Z., Dakan, R., & Feller, J. (2026, 23 Şubat). Anthropic Education Report: The AI Fluency Index. Anthropic. anthropic.com/research/AI-fluency-index
  2. Dakan, R. & Feller, J. (2026). 4D AI Fluency Framework. Anthropic Skilljar. anthropic.skilljar.com/ai-fluency-framework-foundations
  3. Anthropic. (2026, Ocak). The Anthropic Economic Index. anthropic.com/research/economic-index-primitives
  4. Anthropic. (2026). How AI Assistance Impacts the Formation of Coding Skills. anthropic.com/research/AI-assistance-coding-skills
  5. Anthropic. (2025). Clio: Privacy-Preserving Insights into Real-World AI Use. anthropic.com/research/clio

Yazar: Ertuğrul Akben · AI Eğitimci & Danışman · Tüm Yazılar

Posted in GenelTags: