Teknolojinin evriminde tuhaf bir beklenti vardır:
Geliştikçe kolaylaşması gerekir.
Daha hızlı internet, daha akıllı telefon, daha sezgisel arayüz.
Peki yapay zeka?
Garip bir şekilde, yüzeyde basitleşirken kullanım deneyimi derinlerde zorlaşıyor. Bir metin kutusu var. Yazıyorsun. Cevap geliyor. Büyülü. Ama büyü ile kolaylık aynı şey değil.
Sorun şu: Yapay zeka sistemleri geliştikçe kullanıcıdan talep ettiği zihinsel emek artıyor. Ve bu sadece sezgisel bir gözlem değil; insan-bilgisayar etkileşimi (HCI), bilişsel psikoloji ve otomasyon araştırmaları bunu destekliyor.
Arayüz Sadeleşti, Bilişsel Yük Arttı
Eskiden bir yazılımın zor olduğu açıktı. Butonlar karmaşıktı. Menü yapısı yoğundu. Öğrenmek gerekiyordu. Şimdi ise doğal dil arayüzleri var. Tek bir kutu. Her şeyi yazabiliyorsun.
Ama burada görünmez bir maliyet oluşuyor.
Bilişsel Yük Kuramı’nı (Cognitive Load Theory – John Sweller) hatırlayalım. İnsan zihninin çalışma belleği sınırlıdır. Yapay zeka arayüzleri teknik sürtünmeyi azaltırken bilişsel sürtünmeyi artırıyor. Çünkü artık:
- Sistemin neyi ne kadar iyi yaptığını tahmin etmelisin.
- Hangi formatta istemen gerektiğine karar vermelisin.
- Çıktının doğruluğunu kontrol etmelisin.
- Eksik bağlamı tamamlamalısın.
Yani teknik karmaşıklık azaldı ama belirsizlik arttı. Ve belirsizlik zihinsel olarak pahalıdır.
Doğal dil arayüzleri kullanıcıyı özgürleştiriyor gibi görünür. Gerçekte ise onu sürekli karar vermeye zorlayan bir meta-pozisyona yerleştiriyor: “Bu sonuç yeterince iyi mi?”
Eskiden yazılım deterministikti. Aynı girdiye aynı çıktıyı verirdi. Şimdi olasılıksal bir sistemle konuşuyorsunuz. Ve olasılık, kontrol hissini aşındırır.
Otomasyon Yanılgısı: Güven ve Şüphe Arasında Sarkaç
Otomasyon literatürü bu durumu yıllardır inceliyor. Parasuraman ve Riley’nin 1997 tarihli çalışmaları “automation bias”ı ortaya koyar: İnsanlar otomatik sistemlere ya gereğinden fazla güvenir ya da tamamen güvensizleşir.
Yapay zekâ ile etkileşim tam olarak bu salınımı yaratıyor.
Çok iyi yazılmış bir metin gördüğünüzde sorgulamadan kabul etme eğilimi oluşur. Sonra bir halüsinasyon yakalarsınız ve bir anda her çıktıyı şüpheyle okumaya başlarsınız. Bu iki uç arasında gidip gelmek, zihinsel olarak yıpratıcıdır.
Otomasyon araştırmaları ayrıca “complacency” ve “monitoring overload” kavramlarını tartışır. Sistem ne kadar otonom olursa, kullanıcı ya izlemeyi bırakır ya da sürekli kontrol etmek zorunda hisseder. Her iki durumda da verimlilik azalır.
Ironik olan şu: Yapay zekâ zaman kazandırmak için tasarlanmıştır. Ama onu doğru kullanmak için sürekli doğrulama yapmak zorunda kalırsınız. Bir anlamda, artık hem üretici hem editör hem denetçisiniz.
Ne kadar da demokratik.
Yetkinlik Eşiğinin Yükselmesi: Prompt Mühendisliği Paradoksu
“Artık herkes içerik üretebilir” söylemi kulağa eşitleyici geliyor. Fakat araştırmalar farklı bir tablo çiziyor.
Üretken yapay zekâ araçlarından en yüksek verimi alan kullanıcılar, genellikle zaten alan bilgisine sahip kişiler. Stanford ve MIT’de yürütülen human-AI collaboration çalışmalarında görüldüğü gibi, uzmanlar AI’yi “düşünce hızlandırıcı” gibi kullanırken, novice kullanıcılar çıktıyı değerlendirmekte zorlanıyor.
Bu bir beceri çarpanı etkisi yaratıyor.
Yapay zekâ bir şeyi sizin için yapmıyor; sizin kapasitenizi genişletiyor. Ama genişletilen bir şey varsa, o zaten oradadır. Alan bilgisi olmadan kaliteli çıktı ayıklamak mümkün değil.
Sonuç olarak, “kullanımı kolay” olan sistemden gerçekten faydalanmak, meta-beceri gerektiriyor:
- İyi soru sorma
- Model sınırlılıklarını bilme
- Yanıt doğrulama
- Bağlam tasarlama
Yani prompt yazmak, modern çağın mikroskobik proje yönetimine dönüştü.
Seçenek Enflasyonu ve Karar Yorgunluğu
Barry Schwartz “The Paradox of Choice” kitabında şunu savunur: Seçenek arttıkça memnuniyet azalabilir. Çünkü karar vermek zihinsel enerji tüketir.
Yapay zekâ size tek bir fikir vermez. Yirmi varyasyon verir. Otuz başlık önerir. On farklı yaklaşım üretir.
Harika.
Şimdi hangisini seçeceksiniz?
Karar yorgunluğu (decision fatigue) üzerine yapılan çalışmalar gösteriyor ki sürekli mikro-karar vermek, bilişsel performansı düşürür. AI üretim sürecini hızlandırırken karar yükünü artırıyor.
Eskiden bir fikriniz olurdu.
Şimdi çok sayıda “iyi sayılabilecek” fikriniz var.
Ve aralarındaki farkı ayırt etmek size kalmış.
Bu üretkenlik değil; bazen kararsızlık ekonomisidir.
Siyah Kutu Problemi ve Güvenin Erozyonu
Explainable AI (XAI) literatürü bir soruna odaklanır: Model neden böyle bir çıktı verdi?
Kullanıcı için sistemin nasıl çalıştığının belirsiz olması, güveni kırılgan hale getirir. Şeffaflık azaldıkça kontrol hissi azalır. Kontrol hissi azaldıkça zihinsel çaba artar.
Bir çekiç kullanırken çivinin nasıl çakıldığını bilirsiniz.
Bir yapay zekâ modeliyle çalışırken ise çoğu zaman sonuç “oldu” şeklindedir.
Neden?
Tam olarak bilmiyoruz.
Bu belirsizlik, kullanıcıyı sürekli teyakkuz halinde tutar. Çünkü sistem güçlüdür ama kusursuz değildir. Ve hatanın bedeli kullanıcıya aittir.
Sorumluluk Transferi Çağı
Belki de mesele basit: Yapay zekâ işleri basitleştirmedi; sorumluluğu yeniden dağıttı.
Eskiden yazılım araçtı.
Şimdi yapay zekâ ortak gibi davranıyor.
Ama ortak hata yaptığında hukuki ve etik sorumluluğu kim alıyor? Kullanıcı.
Bu durum algorithmic accountability literatüründe sıkça tartışılıyor. Sistem önerir, kullanıcı onaylar. Ve onaylayan taraf sorumludur.
Böylece kullanıcı pasif operatör olmaktan çıkar; aktif karar vericiye dönüşür. Bu güç gibi görünür ama aynı zamanda yük demektir.
Peki Gerçekten Zorlaştı mı?
Belki de doğru soru “zorlaştı mı” değil.
Doğru soru şu olabilir;
Zorluk türü değişti mi?
Teknik zorluk azaldı.
Bilişsel ve epistemik zorluk arttı.
Eskiden nasıl çalıştığını öğrenirdiniz.
Şimdi ne kadar güvenebileceğinizi öğrenmeniz gerekiyor.
Bu, daha sofistike bir kullanım biçimi. Ama herkes için daha kolay değil.
Yapay zekâ geliştikçe arayüzler sadeleşiyor.
Fakat karar verme, değerlendirme ve sorumluluk yükü artıyor.
Belki de modern kullanıcı artık “araç kullanan biri” değil;
belirsizlik yöneten biri.
Ve bu, sandığımızdan daha zor bir iş.






What do you think?
It is nice to know your opinion. Leave a comment.