Yuval Noah Harari’nin yapay zekâ üzerine konuşmalarında en çarpıcı olan şey, “kıyamet” dili değil; neredeyse soğukkanlı bir muhasebe dili kullanması. Hikâyeyi robotların bir gün uyanıp dünyayı ele geçirmesine değil, daha gündelik ama daha sarsıcı bir ihtimale bağlıyor: yapay zekâ, bizim hayatı birlikte organize etme biçimimizi değiştirebilir—hem de bunu bağırmadan, “iyileştiriyorum” diyerek yapabilir. Harari’nin işaret ettiği eşik, teknoloji eşiği değil sadece; kurum eşiği. Sağlık, demokrasi ve toplumsal bağlar gibi büyük alanların, birer “ürün” değil birer organizasyon sistemi olduğunu hatırlatıyor. Ve tam da bu yüzden, yapay zekânın riski “yanlış cevap vermesi” değil; cevap verme hakkının kime ait olduğunu sessizce yeniden dağıtması.
Harari’nin çerçevesinde sağlık, bu dönüşümün en ikna edici vitrini. Çünkü yapay zekâ gerçekten de tıpta erken teşhis, risk öngörüsü ve kişiselleştirilmiş tedavi gibi alanlarda önemli fırsatlar vadediyor. Video boyunca bu tarafı saklamıyor: daha hızlı görüntü analizi, daha iyi triyaj, daha tutarlı klinik karar destek sistemleri… Bunlar, “daha iyi sağlık” gibi duyuluyor. Zaten tam da bu yüzden güçlü. Çünkü iyi niyetli bir vaat, sistemi değiştirmek için en etkili araçtır.
Ama Harari’nin asıl sorusu şu: Sağlık daha iyiye giderken, sağlık sistemi kimin elinde kalacak? Tanı koymanın hızlanması, hastanın yararına olabilir. Fakat aynı mekanizma, insanın en mahrem verilerini “ham madde”ye dönüştürüp farklı amaçlarla kullanılmaya da açık. Dünya Sağlık Örgütü’nün (WHO) yapay zekâ ve sağlık alanındaki etik-yönetişim rehberi, bu riskleri tam da “mahremiyet, açıklanabilirlik, hesap verebilirlik, kapsayıcılık” gibi başlıklarda tarif ediyor: Yapay zekâ sağlıkta fayda üretebilir ama kötü yönetişim, faydayı eşitsizliğe ve güven kaybına çevirebilir.
Harari’nin “organizasyon” vurgusu burada netleşiyor: Sağlık artık sadece doktor-hasta arasında geçen bir ilişki değil; veri altyapıları, yazılım tedarik zincirleri, denetim mekanizmaları ve kurumsal güven üzerinden çalışan bir sistem. Yapay zekâ bu sisteme girdiğinde, sadece “yeni bir araç” gelmiyor; yeni bir aracı katman geliyor. O katman iyi kurulursa teşhis hızlanır, hatalar azalır, kaynaklar daha adil dağılır. Kötü kurulursa, sağlık bir “hizmet” olmaktan çıkar; bir sürekli ölçüm rejimine dönüşür. Harari’nin gözetim endişesi, bu ihtimalin günlük hayata çok hızlı sızabilmesiyle ilgili.
Sonra demokrasiye geçiyor Harari. Burada da benzer bir kaydırma yapıyor: Demokrasi, sandık günü yaşanan bir ritüel değil; toplumun kendi hatalarını fark edip düzeltme kapasitesi. Ve bu kapasite, ortak bir gerçeklik zemini ve sağlıklı bir kamusal diyalog ister. Harari, algoritmaların insan psikolojisini hedefleyerek diyaloğu zayıflatabileceğini söylüyor: İnsanların dikkatini, korkusunu, öfkesini ve aidiyet ihtiyacını yönetebilen sistemler, tartışmayı güçlendirmek yerine kırılganlaştırabilir. Video bu riski “propaganda” kelimesinden daha geniş bir yerden tarif ediyor: duygu yönetimi üzerinden toplumsal dokuyu çözmek.
Bu noktada “manipülasyon” kelimesi, kolayca karikatüre dönüşebilir. O yüzden meseleye sakin bir çerçeve eklemek gerekiyor: Yapay zekâ sistemleri (özellikle öneri sistemleri ve hedefleme altyapıları), insan davranışını ölçebilir, sınıflandırabilir ve belli çıktılara göre optimize edebilir. Bu optimizasyonun amacı reklam satmak da olabilir, siyasi ikna da, kamu hizmeti de. Yani sorun “teknoloji kötü” değil; sorun teknolojiyle birlikte amaçların görünmezleşmesi. OECD’nin kamu yönetiminde yapay zekâ kullanımına dair raporlarında da, algoritmik manipülasyon ve kötüye kullanım risklerinin yönetişim açısından bir başlık olarak ele alındığını görüyoruz: Sonuçlar kasıtlı biçimde belirli çıktılara zorlanabilir, bu da güveni aşındırır.

Harari’nin “bilinçsiz ama çok zeki” vurgusu, tam burada yeni bir gerilim açıyor. Çünkü klasik etik tartışmalarında “niyet” kavramı önemlidir: bir fail niyet eder, bir zarar doğar, sorumluluk konuşulur. Fakat Harari’nin işaret ettiği yapıda, sistemin niyeti yoktur—ama çıktısı vardır. Bir model, bilinç taşımadan davranışları etkileyebilir; bir platform, bilinç taşımadan kamusal alanı yeniden düzenleyebilir. Bu da hukuk ve sorumluluk tartışmasını zorlaştırır: Hata olduğunda kim sorumlu? Model mi, modeli kullanan kurum mu, modeli geliştiren şirket mi, veriyi sağlayan sistem mi? UNESCO’nun Yapay Zekâ Etiği Tavsiyesi de benzer biçimde “insan hakları, insan onuru, şeffaflık, hesap verebilirlik ve insan gözetimi” gibi ilkelerle, bu karmaşayı bir çerçeveye oturtmaya çalışıyor.
Harari’nin yaklaşımında en “FikirSanatlık” nokta, yapay zekâyı bir teknoloji başlığı olmaktan çıkarıp bir toplumsal koordinasyon meselesi olarak ele alması. Sağlığa bakarken aslında verinin nasıl dolaştığını konuşuyor; demokrasiye bakarken aslında dikkatin nasıl dolaştığını konuşuyor. İkisinde de ortak soru şu: Dolaşımı kim yönetiyor? Kim, hangi ölçütlere göre “öncelik” belirliyor? Hangi kararlar otomatikleşiyor, hangileri insanın elinde kalıyor? Bu yüzden Harari’nin uyarıları bir “felaket senaryosu” değil; bir altyapı çağrısı gibi okunabilir.
Burada küçük bir ayrım önemli: Yapay zekâ, sağlıkta gerçekten hayat kurtarabilir. WHO rehberi de “fayda potansiyeli yüksek” derken aynı anda “etik ve yönetişim” ihtiyacını vurguluyor. Aynı şekilde yapay zekâ, demokrasiyi yalnızca tehdit eden bir şey değil; doğru tasarlanırsa katılımı artıran, kamu hizmetini iyileştiren uygulamalar da mümkün. Carnegie Endowment’ın “AI and Democracy” haritalaması da “tehditler ve fırsatlar”ı birlikte ele alıyor. Yani mesele “kapatmak” değil; kurmak.
Peki “kurmak” ne demek? Harari’nin çizdiği hatta, denetim mekanizmaları bir fren değil; bir direksiyon. Çünkü yapay zekâ sistemleri hız kazandırır; ama hız, yön olmadan kazaya dönüşür. Denetim dediğimiz şey, yalnızca “yasaklar” değil: şeffaflık, etki değerlendirmesi, veri minimizasyonu, bağımsız denetim, algoritmik hesap verebilirlik, kamusal tartışma. WHO’nun altını çizdiği gibi, sağlıkta yapay zekâ uygulamalarının “kamu yararı, kapsayıcılık ve güven” üretebilmesi için bu ilkeler hayati.
Harari’nin konuşmasında bir başka alt damar daha var: toplumsal adaptasyon. Teknoloji hızlanırken toplumun kurumları aynı hızla uyum sağlayamıyor. Bu uyumsuzluk, yapay zekâyı “çok güçlü” kılan şeylerden biri: sistem gelir, ama onu karşılayacak kural, kültür ve denetim gelmezse teknoloji kendine alan açar. Harari bu noktada insan kontrolünün önemini vurguluyor: kontrol, bir düğme değil; bir mimari.
Mitolojiye bağlamak gerekirse, bunu süs yapmak yerine küçük bir işaret gibi kullanmak yeter: Babil Kulesi anlatısında felaket, kuleyi yapma hevesi değil; ortak dilin dağılmasıdır. Harari’nin demokrasi endişesi de biraz buna benziyor: ortak dil zayıfladığında, sistemin kendini düzeltme kapasitesi de zayıflar. Burada yapay zekâ “kule” değil; kuleyi hızlandıran iş makineleri gibi. Mesele, kulenin kaç kat olduğu değil; birlikte anlaşabilme ihtimalimizin ne kadar korunduğu.
Bu yüzden “organizasyon sorunu” cümlesi, Harari’yi bir teknoloji yorumcusundan çok bir toplum analistine yaklaştırıyor. Sağlıkta sorun, yalnızca teşhis doğruluğu değil; sağlık verisinin nasıl korunacağı, kimin erişeceği, kimin karar vereceği. Demokraside sorun, yalnızca seçim günü değil; kamusal alanın nasıl şekillendiği, diyaloğun nasıl sürdüğü, manipülasyonun nasıl tespit edilip sınırlanacağı. Toplumsal yapıda sorun, yalnızca yeni işlerin doğması değil; yeni eşitsizliklerin ve yeni bağımlılıkların nasıl yönetileceği.
Okur testi: Yapay zekâ “daha iyi kararlar” vaat ederken, bizim asıl kararımız şu mu: Hangi kararları devredeceğiz, hangilerini devretmeyeceğiz?
Sonuçta Harari’nin uyarıları karamsar değil; çıplak. “Felaket olacak” demiyor; “felaket olmasın diye organizasyonu kurmak zorundayız” diyor. Bu, teknolojiye karşı bir korku değil; teknolojiyle birlikte yaşamanın sorumluluğu. Yapay zekâ sağlıkta hayat kurtarabilir—ama bunu yaparken mahremiyeti ve adaleti zedelememeli. Yapay zekâ demokrasiyi hızlandırabilir—ama bunu yaparken diyaloğu zayıflatmamalı. Yapay zekâ toplumu verimli kılabilir—ama bunu yaparken insanı edilgenleştirmemeli. Harari’nin çağrısı, bu üç cümleyi aynı anda taşıyabilen bir kurumsal akıl çağrısı.






