By using this site, you agree to the Privacy Policy and Terms of Use.
Kabul et
Fikir SanatFikir SanatFikir Sanat
Bildirim Daha Fazlası
Font ResizerAa
  • Ana Sayfa
  • Kültür & Sanat
    • Sergiler
    • Sinema
    • Dizi Rehberi
    • Müzik
    • İzle & Dinle
    • Kitaplık
  • Teknoloji
    • LapTop & Bilgisayar
    • Aksesuarlar
    • Mobil & Cihaz
    • Yazılım & Uygulamalar
  • Yapay Zeka
    • Üretken YZ
  • Şehir Rotaları
    • İstanbul
    • Ankara
    • izmir
    • Bursa
  • Dünya & Kültür
  • Hakkımızda
    • İletişim
    • Site Kullanım Koşullar
Okuyorum: Felaket Senaryosu Değil, Organizasyon Sorunu: Harari’nin AI Uyarıları
Paylaş
Font ResizerAa
Fikir SanatFikir Sanat
  • Ana Sayfa
  • Kültür & Sanat
  • Teknoloji
  • Yapay Zeka
  • Şehir Rotaları
  • Dünya & Kültür
  • Hakkımızda
Search
  • Ana Sayfa
  • Kültür & Sanat
    • Sergiler
    • Sinema
    • Dizi Rehberi
    • Müzik
    • İzle & Dinle
    • Kitaplık
  • Teknoloji
    • LapTop & Bilgisayar
    • Aksesuarlar
    • Mobil & Cihaz
    • Yazılım & Uygulamalar
  • Yapay Zeka
    • Üretken YZ
  • Şehir Rotaları
    • İstanbul
    • Ankara
    • izmir
    • Bursa
  • Dünya & Kültür
  • Hakkımızda
    • İletişim
    • Site Kullanım Koşullar
Mevcut bir hesabınız mı var? Giriş Yap
Follow US
Yuval Noah Harari sahnede mikrofonla konuşurken, yapay zekâ ve sağlık üzerine sunum yaptığı etkinlik görseli
Etik & ToplumÜretken YZ

Felaket Senaryosu Değil, Organizasyon Sorunu: Harari’nin AI Uyarıları

Naz Taş
Son güncelleme: 16 Nisan 2026 02:24
Naz Taş
Paylaş
PAYLAŞ

Yuval Noah Harari’nin yapay zekâ üzerine konuşmalarında en çarpıcı olan şey, “kıyamet” dili değil; neredeyse soğukkanlı bir muhasebe dili kullanması. Hikâyeyi robotların bir gün uyanıp dünyayı ele geçirmesine değil, daha gündelik ama daha sarsıcı bir ihtimale bağlıyor: yapay zekâ, bizim hayatı birlikte organize etme biçimimizi değiştirebilir—hem de bunu bağırmadan, “iyileştiriyorum” diyerek yapabilir. Harari’nin işaret ettiği eşik, teknoloji eşiği değil sadece; kurum eşiği. Sağlık, demokrasi ve toplumsal bağlar gibi büyük alanların, birer “ürün” değil birer organizasyon sistemi olduğunu hatırlatıyor. Ve tam da bu yüzden, yapay zekânın riski “yanlış cevap vermesi” değil; cevap verme hakkının kime ait olduğunu sessizce yeniden dağıtması.

Harari’nin çerçevesinde sağlık, bu dönüşümün en ikna edici vitrini. Çünkü yapay zekâ gerçekten de tıpta erken teşhis, risk öngörüsü ve kişiselleştirilmiş tedavi gibi alanlarda önemli fırsatlar vadediyor. Video boyunca bu tarafı saklamıyor: daha hızlı görüntü analizi, daha iyi triyaj, daha tutarlı klinik karar destek sistemleri… Bunlar, “daha iyi sağlık” gibi duyuluyor. Zaten tam da bu yüzden güçlü. Çünkü iyi niyetli bir vaat, sistemi değiştirmek için en etkili araçtır.

Ama Harari’nin asıl sorusu şu: Sağlık daha iyiye giderken, sağlık sistemi kimin elinde kalacak? Tanı koymanın hızlanması, hastanın yararına olabilir. Fakat aynı mekanizma, insanın en mahrem verilerini “ham madde”ye dönüştürüp farklı amaçlarla kullanılmaya da açık. Dünya Sağlık Örgütü’nün (WHO) yapay zekâ ve sağlık alanındaki etik-yönetişim rehberi, bu riskleri tam da “mahremiyet, açıklanabilirlik, hesap verebilirlik, kapsayıcılık” gibi başlıklarda tarif ediyor: Yapay zekâ sağlıkta fayda üretebilir ama kötü yönetişim, faydayı eşitsizliğe ve güven kaybına çevirebilir.

Harari’nin “organizasyon” vurgusu burada netleşiyor: Sağlık artık sadece doktor-hasta arasında geçen bir ilişki değil; veri altyapıları, yazılım tedarik zincirleri, denetim mekanizmaları ve kurumsal güven üzerinden çalışan bir sistem. Yapay zekâ bu sisteme girdiğinde, sadece “yeni bir araç” gelmiyor; yeni bir aracı katman geliyor. O katman iyi kurulursa teşhis hızlanır, hatalar azalır, kaynaklar daha adil dağılır. Kötü kurulursa, sağlık bir “hizmet” olmaktan çıkar; bir sürekli ölçüm rejimine dönüşür. Harari’nin gözetim endişesi, bu ihtimalin günlük hayata çok hızlı sızabilmesiyle ilgili.

Sonra demokrasiye geçiyor Harari. Burada da benzer bir kaydırma yapıyor: Demokrasi, sandık günü yaşanan bir ritüel değil; toplumun kendi hatalarını fark edip düzeltme kapasitesi. Ve bu kapasite, ortak bir gerçeklik zemini ve sağlıklı bir kamusal diyalog ister. Harari, algoritmaların insan psikolojisini hedefleyerek diyaloğu zayıflatabileceğini söylüyor: İnsanların dikkatini, korkusunu, öfkesini ve aidiyet ihtiyacını yönetebilen sistemler, tartışmayı güçlendirmek yerine kırılganlaştırabilir. Video bu riski “propaganda” kelimesinden daha geniş bir yerden tarif ediyor: duygu yönetimi üzerinden toplumsal dokuyu çözmek.

Bu noktada “manipülasyon” kelimesi, kolayca karikatüre dönüşebilir. O yüzden meseleye sakin bir çerçeve eklemek gerekiyor: Yapay zekâ sistemleri (özellikle öneri sistemleri ve hedefleme altyapıları), insan davranışını ölçebilir, sınıflandırabilir ve belli çıktılara göre optimize edebilir. Bu optimizasyonun amacı reklam satmak da olabilir, siyasi ikna da, kamu hizmeti de. Yani sorun “teknoloji kötü” değil; sorun teknolojiyle birlikte amaçların görünmezleşmesi. OECD’nin kamu yönetiminde yapay zekâ kullanımına dair raporlarında da, algoritmik manipülasyon ve kötüye kullanım risklerinin yönetişim açısından bir başlık olarak ele alındığını görüyoruz: Sonuçlar kasıtlı biçimde belirli çıktılara zorlanabilir, bu da güveni aşındırır.

Yuval Noah Harari konuşma sırasında sahnede, gözlüklü ve koyu renk ceketli portre görüntüsü
Yuval Noah Harari (Frankfurter Buchmesse 2024) https://en.wikipedia.org/wiki/Yuval_Noah_Harari

Harari’nin “bilinçsiz ama çok zeki” vurgusu, tam burada yeni bir gerilim açıyor. Çünkü klasik etik tartışmalarında “niyet” kavramı önemlidir: bir fail niyet eder, bir zarar doğar, sorumluluk konuşulur. Fakat Harari’nin işaret ettiği yapıda, sistemin niyeti yoktur—ama çıktısı vardır. Bir model, bilinç taşımadan davranışları etkileyebilir; bir platform, bilinç taşımadan kamusal alanı yeniden düzenleyebilir. Bu da hukuk ve sorumluluk tartışmasını zorlaştırır: Hata olduğunda kim sorumlu? Model mi, modeli kullanan kurum mu, modeli geliştiren şirket mi, veriyi sağlayan sistem mi? UNESCO’nun Yapay Zekâ Etiği Tavsiyesi de benzer biçimde “insan hakları, insan onuru, şeffaflık, hesap verebilirlik ve insan gözetimi” gibi ilkelerle, bu karmaşayı bir çerçeveye oturtmaya çalışıyor.

Harari’nin yaklaşımında en “FikirSanatlık” nokta, yapay zekâyı bir teknoloji başlığı olmaktan çıkarıp bir toplumsal koordinasyon meselesi olarak ele alması. Sağlığa bakarken aslında verinin nasıl dolaştığını konuşuyor; demokrasiye bakarken aslında dikkatin nasıl dolaştığını konuşuyor. İkisinde de ortak soru şu: Dolaşımı kim yönetiyor? Kim, hangi ölçütlere göre “öncelik” belirliyor? Hangi kararlar otomatikleşiyor, hangileri insanın elinde kalıyor? Bu yüzden Harari’nin uyarıları bir “felaket senaryosu” değil; bir altyapı çağrısı gibi okunabilir.

Burada küçük bir ayrım önemli: Yapay zekâ, sağlıkta gerçekten hayat kurtarabilir. WHO rehberi de “fayda potansiyeli yüksek” derken aynı anda “etik ve yönetişim” ihtiyacını vurguluyor. Aynı şekilde yapay zekâ, demokrasiyi yalnızca tehdit eden bir şey değil; doğru tasarlanırsa katılımı artıran, kamu hizmetini iyileştiren uygulamalar da mümkün. Carnegie Endowment’ın “AI and Democracy” haritalaması da “tehditler ve fırsatlar”ı birlikte ele alıyor. Yani mesele “kapatmak” değil; kurmak.

Peki “kurmak” ne demek? Harari’nin çizdiği hatta, denetim mekanizmaları bir fren değil; bir direksiyon. Çünkü yapay zekâ sistemleri hız kazandırır; ama hız, yön olmadan kazaya dönüşür. Denetim dediğimiz şey, yalnızca “yasaklar” değil: şeffaflık, etki değerlendirmesi, veri minimizasyonu, bağımsız denetim, algoritmik hesap verebilirlik, kamusal tartışma. WHO’nun altını çizdiği gibi, sağlıkta yapay zekâ uygulamalarının “kamu yararı, kapsayıcılık ve güven” üretebilmesi için bu ilkeler hayati.

Harari’nin konuşmasında bir başka alt damar daha var: toplumsal adaptasyon. Teknoloji hızlanırken toplumun kurumları aynı hızla uyum sağlayamıyor. Bu uyumsuzluk, yapay zekâyı “çok güçlü” kılan şeylerden biri: sistem gelir, ama onu karşılayacak kural, kültür ve denetim gelmezse teknoloji kendine alan açar. Harari bu noktada insan kontrolünün önemini vurguluyor: kontrol, bir düğme değil; bir mimari.

Mitolojiye bağlamak gerekirse, bunu süs yapmak yerine küçük bir işaret gibi kullanmak yeter: Babil Kulesi anlatısında felaket, kuleyi yapma hevesi değil; ortak dilin dağılmasıdır. Harari’nin demokrasi endişesi de biraz buna benziyor: ortak dil zayıfladığında, sistemin kendini düzeltme kapasitesi de zayıflar. Burada yapay zekâ “kule” değil; kuleyi hızlandıran iş makineleri gibi. Mesele, kulenin kaç kat olduğu değil; birlikte anlaşabilme ihtimalimizin ne kadar korunduğu.

Bu yüzden “organizasyon sorunu” cümlesi, Harari’yi bir teknoloji yorumcusundan çok bir toplum analistine yaklaştırıyor. Sağlıkta sorun, yalnızca teşhis doğruluğu değil; sağlık verisinin nasıl korunacağı, kimin erişeceği, kimin karar vereceği. Demokraside sorun, yalnızca seçim günü değil; kamusal alanın nasıl şekillendiği, diyaloğun nasıl sürdüğü, manipülasyonun nasıl tespit edilip sınırlanacağı. Toplumsal yapıda sorun, yalnızca yeni işlerin doğması değil; yeni eşitsizliklerin ve yeni bağımlılıkların nasıl yönetileceği.

Okur testi: Yapay zekâ “daha iyi kararlar” vaat ederken, bizim asıl kararımız şu mu: Hangi kararları devredeceğiz, hangilerini devretmeyeceğiz?

Sonuçta Harari’nin uyarıları karamsar değil; çıplak. “Felaket olacak” demiyor; “felaket olmasın diye organizasyonu kurmak zorundayız” diyor. Bu, teknolojiye karşı bir korku değil; teknolojiyle birlikte yaşamanın sorumluluğu. Yapay zekâ sağlıkta hayat kurtarabilir—ama bunu yaparken mahremiyeti ve adaleti zedelememeli. Yapay zekâ demokrasiyi hızlandırabilir—ama bunu yaparken diyaloğu zayıflatmamalı. Yapay zekâ toplumu verimli kılabilir—ama bunu yaparken insanı edilgenleştirmemeli. Harari’nin çağrısı, bu üç cümleyi aynı anda taşıyabilen bir kurumsal akıl çağrısı.

Anthropic Kod Yazmayı Çözerken, İş Dünyasını Neden Tedirgin Etti?
Yapay Zekâ Günlük Hayatı Nasıl Dönüştürüyor?
Bana 9 Dakika Ver: Yapay Zekâ Uzmanı Olmak ve Yapay Zekâyı İş Akışına Gerçekten Entegre Etmek
Kling 2.6 Motion Control: Yapay Zeka Sinemasında Kontrol Nihayet Yaratıcının Elinde
Genesis Invitational Haftası: PGA Tour’da Prestijin ve Stratejinin Sınavı
Yorum yapılmamış

Cevabı iptal etmek için tıklayın.

Lütfen yorum yapmak için giriş yapın.

Bizi Takip Edin

Kültür, sanat, sinema ve teknoloji
15KTakip Et
12KPin
5.5KTakip Et
25KAbone Ol

Bu Alanda Yer Alın

FikirSanat’ta reklam ve iş birliği fırsatları için bizimle iletişime geçin.
Popular News
Zengin Mutfağı, Öteki, Old Fools, Bir Aile Provası ve Kutsal tiyatro afişlerinden oluşan kolaj görsel
Kültür & Sanat

Nisan Ayı Tiyatro Seçkisi: İstanbul’da Bu Ay İzlenmesi Gerekenler

Naz Taş
Naz Taş
16 Nisan 2026
Reha Erdem Sineması: Hikâye Değil, Hâl Kuruyan Bir Evren
Sonsuz Koridorun Eşiği: Backrooms Fragmanı ve “Liminal” Korkunun Yeni Dili
Unutulmanın Bedeli: Peter Parker’ın Yeni Başlangıcı
45. İstanbul Film Festivali: Sinema Burada Sadece Film Değil, Kültürel Nabız Ölçümü
Bu Alana Reklam Verebilirsiniz
Ad imageAd image

Sinema, sanat ve teknolojinin ortak dili.

Fikir Sanat
  • Ana Sayfa
  • Hakkımızda
  • İletişim
  • Gizlilik Politikası

Hakkımızda

FikirSanat, sinema, kültür-sanat ve teknolojiyi aynı düşünce hattında buluşturan dijital bir yayın platformudur.

Reklam ve İşbirliği İçin

Reklam ve Diğer Sorular İçin: 0532 130 00 48

Fikir SanatFikir Sanat
© Noktiva Basın Yayın - 2025 Tüm Hakları Saklıdır.
Welcome Back!

Sign in to your account

Kullanıcı Adı yada Eposta Adresi
Şifreniz

Lost your password?

Üye değil misiniz? Kaydol