Yapay Zekâ Karar Verdiğinde İnsan Nerede Durur
Otonomi, Sorumluluk ve Etik Sınırlar Üzerine Derin Bir Okuma
“Karar vermek, yalnızca hesap yapmak değil; bedelini üstlenebilmektir.”
— Ersan Karavelioğlu
Karar Nedir, Kim Verir

Karar; seçenekler arasından birini seçmekten çok,
sonuçlarına sahip çıkmaktır.

️ Yapay zekâ hesaplar, önerir, uygular; ama
sorumluluk taşımaz.
Yapay Zekâ Gerçekten ‘Karar’ mı Veriyor

Hayır. Yapay zekâ;

olasılık hesaplar

örüntü tanır

en uygun sonucu seçer

️ Bu bir
optimizasyondur, etik bir tercih değil.
Otonomi Ne Zaman Başlar

Otonomi, kendi amaçlarını belirleyebilmektir.

️ Yapay zekânın amacı
kendisine ait değildir.

Ama otonom gibi davranması, sınırları bulanıklaştırır.
İnsan Karar Sürecinden Çekilirse Ne Olur

️ Hız artar

️ Konfor artar

️ Ama
etik refleks zayıflar

İnsan geri çekildikçe, kararlar
insansızlaşır.
Sorumluluk Kime Ait

Kararı makine verdiyse ama sonucu insan yaşıyorsa,

sorumlu kim

️ Kodlayan mı

️ Kullanan mı

️ Onaylayan mı

Bu soru cevapsızsa, sistem
etik değildir.
Algoritmik Tarafsızlık Mümkün mü

️ Hayır.

Algoritmalar;

veriyle

veri ise
insan geçmişiyle şekillenir.

️ Önyargı kodlanabilir.
Görünmez Kararların Tehlikesi

Kredi notu

İşe alım

Güvenlik taraması

️ Kararı kimin verdiğini bilmezsek,
itiraz edemeyiz.
İnsan Yargısı Neden Vazgeçilmez

Çünkü insan;

bağlamı okur

istisnayı fark eder

merhamet gösterebilir

️ Yapay zekâ,
istisneleri sevmez.
Verimlilik mi, Adalet mi

Yapay zekâ verimliliği sever.

️ Ama adalet, bazen
verimsizdir.

Etik, hızdan feragat etmeyi gerektirir.
Karar Destek mi, Karar Yetkisi mi

En sağlıklı model:

Yapay zekâ önerir

İnsan karar verir

️ Yetki devri değil,
danışmanlık gerekir.

İtiraz Hakkı Olmadan Etik Olur mu

️ Hayır.

Karara itiraz edemiyorsak,
özne değil nesneyiz.

İnsan onuru, itiraz edebilme hakkıyla başlar.

Etik Sınırlar Nasıl Çizilir

Sadece mühendislikle değil;

felsefe

hukuk

psikoloji

sosyoloji

️ Çok disiplinli akıl şarttır.

Yapay Zekâ Hata Yaparsa Ne Olur

İnsan hata yaparsa pişman olur.

️ Makine hata yaparsa
sadece güncellenir.

Pişmanlık olmayan yerde etik bilinç oluşmaz.

Küresel Risk Nerede

Kararları makineler verirse;

️ sorumluluk
buharlaşır

️ suç anonimleşir

Bu, ahlaki çöküşün zeminidir.

İnsan Nerede Durmalı

Merkezde.

️ Denetleyen

️ Sorgulayan

️ Son sözü söyleyen

İnsan geri çekilirse, etik boşluk oluşur.

‘Tarafsız Makine’ Miti

Tarafsızlık,
değer yokluğu değil;

değerler arasında bilinçli denge kurmaktır.

️ Makine denge kurmaz,
ağırlık hesaplar.

Gelecek Nasıl İnşa Edilmeli

İnsan-onurlu yapay zekâ:

şeffaf

denetlenebilir

geri alınabilir

️ Kontrol edilemeyen zekâ, akıl değil
risktir.

Asıl Korku Nedir

️ Yapay zekânın düşünmesi değil

️ insanın düşünmeyi bırakması

Konfor uğruna aklı devretmek,
özgürlükten vazgeçmektir.

Son Söz
Karar Vermek İnsan İşidir

Yapay zekâ hesaplayabilir.

️ Ama adalet, merhamet ve sorumluluk
hesaplanamaz.

️ İnsan; karar verdiği sürece insandır.
“Makine doğruyu seçebilir; ama doğruyu savunmak yalnızca insana düşer.”
— Ersan Karavelioğlu