Yapay Zekâ Karar Verebilir mi
Bilinç, Sorumluluk ve Etik Sınırlar
“Karar vermek hesap yapmak değildir; sorumluluk almaktır.”
— Ersan Karavelioğlu
Karar Vermek Ne Demektir
Karar, seçenekler arasında matematiksel bir seçim değil;

sonuçlarını üstlenme iradesidir.

Bu yüzden karar, sadece zekâ değil
bilinç gerektirir.
Yapay Zekâ Ne Yapar, Ne Yapmaz

Yapay zekâ veri işler, olasılık hesaplar, örüntü tanır.

“En uygun” sonucu üretir.

Ancak
niyet taşımaz, sonuçları sahiplenmez.
Hesaplama ile Karar Arasındaki Temel Fark Nedir

Hesaplama: Doğru sonucu bulmak

Karar: Doğru sonucun
bedelini üstlenmek

Yapay zekâ ilkini yapar, ikincisini yapamaz.
Bilinç Olmadan Karar Mümkün mü

Bilinç, “Ben yaptım” diyebilme kapasitesidir.

Yaptığının farkında olmak,

pişmanlık ve sorumluluk hissedebilmektir.

Yapay zekâda bu alan
yoktur.
Yapay Zekâ Özgür İrade Sahibi midir

Hayır.

Algoritmalar, hedef fonksiyonlara göre çalışır.

Hedefi belirleyen
insandır.

Özgürlük, kodda değil;
niyette yaşar.
“Karar Verdi” Dediğimizde Aslında Ne Kastediyoruz

Günlük dilde bir kolaylaştırma yaparız.

Aslında olan:

“Belirlenen kurallara göre çıktı üretti.”

Bu, gerçek karar değildir.
Yapay Zekâ Hata Yaparsa Kim Sorumludur

Makine değil;

tasarlayan, eğiten, kullanan insan.

Sorumluluk devredilemez;
yalnızca gizlenebilir.
Otomatik Karar Sistemleri Neden Risklidir

Çünkü hız artar,

düşünme azalır,

insan aradan çekilir.

Otomatik güç, denetimsiz kaldığında tehlikelidir.
Yapay Zekâ Ahlaki Bir Seçim Yapabilir mi

Hayır.

Ahlak, değer yargısı gerektirir.

Değer, veriyle değil
vicdanla oluşur.

Makine vicdan taşımaz.
“Etik Kodlama” Ne Anlama Gelir

Etik kodlama,

makineye ahlak vermek değil;

insanın ahlaki sınırlarını
makineye yansıtmaya çalışmasıdır.

Bu bir koruma çabasıdır, çözüm değil.

Yapay Zekâ Neden Masum Görünür

Çünkü duygusuzdur.

Ama duygusuzluk masumiyet değildir.

Duygusuz güç, en soğuk sonuçları doğurabilir.

İnsan Neden Karar Yetkisini Makineye Vermek İster

Sorumluluktan kaçmak

Hata riskini paylaşmak

“Ben yapmadım” diyebilmek için

Bu psikolojik bir rahatlama ama etik bir
kaçıştır.

Yapay Zekâ Adil Olabilir mi

Veriler adil değilse sonuç da adil olmaz.

Algoritma, toplumsal önyargıları
çoğaltabilir.

Tarafsız görünen sistemler, derin eşitsizlikler üretebilir.

Karar Yetkisi Nerede Durmalıdır

Tavsiye: Yapay zekâda

Nihai karar: İnsanda

İnsan dışlandığında etik de dışlanır.

Hukuk ve Yapay Zekâ Neden Zorlanıyor

Çünkü hukuk özne arar.

Yapay zekâ özne değildir.

Sorumluluğu olmayan varlık,
hukuki muhatap olamaz.

Gelecekte Yapay Zekâ Bilinç Kazanır mı

Bilinç, sadece karmaşıklık değildir.

Deneyim, farkındalık ve anlam içerir.

Şu an için yapay zekâ
bilinç simülasyonu yapar, bilinç taşımaz.

En Büyük Etik Tehlike Nedir

İnsanların karar vermeyi unutması.

Makine karar verirken,

insan sadece uygular hâle gelirse

sorumluluk erozyona uğrar.

Yapay Zekâ ile Sağlıklı İlişki Şartı Nedir

Sınır çizmek

Denetimi bırakmamak

Karar sorumluluğunu devretmemek

Teknolojiyi araç olarak tutmak

Son Söz
Karar, Bilinç ve İnsanlık

Yapay zekâ hesap yapar.

İnsan karar verir.

Çünkü karar, sadece sonucu değil;
sonucun ahlaki yükünü taşımaktır.
“Makine hesaplar; insan yüzleşir. Yüzleşmenin olmadığı yerde gerçek karar yoktur.”
— Ersan Karavelioğlu