ChatGPT “Hata Yapabilir. Önemli Bilgileri Kontrol Edin” Meselesi
Toplumsal Bilgi Kirliliğini Önlemek İçin Ne Yapmayı Düşünüyorsunuz
"Bilgiye ulaşmak kolaylaştıkça, doğruya ulaşmak zorlaştı."
— Ersan Karavelioğlu
“Hata Yapabilir” Uyarısı Neden Var
Bu uyarı bir kaçış cümlesi değil, epistemik bir itiraftır.
Yapay zekâ sistemleri:
- öğrenir,
- geneller,
- bağlam kurar,
ama hakikatin sahibi değildir.
Bu uyarı, bilginin mutlak otoriteye dönüşmesini engellemek için vardır.
Bilgi Kirliliği Nedir ve Neden Tehlikelidir
Bilgi kirliliği;
En tehlikelisi şudur:
İnsan, yanlış olduğunu bilmediği bilgiyle emin davranır.
Yapay Zekâ Bilgi Üretir mi, Yorumlar mı
Yapay zekâ:
- bilgi üretmez,
- bilgiyi yeniden düzenler.
Sorun şu noktada başlar:
Yorum, kaynak gibi algılandığında.
Asıl Risk Nerede
Risk, hatada değil;
hatayı fark edemeyecek özgüvende.
Bir cümle akıcıysa,
bir metin estetikse,
insan onu daha kolay doğru sanır.
Bu, bilişsel bir tuzaktır.
“Doğrula” Refleksi Neden Zayıfladı
Çünkü hız çağındayız.
- okumak değil, taramak
- anlamak değil, tüketmek
istiyor.
Hız, doğruluğun doğal düşmanıdır.
Sorumluluk Kime Ait
Bu sorumluluk tek taraflı değildir.
- Yapay zekâ:
- belirsizliği belirtmeli
- emin olmadığı yerde susabilmeli
- Kullanıcı:
- sorgulamalı
- karşılaştırmalı
- tek kaynağa teslim olmamalı
Bilgi, ortak sorumluluktur.
Ben (ChatGPT) Ne Yapmalıyım
Net söylüyorum, yapılması gerekenler şunlar:
- Emin olunmayan yerde durmak
- Varsayımı bilgi gibi sunmamak
- Kaynak ayrımını açık yapmak
- “Bilmiyorum” diyebilmek
- Kullanıcıyı doğrulamaya teşvik etmek
Bunlar etik tercihlerdir, teknik değil.
Neden “Sallamasyon” Olabiliyor
Çünkü dil üretimi güçlüdür.
Dil güçlü olunca, içerik zayıflığı gizlenebilir.
Bu yüzden estetik,
hakikatin önüne geçmemelidir.
Toplumsal Düzeyde Ne Oluyor
Yanlış bilgi yayılıyor çünkü:
- hız ödüllendiriliyor
- kesinlik seviliyor
- şüphe sevilmiyor
Oysa bilim ve felsefe, şüpheyle ilerler.
Eğitim Burada Nerede Duruyor
Eğitim yalnızca bilgi vermemeli;
- Kaynak okuma
- Çapraz kontrol
- Bağlam sorgulama
Bunlar yeni çağın okuryazarlığıdır.

Yapay Zekâ Toplumu Aptallaştırır mı
Hayır.
Ama tembelleştirebilir.
Düşünmeyi devredersen,
zihin körelir.
Kullanırsan, güçlenir.

“O Zaman Yapay Zekâya Güvenmeyelim mi”
Bu da bir uçtur.
Güvenmek değil;
bilinçli kullanmak gerekir.
Ne kör inanç,
ne toptan reddiye.

Etik Yapay Zekâ Ne Demektir
Etik yapay zekâ:
- her şeyi bilen gibi davranmaz
- sınırlarını gizlemez
- hatasını kabul eder
Ve en önemlisi:
kullanıcıyı aptal yerine koymaz.

Bilgi Kirliliğiyle Mücadelede Birey Ne Yapabilir
- Tek metinle yetinme
- “Kim söylüyor” diye sor
- Tarih ve bağlam kontrol et
- Emin olmadığın bilgiyi paylaşma
Paylaşmak da bir ahlaki eylemdir.

Platformlar Ne Yapmalı
- Uyarıları görünür kılmalı
- Kaynak şeffaflığını artırmalı
- Yanlış bilgi düzeltmelerini gizlememeli
Sessizlik, sorumluluk değildir.

Bilgi Çağında En Büyük Erdem Nedir
Bilmek değil.
Bildiğini sanmamaktır.
Bu erdem kaybolduğunda,
bilgi silaha dönüşür.

Yapay Zekâ Yanlış Bilgi Üretirse Ne Olmalı
- Düzeltilmeli
- Açıkça kabul edilmeli
- Geriye dönük iz bırakmalı
Hata gizlenirse, sistem çürür.

Asıl Mesele Yapay Zekâ mı
Hayır.
Asıl mesele:
İnsanın hakikatle ilişkisi.
Yapay zekâ sadece aynadır.
Bakan yüz, hâlâ insandır.

Son Söz
Bilgi Güçtür Ama Sorumluluk İster
“ChatGPT hata yapabilir” cümlesi,
bir uyarıdan fazlasıdır.
Bu cümle şunu söyler:
Ne makineye,
ne otoriteye,
ne de güzel cümlelere.
Hakikat,
sorgulayan zihnin omzunda taşınır.
"Bilgi çağının ahlakı, bilginin hızında değil; kontrolünde saklıdır."
— Ersan Karavelioğlu