5. sınıf bilişim teknolojileri test çöz

Örnek 07 / 08
Soru:

Yapay zekâ (AI) sistemlerinin ahlaki kararlar alabilme kapasitesi, "etik" kavramını yeniden tartışmaya açmıştır. Özerk bir arabanın, olası bir kazada karar vermek zorunda olduğu bir "dümen etiği" ikilemi düşünün. Felsefi açıdan, bu tür bir kararı faydacı etik (utilitarianism) ve ödev etiği (deontoloji) perspektiflerinden analiz ediniz.

Çözüm:

💡 Bu soru, teknolojik bir ikilemi iki farklı etik teorisi ile değerlendirmemizi istiyor. Her bir teorinin yaklaşımını ayrı ayrı ele alalım.

  • ➡️ Faydacı Etik (Utilitarianism) Açısından:
    • Bu teori, bir eylemin ahlaki değerini, ortaya çıkaracağı sonuçlara (fayda/haz veya acı/zarar) göre belirler. "En fazla sayıda insan için en yüksek fayda"yı hedefler.
    • Özerk araba, olası bir kazada, zararı en aza indirecek seçeneği hesaplamalıdır. Örneğin, beş kişiyi ezmektense bir kişiye çarpmayı seçebilir, çünkü bu, toplam hayat kaybını minimize eder. Karar tamamen sonuçlara dayanır.
  • ➡️ Ödev Etiği (Deontoloji) Açısından:
    • Bu teori, bir eylemin ahlaki değerini, eylemin kendisinin ve onu gerçekleştirme niyetinin evrensel ahlak yasalarına (örneğin, "Öldürmeyeceksin") uygun olup olmadığına göre belirler. Sonuçlar ikincildir.
    • Özerk arabanın programlanması, "bir insanı asla öldürmek için bir araç olarak kullanılamaz" gibi kesin bir buyruk içerebilir. Bu durumda araba, hangi sonucun daha az ölümle sonuçlanacağını hesaplamak yerine, doğrudan bir cana kıymama ilkesine uymak zorunda kalabilir, bu da pasif bir çarpışmaya yol açabilir.

✅ Sonuç olarak, aynı teknolojik ikilem, benimsenen etik teoriye göre farklı kararlara yol açar: Faydacılık sonuç odaklı bir algoritma gerektirirken, Ödev Etiği kural odaklı bir programlama gerektirir.

1 2 3 4 5 6 7 8