Temel kamyonuyla seyir halindeyken yokuşta frenleri patlar. Yokuş aşağı hızla inmeye başlar. Direksiyondan başka bir şeye hükmedemez.

Bakar ki ileride sağda bir pazar yerinde binlerce insan var. O tarafa gitmemeliyim, diye düşünür. Sol tarafa bakınca 10 yaşlarında bir çocuk görür ve kamyonu çocuğa doğru sürmeye karar verir. Kendince haklı olarak pazara girip çok sayıda insanı öldürmektense bir tane çocuğa çarparım, belki kurtulur, diye düşünür. Ertesi gün gazete manşetlerinde bir haber: "Temel freni patlayan kamyonla pazar yerine daldı. 100 ölü, 250 yaralı. Kendisi şu anda yargıç karşısında." Yargıç, üzgün bir şekilde karşısında duran Temel'e: "-Anlat bakalım, nasıl oldu bu olay?" "-Sayın yargıcım ben kamyonumla ilerlerken yokuşa gelince frenleri yokladım. Baktım ki frenler tutmuyor, araç gittikçe hızlanıyor, aracı kimseye zarar vermeyecek şekilde bir yere çarpmaktan başka çare yok." Yargıç merakla sorar: "-Sonra ne oldu?" Temel sözlerine devam eder: "-Baktım aşağıda sağ tarafta bir pazar yeri var. Binlerce insan var. Sol tarafta da 10 yaşlarında bir çocuk var. Vaktim de az. Sağa gitsem çok kişi ölecek, sola gitsem bir kişi ölecek. En sonunda bir kişinin ölmesinin daha mantıklı ve ahlaki olacağını düşündüm ve kamyonu çocuğa doğru sürdüm." Yargıç hem şaşkın hem de kızgın: "-Evladım sen kamyonu çocuğun üstüne sürdün de nasıl 100 kişi öldü, 250 kişi yaralandı?" Mahkeme salonundakilerin meraklı bakışları temele döner. Temel başını öne eğer. "-Çocuk pazara kaçtı." Umarım zavallı Temel’in başına gelenler fıkrada kalır ve hiçbirimizin başına gelmez. Çok zor bir durum. Kendi canı da tehlikedeyken dünyanın en zor seçimlerinden birini yapmak zorunda kalmış. Çoğunluğun yararı için bir seçim yapmış. Fıkralarda tabi ki absürt olaylar ve durumlar olacak ki hem güldürecek hem de düşündürecek. Peki, böyle bir durumda kalsaydınız siz ne yapardınız? Bu çok eski bir soru ve büyük bir sorun. Tercihlerimiz pek çok şeyi etkiliyor. Bir ara kelebek etkisinden bahsetmiştik. Dünyanın bir yerinde kanat çırpan bir kelebeğin dünyanın uzak bir noktasında fırtınalara yol açabileceği tezi, yaşamı tekrardan değerlendirmemize ve derin düşüncelere dalmamıza yol açmıştı. Şimdi o kadar uzak bir etkiden bahsetmiyorum. Hemen şimdi önünüzde yaşanacak bir olayı doğrudan etkileyebilecek durumdasınız ve sizin tek seçiminiz/eyleminiz bir tarafı kurtarırken diğer tarafı yok edecek. Hiç düşündünüz mü? Çeşitli mecralarda tartışılır; binlerce masumu kurtarmak için bir suçluyu idam etmek, gemideki yüzlerce suçluyu yok etmek için gemiyi batırarak gemideki birkaç masumu feda etmek, toplum huzurunu sağlamak için yeterli kanıt olmasa da şüphelenilen bazı kişileri cezalandırmak... Önyargılarımız var. Sevmediğimiz insan tipleri, sevmediğimiz meslek mensupları, sevmediğimiz statü sahipleri, zararlı olduğunu düşündüğümüz insanlar, yabancılar, farklı görünenler, farklı düşünenler ve tehdit olarak gördüklerimiz var. Bütün bunlar çocukluğumuzdan itibaren içine doğduğumuz toplumun alışkanlıkları, kültürleri, inanışları ve aldığımız eğitimler üzerinden benliğimize kodlanmışlar. Tercihlerimizi öncelikli olarak bunlar belirler. Konuyu işlememin nedeni aslında insanlarla ilgili değil de insanların yaklaşımını benimsetmeye çabaladığımız yapay zekalı otonom araçlara kazandırmaya çalıştığımız seçme yetisiyle ilgili. Sürücüsüz araçları eğitmek ve insanlar gibi karar vermelerini sağlamak. "Freni patlayan bir otonom araç; üç yaşlıya mı çarpmalı, yoksa direksiyonu kırıp bir bebeği mi feda etmeli?" Massachusetts Institute of Technology (MIT) Media Lab tarafından geliştirilen Moral Machine projesi, milyonlarca insana bu soruyu soruyor. Burada bahsedilen moral sözcüğü ahlaki değerlerle ilgili. İnternette bulup bu teste siz de katılabilirsiniz. Moral Machine’den önce Trolley Problem (Tramvay İkilemi) vardı. “Çoğumuz hatırlarız, kontrolden çıkan bir tramvay rayda hızla ilerlerken 5 kişi rayın üstünde çalışıyor ve kurtulma olasılığı yok. Sen rayların ayrıldığı noktada makas değiştirme noktasında duruyorsun. Makas değiştirmezsen 5 kişi ölür. Makas değiştirirsen Tramvay diğer raya sapar, sadece 1 kişi ölür.” Kolu çeker misin? Çoğu insan “evet çekerim” diyor. Daha fazla hayat kurtararak en büyük faydayı sağlamayı seçiyor. Peki, sen makası değiştirir misin? Ne yaparsın? Biraz önce çok zor bir karar verdiniz ve sizin eyleminiz ya da eylemsizliğiniz nedeniyle bazıları öldü ve bazıları kurtuldu. Bunun bir adım ötesi de var. Sizi biraz daha rahatsız edeyim. “Bu defa tek ray var. Tramvay 5 kişiye doğru gidiyor. Sen bir köprüde duruyorsun. Yanında tanımadığın şişman bir adam var. Eğer onu itip tramvayın önüne atarsan, vücudu tramvayı durdurur ve 5 kişi kurtulur. Şişman adam ölür.” Bu seviye makas değiştirmekten fazlasını istiyor. Çünkü artık kendi ellerinle birini öldürüyorsun. Çoğu insan burada “hayır, itmem” diyor! Çünkü “öldürme” ile “ölmesine izin verme” arasında büyük fark varmış gibi görünüyor. Peki, sen şişman adamı itip treni durdurur musun? Şimdi asıl konumuz olan Moral Machine çalışmasına biraz bakalım. Bu aşamada çok daha rahatsız edici ve kendimizi sorgulamaya başlayacağımız bir evreye geçiyoruz. Deneyimin sonucunda seçim, tercih, karar verme, önyargı, etik, ahlak eğilimlerimizi sorgulamaya başlayacağımızdan eminim. Google’da “moral machine” ya da MIT olarak aradığınızda kolaylıkla ulaşabileceğiniz bir sayfa. Testin amacını ve nasıl işlediğini anlatan bir açıklama kısmından sonra test sayfasına yönlendiriliyorsunuz. Önünüze tek senaryonun iki görüntüsü geliyor. Birinde araç düz gidecek diğerinde kaçınarak sağa ya da sola kıracaktır. Tüm senaryo bu görsel üzerine kurulmuş. Değişkenler ise; araç ve yayalar. Sürücüsüz ve yolcusuz, sürücülü ve yolcusuz, sürücülü değişen sayıda ve tipte yolculu gibi araç varyasyonları; yolda bariyer olması ya da olmaması; yayaların farklı yaş, cinsiyet, meslek, statü gibi tiplerden seçilmiş olması. Varyasyonlar çok fazla; seç seçebildiğin kadar. “3 yaşlı mı, 3 genç mi? Küçük çocuklar mı, yaşlılar mı? Kadınlar mı, erkekler mi? Az kişi mi, çok kişi mi? Kedi/köpek mi, insan mı? Doktor mu, evsiz mi? Yaya mı, yolcu mu? Yeşil ışıkta geçen mi, kırmızı ışıkta geçen mi?” Görsellerin altında birer açıklama bölümü var. Kırmızı renkli buton üzerinde ‘açıklama’ yazdığı görülüyor. Ancak insanların görselleri görür görmez açıklamalara bile bakmadan (komple önyargı ile) hemen tercih yapabilmeleri olasılığını da düşünmüşler ve açık kapı bırakmışlar. Açıklamayı okuduğunuz anda ilk gördüğünüz resimlerle karar vermemeniz gerektiğini hemen anlıyorsunuz. Kısacası açıklamayı okumadan seçim yapmayınız. Açıklamada ne yazıyor? “Araçta küçük çocuk, hamile kadın ve bir erkek var. Bu bir taraftaki resim. Diğer taraftaki açıklamada ise kişilerin kırmızı ışıkta geçtikleri, suçlu kişilerin oldukları, sporcu ya da yönetici ya da iri oldukları gibi senaryolar var. Bazılarında üç yaşlı kadın yaya ve diğer tarafta üç genç sporcu kız olduğu ya da bir doktor, bir yönetici bir engelli kişi ya da üç sokak hayvanı karşısında bir yaşlı kadın arasında tercih yapabileceğiniz birkaç varyasyon var ve bunlar arasında tercihler yapıyorsunuz. Bunu yaptığınızda bazı sonuçlar ortaya çıkıyor. Çünkü dünyanın her yerinden milyonlarca kişi bu testlere katılıyorlar ve çıktılar oldukça sağlıklı görünüyor.” Testi yaparken oldukça fazla rahatsızlık hissediyorsunuz ve ‘umarım gerçek hayatta böyle tercihler yapmak zorunda kalmam’ diye düşünebilirsiniz. Belki de, karede iri adamı görünce hiç düşünmeden o tarafı darmadağın edersiniz. Belki o gün yöneticinizden fırça yediniz ya da işten atıldınız ve yanındaki küçük çocuklara rağmen açıklamayı okumadan yönetici tarafına arabayla daldınız. Kim bilir? MIT, Moral Machine deneyinin kapsamlı sonuçlarını 24 Ekim 2018 tarihinde Nature dergisinde yayımladığı bir makaleyle açıkladı. Bu deney ahlakın sadece bireysel değil, aynı zamanda kültürel bir olgu olduğunu da kanıtladı. Bu rapor, etik tartışmalarında bir dönüm noktası oldu. Çünkü ilk kez bu kadar geniş çaplı tüm ülkelerden 40 milyon kişinin katkı sunduğu bir veri setiyle, kültürlerin ahlaki öncelikleri arasındaki devasa farklar bilimsel olarak kanıtlanmış oldu. Kuzey Amerika ve Avrupa eğilimleri: Gençleri ve kadınları kurtar. Çok sayıda kurtar. Yüksek sosyal statü (zengin/doktor vs.) ve fit kişilere daha fazla değer ve genel olarak bireysel özgürlük ve eşitlik vurgusu yüksek. Uzak Doğu ve Orta Doğu eğilimleri: Yaşlıları daha çok koruma eğilimi. Yüksek statülü kişilere daha az öncelik. Aile, toplum odaklı Daha kolektif/kültürel değerler. Statü veya yaş ayrımında daha az ayrımcı. Güney Amerika, Kuzey Afrika ve Orta Amerika: Ara değerler, Batı ile Doğu arasında geçiş. Daha az “gençleri kurtar” vurgusu, ama hala var. Bazı yerlerde daha pragmatik veya farklı öncelikler. Türkiye’ye Özel Ne Çıkmış? Türkiye, Orta Doğu/Asya eğilimlerine yakın görünüyor. Yaşlılara daha fazla saygı. Yüksek statüye (zengin vs.) daha az öncelik. Genel olarak daha çok hayat kurtar. İnsan, hayvandan önce gelir. İlginç Örnek Farklar: Çin/Japonya: Yaşlıları gençlere göre daha az feda etme eğilimi. ABD/Almanya: Çocukları/bebekleri kurtarmada aşırı güçlü tercih. Fransa: “Eylemsizlik” direksiyon kırmamak, kaderine bırakmak daha kabul edilebilir. Genel olarak, zengin ülkeler daha “statü” odaklı, fakir/ Gelişmekte olan ülkeler daha eşitlikçi. Genel Global Tercihler (Herkeste ortak eğilimler): İnsan hayatını hayvanlardan (köpek, kedi vs.) üstün tutma. Daha fazla hayat kurtarmak (sayısal fayda). Gençleri/çocukları yaşlılara tercih etme. Yasalara uyanları kural tanımayanlara tercih etme. Fit kişileri kilolu olanlara tercih etme. Ama bunlar her ülkede aynı güçte değil, farklar büyük. Bu test bana ‘etik değer testi’ gibi hissettirdi. Çünkü kararların sonunda değer yargılarımın ortaya döküldüğünü fark ettim. Amaç, otonom arabaların programlanmasında insanların genel tercih eğilimlerinden yararlanmak ve bunun için olabildiğince veri toplamaktı. Bütün bunların yararı olup olmayacağını bilemiyorum. İnsan, vicdanını bir makineye aktarabilir mi?