Ahlaki değerlere dair “Tramvay İkilemi” adıyla 1967 yılında Philippa Foot tarafından ortaya koyulan ve Judith Thomson tarafından geliştirilen bir düşünce deneyi vardır. Bu deney şu şekildedir:
Bir tramvay durağındasınız. Tramvay durağa doğru yaklaşırken raylarda 5 kişinin bulunduğunu ve tramvay tarafından ezileceklerini fark ettiniz. Tam o sırada hemen önünüzde bir makas olduğunu ve tramvayın karşı yöndeki raylara geçmesini sağlayabileceğinizi gördünüz. Ama karşı raylarda da 1 kişi var. Bu durumda ne yapardınız? 5 kişinin hayatını kurtarmak için makası çekip tramvayı 1 kişinin üzerine yönlendirir miydiniz?
Ancak tam o sırada yanınızda irice bir adam olduğunu fark ettiniz. Eğer bu adamı raylara atarsanız tramvay adamı ezerek duracak ve raylarda olan herkesin hayatı kurtulacak. Ne yapardınız?
Her iki durumda da 1 kişinin hayatına karşılık birden fazla kişiyi kurtarmış oluyorsunuz. Ancak yapılan araştırmalar makası çekip dolaylı yoldan bir kişiye zarar vermenin doğrudan zarar vermeye nazaran daha çok tercih edildiğini gösteriyor. Makası çekmek, doğrudan birisini raylara itmekten daha “faydacı” görülebiliyor.
Bu düşünce deneyi gelişen teknoloji dünyası için ilerleyen zamanlarda ciddi bir örnek teşkil edecek. 21. yüzyıl birçok teknolojinin otomatikleştiği, insanlardan bağımsız olarak çalıştığı bir çağ. Gün geçtikçe bu otomatikleşme daha ileri boyutlara varacak. Bu duruma en iyi örnek ise son yıllarda yollarda seyretmeye başlayan, kendi kendini sürebilen arabalar.
Google başta olmak üzere gerek teknoloji şirketleri, gerekse otomotiv firmaları sürücüsüz araç teknolojilerine büyük yatırımlar yapıyorlar. Hatta kendi kendini sürebilen arabalar artık yollarda, ufak tefek kazalara bile karıştılar! Birçok algılayıcıyla donatılan, gelişmiş yazılımlar kullanarak yol durumunu, sürücünün fiziksel ve psikolojik durumunu inceleyip aracın güvenli bir şekilde ilerlemesini sağlayan bu sistemler çok ciddi bir problemi de beraberinde getiriyorlar. Kendi kendini sürmekte olan bir araç olası bir kaza anında yolda bulunan yayaların hayatını mı önceleyecek, yoksa içindeki yolcuların hayatını mı önceleyecek? Yani araç karşıdan karşıya geçmekte olan 5 kişiye çarpıp kendi yolcusunu mu korumalı, yoksa 5 kişinin hayatını korumak için yoldan çıkarak kendi yolcunun hayatını tehlikeye mi atmalı?
Bu sorunla alakalı yapılan bir araştırmada katılımcıların yüzde 75’i yayaların korunup yolcuların feda edilmesi yönünde cevap vermiş. Ancak ahlaki bir kararı, insanların vicdanını bir bilgisayar sistemine nasıl öğreteceğiz? Olası bir kaza durumunda aracı üreten şirket mi sorumlu olacak yoksa aracın kendisi mi? Ya da sürücüsüz bir aracı kullanacak yolcu bu riski baştan kabul ederek sorumluluğu üstlenecek mi?
Bu sorular sadece sürücüsüz araçlar için değil insanların hayatlarını ilgilendiren her otomatik sistem için geçerli. Teknoloji hayatımızda daha fazla yer ettikçe bu ve benzeri soruların sayısı da artacak. Ancak soruları yanıtlamak hiç de kolay değil.
Yukarıdaki düşünce deneyinde verilecek karar kişinin yaşadığı topluma, konuştuğu dile ve dini inancına göre şekilleniyor. Ahlaki bir sorunun kişinin anadilinde veya başka bir dilde sorulmasının verilen cevaplarda etkili olduğu Albert Costa tarafından yapılan bir araştırmada ortaya konulmuş.
Ancak bir bilgisayar programında toplumun kültüründen, dilinden veya inancından bahsedilemez. Programı kodlayan kişi hangi algoritmayla kodlamışsa program o şekilde çalışır. Yani programı yazan kişi yayaların feda edilmesini yazmışsa yayalar feda edilir, yolcuların feda edilmesini yazmışsa yolcular feda edilir. Dolayısıyla bu manada sürücüsüz araçların ahlaki bir kararı verebilmesinden, vicdan sahibi olmasından söz edemiyoruz.
Yine de bir şekilde bu teknolojiler gelişecek, kullanılacak ve belki de günümüzde bilinmeyen çözüm yöntemleri gelecekte mümkün olacak. Zira söz konusu insan hayatı olunca, daha değerli başka bir şey yoktur. Varsın arabalar kendi kendini sürmesin…