Yapay Zekanın Ahlaki Açıdan Eğitilmesi- Moral Makinesi

   Bazı uzmanlar, ahlaki açıdan karmaşık durumlarla başa çıkmak için yapay zekaları eğitmenin en iyi yolunun kalabalığın girdisini kullanmak olduğuna inanmaktadırlar. Bazıları ise böyle bir sistemin, sorgulanan örneğe dayanan önyargıları içereceğini ve farklı algoritmaların, aynı veri setinden farklı sonuçlara ulaşabileceğini savunuyor.
Yapay zeka gelişimi ilerledikçe, uzmanlar bir yapay zeka sistemine etik veya ahlaki omurga vermenin en iyi yolunu bulmayı başarmıştır. Temel fikir, ortalama bir kişi tarafından alınan kararlar neticesindeki davranışları yapay zekaya öğretmeyi hedeflemektedir. Bu varsayımı test etmek için, MIT’li araştırmacılar Moral Makinesi’ni yarattılar. Web sitesine gelen ziyaretçilerden, otonom bir sistem vasıtasıyla, bazı senaryolarla (ikilem) karşı karşıya kaldıklarında ne yapmaları gerektiği konusunda karar vermeleri istendi. Örneğin, sürücüsüz bir araba yayalara zarar verme konusunda zorlanmış olsaydı, üç yetişkini kurtarmak için iki çocuğu feda edebilir miydi? Hamile bir kadını kurtarmak için yaşlı bir adamı feda edebilir miydi?

  Moral Makinesi bu verilerin büyük bir bölümünü rastsal bir şekilde bir araya getirilen insanlardan topladı ve  Carnegie Mellon Üniversitesi bilgisayar bilimleri departmanından Ariel Procaccia bu verileri çalışmaya karar verdi.

  Çevrimiçi olarak yayınlanan yeni bir araştırmada, Moral Makinesinin arkasındaki araştırmacılardan biri olan İyad Rahwan, Moral Machine’in veri kümesini kullanarak bir yapay zeka eğitti. Ardından, sistemden,  insanların benzer ama daha önce denenmemiş senaryolarda  nasıl tepki vereceğini tahmin etmelerini istedi.

   Bu çalışmada özellikle belirtmeliyiz ki, ahlaki açıdan sorunlu iki sonuç arasında seçim yapma fikri yeni değildir. Etikciler için bunun bir adı bile var: çift etki. Bununla birlikte, bu kavramı yapay olarak akıllı bir sisteme uygulamak zorunda kalmak, insanlığın hiç yapması gereken bir şey olmamıştır ancak çok sayıda uzman, bununla nasıl başa çıkılacağına dair çözümler üzerine çalşmaktadır.

   OpenAI eş başkanı Elon Musk, ahlaki bir yapay zeka oluşturulmasının, kalkınmayı yönlendiren  temel ilke veya politikalar getirme meselesi olduğuna ve hükümetlerin ve kurumların bu duruma yavaş yavaş ikna olmaya başladığını düşünüyor. Örneğin, Almanya, kendi kendine çalışan otomobiller için dünyanın ilk etik kurallarını hazırladı. Bu arada, Google’ın ana şirketi Alphabet’ın AI DeepMind’in şimdi bir etik ve toplum birliği var.

   Duke Üniversitesi’nden bir ekip de dahil olmak üzere diğer uzmanlar, ilerlemenin en iyi yolunun yapay zekanın etik kararları nasıl hazırlayacağını anlatan bir “genel çerçeve” oluşturmak olduğunu düşünüyor.  Bu araştırmacılar, bir kalabalığın çeşitli konulardaki ortak ahlaki görüşlerini ( Moral Makinesinin kendi kendine süren arabalarla yaptığı gibi ) bu çerçeveyi oluşturmak için, bir araya toplanmasının daha iyi bir sistemle sonuçlanacağına inanıyorlar.

Kaynak:https://futurism.com/crowdsourced-morality-could-determine-the-ethics-of-artificial-intelligence/