Öyle görünüyor ki yapay zekâ, hemen her şeyin nasıl yapılacağını bulabilir. Evreni simüle edebilir, yalnızca tek el kullanarak bir Rubik Küpü’nü çözebilir ve hatta geçmişimizde gizlenen izleri bulabilir.
Tüm bu gelişmeler bizim için yararlı, peki ya olmadıklarında bizi ne bekliyor?
Yakın zamanda, insanların yaşamını halihazırda etkileyen algoritmik sistemler, suçluları ortaya çıkarmaya yönelik ırkçı tahminler yaparak ve kredi limitlerini cinsiyete dayalı olarak belirleyerek işleyişleri itibarıyla endişe verici şekilde önyargılı hareket etmeye başladılar. Bu kapsamda, bilim insanları gelişmiş düşünce sistemlerinin adil ya da en azından güvenilir olmasını nasıl sağlayabilir?

Massachusetts Amherst Üniversitesi araştırmacılarının önderlik ettiği yeni bir çalışma,akıllı makinelerde ekibin “istenmeyen davranış” şeklinde nitelendirdiği bir çerçeve tanımlayarak bu soruya bir yanıt bulmayı hedefliyor.
Makine öğrenimi araştırmacısı Philip Thomas bu konuya ilişkin,
“Birisi bir makine öğrenim algoritması uyguladığında, makine davranışını kontrol etmek zordur.” açıklamasını yaptı ve ekledi:
“Bu anlamda adaleti sağlamak ve zarar görülmesini engellemeyi kolaylaştırmak, makine öğrenim algoritmaları hayatlarımızı giderek daha fazla etkilediğinden dolayı büyük önem kazanıyor.”.
Seldon Algoritmaları
Yapay zekâ araştırmacılarının yeni tür makine öğrenim algoritmaları geliştirmelerine yardımcı olabilecek bu çerçeve,yapay zekâları herhangi bir ahlak veya adalet anlayışıyla telkin etmiyor;buna karşın,makine öğrenimi araştırmacılarının çekirdek algoritmasını tasarlarken “istenmeyen davranışları” tanımlamalarını ve düzenlemelerini kolaylaştırıyor.
Yeni sistemin merkezinde, Isaac Asimov’un ünlü bilim kurgu romanları serisi “Vakıf”ın ana karakterinin adını taşıyan “Seldon Algoritmaları”bulunuyor. Bu algoritmalar makinenin yalnızca etik biçimde işlemesini sağlamakla kalmıyor; medikal sistemlerde karmaşık güvenlik özellikleri gibi her türlü davranışın kontrolünün sağlanmasına olanak tanıyor.
Thomas, “Diyabet tedavisi için bir Seldon Algoritması kullanırsam, istenmeyen davranışların tehlikeli derecede düşük kan şekeri veya hipoglisemiye karşılık geldiğini tanımlayabilirim.” diyerek ekliyor:
“Makineye, “İnsülin pompasındaki kontrol cihazını iyileştirmeye çalışırken, hipoglisemi sıklığını artıracak değişiklikler yapma.” şeklinde komut verebilirim. Çoğu algoritma size, bir davranışa bu tip bir kısıtlama getirme imkânı tanımaz; ilk tasarımlara böyle bir özellik dahil edilmemişti.”.
Ekip, araştırmalarının bir parçası olarak, bir kişiye takviye edilmesi gereken insülin dozlarını güvenli ve kişiye özel şekilde ve kan şekeri okumaları bazında tahmin ederek belirleyen bir otomatik insülin pompasını kontrol edebilecek bir Seldon Algoritması geliştirdi.

Başka bir deneyde, istatistikte yaygın olarak kullanılan regresyon algoritmalarında bulunan cinsiyet yanlılığını önlemek suretiyle öğrenci not ortalaması tahmininde bulunacak bir algoritma geliştirdiler.
Araştırmacılar, bu deneylerin yalnızca Seldon algoritmalarının neler yapabileceğinin bir kanıtı olduğunu ve çalışmanın ana odağının, diğer bilim insanlarının gelecekteki yapay zekâ sistemlerini inşa etmek için bir rehber olarak kullanabileceği bu çerçeve olduğunu vurguluyor.
Thomas, sözlerini “Bu alanda, geliştirilebilecek büyük bir pay olduğuna inanıyoruz. Basit bileşenlerden yapılmış algoritmalarımızla bile etkileyici sonuçlar elde etmeyi başardık.
Makine öğrenimi araştırmacılarının, önceden çok riskli olarak değerlendirilen uygulamalarda artık kullanılabilir hale gelen çerçevemizi kullanarak yeni ve daha karmaşık algoritmalar geliştirmeye devam edeceğini umuyoruz.”şeklinde tamamladı.
Çalışmanın bulguları, Science ’ta yayımlanmıştır.
Bunlar da ilginizi çekebilir:
- Yapay zeka bu sektörlerde milyonlarca kişiyi işinden edebilir.
- Elon Musk ve Jack Ma ‘Yapay Zeka tehdidi’ konusunda aynı fikirde değiller
- Yapay zeka insanların sesini dinledi sonra yüzlerini oluşturdu
- Yapımcılarının Bile Çözemediği; Yapay Zeka Evren Similasyonu
Yazar: Özgür Ülker