in , ,

Yapay Zekâları İnsanlara Karşı Adil Olmaya Zorlayabilir Miyiz?

Yapay Zekâları İnsanlara Karşı Adil Olmaya Zorlayabilir Miyiz?

Yapay Zekâları İnsanlara Karşı Adil Olmaya Zorlayabilir Miyiz?

Öyle görünüyor ki yapay zekâ, hemen her şeyin nasıl yapılacağını bulabilir. Evreni simüle edebilir, yalnızca tek el kullanarak bir Rubik Küpü’nü çözebilir ve hatta geçmişimizde gizlenen izleri bulabilir.

Tüm bu gelişmeler bizim için yararlı, peki ya olmadıklarında bizi ne bekliyor?

Yakın zamanda, insanların yaşamını halihazırda etkileyen algoritmik sistemler, suçluları ortaya çıkarmaya yönelik ırkçı tahminler yaparak ve kredi limitlerini cinsiyete dayalı olarak belirleyerek işleyişleri itibarıyla endişe verici şekilde önyargılı hareket etmeye başladılar.

Bu kapsamda, bilim insanları gelişmiş düşünce sistemlerinin adil ya da en azından güvenilir olmasını nasıl sağlayabilir?

Yapay Zekâları İnsanlara Karşı Adil Olmaya Zorlayabilir Miyiz?

Massachusetts Amherst Üniversitesi araştırmacılarının önderlik ettiği yeni bir çalışma,akıllı makinelerde ekibin “istenmeyen davranış” şeklinde nitelendirdiği bir çerçeve tanımlayarak bu soruya bir yanıt bulmayı hedefliyor.

Makine öğrenimi araştırmacısı Philip Thomas bu konuya ilişkin,

“Birisi bir makine öğrenim algoritması uyguladığında, makine davranışını kontrol etmek zordur.” açıklamasını yaptı ve ekledi:

“Bu anlamda adaleti sağlamak ve zarar görülmesini engellemeyi kolaylaştırmak, makine öğrenim algoritmaları hayatlarımızı giderek daha fazla etkilediğinden dolayı büyük önem kazanıyor.”.

Seldon Algoritmaları

Yapay zekâ araştırmacılarının yeni tür makine öğrenim algoritmaları geliştirmelerine yardımcı olabilecek bu çerçeve,yapay zekâları herhangi bir ahlak veya adalet anlayışıyla telkin etmiyor;buna karşın,makine öğrenimi araştırmacılarının çekirdek algoritmasını tasarlarken “istenmeyen davranışları” tanımlamalarını ve düzenlemelerini kolaylaştırıyor.

Yeni sistemin merkezinde, Isaac Asimov’un ünlü bilim kurgu romanları serisi “Vakıf”ın ana karakterinin adını taşıyan “Seldon Algoritmaları”bulunuyor. Bu algoritmalar makinenin yalnızca etik biçimde işlemesini sağlamakla kalmıyor; medikal sistemlerde karmaşık güvenlik özellikleri gibi her türlü davranışın kontrolünün sağlanmasına olanak tanıyor.

Thomas, “Diyabet tedavisi için bir Seldon Algoritması kullanırsam, istenmeyen davranışların tehlikeli derecede düşük kan şekeri veya hipoglisemiye karşılık geldiğini tanımlayabilirim.” diyerek ekliyor:

“Makineye, “İnsülin pompasındaki kontrol cihazını iyileştirmeye çalışırken, hipoglisemi sıklığını artıracak değişiklikler yapma.” şeklinde komut verebilirim. Çoğu algoritma size, bir davranışa bu tip bir kısıtlama getirme imkânı tanımaz; ilk tasarımlara böyle bir özellik dahil edilmemişti.”.

Ekip, araştırmalarının bir parçası olarak, bir kişiye takviye edilmesi gereken insülin dozlarını güvenli ve kişiye özel şekilde ve kan şekeri okumaları bazında tahmin ederek belirleyen bir otomatik insülin pompasını kontrol edebilecek bir Seldon Algoritması geliştirdi.

Yapay Zekâları İnsanlara Karşı Adil Olmaya Zorlayabilir Miyiz?

Başka bir deneyde, istatistikte yaygın olarak kullanılan regresyon algoritmalarında bulunan cinsiyet yanlılığını önlemek suretiyle öğrenci not ortalaması tahmininde bulunacak bir algoritma geliştirdiler.

Araştırmacılar, bu deneylerin yalnızca Seldon algoritmalarının neler yapabileceğinin bir kanıtı olduğunu ve çalışmanın ana odağının, diğer bilim insanlarının gelecekteki yapay zekâ sistemlerini inşa etmek için bir rehber olarak kullanabileceği bu çerçeve olduğunu vurguluyor.

Thomas, sözlerini “Bu alanda, geliştirilebilecek büyük bir pay olduğuna inanıyoruz. Basit bileşenlerden yapılmış algoritmalarımızla bile etkileyici sonuçlar elde etmeyi başardık.

Makine öğrenimi araştırmacılarının, önceden çok riskli olarak değerlendirilen uygulamalarda artık kullanılabilir hale gelen çerçevemizi kullanarak yeni ve daha karmaşık algoritmalar geliştirmeye devam edeceğini umuyoruz.”şeklinde tamamladı.

Çalışmanın bulguları, Science ’ta yayımlanmıştır.

Bunlar da ilginizi çekebilir:

Yapay zeka bu sektörlerde milyonlarca kişiyi işinden edebilir.

Elon Musk ve Jack Ma ‘Yapay Zeka tehdidi’ konusunda aynı fikirde değiller

Yapay zeka insanların sesini dinledi sonra yüzlerini oluşturdu

Yapımcılarının Bile Çözemediği; Yapay Zeka Evren Similasyonu

Yazar: Özgür Ülker

Kaynak: https://www.sciencealert.com/how-can-we-trust-intelligent-machines-to-be-fair-scientists-just-invented-a-way

Özgür ÜLKER

Yazar Özgür ÜLKER

Merhaba, ben Özgür Ülker. İzmir doğumluyum ve İzmir’de yaşıyorum. İzmir Yüksek Teknoloji Enstitüsü Moleküler Biyoloji ve Genetik Bölümü Lisans Programı 3. sınıf öğrencisiyim. İlgi alanlarım arasında arasında gitar ve piyano çalmak, şarkı söylemek, yeni diller öğrenmek, drone operatörlüğü, bilgisayarda vakit geçirmek, simülasyon oyunları oynamak ve tatlı yapmak yer alıyor. İlgiyle takip ettiğim bilim ve teknoloji alanlarındaki gelişmelerin derlenip Türkçe olarak aktarılmasına katkıda bulunmak için “Beyinsizler” ekibine dahil oldum. İyi okumalar diliyorum.

Yorumlar

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Yükleniyor...…

0

Yorumlar

0 yorumlar

Bir asteroidin Dünya’ya çarpıp çarpmayacağı nasıl tahmin ediliyor?

Kulaklarınızdan Su Çıkması için Başınızı Sallamak Beyin Hasarına Neden Olabilir