Müge Karabağ: YAPAY ZEKÂDA ETİK SORUNLAR

YAPAY ZEKÂDA ETİK SORUNLAR
Giriş Tarihi: 30.10.2023 16:52 Son Güncelleme: 31.10.2023 11:22

Filozof Andrew Feenberg teknolojinin işletici ve nesne olarak iki yönlü bir faaliyet ürünü olduğunu söyler. Ona göre her iki işleticinin de insan olduğu yerde teknik eylem bir güç uygulaması olarak tanımlanır. Toplumun teknoloji etrafında örgütlendiği yerde teknolojik güç toplumdaki gerçek güç biçimidir. Teknolojik sistemler insanlara teknik yönetimi dayatır. Bazıları yönetir, diğerleri yönetilirler (2010: 25-35).

Bu açıklamadan yola çıkarak, yapay zekâ sistemlerinin bize bazı fikirleri dayattığını, bizi yönlendirdiğini ve etik dışı kodlamalarla tasarlanarak servis edildiğini söyleyebilir miyiz? Feenberg'ten yola çıkarak düşünüldüğünde, her iki işleticinin de insan olmadığı bir durumda -insan ve makine- ekseninde bir ilişkiden doğacak olası etik problemlerin günümüzde disiplinler arası popüler bir tartışma konusu olduğunu söylemek mümkün.

Yapay zekânın riskleri tartışılıyor

Yapay zekânın alt kümesi olarak değerlendirilen makine öğrenimi tekniğinin bir sonucu olan teknolojileri (doğal dil işleme, çeviri, görüntü işleme) günümüzde pek çok alanda kullanıyoruz. Stuart Russell, öğrenme eylemini deneyimlerle performansı iyileştirme işi olarak tanımlar. Buradan yola çıkarak makine öğrenmesinin ise bilgisayarların deneyimlerle performanslarını iyileştirmelerini sağlama işi olduğunu belirtmek mümkün (Larson, 2022: 177). Makine öğreniminin bir sonraki aşaması olan derin öğrenme teknolojisi ise sürücüsüz otomobiller, çeşitli alarm sistemleri, siber güvenlik gibi alanlarda kullanılıyor ve hayatımızı kolaylaştırıyor.

Ancak yapay zekâ teknolojilerinin her geçen gün gelişmesiyle ileri dönemlerde yaşanabilecek riskler de tartışılıyor. Etik boyutuyla değerlendirdiğimizde bu mucize teknolojinin yararı olduğu kadar olası zararları da gündeme geliyor. Konuya dair yapay zekâ uzmanları, teknoloji fütüristleri ve bilim insanları farklı görüşlere sahip. Kimileri yapay zekânın türümüz için bir tehlike olacağını öngörürken, kimileri yapay zekânın kontrolünün insanların elinde olacağını ve bu durumda iyi niyetli kişilerin elinde olursa hiçbir risk oluşturmayacağını, kimileri de yapay zekânın bizim düşündüğümüz gibi "düşünmeyeceğini", insani hedefleri olmayacağını, tamamen farklı amacı olabileceğini belirtiyor.

Günümüzde yapay zekânın faaliyetleri, etik boyutta değerlendirildiğinde ikinci düşünceyi daha çok ön plana çıkarıyor. Makine ve robot etiği ekseninde gelişen yapay zekâ ve etik tartışmaları üç boyutta şekilleniyor: 1- İnsanların makinelere olan davranışı – kullanımı 2- Makinelerin insanlar tarafından kodlanışı 3- Makinelerin insan türüne ve doğaya karşı olası karşıt konumlanışı (otonom makineler)


Bu tartışmalardan ikincisi diğerlerinden öne çıkıyor. Makinelerin insanlar tarafından nasıl kodlandığı, söz konusu makinelerin "niteliğini ve eylemlerini" belirler.

Makineler için yapay ahlâk

Makineler günümüzdeki dar yapay zekâ aşamasından çıkıp yapay genel zekâ veya süper zekâ boyutuna ulaştıklarında insanın beden gücüyle yaptığı işleri yaptıklarında veya bedenden ziyade sadece "zekâ" boyutunda - sürücüsüz otomobiller gibi – olduklarında "etik bir makine" tasarlamak kaçınılmaz olacaktır. Bu makinelerin yapay bir etik ile kodlanması gerekir. Yapay etik veya yapay ahlak niteliğine sahip bir makine, mühendislerin veya tasarımcıların makine bir sorunla karşılaştığında nasıl tepki vereceğini kestiremediklerinde, söz konusu makinenin eylemlerinin güvenirliğini, doğruluğunu ve sosyal ya da ahlaki kabul edilebilirliğini değerlendirecek niteliklere ihtiyacı olacaktır.

İşte bu muhakemeleri yapabilen makineler veya sistemler fonksiyonel olarak ahlaki sistemler olarak adlandırılacaktır (Wendell, Allen ve Franklin, 2011: 178). Ancak bir makinenin bu aşamaya gelmesi oldukça zordur. Bir başka deyişle bu olasılık, makinelerin otonom hale gelmesinden sonraki aşamanın tartışmasıdır. Zira bir insanın etik ve ahlaklı bir davranışın analizini yapabilmesi için, öncelikle eylemlerinin sonuçlarını idrak edebilmesi ve bu sonuçları iyi veya kötü kapsamında değerlendirme becerisine sahip olması gerekir.

Aynı durum makineler için de geçerli. Makineler "etik/etik olmayan, iyi/kötü" düalizminde bir değerlendirme yapabildikleri zaman etik makine olma niteliğine erişecekler. Günümüzde yapay zekâ ve etik tartışmaları insan tarafından kodlanan bir yapay zekânın ne derece etik olabileceği üzerine kurulur. Örnekler üzerinden gittiğimizde mevcut yapay zekâ faaliyetlerinin arka planındaki kodlamaların yapay zekâya nasıl komut verdiğini belirlediği de yadsınamaz bir gerçektir.

2018 yılında Avrupa Komisyonu Yapay Zekâ Bağımsız Üst Düzey Uzman Grubu tarafından hazırlanan "Güvenilir Yapay Zekâ İçin Etik Rehber Raporu"nda etik bir yapay zekâ yapımı ve kullanımı için bazı maddelere yer verildi. Buna göre etik bir yapay zekâ için hukuk disipliniyle birlikte çalışılması gerekir. Ancak bu sayede yürürlükteki tüm yasalara ve düzenlemelere uygun ve yasal bir yapay zekâ üretilebilir ve kullanılabilir.
Söz konusu yapay zekâ sistemleri evrensel etik ilke ve değerlere sahip olmalıdır.

Raporda yer alan diğer maddeler ise insan özerkliğine saygı, adalet, zararın önlenmesi ve açıklanabilirlik unsurlarından oluşur. Bu maddelerin alt metni, yapay zekâ sistemlerinin insanlara ve çevreye saygılı olmasına, söz konusu sistemlerin eşit, adil ve şeffaf kullanımının sağlanmasına yöneliktir.

Beraberinde işsizliği getirebilir

Yapay zekâ ve etik konusu özellikle veri gizliliği, işsizlik, yapay zekâ sistemlerinin otonom hale gelmesi ve ayrımcılık gibi sorunları da beraberinde getirir. Günümüzde kişisel verilerin korunmasına yönelik tedbirler alınsa da telefonlarımızın dinlenebildiği, mesajlarımızın okunabildiği, telefonumuzda fotoğraf galerimize erişim sağlayan uygulamaların olduğu da bir gerçek. Verilerimizin hepsi yapay zekâ sistemleri için bir yem ve bu yemi biz isteyerek
söz konusu sistemlere sunuyoruz.

Verilerin nasıl kullanıldığı da ayrı bir tartışma konusu. Veriler kullanılırken ayrımcılık yapılıyorsa yapay zekâ da ayrımcı bir hizmet sunabilir. Örneğin Carnegie Mellon Üniversitesi'nin yaptığı bir araştırmada Google'da yüksek maaşlı yönetici reklamları erkeklere 1816 kez gösterilirken, kadınlara sadece 311 kez gösterildiği belirlenmiştir. Bu gibi durumlarda yapay zekâyı cinsiyetçi olmakla suçlayabilir miyiz?

Aynı şekilde bir başka örnek de ProPublica'ya ait. "Machine Bias" isimli haberde yapay zekânın önyargılı ve ırkçı bir hizmet verdiği belirtiliyor. Buna göre suçluları tahmin etmede kullanılan algoritma siyahi kişileri daha çok tercih ediyor. Algoritma daha çok suçu bulunan beyaz bir şahsı daha az
riskli olarak değerlendirirken, daha az ve önemsiz suç kaydı bulunan siyahi kişiyi yüksek dereceli riskli olarak belirliyor.

Haberde yapay zekânın etik ve hukuki açıdan doğurabileceği sonuçlar şöyle aktarılıyor: "Bilgisayarlar hangi sanıkların yeni suçlar işleyebileceğini doğru bir şekilde tahmin edebilseydi, ceza adaleti sistemi kimin ne kadar süreyle hapsedileceği konusunda daha adil ve daha seçici olabilirdi. İşin püf noktası elbette bilgisayarın doğru anladığından emin olmak. Bir yönde yanlışsa tehlikeli bir suçlu serbest kalabilir. Başka bir açıdan yanlışsa, bu durum birinin haksız yere daha sert bir ceza almasına veya şartlı tahliye için uygun olandan daha uzun süre beklemesine neden olabilir."

Öte yandan, gelişen yapay zekâ sistemleri işsizliği beraberinde getirebilir. Bunun sonucunda toplumsal kargaşa olasılığının önlenmesine yönelik yeni iş kollarının da ortaya çıkacağına dair insanların bilgilendirilmesi gerekir. Neticede Sanayi Devrimi'nden önce de bazı iş kollarının ortadan kalkacağından ve işsizliğin artacağından endişe ediliyordu ancak süreç içerisinde pek çok yeni iş alanı ortaya çıktı. Bu kapsamda olası iş kaybının artı ve eksilerini etik ve toplumsal açıdan değerlendirmek gerekir.

Yapay zekâ ve etik problemler

Bunların içinde en önemli sorunlardan biri de yapay zekâ sistemlerinin otonom hale gelmesi olasılığıdır. Bir yapay zekânın otonom karar alma
boyutuna ulaşmasıyla, bilim kurgu filmlerindeki felaket senaryolarının gerçekleşmesini bekleyebiliriz. Böyle bir durumda yanlış bir karar alan otonom yapay zekânın nasıl "yargılanacağı" ve bu karardan dolayı kimin sorumlu tutulacağı yapay zekâ ve etik tartışmalarının en önemli konusu
olması gerekiyor. Bu açıdan değerlendirildiğinde yapay zekâyı tasarlayan-kodlayan kişi, yapay zekâyı kullanan kişi ve yapay zekâyı üreten şirket sorumlu taraflar olabilir.

Günümüzde sürücüsüz otomobillerde bir kaza meydana geldiyse olaya bilişim suçları bakıyor ve otomobilin üretildiği firmaya ve sahibine soruşturma açılıyor. Ancak yapay zekâ sistemleri her geçen gün gelişiyor ve bu gelişme ileride karmaşık etik problemlere de yol açabilir. İnsansı robotlar ve diğer yapay zekâ sistemleri otonom hale gelirse durumun yol açtığı hukuki ve etik sorunları halletmek sürücüsüz otomobil firmasını yargılamak kadar kolay
olmayabilir. Eğer bir teknoloji sürekli gelişiyor ve yenileniyorsa onunla ilgili yaptırımlar ve kurallar da gelişmeli ve yenilenmeli.

Bu kapsamda yapay zekâ sistemlerini denetleme kurumlarının bağımsız olması, etik kurumlar ile ortaklaşa çalışması gerekir. Bununla birlikte yapay zekâ sistemlerinin kullanımıyla ilgili toplumlar bilinçlendirilmelidir. Bu sayede yapay zekâ yazılımcıları ve yapay zekâ kullanıcıları da etik bilinç ekseninde buluşacaklardır. Her iki grubun da "ahlaksal özne" niteliğine sahip olması, etik bir yapay zekânın yapımı için gereklidir. Burada bahsedilen "ahlaksal özne" hem kendi çıkarını hem de başkalarının çıkarlarını ön planda tutan kişi ve yapay zekâ sistemleridir (Karabağ, 2021: 764).

Robot Sophia'yı çok ciddiye almamak gerekir

Geçtiğimiz günlerde bir programa katılan Robot Sophia'nın sorulan sorulara verdiği cevaplar sosyal medyada bir süre gündem olmuştu. Sophia'nın verdiği cevaplardan onun küstah bir üsluba sahip olduğunu ve kendisine yöneltilen sorulara politik cevaplar verdiğini söylemek yanlış olmaz. Ancak otonom olmayan bir robotun verdiği cevapların onu tasarlayan kişilere ve yazar ekibine ait olduğu düşünüldüğünde Sophia'yı çok da ciddiye almamak gerekir. Sophia'nın cevaplarını "insan" boyutunda sınırlamak, yapay zekâ ile insan gibi sohbet etmeyi düşlemek yapay zekâyı etkin kullanmayı engelliyor.

Daha önce de belirttiğimiz gibi yapay zekânın nasıl davranacağını, nasıl konuşabileceğini tasarlamak bizim elimizde. Sophia otonom hale gelip, kendisine kodlanandan bağımsız bir şekilde soruları cevaplasaydı etik bir problemden bahsedebilirdik. Etik bir makine tasarlamaktan çok etik makineyi tasarlayacak kişilerin etik bireylerden oluşması gerekliliği birinci gündem maddesi olmalıdır. Zira çılgın bir bilim insanının elinde mucize bir teknoloji insanlığın felaketi de olabilir kurtarıcısı da…

KAYNAKÇA
- Ed: Ruivenkamp G., J. Jongerden., Öztürk G., (2010). Teknoloji ve Toplum- Yıkıcı Bir Direniş ve Yeniden Yapılanma – Feenberg, A., "Eleştirel Teknoloji Teorisi", 23-46, Kalkedon Yayınları, İstanbul.
- Larson, E., (2022). Yapay Zekâ Miti-Bilgisayarlar Neden Bizim Gibi Düşünemez, Fol Kitap, Ankara.
- Wandell, W., Allen, C., Franklin, S. (2011). "Consciousness and Ethics: Artificially Conscious Moral Agents". International Journal of Machine Consciousness (3): 177-192.
- Angwin, J., Larson, J., Mattu S., Kirchner, L., (2016). "Machina Bias"
- https://www.propublica.org/article/ machine-bias-risk-assessments-incriminal- sentencing
- Karabağ, M. (2021). "Ahlaki Değerlerin Kodlanabilmesi Bağlamında Yapay Zekâ Etiğine Kuramsal Bir Bakış", TRT Akademi
Dergisi, Cilt:6, Sayı:13, 748-767.

BİZE ULAŞIN