Etik yapay zeka nedir?
Algoritmalar söz konusu olduğunda ‘iyi bir sonucun’ ne olduğunu nasıl tanımlarız?
Etik AI teriminin ne anlama geldiğini ilk kez hayal etmeniz gerektiğinde, yalnızca dünyayı ele geçirmeye hizmet eden bir tür Skynet bağlantılı teknoloji gibi kurgusal AI hakkında hemen düşünmek çok kolay olabilir. Yapay zeka (AI) teknolojisi gerçekten de her yıl büyük ölçüde gelişiyor, ancak neyse ki makinelerin bir beyin geliştirip insan ırkını ele geçireceği fikri (henüz) mümkün değil.
Hayatlarımızı iyileştirmeye yardımcı olsalar da, birçok yapay zeka kullanımı, günlük uygulamaları söz konusu olduğunda oldukça sıkıcı olabilir. Devrim niteliğindeki teknolojinin bir sanal asistanda saklı olduğu Google Home’u veya Amazon’un Alexa’sını ele alalım. Yapay zekanın kullanıcılarla iletişim kurma şeklini iyileştirmeye yardımcı olmak için doğal dil işleme (NLP) içerirler. AI sayısız başka şekilde kullanılabilir, bunu ofis görevlerinin otomatikleştirilmesinde veya büyük veri analitiğinde bulabilirsiniz.
İşletmelerin faydalanması için yeni uygulamalar veya yaklaşımlar oluşturmaya çalışan araştırmacılar ve akademisyenler sayesinde yapay zeka sürekli gelişiyor. Bununla birlikte, teknoloji geliştikçe, gizlilik veya veri koruma haklarımızı etkileyebilecek uygulamaların temelinde yapay zekanın etiği hakkında konuşmalar olması önemlidir. Bunun bir örneği , kanun koruması tarafından bazen halkın bilgisi dışında kullanılan ve oldukça tartışmalı olarak görülen yüz tanımadır.
Etik yapay zeka söz konusu olduğunda, iyi bilinen bir konu, bu algoritmaların nasıl kesintiler yaptığına odaklanır . Algoritmalar şeffaf olma eğiliminde olmadığından, veri kümelerinin sistem sonuca vardığında dikkate alınan herhangi bir önyargı içerip içermediğini bilmek zor olabilir. İnsana benzer sonuçlar üretmeyi amaçlayan yapay zeka geliştirmeyle ilgili bir sorun, bu sistemlerin, insanların bir karar verirken göz önünde bulunduracağı etik sorunları dikkate alıp almadığından emin olmamızdır.
Yüz tanıma, AI teknolojisinin tartışmalı bir uygulaması olarak görülüyor.
Bu sorular sayesinde etik fikrine, yani bir bireyin veya grubun veya bu durumda bir makinenin eylemlerini yöneten ahlaki ilkelere varıyoruz. Bu, AI etiğinin yalnızca teknolojinin uygulanmasıyla ilgili olmadığı anlamına gelir – AI’nın sonuçları ve tahminleri de aynı derecede önemlidir.
‘İyi bir sonuç’ tanımlama
AI sistemleri, sonuçlarını matematiksel ilkelere dayandıran geleneksel bilgisayarlardan farklılığı temsil eder. Bir bilgisayara 4 + 4 girerseniz, ne kadar karmaşık olursa olsun, cevap her zaman 8 olmalıdır. Uygulama geliştirmeyle, çeşitli ihtiyaçlara uyacak yeni yazılımlar oluşturulabilir, ancak bu her zaman önceden oluşturulmuş bir kodlama diline dayanır. Bu anlamda, sonucun ne olması ya da olmaması gerektiği konusunda bir belirsizlik yoktur.
Bir kişinin yüz özelliklerine göre ne kadar mutlu olduğunu belirlemek için tasarlanmış bir sistem örneğini ele alalım. Mümkün olan tüm ırk, yaş ve cinsiyet kombinasyonlarını hesaba katmak için bir sistemin çeşitli demografik bilgiler üzerinde eğitilmesi gerekecektir. Dahası, sistemin tüm bunları açıklayabileceğini varsaysak bile, mutluluğun neye benzediğini şüpheye yer bırakmayacak şekilde nasıl saptayabiliriz?
Önyargı, gelişimi her zaman dahil olan araştırmacıların seçimlerine dayandığından, yapay zeka ile ilgili en büyük sorunlardan biridir. Bu, tamamen tarafsız bir sistem oluşturmayı etkili bir şekilde imkansız hale getirir ve yapay zeka etiği alanı neden bu kadar önemlidir?
Roboetik
Roboetik veya robot etiği, otomatikleştirilmiş bir sistemin durumlara etik olarak yanıt vermesini sağlayan davranış kurallarını kullanarak yapay olarak akıllı sistemler tasarlama ilkesidir. Yani, bir robotun faaliyet gösterdiği toplumun etik çerçevesine uyacak şekilde davranmasını sağlayın.
Geleneksel etik gibi, roboetik de kendi kararlarını verebilen bir sistemin insanlarla temasa geçtiğinde insanın sağlığını ve esenliğini her şeyin üzerinde tutmasını ve aynı zamanda içinde bulunduğu çevreye uygun davranabilmesini içerir.
Roboetik, genellikle yapay zekanın savaş durumlarında kullanımıyla ilgili tartışmalarda ağırlıklı olarak yer alır; popüler bir düşünce okulu, robotların asla insanlara açıkça zarar vermek veya onları öldürmek için yapılmaması gerektiğidir.
Roboetik genellikle robotun sonuçtaki eylemine odaklanırken, alan robotun kendisinden ziyade yalnızca arkasındaki insan geliştiricinin düşünceleri ve eylemleriyle ilgilenir. Bunun için, AI makinelerine ahlaki davranışlar ekleme süreciyle ilgilenen makine etiğine dönüyoruz.
Etik yapay zekaya karşı argümanlar
Bununla birlikte, bazı endüstri düşünürleri, robotlara ve yapay zekaya insan muadilleri gibi davranmanın mümkün olmadığını söyleyerek etik yapay zekaya saldırdı.
Ünlü bilgisayar bilimcisi Joseph Weizenbaum , 60’lardan beri insan olmayan varlıkların insan etkileşimi veya ilişki kurmaya dayalı rollerde kullanılmaması gerektiğini savundu. Müşteri hizmetleri, terapistler, yaşlılar için bakıcılar, polis memurları, askerler ve yargıçlar gibi sorumluluk rollerinin, fiziksel robotlar veya insan sezgisine aykırı başka herhangi bir sistem olsun, asla yapay zeka ile değiştirilmemesi gerektiğini söyledi.
Bu rollerde insanların empati yaşaması gerekiyor ve yapay zeka ile etkileşimler ne kadar insani olursa olsun, bu iş rollerinin var olduğu senaryolarda yaşanan duyguların yerini hiçbir zaman dolduramayacaklar.
Etik yapay zekaya siyasi tepki
Birleşik Krallık, etik yapay zekanın evriminde merkezi bir rol üstleniyor. Eski başbakan Theresa May, toplumun veriye dayalı teknolojilere hazırlanmasını sağlayacak bir Veri Etiği ve İnovasyon Merkezi geliştirme sözü verdi.
“Merkez, yapay zeka gibi hızla gelişen teknolojilerin ortaya çıkardığı yeni etik sorunlarla başa çıkmamıza yardımcı olmaktan, veri kullanımıyla ilgili en iyi uygulamalar üzerinde anlaşmaya varmaktan potansiyel yeni düzenlemeleri belirlemeye kadar, verilerde güven oluşturmak ve inovasyonu mümkün kılmak için gereken önlemleri belirleyecek. güdümlü teknolojiler,” dedi May. “Güven, güçlü bir ekonominin temelini oluşturur ve verilere duyulan güven, güçlü bir dijital ekonominin temelini oluşturur.”
Nisan ayında Avrupa Komisyonu, yapay zekanın etik gelişimi için bir dizi kılavuz yayınladı ; bunların başında tutarlı insan gözetimi ihtiyacı geliyor.
Etik yapay zekaya iş tepkisi
Google, yapay zekasının yalnızca etik olarak kullanılacağına, yani asla bir silah haline getirilmeyecek şekilde tasarlanmayacağına yemin eden ilk şirketlerden biriydi. Şirketin yuhalaması, Sundar Pichai, Google’ın yapay zeka destekli gözetlemeye de katılmayacağını söyledi.
Google , ABD hükümetinin silah programıyla ilişkisine yönelik yaygın eleştirilere yanıt olarak Haziran 2018’de etik uygulama kurallarını yayınladı. Şirket o zamandan beri, algoritmaları silah haline getirmeyi amaçlayan projelerde artık ABD hükümeti ile işbirliği yapmayacağını söyledi.
Amazon, Google, Facebook, IBM ve Microsoft, yapay zeka için en iyi uygulamaları geliştirmek üzere güçlerini birleştirdi; bunun büyük bir kısmı yapay zekanın nasıl olması gerektiğini ve kullanılabileceğini inceliyor, etik olarak kullanılıyor ve halkı kullanımları hakkında eğitmeye yönelik fikirleri paylaşıyor. AI ve teknolojiyi çevreleyen diğer sorunlar.
Konsorsiyum şunları açıkladı: “Yapay zeka konusundaki bu ortaklık, araştırma yürütecek, tartışmalar düzenleyecek, düşünce liderliği sağlayacak, ilgili üçüncü taraflara danışacak, halktan ve medyadan gelen soruları yanıtlayacak ve makine algısı da dahil olmak üzere Yapay Zeka teknolojileri anlayışını ilerleten eğitim materyali oluşturacak. öğrenme ve otomatik muhakeme.”
Mart 2016’da çevrimiçi sohbet robotu Tay ile feci bir denemenin ardından Microsoft, o zamandan beri, özellikle hassas kullanım durumları söz konusu olduğunda, yapay zekanın geliştirilmesine ilişkin dahili politikalarını elden geçirmek için adımlar attı. Buna, iş genelinde yapay zeka politikasını tavsiye etmekten ve uygulamaktan sorumlu olan Sorumlu Yapay Zeka Ofisi ve bağlayıcı olmayan sözde “Aether” (Yapay Zeka, Mühendislik ve Araştırmada Etik ve Etkiler) Komitesi de dahildir. kilit paydaşlardan oluşan danışma organı.
Microsoft ayrıca , taslak versiyonu nihayet 21 Nisan 2021’de yayınlanan bir AI düzenleyici çerçevesinin geliştirilmesi konusunda Avrupa Birliği ile işbirliği yaptı. Önerilen düzenlemelere göre, AB vatandaşları, geçen yıl Birleşik Krallık’ta yasa dışı olduğuna hükmedilen kolluk kuvvetleri tarafından yapay zekanın toplu gözetim için kullanılmasından korunacak. İşe alımda, kredi puanı değerlendirmesinde ve sınır kontrol yönetiminde AI kullanımı da ayrımcılık endişeleri nedeniyle “yüksek riskli” olarak sınıflandırılırken, hükümetler tarafından “sosyal puanlamaya” izin veren sistemler yasaklanacak.
Kuralları çiğneyen şirketler, hangisi daha yüksekse, küresel cirolarının %6’sına veya 30 milyon Euro’ya varan para cezalarıyla karşı karşıya kalacak – GDPR tarafından zaten uygulanan yüksek cezalardan biraz daha yüksek . Avrupa Komisyonu’nun, kuralların yürürlüğe girmesinden önce, birkaç yıl sürebilecek bir süreç olan, önerilen düzenlemelerin ayrıntılarını AB ulusal hükümetleri ve Avrupa Parlamentosu ile birlikte değerlendirmesi gerekecek.
Bu arada Birleşik Krallık’ta Sendikalar Kongresi (TUC) , işe alma ve işten çıkarma gibi çalışanlarla ilgili karar alma süreçlerinde yapay zekanın kullanılması işyerinde daha yaygın hale geldiğinden, işçiler için daha fazla yasal koruma çağrısında bulunuyor. Bunun son örnekleri arasında , yemek dağıtım hizmetini yüz tanıma işleminden sonra haksız işten çıkarma yapmakla suçlayan eski Uber Eats çalışanları tarafından öne sürülen iddialar yer alıyor.şirketin kullandığı yazılım yüzlerini tanıyamıyordu. “Fotoğraf karşılaştırma” aracı olarak bilinen sistem, Uber kuryelerinden ve sürücülerinden yüzlerinin bir fotoğrafını çekmelerini istiyor ve ardından bu fotoğraf, şirketin veritabanındaki bir fotoğrafla karşılaştırılarak yapay zeka kullanılarak doğrulanıyor. Bu nedenle, TUC’ye göre, “yüksek riskli” yapay zeka kullanmak isteyen işverenler yasal olarak sendikalara danışmak zorunda olmalıdır.
Makalenin orjinal kaynağını bu linkten okuyabilirsiniz