Güvenilir Yapay Zeka Kavramı
- HGC HUKUK
- 2 Nis
- 23 dakikada okunur
I. GÜVENİLİR YAPAY ZEKANIN UNSURLARI
Güvenilirlik, insanların yapay zeka sistemlerini geliştirmesi ve kullanması için bir ön koşuldur. Yapay zeka sistemlerine güven duyulmaz ise söz konusu teknolojilerin potansiyel sosyal ve ekonomik faydalarından yararlanılamayabilir. Bu nedenle, yapay zekanın güvenilirliğini sağlamak, havacılığa, nükleer enerjiye veya gıda güvenliğine duyulana benzer şekilde fevkalade önemlidir.
Güvenilir (trustworthy) yapay zeka, sistemin tüm yaşam döngüsü boyunca varlığı aranan şu üç bileşene sahiptir: Teknik ve sosyal açıdan sağlamlık, hukukî düzenlemlere uygunluk, etik ilke ve değerlere bağlılık.
A. Teknik ve Sosyal Açıdan Sağlamlık
Yapay zeka sistemleri kişilere ve topluma zarar vermemelidir. Bu tür sistemler sağlıklı, güvenli ve güvenilir bir şekilde çalışmalı ve istenmeyen olumsuz etkiler için önlemler öngörülmelidir. Bunun sağlanması için sistemin hem teknik açıdan hem de sosyal açıdan (çalıştığı bağlam ve ortamın uygunluğu bakımından) sağlam olması gereklidir.
B. Hukukî Düzenlemlere Uygunluk
Güvenilir yapay zeka, görevleri verimli ve etkili bir şekilde yerine getiren sistemler oluşturmanın yanı sıra bu sistemlerin tüm hukukî düzenlemelere uygunluğunu da gerektirmektedir. YZ sistemlerinin hukuk düzeni sınırları dahilinde çalışması gerekliliği, yalnızca veri koruma ve gizlilik yasaları gibi özel olarak kabul edilmiş hukuki düzenlemeleri değil; aynı zamanda insan haklarına, ayrımcılık yasağına ve cezai sorumluluğa ilişkin olanlar gibi daha geniş düzenlemeleri de içermektedir. Örneğin Avrupa Birliği’nde birincil düzenlemeler (Avrupa Birliği Antlaşmaları ve Temel Haklar Şartı), ikincil düzenlemeler (Genel Veri Koruma Tüzüğü, Ürün Sorumluluğu Direktifi, Kişisel Olmayan Verilerin Serbest Akışı Tüzüğü, ayrımcılık karşıtı direktifler, tüketici hukuku ve iş sağlığı ve güvenliği direktifleri gibi), Birleşmiş Milletler İnsan Hakları Anlaşmaları ve Avrupa Konseyi Sözleşmeleri (Avrupa İnsan Hakları Sözleşmesi gibi) ve çok sayıda AB Üyesi Devlet hukuku yapay zekaya ilişkin düzenlemeler olarak kabul edilmektedir. Avrupa Birliği’nde yatay olarak uygulanabilir kuralların yanında belirli yapay zeka uygulamaları için ilgili alanlara özgü kurallar -sağlık sektöründeki Tıbbi Cihaz Tüzüğü gibi- da mevcuttur.
C. Etik İlke ve Değerlere Bağlılık
Yapay zeka sistemlerinin güvenilir kabul edilmesi etik normlarla uyumluluğuna bağlıdır. Birçok yasal yükümlülük etik ilkeleri yansıtır ve fakat bazı durumlarda etik ilkelere bağlılık mevcut yasalara uyumun ötesine geçebilir. Gerçekten, toplum, bilimsel ve teknik gelişmelere de dayalı olarak sürekli bir akış içinde olduğundan, hukuki düzenelemeler bu gelişmelerden geride kalabilmektedir. Bu nedenle hukukî düzenlemeler yetişene kadar, etik topluma öncülük etmek zorundadır.
II. YAPAY ZEKA ETİĞİ
A. Bilgisayar Etiği
Etik, teknolojinin ahlaki sonuçlarını değerlendirmek için genel bir çerçeve sağlamaktadır. Bilgisayar etiği ise bu çerçeveyi belirli bir bilgi işlem ve bilgi teknolojisi alanına uygulamaktadır. Bilgisayar etiğine ilişkin farklı yaklaşımlar mevcuttur. Bu yaklaşımlar farklı temel varsayımlara dayanmaktadır. Etik yaklaşımlar, ahlaki ikilemleri kavramsallaştırmanın ve çözmenin farklı yollarını içerir. Söz konusu bakış açıları, bireylerin ve toplumların karşılaştığı ahlaki sorunları anlamalarına yardımcı olur. Bu bakımdan etik perspektifler, ahlaki sorunlara değerler, sonuçlar, haklar, görevler gibi farklı kriterlerle yaklaşan teorilerdir. Bir etik soruna birden fazla bakış açısından yaklaşmak, daha geniş bir kavrayış sağlayacaktır. Zira farklı perspektifler, ahlaki sorunların çeşitli yönlerini vurgulamaktadır. Faydalı değerlendirmelerin ortaya konulabilmesi de söz konusu çeşitli perspektiflerin en ilgili özelliklerinin birleştirilmesi neticesinde mümkündür.
Deontolojik etik, bir eylemin doğruluğunun veya yanlışlığının, eylemin sonuçlarına değil, eylemin doğasına bağlı olduğunu kabul eden etik teorisidir. Deontolojik etikte, eylemlerin erdemli olması nedeniyle yapılmasına ve ahlaki açıdan yanlış olan eylemlerden kaçınılmasına önem verilir. Deontolojik yaklaşımda, eylemin doğruluğunun veya yanlışlığının, eylemin sonuçlarına bağlı olduğunu kabul eden teleolojik yaklaşımın aksine, örneğin bir siber suçlunun eylemlerinin altında yatan erdem derecesi dikkate alınır. Bilgisayar güvenliği dilinde "bal küpü", bilgi sistemlerine yetkisiz kullanım girişimlerini tespit etmek, saptırmak veya bir şekilde etkisiz hale getirmek için kurulan bir tuzaktır. Bilgisayar güvenliği yöneticisi, siber suçluların sistemlerindeki herhangi bir güvenlik açığından nasıl yararlandıkları hakkında daha fazla bilgi edinmek için bal küpünü kullanır ve ardından bu kusurları ortadan kaldırmak için sistemi yeniden tasarlar. Çevrimiçi pedofiller, ergen kılığına giren FBI ajanları tarafından oluşturulan bal küpleri aracılığıyla tespit edilip yakalanabilir. Erdem perspektifinden bakıldığında, bu tür bir ikiyüzlülük; bir kişinin başka türlü işlemeyeceği bir suçu işlemesi için ayartılabileceği etik olmayan bir tuzak biçimi olarak görülebilir. Ancak sonuçsalcılar bu uygulama stratejisini desteklemektedir.
Çatışma teorisyenleri ise yeni teknolojilerin sosyal eşitliği nasıl etkilediği üzerinde durmakta, kapitalizmin kâr güdüsünün yerini sosyal adalet düşüncesi almadığı sürece yapay zekanın yaygın kullanımının zaman içinde daha büyük eşitsizliklere yol açacağını savunmakta ve kapitalizm altında az sayıda yüksek teknoloji şirketinin ve finansörlerinin haksız yere muazzam derecede zenginleşirken, robotlar ve diğer yenilikçi teknolojilerin giderek artan sayıda işçiyi yerinden ettiğini belirtmektedir. Bu görüşe göre, robotlaşma, geçmişteki olumlu teknolojik değişimler gibi insanların iş yükünü hafifletirken, dünyanın karşı karşıya olduğu pek çok zorluğun üstesinden gelinmesine yardımcı olabilir. Ancak bu durum aynı zamanda toplumları bir tarafta robotların sahipleri, diğer tarafta robotlarla rekabet eden işçiler olarak bölebilir. İnsan emeğinin robotlar tarafından potansiyel olarak yerinden edilmesinin yanı sıra, robotların üreteceği refahın toplum genelinde nasıl adil bir şekilde paylaşılacağı konusu da bir diğer endişe noktasıdır. Zira bugün, kazançlar orantısız bir şekilde sermayenin asıl sahipleri olan zenginlere aktarılmaktadır. Bu görüş, geleneksel tescilli lisanslamanın aksine açık kaynak kodlu yazılımlara (kaynak kodu bu yazılımın kullanıcıları tarafından yeniden kullanılmaya, değiştirilmeye, geliştirilmeye açık olan yazılım) sıcak bakmaktadır. Özgür ve açık kaynak kodlu yazılımlar üretkendir. Onu üreten, dağıtan ve değiştiren programcılar tarafından sürekli olarak geliştirilir. Ancak, geleneksel tescilli lisans kapsamında kaynak kodu gizli tutulur ve program yalnızca nesne biçiminde kullanıma sunulur. Bu model, yazılım yayıncılarının koda sahip olduğu ve üretim araçlarını kontrol ettiği kapitalizm yanlısı bir modeli yansıtır. Pekin Yapay Zeka Akademisi tarafından oluşturulan Pekin YZ İlkelerinde de, açık kaynak çözümlerinin "veri/platform tekellerinden kaçınmak, YZ gelişiminin faydalarını en geniş ölçüde paylaşmak ve farklı bölgeler ve endüstriler için eşit gelişim fırsatlarını teşvik etmek" için yararlı olabileceğini belirtilmektedir.
Konuya dair bir başka yaklaşım getiren liberteryenizm, başkalarının haklarını ihlal etmediği sürece, herkesin istediği gibi yaşamakta özgür olması gerektiğini savunur. Bu ideolojinin merkezinde serbest piyasanın, ekonomik ve siyasi özgürlüklerin önemli bir kaynağı olduğu inancı yer almaktadır. Örneğin yazılım endüstrisi, toplu davalar için feragat hükümleri, tazminat üst sınırları veya ihtilâf öncesi zorunlu tahkim gibi tek taraflı hükümleri geçersiz kılan aktivist mahkemelere karşı çıkarak, özgürlükçü bir tutum benimsemektedir. Endüstri, paternalist mahkemelerin tüketici karşıtı hükümleri uygulamayı reddettiklerinde bir “dadı devletini” teşvik ettiklerini savunmaktadır. Bu görüşe göre, tüketiciler, hükümetin gözetimine güvenmek yerine bu şartları okuma ve anlama sorumluluğuna sahiptir. Kullanım koşulları tüketicinin hoşuna gitmiyorsa, tüketici web sitesini boykot etme ve daha tatmin edici koşullar sunan bir web sitesini kullanma veya bu türden bir web sitesi kurarak kâr etme özgürlüğüne sahiptir. Bu görüş savunucuları, serbest bir piyasada rakiplerin, tüketicilere iyi hizmet vermeyen şirketleri yerinden edeceğini iddia etmektedir. Özgürlükçüler, görünüşte kamu yararı için öngörülen ancak aslında teklif sahiplerinin ayrıcalıklı konumunu koruyan yasalar için yerleşik çıkar gruplarının lobi yaparak potansiyel rakipleri engellemeye çalıştığını savunmaktadır. Otel endüstrisinin, tüketicileri koruma kisvesi altında hükümetleri Airbnb'yi baltalayacak politikalar izlemeye teşvik ettiğini ve taksi şirketlerinin Uber, Lyft gibi araç paylaşım işletmelerinin e-sürüş hizmetlerini sekteye uğratacak şekilde düzenlemeler için lobi faaliyetleri yürüttüklerini ifade etmektedir.
B. Yapay Zeka Etiği
Etik tartışmalarda, "ahlak" ve "etik" terimleri sıklıkla kullanılmaktadır. "Ahlak" terimi, belirli bir zamanda belirli kültürlerde, gruplarda veya bireylerde bulunabilen somut, olgusal davranış kalıplarına, geleneklere ve sözleşmelere atıfta bulunur. "Etik" terimi ise bu tür somut eylem ve davranışların sistematik ve akademik bir bakış açısıyla değerlendirilmesini ifade eder. Etik, genel anlamda "İyi eylem nedir?", "İnsan hayatının değeri nedir?", "Adalet nedir?" veya "İyi yaşam nedir?" gibi sorularla ilgilenir. Akademik etikte dört ana araştırma alanı vardır. Meta-etik, çoğunlukla normatif cümlenin anlamı ve referansı ve bunların -eğer varsa- doğruluk değerlerinin nasıl belirlenebileceği sorusuyla ilgilidir. Normatif etik, doğru ve yanlış eylem standartlarını inceleyerek ve belirli eylemlere bir değer atayarak ahlaki bir eylem rotası belirlemenin pratik yoludur. Betimleyici etik, insanların ahlaki davranış ve inançlarının ampirik olarak incelenmesini amaçlamaktadır. Uygulamalı etik ise belirli (genellikle tarihsel olarak yeni) bir durumda veya belirli bir eylem olasılıkları alanında (genellikle tarihsel olarak daha önce görülmemiş) ne yapmakla yükümlü olduğumuzla ilgilidir. Yapay zeka etiği de genellikle uygulamalı etiğin bir örneği olarak görülür ve YZ'nin tasarımı, geliştirilmesi ve kullanımı ile ortaya çıkan normatif konulara odaklanır.
1. Ana Yaklaşım: Temel Haklar
Avrupa Birliği tarafında, yapay zeka etiğine ilişkin olarak, AB Antlaşmaları, AB Şartı ve uluslararası insan hakları hukukunda yer alan temel haklara dayanan bir yaklaşım benimsenmektedir. Demokrasi ve hukukun üstünlüğü çerçevesinde temel haklara saygı, yapay zeka bağlamında işletilebilecek soyut etik ilkeleri ve değerleri belirlemek için gerekli temelleri sağlamaktadır.
Temel hakların birleştiği nokta, insan onuruna saygıdır. Esasen temel haklar “insan merkezli bir yaklaşımı” esas almaktadır. Bu yaklaşım, insanın medeni, siyasi, ekonomik ve sosyal alanlarda benzersiz ve devredilemez bir ahlaki önceliğe sahip olduğunu kabul etmektedir. İnsan merkezli yaklaşım, temel haklara saygı gösterilmesini sağlamak suretiyle, insan değerlerinin YZ yaşam döngüsünde yer almasını sağlamaya çalışmaktadır. Bu aynı zamanda, doğanın ve insan ekosisteminin bir parçası olan diğer canlı varlıkların dikkate alınmasını ve ayrıca gelecek nesillerin de gelişimini sağlayacak sürdürülebilir bir yaklaşımı gerektirir.
OECD’nin güvenilir yapay zekaya ilişkin ilkelerinde de insan merkezli değerler ve adalet bir arada benimsenmektedir. Buna göre, YZ aktörleri, YZ yaşam döngüsü boyunca özgürlük, onur, özerklik, mahremiyet, ayrımcılık yapmama, adalet ve sosyal adalet, çeşitlilik ve temel işçi hakları dahil olmak üzere insan haklarına ve demokratik değerlere saygı göstermek için etkili mekanizmalar kurmalıdır.
2. Yapay Zeka Bakımından Etik İlkeler
AB Şartı’nda, dayandıkları temel hakların ortaya çıkma sırasını yansıtacak şekilde yapay zeka konusunda kabul edilen etik ilkeler, “insan özerkliğine saygı”, “zararın önlenmesi”, “hakkaniyet” ve “açıklanabilirlik”tir. İnsan özerkliğine saygı, AB Şartı’nın 1. ve 6. maddelerinde belirtilen insan onuru ve özgürlüğü hakkıyla güçlü bir şekilde ilişkilidir. Zararın önlenmesi, AB Şartı 3. maddede yansıtılan fiziksel veya zihinsel bütünlüğün korunmasıyla bağlantılıdır. Hakkaniyet, 21. madde ve devamında vurgulanan ayrımcılık yapmama, dayanışma ve adalet ile ilgilidir. Açıklanabilirlik ve sorumluluk ise 47. maddede ifadesini bulan adalet ile yakından bağlantılıdır.
a. İnsan Özerkliğine Saygı
Yapay zeka sistemleriyle etkileşime giren insanlar, kendileri üzerinde tam ve etkili bir şekilde özerkliğe sahip olabilmeli ve kendileri hakkında karar verebilmelidir. Yapay zeka sistemleri, insanları boyunduruğu altına almamalı, zorlamamalı, aldatmamalı, manipüle etmemeli, koşullandırmamalı veya insanları sürü haline getirmemelidir. Bu sistemler, insanın bilişsel, sosyal ve kültürel becerilerini artırmak, tamamlamak ve güçlendirmek için tasarlanmalıdır. İnsanlar ve yapay zeka sistemleri arasındaki işlevlerin paylaşımında, insan merkezli tasarım ilkeleri takip edilmeli ve insanın seçim özgürlüğüne fırsat bırakılmalıdır. Bu sayede, YZ sistemlerindeki iş süreçleri üzerinde insan gözetimi güvence altına alınabilecektir.
b. Zararın Önlenmesi
Yapay zeka sistemleri, insanlara zarar vermemeli veya başka bir şekilde olumsuz yönde etkilememelidir. Bu husus, insan onurunun yanı sıra insanın zihinsel ve fiziksel bütünlüğünün korunmasını da kapsar. Bu bakımdan, YZ sistemleri ve çalıştıkları ortamlar düzgün ve güvenli olmalıdır. Bu ortamların, teknik olarak sağlamlığı ve kötü niyetli kullanıma açık olmaması sağlanmalıdır. Çocuklar gibi savunmasız kişilere daha fazla özen gösterilmeli ve bu kişiler yapay zeka sistemlerinin geliştirilmesinde ve kullanımında dikkate alınmalıdır. Yapay zeka sistemlerinin, işverenler ve çalışanlar, işletmeler ve tüketiciler, hükümetler ve vatandaşlar arasındaki gibi güç veya bilgi asimetrileri nedeniyle olumsuz etkilere neden olabileceği durumlar da nazara alınmalıdır. Zararın önlenmesi ilkesi, sadece insanlar değil, doğa ve tüm canlılar bakımından geçerlidir.
c. Hakkaniyet
Adalet ve hakkaniyet, karmaşık ve tanımlanması zor kavramlardır. Zira neyin adil olduğu kültürler arasında farklılık göstermekte ve uygulamaya bağlı olarak değişebilmektedir. Bu bağlamda, dijital teknolojiyi kullanmanın uygun yollarını belirlemek, kanun koyucunun kendi sosyal adalet kavramından derinden etkilenmektedir.
Adaletin maddi boyutu, faydaların ve maliyetlerin eşit ve adil bir şekilde dağıtılması; kişilerin ve toplulukların haksız önyargı, ayrımcılık ve damgalamaya maruz kalmamasını ifade etmektedir. Bu sayede, eğitime, mallara, hizmetlere ve teknolojiye erişim açısından fırsat eşitliği de gerçekleştirilebilecektir. Yine, yapay zeka sistemlerinin kullanımı, insanların aldatılmasına veya seçim özgürlüğünün haksız olarak kısıtlanmasına yol açmamalıdır. Bunlara ek olarak, araçlar ve amaçlar arasındaki orantılılık ilkesine saygı duyulmalı ve çatışan çıkarlar arasında adil bir denge kurulmalıdır. Bir amaca ulaşmak için alınan önlemler (örneğin, yapay zeka optimizasyon işlevini gerçekleştirmek için uygulanan veri çıkarma önlemleri) kesinlikle gerekli olanla sınırlı olmalıdır. Aynı zamanda bir amaca ulaşmak için birden fazla olası önlem bulunduğunda, temel haklara ve etik normlara en az aykırı olanın tercih edilmesi gereklidir.
Adaletin usule ilişkin boyutu ise, yapay zeka sistemleri ve onları işleten insanlar tarafından alınan kararlara itiraz edebilme ve bunlara karşı etkili bir telafi yönteminin varlığını gerektirmektedir. Bunu yapabilmek için, karardan sorumlu olan kişi veya kurumun tanımlanabilir olması ve karar alma süreçlerinin açıklanabilir olması gereklidir.
d. Açıklanabilirlik
Açıklanabilirlik, süreçlerin şeffaf olması, yapay zeka sistemlerinin yeteneklerinin ve amacının açıkça muhataplara iletilmesi, sistem tarafından alınan kararların - mümkün olduğu ölçüde - bu karardan doğrudan ve dolaylı olarak etkilenenlere açıklanması gerektiği anlamına gelmektedir.
Açıklanabilirliğe ne ölçüde ihtiyaç duyulduğu, genellikle, sistemin oluşturduğu çıktının hatalı veya yanlış olması durumunda yaratacağı sonuçların ciddiyeti ile doğrudan bağlantılıdır. Örneğin, alışveriş tavsiyeleri veren bir YZ sistemi tarafından üretilen kararlar, bir hükümlünün denetimli serbestlik ile salıverilmesi gerekip gerekmediğini değerlendiren bir YZ sisteminin verdiği karardan çok daha az ciddidir.
e. İlkeler Arasındaki Çatışmalar
Yukarıda değinilen ilkeler arasında çatışma çıkabilir. Örneğin, “tahmine dayalı polislik" uygulaması suçun azaltılmasına yardımcı olmasına karşın, kişinin özgürlüğünü ve mahremiyetini etkileyen gözetleme faaliyetlerini gerektirmektedir. Bu durumda, zararı önleme ilkesi ile insan özerkliği ilkesi çatışmaktadır. Bu hâlde, yapay zeka uygulayıcılarının yukarıdaki ilkelere dayalı olarak doğru çözümü bulmaları çok güçtür. Dolayısıyla, söz konusu ilkelerin, soyut etik reçeteler olarak kaldığı düşünülebilir. Bu türden çatışmaların üstesinden gelmek için, belirli bir duruma bağlı olarak hangi ilkenin öncelikli olduğunu belirlemek önemlidir. Bu türden etik ikilemlere dair karar verilirken dengeleme ve ödünleşim (trade-offs) mekanizmaları kullanılabilir. Bu durumda, ödünleşimin nasıl yapılacağı bir sorun olarak ortaya çıkmaktadır. Çatışan bu ilkelerden birinin diğerine tercih edilmesi veya bunlar arasında denge kurulması “bağlama” ve bu bağlamda geçerli olan değerlere bağlıdır. Bu sorun, şeffaf, gerekçelendirilebilir, sezgisellikten uzak bir şekilde ve mantık kuralları dahilinde kanıta dayalı olarak çözülmelidir. Ancak insan onuru gibi bazı temel haklar ve bununla bağlantılı ilkeler mutlaktır ve bu türden bir ödünleşim ve dengeleme uygulamasına tâbi tutulmamalıdır.
III. GÜVENİLİR YAPAY ZEKA İLKELERİ
Güvenilir yapay zekanın ilkeleri, yukarıda sunulan genel nitelikteki etik ilkelerin ve kavramların özelleştirilmesi suretiyle ortaya çıkmaktadır.
A. İnsan İradesi ve Gözetimi
İnsan iradesi ve gözetimi ilkesi, genel anlamda, kullanıcıların YZ sistemlerini tatmin edici seviyede anlamasını ve bu sistemlerle ilgili bilinçli kararlar alabilmesini gerektirmektedir. Bu ilke gereğince, kullanıcılara YZ sistemleri ile etkileşim kurmaları için gerekli bilgi ve araçlar verilmeli ve mümkünse sistemi makul bir şekilde kendi kendine değerlendirmeleri sağlanmalıdır.
YZ sistemleri, tespit edilmesi zor olabilecek mekanizmalar aracılığıyla insan davranışını şekillendirmek ve etkilemek için, çeşitli haksız manipülasyon, aldatma, gütme ve koşullandırma biçimleri de dahil olmak üzere bilinçaltı süreçleri kullanabilir. Bu kullanım kişinin özerkliğini tehdit edebilir. Bunun önüne geçilebilmesi için, kullanıcı özerkliği ilkesi sistemin merkezinde yer almalıdır. Bunun anahtarı da, kullanıcılara YZ sistemlerinin otomatik faaliyetlerine dayalı (automated processing) kararlara tâbi olmama hakkı tanınmasıdır. Bu yönde bir hak GDPR’nin 22. maddesinde de tanınmıştır. Anılan hükme göre, veri sahibinin kendisi ile ilgili hukuki sonuçlar doğuran veya benzer biçimde kendisini kayda değer şekilde etkileyen profil çıkarma da dahil olmak üzere yalnızca otomatik işleme faaliyetine dayalı bir karara tâbi olmama hakkı vardır.
Otomatik faaliyetlere dayalı kararlardan “vazgeçebilme", yapay zeka sistemlerine tâbi olmama seçiminin tanınması suretiyle sağlanmaktadır. Otomatik faaliyetlere dayalı kararların insan tarafından “incelenmesi” ise, her zaman ex post (sonradan) olarak uygulanmakta ve itiraz mekanizması geliştirmek suretiyle sonucu düzeltme fırsatı sunmaktadır.
Bu ilke ile uyumlu olarak Birleşik Krallık, halkın, yapay zekanın kendileri hakkında karar vermek için nasıl ve ne zaman kullanıldığının ve bunun kendileri için kişisel olarak ne gibi sonuçları olacağının farkında olması gerekliliği konusunu vurgulamaktadır. Bu açıklık ve dijital kavrayış, halkın yapay zekanın avantajlarını deneyimlemesine ve endişeleri olması durumunda bu tür ürünleri kullanmaktan vazgeçmesine yardımcı olacaktır.
B. Sağlamlık ve Güvenlik
Yapay zeka sisteminin sağlamlığı ve güvenliği, kişinin veya toplumun zarar görmemesi ilkesi ile yakından ilgilidir. Kişi veya toplum, yapay zeka sistemlerinin kendilerine zarar vermememesi beklentisi içerisindedir. Zararın önlenmesi için de, bu tür sistemlerin sağlam olması ve güvenli bir şekilde çalışması gerekmektedir.
Sağlamlık ve güvenlik konularına OECD ilkelerinde yer verilmiştir. Buna göre YZ sistemleri, olumsuz koşullara dayanabilmeleri veya bunların üstesinden gelebilmeleri bakımından sağlam, güvenlik riski oluşturmamaları bakımından güvenli olmalıdır. Bu amaçla, YZ aktörleri, sonuçlarının anlaşılmasını ve uygun olduğunda sorgulanmasını sağlamak için veri setlerinin, süreçlerin ve kararların takip edilebilirliğini sağlamalıdır. YZ aktörleri ayrıca, dijital güvenlik de dahil olmak üzere riskleri azaltmak için sürekli olarak risk yönetimi yaklaşımlarını uygulamalı veya güçlendirmelidir (m.1.4).
1. Sağlamlık
Sağlamlık, “bir sistemin çeşitli koşullar altında performans seviyesini koruma yeteneği” olarak tanımlanabilir. Sağlamlık, yalnızca sistemin beklenen kullanımlarda olduğu gibi tam olarak performans göstermesini değil, aynı zamanda beklenmedik bir şartta çalışması hâlinde insanlara verebileceği zararları en aza indirecek şekilde performans göstermesini de gerektirir. Bu bakımdan “teknik sağlamlık", sistemsel risklerin gerçekleşmesini önleyici bir yaklaşımla, olası zararlardan kaçınma veya zararları en aza indirmeyi amaçlayan güvenilir sistemlerin geliştirilmesini ifade etmektedir. Sağlamlık, sistemin çalıştığı bağlam ve ortamın uygun şekilde değerlendirilmesi suretiyle sosyal açıdan da gereklidir.
2. Güvenlik
Güvenlik kavramını, iç ve dış bağlamda iki yönlü olarak ele almak gerekmektedir. Bir sistemin zarar görmemesi, çevresine zarar vermeden yapması gereken şeyi yapması (safety) ve bu suretle sisteminin düzgün iç işleyişinin sağlanması konusu iç güvenliğe; bir sistemin yetkisiz erişim veya kullanım gibi dış tehditlere karşı korunması (security) ise dış güvenliğe ilişkindir. Dolayısıyla, bir sistem amaçlandığı gibi çalıştığı ve aynı zamanda yetkisiz üçüncü şahıslar tarafından gelebilecek tehlikelere karşı savunmasız olmadığı ölçüde güvenlidir.
a. Düzgün İç İşleyiş (İç Güvenlik)
İç güvenlik, hem YZ sistemleri kullanıma uygun duruma getirilmeden önce hem de çalıştıkları süre boyunca alınacak güvenlik önlemlerine odaklanmaktadır. Sistemleri güvenli bir şekilde inşa etmek, potansiyel insan hakları ihlalleri de dahil olmak üzere güvenlik risklerini değerlendirerek zarardan kaçınmak anlamına gelir. Geliştirme sırasındaki güvenlik önlemleri, YZ sistemlerinin muhtemel kötüye kullanımını önlemek için inşa edilmesini ve test edilmesini gerektirir. Test prosedürleri sadece olası senaryolara uygulanmamalı, aynı zamanda bir sistemin beklenmedik durumlara güvenli bir şekilde yanıt verdiğini ve beklenmedik şekillerde gelişmediğini de ortaya koymalıdır. Otonom araçların düzenlenmesi ve daha genel nitelikteki “ürün sorumluluğu” düzenlemeleri bu ilkenin bir yansımasıdır.
Düzgün iç işleyiş bakımından, bir YZ sisteminin ürettiği sonuçlarda “doğruluk” ve “tekrarlanabilirlik” konuları önem arz etmektedir. Doğruluk, ISO/IEC TS 5723:2022 tarafından "gözlemlerin, hesaplamaların veya tahminlerin sonuçlarının gerçek değerlere veya doğru olduğu kabul edilen değerlere yakınlığı" olarak tanımlanmaktadır. Doğruluk ölçümleri, hesaplama merkezli ölçümleri (örneğin, yanlış pozitif ve yanlış negatif oranları), insan-YZ ekip çalışmasını dikkate almalı ve eğitim koşullarının ötesine genelleştirilebilir dış geçerliliği göstermelidir. Doğruluk ölçümleri her zaman açıkça tanımlanmış ve gerçekçi test setleriyle ve test metodolojisine dair ayrıntılarla ilişkilendirilmeli ve bunlar ilgili dokümantasyona dahil edilmelidir. Tekrarlanabilirlik ise, bir YZ deneyinin -aynı koşullar altında- tekrarlandığında aynı davranışı gösterip göstermediğini ifade etmektedir. YZ sisteminin kalitesi hakkında daha iyi bir fikir edinmek için, doğruluğun yanı sıra tekrarlanabilirlik ölçütüne de ihtiyaç duyulmaktadır.
b. Saldırılara Karşı Dayanıklılık (Dış Güvenlik)
YZ sistemleri, tüm yazılım sistemlerinde olduğu gibi güvenlik açıklarına -örneğin bilgisayar korsanlığına- karşı korunmalıdır. Bir sistem saldırısında verilerin yanı sıra sistem davranışı da değiştirilebilir. Bu tür saldırılar sistemin farklı kararlar vermesine veya tamamen kapanmasına neden olabilir. Yetersiz güvenlik süreçleri de hatalı kararlara ve hatta fiziksel zarara neden olabilir. Bunun engellenmesi ve dolayısıyla sistemin güvenliğinin sağlanması için, sistemin dayanıklılığını test etmek, güvenlik açıkları ve siber saldırılar hakkında bilgi paylaşımında bulunmak ve kişisel verilerin bütünlüğünü ve gizliliğini korumak üç özel gereklilik olarak ortaya çıkmaktadır.
C. Gizlilik ve Veri Koruması
YZ sistemleri, tüm yaşam döngüsü boyunca gizliliği ve veri korumasını garanti etmelidir. Gizlilik, kullanıcının başlangıçta sağladığı verilerin yanı sıra kullanıcının sistemle etkileşimi esnasında kullanıcı hakkında üretilen verileri de kapsamaktadır. Bu suretle oluşan insan davranışının dijital kayıtları, kişilerin yalnızca tercihlerini değil, aynı zamanda cinsel yönelimlerini, yaşlarını, cinsiyetlerini, dini veya siyasi görüşlerini de içerebilir. Kişilerin veri toplama sürecine güvenini sağlamak için, haklarında toplanan verilerin kendilerine karşı yasadışı veya haksız bir şekilde ayrımcılık yapmak için kullanılmayacağından emin olunmalıdır. Yine, kullanılan veri setlerinin kalitesi, YZ sistemlerinin performansı için çok önemlidir. Zira veriler, sosyal olarak oluşturulmuş önyargılar ve hatalar içerebilir. Bir yapay zeka sistemini kötü amaçlı veriler ile beslemek, özellikle kendi kendine öğrenen sistemlerde bu sistemin davranışını değiştirebilir. Bu nedenle, ilgili süreçler ve veri setleri, planlama, eğitim, test ve devreye alma gibi her adımda test edilmeli ve belgelenmelidir.
Veri koruması, ”rıza", "verilerin kullanımı üzerinde kontrol", "veri işlemeyi kısıtlayabilme", "düzeltme hakkı", "silme hakkı", "tasarımla gizlilik” gibi konular ile yakından ilişkilidir.
Genel olarak "rıza", bir kişinin verilerinin kendi bilgisi ve izni olmadan kullanılmaması gerektiği fikrini ifade etmektedir. “Verilerin kullanımı üzerinde kontrol” ise, veri sahiplerinin kendileri hakkındaki bilgilerin nasıl ve neden kullanılacağı üzerinde bir dereceye kadar etkiye sahip olması anlamına gelmektedir.
"İşlemeyi kısıtlama yeteneği", veri sahiplerinin verilerinin kullanılmasını kısıtlama gücüne ilişkindir. Örneğin Montreal Bildirgesi, insanların dijital bağlantıyı kesme hakkına sahip olduğunu kabul ederek yapay zeka odaklı sistemlere, insanları bağlı kalmaya teşvik etmeden, düzenli aralıklarla bağlantıyı kesme seçeneğini açıkça sunma konusunda olumlu bir yükümlülük getirmektedir.
"Düzeltme hakkı", kaydı tutulan verilerin yanlış veya eksik olması halinde bu verileri değiştirme veya düzeltme hakkıdır. Yüksek kaliteli veriler, YZ sistemlerinin güvenliğine, adilliğine ve doğruluğuna katkıda bulunur. Bu nedenle bu ilke, adalet, ayrımcılık yapmama ve güvenlik konularıyla yakından ilişkilidir. "Silme hakkı” ise, veri sahiplerinin kişisel verilerinin kaldırılmasına ilişkin hakkını ifade etmektedir.
“Tasarımla gizlilik", veri gizliliği hususunu bir YZ sisteminin yapısına ve verilerin genel yaşam döngüsüne entegre etme yükümlülüğüdür. Bu ilke, veri denetleyicilerinin, veri sahiplerinin haklarını korumak için veri işlemenin tasarım ve uygulama aşamasında uygun teknik ve organizasyonel önlemleri uygulamasını öngören GDPR'nin 25. maddesinde de hüküm altına alınmıştır.
D. Şeffaflık
Bir yapay zeka sisteminin güvenilir kabul edilmesi hesap verebilirliğe bağlıdır. Hesap verebilirlik ise şeffaflığı gerektirir. Şeffaflık ilkesi gereğince, bir YZ sistemi kullanıldığında, tâbi olduğu kişi bunu bilmelidir. YZ sistemleri kendilerini kullanıcılara insan olarak tanıtmamalı ve insanlar bir YZ sistemiyle etkileşime girdikleri konusunda bilgilendirilme hakkına sahip olmalıdır. Ayrıca, temel haklara uyumu sağlamak için, gerekli durumlarda, YZ-insan etkileşimi yerine insan-insan etkileşimine karar verme seçeneği sağlanmalıdır. Bunun ötesinde, YZ sisteminin yetenekleri (sistemin doğruluk seviyesi gibi) ve sınırlamaları, uygun bir şekilde YZ kullanıcılarına iletilmelidir. Chatbot etkileşimleri, yüz tanıma sistemleri, kredi puanlama sistemleri ve genel olarak makine öğrenme sistemlerinin kamusal alanda kullanılması, bu ilkenin geçerli olduğu durumlara örnek oluşturmaktadır.
Şeffaflık, açıklanabilirlik hususu ile yakından bağlantılıdır. Açıklanabilirlik, bir YZ sistemi tarafından alınan kararların insanlar tarafından anlaşılabilmesi ve izlenebilmesi anlamına gelmektedir. Bu bağlamda, yapay zeka sisteminin karar oluşturmasını sağlayan veri seti ve ilgili süreçler - bunlara veri toplama, veri etiketleme, algoritmalar da dahildir- izlenebilirliğin ve şeffaflığın artmasını sağlamak için mümkün olan en iyi standartta belgelenmelidir. Bir sistemin izlenebilir olması, sistemin aldığı kararın neden hatalı olduğunun belirlenmesini sağlar ve bu da gelecekteki hataların önlenmesine yardımcı olabilir. Bu bağlamda izlenebilirlik, açıklanabilirliği ve denetlenebilirliği kolaylaştırır.
Yorumlanabilirlik (interpretability) ise, şeffaflığı ve açıklanabilirliği destekleyen farklı bir özelliktir. Şeffaflık sistemde “neler gerçekleştiği" sorusuna cevap verirken, açıklanabilirlik sistemde bir kararın "nasıl" alındığı sorusuna cevap vermektedir. Yorumlanabilirlik ise, bir kararın sistem tarafından "neden" verildiği ve kullanıcı için anlamı veya bağlamı sorusuna yanıt verir. Açıklanabilir sistemlerde hatalar daha kolay ayıklanabilir ve sistem daha rahat izlenebilir.
Şeffaf bir sistem mutlaka doğru, gizliliği artırılmış, güvenli veya adil bir sistem anlamına gelmez. Bazı makine öğrenimi teknikleri, doğruluk açısından çok başarılı olsalar da, nasıl karar verdiklerini anlamak açısından çok şeffaf değildir. Bu durumda, sistemin neden belirli bir çıktı veya karar ürettiğini açıklamak pek mümkün değildir. Bu tür modellere "kara kutu" algoritmaları denir. Açıklanabilir yapay zekanın amacı, bu kara kutu modellerini “cam kutu modellerine” dönüştürmektir.
OECD, şeffaflık ve açıklanabilirlik konularını tek ilke olarak kabul etmektedir. Buna göre, bir YZ sisteminin şeffaflığı, tipik olarak, insanların bir YZ sisteminin nasıl geliştirildiğini, eğitildiğini ve kullanıma uygun duruma getirildiğini, hangi değişkenlerin kullanıldığını ve hangi değişkenlerin belirli bir tahmin, öneri veya kararı etkilediğini anlamalarına odaklanır. Bu bağlamda, YZ aktörleri, YZ sistemlerinin anlaşılmasını teşvik etmek, işyerleri de dahil olmak üzere YZ sistemleri ile etkileşim konusunda farkındalıklarını artırmak ve bir YZ sisteminden olumsuz etkilenenlerin itiraz etmelerini sağlamak için tüm paydaşlara, bağlama ve teknolojinin durumuna uygun anlamlı bilgiler sağlamalıdır (m.1.3).
E. Kapsayıcılık ve Ayrımcılık Yapmama
Güvenilir bir yapay zeka için kapsayıcılık ve ayrımcılık yapmama hususları sistemin yaşam döngüsü boyunca sağlanmalıdır. Bu konu hakkaniyet ilkesi ile yakından ilişkili olup, haksız önyargılardan kaçınmayı, erişilebilirliği ve paydaş katılımını beraberinde getirmektedir.
1. Haksız Önyargılardan Kaçınma
Önyargı, bir kişiye, nesneye veya pozisyona karşı peşin hüküm eğilimidir. Önyargı iyi ya da kötü, kasıtlı ya da kasıtsız olabilir. Önyargı, veri biliminin ve dolayısıyla yapay zeka teknolojilerinin doğasında var olan bir unsurdur. Başka bir deyişle, veri otomatik olarak önyargıyı da beraberinde getirir. Ancak, önyargının her durumda ayrımcı ve adil olmayan etkilere yol açacağı söylenemez. Dolayısıyla önyargı, ayrımcılıktan ayırt edilmelidir. Ayrımcılık, bir kişinin belirli bir gruba veya kategoriye üyeliğine dayalı olarak önyargılı muamele görmesi olarak tanımlanabilir. Irk, etnik köken, din, milliyet, cinsiyet, cinsellik, engellilik, medeni hal, genetik özellikler, dil ve yaş konuları ayrımcılığa neden olabilmektedir. Sonuç olarak, iki kişinin bir karar alma süreciyle ilgili aynı özelliğe sahip olduğu, ancak hassas bir özellik bakımından farklılık gösterdikleri ve bunun da model tarafından farklı bir karar üretilmesine neden olduğu durumlarda bir modelin ayrımcı olduğu söylenebilir.
Yapay zeka sistemleri tarafından kullanılan veri setleri, hatalı tarihsel eğilimlerin, eksiklikliklerin ve kötü yönetişim modellerinin bu veri setlerine dahil edilmesinden zarar görebilir. Bu durumun devam etmesi, belirli gruplara veya insanlara karşı istenmeyen önyargılara ve ayrımcılığa yol açarak, potansiyel önyargıları ve marjinalleşmeyi şiddetlendirebilir.
Veri setindeki önyargının ortadan kaldırılmasında istatiksel yöntemler yeterli olmayıp sosyo-teknik faktörlerin dikkate alınması da gerekmektedir. Tıpkı imar planlarının genel ilkelere dayalı olarak tasarlanması, ancak bazı hallerde bir bölgenin belirli coğrafi özelliklerinin dikkate alınması gibi, veri setlerinin de kullanıldıkları bağlamın tüm sosyo-teknik etkenlerini içerecek şekilde uyarlanmaları gerekmektedir. Bir algoritmayı eğitmek için kullanılan bir bağlamdaki veri seti, başka bir bağlamda beklendiği gibi çalışmayabilir. Zira veriler bağlamsaldır ve bir bağlamdaki verileri başka bir bağlamda kullanmak sistemin yanlış kararlar almasına yol açabilir. Örneğin, metin verileri matematiksel nesneler olarak basitleştirildiğinde, modele tam olarak uymayan eş sesler veya deyimler de dahil olmak üzere bağlamsal bilgiler kaybolabilir. Bir YZ sistemi bu aritmetiği kullanarak "doktor" - "baba" + "anne" hesaplamasına "hemşire" yanıtını verebilir. YZ sisteminin cevabının, mesleklerdeki tarihsel cinsiyet kalıp yargılarından mı yoksa cinsiyete özgü "hemşire" kelimesinin anne ile olan doğal ve yakın ilişkisinden mi kaynaklandığı anlaşılamayacaktır. Önyargılar sistemin eğitilmesinde kullanılan verilerden kaldırılmaya çalışılsa bile, bu metin verilerindeki derin ve karmaşık bağlantılar nedeniyle önyargılar devam edebilir.
Haksız önyargılar, sadece eğitim verilerinde değil, YZ sistemlerinin geliştirilme şeklinde de -örneğin algoritmaların programlanmasında- kendisini gösterebilir. Önyargıya dair “temsili parametreler” de YZ sistemine dahil edilebilir. Örneğin, bir algoritmaya kasıtlı olarak ırksal bir parametre dahil etmeyerek ırksal önyargıdan kaçınılsa dahi, algoritma ırkı temsil eden bazı parametreler içeriyorsa bu konuda önyargılı sonuçlara sahip olacaktır.
Haksız önyargının önlenmesi için, sistemin amacını, kısıtlamalarını, gereksinimlerini ve kararlarını açık ve şeffaf bir şekilde değerlendirecek gözetim süreçleri benimsenmelidir. Ayrıca, YZ sistemlerinin geliştirilmesinde farklı geçmişlerden, kültürlerden ve disiplinlerden gelen kişilerden yararlanılması da fikirlerin çeşitliliğini sağlamak suretiyle ayrımcılık yapılmamasına katkıda bulunabilecektir.
2. Erişilebilirlik
Özellikle işletmeden tüketiciye iş modellerinde, sistemler kullanıcı merkezli olmalı ve yaşları, cinsiyetleri, yetenekleri veya özellikleri ne olursa olsun tüm insanların YZ ürünlerini veya hizmetlerini kullanmasına izin verecek şekilde tasarlanmalıdır. Engelliler için bu teknolojiye erişilebilirlik özel bir önem taşımaktadır. YZ sistemleri, “herkese uyan tek beden” yaklaşımına sahip olmamalı ve ilgili erişilebilirlik standartlarını izleyerek, mümkün olan en geniş kullanıcı yelpazesini ele alan evrensel tasarım ilkelerini dikkate almalıdır. Bu sayede tüm insanların, bilgisayar aracılı insan faaliyetlerine ve buna ilişkin yardımcı teknolojilere adil erişimi ve aktif katılımı sağlanabilecektir.
3. Paydaş Katılımı
Güvenilir yapay zeka sistemleri geliştirmek için, sistemden doğrudan veya dolaylı olarak etkilenebilecek paydaşlara danışılması faydalıdır. Sistemin kullanıma uygun duruma getirilmesinden sonra düzenli geri bildirim istemek ve paydaş katılımı için daha uzun vadeli mekanizmalar kurmak (örneğin yapay zeka sistemlerini uygulama süreci boyunca çalışanların bilgisini, istişaresini ve katılımını sağlamak) yararlı sonuçlar verebilmektedir.
F. Toplumsal ve Çevresel Refah
Adalet ve zararın önlenmesi ilkeleri doğrultusunda toplum, her türlü canlı ve çevre, YZ sisteminin birer paydaşı olarak düşünülmelidir. Yapay zeka sistemlerinin sürdürülebilirliği ve ekolojik sorumluluğu teşvik edilmeli ve örneğin sürdürülebilir kalkınma hedefleri gibi küresel meselelere dair yapay zeka araştırmaları arttırılmalıdır. YZ sistemlerinin gelecek nesiller de dahil olmak üzere tüm insanlara fayda sağlamak için kullanılması bir ideal olarak kabul edilmelidir.
YZ sistemlerinin, mümkün olan en çevre dostu şekilde işletilmesi sağlanmalıdır. Sistemin geliştirme, kullanıma uygun duruma getirme ve kullanım süreci ile tüm tedarik zinciri bu ideal doğrultusunda oluşturulmalıdır. Yapay zekanın eğitilmesi sırasında kaynak kullanımının dikkate alınması ve enerji tüketimi konusunda daha az zararlı seçeneklerin tercih edilmesi buna bir örnek teşkil edebilir.
OECD ilkelerinde de, kapsayıcı ve sürdürülebilir büyüme ile refah bir ilke olarak benimsemiştir. Buna göre tüm paydaşlar, insanları güçlendirmek, yeteneklerini ve yaratıcılıklarını artırmak, yeterince temsil edilmeyen nüfusların dahlini sağlamak ve ülkeler içinde/arasında ekonomik ve sosyal eşitsizlikleri azaltmak ve genel olarak sürdürülebilir ekonomik büyümeyi ve refahı canlandırmak gibi tüm insanlar ve gezegen için adil ve faydalı sonuçlar elde etmek için güvenilir YZ'nin sorumlu bir şekilde yönetilmesine katılmalıdır (m.1.1).
G. Hesap Verebilirlik
Hesap verebilirlik ilkesi, diğer ilkeleri tamamlayıcı nitelikte olup adalet ilkesiyle doğrudan bağlantılıdır. Hesap verebilirlik ilkesi, sorumluluğun kişi ve kuruluşlara tahsis edilmesine odaklanır. Bu ilke gereğince YZ aktörleri, bireysel rollerine, bağlama ve teknolojinin durumuna bağlı olarak, YZ sistemlerinin düzgün işleyişinden ve güvenilir yapay zeka için öngörülen ilkelere uyulmasından sorumlu olmalıdır. Hesap verebilirlik ilkesinin somutlaştırılması bakımından denetlenebilirlik, olumsuz etkilerin en aza indirilmesi ve raporlanması, ödünleşim ve telafi konularını değerlendirmekte yarar vardır.
1. Denetlenebilirlik
Denetlenebilirlik, algoritmaların, verilerin ve tasarım süreçlerinin değerlendirilmesini sağlar. İç ve dış denetçiler tarafından yapılan değerlendirme ve bu tür değerlendirme raporlarının mevcudiyeti, teknolojinin güvenilirliğine katkıda bulunabilir. YZ sisteminin erken tasarım aşamasından itibaren izlenebilirliğinin ve kayıt mekanizmalarının sağlanması da, sistemin denetlenebilirliğine yardımcı niteliktedir.
2. Olumsuz Etkilerin En Aza İndirilmesi ve Raporlanması
Etkili bir hesap verebilirlik için, sistemin oluşturduğu çıktıya katkıda bulunan eylemler veya kararların raporlanabilmesi ve bu çıktıların sonuçlarının değerlendirilebilmesi gereklidir. Yapay zeka sistemlerinin potansiyel olumsuz etkilerini belirlemek, değerlendirmek, belgelemek ve en aza indirmek, özellikle sistemden doğrudan veya dolaylı olarak etkilenenler için fevkalade önemlidir. Bu bağlamda, kırmızı takım oluşturma gibi etki değerlendirmesi mekanizmalarının benimsenmesi olumsuzlukları azaltmada yardımcı niteliktedir.
3. Ödünleşim
Güvenilir yapay zekaya ilişkin ilkelerin bazı durumlarda birbiriyle çatışması muhtemeldir. Bu durumda çatışmanın çözümü için ilkeler arasında karşılıklı ödünler verilmesi gerekebilir. Bu tür ödünleşimler (trade-offs), en son teknoloji dahilinde rasyonel ve metodolojik bir şekilde ele alınmalıdır. Bu, YZ sistemi tarafından etkilenen ilgili çıkarların ve değerlerin tanımlanmasını gerektirir. Karar vericiler, uygun ödünleşimin nasıl yapıldığına dair kararlarını gerekçelendirmeli, bu kararlardan sorumlu olmalı ve bu kararların uygunluğunu sürekli olarak gözden geçirmelidir. Örneğin dahili ve/veya harici bir etik (ve sektöre özgü) uzmanın veya kurulun varlığı, potansiyel çatışma alanlarını belirlemek ve bu çatışmanın en iyi şekilde çözülebileceği yolları önermek için yararlı olabilir. Ayrıca, kanun koyucunun toplum genelinde hangi fayda ve külfet dağılımının adil olduğunu belirleme meşruiyetine sahip olan yegâne güç olduğu dikkate alınarak, ilgili çıkar ve değerleri belirlemek suretiyle toplumu bekleyen değişimlere rehberlik etmesi gerekmektedir.
4. Telafi
Hesap verebilirlik ilkesinin hayata geçirilebilmesi için, olası zararlara karşı yeterli telafiyi sağlayan erişilebilir mekanizmalar öngörülmelidir. Zira olumsuz neticeler ortaya çıktığında telafinin mümkün olduğunu bilmek, yapay zeka sistemlerine güveni sağlamanın anahtarıdır. Bu konuda, savunmasız kişilere veya gruplara özellikle dikkat edilmelidir.
IV. UYGULAMADA YAPAY ZEKANIN GÜVENİLİRLİĞİNİN SAĞLANMASI
A. Teknik Yöntemler
1. Güvenilir Yapay Zeka Mimarileri Oluşturulması
Güvenilir YZ mimarileri oluşturulması, yukarıda sunulan ilkelerin, sistemin mimarisine yerleştirilmesi gereken bazı prosedürlere çevrilmesi anlamına gelmektedir. Söz konusu prosedürler, sistemin her zaman uyması gereken bir dizi "beyaz liste" kuralları, sistemin asla ihlal etmemesi gereken "kara liste” kısıtlamaları ve bunların veya daha karmaşık yapıların karışımları yoluyla gerçekleştirilebilir.
Öğrenme yeteneğine sahip olan ve davranışlarını dinamik olarak uyarlayabilen yapay zeka sistemleri, beklenmedik davranışlar sergileyebilen ve bu anlamda deterministik olmayan sistemler olabilir. Bu nedenle, güvenilir yapay zeka ilkelerinin, "algılama-planlama-harekete geçme" döngüsünün üç adımında da sistem mimarisine entegrasyonu gereklidir. Sistem “algılama" adımında gereksinimlere uyulmasını sağlamak için gerekli tüm çevresel unsurları tanıyacak şekilde geliştirilmelidir. Sistem "planlama" adımında yalnızca gereksinimlere uyan planları dikkate almalıdır. “Harekete geçme" adımında ise, sistemin eylemleri, gereksinimleri karşılayan davranışlarla sınırlandırılmalıdır. Bu genel nitelikteki hususlar mimari yapının ana hatlarını vermektedir. Ancak bu taslak yapı, sisteme yansıtılması gereken kısıtlamalar ve politikalar için dayanak noktaları oluşturabilir.
2. Tasarımla Etik ve Hukukun Üstünlüğü
“Tasarımla etik” yönteminde, belirli ilkeler, değerler veya kavramlar bir sistemin tasarım aşamasında (en başından) ona dahil edilmektedir. Böylece bu unsurlar, sistem tasarımının doğal bir parçası durumuna gelmektedir. Bir diğer ifade ile, bu özellikler daha sonra geçici bir çözüm olarak eklenen özellikler olmayıp sistem mimarisinin ayrılmaz bir parçası olarak kabul edilir.
3. Açıklanabilirlik Yöntemleri Geliştirilmesi
Bir sistemin güvenilir olması için neden belirli bir şekilde davrandığını ve neden belirli bir yorum sağladığını anlayabilmek gerekir. Ancak söz konusu açıklanabilirlik konusu, sinir ağlarına dayalı YZ sistemleri için halen güçtür. Yapay sinir ağlarının eğitim sürecinde, ağ parametrelerine çeşitli sayısal değerler atanır. Ancak, bu sayısal değerler ile yapay zeka sistemi tarafından üretilen sonuçlar arasında net bir ilişki kurmak veya bunları anlamak zordur. Sinir ağlarının veri değerlerindeki küçük değişiklikler bile sistemin karar vermesinde önemli ve beklenmedik değişikliklere yol açabilir. Bu güvenlik açığı, sisteme yönelik saldırılar sırasında da kullanılabilir. Kötü niyetli kişiler, girdi verilerini manipüle ederek sistemi yanlış veya yanıltıcı sonuçlar üretmeye zorlayabilir ve teknolojinin kötüye kullanılmasına neden olabilir. Açıklanabilir yapay zeka (Explainable AI) araştırmalarına ilişkin yöntemler, yalnızca sistemin davranışını kullanıcılara açıklamak için değil, aynı zamanda güvenilir teknolojiyi uygulamak için de hayati önem taşımaktadır..
4. Test Etme ve Doğrulama
Yapay zeka sisteminin verileri doğru bir şekilde işlemesini sağlamak için temel alınan modelin hem eğitim sırasında hem de kullanıma uygun duruma getirilmesinden sonra sürekli olarak izlenmesi gerekir. Bu kapsamda, sistemin test edilmesi ve doğrulanması, sistemin tüm yaşam döngüsü boyunca ve özellikle kullanıma uygun duruma getirilmesinden sonra, amaçlandığı gibi davranmasını sağlamak için mümkün olduğunca erken gerçekleştirilmelidir. Bu test ve teyit işlemi, veriler, önceden eğitilmiş modeller, ortamlar ve bir bütün olarak sistemin davranışı dahil olmak üzere bir YZ sisteminin tüm bileşenlerini içermelidir. Test süreçleri, mümkün olduğunca farklı bir insan grubu tarafından tasarlanmalı ve gerçekleştirilmelidir. Farklı bakış açıları için test edilen kategorileri kapsayacak şekilde birden fazla metrik geliştirilmelidir. Güvenlik açıklarını bulmak için kasıtlı olarak sistemi "kırmaya" çalışan, çeşitli güvenilir "kırmızı ekipler" oluşturulabilir. Buna ek olarak, kullanıcıları sistem hatalarını ve zayıflıklarını tespit edip sorumlu bir şekilde bildirmeye teşvik eden "hata ödülleri" düşünülebilir.
5. Hizmet Kalitesi Göstergeleri
YZ sistemlerinin güvenlik hususu göz önünde bulundurularak test edilip edilmediğini ve geliştirilip geliştirilmediğini anlayabilmek maksadıyla hizmet kalitesi göstergeleri tanımlanabilir. Bu göstergeler, algoritmaların nasıl test edildiğini ve eğitildiğini; ayrıca işlevsellik, performans, kullanılabilirlik, güvenilirlik, güvenlik ve sürdürülebilirlik gibi geleneksel yazılım ölçütlerini değerlendirmek için ölçümler içerebilir.
B. Teknik Olmayan Yöntemler
1. Hukukî Düzenlemeler
Teknik olmayan yöntemlerden ilki, yapay zekanın hukukî olarak düzenlenmesidir. Yapay zekanın güvenilirliğini destekleyen ürün sorumluluğu gibi düzenlemeler zaten mevcuttur. Ancak kullanıcıları korumak ve sorumlu yapay zeka gelişimini sağlamak için mevcut düzenlemeler gözden geçirilerek uyarlanabileceği gibi bazı yeni düzenlemeler de getirilebilir.
2. Davranış kuralları
Kuruluşlar, kurumsal politikalarını, temel performans göstergelerini (key performance indicator), davranış kurallarını (code of conduct) yapay zeka güvenirliğini sağlamak için uyarlayabilir. Yapay zeka sistemleri üzerinde veya bunları kullanarak çalışan kuruluşlar, niyetlerini belgelemek suretiyle açıklayabilir ve ayrıca temel haklar, şeffaflık ve zarardan kaçınma gibi değerlere bağlılığı taahhüt edebilir.
3. Standartlaştırma
Yapay zeka tasarımı, üretimi ve iş uygulamaları için getirilecek standartlar, yapay zeka kullanıcıları, tüketiciler, kuruluşlar, araştırma kurumları ve hükümetler için etik davranışları teşvik ederek bir kalite yönetim sistemi işlevi görebilir. Geleneksel standartların ötesinde, akreditasyon sistemleri, meslek etik kuralları veya temel haklara uygun tasarım standartları gibi ortak düzenleyici yaklaşımlar mevcuttur. Bugün için ISO Standartları veya IEEE P7000 standart serisi bunlara örnek olarak verilebilir. Ancak gelecekte belirli teknik standartlara atıfta bulunarak sistemin güvenli, teknik bakımdan sağlam ve şeffaf olduğunu onaylayan olası bir "Güvenilir Yapay Zeka" etiketi de kullanılabilir.
4. Sertifikasyon
Herkesin yapay zeka sistemlerinin işleyişini ve etkilerini tamamen anlamasını beklemek mümkün değildir. Bu nedenle, bir yapay zeka sisteminin şeffaf, hesap verebilir ve adil olduğunu daha geniş kitlelere kanıtlayabilecek kuruluşlara ihtiyaç bulunabilir. Bu kuruluşlar, farklı uygulama alanları ve yapay zeka teknikleri için geliştirilen standartlara uygunluğu ve toplumsal standartlar ile uyumluluğu gösteren sertifikalar düzenleyebilir.
5. Hesap Verebilirlik Yoluyla Yönetişim
Kuruluşlar, YZ sistemlerinin geliştirilmesi, kullanıma uygun duruma getirilmesi ve kullanımı ile ilgili kararların etik boyutları için hesap verebilirliği sağlayan hem iç hem de dış yönetişim çerçeveleri oluşturmalıdır. Örneğin, YZ sistemleriyle ilgili etik konulardan sorumlu bir kişi atanabilir veya dahili/harici bir etik kurulu oluşturulabilir. Böyle bir kişinin veya kurulun olası rolleri arasında gözetim ve tavsiye sağlamak yer almaktadır. Yukarıda belirtildiği gibi, sertifikasyon kurumları da bu amaçla bir rol oynayabilir. Ayrıca, endüstri ve/veya kamu gözetim grupları ile iletişim kanalları sağlanmalı, en iyi uygulamalar paylaşılmalı, etik ikilemler tartışılmalı veya ortaya çıkan kaygılar raporlanmalıdır. Bu tür mekanizmalar ihdas edilmesi yasal denetimi tamamlayabilir ve fakat onun yerini alamaz.
6. İletişim, Eğitim ve Paydaş Katılımı
İletişim, eğitim ve öğretim, hem YZ sistemlerinin potansiyel etkileri hakkındaki bilginin yaygınlaşmasını hem de insanların toplumsal gelişmeyi şekillendirmeye katılabileceklerinin farkında olmalarını sağlamak için önemli bir rol oynamaktadır. Sistemlerin yapımında yer alanlar (tasarımcılar ve geliştiriciler), kullanıcılar (gerçek veya tüzel kişiler) ve etkilenen diğer gruplar (bir yapay zeka sistemi satın almayan veya kullanamayan ve fakat yapay zekanın onlar adına karar aldığı kişiler -genel olarak toplum-) birer paydaş olarak bu kapsamdadır.
7. Kapsayıcı Tasarım Ekipleri
Yapay zeka sistemlerinin gerçek dünyada kullanılabilir hale gelmesinde, çeşitliliğin ve kapsayıcılığın önemi büyüktür. Yapay zeka sistemleri daha fazla görevi kendi başlarına gerçekleştirdiğinden, bu sistemleri tasarlayan, geliştiren, test eden ve bakımını yapan, kullanıma hazır duruma getiren ve tedarik eden ekiplerin, genel olarak toplumun çeşitliliğini yansıtması beklenmektedir. Bu husus, farklı bakış açılarının, ihtiyaçların ve hedeflerin dikkate alınmasına katkıda bulunur. İdeal olan, ekiplerin yalnızca cinsiyet, kültür ve yaş açısından değil, aynı zamanda mesleki geçmiş ve beceri setleri açısından da çeşitlilik göstermesidir.
Kaynakça
Koenig, T. H., & Rustad, M.L. (2023). Global Information Technologies: Ethics and the law, West Academic Publishing
Floridi, L. (2018), Soft Ethics and the Governance of the Digital, Philosophy & Technology 31(1), s.1–8, https://doi.org/10.1007/s13347-018-0303-9
Freeman, R.B. (2016), Who Owns the Robots Rules the World, Harvard Magazine, May-June 2016, https://www.harvardmagazine.com/2016/04/who-owns-the-robots-rules-the-world
Fjeld J., Achten N., Hilligoss H., Nagy A., Srikumar M. (2020), Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI, Berkman Klein Center Research Publication No. 2020-1, s.43-44, http://dx.doi.org/10.2139/ssrn.3518482.
Brennan J. (2012), Libertarianism: What Everyone Needs to Know, Oxford University Press.
Friedman M, Friedman RD (2002), Capitalism and Freedom, Fortieth Anniversary Edition, University of Chicago Press.
Tabassi, E. (2023), Artificial Intelligence Risk Management Framework (AI RMF 1.0), NIST Trustworthy and Responsible AI, National Institute of Standards and Technology, s.17, https://doi.org/10.6028/NIST.AI.100-1
House of Lords Select Committee on Artificial Intelligence (2018), AI in the UK: ready, willing and able? Report of Session 2017–19, HL Paper 100, n.58, s.27, https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf
Mittelsteadt M. (2023), Artificial Intelligence: An Introduction for Policymakers, Mercatus Research Paper, s.13, https://ssrn.com/abstract=4361563
Montreal Declaration for a Responsible Development of Artificial Intelligence (2018), s.10, https://declarationmontreal-iaresponsable.com/wp-content/uploads/2023/04/UdeM_Decl-IA-Resp_LA-Declaration-ENG_WEB_09-07-19.pdf
Vercoe, O. (2022), Explainable AI and Responsible AI, Artificial Intelligence: Law and Regulation (Edited by Kerrigan Charles), Edward Elgar Publishing.
Rai, A. (2020), Explainable AI: From Black Box to Glass Box, Journal of Academy of Marketing Science 48, s.137-141, https://doi.org/10.1007/s11747-019-00710-5
Schwartz R., Vassilev A., Greene K., Perine L., Burt A., Hall P. (2022), Towards a Standard for Identifying and Managing Bias in Artificial Intelligence, NIST Special Publication 1270, s.18, https://doi.org/10.6028/NIST.SP.1270.
Independent High-Level Expert Group on Artificial Intelligence (AI HLEG) Set up by the European Commission (2019), A definition of AI: Main capabilities and scientific disciplines, https://ec.europa.eu/newsroom/dae/redirection/document/60651..
Scoping the OECD AI principles (2019), OECD Digital Economy Papers No. 291, s.13, https://doi.org/10.1787/d62f618a-en.
Independent High-Level Expert Group on Artificial Intelligence (AI HLEG) Set up by the European Commission (2019), ETHICS GUIDELINES FOR TRUSTWORTHY AI, https://ec.europa.eu/newsroom/dae/redirection/document/60419.
Boucher, P. (2019), Why artificial intelligence matters, European Parliamentary Research Service (EPRS), Scientific Foresight Unit (STOA), https://www.europarl.europa.eu/at-your-service/files/be-heard/religious-and-non-confessional-dialogue/events/en-20190319-why-artificial-intelligence-matters.pdf.
Comments