Avrupa Komisyonu, şirketlerin ve hükümetlerin yapay zekayı nasıl geliştirmesi gerektiğine yönelik bir kılavuz yayınladı.

Yeni taslak ile yapay zekânın insanları öldürmesinin önüne geçme gibi bir motivasyon yok elbette. Bunun yerine yapay zekâ geliştirilirken etik açıdan bir dengeleme sağlama kaygısının sürece hakim olduğu gözleniyor. Konu ile ilgili 52 uzman bir araya geldi ve yedi başlıktan oluşan bir düzenleme hazırladı. Bu maddelerin yasal bir bağlayıcılığı yok ancak AB’nin geleceği, hatta dünya için bir yön gösterici olma niteliği vurgulanıyor. Düzenlemeler ise şöyle;

  • İnsan Denetimi ve Gözetim: Yapay Zekâ insanların önüne geçmemeli. Bireyler, yapay zekâ tarafından manipüle edilmemeli ve yapay zekânın her adımı kişiler tarafından denetlenebilir ve değiştirilebilir olmalı.
  • Teknik Güvenlik: Yapay zekâ güvenli olmalı. Dışarıdan gelebilecek olası saldırılara karşı yazılımı ve donanımı güvenli tasarlanmalı.
  • Veri Güvenliği: Yapay zekâ tarafından toplanan veriler güvenli bir şekilde depolanmalı ve sıradan bir kişi tarafından ulaşılmayacak bir altyapıya sahip olmalı. Kişilerin, kendi verileri üzerinde tam kontrolü sağlanmalı.
  • Şeffaflık: Yapay zekâ tarafından toplanan veri ve algoritmaların kullanım amaçları gözlemlenebilir ve hesap verilebilir olmalı. Diğer bir deyişle, yapay zekânın kararları açıklanabilmeli.
  • Ayrımcılık Yapmama ve Adalet: Yapay zekâ tarafından sağlanan tüm hizmetler bütün insanlığa sunulmalı. Kişilerin yaşı, cinsiyeti veya ırkı herhangi bir ayrıma neden olmamalı.
  • Toplum Yararı Gözetilmeli: Yapay zekâ sistemleri sürdürülebilir (ekolojik açıdan etkileri ve sorumluluğu olmalı) ve toplum nezdinde olumlu değişiklikler sağlamalı.
  • Hesap Verebilirlik: Sistemler tarafından alınan kararlar ve ortaya çıkan sonuçlar için hesap verebilecek bir mekanizma kurulmalı.

Bu kararların henüz taslak aşamasında olduğunu ve tartışılabilir olduğunu belirtmekte fayda var.

İçeriklerimize destek olun!