AB’nin Etik Yapay Zeka Kılavuzu
Teknoloji Haberleri
AB’nin yapay zeka sistemleri hesap verebilir, açıklanabilir ve tarafsız olacak.
Avrupa Birliği, özel sektör ve kamu için yapay zekanın etik uygulamalarını nasıl geliştirmeleri gerektiği konusunda bir dizi kılavuz yayınladı.
Bu kurallar, yapay zekayı sağlık hizmetleri, eğitim ve tüketici teknolojisi gibi sektörlere entegre ederken toplumu etkileyecek belirsiz ve yaygın sorunları ele alıyorlar.
Örneğin sağlık hizmetlerinde, gelecekte yapay zeka sistemleri insanlarda bir kanser teşhis ederse, AB’nin kuralları bu teşhisi yapan yapay zeka sisteminin bir çok şartı karşıladığından emin olmak isteyecek: yazılımın ırka veya cinsiyete karşı önyargılı olmaması, bir doktorun itirazlarını geçersiz kılmaması ve hastaya teşhislerinin açıklanması seçeneğini sunma gibi birçok koşulun gerçekleşmesi gerekecek.
AB, gelecekteki yapay zeka sistemlerinin yerine getirmesi gerektiğini düşündükleri yedi şartı 52 uzmandan oluşan bir grup tarafından biraraya getirdi. Bu kurallar şöyle özetlenebilir:
• İnsan faktörü ve gözetimi – Yapay zeka insan özerkliğini bozmamalıdır. İnsanlar yapay zeka sistemleri tarafından manipüle edilmemeli veya zorlanmamalıdır ve yazılımın verdiği her karar insanlar tarafından müdahale edilebilir veya denetlenebilir olmalıdır.
• Teknik sağlamlık ve güvenlik – Yapay zeka güvenli ve doğru olmalıdır. Dış saldırılarla kolayca karşı karşıya kalmamalı ve makul derecede güvenilir olmalıdır.
• Gizlilik ve veri yönetimi – Yapay zeka sistemleri tarafından toplanan kişisel veriler güvenli ve özel olmalıdır. Hiç kimse tarafından erişilebilir olmamalı ve kolayca çalınmamalıdır.
• Şeffaflık – Bir yapay zeka sistemi oluşturmak için kullanılan veri ve algoritmalar erişilebilir olmalı ve yazılım tarafından verilen kararlar “insanlar tarafından anlaşılmalı ve izlenmelidir”. Başka bir deyişle, operatörler yapay zeka sistemlerinin verdiği kararları açıklayabilmelidir.
• Çeşitlilik, ayrımcılık yapmama ve adalet – Yapay zeka tarafından sunulan hizmetler, yaş, cinsiyet, ırk veya diğer özelliklerden bağımsız olarak herkese açık olmalıdır. Benzer şekilde, sistemler bu kurallar doğrultusunda taraflı olmamalıdır.
• Çevresel ve toplumsal refah – Yapay zeka sistemleri sürdürülebilir olmalıdır (yani, ekolojik açıdan sorumlu olmalıdırlar) ve pozitif toplumsal değişimi sağlamalıdır.
• Hesap Verebilirlik – Yapay zeka sistemleri denetlenebilir olmalıdır. Sistemlerin olumsuz etkileri kabul edilmeli ve önceden bildirilmelidir.
Bu kurallar yasal olarak bağlayıcı değildir, ancak Avrupa Birliği tarafından hazırlanan gelecekteki mevzuatı şekillendirebilirler. AB, etik yapay zekada lider olmak istediğini defalarca dile getirmiş ve Genel Veri Koruma Yasası ile dijital hakları koruyan geniş kapsamlı yasalar yaratmaya istekli olduğunu göstermiştir.
AB yatırım ve ileri araştırmalar söz konusu olduğunda Amerika ve Çin ile -yapay zekada dünya liderleri- rekabet edemeyeceğinden teknolojinin geleceğini şekillendirmekteki iddiasını etik konusuna yoğunlaştırmaktadır.
AB, Küresel Yapay Zeka Gelişimini Etik Yoluyla Şekillendirmek İstiyor
Bu çabanın bir parçası olarak, yayınlanan raporda “Güvenilir Yapay zeka değerlendirme listesi” olarak adlandırılan konu altında uzmanların yapay zeka yazılımındaki olası zayıf noktaları veya tehlikeleri anlamalarına yardımcı olabilecek soruların bir listesi bulunmaktadır. Bu liste “Sisteminizin beklenmedik durumlarda ve ortamlarda nasıl davrandığını doğruladınız mı?” ve “Veri kümenizdeki verilerin türünü ve kapsamını değerlendirdiniz mi?” gibi sorular içermektedir.
Bu değerlendirme listeleri henüz taslak aşamasında, ancak AB 2020’de kullanabilecekleri hakkında nihai bir rapor ile önümüzdeki yıllarda şirketlerden geri bildirim toplayacak.
Access Now dijital haklar grubunun politika yöneticisi ve bu kılavuzları yazmaya yardımcı olan uzman Fanny Hidvégi, değerlendirme listesinin raporun en önemli parçası olduğunu söyledi. Hidvégi, Verge’e yaptığı açıklamada “Yapay zekanın potansiyel zararlarını azaltma konusunda “pratik, ileriye dönük bir bakış açısı sağlıyor” dedi.