Avrupa Birliği Komisyonu, yapay zeka (AI) kullanan ürünler ve drone gibi dijital cihazlar tarafından zarar gören insanlara yardımcı olmak için yeni kurallar önerdi. Otonom arabalar, sesli asistanlar ve arama motorlarının, direktifin kapsamında olması mümkün.
AI Sorumluluk Direktifi, bu tür öğeleri içeren olaylar nedeniyle dava açan kişiler üzerindeki ispat yükünü azaltacak ve dijital çağa uygun bir yasal çerçeve oluşturacak. Kabul edilirse, komisyonun kuralları AI sistemlerinin nasıl ve ne zaman kullanılabileceğine ilişkin sınırları belirleyen türünün ilk yasası olan AB’nin önerilen Yapay Zeka Yasası ile birlikte çalışacak.
Yapay zeka sistemleri, makinelerin tipik olarak bir insan zekası meselesi olarak kabul edilecek görevleri gerçekleştirmesine izin vermek için büyük miktarda veri veya bilgi üzerinde eğitilir.
Avrupa Birliği Komisyonu tarafından yayınlanan AI Sorumluluk Direktifi, AI özellikli ürünler tarafından yaralanma iddiasında bulunanlar için bir “nedensellik varsayımı” sağlayacak. Bu, bir ürünün AI performansına ve ilgili zarara nedensel bir bağlantı gösterilebildiği sürece, mağdurların durumlarını kanıtlamak için karmaşık AI sistemlerini çözmek zorunda kalmayacakları anlamına geliyor.
Sosyal medya firmaları, uzun bir süredir yalnızca bir platform oldukları ve bu nedenle ürünlerinin içeriğinden sorumlu olmadıkları uyarısının arkasına saklanıp durdu. AB bu senaryoyu tekrarlamak istemiyor. Örneğin drone yapan şirketlerde şirketin kendisi doğrudan drone’u kontrol etmedikleri için birine/bir şeye zarar verirlerse cezasız kurtuluyorlardı.
Artık, ürününüz sıkıntılıysa veya hasara neden olacak şekilde ayarlanmışsa, o zaman sorumluluk almanız gerekiyor. Bu nispeten yeni bir endüstri için aşırı derecede sert mi? Aracın içindeki mekanikler nedeniyle bir araba çarparsa, bu üreticiye bağlıdır. Ancak sürücünün suçu değildir.
İçindekiler
Tazminat talep etmek mümkün
Bu taslak hayata geçerse, tüm gözler ilk test senaryosunda olacak. Avrupa, büyük düzenlemelerle büyük teknolojinin kuyruğunu kovalamaya devam ediyor – ama bu konuda gerçekçi mi?
Avrupa Birliği’ne göre, yüksek riskli AI kullanımı, ulaşım, sınav puanı ve sınır kontrolü gibi birinin yaşamını ve geçimini doğrudan etkileyebilecek altyapı veya ürünleri içerebilir. Bu tür ürünlerle ilgili bilgilerin ifşa edilmesi, mağdurların sorumluluk konusunda daha fazla içgörü kazanmasına izin verecek. Ancak “hassas bilgileri korumak” için güvenlik önlemlerine tabi olacak.
Direktifteki bu tür hükümler işletmeleri “mutsuz” hale getirebilirken, hukuk firması Pinsent Masons’ın teknoloji hukuk direktörü Sarah Cameron, kuralların hem tüketiciler hem de işletmeler için AI özellikli ürünler için sorumluluğu netleştirmeye yardımcı olduğunu söyledi.
Cameron, “İşletmelerin AI’ı benimsemelerinin önündeki en büyük engel, AI’nın karmaşıklığı, özerkliği ve opaklığı olmuştur. Bu, sorumluluk oluşturma ve kiminle birlikte olduğu konusunda belirsizlik yaratır. Teklif, AI sistemleri arızalı olduğunda ve fiziksel hasara veya veri kaybına neden olduğunda, AI sistem sağlayıcısından veya bir AI sistemini başka bir ürüne entegre eden herhangi bir üreticiden tazminat talep etmenin mümkün olmasını sağlayacaktır.” dedi.