Gelişen yapay zekâ teknolojileri günlük hayatı kolaylaştırırken, kullanıcı verilerinin işlenme biçimi giderek daha fazla tartışma yaratıyor.
Kullanıcı verilerinin etiketlenmesiyle ilgili endişeler büyüyor
Gelişen yapay zekâ teknolojileri günlük hayatı kolaylaştırırken, kullanıcı verilerinin işlenme biçimi giderek daha fazla tartışma yaratıyor. Özellikle ChatGPT ve Grok gibi popüler uygulamaların kullanıcıların siyasi görüşleri ve dini inançları gibi hassas verileri profilleme iddiaları, mahremiyet ve güvenlik endişelerini artırıyor.
Uzman uyarıyor: Yapay zekâ sadece teknik değil, toplumsal bir sorumluluktur
Yüksek Veri Bilimi Mühendisi Emre Durgut, bu sistemlerin yalnızca teknik değil, aynı zamanda hukuki ve toplumsal sorumluluk taşıdığını belirtiyor. Durgut, “Kullanıcıların hassas verileri etiketsiz şekilde toplanıyor ve profilleniyorsa, bu durum hem KVKK hem de Avrupa Birliği’nin GDPR düzenlemelerine açıkça aykırıdır.” diyor.
Profilleme nasıl çalışıyor ve neden tehlikeli?
Profilleme, yapay zekâ sistemlerinin kullanıcıların metinlerinden çıkarım yaparak onları etiketlemesi ve kişisel bir dijital profil oluşturması anlamına geliyor. Durgut’a göre bu profiller, reklam hedeflemeden işe alım süreçlerine kadar birçok alanda ayrımcılık riski taşıyor.
“Yapay zekâ bir kullanıcının yazdığı içerikten siyasi görüşü veya dini inancı olduğunu varsayarsa ve bu bilgi bir sistemde saklanırsa; o kullanıcıya yönelik algoritmik ayrımcılık doğabilir,” diyen Durgut, sistemlerin zamanla kişiye özel hale gelen yanıtlarının zincirleme riskler doğurduğuna dikkat çekiyor.
Veri sızıntıları ulusal güvenlik tehdidine dönüşebilir
Durgut’a göre bu profillerin sızdırılması durumunda, dolandırıcılık, sosyal mühendislik, şantaj gibi tehditler gündeme gelebilir. Özellikle kamu görevlileri ya da kritik konumdaki bireylerin verilerinin ele geçirilmesi, ulusal güvenlik tehdidi haline bile dönüşebilir.
Gizli profilleme yasalara aykırı
Türkiye’deki Kişisel Verilerin Korunması Kanunu (KVKK) ve Avrupa Birliği’nin Genel Veri Koruma Tüzüğü (GDPR) açık rıza, amaca bağlılık ve veri minimizasyonu ilkelerine dayanır. Hassas kişisel verilerin işlenmesi ise çok daha katı yasal kurallara bağlıdır. Uzmanlara göre, bu tür profilleme faaliyetleri kullanıcıya açıkça bildirilmediği sürece, yasa dışı bir veri işleme faaliyeti anlamına gelir.
Çözüm ne? Hem kullanıcıya hem şirketlere sorumluluk düşüyor
Uzmanlara göre kullanıcıların bu sistemlere hassas bilgilerini vermemeleri gerekiyor. “Tek bir platforma her şeyi yazmak yerine bilgileri bölüştürmek, riski azaltır,” diyen Durgut, şüpheci bir yaklaşımı öneriyor.
Teknoloji firmalarının ise daha şeffaf olması, kullanıcıya veri silme, erişim ve düzeltme hakları tanıması gerektiği vurgulanıyor. Ayrıca bağımsız denetimlerin yaygınlaşması, etik kurulların şirket içinde güçlendirilmesi öneriliyor.
COMMENTS