Veri koruma mevzuatı, yapay zekanın öğrendiklerinin bir kısmını unutturmanın bir yolunun bulunmasını gerektiriyor / Görsel: Unsplash
Avustralyalı politikacı Brian Hood, ChatGPT'nin kendisi hakkında sabıka geçmişi olduğunu gösterdiğini fark ettiğinde, mühendislerin çözmek için çok çalıştığı bir sıkıntı ile karşı karşıya kaldı:
Yapay zekaya hataları silmeyi nasıl öğretebiliriz?
Brian Hood'un nisan ayında OpenAI'ye (ChatGPT'nin yaratıcısı) hakaret davası açmakla tehdit etmesine yönelik yasal seçenek, sorunun çözümü için uygun bir çözüm gibi görünmüyor.
Ayrıca AI parametrelerini tamamen sıfırlamak da bir seçenek olamıyor zira modelin yeniden eğitilmesi uzun zaman aldığından ve çok pahalı oluyor.
Uzmanlar, yapay zekaya öğretilenlerin bir kısmının unutturulması anlamına gelen "öğrenmeyi unutma" konusunun, özellikle Avrupa veri koruma mevzuatı gölgesinde önümüzdeki yıllarda son derece önemli olacağına inanıyor.
Melbourne Avustralya'daki RMIT Üniversitesi'nden Lisa Given, "Öğrenim veritabanlarındak verileri silme imkanı çok önemli bir konudur" dedi.
Bununla birlikte yapay zekanın nasıl çalıştığına dair mevcut bilgi eksikliği göz önüne alındığında, bu alanda hala büyük çaba gösterilmesi gerektiğini belirtti.
Yapay zekanın eğitim aldığı devasa miktardaki verinin ortasında, mühendisler, daha fazla spesifikliğe izin veren, yanlış bilgilerin yayılmasını durdurmak için yapay zeka sistemlerinin verilerinden bunları kaldırmaya yönelik çözümler arıyor.
Alanında uzman olan Birleşik Krallık'taki Warwick Üniversitesi'nden Meghdad Kurmanji, AFP'ye konunun son 3-4 yılda gerçek anlamda ilgi görmeye başladığını söyledi.
Yapay zeka konusunda uzmanlaşan Google DeepMind bu soruna çözüm bulmak için çalıştı.
Geçen ay, Amerikalı şirketten uzmanlar, Kurmanji ile birlikte, ChatGPT ve Bard (Google'dan) modelleri gibi önemli dil modellerindeki verileri silmeye yönelik bir algoritma yayımladı.
Amerikan şirketinin başlattığı yarışa temmuz ve eylül ayları arasında yapay zekayı "öğrenmeyi unutma" yöntemlerini geliştirmek için çalışan binden fazla uzman katıldı.
Kullanılan yöntem, bu alanda yapılan diğer araştırmaların bulduğuna benzer şekilde, yapay zekaya elde edilen bilgilerin bir kısmını dikkate almaması komutunu veren ve veri tabanını değiştirmeyi gerektirmeyen bir algoritma katmaya dayanıyor.
Meghdad Kurmanji, bu sürecin, örneğin veri gizliliği yasaları kapsamındaki yayından kaldırma taleplerini yönetmek üzere arama motorları için "çok harika bir araç" olabileceğini söyledi.
Ayrıca algoritmasının, telif hakkıyla korunan materyali kaldırma ve önyargıyı düzeltme testlerinde de iyi puan aldığını söyledi.
Ancak Meta'nın (Facebook ve Instagram) yapay zeka başkanı Yann LeCun dahil olmak üzere bazı kişiler bu etkinliğe daha az ikna olmuş görünüyor.
LeCun, Fransız haber ajansı AFP'ye bu algoritmanın "yararsız, ilgisiz veya kötü" olduğunu söylemediğini, bunun yerine "başka önceliklerin olduğuna" inandığını belirtti.
Edinburgh Üniversitesi'nden yapay zeka profesörü Michael Rovatsos, "teknik çözümün etkili çözüm olmadığına" inanıyor.
Rovatsos, "öğrenmeyi unutmanın", verilerin nasıl toplandığı, kullanımından kimin kazanç sağladığı veya zarara neden olan algoritmaların sorumluluğunu kimin üstlendiği gibi, yapay zeka endüstrisi hakkındaki daha geniş çaplı sorunları çözmek için hiçbir şey sağlamadığını sözlerine ekledi.
Brian Hood vakası, medyanın ilgisini çektikten sonra herhangi bir açıklama yapılmadan ele alındıysa da, bu durum ChatGPT tarafından işlenen verilerin düzeltilmesiyle sonuçlandı.
Bu nedenle şu anda kullanılması gereken yöntemlerin manuel kalması gerektiği öne sürülüyor.
Rovatsos, "Chatbotların yanlış bilgi verebilmesi nedeniyle kullanıcıların her şeyi kontrol etmesi gerektiğini" belirtti.