Deepfake İçeriklerin Tespiti İçin Yapay Zekanın Geliştirilmesi Uyarısı
İstanbul Üniversitesi Bilgisayar ve Bilişim Teknolojileri Fakültesi Dekanı Prof. Dr. Şadi Evren Şeker, deepfake içeriklerin tespiti için yapay zekanın tek umutları olduğunu söyledi.
Yapay zeka ve makine öğrenimi gibi ileri teknolojiler, önemli faydalar sunarken birçok kişi de bunların olumsuz sonuçlarıyla baş etmeye çalışıyor.
Veri ve makine öğrenimindeki ilerlemelerle giderek daha ikna edici hale gelen deepfake videoların kötü niyetle oluşturulma potansiyeli, yapay zekanın en çok tartışılan konularından biri olmayı sürdürüyor.
İstanbul Üniversitesi Bilgisayar ve Bilişim Teknolojileri Fakültesi Dekanı Prof. Dr. Şadi Evren Şeker, deepfake videolara ilişkin AA muhabirine değerlendirmede bulundu.
Deepfake videoların yakın gelecekte evrensel tehdit oluşturacağı uyarısında bulunan Şeker, "Deepfakeleri tespit etmek için yapay zeka tek umudumuz." dedi.
Yapay zeka kullanılarak bireylerin taklit edildiği sahte görüntüleri içeren deepfake'in herkesin günlük hayatını etkilediğinin ve bu tehdidin giderek arttığının altını çizen Şeker, bununla birlikte deepfake karşıtı teknolojilerin de geliştiğini ancak henüz avantajlı konuma geçmediğine işaret etti.
Şeker, deepfake tehdidine karşı daha odaklanılmış çalışmaların yanı sıra hükümetler ya da uluslararası kuruluşlarca finanse edilen kamuya açık araçların oluşturulması gerektiğini vurguladı.
Deepfake içeriklerin görsel medyaya inanma eğiliminden faydalandığı için özellikle tehlikeli olduğuna dikkati çeken Şeker, "Biz, bir önceki nesilden geliyoruz. Yeni nesil bu teknolojilerle yaşıyor ve büyüyor. Onların tüm deepfake tehditlerine ilişkin anlayışları ve algıları tamamen farklı olabilir." dedi.
Şeker, bu tehditlerle mücadele etmenin en iyi yolunun deepfake karşıtı teknolojiler için yapay zeka teknolojisi üretmek olduğunu söyledi.
Deepfake karşıtı teknolojilere ilişkin Şeker, "Kusur tespit teknolojilerine ya da üretici ve dönüştürücü yapay zekaya yönelik bazı teknolojilerimiz var ve bu teknolojiler giderek daha iyi hale geliyor ancak ne yazık ki (deepfake) üretici teknolojiler de giderek daha iyi hale geliyor." uyarısında bulundu.
Şeker, her teknolojik ilerlemeyle birlikte onu kötüye kullanacak kişilerin de ortaya çıktığını, teknolojiyle bağlantılı suçlara karşı hukuki kavramların, bu suçlar işlendikten sonra gündeme geldiğini söyledi.
"Kanun koyucular, teknolojinin çok gerisinde kalıyor"
Deepfake tehdidini kontrol altında tutmaya yönelik yasal tedbirler konusundaki düzenlemelerin geç yapıldığını dile getiren Şeker, "Kanun koyucular, teknolojinin çok gerisinde kalıyor." görüşünü savundu.
Şeker, dijital konuların yerel ve ulusal mahkemelerde, kritik meselelerin de yüksek mahkemelerde değerlendirilebileceğini söyledi.
Dünyanın globalleştiğine dikkati çeken Şeker, bir ülkede işlenen suçların başka bir ülkeyi etkileyebileceğini ifade etti.
Şeker, küreselleşmenin dijital içeriklerin zaman ve mekandan bağımsız hale gelmesine yol açtığını dile getirerek, "Dijital bir resminiz varsa bu resmi onlarca yıl hatta yüzyıllarca saklayabilirsiniz, hiçbir deformasyon ve bilgi kaybı olmaz." şeklinde konuştu.
Bir ülkede üretilen içeriğe dünya genelinde kolayca erişilebildiğine dikkati çeken Şeker, konuya ilişkin yeni yasalar hazırlanırken zaman ve mekandan bağımsızlığın göz önünde bulundurulması gerektiğini vurguladı.
Şeker, "Herkesi bir veri bilimcisi olarak düşünebiliriz, herkes bir şekilde verilerle ilgili, en azından vücutları hakkında kendi verilerini topluyorlar. Elbette her bir kişi ve kuruluştan veri topluyoruz, bu yüzden daha fazla veriden sorumluyuz." dedi.
Bu durumun gizlilik endişelerini de beraberinde getirdiğini kaydeden Şeker, kişisel verilerle bağlantılı veri gizliliği sorununun yaşandığını, herkesin bunun farkında olmasının önemini vurguladı.
Şeker, gelecekte yaşanacaklara hazırlıklı olunması gerektiğinin altını çizerek, "Yani bu, bir dönüşüm zamanı. Doğru kararlar almak için bir fırsatımız var ve halen zamanımız olduğu için doğru adımlar atmamız gerekiyor, aksi takdirde insanlık için her şey çok geç olacak." uyarısında bulundu.