Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik telaşları konusunda uyardı
Son yıllarda yapay zeka (AI) ve makine tahsili teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine ataklarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor.
Bunlardan biri de insan gibisi doğal konuşma yahut gerçek insanların fotoğraf ve görüntü kopyalarını içeren deepfake’ler. Bu taarruzları oluşturmak için harcanan vakit ve uğraş çoklukla potansiyel 'ödüllerinden' daha ağır bassa da Kaspersky, şirketlerin ve tüketicilerin deepfake'lerin gelecekte daha fazla tasa kaynağı olacağının farkında olmaları gerektiği konusunda uyarıyor.
Kaspersky araştırması, darknet pazarlarında deepfake oluşturma araçlarının ve hizmetlerinin yer aldığını tespit etti. Bu hizmetler dolandırıcılık, şantaj ve kapalı dataların çalınması üzere çeşitli hedefler için yapay zeka yardımıyla görüntü oluşturma imkanı sunuyor. Kaspersky uzmanlarının iddialarına nazaran, bir dakikalık deepfake görüntü 300 dolar üzere düşük bir fiyata satın alınabiliyor.
İnternet kullanıcıları ortasında dijital okuryazarlık konusunda kıymetli bir uçurum olduğu konusunda da telaşlar var. Yakın vakitte yapılan Kaspersky İş Dijitalleşme Anketine¹ nazaran Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51'i bir deepfake'i gerçek bir manzaradan ayırt edebileceklerini söyledi. Yapılan testte ise sırf %25'i gerçek bir imgeyi yapay zeka tarafından oluşturulmuş bir imajdan ayırt edebildi2. Kimlik avı ve başka toplumsal mühendislik akınlarının birincil gayelerinin çoklukla çalışanlar olduğu düşünüldüğünde, bu durum kurumların risk altında olması demek.
Örneğin, siber hatalılar CEO'nun bir banka havalesi talep ettiği yahut ödemeyi onayladığı düzmece bir görüntü oluşturabilir ve bu görüntü şirket varlıklarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek tehlikeye atıcı görüntüler ya da manzaralar oluşturulabilir.
Kaspersky Baş Bilgi Bilimcisi Vladislav Tushkanov, şunları söylüyor: "Yüksek kaliteli deepfake yaratacak teknolojiler şimdi yaygın olarak bulunmasa da, bu teknolojinin en mümkün kullanım alanlarından biri gerçek vakitli sesler üreterek öbür birinin kimliğine bürünmektir. Örneğin çok uluslu bir firmada çalışan bir finans vazifelisi, deepfake teknolojisi sayesinde bir görüntü konferans görüşmesinde şirketin finans müdürü gibi davranılarak dolandırıcılara 25 milyon dolar aktarmak üzere kandırıldı. Deepfake'lerin sırf işletmeler için değil, tıpkı vakitte ferdî kullanıcılar için de bir tehdit olduğunu unutmamak kıymetlidir. Yanlış bilgi yayarlar, dolandırıcılık emeliyle kullanılırlar yahut isteği olmadan öteki birinin kimliğine bürünürler. Bu korunulması gereken ve büyüyen bir siber tehdit."
Kaspersky, deepfake'lerin oluşturduğu çeşitli tehditlere karşı korunmak için şahıslara ve işletmelere aşağıdaki tedbirleri öneriyor:
- Şüpheli aramalara dikkat edin. Düşük ses kalitesi, sesin doğal olmayan monotonluğu, anlaşılmaz konuşma biçimleri ve gelen anlamsız gürültülere dikkat edin.
- Deepfake görüntülerin temel özelliklerini öğrenin. Bu özellikler ortasında sarsıntılı hareketler, bir plandan başkasına geçişte ışıkta kaymalar, cilt tonunda farklılıklar, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.
- Asla hislere dayalı kararlar vermeyin ve detayları kimseyle paylaşmayın. Yalnızca o kişinin bilebileceği bir şey sormak ya da aramayı durdurmak, alınan bilgileri birkaç kanaldan ayrıyeten doğrulamak her vakit daha yeterlidir. Bu noktada 'güven lakin doğrula' protokolünü izleyin.
- Kuruluşunuzun siber güvenlik uygulamalarını denetim edin ve güncelleyin.
- Kaspersky Threat Intelligence gibi bir güvenlik tahlili, bilgi güvenliği uzmanlarının deepfake konusundaki en son gelişmeler hakkında şimdiki kalmasına yardımcı olabilir.
- Şirketler ayrıyeten çalışanlarının deepfake'lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anlamalarını sağlayarak beşere dayalı güvenlik duvarını güçlendirmelidir. Bu, çalışanlara deepfake taarruzlarını nasıl tespit edeceklerini öğretmek üzere uygulanacak daima farkındalık ve eğitim çalışmalarını kapsar.
Kaynak: (BYZHA) Beyaz Haber Ajansı