enflasyonemeklilikötvdövizakpchpmhp
DOLAR
35,2128
EURO
36,7330
ALTIN
2.956,94
BIST
9.626,56
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Hafif Yağmurlu
12°C
İstanbul
12°C
Hafif Yağmurlu
Salı Çok Bulutlu
14°C
Çarşamba Hafif Yağmurlu
11°C
Perşembe Yağmurlu
9°C
Cuma Hafif Yağmurlu
10°C

Darkweb’de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı

Darkweb’de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı
09.05.2023 11:53
17
A+
A-

Kaspersky, farklı kötü niyetli amaçlar için deepfake video ve ses oluşturma hizmeti veren çeşitli Darknet pazarlarını ve yeraltı forumlarını analiz etti. Bazı durumlarda bireyler, deepfake oluşturmak için ünlüler veya siyasi figürler gibi belirli hedefler talep edebilir.

Siber suçlular, üretilen yapay zeka videolarını yasa dışı faaliyetler için çeşitli şekillerde kullanıyor. Bireyleri veya kuruluşları dolandırmak için kullanılabilecek sahte videolar veya görüntüler oluşturmak için deepfake örnekleri kullanabiliyor. Örneğin bir CEO'nun banka havalesi talep ettiği veya bir ödemeyi yetkilendirdiği sahte bir video hazırlanabiliyor ve bu video kurumsal fonları çalmak için kullanabiliyor. Sahte videolar, kişilerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler oluşturmak için de kullanılabilir Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake'lerden faydalanabiliyor. Örneğin bir politikacının tartışmalı açıklamalar yaptığı sahte bir video oluşturabiliyor ve bunu seçimin sonuçlarını etkilemek için kullanabilir.

Elon Musk'ın yeni bir kripto para dolandırıcılığını tanıttığı bir deepfake

Deepfake teknolojisi, meşru hesap sahibinin gerçekçi sahte videolarını veya ses kayıtlarını oluşturarak ödeme hizmetlerinde doğrulama aşamasını atlamak için kullanılabiliyor. Bunlar, ödeme hizmeti sağlayıcılarını gerçek hesap sahibiyle karşı karşıya olduklarını düşünmeleri için kandırmak ve böylece hesaba ve ilgili fonlara erişim elde etmek için kullanılabiliyor.

Kaspersky Lider Veri Bilimcisi Vladislav Tushkanov, şunları söyledi:
"Deepfake'ler giderek artan bir şekilde şantaj ve dolandırıcılık amacıyla kullanılıyor. Örneğin, bir İngiliz enerji firmasının CEO'su, ana şirketinin başkanının acil fon transferi talep eden bir ses deepfake'i ile 243.000 dolar dolandırıldı. Neticede fonlar dolandırıcının banka hesabına aktarıldı. Durum ancak suçlu başka bir transfer talebinde bulununca ortaya çıktı, ancak o zamana kadar zaten transfer edilmiş olan fonları geri almak için çok geç kalınmıştı. Benzer bir vaka BAE'de rapor edildi ve burada da ses deepfake'i içeren bir dolandırıcılıkta 400 bin dolar çalındı. Bununla birlikte deepfake'lerin yalnızca işletmeler için değil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduğunu unutmamak gerekir. Bunlar yanlış bilginin yayılmasına sebep olabilir, dolandırıcılık için kullanılabilir veya rızası olmadan başka birinin kimliğine bürünebilir. Dijital okuryazarlık seviyenizi artırmak, bu tehditlere karşı koymak için anahtar niteliğindedir."
Darkweb kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son eğilimlerini ve faaliyetlerini takip etmelerine olanak tanıyor. Araştırmacılar darknet'i izleyerek deepfake' lerin oluşturulması ve dağıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu tür bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda bir adım önde olmalarına yardımcı olmak için bu tür bir izleme içerir.
Kaspersky, deepfake ile ilgili tehditlerden korunmak için şunları önerdi:

"Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılımları değil, aynı zamanda gelişmiş BT becerilerini de ele alın. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.
Kurumsal "insan güvenlik duvarınızı" güçlendirin. Çalışanların deepfake'lerin ne olduğunu, nasıl çalıştıklarını ve yol açabilecekleri problemleri anlamalarını sağlayın. Çalışanlara bir deepfake'i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları yapın. Kaspersky  Automated Security Awareness Platform , çalışanların en yeni tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.
Nitelikli haber kaynaklarına başvurun. Bilgi cehaleti, derin sahtekarlıkların yaygınlaşmasını sağlayan önemli bir etken olmaya devam ediyor.
'Güven ama doğrula' gibi iyi protokollere sahip olun. Sesli mesaj ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir.
Deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diğerine ışık kaymaları, cilt tonunda kaymalar, garip şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmaması, görüntüdeki dijital kalıntılar, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu sahteciliği ele vermeye yardımcı olan ipuçlarıdır."

Hibya Haber Ajansı

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.