enflasyonemeklilikötvdövizakpchpmhp
DOLAR
34,3501
EURO
37,4500
ALTIN
3.026,35
BIST
8.625,87
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Az Bulutlu
14°C
İstanbul
14°C
Az Bulutlu
Çarşamba Parçalı Bulutlu
17°C
Perşembe Parçalı Bulutlu
17°C
Cuma Hafif Yağmurlu
15°C
Cumartesi Çok Bulutlu
17°C

Sesli Deepfake araçlarıyla siber dolandırıcılık yapılabiliyor

Sesli Deepfake araçlarıyla siber dolandırıcılık yapılabiliyor
14.11.2023 14:00
3
A+
A-

Beatles, geçenlerde yapay zeka (AI) sayesinde eski bir kaydın parçalarını birleştirerek ve aynı zamanda ses kalitesini geliştirerek yeni bir şarkı yayınladı ve dünyanın dört bir yanındaki milyonlarca hayranını bir kez daha sevindirdi. Ancak grubun yeni başyapıtından dolayı duyulan sevinci bir tarafa bırakırsak, yapay zekanın sahte sesler ve görüntüler yaratmak için kullanılmasının karanlık tarafları da var.

Derin ses sahtekarlığıyla neler yapılabilir?

Open AI kısa süre önce gerçekçi insan konuşması ve sesli giriş metni sentezleyebilen bir Audio API modeli sergiledi. Bu Open AI yazılımı, şimdilik gerçek insan konuşmasına en yakın olan şey.

Gelecekte bu tür modeller saldırganların elinde yeni bir araç haline gelebilir. Ses API'si belirtilen metni yeniden seslendirirken, kullanıcılar metnin önerilen ses seçeneklerinden hangisiyle telaffuz edileceğini seçebilir. Open AI modeli mevcut haliyle deepfake sesler yaratmak için kullanılamasa da, ortaya koyduğu nitelikler ses üretme teknolojilerinin hızla geliştiğinin bir göstergesi niteliğinde.

Günümüzde gerçek insan konuşmasından ayırt edilemeyen yüksek kaliteli derin sahte ses üretebilen neredeyse hiçbir cihaz mevcut değil. Ancak son birkaç ay içinde insan sesi üretmeye yönelik daha fazla araç piyasaya sürüldü. Önceleri bunları kullanabilmek için kullanıcıların temel programlama becerilerine ihtiyacı vardı, ancak gün geçtikçe bunları kullanmak çok daha kolay hale geliyor. 

Yapay zeka kullanarak dolandırıcılık yapmak nadir görülen bir durum. Ancak halihazırda "başarılı" vaka örnekleri mevcut. Ekim 2023'ün ortalarında Amerikalı risk sermayedarı Tim Draper, Twitter takipçilerini dolandırıcıların sesini kullanabileceği konusunda uyardı. Tim, sesiyle yapılan para taleplerinin her geçen gün daha akıllı hale gelen yapay zekanın bir sonucu olduğunu paylaştı.

Kendinizi bundan nasıl koruyabilirsiniz?

Şimdilik bu durumdan kendinizi korumanın en iyi yolu, arayan kişinin telefonda size söylediklerini dikkatle dinlemekten geçiyor. Eğer kayıt kalitesizse, arada gürültüler varsa ve ses robotik geliyorsa, bu duyduğunuz bilgilere güvenmemeniz için yeterli sebep.

Karşınızdakinin "insanlığını" test etmenin bir başka iyi yolu da alışılmışın dışında sorular sormak. Örneğin sizi arayan bir ses modeliyse, en sevdiği renkle ilgili soracağınız bir soru genellikle karşılaşmayı beklediği türden bir şey olmadığı için onu şaşkına çevirebilir. Saldırgan bu noktada manuel olarak çevirip cevabı oynatsa bile, yanıttaki zaman gecikme kandırıldığınızı açıkça ortaya koyar.

Bir diğer güvenli seçenek de güvenilir ve kapsamlı bir güvenlik çözümü kullanmak. Bunlar deepfake sesleri yüzde 100 tespit edemeseler de, tarayıcıları koruyarak ve bilgisayardaki tüm dosyaları kontrol ederek kullanıcıların şüpheli web sitelerinden, ödemelerden ve kötü amaçlı yazılım indirmelerinden kaçınmalarına yardımcı olabilirler.

Hibya Haber Ajansı

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.