enflasyonemeklilikötvdövizakpchpmhp
DOLAR
41,6842
EURO
48,9807
ALTIN
5.207,78
BIST
10.858,52
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Az Bulutlu
22°C
İstanbul
22°C
Az Bulutlu
Pazar Parçalı Bulutlu
22°C
Pazartesi Parçalı Bulutlu
24°C
Salı Yağmurlu
19°C
Çarşamba Hafif Yağmurlu
17°C

Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı

Kimlik avı taarruzları, uzun yıllardır var olan bir siber akın usulü olsa da hala kuruluşlara saldırmanın ve sızmanın en tesirli yollarından biri olarak görülüyor. Son yıllarda kimlik avı atakları, yapay zeka teknolojilerinin siber kabahat prosedürü olarak kullanılmasıyla biçim değiştirdi.

Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı
05.03.2024 17:36
6
A+
A-

Kimlik avı atakları, uzun yıllardır var olan bir siber atak metodu olsa da hala kuruluşlara saldırmanın ve sızmanın en tesirli yollarından biri olarak görülüyor. Son yıllarda kimlik avı hücumları, yapay zeka teknolojilerinin siber kabahat metodu olarak kullanılmasıyla biçim değiştirdi. Deepfake kimlik avı atak teşebbüslerinin 2023 yılında %3.000 oranında arttığını lisana getiren Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Yöneticisi Alev Akkoyunlu, deepfake kimlik avı ataklarına nerelerde maruz kalınabileceğine ve karşı karşıya gelindiğinde neler yapılması gerektiğini paylaştı. 

Deepfake derin öğrenme usulüyle düzmece imajların, görüntülerin ve seslerin oluşturulması manasına geliyor. Kimlik avı hücumları, siber hatalıların mağdurları alt etmek için kullandıklarını en tesirli yollardan biri olarak görülüyor. Deepfake kimlik avı atakları, toplumsal mühendislik teknikleri ve deepfake teknolojisinin birleşimiyle yeni bir siber taarruz formülü olarak hayata girdi. Deepfake kimlik avı hücumlarındaki artış, derin öğrenme modellerinin daha erişilebilir hale gelmesinden kaynaklanıyor. Günümüzde artık yapay zeka algoritmaları düşük maliyetli yahut fiyatsız bir formda olduğu için ulaşabilir bir durumda. Deepfake kimlik avı hücum teşebbüslerinin 2023 yılında %3.000 oranında arttığı gözlemlendi. En çok finans ve muhasebe alanındaki şahısların hedeflendiğini ve CFO’ların taklit edidiğine dikkat çeken Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Yöneticisi Alev Akkoyunlu, siber hatalıların deepfake kimlik avı taarruzlarını kullandıkları alanları ve kuruluşların dikkat etmesi gereken noktaları anlattı. 

1. E-postalar yahut bildiriler. Kuruluşlar her yıl iş e-postası taarruzları nedeniyle milyarlarca dolar kaybediyor. Deepfake’ler e-posta ataklarını daha da tehlikeli hale getiriyor zira tehdit aktörleri bu yaklaşımı bildirileri şahsileştirmek ve kimliklerini daha inandırıcı göstermek için kullanabiliyor. Örneğin, saldırganlar CEO’ların geçersiz LinkedIn profillerini oluşturabilir ve bunları çalışanları cezbetmek için kullanabilir.

2. Manzaralı aramalar. Bir siber hatalı, mağdurlarla etkileşime geçmek ve mağdurları bilinmeyen bilgileri (kimlik bilgileri gibi) paylaşmaya ikna etmek yahut onları yetkisiz finansal süreçler gerçekleştirmeye yönlendirmek için bir Zoom görüşmesi üzerinden görüntü deepfake kullanabilir. Örneğin, Çin’deki bir dolandırıcı, birinin kimliğine bürünmek için yüz değiştirme teknolojisini kullandı ve mağduru 622.000 doları transfer etmeye ikna etti.

3. Sesli bildiriler. Bugünlerde rastgele birinin sesini kopyalamak son derece kolay. Tek gereken üç saniyelik bir klip. Bu deepfake’ler, sesli ileti bırakmak yahut insanları canlı sohbetlere dahil etmek için kullanılabilir; böylelikle gerçeklik ile aldatma ortasındaki çizgi daha da bulanıklaşır. 2022 yılında kuruluşların %37’sinin deepfake ses sahtekarlığı yaşadığına inanılıyor.

Kuruluşlar Deepfake Kimlik Avı Akınları Konusunda Neden Endişelenmeli?

1. Süratle büyüyen bir tehdit. Deepfake teknolojisi, üretken yapay zeka araçları sayesinde giderek daha erişilebilir hale geliyor. Deepfake kimlik avı ve dolandırıcılık hadiseleri 2023 yılında %3.000 üzere şaşırtan bir oranda arttı.

2. Maksada yönelik. Saldırganlar son derece şahsileştirilmiş ataklar oluşturmak için deepfake’leri kullanabilir. İnsanları muhakkak ilgi alanlarına, hobilerine ve arkadaş ağlarına nazaran hedefleyebilir. Makul kişi ve kuruluşlara has güvenlik açıklarından yararlanabilir.

3. Tespit edilmesi sıkıntı. Yapay zeka birinin yazı tarzını taklit edebilir, sesleri harikaya yakın bir doğrulukla klonlayabilir ve insan yüzlerinden ayırt edilemeyen yapay zeka tarafından oluşturulmuş yüzler yaratabilir. Bu da deepfake kimlik avı akınlarının tespit edilmesini son derece zorlaştırır.

Kuruluşlar Deepfake Kimlik Avı Taarruzlarını Nasıl Önleyebilir?

1. Öncelikli olarak finans departmanlarında vazife alan çalışanları eğitin.  Kuruluşların finans departmanlarında vazife alan çalışanlar, bilhassa para transferi üzere süreçleri yaparken dikkatli olmaları konusunda eğitilmeli. Bilhassa işverenleri yahut yöneticileri tarafından acil ve süratli bir formda yapılması istenen para transferlerinde telâşlı davranmak yerine, daha dikkatli bir davranış biçimi sergilemeleri gerekiyor. Genelde bu çeşit siber dolandırıcılık metotlarında siber hatalılar, ruhsal baskıyla para transfer işini aceleye getirmeye çalışıyor. Para transferi yapılacak hesabın sahiden cari bir alacaklı olup olmadığını denetim etmek gerekiyor. Hesap bilgisinin yanlışsız kişi olduğundan emin olmak için para transferi yapılacak hesap numarası denetim edilmeli. Yönetici, para transferi yapılacak kişi tarafından aranarak nitekim bu türlü bir para transfer buyruğu verip vermediği denetim etmeli. 

2. Çalışanların düzmece içerik konusundaki farkındalığını artırın.  Çalışanlar, geçersiz içeriğin giderek yaygınlaşması konusunda bilinçlendirilmeli. Çalışanlara, yalnızca çevrimiçi profillerinde birtakım görüntüler, fotoğraflar yahut ses klipleri olduğu için çevrimiçi bir kişiliğe, bireye yahut kimliğe güvenmemeleri gerektiği öğretilmeli.

3. Çalışanları deepfake’i tanımaları ve raporlamaları için eğitin.  Kimlik avını tedbire ve tespit etme kelam konusu olduğunda hiçbir şey insan sezgisinden daha güçlü olamaz. Çalışanları, düzmece çevrimiçi kimlikleri, dudak senkronizasyonu tutarsızlıkları üzere görsel anormallikleri, sarsıntılı baş ve gövde hareketlerini, olağandışı ses işaretlerini ve sistemsiz yahut kuşkulu istekleri tanıma ve raporlama konusunda eğitmek çok kıymetli. Bu eğitim uzmanlığına sahip olmayan kuruluşlar, gerçek, kullanıma hazır örnek toplumsal mühendislik senaryolarını kullanan kimlik avı simülasyon programlarını da kıymetlendirebilir.

4. Kimlik sahtekarlığı riskini azaltmak için güçlü kimlik doğrulama yolları kullanın.  Kimlik avına dirençli çok faktörlü kimlik doğrulama ve sıfır inanç üzere araçların kullanılması, kimlik hırsızlığı ve yanal hareket riskini katiyen bir dereceye kadar azaltabilir. Bununla birlikte, güvenlik önderleri saldırganların makul deepfake tabanlı toplumsal mühendislik teknikleri kullanarak kimlik doğrulama sistemlerini hacklemeye yahut baypas etmeye çalıştıklarını görmeyi bekleyebilirler.

Deepfake kimlik avı taarruzlarının başarısı ve aktifliği, özünde insanların itimadını ve saflığını kullanma hünerinde yatıyor. Kuruluşlar çalışanlarına internette gördükleri ya da duydukları her şeyi sorgulamayı öğretmeli ve nizamlı toplumsal mühendislik farkındalık antrenmanlarıyla altıncı bir savunma hissiyle birlikte bir şey fark ettikleri anda devreye giren bir kas hafızası oluşturmalı. Kuruluşların giderek yaygınlaşan bu tehditle tesirli bir biçimde gayret edebilmelerinin en âlâ yolu insan sezgisi.

Kaynak: (BYZHA) Beyaz Haber Ajansı