Dolar 32,5004
Euro 34,6901
Altın 2.496,45
BİST 9.693,46
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Antalya 22°C
Parçalı Bulutlu
Antalya
22°C
Parçalı Bulutlu
Paz 23°C
Pts 25°C
Sal 27°C
Çar 25°C

Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı

Kimlik avı atakları, uzun yıllardır var olan bir siber hücum metodu olsa da hala kuruluşlara saldırmanın ve sızmanın en tesirli yollarından biri olarak görülüyor. Son yıllarda kimlik avı akınları, yapay zeka teknolojilerinin siber hata formülü olarak kullanılmasıyla form değiştirdi.

Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı
REKLAM ALANI
5 Mart 2024 17:36
23

Kimlik avı hücumları, uzun yıllardır var olan bir siber hücum yolu olsa da hala kuruluşlara saldırmanın ve sızmanın en tesirli yollarından biri olarak görülüyor. Son yıllarda kimlik avı taarruzları, yapay zeka teknolojilerinin siber kabahat formülü olarak kullanılmasıyla hal değiştirdi. Deepfake kimlik avı akın teşebbüslerinin 2023 yılında %3.000 oranında arttığını lisana getiren Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Yöneticisi Alev Akkoyunlu, deepfake kimlik avı ataklarına nerelerde maruz kalınabileceğine ve karşı karşıya gelindiğinde neler yapılması gerektiğini paylaştı. 

Deepfake derin öğrenme tekniğiyle düzmece imgelerin, görüntülerin ve seslerin oluşturulması manasına geliyor. Kimlik avı atakları, siber hatalıların mağdurları alt etmek için kullandıklarını en tesirli yollardan biri olarak görülüyor. Deepfake kimlik avı akınları, toplumsal mühendislik teknikleri ve deepfake teknolojisinin birleşimiyle yeni bir siber akın yolu olarak hayata girdi. Deepfake kimlik avı ataklarındaki artış, derin öğrenme modellerinin daha erişilebilir hale gelmesinden kaynaklanıyor. Günümüzde artık yapay zeka algoritmaları düşük maliyetli yahut fiyatsız bir halde olduğu için ulaşabilir bir durumda. Deepfake kimlik avı hücum teşebbüslerinin 2023 yılında %3.000 oranında arttığı gözlemlendi. En çok finans ve muhasebe alanındaki bireylerin hedeflendiğini ve CFO’ların taklit edidiğine dikkat çeken Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Yöneticisi Alev Akkoyunlu, siber hatalıların deepfake kimlik avı hücumlarını kullandıkları alanları ve kuruluşların dikkat etmesi gereken noktaları anlattı. 

ARA REKLAM ALANI

1. E-postalar yahut iletiler. Kuruluşlar her yıl iş e-postası akınları nedeniyle milyarlarca dolar kaybediyor. Deepfake’ler e-posta hücumlarını daha da tehlikeli hale getiriyor zira tehdit aktörleri bu yaklaşımı bildirileri şahsileştirmek ve kimliklerini daha inandırıcı göstermek için kullanabiliyor. Örneğin, saldırganlar CEO’ların düzmece LinkedIn profillerini oluşturabilir ve bunları çalışanları cezbetmek için kullanabilir.

2. Manzaralı aramalar. Bir siber hatalı, mağdurlarla etkileşime geçmek ve mağdurları bâtın bilgileri (kimlik bilgileri gibi) paylaşmaya ikna etmek yahut onları yetkisiz finansal süreçler gerçekleştirmeye yönlendirmek için bir Zoom görüşmesi üzerinden görüntü deepfake kullanabilir. Örneğin, Çin’deki bir dolandırıcı, birinin kimliğine bürünmek için yüz değiştirme teknolojisini kullandı ve mağduru 622.000 doları transfer etmeye ikna etti.

3. Sesli iletiler. Bugünlerde rastgele birinin sesini kopyalamak son derece kolay. Tek gereken üç saniyelik bir klip. Bu deepfake’ler, sesli bildiri bırakmak yahut insanları canlı sohbetlere dahil etmek için kullanılabilir; böylelikle gerçeklik ile aldatma ortasındaki çizgi daha da bulanıklaşır. 2022 yılında kuruluşların %37’sinin deepfake ses sahtekarlığı yaşadığına inanılıyor.

Kuruluşlar Deepfake Kimlik Avı Taarruzları Konusunda Neden Endişelenmeli?

1. Süratle büyüyen bir tehdit. Deepfake teknolojisi, üretken yapay zeka araçları sayesinde giderek daha erişilebilir hale geliyor. Deepfake kimlik avı ve dolandırıcılık hadiseleri 2023 yılında %3.000 üzere şaşırtan bir oranda arttı.

2. Gayeye yönelik. Saldırganlar son derece şahsileştirilmiş taarruzlar oluşturmak için deepfake’leri kullanabilir. İnsanları belli ilgi alanlarına, hobilerine ve arkadaş ağlarına nazaran hedefleyebilir. Muhakkak kişi ve kuruluşlara mahsus güvenlik açıklarından yararlanabilir.

3. Tespit edilmesi sıkıntı. Yapay zeka birinin yazı tarzını taklit edebilir, sesleri harikaya yakın bir doğrulukla klonlayabilir ve insan yüzlerinden ayırt edilemeyen yapay zeka tarafından oluşturulmuş yüzler yaratabilir. Bu da deepfake kimlik avı taarruzlarının tespit edilmesini son derece zorlaştırır.

Kuruluşlar Deepfake Kimlik Avı Ataklarını Nasıl Önleyebilir?

1. Öncelikli olarak finans departmanlarında vazife alan çalışanları eğitin.  Kuruluşların finans departmanlarında vazife alan çalışanlar, bilhassa para transferi üzere süreçleri yaparken dikkatli olmaları konusunda eğitilmeli. Bilhassa işverenleri yahut yöneticileri tarafından acil ve süratli bir halde yapılması istenen para transferlerinde sabırsız davranmak yerine, daha dikkatli bir davranış biçimi sergilemeleri gerekiyor. Genelde bu tıp siber dolandırıcılık formüllerinde siber hatalılar, ruhsal baskıyla para transfer işini aceleye getirmeye çalışıyor. Para transferi yapılacak hesabın hakikaten cari bir alacaklı olup olmadığını denetim etmek gerekiyor. Hesap bilgisinin yanlışsız kişi olduğundan emin olmak için para transferi yapılacak hesap numarası denetim edilmeli. Yönetici, para transferi yapılacak kişi tarafından aranarak hakikaten bu türlü bir para transfer buyruğu verip vermediği denetim etmeli. 

2. Çalışanların uydurma içerik konusundaki farkındalığını artırın.  Çalışanlar, uydurma içeriğin giderek yaygınlaşması konusunda bilinçlendirilmeli. Çalışanlara, yalnızca çevrimiçi profillerinde birtakım görüntüler, fotoğraflar yahut ses klipleri olduğu için çevrimiçi bir kişiliğe, bireye yahut kimliğe güvenmemeleri gerektiği öğretilmeli.

3. Çalışanları deepfake’i tanımaları ve raporlamaları için eğitin.  Kimlik avını tedbire ve tespit etme kelam konusu olduğunda hiçbir şey insan sezgisinden daha güçlü olamaz. Çalışanları, düzmece çevrimiçi kimlikleri, dudak senkronizasyonu tutarsızlıkları üzere görsel anormallikleri, sarsıntılı baş ve gövde hareketlerini, olağandışı ses işaretlerini ve sistemsiz yahut kuşkulu istekleri tanıma ve raporlama konusunda eğitmek çok değerli. Bu eğitim uzmanlığına sahip olmayan kuruluşlar, gerçek, kullanıma hazır örnek toplumsal mühendislik senaryolarını kullanan kimlik avı simülasyon programlarını da kıymetlendirebilir.

4. Kimlik sahtekarlığı riskini azaltmak için güçlü kimlik doğrulama formülleri kullanın.  Kimlik avına dirençli çok faktörlü kimlik doğrulama ve sıfır itimat üzere araçların kullanılması, kimlik hırsızlığı ve yanal hareket riskini muhakkak bir dereceye kadar azaltabilir. Bununla birlikte, güvenlik önderleri saldırganların makul deepfake tabanlı toplumsal mühendislik teknikleri kullanarak kimlik doğrulama sistemlerini hacklemeye yahut baypas etmeye çalıştıklarını görmeyi bekleyebilirler.

Deepfake kimlik avı hücumlarının başarısı ve aktifliği, özünde insanların inancını ve saflığını kullanma marifetinde yatıyor. Kuruluşlar çalışanlarına internette gördükleri ya da duydukları her şeyi sorgulamayı öğretmeli ve nizamlı toplumsal mühendislik farkındalık idmanlarıyla altıncı bir savunma hissiyle birlikte bir şey fark ettikleri anda devreye giren bir kas hafızası oluşturmalı. Kuruluşların giderek yaygınlaşan bu tehditle tesirli bir halde uğraş edebilmelerinin en yeterli yolu insan sezgisi.

Kaynak: (BYZHA) Beyaz Haber Ajansı

REKLAM ALANI
ETİKETLER: , , , ,
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.