Küresel, bulut tabanlı bir e-posta güvenlik şirketi tarafından Çarşamba günü yayınlanan bir rapora göre, ChatGPT gibi üretici yapay zeka araçları, karmaşık e-posta saldırılarında artışa yol açıyor.
Abnormal Security'nin raporuna göre, güvenlik liderleri, ChatGPT piyasaya sürüldüğünden beri yapay zeka tarafından oluşturulan e-posta saldırılarının olasılıkları konusunda endişeleniyor ve bu korkuların doğrulandığını görmeye başlıyoruz.
Şirket, yakın zamanda yapay zeka tarafından yazıldığından şüphelenilen dil içeren bir dizi saldırıyı durdurduğunu bildirdi.
“Üst düzey tehdit aktörleri her zaman yapay zeka kullanmıştır. Abnormal'in makine öğrenimi başkanı ve raporun yazarı Dan Shiebler, "Üretken yapay zeka onlar için önemli değil çünkü bu tür saldırıları etkinleştirecek araçlara zaten erişimleri vardı" dedi.
TechNewsWorld'e "Üretken yapay zekanın yaptığı şey, karmaşık saldırıları metalaştırmak, böylece daha fazlasını göreceğiz" dedi.
"Bu tür teknolojilerin yapmayı kolaylaştırdığı iş e-postası ele geçirme (BEC) saldırılarında bir artış gördük" diye devam etti.
"ChatGPT'nin piyasaya sürülmesi, tüketiciler için bir dönüm noktasıydı, ancak 2020'de GPT3'ün piyasaya sürülmesi, tehdit aktörlerinin e-posta saldırılarında AI kullanmasını sağladı" diye ekledi.
Korkunç Uygulama
Helsinki'de bir kurumsal güvenlik bilinci çözümleri sağlayıcısı olan Hoxhunt'ın kurucu ortağı ve CEO'su Mika Aalto, TechNewsWorld'e saldırganların daha ikna edici BEC kampanyaları oluşturmak ve daha sonra karanlık ağda satılan daha sofistike BEC saldırı kitleri geliştirmek için AI teknolojisini benimsediğini söyledi. .
"Kendi araştırmamıza göre, insan toplum mühendisleri, kimlik avı e-postaları oluşturmada hala büyük dil modellerinden daha iyi, ancak bu boşluk kapanıyor" dedi. "Bilgisayar korsanları, ChatGPT'nin BEC kampanyaları için kötüye kullanılmasına karşı anında mühendislik yapma ve korkulukları aşma konusunda gelişiyor."
Shiebler, "Bu teknolojinin oldukça korkutucu bir uygulaması, bir saldırının yinelemeli olarak yeniden gönderilmesidir" dedi. “
"Bir sistem bir saldırı gönderebilir, alıcılara ulaşıp ulaşmadığını belirleyebilir ve ulaşamazsa saldırıyı tekrar tekrar değiştirebilir" diye açıkladı. "Temel olarak, savunmanın nasıl çalıştığını öğrenir ve bundan yararlanmak için saldırıyı değiştirir."
Abnormal raporunda, üretken yapay zekanın müşterilerine yönelik üç saldırıda nasıl kullanıldığını gösterdi: bir kimlik bilgisi oltalama saldırısı, geleneksel bir BEC saldırısı ve bir satıcı dolandırıcılık saldırısı.
Raporda, bu üç örneğin, AI tarafından oluşturulan ve Abnormal'in artık neredeyse her gün gördüğü e-posta saldırılarının yalnızca küçük bir yüzdesi olduğu belirtildi.
Ne yazık ki, teknoloji gelişmeye devam ettikçe siber suçlar da onunla birlikte gelişecek ve bu saldırıların hem hacmi hem de karmaşıklığı artmaya devam edecek.
Artık Kırık İngilizce Yok
Üretken AI araçları, özellikle Amerika Birleşik Devletleri dışından gelenler olmak üzere bir kimlik avı kampanyasının etkinliğini artırabilir.
Bulut tabanlı bir siber güvenlik şirketi olan Coro'nun kurucu ortağı Dror Liwer, "Birçok e-posta saldırısı, anadili İngilizce olmayan kişiler tarafından ABD dışından kaynaklanır ve e-postalarda bariz gramer sorunları ve alışılmadık ses tonuyla sonuçlanır ve bu da alıcıda şüphe uyandırır" dedi. Tel Aviv, İsrail merkezli şirket.
TechNewsWorld'e verdiği demeçte, "Üretken yapay zeka, gönderenin şüphe uyandırmayacak, özelleştirilmiş, sohbete dayalı, son derece güvenilir bir e-posta oluşturmasına olanak tanıyor ve bu da daha fazla kullanıcının tuzağa düşmesine neden oluyor" dedi.
Clearwater, Fla'da bir güvenlik bilinci eğitimi sağlayıcısı olan KnowBe4'te bir güvenlik bilinci savunucusu olan James McQuiggan, "Doğru bağlam ve dilbilgisi, içeriği daha inandırıcı hale getiriyor ve kullanıcı için daha az şüphe uyandırıyor" diye ekledi.
"Ayrıca," dedi TechNewsWorld'e, "üretken yapay zeka, hedefli veya daha inandırıcı bir hedefli kimlik avı kampanyası oluşturmak için bir kuruluş hakkında internetten bilgi çekebilir."
Bir hizmet sağlayıcı olarak küresel bir platform olan Platform.sh'de küresel güvenlik ve gizlilik başkanı Joey Stanford, üretken yapay zeka ile hazırlanmış e-posta saldırılarının, gelişmiş dil teknikleri ve büyük kimlik avı e-postaları veri kümeleri kullandıkları için daha gerçekçi ve inandırıcı görünebileceğini belirtti.
TechNewsWorld'e verdiği demeçte, "Bu, kötü aktörlerin otomatik olarak tespit edilmesi daha zor olan yeni, zorlayıcı kimlik avı e-postaları oluşturmasına olanak tanıyor" dedi. "OpenAI'nin ChatGPT'si gibi üretken AI araçları, yakın tarihli bir Darktrace raporunda ortaya çıkan bu teknikleri kullanan dolandırıcılık e-postalarındaki %135'lik artışın arkasında olabilir."
AI ile AI ile Mücadele
Stanford, kuruluşların kendi kendine öğrenen yapay zeka ile siber güvenlik araçlarını kullanarak üretken yapay zeka ile hazırlanmış e-posta saldırılarına karşı ağ düzeyinde kendilerini koruyabileceklerini ileri sürdü. Bu araçların, geçmişteki tehditlere ilişkin ön bilgilere dayanmadan, anormal ve kötü amaçlı e-posta etkinliklerini gerçek zamanlı olarak algılayıp yanıtlayabildiğini açıkladı.
"Bu araçlar, kuruluşların çalışanlarını kimlik avı e-postalarını nasıl tespit edip rapor edecekleri ve güvenlik politikalarını ve ağ genelinde en iyi uygulamaları nasıl uygulayacakları konusunda eğitmelerine de yardımcı olabilir" dedi.
Bu araçların yeni olduğunu ve hızlı bir şekilde geliştirilmekte olduğunu kabul etti, ancak AI ile AI ile savaşmak, birkaç nedenden dolayı soruna en iyi çözüm gibi görünüyor. Bunlar şunları içerir:
- Üretken yapay zeka saldırıları dinamik ve uyarlanabilirdir ve geçmiş tehditlere ilişkin ön bilgilere dayanan geleneksel güvenlik modellerinden kaçabilir.
- Kendi kendine öğrenen yapay zeka araçları, anormal ve kötü amaçlı e-posta etkinliklerini insan müdahalesi veya önceden tanımlanmış kurallar olmadan gerçek zamanlı olarak algılayabilir ve bunlara yanıt verebilir.
AI araçları ayrıca e-postaların ve metinlerin içeriğini ve bağlamını analiz edebilir ve daha fazla araştırma veya eylem için şüpheli veya kötü niyetli olanları işaretleyebilir.
AI araçları, proaktif ve bütünsel bir AI güvenlik programı oluşturmak ve işbirliği yapmak için veri bilimi ve güvenlik ekiplerini eğitmeye ve güçlendirmeye yardımcı olabilir.
Yapay Zekanın Ötesinden Davranış Analitiğine
Bununla birlikte, San Jose, Kaliforniya'da bir BT ve dijital güvenlik operasyonları şirketi olan Netenrich'in temel tehdit avcısı John Bambenek, üretken yapay zeka sorununun uzun vadede daha fazla yapay zeka ile çözülemeyeceğini söyledi.
TechNewsWorld'e "Davranış analitiği açısından neyin normal ve anormal olduğuna bakmak ve e-postanın güvensiz ve güvenli olmadığını anlamak için gereken şey," dedi. "Bir şey ne kadar önemliyse, e-postaya o kadar az güvenmelidir."
"Anahtar hala aynı, özellikle finansal bir işlem veya kimlik doğrulama talebi gibi hassas bir şeyse, bir e-postayla ilgili işlem yapmadan önce iki kez düşünün" diye ekledi.
McQuiggan, bir e-postanın bir yapay zeka, bot veya insan tarafından oluşturulup oluşturulmadığına bakılmaksızın, incelemeye yönelik adımların aynı kalacağını söyledi. Bir alıcı üç soru sormalıdır: Bu e-posta beklenmedik mi? Tanımadığım birinden mi? Alışılmadık bir şey mi yoksa aceleyle mi yapmamı istiyorlar?
"Bu sorulardan herhangi birinin yanıtı evet ise, e-postadaki bilgileri doğrulamak için fazladan zaman ayırın" dedi.
"Bağlantıları, e-postanın kaynağını ve talebi kontrol etmek için fazladan birkaç dakika ayırmak, birisi bir bağlantıya tıkladığı ve kuruluşa yönelik bir veri ihlali riski başlattığı için ek maliyetleri veya kaynakları azaltabilir" tavsiyesinde bulundu.
Yorumlar
Kalan Karakter: