Yapay zeka ne kadar dost ne kadar düşman olacak?

Büyük lisan modelleri (LLM'ler), dünyanın dört bir yanındaki yönetim kurulu odalarının yapay zekâ konuşmalarıyla çalkalanmasının nedeni olabilir fakat teknoloji yıllardır öbür hallerde düzgün bir biçimde kullanılıyor.

ESET, yapay zekâyı birinci olarak çeyrek asır evvel makro virüslerin tespitini güzelleştirmek hedefiyle kullanmaya başladı. Günümüzde güvenlik grupları, üç ana etken sayesinde tesirli yapay zekâ tabanlı araçlara her zamankinden daha fazla gereksinim duyuyor:

1) Maharet eksikliği sert bir formda vurmaya devam ediyor

Son sayıma nazaran, Avrupa'da 348.000 ve Kuzey Amerika'da 522.000 olmak üzere dünya genelinde yaklaşık dört milyon siber güvenlik uzmanı açığı bulunuyor. Yapay zekâ 7 gün 24 saat çalışabilir ve güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebilir. 

2) Tehdit aktörleri çevik, kararlı ve âlâ kaynaklara sahip

Siber güvenlik takımları eleman bulmakta zorlanırken rakipleri de güçlenmeye devam ediyor. Bir kestirime nazaran, siber hata iktisadı 2025 yılına kadar dünyaya yıllık 10,5 trilyon dolara mal olabilir. Tehdit aktörleri, atak başlatmak için gereksinim duydukları her şeyi hazır "hizmet olarak" teklifler ve araç setleri halinde bulabilirler. 

3) Riskler hiç bu kadar yüksek olmamıştı

Dijital yatırımlar yıllar içinde arttıkça sürdürülebilir büyümeyi ve rekabet avantajını desteklemek için BT sistemlerine olan itimat de artmıştır. Ağ savunucuları, siber tehditleri önleyemez ya da süratle tespit edip denetim altına alamazlarsa kurumlarının büyük mali ve prestij kaybına uğrayabileceğini biliyor. Günümüzde bir bilgi ihlalinin maliyeti ortalama 4,45 milyon dolar. Fakat hizmet kesintisi ve bilgi hırsızlığı içeren önemli bir fidye yazılımı ihlali bunun çok daha fazlasına mal olabilir. Bir iddiaya nazaran yalnızca finans kurumları 2018'den bu yana hizmet kesintisi nedeniyle 32 milyar dolar kaybetti.

Yapay zekâ güvenlik takımları tarafından gelecekte nasıl kullanılabilir?

Yapay zekâ siber taarruzlarda nasıl kullanılıyor?

Yapay zekânın sınırları

İyi ya da makus, yapay zekanın şu anda sınırlamaları var. Yüksek yanlış müspet oranları verebilir ve yüksek kaliteli eğitim setleri olmadan tesiri sonlu olabilir. Çıktıların doğruluğunu denetim etmek ve modellerin kendilerini eğitmek için ekseriyetle insan nezareti de gerekli. Tüm bunlar, AI’ın ne saldırganlar ne de savunmacılar için sihirli bir değnek olmadığı gerçeğine işaret ediyor. 

Kaynak: (BYZHA) Beyaz Haber Ajansı

Benzer Videolar