Üretken yapay zekâ araçları (GEN AI) hızla gelişen teknolojiler sayesinde, iş süreçlerinin ayrılmaz bir parçası haline geldi. Bu araçlar sayesinde rapor hazırlama, elektronik tablo analizi gibi uzmanlık gerektiren işler, kolayca yerine getiriliyor. Ancak Rus siber güvenlik şirketi Kaspersky’nin anket çalışmasına göre C-Suit katılımcılarının neredeyse tamamı (%95) GEN AI araçlarının kurumlarında kullanıldığının farkında. Aynı anket, çalışanların yarısından fazlasının da yapay zekanın kullanım sürecinde hassas bilgileri yanlışlıkla sızdırabileceğinden endişe ettiğini ortaya koydu. Kaspersky uzmanları, GENAI araçlarının risk yaratmayacak şekilde kullanımı için önerilerde bulunuyor.
Kaspersky Makine Öğrenimi Teknolojisi Grup Müdürü Vladislav Tushkanov, konuyla ilgili bir açıklamasında şunları dile getirdi: "GenAI araçları, teknolojik veri analizi ve rutin görevlerde yardımcı olduğu için çalışanların daha üretken olmasını sağlıyor. Ancak birçok kişi yapay zekayı işverenlerinden gerekli izni almadan kullanıyor. Bu durum kurum için önemli riskler doğurabilir. Örneğin veri sızıntısı önemli bir endişe kaynağı haline gelebilir. Ayrıca, çalışanlar 'halüsinasyonlar' sonucunda yanlış bilgiler alabilir ve bunlara göre hareket edebilir. Bu, büyük dil modellerinin yanlış bilgileri kendinden emin bir şekilde sunmasından kaynaklanır. Bu halüsinasyonlar, GenAI belirli iş işlevlerinin nasıl yerine getirileceği konusunda tavsiyelerde bulunmak için kullanıldığında özellikle tehlikeli olabilir."
GenAI Teknolojisini Güvenli ve Verimli Kullanmanın Yolları
Kaspersky’nin Türkiye’de gerçekleştirdiği bir diğer ankete göre ise, Türk katılımcıların %40'ı yapay zekayı iş yerinde bir ekip üyesi olarak görmeye başladı. Kaspersky’nin çalışmalarında dikkat çeken bir konu da GENAI’ın olumsuz kullanımı hakkında. Kötü niyetli kişiler, GenAI sayesinde daha inandırıcı sosyal mühendislik saldırıları düzenliyor ve bu da durumu daha içinden çıkılmaz bir hale getiriyor. İnsanları taklit eden gerçekçi sesler, kamuoyunu yanıltacak dezenformasyon kampanyaları, bunlardan sadece birkaçı.
Tushkanov, açıklamasına, ‘’Karar vericiler, günlük iş rutininin hangi bölümlerinin işletmenin karşı karşıya olduğu tehdit düzeyine olumsuz etkide bulunmadan GenAI araçlarıyla otomatikleştirilebileceğini anlamak için kapsamlı bir risk değerlendirmesi yapmalıdır" sözleriyle devam etti.
Böylece kuruluşlar GenAI'ın kullanımı söz konusu olduğunda merkezi bir yaklaşım benimseyebilirler. Bu hizmet, daha sonra bir bulut platformunda şirket hesabı üzerinden kullanılabilir ve tüm güvenlik önlemleri alınabilir. Bir diğer önlem de çalışanların GENAI’ın doğru kullanımı ve şirketin belirlediği kurallar çerçevesinde eğitilmesidir.
Kuruluşlar GENAI’ın faydalarından yararlanıp, risklerini yöneterek çalışan verimliliğini arttırabilirler. Çalışanlara ayrıca; gizli verilerin yapay zekâ araçlarına açılmaması, kritik kullanımlarda yapay zekanın önerilerine güvenilmemesi ve bilgilerin mutlaka doğrulanmasını hatırlatabilirler. Bunun yanı sıra büyük dil modeli (LLM) tabanlı sistemleri çalıştıran tüm bilgisayar ve sunucuların, güncel güvenlik araçlarıyla korunması için gerekli önlemleri de alabilirler.
Kaspersky Makine Öğrenimi Teknolojisi Grup Müdürü Tushkanov, açıklamasını son olarak şu sözlerle bitirdi: "ChatGPT ve diğer çözümleri yasaklamak ideal seçenek olmayabilir. GenAI, çok fazla ve çok az tedbir arasındaki dengeyi bularak verimli bir şekilde kullanılabilir. Daha geniş anlamda, kamu ve özel sektör arasındaki iş birlikleri, GenAI'nin iş büyümesine yardımcı olmak, inovasyon için daha fazla kaynak ayrılmasını sağlamak ve riski yönetmek için kritik bir yardımcı haline gelmesine katkı sağlayacaktır."
LLM tabanlı sistemlerin siber güvenlik riskleri üzerine daha fazla bilgi edinmek için Kaspersky'nin Vladislav Tushkanov ile gerçekleştireceği web seminerine buradan kaydınızı yaptırabilirsiniz. Seminer 9 Ekim 2024 Çarşamba günü Türkiye saatiyle 14.00'da gerçekleşecek.