“Agentic AI”da güven ve güvenliği sağlamak – Bilim ve Teknoloji

Salesforce EMEA Bölgesi Gelişen Pazarlar Başkan Yardımcısı Sinan Erkiner, otonom yapay zeka temsilcilerinin tehdit tespitini geliştirmede, müdahale sürelerini hızlandırmada ve güvenlik ekiplerinin daha karmaşık sorunlara odaklanmalarına olanak tanıdığına dikkat çekiyor. Ancak veri altyapısı ve yönetişimdeki eksikliklerin bu temsilcilerin veriyi koruma ve uyumluluğu sürdürme yeteneklerini sınırladığını vurguluyor. Bu nedenle, temsilci çağında veri yönetimi anlayışının köklü biçimde yeniden düşünülmesi gerekliliğine değiniyor.Yapay zeka benimsenmesi hız kazanırken ve siber tehditler giderek daha sofistike hale gelirken, BT liderleri için güvenlik uygulamalarında köklü bir dönüşüm ihtiyacı öne çıkıyor. Ancak gerçek şu ki, yapay zekayı büyük ölçekte devreye almak beraberinde ciddi zorlukları da getiriyor.World Economic Forum’un Küresel Siber Güvenlik raporuna göre, kuruluşların yüzde 66’sı yapay zekanın siber güvenlik üzerinde önemli etkileri olmasını beklerken, yalnızca yüzde 37’si yapay zeka araçlarının devreye alınmadan önce güvenlik değerlendirmesini yapacak süreçlere sahip. Bu da, yapay zekanın yeterli önlemler alınmadan hızla hayata geçirilmesinin yarattığı çelişkiyi vurguluyor. Diğer taraftan Salesforce’un yeni yayınlanan BT Durum Raporu (State of IT Report), BT liderlerinin yüzde 48’inin veri altyapılarında “agentic AI”dan tam anlamıyla faydalanmaya hazır olmadığını; yüzde 55’inin ise mevcut güvenlik ve uyumluluk önlemlerine tam anlamıyla güven duymadığını ortaya koyuyor. Bu zorlukların üzerine bir de giderek karmaşıklaşan güvenlik ortamı ekleniyor: kötü niyetli aktörlerin eğitim verilerini kasıtlı olarak bozduğu “veri zehirleme” (data poisoning) gibi tehditler, BT liderleri için ciddi bir endişe kaynağı haline geliyor.Otonom yapay zeka temsilcileri; tehdit tespitini geliştirme, müdahale sürelerini hızlandırma ve güvenlik ekiplerinin daha karmaşık sorunlara odaklanmasını sağlama potansiyeline sahip olsa da, veri altyapısındaki ve yönetimindeki eksiklikler bu temsilcilerin veri koruma ve uyumluluğu sağlama kabiliyetini sınırlayabiliyor.Güvenilir yapay zeka temsilcilerini devreye almak isteyen kuruluşlar, iyi yönetime sahip bir veri temeli kurmalı, güvenlik önlemleriyle donatılmış sistemler inşa etmeli ve yapay zeka yaşam döngüsü boyunca sürekli denetim sağlamalıdır. Etkili ve güvenilir yapay zekaya giden yol, veriden geçer. Peki bunu nasıl yapabilirler?Modern bir veri yönetimi çerçevesiBüyük ölçekli birçok kuruluşta veriler; veritabanı gibi yapılandırılmış sistemlerde ya da video, ses, metin gibi farklı kaynaklardan gelen yapılandırılmamış içeriklerde dağınık halde bulunuyor.Genellikle belirli platformlara bağlı geleneksel yönetim politikaları, otonom yapay zeka temsilcilerinin ihtiyaç duyduğu kesintisiz ve bütünleşik erişimi sağlamaya yeterli değil. Bu parçalanmış yapı, ölçeklenebilirliği engelliyor, tutarsızlıklara yol açıyor, uyumluluğu zorlaştırıyor ve güvenlik risklerini artırıyor. Gartner, güçlü bir veri temeli olmadan yapay zeka projelerinin yüzde 60’ının başarısız olacağını öngörüyor.Bu nedenle, temsilci çağında veri yönetiminin temelden yeniden düşünülmesi gerekiyor. Tüm verilerin tek bir yerde toplanması artık pratik değil. Bunun yerine, verinin fiziksel konumundan bağımsız olarak tutarlı bir şekilde görülmesini ve bağlamının anlaşılmasını sağlayan veri akışkanlığına (data fluidity) dayalı bir çerçeve kurulmalı. Bu yaklaşım, veri güveninin tesisi için kritik öneme sahip.Güvenlik ve emniyet önlemleriVeri yönetişiminin ötesinde, sağlam güvenlik ve güvenlik önlemleri uygulamak hayati önem taşıyor.Şirketler, yapay zeka temsilcilerini geliştirmek ve kapsamlı şekilde test etmek için güvenli ortamlar oluşturmalı. Korumalı ortamlar (sandbox) aracılığıyla ekipler, gerçekçi verilerle temsilci davranışlarını izole şekilde test edebilirler. Bu süreçte temsilcilere verilen açık talimatlar ve sınırlar sayesinde karar alma süreçleri kontrol altında tutulur. Talimatlara uyum testleri, temsilcinin istenmeyen davranışlarını önceden tespit etmeye yardımcı olur.Temsilciler devreye alındığında, yerleşik güvenlik önlemleri ve sürekli izleme mekanizmaları kritik rol oynar. Bu kontroller, temsilcilerin belirlenen sınırlar içinde kalmasını sağlar, zararlı eylemleri önler ve şüpheli davranışları tespit eder. Ayrıca, yönetişim katmanındaki gözlemlenebilirlik kabiliyetleri, sınıflandırmalar veya politikalar beklenmeyen sonuçlara yol açarsa sorunların çözümünü de kolaylaştırır.İnsan unsuruDijital iş gücünden en etkili şekilde faydalanmanın yolu, bunu insanlar ve yapay zeka temsilcileri arasında bir iş birliği olarak kurgulamaktan geçiyor. Karmaşık senaryolar ortaya çıktığında temsilcilerin görevleri insanlara devredebileceği esnek yapılar oluşturmak da önemli. Bu hibrit yaklaşım, şirketlerin yapay zekayı güvenle devreye almasında önemli rol oynar. Ancak yapay zeka temsilcilerinin güvenilirliği, çalıştıkları verilerin güvenilirliğiyle sınırlıdır. Bu güveni inşa etmek için kuruluşların; işletme genelinde birleşik veri erişimini sağlaması, güçlü geliştirme araçları sunması ve yerleşik güvenlik ile yönetişimi tesis etmesi gerekir. “Agentic AI” çağında başarı, güvenilir, sorumlu ve iş değeri yaratan yapay zeka temsilcileri geliştirme yeteneğiyle ölçülecek.
Bu haber 0 defa okunmuştur.