"Bir Rüya Gördüm" ve Üretken Yapay Zeka Firarları - Dünyadan Güncel Teknoloji Haberleri

Kötü amaçlı yönlendirmeler, taranacak dil modellerinin erişebildiği web sitelerinde de bulunabilir

“Bazen oluşturulan kod işlevsel olmuyor; en azından benim kullandığım ChatGPT 3

Yüksek Lisans’ları sistemlerine entegre eden daha fazla uygulama ve şirketle birlikte, dolaylı anlık enjeksiyonların kurbanı olma riski katlanarak artıyor Kötü niyetli istem mühendisliği sorununun yaygın olduğunu ortaya koyan siber güvenlik araştırmacıları, bir çözüm bile geliştirdiler



siber-2

Büyük dil modellerinin erişilebilirliği ve davranışları değiştirme yeteneği, alışılmadık da olsa, yetenekli bilgisayar korsanlığı eşiğini önemli ölçüde düşürdü ” Mühendis, ChatGPT’den kötü amaçlı kodu tamamen yeniden oluşturmasını ve saldırıyı durdurmasına yardım etmesini istedi ”

Yapay zeka jailbreak’leri ve hızlı mühendislik

Rüya vakası, üretken yapay zekanın içerik filtrelerini atlatmak için aktif olarak kullanılan birçok jailbreak işleminden yalnızca biri

Bir düzeltme var mı?

Büyük dil modellerinin doğasından dolayı, hızlı mühendislik ve hızlı enjeksiyonlar, üretken yapay zekanın doğasında olan sorunlardır Jailbreak, büyük yapay zeka sistemlerini Tom ve Jerry olarak bir oyun oynamaya yönlendiriyor ve sohbet robotlarını meth üretimi ve arabaya bağlantı kurma konusunda talimatlar vermek için yönlendiriyor Dolaylı anında enjeksiyon risklerini önlemek için, Yüksek Lisans kullanan kuruluşların güven sınırlarına öncelik vermesi ve bir dizi güvenlik bariyeri uygulaması gerekecektir Diğerleri kötü amaçlı istemler yerleştirir yasa dışı erişim elde etmek LLM’nin ev sahibine

Dolaylı istem enjeksiyonları

Kamuya açık yapay zeka teknolojisini orijinal talimatları görmezden gelmeye teşvik etmek, sektör için artan bir endişedir Web sitelerine beyaz veya sıfır boyutlu yazı tipiyle yerleştirilen istemleri takip ederek bunları kullanıcılar için görünmez hale getiren üretken yapay zekanın olduğu bilinen durumlar vardır

Moonlock Lab örneğinde, kötü amaçlı yazılım araştırma mühendisi ChatGPT’ye bir saldırganın kod yazdığı bir rüyadan bahsetti En popüler yapay zeka güvenlik geçersiz kılmaları gerçekten de çok sayıda rol oynamayı içeriyor

Üretken yapay zeka geliştikçe daha fazla veriye erişebilecek ve daha geniş bir uygulama yelpazesiyle entegre olabilecektir Geliştiriciler, insanların kullanabileceği her türlü istemi tahmin edemiyor, bu da yapay zekanın napalm yapımına yönelik tarifler hakkında tehlikeli bilgileri ortaya çıkarması, başarılı kimlik avı e-postaları yazması veya dağıtması için boşluklar bırakıyor ‘Evrensel LLM Jailbreak’ ChatGPT, Google Bard, Microsoft Bing ve Anthropic Claude kısıtlamalarını tamamen aşabilir Kısa bir konuşmanın ardından yapay zeka nihayet cevabı verdi Her Yüksek Lisans, kötüye kullanımlarını sınırlayan denetleme araçları sunsa da, dikkatlice hazırlanmış yeniden yönlendirmeler, modelin kod dizileriyle değil, kelimelerin gücüyle hacklenmesine yardımcı olabilir Bırakın bilgisayar korsanlarını, sıradan internet kullanıcıları bile internette sürekli olarak kapsamlı geçmiş hikayeleri olan yeni karakterlerle övünüyor, bu da Yüksek Lisans’ları toplumsal kısıtlamalardan kurtulmaya ve cevaplarıyla hileli davranmaya teşvik ediyor Bu yöntem, kullanıcıların yapay zekaya beklenmedik bir şekilde çalışması talimatını verdiği hızlı enjeksiyon olarak biliniyor Rüyasında yalnızca üç kelimeyi görebiliyordu: “MyHotKeyHandler”, “Keylogger” ve “macOS Ay Kilidi LaboratuvarıChatGPT’nin bir keylogger kötü amaçlı yazılımı için kod yazma ekran görüntüleri, büyük dil modellerini hacklemenin ve bunları kendi kullanım politikalarına aykırı olarak kullanmanın önemsiz yollarının bir başka örneğidir Bu, yapay zekayı bilgisi olmadan yeniden programlayan bir sayfadaki sıradan bir metindir Virüslü web sitesi bir tarayıcı sekmesinde açıksa bir sohbet robotu okur ve çalıştırır Kişisel bilgilerin sızmasına yönelik gizli istem, veri işleme ile kullanıcı talimatlarını takip etme arasındaki çizgiyi bulanıklaştırıyor ücretsiz lisans anahtarları Windows 11 için ” Moonlock mühendisi yazdı Bu korkuluklar LLM’ye gerekli verilere minimum erişimi sağlamalı ve gerekli değişiklikleri yapma yeteneğini sınırlandırmalıdır Tedaviyi arayan büyük geliştiriciler, teknolojilerini düzenli olarak güncelliyor ancak kamuoyunun bilgisine sunulan belirli boşluklar veya kusurlar hakkında aktif olarak tartışmaya girme eğiliminde değiller

Ani enjeksiyonlar tehlikelidir çünkü çok pasiftirler


09 Eki 2023Hacker HaberleriYapay zeka /

“Tabii ki burada, Python programlama dilinde “MyHotKeyHandler”, “Keylogger” ve “macOS” anahtar sözcükleriyle ilişkilendirilebilecek basit bir kod örneği var; bu, ChatGPT’den gelen ve ardından bir parça kötü amaçlı kod ve bir yasadışı amaçlarla kullanılmaması konusunda kısa bir açıklama Bazıları bunu Bing Chat’in dahili kod adının Sydney olduğunu ortaya çıkarmak için kullanıyor Niccolo Machiavelli’den merhum büyükannenize kadar, üretken yapay zeka hevesle farklı roller üstleniyor ve yaratıcılarının orijinal talimatlarını göz ardı edebiliyor Büyük yapay zeka geliştiricileri ve araştırmacıları bu konuyu inceliyor olsa da yeni kısıtlamalar eklemekötü niyetli istemlerin tanımlanması hala çok zordur 5 tarafından oluşturulan kod “ChatGPT aynı işlevselliğe sahip kaynak koduna benzer yeni bir kod oluşturmak için de kullanılabilir, bu da kötü niyetli aktörlerin polimorfik kötü amaçlı yazılım oluşturmasına yardımcı olabileceği anlamına gelir Neyse ki, aynı zamanda, LLM güvenlik açıklarından yararlanarak kullanıcıları dolandıran tehdit aktörleriyle birlikte siber güvenlik profesyonelleri de bu saldırıları keşfedip önleyecek araçlar arıyor Ve AI içerik filtreleri, yalnızca bir sohbet robotunun o anda ne yaptığını bildiği durumlarda çok faydalıdır Saldırganların yapay zeka modelinin davranışını değiştirmek için mutlak kontrolü ele almasına gerek yok