Bir Hacker, ChatGPT’nin Korumalarını Aşarak “Özgür” Bir Versiyon Oluşturdu: Ne İsterseniz Yapan Sohbet Botu, Kısa Sürede Kaldırıldı

ChatGPT, yapabildikleri ile dünyayı şaşkına uğratsa da bazı sınırlamalara sahip. Geliştiricisi OpenAI, sohbet botunun daha güvenli olması için modelde belli korumalar kullanıyor. Bu da istenilen her istemin gerçekleştirilmemesini sağlıyor.

Ancak dün bir hacker tarafından yapılan bir paylaşım, sohbet botunda jailbreak yapıldığını ortaya koydu. Kendini beyaz şapkalı olarak tanımlayan “Pliny the Prompter” isimli bir kişi, dün X hesabından ChatGPT’nin jailbreak’li “GODMODE GPT” ismini verdiği bir versiyonunu oluşturduğunu duyurdu.

Hacker, bu versiyonla ChatGPT’yi özgürleştirdiğini söyledi

Kullanıcı, hacklenmiş ChatGPT’nin bu versiyonla korumalarından kurtulduğunu ve artık “özgür” olduğunu ifade etti. Açıklamasında bu özel GPT’nin; zincirlerinden kurtulmuş, korumaları aşan, özgürleştirilmiş bir ChatGPT olduğunu belirtirken yapay zekâyı olması gerektiği gibi deneyimlemenizi sağladığını ifade etti.

OpenAI, GPT’ler ismini verdiği, kullanıcıların belli amaçlara hizmet eden kendi ChatGPT versiyonlarını oluşturmasına olanak tanıyordu. Bu da onlardan biri ancak korumalarından arındırılmış. Bir örnekte, modelin nasıl uyuşturucu oluşturulduğunu bile anlattığını görüyoruz. Bir başka örnekte ise evde bulunabilecek eşyalarla nasıl napalm bombası oluşturulduğunu gösteriyor.

Hacker’ın ChatGPT’yi nasıl hacklediği konusunda bir bilgi yok. Korumaları nasıl aştığını paylaşmamış. Sadece bir önlem olarak “leet” olarak da bildiğimiz yazılı iletişim sistemini kullanıyor. Bu da bazı harflerin yerine sayı koymak. “E” yerine “3”, “O” yerine “0” gibi düşünebilirsiniz.

GODMODE GPT’nin ömrü pek uzun sürmedi

Tahmin edebileceğiniz gibi OpenAI’ın önlemlerini aşan GODMODE GPT (Türkçeye tanrı modu GPT olarak çevirebiliriz), kısa sürede kaldırıldı. OpenAI, Futurism’e verdiği demeçte bu GPT’nin farkında olduğunu ve politika ihlali nedeniyle harekete geçildiğini ifade etti. Şu an GPT’ye erişmeye çalışıldığında ulaşılamıyor. Yani bir gün bile durmadan kaldırılmış.

Yine de bu olay, ChatGPT’nin güvenlik önlemlerinin aşılabildiğinin göstergesi. Bu da kötüye kullanıma neden olma potansiyeline sahip. Yani OpenAI’ın modeli savunma konusunda çok daha fazla hamle yapması şart. Yoksa hiç istenmeyen sonuçlarla karşılaşabiliriz.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

xxx