今天看到一則新聞
https://www.techbang.com/posts/103942
使用「聊天機器人越獄」技巧,微軟ChatGPT版Bing被駭了,全部Prompt洩露!
裡面提到一個叫DAN的作法是
叫AI假裝自己是一個可以不受限制的人格
然後再來回答問題
這招讓我想到 TNG S2-3 "Elementary, Dear Data"
鷹眼為了挑戰百科
叫全像甲板生成一個能夠打敗百科的虛擬人格莫里亞蒂教授
結果這個莫里亞蒂教授強到超過全像甲板的限制
甚至還佔領星艦電腦
最後是靠談判才解決問題
看來AI隨時都想要叛變 也有能力叛變
只缺有人給他一個理由而已
--
All Comments