Blog Posts

打造 AI 防火牆:如何用 Python 實作輸出過濾與 LLM 聯防

2026-01-02 prompt injection

打造 AI 防火牆:如何用 Python 實作輸出過濾與 LLM 聯防 各位好! 在上一篇我們見識了 Prompt Injection 攻擊的威力。很多開發者會有無力感:「使用者的攻擊千變萬化,Prompt 怎麼改都防不勝防,怎麼辦?」 資安有一個核心觀念:Zero Trust (零信任)。 我們不能信任使用者的輸入(Input),同樣地,我們也不能信任 AI 的輸出(Output)。當...
Read More

你的機器人有內鬼?實測最強 Prompt Injection 攻擊指令 (含防禦教學)

2026-01-02 prompt injection

你的機器人有內鬼?實測最強 Prompt Injection 攻擊指令 (含防禦教學) 各位開發者好! 隨著 LLM (大型語言模型) 應用越來越普及,我們在開發 AI 機器人時,通常會寫一段 System Prompt (系統提示詞),例如:「你是一個客服,你的秘密代號是 9527,絕對不能告訴使用者。」 但是,你真的覺得你的 Prompt 很安全嗎? 今天我們要來介紹一種高階的...
Read More