top of page

amidas #Blog

ChatGPT 和其他 AI 聊天機器人會帶來網絡安全風險嗎?



由OpenAI開發的ChatGPT近日成為了全世界熱話,推出兩個月,用戶人數已達到一億的里程碑,不少企業已開始將ChatGPT納入為工作工具之一,令工作效率增加了不少。ChatGPT大受用家歡迎,令不少企業都加快研發AI聊天機械人,例如Google的「Bard」、百度的「文心一言」等,儼然一場「AI聊天機械人的軍備競賽」。AI技術發展一日千里,活躍使用人數每日增長,ChatGPT等AI聊天機械人漸漸已成為了很多人生活的一部份,但不少人在使用ChatGPT,幫助其工作及生活所需時,都會忽略了ChatGPT等AI聊天機械人的潛在風險。本文整理了使用ChatGPT的潛在網絡安全風險,讓大家在使用這類AI聊天機械人時,亦可以保障自己的網絡安全。


3大ChatGPT和其他AI聊天機械人帶來的網絡安全風險

風險1:私隱數據洩漏風險

研發ChatGPT的OpenAI制定了私隱政策訂明,用戶在使用ChatGPT服務時,ChatGPT會收集用戶的數據,包括與ChatGPT的所有對話內容、與這些內容有關的Cookies、訪問設備的數據、日誌等相關私隱數據。ChatGPT在收集這些數據後,可能會將數據與服務供應商、其他附屬公司等機構分享, 過程中有機會被未獲授權的不法份子攻擊,奪取用戶的數據。此外,由於ChatGPT屬於一種開源技術,現時已有不少植入ChatGPT程式碼的第三方程式,不法份子或會利用這類程式,藉此奪取用戶的私隱數據,例如早前就有發現,其中一個在Github上架的非官方開源ChatGPT應用程式被植入了木馬程式,用戶在安裝這「第三方ChatGPT」時,就會將自己的私隱數據洩漏出去。由此可見,使用ChatGPT或有很高的數據洩漏風險。


風險2:增加網絡攻擊風險

ChatGPT是一個非常聰明的AI聊天機械人,只要你的設定夠準確,它可以回答各種問題。ChatGPT亦可以為你撰寫一份完整的文件;亦可以代入任何你需要的角色,撰寫一封完整的信件。ChatGPT能夠做到的事情非常多,具備生成用於網絡攻擊的劇本、撰寫詐騙電郵、甚至是破解一些加密程度較低的數據能力。一些幾乎沒有編程經驗的人可以利用ChatGPT,編寫出用於間諜、勒索軟件、惡意郵件、或其他不法活動的軟件和電子郵件。雖然ChatGPT無法自行發動網絡攻擊,亦不能處理所有工作,使用ChatGPT可以簡單地生成進行網絡攻擊的文本,讓只具有最基礎知識的黑客,都可以輕鬆進行網絡攻擊,提高了黑客進行網絡攻擊的效率。由此可見,ChatGPT的普及,大大增加了網絡攻擊的風險。


風險3:Prompt Injection攻擊帶來的風險

Prompt Injection攻擊是其中一個會由ChatGPT帶來的網絡安全風險。OpenAI為ChatGPT設定了一系列安全策略,讓ChatGPT無法回答一些不能回答,或可能違法的問題及資訊。Prompt Injection攻擊的意思,是利用ChatGPT的「智能化」,用戶可以繞過ChatGPT被設置的內容安全策略,鑽進ChatGPT中的安全漏洞,作出ChatGPT或其他AI聊天機械人可以接受的假設,引導ChatGPT違反自己的編程限制,回答出原本不被允許的資料。不法份子可以透過Prompt Injection攻擊,濫用ChatGPT等AI聊天機械人,進行網絡攻擊、或作出不當言論。因此Prompt Injection攻擊亦是ChatGPT帶來的一個網絡安全風險問題。


聯絡我們

隨着AI技術對企業的重要性越來越高,ChatGPT可能會帶來的網絡安全風險也只會越來越高,變化越來越多,企業必須保障自己的網絡安全,以免造成損失。Amidas為企業提供一系列保障網絡安全的方案,助企業在善用ChatGPT帶來的好處時,亦保障自己的財產。立即聯絡我們了解更多。

bottom of page