那么企業該如何防止ChatGPT泄密呢?一位網絡信息安全專業人士告訴搜狐科技,企業用戶訪問后,ChatGPT確實有能力從對話信息中獲取數據并添加至訓練庫,ChatGPT究竟會不會這么做不得而知,但至少目前還沒有做觸碰底線的事。該人士指出,造成數據泄露有以下幾方面原因:
1. 不管是什么規模的公司一定都是有數據保護機制的,但不同企業的業務重心不同,因此數據保護的重點方向也不同,很可能對新AI技術的防范度不夠;
2. 此外,AI應用普及初期普通員工可能會注意不到向AI提問會造成敏感數據泄漏,非安全從業者大多數安全意識較弱;
3. 對于安全管理人員來講,是管理上的疏忽,未對內部員工進行保密培訓,說明敏感信息特征等,也沒有對員工使用ChatGPT可能會造成的后果做到未雨綢繆。
該人士表示,應對ChatGPT泄密的行為有以下幾種解決方法:
1.對使用ChatGPT類產品進行必要的限制:通過企業設置防火墻、配置訪問規則的方法限制核心部門員工對于ChatGPT類產品的訪問。配置完成后,如果檢測到有訪問該域名的網站,防火墻將進行攔截。此外,企業內部應對員工與ChatGPT類產品對話內容進行限制,成立專管部門來監測員工使用ChatGPT情況;
2.禁止使用API(應用程序編程接口)將ChatGPT接入公司內部知識庫:將ChatGPT接入企業內部知識庫雖可提高內部知識共享能力及對外客戶服務的效率,但仍存在很大的數據外泄風險,所以對于企業內部知識庫要分類管理,公開可訪問的知識庫可接入ChatGPT,涉及機密信息的知識庫則嚴禁接入;
3.設立保密培訓,警示風險:企業應定期組織保密培訓,說明敏感數據的分類和特征,讓普通員工意識到泄露數據的嚴重性,同時提高管理者對于信息安全的重視程度,從而設立更完整的監管機制;
4.企業可建立內部的ChatGPT模型,從根源上解決數據訪問隱患的問題:這樣一來,數據訪問的記錄及產生的數據都會在企業自己的內網服務器中,同時需要定期對軟件程序進行更新,針對系統漏洞及時修復,從而防止外部侵入者訪問;
信息數據安全問題伴隨著AI應用蔓延發展而愈演愈烈,數據收集、儲存、使用等過程都需要透明、完善的監管機制來保駕護航。企業將如何在利用ChatGPT這把“雙刃劍”的同時化解安全隱私難題,值得業界共同關注。