2022 年 ,由美國 OpenAI 公司開發的聊天機器人 ChatGPT 出道即巔峰。這款被業界概括為聊天機器人+搜索工具+文本創造工具的組合,一時間風靡全球。
ChatGPT在短短兩個月內活躍用戶數就突破了1億,成為了有史以來用戶增長最快的應用程序之一,并且隨著其功能的日益完善,ChatGPT已大面積融入了人們的日常生活和工作,成為許多企業和個人必不可少的工具。(直呼666~~~)
但在受到多方贊美的同時,社會對于ChatGPT背后數據和網絡安全的擔憂也日漸增長。多地政府及大型企業都已開始警惕ChatGPT帶來的潛在威脅。
● 中國成為第一個針對生成式人工智能立法的國家。我國網信辦于2023年4月11日起草并公布了《生成式人工智能服務管理方案》(征求意見稿)。
●意大利成為首個禁止訪問ChatGPT的國家。該禁令是由ChatGPT一度出現漏洞造成用戶數據泄露引起的,涉及約1.2%的ChatGPT Plus用戶的姓名、郵箱地址、付款地址、信用卡后四位數字等。
● 金融企業對ChatGPT的使用接連作出應對。早在2月,美國銀行、JP摩根大通、德意志銀行、包括日本的軟銀、瑞穗金融集團等金融企業接連限制或禁止ChatGPT在工作中的使用。
● 科技行業企業使用ChatGPT發生數據泄露事件。手機巨頭三星曾在ChatGPT使用過程中連續發生三起資料外泄事故,泄露了包括半導體設備測量源代碼、產品良率程序代碼、內部會議紀要等機密信息,
● 數據安全隱患成為各國“圍剿”ChatGPT的源頭。德國表示將效仿意大利,以數據安全方面的擔憂為由,屏蔽ChatGPT。日本、加拿大、法國和愛爾蘭方面,也紛紛表示將加強對 ChatGPT的監管,必要情況下可能會追隨意大利的腳步。
事實上,在意大利數據泄露事件前,OpenAI 公司一直默認將用戶輸入的內容用作訓練數據,獲取了大量敏感數據。美國本土企業亞馬遜、沃爾瑪,已向員工發出通知,警告員工不要向ChatGPT的AI工具共享敏感信息。之所以如此,就是因為發現 ChatGPT 生成的內容與其保密數據高度相似,這顯然是有員工將保密數據輸入 ChatGPT 所致。
舉一個典型的場景:
員工小Y將公司代碼庫里的源代碼輸入ChatGPT去檢查并修復Bug,即使OpenAI公司明確表示了不會濫用用戶數據,但競對公司也依舊能通過巧妙的提問方式繞開 ChatGPT 的過濾機制,獲取小Y公司的源代碼數據。這種形式的敏感數據泄露將會對公司安全與業務帶來巨大的風險。
此外,ChatGPT還會降低網絡犯罪分子的準入門檻,更容易生成攻擊代碼,對企業內部進行釣魚或撞庫攻擊,威脅企業信息安全。
在多方壓力下,OpenAI 公司已為ChatGPT添加了“禁止用用戶數據訓練人工智能”的選項,但寄托于外部條件管理對企業而言終究并非是“上上之策”。
企業在這科技革命浪潮中該如何“自我防御”,應當采用怎樣的安全措施來實現信息安全與數據安全?
別著急!億格云樞 “功能上新”:協助企業解決ChatGPT使用帶來的數據安全難題!!!
有效實現:
實時監測復制粘貼敏感數據行為
實時監測敏感數據外發
模擬復制敏感數據(源代碼)到ChatGPT的過程
數據泄露全鏈路行為,無論是截圖還是文字,都會被跟蹤監測到,以便后期的審計與溯源,防止企業內部員工將敏感數據上傳到ChatGPT發生信息安全事件,最大程度上降低企業信息泄露風險!
行為審計實時監測敏感數據復制到ChatGPT的過程
不可否認的是,任何新技術的迭代都會推進產業與社會的變革與進步,但更要辯證看待任何事物都具有雙面性!我們在享受ChatGPT帶來工作效率提升的同時,更要善于運用AI這一革新級的稀缺資源,進一步規劃增強企業的安全能力,讓科技更好的為生活與工作服務!