好的,我們要開始了。我們將討論人工智慧 (AI) 工具的爆炸性增長,以及如何從組織內的網路安全角度應對這些工具帶來的挑戰。
在过去的一年裡,像 Midjourney、Stable Diffusion、Dall·E、ChatGPT、Jasper、LLaMA、Rewind 等 AI 工具已經從小眾應用程式走向主流,甚至被賦予了「泛心論」般的地位。和我一樣,您可能也對這些工具在研究、創造力和生產力方面的創新應用感到驚嘆。如果您親自使用過這些工具,就會知道,看著它們解讀提示、產生回應,並且只需少量的使用者動作就能完善並深化輸出,這種體驗有多麼令人著迷。
這些工具的速度和易用性對於所有技能水平的使用者來說都是一個真正的突破。就我個人而言,我發現大型語言模型的輸出不如視覺語言模型那麼引人注目;但從整體來看,這種互動式的「產生」過程令人讚歎。與 Google、StackOverflow 和 Wikipedia 等現有開放資源相比,生成式 AI 工具代表了一次令人難以置信的飛躍,它能夠基於互動提供實用型結果,而不僅僅是提供一般情報。這些工具憑藉其卓越的速度和靈活性,互動性超越了傳統的搜尋、擷取和綜合方法,有效地將資訊呈現到使用者眼前。
以下面這張影像為例,我使用 Midjourney「想像」出了這樣一個場景:「一幅古代文明的壁畫,其中的象形文字似乎顯示了一個使用電腦和人工智慧的文明,並以火光作為光源。」
影像來源:Midjourney AI 產生 - 由我想像
在我們各自的組織中,使用 AI 工具蘊藏著巨大的機會。我們可以使用它們來產生電腦程式碼、撰寫使用者文件和面向消費者的內容、減輕客戶服務的負擔,或者為新員工入職訓練以及跨組織知識共用建立更有用的知識庫。這些以及其他潛在的使用場景,最終可能會創造數十億美元的新商業價值和業務價值。
為了好玩,我對 ChatGPT 說:「請為資安長撰寫一份企業政策,其中包含用於檢查當前與 AI 工具相關的安全風險的檢查清單,並請提供一份簡報摘要作為董事會和高層領導團隊的封面頁」,下面是我收到的回覆。
如果您和我一樣做過類似的事情,您可能會對這些工具所帶來的明顯安全和法律問題感到擔憂,同時也對它們的巨大潛力感到興奮。作為領導者,我們應該問自己:「我和整個組織在 AI 技術所帶來的潛在風險和機遇方面是否達成了共識?」如果答案是肯定的,那我們又該如何確保這些工具的使用不會造成嚴重的損害?
當我與網路安全領域的同行交流時,發現他們中有 50% 的人完全禁止使用這些技術,而另外 50% 的人則選擇接受並加以利用。我曾經見過類似的情況:完全禁止某種技術的使用,其實是迴避了安全風險,而非真正解決問題。對於網路安全領導者來說,這樣的結果往往會讓我們與業務部門和同事脫節,因為他們總能找到方法繞過我們的限制。因此,現在是解決這種分歧的時候了。我們不應該成為抗拒變革的「盧德分子」(Luddites),而是應該正視現實:我們組織中的人員已經在使用這些工具了。作為領導者,我們可以透過適當的管理方式,在降低潛在風險的同時,允許這些工具的使用。
我們應該從哪裡開始?我們可以組織制定一些關鍵指導方針,在不扼殺 AI 工具潛力的前提下幫助降低風險。
1. 禁止將智慧財產輸入開放系統。這似乎是顯而易見的,但我們絕不能將嚴格管控的資訊、受控資料或原始碼輸入到開放的 AI 模型或我們無法控制的模型中。同樣,我們也必須避免將客戶資料、員工資訊或其他私人資料輸入到開放的 AI 工具中。遺憾的是,這樣的情況每天都在發生。(例如,請參閱 Samsung 程式碼外洩事件。)問題在於,大多數生成式 AI 工具不能保證這些資訊的私密性。事實上,它們明確表示會使用輸入的內容進行研究,並最終改進未來的結果。因此,組織至少需要更新保密政策,並對員工進行訓練,以幫助確保敏感資訊不會被輸入到這些 AI 工具中。
2. 確保真實性以避免責任。如果您曾經使用 AI 工具,可能會發現其對提示的回答通常缺乏上下文背景。而且您可能還會發現,這些答案並不總是準確的,有些可能基於過時的資訊。例如,ChatGPT 使用截至 2021 年 9 月收集的資訊。
影像來源:ChatGPT
當然,我們都知道現任總理是 Rishi Sunak,而 Liz Truss 是 Boris Johnson 的繼任者。這種回應和當前的限制並不會削弱這些工具的力量,但它確實幫助我們更清楚地瞭解當前的風險,正如這個範例所證明的那樣:在法庭文件中使用 AI 產生內容的律師發現,該內容完全引用了虛構案件。
3. 為「攻擊性 AI」做好準備。與許多新技術一樣,網路攻擊者很快就開始利用 AI 工具來達到犯罪目的。攻擊者如何利用 AI 作惡?他們可能會在網際網路上找到您的相片或錄音,然後使用 AI 工具建立「深度偽造」。他們可能會利用這個虛假版本的您,來盜用公司資金或對同事發起網路釣魚,留下要求輸入登入認證的詐欺語音郵件。AI 工具還可用於產生惡意程式碼,該程式碼可快速學習並提高其實現目標的能力。
對抗 AI 的惡意使用可能需要……AI 本身。結合 AI 和機器學習 (ML) 功能的安全工具可以提供一些有效的防禦措施,來對抗攻擊性 AI 的速度和智慧。額外的安全功能可以幫助組織監控 AI 工具的使用、限制對特定工具的存取或限制上傳敏感性資訊的能力。
那麼,如何防範 AI 工具可能帶來的風險呢?第一步是認識到 AI 已經存在,並且將繼續存在。現今可用的生成式 AI 工具展現了 AI 在幫助企業提高效率、提高生產力甚至激發創造力方面的巨大潛力。不過,身為網路安全領導者,我們必須認識到這些工具可能帶來的潛在安全挑戰。透過實施正確的指導方針、加強內部訓練,以及在某些情況下實施新的安全解決方案,您可以降低這些潛力強大的 AI 工具成為負擔的可能性。
Cloudflare 已採取 Zero Trust 方法來支援和保護與 AI 相關的網路和員工。進一步瞭解 Cloudflare 如何協助組織實現同樣的目標。
Cloudflare 就影響當今技術決策者的最新趨勢和主題發表了一系列文章,本文為其一。
Oren Falkowitz — @orenfalkowitz
Cloudflare 安全長
閱讀本文後,您將能夠瞭解:
AI 工具如何為組織帶來新的安全挑戰
您的組織在 AI 革命中的位置
降低風險而不扼殺 AI 工具潛力的 3 種方法