什麼是人工智慧 (AI)?

人工智慧 (AI) 是指電腦模仿或複製人類認知的能力。

學習目標

閱讀本文後,您將能夠:

  • 定義人工智慧 (AI)
  • 區分機器學習、深度學習和產生式 AI
  • 說明 AI 的用途

相關內容


想要繼續瞭解嗎?

訂閱 TheNET,這是 Cloudflare 每月對網際網路上最流行見解的總結!

請參閱 Cloudflare 的隱私權政策,了解我們如何收集和處理您的個人資料。

複製文章連結

什麼是人工智慧 (AI)?

人工智慧 (AI) 是電腦等建構機器模仿或複製人類認知工作的能力。具有人工智慧的機器可以進行計算、分析資料以進行預測、識別各種類型的標誌和符號、與人類交談以及幫助執行任務,而無需手動輸入。

例如,傳統汽車僅回應人類駕駛員的輸入:當駕駛員看到交通信號燈變綠並踩下油門時,它會加速;當駕駛員看到停車標誌並踩下煞車踏板時,它會在停車標誌處停下來。配備 AI 的汽車或許能夠自行識別停車標誌和交通信號燈,並在無需駕駛員輸入的情況下停止或加速。

AI 的根源在於電腦的誕生,數學家 Alan Turing 是最早描述人工智慧機器如何運作的人之一。從那時起建置的所有電腦在某種程度上都具有人工智慧,因為它們能夠執行以前只能由人類完成的運算。然而,近幾十年來,電腦的能力、速度和儲存容量迅速擴大。如今,「AI」一詞指的是電腦可以執行的更高階的認知工作。

AI 如何運作?

大多數 AI 都是建立在對大數據集的分析之上的,這些資料集包含太多資訊,任何人都無法在合理的時間內自行分析。建立 AI 模型是為了識別這些資料集中的模式,然後使用這些模式來預測未來或其他模式。AI 模型使用概率和統計分析來做到這一點。一些 AI 模型足以模仿人類行為。

從理論上講,AI 有一天可能會超越這一點,能夠「思考」原創想法。從某些方面來說,確定何時實現這一點與其說是技術問題,不如說是一個哲學問題。

什麼是機器學習?

機器學習是 AI 的一個分支,它是指向程式提供結構化或標記資料,以訓練程式在沒有人工幹預的情況下識別該資料的做法。例如,用於在打開的冰箱的相片中查找番茄醬瓶的機器學習模型可能一開始無法識別任何調味品,更不用說番茄醬了。然後,人們會向其中輸入數百萬張不同冰箱中番茄醬瓶的影像,並告知它每個影像代表一個番茄醬瓶。最終,即使在它以前從未見過的相片中,它也能夠自動識別番茄醬瓶。

機器學習依賴於稱為演算法的預先定義過程。根據演算法的設定方式,機器學習程式的「學習」方式會略有不同。

機器學習也依賴對大型資料集的存取。如果只向機器學習程式展示三到四張番茄醬照片,那麼該程式可以說肯定無法始終一致地準確識別番茄醬瓶,或者將認為不存在番茄醬的相片中存在番茄醬。模型獲得的資料越多,它就越準確。

如今,多種軟體和技術解決方案都使用機器學習。從使用機器學習偵測詐欺和識別機器人的安全解決方案,到使用機器學習推薦要關注的內容或帳戶的社交媒體平台,機器學習已被證明是一種非常有用的開發工具。

什麼是深度學習?

正如機器學習是 AI 的一種,深度學習也是機器學習的一種。深度學習模型能夠使用概率分析來識別原始資料的差異。深度學習模型有可能僅需要打開的冰箱的相片,就能瞭解什麼是番茄醬瓶,以及如何將其與其他調味品區分開來,而無需被告知什麼是番茄醬瓶。

與其他類型的機器學習一樣,深度學習需要存取大型資料集。即使是進階的深度學習模型也可能需要分析數百萬張打開的冰箱的相片才能識別出番茄醬。

什麼是產生式 AI?

產生式 AI 是一種可以建立內容的 AI 模型,包括文字、影像、音訊和影片。例如,產生式 AI 模型可以接收一張空冰箱的照片,並根據過去輸入的相片填充可能的內容。雖然這樣的模型產生的內容可以被認為是「新的」,但它是基於先前輸入模型的內容。

產生式 AI 工具越來越受歡迎。尤其是大型語言模型 (LLM) ChatGPT以及影像產生器 DALL-E 和 Midjourney 吸引了公眾的想像和商界的注意。其他流行的產生式 AI 工具包括 Bard、Bing Chat 和 Llama。

人們如何使用 AI?

AI 的用例仍在擴展。下面是一些已經在探索的現實世界應用:

  • 聊天機器人基於 AI 的程式可以產生聽起來像人類的答案,並且通常可以真實地回應人類使用者不可預測的輸入。換句話說,一些 AI 模型可以自然地交談,從而增強了聊天機器人的能力。
  • 自動駕駛汽車:AI 的預測能力使其能夠對現實世界的路況做出反應,即使這些路況以前從未遇到過。
  • 推薦演算法:例如串流媒體平台和社交媒體應用程式使用的推薦演算法。
  • 醫療保健:AI 可用於幫助診斷健康狀況,以及完成醫療保健領域的其他重複工作。
  • 金融:許多金融公司已經使用 AI 來嘗試識別市場趨勢或預測哪些股票將表現良好。
  • 編碼: LLM 能夠快速產生新功能的程式碼、建立文件以及掃描現有程式碼以查找漏洞。
  • 建立內容:產生式 AI 模型可以產生文字、影像、影片等。
  • 建立報告:剖析和匯總資料是一項重複性工作,通常可以使用機器學習實現自動化。
  • 實驗用途:人們仍在探索 AI 的更多用途,隨著 AI 能力的不斷增長,用例將繼續擴大。

AI 可能為企業帶來哪些風險?

安全風險

資料外洩:AI 服務使用輸入來進一步訓練其模型;它們並非設計為資料的安全保存庫。但許多人使用 LLM 的方式會增加資料暴露的風險,包括用來處理機密資訊或封閉來源的程式碼。在這些 LLM 進行進一步回應後,可能能夠重現或仿造這類資料。

失去對資料的控制:一旦上傳到 LLM,資料就會脫離控制範圍,使用者可能無法瞭解所提供的輸入發生了什麼。例如,如果一位麵包師將他們新的佛卡夏秘方放入 LLM,並要求其為他們的麵包店網站撰寫一篇引人注目的描述,他們或許能夠得到這樣一篇描述,但麵包師的配方不再是秘密,因為它可能暴露給 LLM 的其他使用者或 LLM 的營運者。

違反監管規定:使用外部 AI 工具通常會帶來一定程度的資料風險。因此,AI 可能會使組織不遵守 GDPR 等監管框架。

其他風險

幻覺:生成式 AI 工具可能會編造資訊來產生回應——這種現象的技術詞彙是「幻覺」。如果企業不加鑒別地將此類資訊納入其內容中,則可能會損害其品牌。

過度依賴 AI 進行決策:由於 AI 模型提供的資訊並非始終可靠,因此在決策過程中過度使用 AI 可能會導致決策對業務產生負面影響。

AI 為消費者帶來了哪些風險?

  • 喪失隱私權和個人資料外洩:在公開的 LLM 中輸入洩漏性資料或機密資料的人可能會發現,他們的資料被相同工具的其他使用者重複使用。
  • AI 應用程式中的安全缺陷:與任何應用程式一樣,AI 工具可能存在導致個人資料外洩的安全漏洞。
  • 幻覺:如上所述,產生式 AI 工具經常編造資訊,以便對使用者提示建立聽起來合理的回應。這可能會導致錯誤資訊的傳播。
  • 網路釣魚或社交工程攻擊中的深度偽造:AI 工具可以產生對人的影像、聲音或寫作風格的令人信服的模仿。這可用於社交工程攻擊,以冒充已知個人並誘騙受害者交出金錢或資料。

Cloudflare 如何協助降低 AI 的風險?

Cloudflare 資料丟失預防 (DLP) 可以幫助組織瞭解員工如何使用 AI。DLP 可以限制上傳、複製和貼上以及鍵盤輸入,以防止機密資料離開安全環境。深入瞭解 DLP 的運作方式。

Cloudflare 如何協助開發人員建立新的 AI 模型?

Cloudflare for AI 讓開發人員能夠在 Cloudflare 全球網路上建置和部署新的 AI 應用程式。深入瞭解 Cloudflare for AI