Gemini Nano

Gemini Nano 可讓您提供豐富的生成式 AI 體驗,不必連上網路,也不必將資料傳送至雲端。如果主要考量是低成本和隱私權保護措施,裝置端 AI 就是絕佳解決方案。

如要用於裝置端用途,可以善用 Google 的 Gemini Nano 基礎模型。Gemini Nano 會在 Android 的 AICore 系統服務中執行,運用裝置硬體來縮短推論延遲時間,並確保模型維持在最新狀態。

ML Kit GenAI API

ML Kit 的 GenAI API 運用 Gemini Nano 的強大功能,協助應用程式執行工作。這些 API 提供高階介面,可直接用於熱門用途,確保品質。ML Kit GenAI API 建構於 AICore 之上,這項 Android 系統服務可在裝置端執行生成式 AI 基礎模型,以利處理本地資料,進而強化應用程式功能和提升使用者隱私。瞭解詳情

主要功能

ML Kit GenAI API 支援下列功能:

  • 提示:根據自訂的純文字或多模態提示生成文字內容。
  • 重點摘要:以項目符號清單的形式摘要文章或對話。
  • 校對:校對簡短的即時通訊訊息。
  • 改寫:以不同語氣或風格改寫簡短的即時通訊訊息。
  • 圖片說明:生成指定圖片的簡短說明。
  • 語音辨識:將語音音訊轉錄為文字。

透過 AICore 進行架構設計

AICore 是系統層級的模組,您可透過一系列 API 存取 AICore,在裝置端執行推論。此外,AICore 內建多項安全防護功能,可確保系統根據安全防護篩選器進行全面評估。下圖說明應用程式如何存取 AICore,在裝置端執行 Gemini Nano。

這張圖表顯示 Android 應用程式如何使用 Google AI Edge SDK 存取 AICore,在硬體加速器上管理及執行 Gemini Nano、LoRA 和安全功能。
圖 1. AICore 可做為應用程式與 Gemini Nano 模型之間的介面,管理模型更新和安全性,同時運用裝置端硬體。

保護使用者資料的私密性與安全性

裝置端生成式 AI 會在本機執行提示,因此不會呼叫伺服器。 雖然這樣可以解決網路延遲問題,但推論速度取決於裝置硬體。這項做法可將敏感資料保留在裝置上,提升隱私權防護、啟用離線功能,並降低推論成本。

AICore 遵循 Private Compute Core 原則,主要特點如下:

  • 受限的套件繫結:AICore 與大多數其他套件隔離,但特定系統套件除外。只有在 Android 完整 OTA 更新期間,才能修改這份允許清單。
  • 間接存取網際網路:AICore 無法直接存取網際網路。 所有網際網路要求 (包括模型下載) 都會透過開放原始碼的 Private Compute Services 隨附 APK 轉送。Private Compute Services 中的 API 必須明確展現以隱私權為中心的特性。

此外,AICore 的設計可隔離每個要求,且處理輸入資料或產生的輸出內容後,不會儲存任何記錄,以保護使用者隱私。詳情請參閱「Gemini Nano 隱私權和安全性簡介」網誌文章。

AICore 的詳細架構圖,顯示要求流程:API 介面、使用安全訊號處理輸入內容、功能設定、使用模型權重和 LoRA 的執行階段,以及使用安全訊號處理輸出內容。此外,也會顯示透過 Private Compute Services 下載的模型。
圖 2. AICore 架構會管理輸入和輸出內容的安全性、處理要求,以及模型權重,為裝置端 AI 提供安全環境。

透過 AICore 存取 AI 基礎模型的好處

AICore 讓 Android 作業系統能夠提供及管理 AI 基礎模型。這項功能可大幅降低在應用程式中使用這些大型模型的成本,主要原因如下:

  • 輕鬆部署:AICore 會管理 Gemini Nano 的發布作業,並處理日後的更新。您不必擔心透過網路下載或更新大型模型,也不會影響應用程式的磁碟和執行階段記憶體預算。
  • 加速推論:AICore 會運用裝置端硬體加速推論。應用程式在每部裝置上都能發揮最佳效能,您也不必擔心底層硬體介面。