درخواست هوش مصنوعی هیبریدی با Firebase AI Logic، درخواست هوش مصنوعی ترکیبی با Firebase AI Logic، درخواست هوش مصنوعی ترکیبی با Firebase AI Logic، درخواست هوش مصنوعی ترکیبی با Firebase AI Logic

تاریخ انتشار: 20 می 2025

برای برآوردن نیازهای کاربران خود، از هر پلتفرم یا سخت افزاری که استفاده می‌کنند، می‌توانید با Firebase AI Logic برای Prompt API داخلی، یک بازگشت به فضای ابری تنظیم کنید.

یک تجربه هوش مصنوعی ترکیبی بسازید

هوش مصنوعی داخلی دارای چندین مزیت است که مهمترین آنها عبارتند از:

  • پردازش محلی داده های حساس: اگر با داده های حساس کار می کنید، می توانید ویژگی های هوش مصنوعی را با رمزگذاری سرتاسر به کاربران ارائه دهید.
  • استفاده از هوش مصنوعی آفلاین: کاربران شما می‌توانند به ویژگی‌های هوش مصنوعی دسترسی داشته باشند، حتی زمانی که آفلاین هستند یا اتصال قطع شده است.

در حالی که این مزایا برای برنامه‌های ابری اعمال نمی‌شود، می‌توانید تجربه یکپارچه‌ای را برای کسانی که نمی‌توانند به هوش مصنوعی داخلی دسترسی داشته باشند، تضمین کنید.

با Firebase شروع کنید
  1. یک پروژه Firebase ایجاد کنید و برنامه وب خود را ثبت کنید.
  2. برای ادامه راه‌اندازی برنامه وب، اسناد Firebase JavaScript SDK را بخوانید.

پروژه‌های Firebase یک پروژه Google Cloud با پیکربندی‌ها و سرویس‌های خاص Firebase ایجاد می‌کنند. درباره Google Cloud و Firebase بیشتر بیاموزید.

SDK را نصب کنید

این گردش کار از npm استفاده می‌کند و به باندلرهای ماژول یا ابزارهای چارچوب جاوا اسکریپت نیاز دارد. Firebase AI Logic برای کار با باندلرهای ماژول برای حذف کدهای استفاده نشده و کاهش اندازه SDK بهینه شده است.

npm install firebase

پس از نصب، Firebase را در برنامه خود مقداردهی کنید .

از Firebase AI Logic استفاده کنید

هنگامی که Firebase نصب و مقداردهی اولیه شد، API توسعه دهنده Gemini یا Vertex AI Gemini API را انتخاب کنید، سپس مقداردهی اولیه کنید و یک نمونه ایجاد کنید .

پس از مقداردهی اولیه، می توانید مدل را با ورودی متن یا چند وجهی درخواست کنید.

پیام های متنی

می توانید از متن ساده برای دستورالعمل های خود به مدل استفاده کنید. به عنوان مثال، می توانید از مدل بخواهید که یک جوک به شما بگوید.

شما چند گزینه برای نحوه مسیریابی درخواست دارید:

  • با تنظیم mode روی 'prefer_on_device' در تابع getGenerativeModel() از هوش مصنوعی داخلی به طور پیش‌فرض استفاده کنید. اگر مدل داخلی در دسترس نباشد، درخواست برای استفاده از مدل ابری (اگر آنلاین هستید) یکپارچه بازمی گردد.

  • زمانی که آنلاین هستید با تنظیم mode بر روی 'prefer_in_cloud' در تابع getGenerativeModel() به طور پیش فرض از مدل ابری استفاده کنید. اگر آفلاین هستید، درخواست به‌طور یکپارچه برای استفاده از هوش مصنوعی داخلی در صورت موجود بودن بازمی‌گردد.

// Initialize the Google AI service.
const googleAI = getAI(firebaseApp);

// Create a `GenerativeModel` instance with a model that supports your use case.
const model = getGenerativeModel(googleAI, { mode: 'prefer_on_device' });

const prompt = 'Tell me a joke';

const result = await model.generateContentStream(prompt);

for await (const chunk of result.stream) {
  const chunkText = chunk.text();
  console.log(chunkText);
}
console.log('Complete response', await result.response);
درخواست های چندوجهی

شما همچنین می توانید با تصویر یا صدا، علاوه بر متن، درخواست کنید. می توانید به مدل بگویید محتویات یک تصویر را توصیف کند یا یک فایل صوتی را رونویسی کند.

تصاویر باید به عنوان یک رشته کدگذاری شده با base64 به عنوان یک شی Firebase FileDataPart ارسال شوند، که می توانید با تابع کمکی fileToGenerativePart() انجام دهید.

// Converts a File object to a `FileDataPart` object.
// https://firebase.google.com/docs/reference/js/vertexai.filedatapart
async function fileToGenerativePart(file) {
    const base64EncodedDataPromise = new Promise((resolve) => {
      const reader = new FileReader();
      reader.onload = () => resolve(reader.result.split(',')[1]);
      reader.readAsDataURL(file);
    });

    return {
      inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
    };
  }

  const fileInputEl = document.querySelector('input[type=file]');

  fileInputEl.addEventListener('change', async () => {
    const prompt = 'Describe the contents of this image.';

    const imagePart = await fileToGenerativePart(fileInputEl.files[0]);

    // To generate text output, call generateContent with the text and image
    const result = await model.generateContentStream([prompt, imagePart]);

    for await (const chunk of result.stream) {
      const chunkText = chunk.text();
      console.log(chunkText);
    }
    console.log(Complete response: ', await result.response);
  });
نسخه ی نمایشی

از نسخه ی نمایشی Firebase AI Logic در دستگاه ها و مرورگرهای مختلف دیدن کنید. می‌توانید ببینید که چگونه پاسخ مدل از مدل هوش مصنوعی داخلی یا ابر می‌آید.

هنگامی که از سخت افزار پشتیبانی شده در Chrome استفاده می شود، نسخه آزمایشی از Prompt API و Gemini Nano استفاده می کند. تنها 3 درخواست برای سند اصلی، فایل جاوا اسکریپت و فایل CSS وجود دارد.

منطق هوش مصنوعی Firebase در Chrome اجرا می‌شود و از APIهای هوش مصنوعی داخلی استفاده می‌کند.

هنگامی که در مرورگر دیگری یا سیستم عاملی بدون پشتیبانی از هوش مصنوعی داخلی هستید، یک درخواست اضافی به نقطه پایانی Firebase، https://firebasevertexai.googleapis.com ارسال می شود.

منطق هوش مصنوعی Firebase در سافاری اجرا می شود و درخواستی را به سرورهای Firebase می دهد.

شرکت کنید و بازخورد خود را به اشتراک بگذارید

Firebase AI Logic می تواند گزینه ای عالی برای ادغام قابلیت های هوش مصنوعی در برنامه های وب شما باشد. زمانی که Prompt API در دسترس نیست، با ارائه بازگشتی به ابر، SDK دسترسی گسترده‌تر و قابلیت اطمینان ویژگی‌های هوش مصنوعی را تضمین می‌کند.

به یاد داشته باشید که برنامه های کاربردی ابری انتظارات جدیدی را برای حفظ حریم خصوصی و عملکرد ایجاد می کنند، بنابراین مهم است که به کاربران خود اطلاع دهید که داده های آنها در کجا پردازش می شود.