تاریخ انتشار: 20 می 2025
برای برآوردن نیازهای کاربران خود، از هر پلتفرم یا سخت افزاری که استفاده میکنند، میتوانید با Firebase AI Logic برای Prompt API داخلی، یک بازگشت به فضای ابری تنظیم کنید.
هوش مصنوعی داخلی دارای چندین مزیت است که مهمترین آنها عبارتند از:
- پردازش محلی داده های حساس: اگر با داده های حساس کار می کنید، می توانید ویژگی های هوش مصنوعی را با رمزگذاری سرتاسر به کاربران ارائه دهید.
- استفاده از هوش مصنوعی آفلاین: کاربران شما میتوانند به ویژگیهای هوش مصنوعی دسترسی داشته باشند، حتی زمانی که آفلاین هستند یا اتصال قطع شده است.
در حالی که این مزایا برای برنامههای ابری اعمال نمیشود، میتوانید تجربه یکپارچهای را برای کسانی که نمیتوانند به هوش مصنوعی داخلی دسترسی داشته باشند، تضمین کنید.
- یک پروژه Firebase ایجاد کنید و برنامه وب خود را ثبت کنید.
- برای ادامه راهاندازی برنامه وب، اسناد Firebase JavaScript SDK را بخوانید.
پروژههای Firebase یک پروژه Google Cloud با پیکربندیها و سرویسهای خاص Firebase ایجاد میکنند. درباره Google Cloud و Firebase بیشتر بیاموزید.
این گردش کار از npm استفاده میکند و به باندلرهای ماژول یا ابزارهای چارچوب جاوا اسکریپت نیاز دارد. Firebase AI Logic برای کار با باندلرهای ماژول برای حذف کدهای استفاده نشده و کاهش اندازه SDK بهینه شده است.
npm install firebase
پس از نصب، Firebase را در برنامه خود مقداردهی کنید .
هنگامی که Firebase نصب و مقداردهی اولیه شد، API توسعه دهنده Gemini یا Vertex AI Gemini API را انتخاب کنید، سپس مقداردهی اولیه کنید و یک نمونه ایجاد کنید .
پس از مقداردهی اولیه، می توانید مدل را با ورودی متن یا چند وجهی درخواست کنید.
می توانید از متن ساده برای دستورالعمل های خود به مدل استفاده کنید. به عنوان مثال، می توانید از مدل بخواهید که یک جوک به شما بگوید.
شما چند گزینه برای نحوه مسیریابی درخواست دارید:
با تنظیم
mode
روی'prefer_on_device'
در تابعgetGenerativeModel()
از هوش مصنوعی داخلی به طور پیشفرض استفاده کنید. اگر مدل داخلی در دسترس نباشد، درخواست برای استفاده از مدل ابری (اگر آنلاین هستید) یکپارچه بازمی گردد.زمانی که آنلاین هستید با تنظیم
mode
بر روی'prefer_in_cloud'
در تابعgetGenerativeModel()
به طور پیش فرض از مدل ابری استفاده کنید. اگر آفلاین هستید، درخواست بهطور یکپارچه برای استفاده از هوش مصنوعی داخلی در صورت موجود بودن بازمیگردد.
// Initialize the Google AI service.
const googleAI = getAI(firebaseApp);
// Create a `GenerativeModel` instance with a model that supports your use case.
const model = getGenerativeModel(googleAI, { mode: 'prefer_on_device' });
const prompt = 'Tell me a joke';
const result = await model.generateContentStream(prompt);
for await (const chunk of result.stream) {
const chunkText = chunk.text();
console.log(chunkText);
}
console.log('Complete response', await result.response);
شما همچنین می توانید با تصویر یا صدا، علاوه بر متن، درخواست کنید. می توانید به مدل بگویید محتویات یک تصویر را توصیف کند یا یک فایل صوتی را رونویسی کند.
تصاویر باید به عنوان یک رشته کدگذاری شده با base64 به عنوان یک شی Firebase FileDataPart
ارسال شوند، که می توانید با تابع کمکی fileToGenerativePart()
انجام دهید.
// Converts a File object to a `FileDataPart` object.
// https://firebase.google.com/docs/reference/js/vertexai.filedatapart
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onload = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
const fileInputEl = document.querySelector('input[type=file]');
fileInputEl.addEventListener('change', async () => {
const prompt = 'Describe the contents of this image.';
const imagePart = await fileToGenerativePart(fileInputEl.files[0]);
// To generate text output, call generateContent with the text and image
const result = await model.generateContentStream([prompt, imagePart]);
for await (const chunk of result.stream) {
const chunkText = chunk.text();
console.log(chunkText);
}
console.log(Complete response: ', await result.response);
});
از نسخه ی نمایشی Firebase AI Logic در دستگاه ها و مرورگرهای مختلف دیدن کنید. میتوانید ببینید که چگونه پاسخ مدل از مدل هوش مصنوعی داخلی یا ابر میآید.
هنگامی که از سخت افزار پشتیبانی شده در Chrome استفاده می شود، نسخه آزمایشی از Prompt API و Gemini Nano استفاده می کند. تنها 3 درخواست برای سند اصلی، فایل جاوا اسکریپت و فایل CSS وجود دارد.
هنگامی که در مرورگر دیگری یا سیستم عاملی بدون پشتیبانی از هوش مصنوعی داخلی هستید، یک درخواست اضافی به نقطه پایانی Firebase، https://firebasevertexai.googleapis.com
ارسال می شود.
Firebase AI Logic می تواند گزینه ای عالی برای ادغام قابلیت های هوش مصنوعی در برنامه های وب شما باشد. زمانی که Prompt API در دسترس نیست، با ارائه بازگشتی به ابر، SDK دسترسی گستردهتر و قابلیت اطمینان ویژگیهای هوش مصنوعی را تضمین میکند.
به یاد داشته باشید که برنامه های کاربردی ابری انتظارات جدیدی را برای حفظ حریم خصوصی و عملکرد ایجاد می کنند، بنابراین مهم است که به کاربران خود اطلاع دهید که داده های آنها در کجا پردازش می شود.
- برای بازخورد در مورد اجرای Chrome، یک گزارش اشکال یا یک درخواست ویژگی ارسال کنید.
- برای بازخورد درباره Firebase AI Logic، یک گزارش اشکال ارسال کنید.