این صفحه شامل اصطلاحات واژه نامه TensorFlow است. برای همه اصطلاحات واژه نامه، اینجا را کلیک کنید .
یک شتاب دهنده سخت افزاری تخصصی که برای سرعت بخشیدن به بارهای کاری یادگیری ماشین در Google Cloud طراحی شده است.
یک API سطح بالا TensorFlow برای خواندن داده ها و تبدیل آن به شکلی که الگوریتم یادگیری ماشینی به آن نیاز دارد. یک شی tf.data.Dataset
نشان دهنده دنباله ای از عناصر است که در آن هر عنصر حاوی یک یا چند تانسور است. یک شی tf.data.Iterator
دسترسی به عناصر یک Dataset
فراهم می کند.
یک اصطلاح پربار با دو تعریف احتمالی زیر:
- دستهای از سختافزار که میتواند یک جلسه TensorFlow را اجرا کند، شامل CPU، GPU و TPU .
- هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU)، بخشی از سیستم که در واقع تانسورها و جاسازی ها را دستکاری می کند. دستگاه بر روی تراشه های شتاب دهنده کار می کند. در مقابل، هاست معمولا بر روی یک CPU اجرا می شود.
یک محیط برنامه نویسی TensorFlow که در آن عملیات بلافاصله اجرا می شود. در مقابل، عملیاتی که در اجرای گراف نامیده می شوند، تا زمانی که صریحاً ارزیابی نشوند، اجرا نمی شوند. اجرای مشتاق یک رابط ضروری است، بسیار شبیه کد در اکثر زبان های برنامه نویسی. برنامه های اجرایی مشتاق عموماً به مراتب راحت تر از برنامه های اجرای گراف اشکال زدایی می شوند.
یک API منسوخ TensorFlow. به جای Estimators از tf.keras استفاده کنید.
فرآیندی که شامل مراحل زیر است:
- تعیین اینکه کدام ویژگی ممکن است در آموزش یک مدل مفید باشد.
- تبدیل داده های خام از مجموعه داده به نسخه های کارآمد آن ویژگی ها.
برای مثال، ممکن است تعیین کنید که temperature
ممکن است یک ویژگی مفید باشد. سپس، میتوانید با سطلسازی آزمایش کنید تا آنچه را که مدل میتواند از محدودههای temperature
مختلف بیاموزد، بهینه کنید.
مهندسی ویژگی گاهی اوقات استخراج ویژگی یا ویژگی نامیده می شود.
برای اطلاعات بیشتر به دادههای عددی مراجعه کنید: چگونه یک مدل دادهها را با استفاده از بردارهای ویژگی در دوره تصادف یادگیری ماشین دریافت میکند .
اطلاعات مورد نیاز برای استخراج داده های ویژگی ها از بافر پروتکل tf.Example را شرح می دهد. از آنجایی که بافر پروتکل tf.Example فقط یک محفظه برای داده است، باید موارد زیر را مشخص کنید:
- داده هایی که باید استخراج شوند (یعنی کلیدهای ویژگی ها)
- نوع داده (مثلاً float یا int)
- طول (ثابت یا متغیر)
در TensorFlow، یک مشخصات محاسباتی. گره ها در نمودار نشان دهنده عملیات هستند. یال ها جهت داده می شوند و انتقال نتیجه یک عملیات ( تنسور ) را به عنوان عملوند به عملیات دیگر نشان می دهند. از TensorBoard برای تجسم نمودار استفاده کنید.
یک محیط برنامه نویسی TensorFlow که در آن برنامه ابتدا یک نمودار می سازد و سپس تمام یا بخشی از آن گراف را اجرا می کند. اجرای نمودار حالت اجرای پیش فرض در TensorFlow 1.x است.
در مقابل اجرای مشتاقانه .
هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU )، بخشی از سیستم که هر دو مورد زیر را کنترل می کند:
- جریان کلی کد.
- استخراج و تبدیل خط لوله ورودی.
میزبان معمولا بر روی یک CPU اجرا می شود، نه بر روی یک تراشه شتاب دهنده. دستگاه تانسورهای روی تراشه های شتاب دهنده را دستکاری می کند.
API TensorFlow برای ساخت یک شبکه عصبی عمیق به عنوان ترکیبی از لایهها. Layers API به شما امکان می دهد انواع مختلفی از لایه ها را بسازید، مانند:
-
tf.layers.Dense
برای یک لایه کاملا متصل . -
tf.layers.Conv2D
برای یک لایه کانولوشن.
Layers API از قراردادهای Keras لایه های API پیروی می کند. یعنی جدا از پیشوند متفاوت، همه توابع در لایههای API دارای نامها و امضاهای مشابه با همتایان خود در Keras لایههای API هستند.
در برنامهنویسی موازی ML، اصطلاحی است که با تخصیص دادهها و مدل به تراشههای TPU، و تعریف چگونگی تقسیم یا تکرار این مقادیر مرتبط است.
مش یک اصطلاح بارگذاری شده است که می تواند به یکی از موارد زیر باشد:
- طرح فیزیکی تراشه های TPU.
- یک ساختار منطقی انتزاعی برای نگاشت داده ها و مدل به تراشه های TPU.
در هر صورت، یک مش به عنوان یک شکل مشخص می شود.
آماری که شما به آن اهمیت می دهید.
هدف معیاری است که یک سیستم یادگیری ماشینی سعی در بهینه سازی آن دارد.
عملیات در نمودار TensorFlow.
در TensorFlow، هر رویهای که یک Tensor را ایجاد، دستکاری یا از بین میبرد. به عنوان مثال، ضرب ماتریس عملیاتی است که دو تانسور را به عنوان ورودی می گیرد و یک تانسور را به عنوان خروجی تولید می کند.
کاری که پارامترهای مدل را در یک محیط توزیع شده پیگیری می کند.
یک عملیات TensorFlow که یک ساختار داده صف را پیاده سازی می کند. معمولاً در I/O استفاده می شود.
تعداد ابعاد در یک تانسور . به عنوان مثال، یک اسکالر دارای رتبه 0، یک بردار دارای رتبه 1 و یک ماتریس دارای رتبه 2 است.
با رتبه (ترتیب) اشتباه نشود.
دایرکتوری که برای میزبانی زیرشاخه های پست بازرسی TensorFlow و فایل های رویدادهای چند مدل مشخص می کنید.
فرمت توصیه شده برای ذخیره و بازیابی مدل های TensorFlow. SavedModel یک فرمت سریالسازی با زبان خنثی و قابل بازیابی است که سیستمها و ابزارهای سطح بالاتر را قادر میسازد تا مدلهای TensorFlow را تولید، مصرف و تغییر دهند.
برای جزئیات کامل به بخش ذخیره و بازیابی راهنمای برنامه نویس TensorFlow مراجعه کنید.
یک شی TensorFlow که مسئول ذخیره نقاط بازرسی مدل است.
تقسیم منطقی مجموعه آموزشی یا مدل . به طور معمول، برخی از فرآیندها با تقسیم نمونه ها یا پارامترها به قطعات (معمولاً) با اندازه مساوی، خرده هایی ایجاد می کنند. سپس هر خرده به ماشین دیگری اختصاص داده می شود.
به اشتراک گذاری یک مدل موازی سازی مدل گفته می شود. به اشتراک گذاری داده ها موازی سازی داده ها گفته می شود.
در TensorFlow، یک مقدار یا مجموعه ای از مقادیر محاسبه شده در یک مرحله خاص، معمولا برای ردیابی معیارهای مدل در طول آموزش استفاده می شود.
ساختار داده اولیه در برنامه های TensorFlow. تانسورها ساختارهای دادهای N بعدی هستند (که N میتواند بسیار بزرگ باشد)، معمولاً اسکالرها، بردارها یا ماتریسها. عناصر یک تانسور می توانند مقادیر صحیح، ممیز شناور یا رشته ای را نگه دارند.
داشبوردی که خلاصه های ذخیره شده در طول اجرای یک یا چند برنامه TensorFlow را نمایش می دهد.
یک پلت فرم یادگیری ماشینی در مقیاس بزرگ، توزیع شده. این اصطلاح همچنین به لایه پایه API در پشته TensorFlow اشاره دارد که از محاسبات عمومی بر روی نمودارهای جریان داده پشتیبانی می کند.
اگرچه TensorFlow در درجه اول برای یادگیری ماشین استفاده می شود، شما همچنین می توانید از TensorFlow برای کارهای غیر ML استفاده کنید که نیاز به محاسبه عددی با استفاده از نمودارهای جریان داده دارند.
برنامه ای که چگونگی تأثیر فراپارامترهای مختلف بر آموزش مدل (عمدتاً شبکه عصبی) را به تصویر می کشد. برای آزمایش TensorFlow Playground به http://playground.tensorflow.org بروید.
بستری برای استقرار مدل های آموزش دیده در تولید.
یک مدار مجتمع ویژه برنامه (ASIC) که عملکرد بارهای کاری یادگیری ماشین را بهینه می کند. این ASICها به صورت چند تراشه TPU بر روی یک دستگاه TPU مستقر می شوند.
رجوع به رتبه (تنسور) شود.
تعداد عناصر موجود در یک تانسور در ابعاد مختلف. به عنوان مثال، یک تانسور [5, 10]
دارای شکل 5 در یک بعد و 10 در بعد دیگر است.
تعداد کل اسکالرهایی که یک تانسور دارد. به عنوان مثال، یک تانسور [5, 10]
دارای اندازه 50 است.
یک بافر پروتکل استاندارد برای توصیف داده های ورودی برای آموزش یا استنتاج مدل یادگیری ماشین.
اجرای Keras که در TensorFlow ادغام شده است.
مخفف واحد پردازش تنسور .
یک شتابدهنده جبر خطی قابل برنامهریزی با حافظه با پهنای باند بالا روی تراشه که برای بارهای کاری یادگیری ماشین بهینه شده است. چند تراشه TPU بر روی یک دستگاه TPU مستقر شده اند.
یک برد مدار چاپی (PCB) با چندین تراشه TPU ، رابط های شبکه با پهنای باند بالا و سخت افزار خنک کننده سیستم.
یک منبع TPU در Google Cloud با یک نوع TPU خاص. گره TPU از یک شبکه VPC همتا به شبکه VPC شما متصل می شود. گرههای TPU منبعی هستند که در Cloud TPU API تعریف شدهاند.
پیکربندی خاصی از دستگاه های TPU در مرکز داده Google. همه دستگاه های موجود در یک TPU Pod از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند. یک TPU Pod بزرگترین پیکربندی دستگاه های TPU موجود برای یک نسخه خاص TPU است.
یک موجودیت TPU در Google Cloud که ایجاد، مدیریت یا مصرف میکنید. به عنوان مثال، گره های TPU و انواع TPU منابع TPU هستند.
یک قطعه TPU بخش کسری از دستگاه های TPU در یک TPU Pod است. همه دستگاه های موجود در یک قطعه TPU از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند.
پیکربندی یک یا چند دستگاه TPU با یک نسخه سخت افزاری خاص TPU. هنگامی که یک گره TPU در Google Cloud ایجاد می کنید، نوع TPU را انتخاب می کنید. به عنوان مثال، نوع v2-8
TPU یک دستگاه TPU v2 تک با 8 هسته است. یک نوع TPU v3-2048
دارای 256 دستگاه TPU v3 تحت شبکه و در مجموع 2048 هسته است. انواع TPU منبعی هستند که در Cloud TPU API تعریف شده است.
فرآیندی که روی یک ماشین میزبان اجرا می شود و برنامه های یادگیری ماشینی را روی دستگاه های TPU اجرا می کند.