Sdílet prostřednictvím


Příklady inferenčních operací s bezserverovými technologiemi pro modely Foundry

Katalog modelů Azure AI nabízí velký výběr modelů Azure AI Foundry od široké škály poskytovatelů. Máte různé možnosti nasazení modelů z katalogu modelů. Tento článek uvádí příklady odvozování pro nasazení bezserverového rozhraní API.

Important

Modely, které jsou ve verzi Preview, jsou na kartách modelu v katalogu modelů označené jako náhled .

Aby bylo možné provádět inferenci s modely, některé modely, jako je Nixtla's TimeGEN-1 a Cohere rerank, vyžadují použití vlastních API od poskytovatelů modelů. Ostatní podporují odvozování pomocí rozhraní API pro odvozování modelů. Další podrobnosti o jednotlivých modelech najdete v katalogu modelů na portálu Azure AI Foundry.

Cohere

Řada modelů Cohere zahrnuje různé modely optimalizované pro různé případy použití, včetně opětovného pořadí, dokončování chatu a modelů vkládání.

Příklady inference: Příkaz Cohere a embed

Následující tabulka obsahuje odkazy na příklady použití modelů Cohere.

Description Jazyk Sample
Webové požadavky Bash Command-RCommand-R+
cohere-embed.ipynb
Balíček odvozování Azure AI pro jazyk C# jazyk C# Link
Balíček odvozování Azure AI pro JavaScript JavaScript Link
Balíček odvozování Azure AI pro Python Python Link
OpenAI SDK (experimentální) Python Link
LangChain Python Link
Cohere SDK Python Command
Embed
LiteLLM SDK Python Link

Rozšířená generace využívající načítání (RAG) a ukázky použití nástrojů: příkaz Cohere a embedování

Description Packages Sample
Vytvořte místní index vektorového vyhledávání podobností pomocí AI na Facebooku (FAISS) s využitím vkládání od společnosti Cohere – Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Odpovídat na otázky z dat v místním indexu vektorů FAISS pomocí příkazu Cohere Command R/R+ – Langchain. langchain, langchain_cohere command_faiss_langchain.ipynb
Použití příkazu Cohere Command R/R+ k zodpovězení otázek z dat v indexu vektoru vyhledávání AI – Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Použití příkazu Cohere Command R/R+ k zodpovězení otázek z dat v indexu vektoru vyhledávání AI – Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Příkaz R+ pro volání nástroje/funkce pomocí LangChain cohere, , langchainlangchain_cohere command_tools-langchain.ipynb

Cohere přeuspořádání

Abyste mohli provádět odvozování pomocí modelů řazení Cohere, musíte použít vlastní rozhraní API pro řazení Cohere. Další informace o modelu reranky Cohere a jeho schopnostech najdete v tématu Cohere rerank.

Ceny pro modely Cohere pro přehodnocení

Dotazy, které se nezaměňují s dotazem uživatele, je cenový měřič, který odkazuje na náklady spojené s tokeny použitými jako vstup pro odvozování modelu Cohere Rerank. Společnost Cohere počítá jednu vyhledávací jednotku jako dotaz s až 100 dokumenty, které se mají seřadit. Dokumenty delší než 500 tokenů (pro cohere-rerank-rerank-v3.5) nebo delší než 4096 tokenů (pro Cohere-rerank-v3-English and Cohere-rerank-v3-multilingual) při zahrnutí délky vyhledávacího dotazu jsou rozděleny do více bloků dat, kde se každý blok dat počítá jako jeden dokument.

Podívejte se na kolekci modelů Cohere na portálu Azure AI Foundry.

Core42

Následující tabulka obsahuje odkazy na příklady použití modelů Jais.

Description Jazyk Sample
Balíček odvozování Azure AI pro jazyk C# jazyk C# Link
Balíček odvozování Azure AI pro JavaScript JavaScript Link
Balíček odvozování Azure AI pro Python Python Link

DeepSeek

Řada modelů DeepSeek zahrnuje DeepSeek-R1, která exceluje při úvahách úkolů pomocí podrobného procesu trénování, jako je jazyk, vědecké odůvodnění a programovací úkoly, DeepSeek-V3-0324, model jazyka MoE (Mix-of-Experts) a další.

Následující tabulka obsahuje odkazy na příklady použití modelů DeepSeek.

Description Jazyk Sample
Balíček odvozování Azure AI pro Python Python Link
Balíček odvozování Azure AI pro JavaScript JavaScript Link
Balíček odvozování Azure AI pro jazyk C# jazyk C# Link
Balíček odvozování Azure AI pro Javu Java Link

Meta

Modely a nástroje Meta Llama představují kolekci předem natrénovaných a vyladěných generativních modelů AI pro zpracování textu a obrazů. Rozsah metamodelů je škálovatelný tak, aby zahrnoval:

  • Malé jazykové modely (SLM), jako jsou 1B a 3B Base a Instruct modely, pro odvozování na zařízení a edge computing.
  • Středně velké jazykové modely (LLM), jako jsou 7B, 8B a 70B Base a Instruct modely.
  • Vysoce výkonné modely, jako je Meta Llama 3.1-405B Instruct, pro syntetické generování dat a destilační případy použití.
  • Vysoce výkonné nativně multimodální modely, Llama 4 Scout a Llama 4 Maverick, využívají kombinaci architektury expertů k zajištění špičkového výkonu v textu a porozumění obrázkům.

Následující tabulka obsahuje odkazy na příklady použití modelů Meta Llama.

Description Jazyk Sample
Žádost CURL Bash Link
Balíček odvozování Azure AI pro jazyk C# jazyk C# Link
Balíček odvozování Azure AI pro JavaScript JavaScript Link
Balíček odvozování Azure AI pro Python Python Link
Webové požadavky Pythonu Python Link
OpenAI SDK (experimentální) Python Link
LangChain Python Link
LiteLLM Python Link

Microsoft

Modely Microsoftu zahrnují různé skupiny modelů, jako jsou modely MAI, modely Phi, modely AI pro zdravotnictví a další. Pokud chcete zobrazit všechny dostupné modely Microsoftu, podívejte se na kolekci modelů Microsoftu na portálu Azure AI Foundry.

Následující tabulka obsahuje odkazy na příklady použití modelů Microsoftu.

Description Jazyk Sample
Balíček odvozování Azure AI pro jazyk C# jazyk C# Link
Balíček odvozování Azure AI pro JavaScript JavaScript Link
Balíček odvozování Azure AI pro Python Python Link
LangChain Python Link
Llama-Index Python Link

Podívejte se na kolekci modelů Microsoftu na portálu Azure AI Foundry.

Mistral Umělá inteligence

Mistral AI nabízí dvě kategorie modelů, konkrétně:

  • Prémiové modely: Patří mezi ně Modely Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) a Ministral 3B a jsou k dispozici jako bezserverová rozhraní API s fakturací na základě tokenů založených na průběžných platbách.
  • Otevřené modely: Patří mezi ně Mistral-small-2503, Codestral a Mistral Nemo (které jsou dostupné jako bezserverová rozhraní API s fakturací na základě tokenů založených na průběžných platbách) a Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 a Mistral-7B-v01 (které jsou dostupné ke stažení a spouštění na samoobslužných spravovaných koncových bodech).

Následující tabulka obsahuje odkazy na příklady použití modelů Mistral.

Description Jazyk Sample
Žádost CURL Bash Link
Balíček odvozování Azure AI pro jazyk C# jazyk C# Link
Balíček odvozování Azure AI pro JavaScript JavaScript Link
Balíček odvozování Azure AI pro Python Python Link
Webové požadavky Pythonu Python Link
OpenAI SDK (experimentální) Python Mistral – Ukázka sady OpenAI SDK
LangChain Python Mistral - LangChain ukázka
Mistral Umělá inteligence Python Mistral - ukázka Mistral AI
LiteLLM Python Mistral – Ukázka LiteLLM

Nixtla

Nixtla's TimeGEN-1 je generivní předem natrénovaný model prognózy a detekce anomálií pro data časových řad. TimeGEN-1 může vytvářet přesné předpovědi pro novou časovou řadu bez trénování, přičemž jako vstupy se používají pouze historické hodnoty a exogenní kovariance.

K odvozování vyžaduje TimeGEN-1 použití vlastního rozhraní API pro odvozování Nixtla. Další informace o modelu TimeGEN-1 a jeho schopnostech naleznete v tématu Nixtla.

Odhad počtu potřebných tokenů

Před vytvořením nasazení TimeGEN-1 je užitečné odhadnout počet tokenů, které plánujete spotřebovat, a za které vám budou účtovány poplatky. Jeden token odpovídá jednomu datovému bodu ve vstupní datové sadě nebo výstupní datové sadě.

Předpokládejme, že máte následující vstupní datovou sadu časových řad:

Unique_id Timestamp Cílová proměnná Exogenózní proměnná 1 Exogenní proměnná 2
BE 2016-10-22 00:00:00 70.00 49593.0 57253.0
BE 2016-10-22 01:00:00 37.10 46073.0 51887.0

Pokud chcete zjistit počet tokenů, vynásobte počet řádků (v tomto příkladu dva) a počet sloupců použitých pro prognózování – nepočítá se sloupce unique_id a časového razítka (v tomto příkladu tři), abyste získali celkem šest tokenů.

S ohledem na následující výstupní datovou sadu:

Unique_id Timestamp Předpověděná cílová proměnná
BE 2016-10-22 02:00:00 46.57
BE 2016-10-22 03:00:00 48.57

Počet tokenů můžete určit také tak, že spočítáte počet datových bodů vrácených po prognózování dat. V tomto příkladu je počet tokenů dva.

Odhad cen na základě tokenů

Existují čtyři cenové měřiče, které určují cenu, kterou platíte. Tyto měřiče jsou následující:

Cenový měřič Description
paygo-inference-input-tokens Náklady spojené s tokeny použitými jako vstup pro odvozování při finetune_steps = 0
paygo-inference-output-tokens Náklady spojené s tokeny použitými jako výstup pro odvozování při finetune_steps = 0
paygo-finetuned-model-inference-input-tokens Náklady spojené s tokeny použitými jako vstup pro odvozování při finetune_steps> 0
paygo-finetuned-model-inference-output-tokens Náklady spojené s tokeny použitými jako výstup pro odvozování při finetune_steps> 0

Podívejte se na kolekci modelů Nixtla na portálu Azure AI Foundry.

Stabilita AI

Modely stability AI nasazené prostřednictvím nasazení bezserverového rozhraní API implementují rozhraní API pro odvozování modelů na trase /image/generations. Příklady použití modelů Stability AI najdete v následujících příkladech:

Gretel Navigator

Gretel Navigator využívá složenou architekturu AI speciálně navrženou pro syntetická data díky kombinaci špičkových opensourcových malých jazykových modelů (SLM) jemně vyladěných napříč více než 10 oborovými doménami. Tento účelový systém vytváří různorodé datové sady specifické pro doménu ve velkém měřítku po stovky až miliony příkladů. Systém také zachovává složité statistické vztahy a nabízí vyšší rychlost a přesnost v porovnání s ručním vytvářením dat.

Description Jazyk Sample
Balíček odvozování Azure AI pro JavaScript JavaScript Link
Balíček odvozování Azure AI pro Python Python Link