Vous souhaitez accélérer votre adoption de l'IA ? Les guides de démarrage rapide pour l'IA sont officiellement disponibles !
Les guides de démarrage rapide pour l'IA sont un nouveau catalogue de cas d'utilisation prêts à l'emploi pour le secteur, qui vous permettent de profiter directement de la puissance de l'IA Open Source. Ces guides constituent un terrain d'expérimentation que vous pouvez utiliser pour maîtriser Red Hat AI et développer les compétences nécessaires pour transformer vos idées en matière d'IA, de l'expérimentation à la production. Chaque guide de démarrage pour l'IA est conçu pour être simple à déployer, explorer et enrichir. Ainsi, vous et votre équipe découvrirez rapidement comment l'IA peut alimenter des solutions concrètes sur une infrastructure Open Source prête pour l'entreprise.
Nous sommes convaincus qu'une manière efficace de se préparer à l'avenir de l'IA consiste à acquérir une expérience pratique. Ne restez plus devant une page blanche. Plongez dans ces exemples concrets de cas d'utilisation et commencez à transformer les « et si » en « et après ».
Figure 1 : Aperçu du catalogue des guides de démarrage rapide pour l'IA
Cela semble prometteur, n'est-ce pas ? Tout à fait. Commençons. Commencez par consulter le catalogue des guides de démarrage rapide pour l'IA où vous pouvez parcourir des cas d'utilisation intéressants. Par exemple, prenez le guide de démarrage rapide « Deploy a privacy-focused AI assistant ». Il explique comment identifier et protéger les informations privées dans un environnement de santé. Un clic sur l'exemple révèle plus de détails sur le cas d'utilisation, y compris la configuration minimale requise et les instructions d'installation. Ce guide de démarrage rapide pour l'IA mérite d'être exploré même si vous ne travaillez pas avec des données de patients. Il présente une manière simple et efficace de protéger les données sensibles au sein de votre organisation, quelles que soient ces données.
Si le guide de démarrage rapide pour l'IA dans le secteur de la santé ne correspond pas à votre cas d'utilisation, nous disposons d'une liste croissante d'exemples à essayer. Voici d'autres exemples :
- Centralize company knowledge with an Enterprise RAG Chatbot : Ce guide de démarrage rapide pour l'IA montre comment utiliser la génération augmentée de récupération (RAG) pour améliorer les modèles avec des magasins de données propres à l'entreprise, afin de fournir des réponses plus précises et plus contextuelles.
- Transform product discovery with AI recommendations : Vous apprendrez ici à intégrer des recommandations de produits basées sur l'IA ainsi que des résumés d'avis automatisés dans une plateforme de commerce en ligne.
- Serve a lightweight HR assistant : Ce dialogueur permet de libérer les heures consacrées à la recherche de documents politiques, afin que les représentants des ressources humaines puissent se consacrer à des tâches plus stratégiques.
Figure 2 : Schéma d'architecture « Centralize company knowledge with an Enterprise RAG Chatbot »
Figure 3 : Capture d'écran du guide de démarrage rapide pour l'IA « Transform product discovery with AI recommendations »
Le guide de démarrage rapide pour l'IA « Serve a lightweight HR assistant » est particulièrement intéressant, car il peut être déployé sans GPU ni matériel spécialisé. Il exécute TinyLlama sur le processeur afin que tout le monde puisse l'utiliser pour se lancer avec Red Hat OpenShift AI. En fait, déployons ensemble l'assistant RH :
- Accédez à la section de déploiement du guide de démarrage rapide et suivez les instructions.
- Dans un autre onglet du navigateur, ouvrez un terminal web dans votre environnement Red Hat OpenShift. Vous pouvez utiliser oc localement, si vous préférez.
- Il suffit de cloner le référentiel et de changer de répertoire.
git clone https://github.com/rh-ai-quickstart/llm-cpu-serving.git && \ cd llm-cpu-serving/
Figure 4 : Déployez votre premier guide de démarrage rapide pour l'IA dans Red Hat OpenShift
- Créer un projet.
PROJECT="hr-assistant" oc new-project ${PROJECT}- Ensuite, installez.
helm install llm-cpu-serving helm/ --namespace ${PROJECT} Après quelques commandes, vous pourrez accéder au projet « hr-assistant » dans le tableau de bord d'OpenShift AI et lancer votre propre assistant.
Figure 5 : Conseils du guide de démarrage rapide pour l'IA « Serve a lightweight HR assistant »
Conception des guides de démarrage rapide pour l'IA et étapes futures
Les guides de démarrage rapide pour l'IA sont conçus sur la base de vos besoins et de vos demandes. Nous souhaitons que ces guides démontrent à la fois leur valeur et offrent une voie claire vers des résultats concrets. Pour ce faire, nous nous appuyons sur des exemples concrets et pertinents alimentés par l'IA.
Nos spécialistes de l'IA, nos partenaires logiciels et de distribution ainsi que la communauté Open Source travaillent ensemble pour développer ces cas d'utilisation. Nous travaillons de manière ouverte et invitons nos clients et partenaires à essayer nos derniers guides de démarrage rapide pour l'IA, à contribuer au développement de nouveaux, et à soumettre de nouvelles suggestions de guides de démarrage rapide pour l'IA pour les futurs efforts de développement. Consultez notre page de présentation pour en savoir plus.
Pour ceux qui souhaitent se lancer, la page du catalogue des guides de démarrage rapide pour l'IA est l'endroit idéal. Celle-ci comprend une liste de nos guides de démarrage rapide pour l'IA les plus consultés, afin de les trouver plus facilement. Bien entendu, notre catalogue continuera de s'enrichir à mesure que de nouveaux guides de démarrage rapide pour l'IA seront développés et publiés.
La véritable valeur de l'IA réside dans sa capacité à résoudre des problèmes métier concrets, et pas seulement dans son potentiel technique. En allant au-delà d'une page blanche pour adopter ces cas d'utilisation prêts à l'emploi, votre équipe peut cesser d'expérimenter et commencer à fournir des résultats tangibles sur la fondation ouverte et fiable de Red Hat AI.
Lancez-vous dans les guides de démarrage rapide pour l'IA dès aujourd'hui.
En savoir plus
Ressource
L'entreprise adaptable : quand s'adapter à l'IA signifie s'adapter aux changements
À propos de l'auteur
Karl Eklund is a Principal Architect aligning customer goals to solutions provided by the open source community and commercial vendors within the Red Hat OpenShift Data Science platform. Prior to joining Red Hat, Karl advised technology leaders on enterprise data and technology strategies and built machine learning models across multiple academic disciplines.
Plus de résultats similaires
Red Hat and NVIDIA: Setting standards for high-performance AI inference
Refactoring at the speed of mission: An "agent mesh" approach to legacy system modernization with Red Hat AI
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Parcourir par canal
Automatisation
Les dernières nouveautés en matière d'automatisation informatique pour les technologies, les équipes et les environnements
Intelligence artificielle
Actualité sur les plateformes qui permettent aux clients d'exécuter des charges de travail d'IA sur tout type d'environnement
Cloud hybride ouvert
Découvrez comment créer un avenir flexible grâce au cloud hybride
Sécurité
Les dernières actualités sur la façon dont nous réduisons les risques dans tous les environnements et technologies
Edge computing
Actualité sur les plateformes qui simplifient les opérations en périphérie
Infrastructure
Les dernières nouveautés sur la plateforme Linux d'entreprise leader au monde
Applications
À l’intérieur de nos solutions aux défis d’application les plus difficiles
Virtualisation
L'avenir de la virtualisation d'entreprise pour vos charges de travail sur site ou sur le cloud