Lorsque nous discutons avec nos clients de leurs objectifs en matière d'IA, nous entendons souvent que leurs projets et leurs mises en œuvre sont parfois bloqués en raison de préoccupations liées à la confidentialité. Ils souhaitent exploiter l'IA sur toutes leurs données d'entreprise, car c'est ainsi que leurs employés et leurs clients obtiendront les résultats et les réponses les plus précis, mais ils se rendent compte qu'ils ne peuvent pas envoyer leurs données vers un terminal public pour un grand modèle de langage (LLM) à code source fermé, car 1) il y a trop de données et 2) leurs données ne seraient plus privées.
Pour répondre à ces préoccupations, Cloudera a commencé à promouvoir le concept d'IA privée, qui permettrait à ces clients de bénéficier de tous les avantages de l'IA tout en garantissant la sécurité et la confidentialité de leurs données propriétaires.
NVIDIA fait face au même défi, mais à un degré beaucoup plus élevé et plus large : celui des États-nations. Les gouvernements comprennent qu'il n'est pas dans l'intérêt de leur pays de faire appel à l'IA dans un autre pays. Ils s'efforcent donc de mettre en place l'infrastructure nécessaire pour conserver leurs données et leur IA au sein de leurs propres frontières. Ils peuvent ainsi contrôler les pays ou les entités avec lesquels ils partagent leurs données ou les résultats de leur IA.
Lors de la conférence GTC de Paris qui s'est tenue aujourd'hui, NVIDIA a présenté les éléments constitutifs de l'IA souveraine afin de soutenir les gouvernements dans leurs efforts. Cette initiative s'inscrit parfaitement dans la volonté de Cloudera de permettre à ses clients de mettre en œuvre leurs propres plateformes d'IA privées.
NVIDIA a fait deux autres annonces qui présentent un intérêt particulier pour Cloudera. Dans cet article, nous nous intéresserons de plus près à AI-Q NVIDIA Blueprint for Enterprise Research et à NVIDIA NIM, ainsi qu'à ce que cela signifie pour nos clients.
L'introduction par NVIDIA du modèle AI-Q pour la recherche en entreprise apporte à Cloudera AI davantage de capacités pour répondre aux besoins complexes de nos clients en matière d'IA agentique.
Cloudera AI Inference peut héberger tous les microservices NVIDIA NeMo Retriever et d'inférence des LLM qui composent AI-Q NVIDIA Blueprint, y compris les modèles de raisonnement NVIDIA Llama Nemotron. En alliant la confidentialité et la sécurité renforcées offertes par la plateforme Cloudera AI pour les terminaux des modèles à la puissante boîte à outils NVIDIA Agent Intelligence, vous pouvez faire évoluer vos applications agentiques d'entreprise vers un nouveau niveau de performance.
L'utilisation d'AI-Q NVIDIA Blueprint dans le service Cloudera AI Inference libère un énorme potentiel en matière d'IA. Cette combinaison puissante intègre les principaux modèles de raisonnement packagés sous forme de microservices NVIDIA NIM et NeMo Retriever dans Cloudera AI, et garantit une connectivité fluide entre les agents, les outils et les données grâce à une compatibilité totale avec la boîte à outils NVIDIA Agent Intelligence.
Cette capacité multi-environnements permet aux entreprises de créer des applications sophistiquées de génération augmentée par récupération (RAG) avec une confidentialité et une sécurité robustes, en tirant pleinement parti des avancées de pointe en matière d'IA.
Le conteneur NIM de NVIDIA change la donne en permettant d'obtenir rapidement et facilement les meilleures performances des LLM : il en accélère considérablement le déploiement et l'inférence en sélectionnant automatiquement le meilleur back-end d'inférence en fonction du modèle et du GPU. Cela permet une solution d'inférence indépendante du modèle qui rationalise la production de nombreux LLM de pointe.
Plus précisément, le microservice NVIDIA NIM permet aux utilisateurs de déployer rapidement des LLM accélérés par NVIDIA TensorRT-LLM, vLLM ou SGLang pour une inférence de haut niveau sur n'importe quelle plateforme accélérée par NVIDIA. Il prend en charge les modèles stockés aux formats Hugging Face ou TensorRT-LLM, pour une inférence de niveau entreprise adaptée à tout un éventail de LLM. Les utilisateurs peuvent s'appuyer sur des paramètres par défaut intelligents pour optimiser la latence et le débit, ou affiner les performances à l'aide d'options de configuration conviviales. Dans le cadre de NVIDIA AI Enterprise, le microservice NVIDIA NIM reçoit des mises à jour continues de NVIDIA, garantissant ainsi la compatibilité avec une vaste gamme de LLM populaires.
Grâce à la suite NIM de NVIDIA, nos clients bénéficient d'une plus grande liberté pour intégrer les LLM dans leurs applications d'IA. Le service Cloudera AI Inference intègre déjà NVIDIA NIM, ce qui permet aux clients de mettre en œuvre le microservice NVIDIA NIM rapidement et facilement. Ils bénéficient des avantages de NVIDIA NIM avec la facilité d'utilisation, la sécurité et l'assistance rationalisée d'une plateforme unique et unifiée : Cloudera.
Grâce à son intégration transparente dans notre service d'inférence d'IA, le microservice NVIDIA NIM offre des avantages considérables aux clients de Cloudera AI, notamment :
Déploiement accéléré : mettez vos applications LLM en service plus rapidement grâce à des conteneurs préconfigurés et optimisés.
Performances améliorées : exploitez tout le potentiel du calcul accéléré NVIDIA pour une inférence à haute vitesse et une latence réduite.
Évolutivité : adaptez facilement vos déploiements de LLM pour répondre aux besoins de votre entreprise en pleine croissance.
Gestion simplifiée : gérez et surveillez vos déploiements de LLM grâce à l'interface intuitive de Cloudera.
Ensemble, Cloudera et NVIDIA permettent aux entreprises de tirer parti des dernières avancées dans le domaine de l'IA de manière simple, efficace et rentable sur l'ensemble de leurs données, qu'elles soient publiques ou privées. En simplifiant le cycle de vie des applications d'IA, du développement au déploiement, et en optimisant les performances, nous aidons nos utilisateurs à exploiter tout le potentiel de l'IA.
Consultez l'article de NVIDIA consacré aux annonces faites lors du GTC de Paris et les articles de Cloudera sur l'IA, en particulier le plus récent sur « AI in a Box », optimisé par Dell, NVIDIA et Cloudera, qui offre aux clients une nouvelle façon de mettre en œuvre l'IA privée rapidement, facilement et avec un minimum de risques.
This may have been caused by one of the following: