ClouderaNOW Découvrez les agents d'IA, le cloud bursting et les data fabrics pour l'IA | 8 avril

S'inscrire
  • Cloudera Cloudera
  • Boostez le développement et le déploiement de l'IA tout en sécurisant chaque étape de son cycle de vie.

    Optimisée par les microservices NVIDIA NIM, la solution Cloudera AI Inference Service offre des performances de pointe : des inférences jusqu'à 36 fois plus rapides sur les GPU NVIDIA et un débit près de 4 fois supérieur sur les CPU. Elle rationalise ainsi la gestion et la gouvernance de l'IA de manière transparente sur les clouds publics et privés.

    Schéma d'AI Inference Service

    Un service unique pour tous vos besoins d'inférence d'IA d'entreprise

    Déploiement en un clic : faites passer rapidement votre modèle du développement à la production, quel que soit l' environnement.

    Environnement unique et sécurisé : bénéficiez d'une sécurité de bout en bout couvrant toutes les étapes du cycle de vie de votre IA.

    Plateforme unique : gérez facilement tous vos modèles grâce à une plateforme unique qui répond à tous vos besoins en matière d'IA.

    Assistance centralisée : bénéficiez d'une assistance unifiée de la part de Cloudera pour toutes vos questions relatives au matériel et aux logiciels.

    Principales fonctionnalités d'AI Inference Service

    Support hybride et multi-cloud

    Autorisez le déploiement sur site, dans le cloud public et dans des environnements hybrides pour répondre avec souplesse aux divers besoins des entreprises en matière d'infrastructure.

    Données détaillées et traçabilité des modèles

    Suivi et documentation complets des transformations de données et des événements du cycle de vie des modèles, pour une meilleure reproductibilité et auditabilité.

    Sécurité de niveau entreprise

    Mise en œuvre de mesures de sécurité robustes, notamment l'authentification, l'autorisation* et le chiffrement des données, pour garantir la protection des données et des modèles en mouvement et au repos.

    Capacités d'inférence en temps réel

    Prédictions en temps réel avec un temps de latence faible et traitement par lots pour les ensembles de données plus volumineux, assurant la flexibilité dans la mise en service des modèles d'IA en fonction de différents indicateurs de performance.

    Haute disponibilité et évolutivité dynamique

    Gestion efficace des charges variables tout en assurant un service continu grâce à des configurations à haute disponibilité et des capacités de dimensionnement dynamique.

    Intégration flexible

    Intégration facile des workflows et applications existants grâce aux API Open Inference Protocol pour les modèles de ML traditionnels et à une API compatible OpenAI pour les LLM.

    Prise en charge de plusieurs cadres d'IA

    Déploiement facile d'une grande variété de types de modèles grâce à l'intégration de cadres de ML populaires tels que TensorFlow, PyTorch, Scikit-learn et Hugging Face Transformers.

    Modèles de déploiement avancés

    Déploiement sécurisé et incrémentiel de nouvelles versions de modèles grâce à des stratégies sophistiquées telles que les déploiements canari et bleu-vert* ainsi que les tests A/B*.

    API ouvertes

    Déploiement, gestion et surveillance de modèles et d'applications en ligne* et intégration facilitée avec les pipelines CI/CD et autres outils MLOps grâce à la conformité aux normes ouvertes.

    Surveillance des activités

    Surveillance continue des indicateurs de modèles d'IA générative tels que le ressenti, les retours utilisateur et la dérive, qui sont essentiels pour maintenir la qualité et les performances des modèles.

    * Fonctionnalité disponible prochainement. Veuillez nous contacter pour en savoir plus.

    Options de déploiement d'AI Inference Service

    Exécutez des charges de travail d'inférence sur site ou dans le cloud, sans compromettre les performances, la sécurité ou le contrôle.  

    Cloudera dans le cloud

    • Flexibilité multicloud : effectuez vos déploiements sur différents clouds publics et évitez l'enfermement dans un écosystème particulier.
    • Rentabilité plus rapide : commencez à inférer sans avoir à configurer d'infrastructure, l'idéal pour des expérimentations rapides.
    • Évolutivité flexible : gérez le trafic imprévisible grâce au dimensionnement automatique « scale-to-zero » et aux microservices optimisés par GPU.

    Cloudera sur site

    • Souveraineté des données : gardez un contrôle total. Conservez les modèles, les invites et les actifs entièrement derrière votre pare-feu.
    • Isolement physique : conçu pour les environnements réglementés tels que les services gouvernementaux, le secteur de la santé et les services financiers.
    • Coût total de possession prévisible et réduit : éliminez les surprises grâce à une tarification fixe et un coût total de possession réduit par rapport aux API cloud basées sur des jetons.
    DÉMO

    Déploiement de modèles sans effort

    Découvrez avec quelle facilité vous pouvez déployer de grands modèles de langage et gérer efficacement des applications d'IA à grande échelle grâce aux puissants outils Cloudera.

    Intégration du référentiel de modèles : 
    Accédez aux modèles, stockez-les, mettez-les à jour et gérez-les facilement par le biais du référentiel centralisé Cloudera AI Registry.

    Configuration et déploiement faciles : Déployez des modèles dans des environnements cloud, configurez des points de terminaison et ajustez le dimensionnement automatique pour plus d'efficacité.

    Surveillance des performances :
    Résolvez les problèmes et optimisez les performances en vous basant sur des indicateurs clés tels que le temps de latence, le débit, l'utilisation des ressources et l'état de santé des modèles.

    headshot of Sanjeev Mohan
    Cloudera AI Inference vous permet d'exploiter le plein potentiel des données à grande échelle grâce à l'expertise de NVIDIA en matière d'IA. Des fonctionnalités de sécurité de pointe vous permettent de protéger vos données en toute confiance et d'exécuter des charges de travail sur site ou dans le cloud tout en déployant efficacement des modèles d'IA avec la flexibilité et la gouvernance nécessaires.

    – Sanjeev Mohan, analyste principal, SanjMo

    Vous en voulez plus ?

    Passez à l'étape suivante

    Découvrez des capacités puissantes et approfondissez vos connaissances grâce à des ressources et des guides qui vous permettront de vous lancer rapidement.

    Présentation du produit AI Inference Service

    Icône Présentation du produit

    Découvrez le service Cloudera AI Inference.

    Essayer

    Documentation du service d'inférence d'IA

    Bibliothèque de documentation

    Vous y trouverez tout ce dont vous avez besoin, de la description des fonctionnalités aux guides de mise en œuvre.

    Consulter la documentation

    Découvrez d'autres produits

    Cloudera AI


    Accélérez la prise de décision basée sur les données, de la recherche à la production, grâce à une plateforme sécurisée, évolutive, ouverte et dédiée à l'IA d'entreprise.

    AI Studios


    Accédez à des workflows privés agentiques et d'IA générative pour tous les niveaux de compétence, avec une rapidité low-code et un contrôle full-code. 

    AI Assistants


    Mettez la puissance de l'IA au service de votre entreprise en toute sécurité et à grande échelle, en veillant à ce que chaque information soit traçable, explicable et fiable.

    Projets de machine learning


    Découvrez le framework de bout en bout permettant de créer, de déployer et de surveiller instantanément des applications de machine learning prêtes à l'emploi.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.