Cloudera acquiert Taikun afin d'offrir une expérience cloud pour toutes les données, partout, et de rendre l'IA omniprésente.

En savoir plus
  • Cloudera Cloudera
  • Boostez le développement et le déploiement de l'IA tout en sécurisant chaque étape de son cycle de vie.

    Optimisée par les microservices NVIDIA NIM, la solution Cloudera AI Inference Service offre des performances de pointe : des inférences jusqu'à 36 fois plus rapides sur les GPU NVIDIA et un débit près de 4 fois supérieur sur les CPU. Elle rationalise ainsi la gestion et la gouvernance de l'IA de manière transparente sur les clouds publics et privés.

    Schéma d'AI Inference Service

    Un service unique pour tous vos besoins d'inférence d'IA d'entreprise

    Déploiement en un clic : faites passer rapidement votre modèle du développement à la production, quel que soit l' environnement.

    Environnement unique et sécurisé : bénéficiez d'une sécurité de bout en bout couvrant toutes les étapes du cycle de vie de votre IA.

    Plateforme unique : gérez facilement tous vos modèles grâce à une plateforme unique qui répond à tous vos besoins en matière d'IA.

    Assistance centralisée : bénéficiez d'une assistance unifiée de la part de Cloudera pour toutes vos questions relatives au matériel et aux logiciels.

    Principales fonctionnalités d'AI Inference Service

    Support hybride et multi-cloud

    Déploiement possible sur site*, dans le cloud public et dans des environnements hybrides pour répondre avec souplesse aux divers besoins des entreprises en matière d'infrastructure.

    Données détaillées et traçabilité des modèles*

    Suivi et documentation complets des transformations de données et des événements du cycle de vie des modèles, pour une meilleure reproductibilité et auditabilité.

    Sécurité de niveau entreprise

    Mise en œuvre de mesures de sécurité robustes, notamment l'authentification, l'autorisation* et le chiffrement des données, pour garantir la protection des données et des modèles en mouvement et au repos.

    Capacités d'inférence en temps réel

    Prédictions en temps réel avec un temps de latence faible et traitement par lots pour les ensembles de données plus volumineux, assurant la flexibilité dans la mise en service des modèles d'IA en fonction de différents indicateurs de performance.

    Haute disponibilité et évolutivité dynamique

    Gestion efficace des charges variables tout en assurant un service continu grâce à des configurations à haute disponibilité et des capacités de dimensionnement dynamique.

    Intégration flexible

    Intégration facile des workflows et applications existants grâce aux API Open Inference Protocol pour les modèles de ML traditionnels et à une API compatible OpenAI pour les LLM.

    Prise en charge de plusieurs cadres d'IA

    Déploiement facile d'une grande variété de types de modèles grâce à l'intégration de cadres de ML populaires tels que TensorFlow, PyTorch, Scikit-learn et Hugging Face Transformers.

    Modèles de déploiement avancés

    Déploiement sécurisé et incrémentiel de nouvelles versions de modèles grâce à des stratégies sophistiquées telles que les déploiements canari et bleu-vert* ainsi que les tests A/B*.

    API ouvertes

    Déploiement, gestion et surveillance de modèles et d'applications en ligne* et intégration facilitée avec les pipelines CI/CD et autres outils MLOps grâce à la conformité aux normes ouvertes.

    Surveillance des activités

    Surveillance continue des indicateurs de modèles d'IA générative tels que le ressenti, les retours utilisateur et la dérive, qui sont essentiels pour maintenir la qualité et les performances des modèles.

    * Fonctionnalité disponible prochainement. Veuillez nous contacter pour en savoir plus.

    Principales fonctionnalités d'AI Inference Service

    Support hybride et multi-cloud

    Déploiement possible sur site*, dans le cloud public et dans des environnements hybrides pour répondre avec souplesse aux divers besoins des entreprises en matière d'infrastructure.

    Données détaillées et traçabilité des modèles*

    Suivi et documentation complets des transformations de données et des événements du cycle de vie des modèles, pour une meilleure reproductibilité et auditabilité.

    Sécurité de niveau entreprise

    Mise en œuvre de mesures de sécurité robustes, notamment l'authentification, l'autorisation* et le chiffrement des données, pour garantir la protection des données et des modèles en mouvement et au repos.

    Capacités d'inférence en temps réel

    Prédictions en temps réel avec un temps de latence faible et traitement par lots pour les ensembles de données plus volumineux, assurant la flexibilité dans la mise en service des modèles d'IA en fonction de différents indicateurs de performance.

    Haute disponibilité et évolutivité dynamique

    Gestion efficace des charges variables tout en assurant un service continu grâce à des configurations à haute disponibilité et des capacités de dimensionnement dynamique.

    Intégration flexible

    Intégration facile des workflows et applications existants grâce aux API Open Inference Protocol pour les modèles de ML traditionnels et à une API compatible OpenAI pour les LLM.

    Prise en charge de plusieurs cadres d'IA

    Déploiement facile d'une grande variété de types de modèles grâce à l'intégration de cadres de ML populaires tels que TensorFlow, PyTorch, Scikit-learn et Hugging Face Transformers.

    Modèles de déploiement avancés

    Déploiement sécurisé et progressif de nouvelles versions de modèles grâce à des stratégies sophistiquées telles que les déploiements canari et bleu-vert* ainsi que les tests A/B*.

    API ouvertes

    Déploiement, gestion et surveillance de modèles et d'applications en ligne* facilitant l'intégration avec les pipelines CI/CD et d'autres outils MLOps grâce à des API conformes aux normes ouvertes.

    Surveillance des activités

    Surveillance continue des indicateurs clés de modèles d'IA générative tels que le ressenti, les retours utilisateur et la dérive, qui sont essentiels pour maintenir la qualité et les performances des modèles.

    * Fonctionnalité disponible prochainement. Veuillez nous contacter pour en savoir plus.

    Démo

    Déploiement de modèles sans effort

    Découvrez avec quelle facilité vous pouvez déployer de grands modèles de langage et gérer efficacement des applications d'IA à grande échelle grâce aux puissants outils Cloudera.

    Intégration du référentiel de modèles : accédez, stockez, mettez à jour et gérez les modèles facilement par le biais du référentiel centralisé Cloudera AI Registry.

    Configuration et déploiement faciles : déployez des modèles dans des environnements cloud, configurez des points de terminaison et ajustez le dimensionnement automatique pour plus d'efficacité.

    Surveillance des performances : résolvez les problèmes et optimisez les performances en vous basant sur des indicateurs clés tels que le temps de latence, le débit, l'utilisation des ressources et l'état de santé des modèles.

    headshot of Sanjeev Mohan
    Cloudera AI Inference vous permet d'exploiter le plein potentiel des données à grande échelle grâce à l'expertise de NVIDIA en matière d'IA. Des fonctionnalités de sécurité de pointe vous permettent de protéger vos données en toute confiance et d'exécuter des charges de travail sur site ou dans le cloud tout en déployant efficacement des modèles d'IA avec la flexibilité et la gouvernance nécessaires.

    – Sanjeev Mohan, analyste principal, SanjMo

    Vous en voulez plus ?

    Blogs

    Business | AI
    Cloudera | Friday, November 14, 2025
    Business | AI
    Andreas Skouloudis | Thursday, November 13, 2025
    Partners | AI
    Jerome Alexander | Wednesday, October 15, 2025
    Documentation

    Ressources et guides pour vous lancer

    La documentation de Cloudera AI Inference Service fournit toutes les informations dont vous avez besoin. À l'aide de descriptions détaillées des fonctionnalités, de guides d'implémentation utiles et bien plus encore, vous pourrez vous lancer plus rapidement.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.