Cloudera désignée leader dans The Forrester Wave™ : Plateformes de données, 4e trimestre 2025

Lire le rapport
  • Cloudera Cloudera
  • | Partenaires

    Économie d'IA évolutive : atteindre une intelligence hybride sécurisée avec Cloudera, AMD et Dell Technologies

    Steve Catanzano
    Deux femmes marchant dans des bureaux

    L’intérêt des entreprises pour l’IA générative et agentique s’est considérablement accru au cours des deux dernières années. Des organisations de tous les secteurs étudient comment les agents d’IA, les assistants intelligents et l’automatisation peuvent améliorer la productivité, rationaliser les opérations et dégager des informations clés à partir de volumes croissants de données d’entreprise. Pourtant, à mesure que l’enthousiasme grandit, les questions autour des coûts, de la sécurité et de la complexité opérationnelle se multiplient.

    Une réalité devient de plus en plus évidente : toutes les charges de travail d'IA ne nécessitent pas des unités de traitement graphique (GPU) ni des modèles fondamentaux massifs. En fait, de nombreux cas d'utilisation à forte valeur ajoutée peuvent être réalisés efficacement à l'aide d'unités centrales de traitement (CPU) et de modèles de langage plus petits, axés sur des tâches spécifiques, en particulier lorsqu'ils sont déployés à proximité des données qu'ils traitent.

    Un nombre croissant d'organisations réévaluent aujourd'hui leurs stratégies d'IA sous ce prisme. Plutôt que de viser la mise à l'échelle à tout prix, elles privilégient le retour sur intelligence : la capacité à déployer des solutions d'IA de manière sécurisée, économique et évolutive. Cette évolution détermine la manière dont les entreprises envisagent l'infrastructure, l'architecture de données et la gouvernance, alors que l'IA passe de l'expérimentation à la production.

    Un changement dans l'économie de l'IA en entreprise

    Une étude menée par Enterprise Strategy Group (qui fait désormais partie d'Omdia) indique qu'environ 80 % des organisations considèrent les agents d'IA comme une priorité absolue ou une priorité majeure. Ces agents promettent des avantages tangibles grâce à l'automatisation, une prise de décision plus rapide et une amélioration des expériences des employés et des clients. Cependant, de nombreuses organisations continuent de rencontrer des difficultés liées aux coûts et à la charge opérationnelle associés aux déploiements centrés sur les GPU.

    L'infrastructure GPU peut entraîner des dépenses d'investissement importantes, une consommation d'énergie et des contraintes de chaîne d'approvisionnement. Pour de nombreuses charges de travail d'inférence en temps réel et basées sur la connaissance, cette approche peut ne pas correspondre aux besoins de l'entreprise. Par conséquent, les entreprises explorent de plus en plus des alternatives qui permettent de mieux adapter les ressources informatiques aux exigences de la charge de travail.

    C'est là que l'IA basée sur le CPU, associée à des modèles de langage plus petits, s'est imposée comme une option pratique. Plutôt que de rechercher les modèles les plus vastes possibles, les organisations utilisent les actifs qu'elles possèdent déjà pour résoudre leurs problèmes budgétaires en achetant des GPU ou en y accédant. Il s'agit de dimensionner correctement les architectures d'IA qui mettent l'accent sur l'efficacité, la sécurité et l'évolutivité.

    L'IA adaptée et le rôle des petits modèles linguistiques

    Les petits modèles de langage (SLM) sont conçus pour accomplir des tâches d’entreprise spécifiques, telles que le résumé, les réponses aux questions, la génération de contenu et l’assistance au code. Contenant généralement beaucoup moins de paramètres que les grands modèles de langage, les SLM peuvent s’exécuter efficacement sur des processeurs (CPU) modernes tout en offrant de solides performances pour des cas d’utilisation ciblés.

    Cette approche offre plusieurs avantages. L'inférence sur processeur (CPU) réduit les coûts d'infrastructure, diminue la consommation d'énergie et simplifie le déploiement. Il permet également aux organisations d'exécuter des charges de travail liées à l'IA au sein de leurs centres de données existants ou de leurs environnements cloud privés, répondant ainsi aux préoccupations liées à la souveraineté des données et à la conformité réglementaire.

    Dans ce contexte, Cloudera a positionné sa stratégie d'IA privée autour de la capacité pour les entreprises de déployer et d'exploiter des systèmes d'IA entièrement au sein de leurs propres environnements contrôlés. En combinant une architecture de lac de données ouverte avec une gouvernance intégrée et des capacités MLOps, Cloudera soutient le développement de l'IA qui reste proche des données de l'entreprise.

    L'infrastructure compte : CPU et plateformes d'entreprise

    L'efficacité de l'IA basée sur le CPU dépend fortement de l'infrastructure sous-jacente. Les progrès réalisés dans le domaine des processeurs modernes ont considérablement amélioré le rapport performance/prix pour les charges de travail d'analyse et d'inférence. Les processeurs AMD EPYC ™, par exemple, sont conçus pour offrir une densité de cœurs élevée, une bande passante mémoire importante et des fonctionnalités de sécurité intégrées, ce qui les rend parfaitement adaptés à l'inférence IA et aux charges de travail gourmandes en données.

    Déployées sur des systèmes de niveau entreprise de Dell Technologies, les solutions permettent aux organisations de faire évoluer leurs charges de travail d'IA de manière fiable tout en tirant parti d'architectures validées et optimisées pour les plateformes de données et d'IA. Cette combinaison permet aux entreprises de moderniser leurs capacités d'IA sans avoir à repenser l'intégralité de leur infrastructure.

    D’un point de vue opérationnel, ce modèle permet aux organisations de réutiliser les investissements existants, d’accélérer les délais de déploiement et de réduire la dépendance au matériel spécialisé. Dans ces scénarios, l'accent n'est pas mis sur la taille du modèle, mais sur l'efficacité, la réactivité et la confiance.

    Cas d'utilisation pratiques de l'IA avec les CPU

    Bon nombre des applications d’IA les plus précieuses d’aujourd’hui peuvent fonctionner efficacement sur des processeurs (CPU), sans nécessiter de modèles massifs ni d’accélération GPU. Voici quelques exemples :

    Assistants de connaissances internes

    Les entreprises stockent souvent des connaissances critiques dans des documents, des e-mails et des reports. En appliquant des SLM à ces données, les organisations peuvent permettre un accès en langage naturel aux informations internes, améliorant ainsi la prise de décision tout en conservant les données sensibles sur site.

    Chatbots d'assistance pour employés et agents

    Les équipes des ressources humaines, de l'informatique et du service client sont confrontées à des questions récurrentes qui peuvent être automatisées grâce à des chatbots internes sécurisés. L'IA basée sur le CPU permet une assistance toujours disponible sans exposer de données externes.

    Génération de contenu et de documentation

    Les équipes marketing, conformité et ingénierie produisent fréquemment du contenu répétitif. La génération et la synthèse assistées par l'IA peuvent accélérer les flux de travail tout en maintenant la cohérence et la gouvernance.

    Support au développement logiciel

    Les assistants alimentés par SLM peuvent générer des extraits de code, des tests et de la documentation au sein des pare-feu d'entreprise, aidant les équipes de développement à améliorer la productivité sans envoyer la propriété intellectuelle à des services d'IA publics.

    Analyses prédictives et optimisation

    Dans le domaine de la fabrication et des opérations, les modèles d'IA basés sur le CPU analysent les données des capteurs et des opérations afin de prévoir les défaillances et d'optimiser les performances, réduisant ainsi les temps d'arrêt et les coûts d'exploitation.

    La gravité des données et l'importance de l'IA sur site

    Malgré une adoption généralisée du cloud, une part importante des données d’entreprise reste sur site. Les recherches d'Omdia indiquent que de nombreuses organisations conservent entre 26 % et 75 % de leurs données dans des environnements locaux ou privés. Cette gravité des données présente des défis lorsque le traitement par IA nécessite le transfert d'informations sensibles vers des plateformes externes.

    Les architectures d'IA privées relèvent ce défi en amenant l'IA aux données plutôt que l'inverse. En exécutant des charges de travail d'IA au sein d'environnements existants, les organisations réduisent la latence, améliorent les performances et restent conformes aux réglementations telles que le RGPD, la loi HIPAA et les mandats spécifiques à l'industrie.

    L’approche de Cloudera intègre l’ingestion de données, la gouvernance, la gestion de modèles et le service au sein d’une plateforme unique. Associée à une infrastructure basée sur le CPU, cette solution permet aux entreprises de passer plus efficacement des projets pilotes à l'IA de production.

    Du projet pilote à la production : mesurer les résultats

    L'un des principaux obstacles à l'adoption de l'IA est l'écart entre la validation du concept et le déploiement en production. Les architectures d’IA basées sur CPU contribuent à réduire cet écart en réduisant les coûts et la complexité opérationnelle.

    Les organisations adoptant cette approche rapportent plusieurs résultats :

    • Coût total de possession inférieur pour les charges de travail à forte charge d'inférence
    • Des cycles de déploiement plus rapides en évitant l’achat de matériel spécialisé
    • Réduction de la consommation d’énergie en accord avec les objectifs de durabilité
    • RSI amélioré grâce à une sélection de calcul appropriée à la charge de travail

    Ces avantages renforcent un consensus croissant selon lequel le succès de l'IA d'entreprise dépend autant de l'économie et de la gouvernance que de la performance du modèle.

    Conclusion : une voie pratique pour l'IA d'entreprise

    La prochaine phase de l'IA d'entreprise ne sera pas définie par les modèles les plus grands ou le matériel le plus puissant. Au contraire, elle sera façonnée par des organisations capables de déployer l'IA de manière sûre, économique et à grande échelle, en utilisant des architectures alignées sur les besoins réels de l'entreprise.

    En combinant la plateforme de données et de gouvernance de Cloudera avec les processeurs EPYC AMD et l’infrastructure Dell Technologies, les entreprises disposent d’une voie viable pour opérationnaliser l’IA dans leurs propres environnements. Cette approche adaptée permet aux organisations de se concentrer sur les résultats, et non sur la complexité de l'infrastructure, et de libérer la valeur de l'IA là où leurs données se trouvent déjà.

    Alors que les entreprises continuent de faire passer les initiatives d'IA de l'expérimentation à la production, les architectures pratiques d'IA privée basées sur des processeurs (CPU) joueront probablement un rôle de plus en plus important.

    Pour en savoir plus sur la réalisation d’une IA économique avec Cloudera, AMD et Dell Technologies, téléchargez le document Omdia Showcase.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.