Your browser is out of date

Update your browser to view this website correctly. Update my browser now

×

Stocker

L'architecture flexible et infiniment évolutive d'Hadoop (basée sur le fichier système HDFS) permet aux organisations de stocker et analyser des quantités et types illimités de données—dans une plate-forme unique en open source sur du matériel industriel.

En savoir plus sur HDFS

En savoir plus sur Apache Kudu

Man using computer

Team working on blueprint

Traitement

Intégrer rapidement aux applications et systèmes existants pour déplacer les données vers et hors Hadoop à travers un traitement de chargement massif (Apache Sqoop) ou un chargement en continu (Apache Flume, Apache Kafka).


Transformer des données complexes, à grande échelle, avec de multiples options d'accès aux données (Apache Hive, Apache Pig) pour un traitement par lots (MR2) ou à intégration rapide (Apache Spark™). Traiter des données de flux alors qu'elles arrivent dans votre cluster via Spark Streaming.

En savoir plus sur Apache Spark™


Découvrir

Les analystes interagissent en permanence avec des données totalement fidèles avec Apache Impala, la entrepôts de données d'Hadoop. Avec Impala, les analystes font l'expérience d'une performance SQL et de fonctionnalités de qualité BI et découvrent la compatibilité avec tous les meilleurs outils de BI.

Avec Cloudera Search, une intégration d'Hadoop et d'Apache Solr, les analystes peuvent accélérer le processus de découverte des tendances des données de toutes quantités et tous formats, en particulier si combiné avec Impala.

En savoir plus sur Apache Impala

En savoir plus sur Cloudera Search

Side view of two men looking at computer

three men sitting together, looking at laptop

Modéliser

Avec Hadoop, les analystes et data scientistes ont la flexibilité de développer et d'itérer des modèles statistiques avancés à l'aide d'une combinaison de technologies partenaires et de systèmes en open source comme Apache Spark™.


Disponibilité

Le système de fichiers distribué pour Hadoop, Apache HBase, supporte les lectures/écritures aléatoires et rapides (« données rapides ») des applications en ligne.

En savoir plus sur Apache HBase

Man sitting in office with laptop on lap

CDH : construite en open source et standards ouverts

CDH, la distribution d'Hadoop la plus connue dans le monde, est la plate-forme 100% open source de Cloudera. Elle inclut tous les éléments majeurs de l'écosystème d'Hadoop pour stocker, traiter, découvrir, modéliser et servir des données illimitées, et est conçue pour satisfaire les meilleurs standards de stabilité et fiabilité de l'entreprise.

CDH est entièrement basée sur des standards ouverts pour une architecture à long terme. En tant que principale programmatrice de standards ouverts dans Hadoop, Cloudera détient le palmarès des nouvelles solutions en open source de sa plate-forme (comme Apache Spark™, Apache HBase et Apache Parquet) qui sont finalement adoptées par tout l'écosystème. 

En savoir plus sur les éléments clés de CDH

En savoir plus sur l’open source et les standards ouverts

Essayer maintenant

Developers working late

Your form submission has failed.

This may have been caused by one of the following:

  • Your request timed out
  • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.