Nous avons fait découvrir au monde la valeur du big data grâce à l'open source, et l'importance que nous attachons à l'open source, aux normes ouvertes et aux marchés ouverts est à l'origine de la prochaine vague d'innovation.
Innover en open source
Quelques vendeurs consomment l'activité de la communauté en open source ; d'autres contribuer à la développer. Cloudera influence l'évolution de la plateforme Hadoop en créant, en proposant et en soutenant de nouvelles fonctionnalités qui répondent aux exigences de sécurité, d'évolutivité et d'accessibilité des clients.
Curation des standards ouverts
Cloudera a une expérience longue et avérée dans l'identification, la curation et le support des standards ouverts (dont Apache HBase, Apache Spark et Apache Kafka) qui offrent l'architecture classique et à long terme sur laquelle les utilisations des clients sont fondées.
Plus grandes exigences commerciales
Pour garantir la meilleure expérience client, Cloudera investit des ressources considérables dans des essais multidimensionnels sur des charges de travail réelles, avant les lancements sur le marché, ainsi que dans des essais sur la soutenabilité de la plate-forme dans son intégralité, via une forte implication dans la communauté de l'open source.
Nos contributions à la communauté open source nous permettent de bénéficier en retour des dernières innovations
200+
« contributeurs » Apache
65
représentants au PMC répartis dans 22 projets
>35
projets
Notre écosystème open source
Apache Hadoop est une plateforme logicielle open source de stockage et traitement distribués d'ensembles de données très volumineux sur des clusters d'ordinateurs créés avec du matériel standard. Les services Hadoop sont essentiels au stockage, au traitement, à l'accès, à la gouvernance, à la sécurité et à l'exploitation des données.
Apache Accumulo
Magasin clé-valeur distribué et trié avec contrôle d'accès basé sur les cellules.
Apache Atlas
Conformité réglementaire au modèle Agile pour entreprises via des métadonnées.
Apache Flink
Framework de traitement des flux en temps réel pour l'analyse et les applications du big data.
Apache Hadoop
Framework de stockage et de traitement distribués pour les tâches de traitement de données à grande échelle.
Apache HBase
Base de données non relationnelle (NoSQL) qui s'exécute sur HDFS.
Apache Hive
Norme de facto des requêtes SQL dans Hadoop.
Apache Impala
Base de données analytique de traitement massivement parallèle (MPP) open source d'Apache Hadoop qui offre l'accès le plus rapide aux informations.
Apache Kafka
Système de messagerie rapide, évolutif et tolérant aux pannes
Passerelle Apache Knox
Point d'entrée sécurisé pour les clusters Hadoop.
Apache Kudu
Stockage d'analyses rapides de données rapides.
Apache NiFi
Plateforme de traitement des événements et de logistique des données fonctionnant de façon intégrée en temps réel.
Apache Oozie
Le plan de Hadoop pour les entreprises comprend les couches initiales de stockage et de traitement des données d'Apache Hadoop.
Apache Phoenix
Moteur de base de données relationnelle open source, massivement parallèle, prenant en charge le traitement transactionnel en ligne pour Hadoop à l'aide d'Apache HBase.
Apache Ranger
Sécurité globale de Hadoop pour les entreprises.
Apache Solr
Indexation et recherche rapides sur Hadoop.
Apache Spark
Spark ajoute à Hadoop un traitement en mémoire des charges de travail ETL, machine learning et data science.
Apache Sqoop
Transfère efficacement d'importants volumes de données entre Apache Hadoop et des magasins de données structurés.
Apache Tez
Framework pour les applications YARN de traitement des données dans Hadoop.
Apache YARN
Cœur architectural de Hadoop pour les entreprises.
Apache Zeppelin
Notebook Web complètement open source permettant une analyse interactive des données.
Apache ZooKeeper
Serveur open source qui coordonne les processus distribués.
HDFS
Système de fichiers distribué conçu pour stocker et gérer de grandes quantités de données.
HUE
Workbench SQL open source pour les entrepôts de données.