Tout savoir sur hadoop - Tutoriels et astuces #hadoop

HADOOP - Lire une table Hive en SQL explicit

HADOOP - Lire une table Hive en SQL explicit Aperçu de l'articleOptimisez vos performances SAS avec le SQL Explicit Pass-Through sur Hadoop. Apprenez à interroger Hive directement pour des requêtes plus rapides.Cliquer pour lire l'article complet

Découvrez comment booster l'exécution de vos requêtes en utilisant le mode SQL Explicit Pass-Through entre SAS et Hadoop. Ce guide rapide vous livre la syntaxe exacte pour interroger vos tables Hive avec efficacité, tout en déléguant la puissance de calcul au cluster pour des résultats instantanés.
HADOOP - Créer une table Hive en SAS  Explicit SQL Pass-Through

HADOOP - Créer une table Hive en SAS Explicit SQL Pass-Through Aperçu de l'articleApprenez à créer et alimenter une table Hadoop directement depuis SAS via PROC SQL. Un guide rapide pour maîtriser l'EXECUTE BY et gérer le type String (32k).Cliquer pour lire l'article complet

Découvrez comment piloter vos données Hadoop sans quitter votre environnement SAS. Ce tutoriel pratique vous détaille la syntaxe PROC SQL pour créer et alimenter vos tables Hive, tout en levant le voile sur la gestion spécifique des colonnes String et leur fameuse limite de 32 767 caractères.
HADOOP - Lire tous les fichiers d'un répertoire HDFS comme s'il s'agissait d'un seul fichier

HADOOP - Lire tous les fichiers d'un répertoire HDFS comme s'il s'agissait d'un seul fichier

Un répertoire HDFS contient deux fichiers csv de données :   Il est possible de lire ces deu...
HADOOP - Copier efficacement un fichier vers HDFS depuis SAS

HADOOP - Copier efficacement un fichier vers HDFS depuis SAS

Depuis SAS, il est possible de copier un fichier local dans HDFS en utilisant plusieurs méthodes. Toutef...
HADOOP - Lecture d'un fichier csv avec l'instruction filename

HADOOP - Lecture d'un fichier csv avec l'instruction filename

Le code ci-dessous permet de lire un fichier csv sur Hadoop : filename mydata hadoop "/companyData/data.cs...
Activer les logs de debug Java pour SAS/ACCESS interface to Hadoop

Activer les logs de debug Java pour SAS/ACCESS interface to Hadoop

Contrairement aux autres module SAS/ACCESS, pour utiliser SAS/ACCESS avec un serveur Hadoop, un ensembl...
Workspace Server : Mode trace et débogage SAS/ACCESS Interface to Hadoop

Workspace Server : Mode trace et débogage SAS/ACCESS Interface to Hadoop Aperçu de l'articleApprenez à activer les logs et traces TRACE/DEBUG sur le SAS Workspace Server et log4j pour résoudre vos erreurs de connexion SAS/ACCESS vers Hadoop. (149 caractères)Cliquer pour lire l'article complet

Un problème de performance ou de connexion avec SAS/ACCESS Interface to Hadoop ? Ne restez plus dans le noir. Découvrez comment activer les fichiers de configuration logconfig.trace.xml et les options de trace SQL pour générer des journaux de débogage ultra-précis et identifier la source de vos e...
Connaitre l'état de son stockage HDFS

Connaitre l'état de son stockage HDFS Aperçu de l'articleOptimisez l'administration de votre cluster avec la commande hdfs dfsadmin -report. Apprenez à surveiller l'espace disque, les DataNodes et l'état de vos blocs.Cliquer pour lire l'article complet

Maîtrisez la santé de votre cluster Hadoop en un clin d'œil grâce à la commande hdfs dfsadmin -report. Cet article vous explique comment interpréter les indicateurs clés comme la capacité configurée et le DFS Used, tout en vous livrant l'astuce pour calculer la taille réelle de vos données.
SAS/ACCESS to Hadoop et les colonnes String (32k string thing)

SAS/ACCESS to Hadoop et les colonnes String (32k string thing)

Si vous avez l’habitude de travailler avec SAS et Hadoop vous avez sans doute été confronté, au moins une f...
HADOOP - Créer une table est charger des données

HADOOP - Créer une table est charger des données Aperçu de l'articleDécouvrez comment configurer des formats SAS (SASFMT) dans Apache Hive pour vos colonnes Timestamp. Un guide rapide pour mapper vos données avec précision.Cliquer pour lire l'article complet

Maîtrisez l'importation de données temporelles sous Hive en configurant les propriétés SASFMT. De la création de fichiers Linux à la définition de formats de date spécifiques comme DATETIME(20), ce tutorat technique vous montre comment assurer la parfaite compatibilité de vos timestamps en quelqu...