Adaltas

Adaltas manie les technologies open source de l’Internet. Nos domaines de compétences incluent la création d’applications riches basées sur l’HTML5, l’environnement serveur NodeJs, les stockages NoSQLs et le traitement de données massives, notamment sur la plateforme Hadoop.

Adaltas work with open source web technologies. Our focus is on rich Internet application based on HTML5, the server-side NodeJs stack, NoSQLs storages and big data treatment with Hadoop.

[en] Definitions of machine learning algorithms present in Apache Mahout.

Apache Mahout is a machine learning library built for scalability. Its core algorithms for clustering, classfication and batch based collaborative filtering are implemented on top of Apache Hadoop using the map/reduce paradigm.

It contains various algorithms which we are defining below. Each of them may define multiple implementations. A mojority but not all of the implementations are distributed.

[fr] Traverser des arrays en mode asynchronisé dans Node.js avec Each

Les librairies en Node.js permettant de gérer et simplifier les appels asynchrones sont légions. Voici le genre de librairies que chacun écrit pour lui et éventuellement publie. Elles ont pour but de réduire les codes spaghetti constitué d’imbrication de callbacks. Je ne fais pas exception. Après un an et demi d’usage intensif, je pense qu’il est temps de faire honneur à Each, ma propre libraire de gestion de flux asynchrones, communément appelées en anglais “control flow library”.

Toutefois, pour être exact, il ne s’agit pas exactement d’une librairie de gestion de flux asynchrone au sens traditionnel du terme. Each ne fourni pas de mécanisme permettant de chainer et de contrôler les fonctions. Sa conception vient de mon besoin intensif de traverser des arrays et d’effecteur pour chaque élément des appels asynchronisés. Each est en quelques sorte une version asynchrone et boostée de Array.prototype.forEach.

[en] Asynchronous array iteration in Node.js with Each

Control flow in Node.js is the sort of library for which almost all the developers have created and publish their own libraries. They usually aim at reducing spaghetti codes made of deep callbacks. I’m no exception to the rule. After a year and a half of intensive usage, I feel like it’s about time to present Each, my own control flow library.

Well, to be exact, it isn’t a control flow library in the traditional sense. There is no such mechanism to chain and control functions. It came from my intensive need to traverse arrays and call asynchronous code on each of their elements. Think about Array.prototype.forEach on steroids.

[fr] Stockage HDFS et Hive - comparaison entre les formats de fichiers et les méthodes de compression

Il y a quelques jours, nous avons conduit un test dans le but de comparer différent format de fichiers et méthodes de compression disponible dans Hive. Parmi ces formats, certains sont natifs à HDFS et s’appliquent à tous les utilisateurs d’[Hadoop]. La suite de tests est composée de requête Hive toutes similaires qui créent une table, éventuellement définissent une méthode de compression et chargent un jeu de données dans cette table nouvellement crée. Parmi les requêtes écrites sont testés les formats “sequence file”, “text file” et “RCFILE” ainsi que les codecs de compression “default”, “bz”, “gz”, “LZO” et “Snappy”.

[fr] Notes sur le rapport gallois par une entreprise informatique

Dans le cadre de la lecture du rapport Gallois rendu publique hier, j’ai conservé quelques notes qui après recompilation sont publié en ligne. On peut certes regretter le manque de mention sur le secteur informatique mais le rapport affiche sa volonté de ne pas proposer de préconisations sectorielles.

Le résumé qui en débouche n’est pas exhaustif et n’inclue que les sujets qui ont pour Adaltas le plus d’intérêt. Plus particulièrement, je me suis intéressé aux mesures susceptible de dynamiser les petites et moyennes entreprises, aux secteurs de l’informatique et de l’énergie, à l’investissement dans la recherche et le développement. Ces centres d’intérêts sont en partie dû au fait qu’Adaltas travaille avec la R&D d’EDF depuis plusieurs années.

[fr] Node CSV version 0.2.1

Faisant suite a l’annonce de la version 0.2.0 du parser CSV pour Node.js début octobre, aujourd’hui sort la nouvelle version 0.2.1. Il s’agit essentiellement d’une distribution corrigeant des bugs. Toutefois, quelques fonctionnalités intéressantes ont trouvé leur chemin. La documentation du parser a été mise à jour pour refléter ces changements.

[en] Node CSV version 0.2.1

After the announcement of the version 0.2.0 of the Node.js CSV parser at the begining of october, we are releasing today a new version 0.2.1. This is mostly a bug fix release with enhanced documentation. However it does introduce a few interesting functionalities as well. The parser documentation has been updated to reflect this new release.