Coût total de possession (TCO pour Total Cost of Ownership)
Le coût total de possession est un outil permettant d'estimer l'ensemble des coûts d'un produit ou d'un service en vue de déterminer la valuer économique d'un investissement. Comparativement au coût du cycle de vie, le TCO ne prend pas en compte ni les coût en aval (conception, fabrication, propriété précédente) ni les coût en amont (propriété suivante et démantèlement). Dans l'industrie IT, le TCO est synonyme du coût du cycle de vie lorsqu'il s'applique aux matériel et aux logiciels. La définition a évoluée pour inclure tous les coûts associés au développement et à l'exploitation. Le calcul des TCOs est une activité complexe qui ne se limite pas aux coûts d'acquisition et d'exploitation des plateformes, produits et services mais intégrant aussi l'acquisition de licences, la rapidité des traitements, la résilience et les risques d'interruption, la qualification des composants et de leurs montées de version, la supervision, la sensibilité de la données, la proximité avec d’autres sources de données, la richesse de l’écosystème disponible, la flexibilité, la productivité ou encore le Time To Market. Par exemple, utiliser Erlang comme langage de programmation principal peut constituer un défi pour le recrutement ou la formation d'ingénieurs afin de maîtriser le langage et son écosystème. Cependant, au moment de son acquisition, l'ecosystem autour de ce langage permit à l’équipe Whatsapp d’être composée de 32 personnes, dont seulement 10 travaillaient côté serveur, de servir 450 millions d’utilisateurs actifs en 2013, de porter le service à 54 milliards de messages pour la seule journée du 31 décembre 2013, tout en développant de nouvelles fonctionnalités, en maintenant les existantes et en prenant en charge l’ensemble du système. Un autre exemple est Bleacher Report, une application et un site Web axés sur les actualités du sport, qui réduirent leurs besoins en matériel de 150 serveurs à 5 lors de la migration de Ruby vers Elixir qui, comme Erlang, repose sur le moteur BEAM.
- En savoir plus
- Wikipédia
Articles associés
Spark Streaming Partie 2 : traitement d'une pipeline Spark Structured Streaming dans Hadoop
Catégories : Data Engineering, Formation | Tags : Apache Spark Streaming, Spark, Python, Streaming
Spark est conçu pour traiter des données streaming de manière fluide sur un cluster Hadoop multi-nœuds, utilisant HDFS pour le stockage et YARN pour l’orchestration de tâches. Ainsi, Spark Structured…
Par RYNKIEWICZ Oskar
28 mai 2019
Éviter les blocages dans les pipelines distribués de Deep Learning avec Horovod
Catégories : Data Science | Tags : GPU, Deep Learning, Horovod, Keras, TensorFlow
L’entraînement des modèles Deep Learning peut être grandement accéléré en utilisant un cluster de GPUs. Lorsqu’il s’agit de grandes quantités de données, effectuer des calculs distribués devient…
Par JOUET Grégor
15 nov. 2019
Innovation, culture projet vs culture produit en Data Science
Catégories : Data Science, Gouvernance des données | Tags : DevOps, Agile, Scrum
La Data Science porte en elle le métier de demain. Elle est étroitement liée à la compréhension du métier, des comportements et de l’intelligence qu’on tirera des données existantes. Les enjeux sont à…
Par WORMS David
8 oct. 2019
Nvidia et l'IA embarqué
Catégories : Data Science | Tags : Caffe, GPU, NVIDIA, IA, Deep Learning, Edge computing, Keras, PyTorch, TensorFlow
Depuis un peu plus de quatre ans, beaucoup de sociétés investissent dans l’intelligence artificielle et plus particulièrement dans le Deep Learning et le Edge Computing. Alors que la théorie avance à…
Par HATI Yliess
10 oct. 2018
Migration de cluster et de traitements entre Hadoop 2 et 3
Catégories : Big Data, Infrastructure | Tags : Shiro, Erasure Coding, Rolling Upgrade, HDFS, Spark, YARN, Docker
La migration de Hadoop 2 vers Hadoop 3 est un sujet brûlant. Comment mettre à niveau vos clusters, quelles fonctionnalités présentes dans la nouvelle version peuvent résoudre les problèmes actuels et…
Par BAKALIAN Lucas
25 juil. 2018
Apache Beam : un modèle de programmation unifié pour les pipelines de traitement de données
Catégories : Data Engineering, DataWorks Summit 2018 | Tags : Apex, Beam, Pipeline, Flink, Spark
Dans cet article, nous allons passer en revue les concepts, l’histoire et le futur d’Apache Beam, qui pourrait bien devenir le nouveau standard pour la définition des pipelines de traitement de…
Par LEONARD Gauthier
24 mai 2018
Présentation de MapReduce
Catégories : Big Data | Tags : Java, MapReduce, Big Data, JavaScript
Les systèmes d’information ont de plus en plus de données à stocker et à traiter. Des entreprises comme Google, Facebook, Twitter mais encore bien d’autre stockent des quantités d’information…
Par WORMS David
26 juin 2010