Talend propose aux développeurs une sandbox pour mettre en oeuvre des scénarios de big data et de machine learning

Talend a annoncé, lors de la conférence Strata Data à New York, une nouvelle sandbox qui permet aux développeurs et aux ingénieurs de données d'avoir accès à des technologies avancées de machine learning, afin qu'ils puissent facilement créer des pipelines de données intelligents. Avec la Sandbox Talend Big Data et Machine Learning et son guide d’utilisation, les ingénieurs de données peuvent utiliser des modèles prédéfinis, détaillés étape par étape, de machine learning et qui exploite Apache Spark, Spark Machine Learning Library (MLlib) et Spark Streaming, en quelques minutes et sans codage. Les personnes intéressées peuvent télécharger la Sandbox gratuitement ici.

« Il y a un énorme manque de compétences qui fait que les développeurs et les ingénieurs de données ont du mal à mettre en œuvre des scénarios de big data et de machine learning, afin de générer de la valeur  », déclare Ashley Stirrup, CMO de Talend.  « Le développement spécifique de scénarios d’intégration big data se révélent souvent problèmatique lors du passage à la production, avec des coûts de maintenance élevés, de nouvelles tâches d'intégration manuelle à effectuer et la re-implantation d'algorithmes de machine learning.  Avec la Sandbox Talend Big Data et Machine Learning, les équipes peuvent lancer des fonctionnalités de machine learning en quelques minutes, et faire plus rapidement le transition de la phase pilote à la mise en production. »

Quatre modèles prédéfinis de machine learning détaillés étape par étape, sont inclus dans un guide d’utilisation, avec la Sandbox Talend Big Data et Machine Learning. Les développeurs et ingénieurs de données peuvent rapidement démarrer avec un environnement entièrement configuré de traitement Spark et créer ainis de la valeur, en utilisant les scénarios prêts à l’emploi de Talend, notamment :

  • Moteur de recommandation : Automatise une offre de recommandation de films grâce au machine learning.
  • Moteur d'évaluation de risques en temps réel : Réduit les risques grâce à la prévision de prêts en temps réel.
  • Maintenance prédictive des objets connectés : Optimise les performances et le cycle de vie des distributeurs automatiques à l'aide des données de capteurs.
  • Optimisation d’un Data Warehouse : Décharge le traitement des données sur Spark pour une vision plus rapide et plus approfondie, à moindre coût.