IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apprendre à faire du Machine Learning sur Spark : MLib, théorie et concepts,
Un tutoriel de Yoann Benoit et Alban Pehlip

Le , par Mickael Baron

6PARTAGES

6  0 
Bonjour,

La société Xebia qui est un cabinet de conseil Parisien spécialisé dans les technologies Big Data, Cloud, Web, les architectures Java et mobilité dans les environnements agiles vous propose un tutoriel pour apprendre à faire du Machine Learning sur Apache Spark.

Voici l'adresse du tutoriel : http://xebia.developpez.com/tutoriel...earning-spark/

N'hésitez pas à laisser des commentaires

Retrouver les meilleurs cours et tutoriels pour apprendre autour du Big Data

Mickael

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de chaya
Membre habitué https://www.developpez.com
Le 07/07/2016 à 14:18
Génial, c'est un tutoriel que j'attendais avec beaucoup d'impatience.

Vivement la suite avec des exemples pratiques!
0  0 
Avatar de dev_ggy
Membre éprouvé https://www.developpez.com
Le 21/03/2017 à 12:43
Bonjour à tous,

Petite question sur l'intérêt de Spark. Il est enseigné pour la modélisation qu'il est toujours préférable de constituer un petit Dataset bien ventilé et de construire un modèle dessus. Avoir de très grosse volumétrie de données ne permet pas d'avoir de meilleure convergence. Les algorithmes ont un seuil de précision par rapport au nombre de données qui fait plafonner la précision. Ajouté toujours plus de données n'ayant pas d'intérêt, dans quel cadre Spark est-il vraiment utile pour le machine learning ?

Au plaisir de vous lire.
0  0