IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le "In-Memory" débarque dans SQL Server
Microsoft muscle Excel pour la BI et annonce le SP1 de SQL Server 2012 au Pass Summit 2012

Le , par Hinault Romaric

327PARTAGES

4  0 
Microsoft a profité de son salon Pass Summit 2012 dédié à SQL Server pour dévoiler sa vision d’une plateforme de gestion de données moderne.

L’éditeur à travers plusieurs annonces a renouvelé son engagement d’aider ses clients à mieux exploiter leurs données, qu’elles soient structurées ou non structurées, où qu’elles se trouvent et quelle que soit leur taille.

L’annonce phare qui a marqué l’ouverture du Pass Summit 2012 a été la présentation d’une nouvelle technologie de base de données transactionnelles in-Memory qui sera disponible dans la prochaine version majeure de SQL Server.

Le concept « In-Memory » consiste à mettre en cache les données traitées par les applications plutôt que, par exemple, de faire des appels à un serveur.

Baptisée « Hekaton », la solution « In-Memory » de Microsoft est une couche de base de données et de calcul permettant le traitement de volumes massifs de données en temps réel, en mémoire vive, afin de fournir les résultats immédiats d’analyses et de transactions.

Concrètement, en maintenant par exemple une table de base de données en mémoire, le serveur peut exécuter des transactions à l’aide de cette table beaucoup plus rapidement, car le serveur de base de données n’a plus besoin de lire ou d'écrire des données sur un disque.

« Hekaton » est développé en maintenant les propriétés ACID (atomicité, cohérence, isolation, durabilité) requises pour une base de données relationnelle. Hekaton écrit les journaux des transactions sérialisées en mémoire, puis les transfère sur le disque. La solution utilise un certain nombre d’algorithmes de compression pour charger davantage de données en mémoire.

Selon les premières conclusions des tests menés par Microsoft « Hekaton » offrirait des performances jusqu’à 10 fois supérieures pour des applications existantes et jusqu’à 50 fois supérieures pour de nouvelles applications optimisées pour l’in-memory.

Le projet « Hekaton » est actuellement en test auprès d’un petit groupe de clients et viendra renforcer le portfolio des fonctionnalités in-memory de Microsoft dédiées à l’analytique, le transactionnel, le streaming et le caching.

L’approche « In-Memory » est une tendance montante dans le domaine des bases de données, permettant l’accélération du traitement des gros volumes de données (Big Data). Des offres comme Hana de SAP et ExaData d’Oracle reposent sur le concept « In-Memory ».

Microsoft n’a pas dévoilé le nom de code, ni la date de sortie d’une préversion du prochain SQL Server.

A la suite de la présentation de Hekaton, Microsoft a annoncé la date de disponibilité de la prochaine version de son appliance (matériel et logiciel intégrés) SQL Server 2012 Parallel Data Warehouse (PDW).

PDW permet aux clients d’augmenter la capacité de leurs Entrepôts de Données jusqu’à plusieurs centaines de téraoctets. La nouvelle version de la plateforme propose essentiellement une intégration transparente avec Hadoop et les technologies de BI in-Memory (Power Pivot et Power View) de Microsoft.

SQL Server 2012 PDW sera doté de PolyBase, un moteur de traitement de données unique, qui permettra des requêtes tant sur des données relationnelles que sur des données Hadoop non-relationnelles. Pour rappel, Hadoop est un Framework open source pour le traitement des gros volumes de données.

Selon Microsoft, SQL Server 2012 PDW offrira des performances de nouvelle génération et une architecture repensée pour réduire l'impact du hardware, pour un coût total faible. La solution sera disponible au cours du premier semestre 2013 et sera un élément essentiel pour aider les entreprises à relever le défi du Big Data.

SQL Server 2012 SP 1 apporte comme nouveautés : AlwaysOn Availability Group OS Upgrade qui permet aux utilisateurs de passer à un niveau plus élevé de cluster Windows Server, tout en maintenant intact le niveau de service lors de la mise à jour vers la version supérieure ; Selective XML index pour l’amélioration des performances des requêtes et des fonctions statistiques.

SQL Server 2012 SP1 offre également une intégration des nouvelles fonctionnalités de Business Intelligence d’Office 2013. Doté du moteur d'analytique in-Memory de Microsoft, il permet aux utilisateurs professionnels d'interagir directement avec les données brutes dans Excel 2013 grâce à PowerPivot, pour la modélisation des données et Power View pour une visualisation interactive des données.

L’accès aux outils In-Memory Power View et Power Pivot étendent les capacités d’Excel qui devient une solution de BI à part entière.

Source : Vidéo de la Keynote Pass Summit 2012

Et vous ?

Que pensez-vous de ces produits ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gugelhupf
Modérateur https://www.developpez.com
Le 08/11/2012 à 21:14
Je me sers justement de PowerPivot dans Excel 2010, c'est pas mal comme plugin, ça permet de se passer d'Access et en plus c'est gratuit.
0  0 
Avatar de doc malkovich
Expert confirmé https://www.developpez.com
Le 12/11/2012 à 15:28
Première riposte des big vendors à SAP Hana ...

Il faut quand même une bonne machine pour avoir une base de données in memory, le problème étant justement la couche persistante ; il est important de récupérer toutes les données quand on coupe le courant

Ayant pratiqué Hana c'est vrai qu'une base in memory est bienvenue pour la BI, d'autant plus si elle sait faire du transactionnel aussi.

Des offres comme Hana de SAP et ExaData d’Oracle reposent sur le concept « In-Memory ».
Pour Oracle c'est plus Exalytics qui est in-memory, Exadata hébergeant une base Oracle "normale".
0  0 
Avatar de Error407
Membre habitué https://www.developpez.com
Le 14/11/2012 à 15:12
Je suis surement en train de débarquer, et ma question est très certainement naïve, mais Sql server n'a pas deja la réputation de prendre toute la mémoire dispo sur une machine, justement pour mettre les tables en cache ?
0  0 
Avatar de SQLpro
Rédacteur https://www.developpez.com
Le 14/11/2012 à 17:21
disons que les principales différences sont que :
1) toute la base est supposée être en mémoire et non une partie
2) l'organisation physique des données est optimisée pour la RAM et non pour le disque alors que dans les SGBDR c'est l'inverse

Cependant les deux ont tendances à se rejoindre :
  • les DB in memory ont besoin d'une journalisation des transactions et de point de controle (check point)
  • les DB transactionnelles utilisent de plus en plus des algo de compression en mémoire (compression de ligne, de page, non stockage des données NULL, index verticaux...

A +
0  0