Un serveur de base de donnée optimisé SSD

Comme vous le savez, les SSD remplacent peu à peu les disques durs, que ce soit dans le grand public ou dans les entreprises. Mais — dans la majorité des cas — les paradigmes d'usages ne changent pas, un SSD est considéré comme un disque dur avec un temps d'accès très faible, ce qui n'est pas totalement la réalité. Dans le grand public, l'arrivée de Windows 7 a changé la donne (avec le TRIM et quelques optimisations spécifiques) mais dans les entreprises on en est loin.

Avec RethinkDB, pourtant, la donne change. L'idée est assez simple : ce programme modifie le fonctionnement d'une base de données classique (ici le très connu MySQL) pour l'adapter aux SSD. Concrètement, une serveur de base de données fonctionne avec des données cachées pour augmenter les performances, mais ce système — adapté à la latence des disques durs — pose quelques problèmes, surtout au niveau de la cohérence des données et de la sauvegarde (typiquement, il est impossible de sauvegarder une base de données utilisée en copiant le fichier). Avec RethinkDB, la gestion du cache est plus ou moins supprimée, les données étant écrites directement dans la base, et l'ensemble est — selon les données de la société — plus efficace et plus simple à maintenir.

Bien évidemment, le système nécessite un SSD et si possible un modèle rapide capable de tenir la charge en écriture de petits fichiers. Dans la pratique, un modèle en mémoire MLC à base de contrôleur Indilinx semble efficace sur de petites structures, mais les modèles Intel ou un SSD à base de SLC sera nécessaire pour les grosses bases, sous peine de voir les performances en insertion stagner. Bien évidemment, les modèles faibles en écritures aléatoires (comme les Samsung PB22 ou — encore pire — les SSD à base de contrôleur JMicron JMF602) sont à éviter.

Dans les faits, sans être une révolution, ce programme montre surtout que repenser les paradigmes de fonctionnement des applications peut apporter des gains, la majorité des applications étant en fait pensées pour des disques durs à plateaux, avec une latence connue et (relativement) élevée, ce qui est la norme depuis une trentaine d'années.

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
4 commentaires
Commenter depuis le forum
    Votre commentaire
  • Chklang
    Heu... Et vis-a-vis des cycles d'écriture d'un SSD, ça donne quoi?? Car déjà je sais qu'utiliser un SSD pour programmer et compiler derrière ça en diminue la durée de vie, alors pour la sauvegarde très régulière de bases de données, cela m'étonnerais que le SSD ne dure très longtemps...
    Encore avec l'utilsation d'une SLC ça peut encore s'accepter, mais avec carrément de la MLC...
  • dandu
    ChklangHeu... Et vis-a-vis des cycles d'écriture d'un SSD, ça donne quoi?? Car déjà je sais qu'utiliser un SSD pour programmer et compiler derrière ça en diminue la durée de vie, alors pour la sauvegarde très régulière de bases de données, cela m'étonnerais que le SSD ne dure très longtemps...Encore avec l'utilsation d'une SLC ça peut encore s'accepter, mais avec carrément de la MLC...


    Non, mais c 'est un faux arguments, la durée de vie est très élevée (suffit de voir les garanties, c'est genre 50 Go/s jour pendant des années)
  • omega2
    Et les disques dur sont censé tenir plusieurs disaines voire centaines d'années (plusieurs millions d'heures comme MTBF annoncé habituellement) Pourtant les pannes arrivent souvent en moins de 5 ans et rare sont les disques dur qui tiennent 10 ans.