Accueil » Actualité » MàJ : Knights Mill dans Linux, l’apprentissage automatique débarque chez le manchot

MàJ : Knights Mill dans Linux, l’apprentissage automatique débarque chez le manchot

Knights Mill est la réponse d’Intel aux GPU de NVIDIA sur le marché de l’apprentissage automatique. La firme continue ainsi d’exploiter la puissance de ses Xeon Phi et de proposer des optimisations intéressantes.

Mise à jour du 14 octobre :

Nous avons appris que le CPU ID de Knights Mill (aussi connu sous l’acronyme KNM) sera intégré dans la prochaine version du noyau de Linux. Selon les discussions des développeurs, le nouveau processeur d’Intel est très proche de Knights Landing (KNL). Il suffirait donc d’ajouter le nouveau CPU ID à certains modules du noyau pour que la nouvelle puce gère leurs fonctionnalités.

Le principal apport de Knights Mill se résume pour l’instant à l’arrivée de deux nouvelles instructions AVX-512 optimisant les calculs en virgule flottante en simple précision (FP32) ainsi que le traitement de données en 16 bits, deux types d’opérations fondamentales dans l’apprentissage automatique, le domaine de prédilection de KNM. La date de sortie du processeur reste pour l’instant inconnue.

———————————-
Actualité originale du 18 août :

Image 1 : MàJ : Knights Mill dans Linux, l'apprentissage automatique débarque chez le manchotKnights Mill (photo prise par notre partenaire AnandTech)Intel a présenté Knights Mill, un nouveau Xeon Phi destiné à l’apprentissage automatique. La firme a donné très peu de détails techniques lors de la conférence de presse, à l’exception du fait que la puce est prévue pour 2017. Nous avons pu néanmoins obtenir plus d’informations et pouvons affirmer que Knights Mill est une puce dérivée de Knights Landing, et optimisée pour les calculs en simple précision. Ces deux processeurs Xeon Phi devraient donc être similaires, avec probablement un nombre de coeurs relativement proches, sinon identiques. Sachant que l’apprentissage automatique ne demande pas des calculs en double précision (FP64), offrir un mode simple précision (FP32) ou demi-précision (FP16) permet d’accroître le nombre d’opérations exécutées.

Optimiser l’apprentissage automatique

Le fondeur a d’ailleurs tenté de montrer qu’il était sur tous les fronts de l’apprentissage automatique en parlant aussi des optimisations apportées à divers frameworks et API. Intel affirme ainsi que Tensor Flow et Caffe, des bibliothèques open source, ont récemment été optimisées pour les Xeon Phi. La firme explique que ces améliorations ont permis de multiplier par 30 les performances de certaines applications, comme la reconnaissance d’image.

À titre d’information, il est important de bien distinguer Knights Mill et Knights Hill, cette dernière étant l’architecture Xeon Phi qui remplacera les Knights Landing. Intel s’est néanmoins refusé à donner des précisions sur ces caractéristiques techniques et sa date de sortie.