Flux de travail pour les sciences des données de base

Ces postes de travail spécialement conçus combinent une grande capacité de mémoire, de nombreux emplacements d'extension pour connecter plusieurs périphériques ainsi que des PROCESSEURS triés sur le volet conçus pour répondre aux exigences uniques des scientifiques des données et des analystes de données basés sur Python comme vous.

Foire aux questions

Il y a deux facteurs principaux à prendre en compte lors du choix d'une station de travail pour les sciences des données : quels outils et techniques vous utilisez le plus et la taille de vos ensembles de données.

En matière de cadres pour les sciences des données, un nombre de cœurs plus élevé ne se traduit pas toujours par de meilleures performances. NumPy, SciPy et scikit-learn n'évoluent pas bien au-delà de 18 cœurs. D'autre part, HEAVY.AI (anciennement OmniSci) prendra tous les cœurs qu'il peut obtenir.

Toutes les stations de travail basées sur Intel utilisent les processeurs évolutifs Intel® Core™, Intel® Xeon® W et Intel® Xeon® qui excellent en matière de charges de travail pour les sciences des données dans les tests du monde réel. Vous obtiendrez les meilleures performances de la famille de processeurs de tous les modèles, ce qui fait de la capacité de mémoire votre choix le plus important.

Les cadres pour les sciences des données enregistrent deux à trois fois les empreintes du gonflement de la mémoire Pour obtenir vos besoins de mémoire de base, examinez vos ensembles de données typiques et multipliez-les par trois. Si vous pouvez travailler avec 512 Go ou moins, vous pouvez obtenir d'excellentes performances avec une machine de bureau. Si vos ensembles de données ont tendance à dépasser les 500 Go, vous aurez besoin d'une tour avec 1,5 To de mémoire ou plus.

Les accélérateurs GPU sont parfaitement adaptés pour la formation de modèles de deep learning et l'inférence de deep learning à grande échelle. Cependant, pour la majeure partie du travail en sciences des données - préparation des données, analyse et apprentissage automatique classique - ces GPU restent inactifs, car la plupart des bibliothèques Python pour les science des données s'exécutent nativement sur le processeur. Vous avez besoin d'un adaptateur graphique pour piloter vos écrans, mais pas d'un appareil GPU.

Le cloud ne vous offrira pas les meilleures performances à moins que vous n'utilisiez une VM dédiée ou un serveur bare metal. Les instances cloud se présentent comme un nœud unique, mais à l'arrière-plan, les choses sont hautement distribuées. Votre charge de travail et vos données sont réparties sur plusieurs serveurs à plusieurs emplacements. Cela crée des latences de traitement et de mémoire qui dégradent l'exécution. De plus, travailler avec de grands ensembles de données et des graphiques via un bureau distant n'est pas une expérience idéale.

Gérer la charge de travail et les données de manière locale, sur une seule machine, peut offrir de bien meilleures performances et une expérience de travail plus fluide et plus réactive.

Vous pouvez le faire, mais vous allez perdre énormément de temps à regarder les données naviguer entre le stockage, la mémoire et le processeur. Si vous travaillez dans un environnement professionnel, la mise à niveau vers un ordinateur portable Intel® pour les sciences des données ou un ordinateur de bureau de milieu de gamme peut vous faire gagner du temps. Nous avons intentionnellement testé et spécifié des ordinateurs portables de science des données basés sur Intel® Core™ afin que les étudiants, les débutants et les fabricants d'IA puissent avoir une option abordable pour développer et expérimenter des outils d'IA open source.

Vous pouvez exécuter plus rapidement les outils de science des données basés sur Python sur un PC standard à l'aide de bibliothèques et de distributions optimisées par Intel. Elles font toutes partie du kit Intel IA gratuit.