Équipement mésoinformatique à l'université du Maine


(demande de crédits spécifiques présentée à la Direction de la Recherche - Mission Informatique (MENRT) )

Afin de répondre à de nouveaux besoins en simulation numérique intensive, deux unités de l'université du Maine au Mans, le laboratoire de Physique de l'État Condensé (PEC) et le laboratoire de Physique et Chimie des Matériaux Polymères, souhaitent s'équiper en commun d'un calculateur parallèle de taille moyenne. La gestion en sera assurée par le centre de calcul (CETIC). Certains fonds sont d'ores et déjà disponibles, mais une aide du ministère permettrait de mettre en place un calculateur réellement polyvalent, pouvant servir à l'enseignement et à la formation aussi bien qu'à la recherche.

Introduction

La majorité des équipes de recherche, quelle que soit la discipline, sont désormais en train de ranger au nombre de leurs outils, à côté de la théorie et de l'expérience, la simulation numérique. Un effort de recrutement a été entrepris dans cet esprit au Mans ; il doit s'accompagner d'un investissement matériel.

Les chercheurs français bénéficient certes d'un atout majeur dans ce domaine grâce aux centres nationaux et régionaux de calcul, tels que l'IDRIS ou le CNUSC. Ces derniers mettent à leur disposition des ressources permettant d'aborder des systèmes de taille considérable, grâce à des super-ordinateurs parallèles comme le T3E ou le SP2.

Il émerge cependant le besoin de calculateurs de puissance intermédiaire entre ces gros équipements et l'ordinateur personnel. Un ordinateur de taille moyenne permettra de développer et de mettre au point de façon indépendante de nouveaux programmes, et de ne réserver aux super-ordinateurs nationaux que les calculs réellement inabordables sur d'autres machines.

D'autre part, le système bisannuel de demande d'attribution de ressources sur les calculateurs nationaux n'est pas tout à fait assez souple pour des besoins ponctuels en calcul tels que ceux qui peuvent se présenter lors d'une thèse. Un calculateur intermédiaire présent sur le campus permettrait de répondre à ces besoins.

Potentiel humain

Le laboratoire PEC a été très actif expérimentalement ces dernières années autour de plusieurs thématiques. Le recrutement de F.Calvayrac sur un poste de maître de conférences à la rentrée 1998 vise à accompagner cette activité expérimentale d'un effort théorique, en particulier de modélisation numérique. Les perspectives les plus intéressantes à l'heure actuelle se situent autour de l'application de méthodes ab initio de type fonctionnelle de la densité à des systèmes de taille ou de complexité de plus en plus élevée.

De même, le laboratoire de Physique et Chimie des Matériaux Polymères a bénéficié en 1996 du recrutement de J.-C. Gimel sur un poste de chargé de recherche, afin de développer une approche par la simulation des propriétés statiques et dynamiques de systèmes gélifiants.

Ces deux spécialistes de modélisation numérique collaborent avec les chercheurs suivants :

Nous présentons dans la suite certains des projets scientifiques concernés.


Projet scientifique 
Modélisation numérique de nanostructures magnétiques 
Laboratoire PEC-Responsable du projet : F.Calvayrac

Les nanocristallins obtenus par dévitrification sont probablement les matériaux magnétiques doux les mieux adaptés aux fréquences élevées actuellement utilisées en électrotechnique comme en électronique de type signal ou en électronique de puissance. Ils gardent de plus une induction à saturation relativement haute.

Ces matériaux sont opérationnels sur le plan industriel. Ils restent des systèmes très intéressants sur le plan fondamental car ils ont des propriétés particulières liées à leur caractère biphasé et nanostructuré, et parce qu'ils présentent une micro-structure régulière qui se prête bien à la modélisation ; cependant, l'origine de leurs propriétés n'est pas encore bien connue.

Avant de mettre au point d'éventuels modèles phénoménologiques, il paraît souhaitable d'utiliser des méthodes ab initio, basées en particulier sur la théorie de la fonctionnelle de la densité, afin de comprendre le comportement des nanostructures ferromagnétiques les plus simples. Ces méthodes requièrent une importante puissance de calcul.

Objectifs du projet

Les alliages dits FINEMET FeCuNbBSi, ou NANOPERM FeZrB(Cu) ou apparentés, possèdent des performances magnétiques intéressantes pour des applications dans le domaine des hautes fréquences. Ces alliages sont structurellement et magnétiquement biphasés, composés de nanograins ferromagnétiques individuellement durs FeSi ou Fe respectivement, de taille de l'ordre de 10 nanomètres, dispersés de manière homogène dans une matrice amorphe résiduelle ferromagnétique douce.

Les processus d'aimantation de ces alliages sont encore imparfaitement compris. Le présent projet vise donc à terme à la description du comportement anisotrope et hystérétique de ces matériaux, de même qu'à l'explication de l'établissement d'anisotropies induites sous diverses influences. L'obtention d'une meilleure description des effets magnéto-élastiques et des comportements thermomagnétiques est également à rechercher, tout comme la compréhension de l'influence de la fraction cristallisée sur l'échange et sur les températures de transition magnétique (de Curie, ferro-superparamagnétique...).

Résultats acquis récemment

Ces dernières années, le laboratoire PEC a abordé expérimentalement ces problèmes, en particulier grâce à la spectroscopie Mössbauer en température [1,2,3]. Ces travaux font l'objet de collaborations nationales avec le LESIR (ENS Cachan) et internationales (Pologne, Slovaquie, soutenues par le CNRS, et Espagne).

Il est donc particulièrement intéressant de tenter de relier ces résultats à une étude théorique et numérique. F.Calvayrac a entre autres été recruté en septembre 1998 pour ce faire.

Au cours de sa thèse, ce dernier a contribué à l'étude des propriétés dynamiques d'agrégats métalliques simples par des méthodes proches de celles envisagées dans le présent projet, tant du point de vue théorique que numérique. L'utilisation de la théorie de la fonctionnelle de la densité dépendant du temps, jointe à une dynamique moléculaire classique, a permis de simuler complètement la fission d'agrégats simples induite par une impulsion laser femtoseconde intense [4], dans un cadre suffisamment précis pour permettre d'obtenir des résultats de spectroscopie fine d'agrégats libres et déposés [5,6,7].

La puissance de calcul requise est à la limite de celle d'un ordinateur personnel ou d'une station de travail usuelle.

Des programmes nouveaux ont donc été développés et entièrement parallélisés en FORTRAN/MPI sur les machines de l'IDRIS (projet 974086 CP9 et précédents).

Ces efforts de parallélisation ont permis d'abaisser une simulation sur un intervalle de temps intéressant à une durée qui permet d'obtenir des résultats physiques en moins d'une nuit, contre quelques semaines sur station de travail scientifique classique. Sur ces machines, le calcul restait possible, mais sa durée quasi-prohibitive rendait presque impossible tout raisonnement physique sur les résultats, avec vérification immédiate.

Ces programmes, moyennant évidemment des modifications importantes, seront repris ici.

Méthodologie

Le plan général consiste en la compréhension par des méthodes ab initio des propriétés des petits agrégats ferromagnétiques et de leur interaction avec la matrice, ce qui permettra de développer des modèles plus phénoménologiques pour comprendre le comportement d'un échantillon de grande taille.

Cadre théorique

Du point de vue théorique, deux approches sont envisagées pour traiter les degrés de liberté électroniques : Pour les degrés de liberté correspondant aux positions nucléaires, qui seront traités classiquement, un algorithme de Metropolis est d'abord envisagé. Celui-ci permet aussi bien un recuit simulé Monte-Carlo et donc la détermination de structures énergétiquement optimales, que la détermination de propriétés dépendant de la température telles que l'aimantation. On pourra alternativement utiliser une dynamique moléculaire. Celle-ci permettra d'économiser un certain nombre des coûteuses optimisations électroniques de chaque pas de la méthode Monte-Carlo, en contraignant les électrons à suivre non-adiabatiquement les positions nucléaires pour quelques pas de temps de dynamique entre les optimisations [12].

Choix numériques

Sur le plan numérique, nous comptons dans un premier temps reprendre, en introduisant des conditions aux limites périodiques, la discrétisation sur réseau tridimensionnel des fonctions d'onde électroniques des travaux antérieurs [6,5,4]. Elle possède l'avantage de la flexibilité, en particulier pour décrire les excitations électroniques, et permet de faire fréquemment appel aux transformées de Fourier rapides (FFT) pour évaluer les termes d'énergie cinétique électronique ou pour résoudre l'équation de Poisson intervenant dans les équations de Kohn-Sham. Le code correspondant est entièrement parallélisé ; les détails sont donnés en annexe.

Références

1
A. Slawska-Waniewska et J. M. Grenèche.

``Magnetic interfaces in Fe-based nanocrystalline alloys determined by Mössbauer spectrometry.''
Phys. Rev. B 56 R8491 (1997)
2
N. Randrianantoandro, A. Slawska-Waniewska et J. M. Grenèche.

``Magnetic interactions in Fe-Cr based nanocrystalline alloys.''
Phys. Rev. B 56 10797 (1997)
3
N. Randrianantoandro, A. Slawska-Waniewska et J. M. Grenèche.

``Magnetic properties of Fe-Cr based nanocrystalline alloys.''
J.Phys : Condens.Matter 9 10485 (1997)
4
F. Calvayrac, P.-G. Reinhard et E. Suraud.

``Coulomb explosion of a Na12 cluster in a diabatic electron-ion dynamical picture.''
J.Phys.B 31 5023 (1998)
5
F. Calvayrac, E. Suraud et P.-G. Reinhard.

``Ionic structure and plasmon response in sodium clusters.''
J.Phys.B 31 1367 (1998)
6
F. Calvayrac, A. Domps, C. Kohl, P.-G. Reinhard et E. Suraud.

``Nonlinear electronic dynamics in free and deposited sodium clusters : quantal and semi-classical approaches.''
Comp. Mat. Sci 10 448 (1997)
7
F. Calvayrac.

``Dynamique non-linéaire des électrons de valence dans les agrégats métalliques.''
Ann. Phys. (Paris) 23(3) 1 (1998)
8
T. Oda, A. Pasquarello et R. Car.

``Fully Unconstrained Approach to Noncollinear Magnetism : Application to Small Fe Clusters.''
Phys. Rev. Lett. 80 3622 (1998)
9
S. Goedecker, M. Teter et J. Hutter.

``Separable dual-space Gaussian pseudopotentials.''
Phys. Rev. B 54 1703 (1996)
10
C. Hartwiggen, S. Goedecker et J. Hutter.

``Relativistic separable dual-space Gaussian pseudopotentials : from H to Rn.''
Phys. Rev. B, sous presse (1998)
11
G. M. Pastor et K. H. Benneman.

``Magnetic properties of transition metal clusters.''
Physics Reports (sous presse) (1998)
12
R. N. Barnett, U. Landman, A. Nitzan et G. Rajagopal.

``Born-Oppenheimer dynamics using density-functional theory : Equilibrium and fragmentation of small sodium clusters.''
J.Chem.Phys 94 608 (1991)
13
I. E. Lagaris, D. G. Papageorgiou, M. Braun et S. A. Sofianos.

``A Relaxation Method for Nonlocal and Non-Hermitian Operators.''
J.Comp.Phys 126 229 (1996)
14
P.-G. Reinhard et R. Y. Cusson.

``A comparative study of Hartree-Fock iteration techniques.''
Nucl. Phys. A 378 418 (1982)
15
V. Blum, G. Lauritsch, J. A. Maruhn et P.-G. Reinhard.

``Comparison of Coordinate-Space Techniques in Nuclear Mean-Field Calculations.''
J.Comp.Phys 100 364 (1992)
16
G. Lauritsch et P.-G. Reinhard.

``An FFT Solver for the Coulomb problem.''
Int.J.Mod.Phys. C 5 65 (1994)


Projet scientifique 
Modélisation des processus d'agrégation et de gélification dans les systèmes macromoléculaires complexes 
Laboratoire de Physique et Chimie des Matériaux Polymères 
Responsable du projet : J.-C. Gimel


Parmi les thèmes de recherche prioritaires de l'UMR 6515 figure la caractérisation et la compréhension du comportement de systèmes moléculaires complexes [1], c'est-à-dire de systèmes dont les propriétés allient celles des molécules constituantes à celles de l'organisation de l'espace, en particulier aux échelles mésoscopiques. Les systèmes étudiés présentent une grande diversité en ce qui concerne les interactions responsables des structures et la gamme d'énergie (gels chimiques et physiques, polymères associatifs), mais au-delà des spécificités propres à chaque système nous sommes particulièrement intéressés par la recherche de lois de comportement "universelles".

Plus précisément, nous nous attachons tout particulièrement à caractériser les propriétés statiques et dynamiques de systèmes gélifiants, soit à partir d'un milieu dilué, soit à partir d'un milieu enchevêtré. La description du processus d'agrégation dans son ensemble et la recherche de lois de comportement permettant de décrire les changements de régime observés font appel à des concepts de transition agrégation-percolation dans le premier cas, et de transition percolation-vulcanisation dans le second. Le descripteur pertinent de ces changements de régime est lié au remplissage de l'espace. Les études entreprises visent donc à caractériser les propriétés statiques et dynamiques de systèmes qui présentent une grande diversité de ce remplissage. Pour y parvenir, la démarche scientifique adoptée consiste à faire varier les paramètres qui le conditionnent.

Parmi ceux ci, nous citerons: les architectures moléculaires des composés de départ (structures linéaires ou dendritiques, polymères en étoile, en peigne,...), leurs masses molaires, les règles chimiques ou physiques qui régissent l'accroissement de la connectivité, les énergies mises en jeu et la structure des connections (liaisons covalentes ponctuelles, zones de jonctions coopératives à caractère réversible plus ou moins marqué dans les gels physiques, domaines transitoires hydrophobes ou hydrophiles dans les polymères associatifs,....). Les références [2-6] illustrent les travaux expérimentaux effectués dans ce domaine, aussi bien pour les biopolymères, les gels covalents et les systèmes associatifs.

Avec le développement de moyens de calculs performants, la simulation numérique et la modélisation sur ordinateur sont devenues des composantes indispensables de la recherche. Pour nos problématiques scientifiques, l'apport des simulations peut être multiple. Un des aspects les plus évidents réside dans leur capacité à donner des réponses quantitatives dans des situations physiques ou géométriques complexes, là où les outils analytiques deviennent inopérants. Dans sa forme la plus proche des préoccupations fondamentales, elles peuvent aussi être utilisées comme véritable expérience pour tester des hypothèses. Elles s'avèrent en particulier indispensables pour l'étude des systèmes désordonnés, l'étude des problèmes de croissance, d'agrégation, de percolation et de diffusion.

Les travaux déjà réalisés concernent d'une part la modélisation des processus stochastiques de croissance 3d par agrégation amas-amas et d'autre part une compréhension fine des problèmes de remplissage de l'espace dans le cadre de la percolation.
 
 

Processus de croissance amas-amas

Nous avons cherché à comprendre comment un système dilué soumis à un processus d'agrégation amas-amas peut donner naissance à un réseau tridimensionnel macroscopique : un gel. Les théories cinétiques de type "champ moyen" proposées par von Smoluchowski décrivent correctement les premiers stades de l'agrégation en milieu très dilué (régime de floculation). La théorie de la percolation (transition de connectivité lors d'une distribution aléatoire de matière ) fournit quant à elle une bonne image du système au voisinage du point de gel. Mais aucune de ces deux approches ne permet de comprendre correctement la réaction dans son ensemble. La simulation sur ordinateur nous a permis de caractériser les stades intermédiaires de la réaction et de mieux comprendre le changement de régime entre floculation et percolation. Par la méthode de Monte Carlo, nous avons pu simuler sur un réseau cubique l'agrégation limitée par la diffusion d'une assemblée de particules browniennes [7, 8] (agrégation DLCA). Un des résultats importants de cette étude est d'avoir montré que l'évolution du remplissage de l'espace tout au long de la réaction d'agrégation est similaire à celui obtenu lors d'une distribution aléatoire de matière : que l'on distribue aléatoirement de la matière dans l'espace ou que l'on laisse une quantité fixe s'agréger spontanément, l'espace se remplit toujours de la même façon. Cette forte analogie observée pour deux mécanismes totalement différents suggère une certaine universalité dans la façon dont l'espace tridimensionnel se remplit au cours des processus stochastiques générant de la connectivité.

Processus de percolation et remplissage de l'espace

Nous avons donc entrepris une étude poussée et systématique du cas le plus simple, celui de la distribution aléatoire de sites sur un réseau cubique. Il s'agit alors de caractériser la structure (calcul des facteurs de structure statique) et la distribution des amas au voisinage de la transition de percolation. Ces prévisions théoriques sont comparées avec les résultats obtenus sur des gels covalents [9, 10]. La difficulté majeure provient des effets de taille finie. Ceux-ci sont d'autant plus importants que l'on se rapproche du point critique. Il est donc nécessaire de pouvoir quantifier proprement ces distorsions dues à la taille finie, L, du réseau cubique de façon à pouvoir extrapoler les résultats pour un réseau infini. Nous avons pu quantifier clairement l'influence des effets de taille finie sur la distribution, la structure et le remplissage de l'espace des agrégats de percolation [11].

Les travaux en cours de développement concernent d'une part la modélisation du gonflement d'agrégats et d'autre part l'étude des gels réversibles à base de systèmes associatifs.

Modélisation du gonflement d'agrégats

La plupart des systèmes chimiques réels au voisinage du seuil, ne peuvent être caractérisés qu'à l'état dilué, en particulier par les techniques de diffusion de la lumière. Or la dilution des agrégats entraîne leur gonflement et modifie ainsi leur structure (par exemple, leur dimension fractale). Il est donc primordial de pouvoir modéliser ce gonflement pour étendre la comparaison des résultats de simulation aux données expérimentales de diffusion de lumière. (cf. Projet IDRIS [12])

Modélisation des systèmes associatifs

Selon la force des interactions mises en jeu entre groupes associatifs, ces systèmes peuvent présenter, en fonction de la concentration, une large variété de structure et de comportements : depuis la formation préférentielle de structure de type "fleur" conduisant à une démixtion jusqu'à la formation d'agrégats polydisperses selon un processus de percolation. Encore une fois, une approche de type Monte Carlo sur réseau est actuellement le seul moyen de modéliser le comportement et la structure de tels systèmes. Nous simulerons dans ce but des processus réversibles d'agrégation brownienne.

Une solution méso-informatique locale

Les résultats obtenus résultent de simulations réalisées à l'aide des moyens informatiques actuels du laboratoire (deux Pentium II 300MHz) et des ressources informatiques de l'IDRIS (cf. projets IDRIS [13, 14, 15] sur Cray T3E, machine parallèle 256 processeurs). La puissance de la machine détermine directement la taille du système étudié. Dans toutes ces études, l'objectif est de déterminer le comportement asymptotique (aux grandes échelles spatiales) de grandeurs caractéristiques. La mise en évidence de ces régimes asymptotiques nécessite de pouvoir faire varier sur plusieurs ordres de grandeur la taille des systèmes. A l'heure actuelle, nous pouvons modéliser en quelques dizaines d'heures des réseaux de 200 x 200 x 200 sur des configurations de type Pentium II. Des études sur des réseaux plus grands (350 x 350 x 350) nécessiteraient plusieurs semaines de calcul. Si les ressources actuelles de l'IDRIS, permettent d'étudier en quelques heures, des tailles de l'ordre de 1000 x 1000 x 1000 en utilisant 50 processeurs, la caractérisation de systèmes plus petits (utilisant seulement une dizaine de processeurs) reviendrait à sous utiliser la ressource. Le développement d'une ressource méso-informatique locale permettrait de combler l'intervalle de taille et donnerait une plus grande flexibilité dans l'élaboration des codes.
Références
(les trois projets IDRIS sont joints au dossier)

[1] Rapport d'activité de l'UMR 6515, Juin 1997

[2] P. Aymard, D. Durand, T. Nicolai and J. C. Gimel ``Fractality of globular protein aggregates: from the molecular to the microscopic level'' Fractals 5, 23-43 (1997).

[3] V. Lesturgeon, D. Durand, T. Nicolai, "Characterisation of the structure and the size distribution, of branched polymers formed by co- polymerisation of MMA and EGDMA" European Physical Journal B, à paraître (1999)

[4] T. Nicolai, H. Randrianantoandro, F. Prochazka, D. Durand "Viscoelastic relaxation of polyurethane at different stages of the gel formation 2 - Sol-gel transition dynamics" Macromolecules, 30,5897-5904 (1997)

[5] C. Chassenieux, T. Nicolai, D. Durand "Association of hydrophobically end-capped poly(ethylene oxide)" Macromolecules, 30, 4952-4958 (1997)

[6] C. Chassenieux, R. Johannsson, D. Durand, T. Nicolai, P. Vanhoorne, R. Jérôme "Telechelic ionomers studied by light scattering and dynamical mechanical measurements" Colloids and Surfaces A: Physicochemical and Engineering Aspects, 112, 155-162 (1996)

[7] J. C. Gimel, D. Durand and T. Nicolai ``Transition between flocculation and percolation of a diffusion limited cluster cluster aggregation process using 3d Monte Carlo simulation'' Phys. Rev. B 51, 11348-11357 (1995)

[8] J.C. Gimel, T. Nicolai, D. Durand "3d Monte Carlo simulations of diffusion limited cluster aggregation up to the sol-gel transition: structure and kinetics" J. of Sol-gel Science and Technology, à paraître, (1999)

[9] T. Nicolai, D. Durand and J. C. Gimel ``Scattering properties and modelling of aggregating and gelling systems'' in Light scattering. Principles and development, edited by W. Brown (Clarendon Press, Oxford, 1996), pp. 201-231.

[10] J.C. Gimel, T. Nicolai, D. Durand, J. M. Teuler "Structure and size distribution of percolating clusters; Comparison with gelling systems " European Physical Journal B., soumis (1998)

[11] résultats à publier.

[12] Projet IDRIS , "Etude de la dynamique de gonflement des amas de percolation par la méthode des fluctuations de liens sur un réseau cubique.", 1999

[13] Projet IDRIS n0 981069, " Percolation de sites sur un réseau cubique par la méthode de Monte Carlo : caractérisation précise des effets d'échelle de taille finie, calcul des exposants critiques et de la fonction de coupure de la distribution des agrégats. Application à l'étude, aux échelles mésoscopiques, des systèmes chimiques gélifiants.", 1998

[14] Projet IDRIS n0 981069 (suite), " Etude du remplissage de l'espace au cours du processus de percolation de site sur un réseau cubique : approche géométrique de la loi d'hyperéchelle.", 1998

[15] J. M. Teuler, J. C. Gimel "Parallelisation of the Hoshen-Kopelman method on distributed memory machines using a direct method" soumis a The International Journal of High Performance Computing

Dossier technique

Modalités d'utilisation prévues

L'ordinateur envisagé dans le présent projet servira à la production de résultats nécessitant un grand nombre d'itérations (Monte-Carlo, fonctionnelle de la densité statique ou dynamique) et une quantité de mémoire ou une puissance de calcul intermédiaire, à la mise au point et aux développement de nouveaux codes.

Les ordinateurs actuellement disponibles à l'université (de type PC récent ou station de travail âgée de quelques années) sont insuffisants pour ce faire, et ce type de calculs représente une utilisation sous-optimale des ressources nationales (IDRIS ou CNUSC). Les heures obtenues sur ces machines devraient être réservées à des calculs réellement infaisables ailleurs.

D'autre part, le Service de Physique de l'université du Maine, en réponse à l'appel à projets du MENRT, est en train de définir un certain nombre de formations professionnalisantes à niveau bac+5. Parmi celles-ci figure un mastère << Modélisation numérique de phénomènes physiques>>. Il est souhaitable que dans ce cadre, les étudiants puissent avoir accès à des moyens de calculs puissants, sans avoir à passer par la procédure relativement longue de demande de moyens aux centres nationaux (IDRIS ou CNUSC), et se former au calcul parallèle sur de véritables machines où des codes réalistes peuvent être exécutés, et non sur des simulateurs. Cette remarque vaut également pour les étudiants de 3ème cycle.

Le centre de calcul de l'université du Maine (CETIC) est partie prenante, s'engageant à apporter une aide technique, ainsi qu'une contribution financière éventuelle (voir plus loin). Son partenariat se manifestera en particulier par la mise à disposition de locaux climatisés et par la gestion au quotidien de la machine. Un comité d'utilisateurs sera mis en place afin de superviser l'accès au calculateur et son administration.

Financement

Le présent projet est financé au départ par le plan pluriformations surfaces à hauteur de 300 kF. Une demande de financement de 150 kF à été déposée au département SPM du CNRS, de même qu'une demande de 150 kF au département de sciences chimiques. À l'aide de cet ensemble de financement propre, nous pourrons obtenir 280 kF du Conseil Régional dont dépend l'université du Maine. Ce financement a été demandé en 1997, et accordé sous réserve de l'obtention des fonds propres correspondants.

Le centre de calcul de l'université (CETIC) s'est engagé, pour l'instant informellement, à contribuer à hauteur de 100 kF en plus de l'assistance technique qu'il fournira.

Cet ensemble de financement permettra d'acquérir une première tranche du calculateur.

La présente demande de 400 kF permettra d'étendre le calculateur de façon à pouvoir l'ouvrir à un nombre croissant d'utilisateurs, en particulier à des étudiants de niveau bac+5 ou plus. Si cette subvention nous est accordée, nous pourrons également demander au conseil régional une participation correspondante.

Le plan de financement peut être résumé dans le tableau suivant :


Origine Montant Statut
Plan Pluriformations Surface 300 kF Obtenu
CNRS - SPM 150 kF Demandé
CNRS - SC 150 kF Demandé
Région Pays de la Loire 280 kF Dépendant de l'obtention de fonds propres
Centre de Calcul (CETIC) du Mans 100 kF Demandé
MENRT - Mission Informatique 400 kF Présente Demande

Choix de l'architecture

Les ordinateurs traditionnels, quel que soit leur prix (déterminé par exemple par la quantité de mémoire disponible ou la qualité des entrées/sorties), n'offrent pas une puissance de calcul très élevée en termes de millions d'opérations en virgule flottante par secondes (MFlops). Les simulations numériques intensives requièrent cependant de très bonnes performances dans ce domaine.

Le seul remède à ce problème semble venir de la parallélisation des calculs, en distribuant des opérations non-interdépendantes sur différentes unités élémentaires. Différentes approches sont alors possibles : sur les ordinateurs de type vectoriel (CRAY J94 par exemple), le <<grain>> du parallélisme est de l'ordre de l'opération élémentaire ; sur les ordinateurs de type massivement parallèle, le grain peut être plus gros. Sur ces dernières machines, des processeurs de type courant travaillent simultanément, et mettent en commun les résultats intermédiaires soit par un partage de la mémoire (ORIGIN 2000 de Silicon Graphics par exemple), soit par un réseau de communications inter-processeurs. Le CRAY T3E de l'IDRIS et l'IBM SP2 du CNUSC appartiennent à cette dernière catégorie. Le T3E dispose par exemple de 256 processeurs Alpha.

Il est critiquable d'envoyer sur de tels ordinateurs, de coût de l'ordre de plusieurs MF, des calculs longs, certes accélérables par la parallélisation, mais dont la nature séquentielle et les besoins intermédiaires en mémoire (moins de 1 Go) font qu'il est peu pertinent de les faire tourner sur plus de 16 ou 32 processeurs.

Cependant, la baisse très rapide des coûts du matériel informatique, accompagnée d'un progrès rapide de la puissance des processeurs grand public, phénomènes rendus possibles par les importantes économies d'échelle provoquées par l'explosion du marché du multimédia depuis quelques années, rend possible l'assemblage d'une machine parallèle disposant justement de 16 ou 32 processeurs donnant au total une puissance supérieure à un super-ordinateur de 1994 pour un coût de l'ordre du million de francs.

Plusieurs universités ou laboratoires de par le monde ont eu recours à cette solution ces dernières années. Il existe par exemple au LANL de Los Alamos, au Goddard Flight Center, entre autres, des réalisations regroupées sous le nom de Beowulf, d'après le nom de la première machine ainsi assemblée à partir d'éléments dits << off the shelf >> (pris directement sur les étagères des distributeurs grand public). En France, l'Action transversale thématique << GRAPPES >> du GdR ARP (Architecture, Réseaux et système, Parallélisme) est très active autour de ce genre de systèmes, dont il existe par exemple une réalisation au laboratoire de mécanique de l'université de Lyon I.

Le choix le plus raisonnable pour le présent projet, compte tenu du budget indiqué plus haut, consiste donc en l'acquisition d'un ordinateur constitué d'au moins 16 ou 32 cartes mères (<< nuds >>) dotées d'un ou deux processeurs performants, et d'un réseau de communication à la hauteur de la puissance de calcul brute de l'ensemble des processeurs. Les communications pourront se faire par un réseau local ultrarapide, ou par usage de mémoire partagée. Cette décision ne sera prise qu'à l'issue d'un appel d'offres. Nous joignons cependant au dossier des devis obtenus auprès de différents constructeurs.

Évolution future

L'intérêt du projet réside dans son évolutivité : une fois installée une architecture performante de communications, la machine pourra être maintenue à la pointe de la technique de niveau grand public par remplacement des cartes mères et des processeurs, les précédents pouvant être repris par le fournisseur, ou recyclées dans les ordinateurs personnels des laboratoires impliqués.

Collaborations

Le projet est envisagé en collaboration avec le centre de calcul de l'université du Maine, et avec l'université de Paderborn, jumelle de l'université du Maine, qui possède trois réalisations de systèmes du type de celui envisagé au Mans sous la forme de 32 et 96 noeuds fabriquées par la firme norvégienne Scali pour les communications et Siemens pour la partie cartes mères. Nos collègues allemands, autour du Prof. Heiss, sont enthousiasmés par la perspective de l'installation d'un tel système au Mans, et nous ont proposé leur assistance, en particulier par les logiciels spécifiques d'administation qu'ils ont développés (CCS).

Des contacts ont également été pris avec Jean-Louis Pazat, de l'IRISA de Rennes, animateur du groupe << GRAPPES >>.


Choix du matériel

Communications

La machine parallèle que nous envisageons sera vraisemblablement du type << mémoire distribuée >>, et les communications inter-processeurs se feront, explicitement (par MPI ou PVM, standards disponibles sur le T3E de l'IDRIS sur lequel s'exécuteront les codes développés localement ) ou implicitement (par exemple grâce aux extensions parallèles de FORTRAN), par passage de messages. Le choix du réseau de communications est donc crucial, car le temps perdu à échanger les messages entre processeurs ne doit pas pénaliser d'un facteur trop important les gains de vitesse obtenu par la parallélisation des codes.

La solution minimale semble être l'utilisation du protocole TCP/IP standard, sur un réseau local de type Fast Ethernet (100 Mbit/s) géré par un ou deux routeurs réservés au calculateur parallèle. Cette solution a l'avantage d'être bon marché et assez rapide sur le papier, mais au vu de l'expérience qui commence déjà à être accumulée dans le domaine, nous soupçonnons que le protocole TCP/IP n'est pas la meilleure solution de passage de messages pour le calcul numérique intensif parallèle. Il peut par exemple y avoir accumulation d'un grand nombre de copies des messages dans le cas d'une diffusion d'un même message à un ensemble de processeurs, et la charge de travail imposée au processeur de chaque noeud pour gérer les communications peut rapidement devenir limitante.

Les solutions plus performantes (Myrinet, Gigabit Ethernet, SCI ou autres) sont évidemment beaucoup plus chères, mais pourraient permettre une plus grande flexibilité d'utilisation (en éliminant le besoin d'optimiser les codes pour le protocole TCP/IP, certes rapide, mais particulier à utiliser). Le choix d'un réseau de communication performant pourrait permettre de maintenir le calculateur << à la page >> pendant peut-être une dizaine d'années en changeant simplement les cartes mères, relativement bon marché. La firme norvégienne Scali propose en particulier une solution SCI (un des standards pour les communications hautes performances dans les machines parallèles), qui a été choisie par nos collègues de l'université de Paderborn, avec qui nous sommes en contact. L'université de Jussieu, avec l'ENST, commercialise également par la biais d'une << start-up >> un réseau de communications du nom de MPC. Ce dernier est très performant et son prix va vraisemblablement baisser dans les prochains mois, une fois la production en série lancée.

Une alternative peut venir de solutions du type << mémoire partagée >>. Les serveurs à base de processeurs ALPHA proposés par DEC et remarqués dans le rapport de la COMI/DSP de mai 1997 constituent une possibilité intéressante. Pour le budget envisagé un nombre plus restreint de processeurs pourrait être acquis que dans la solution << mémoire distribuée >>, mais les performances de chacun sont nettement supérieures à celles d'un élément de type Pentium II.

Néanmoins, le choix précis de la solution technique devra se faire à l'issue d'un appel d'offres détaillé, pour déterminer le meilleur compromis.

Langages - bibliothèques de programmes

Nous comptons utiliser et développer des programmes en C/C++ ou Fortran 77/90, langages pour lesquels il existe un grand nombre de compilateurs gratuits ou relativement bon marché. Le passage de messages sera fait par appel aux bibliothèques PVM ou MPI, dont il existe des implémentations dans le domaine public. Ceci permettra d'utiliser les bibliothèques d'algèbre linéaire parallèle SCALAPACK.

Le système d'exploitation sera vraisemblablement une version du domaine public d'Unix, Linux (en particulier Extreme Linux, développé pour des grappes de stations telle que celle que nous envisageons) ou FreeBSD. La solution de Scali n'est pour le moment disponible que sous le système Solaris de Sun, que nous estimons un peu cher, mais l'université de Paderborn est en train de développer des pilotes Linux pour ces machines.

Processeurs-Cartes mères

Nous pensons utiliser des processeurs grand public dernier modèle, sans doute du type Pentium II 450 Mhz, ou Dec Alpha, joints à une quantité suffisante de mémoire (256 Mo par noeud), et de cache. Les performances de pointe estimées sont de l'ordre de 200 Mflops/noeud ou plus, mais en pratique, pour un programme réaliste on peut espérer 40 MFlops/noeud. Le budget envisagé permettra d'acquérir 32 processeurs Pentium II à 450 Mhz, ou 64 processeurs Pentium II à 350 Mhz montés à deux par carte mère (SMP, bien géré par Linux). Le calculateur parallèle aura donc une puissance de l'ordre de 10 GFlops en pointe.

À propos de ce document...

This document was generated using the LaTeX2HTML translator Version 98.2 beta6 (August 14th, 1998)

Copyright © 1993, 1994, 1995, 1996, Nikos Drakos, Computer Based Learning Unit, University of Leeds.
Copyright © 1997, 1998, Ross Moore, Mathematics Department, Macquarie University, Sydney.

The command line arguments were:
latex2html -split 0 menrt

The translation was initiated by Florent Calvayrac on 1999-07-06