|
|
|
|
|
<img src="https://gitlab.in2p3.fr/CodeursIntensifs/DecaLog/-/wikis/img/logo-computeops.png" align="left" width="30">
|
|
|
<img src="https://gitlab.in2p3.fr/CodeursIntensifs/DecaLog/-/wikis/img/logo-computeops.png" align="left" width="30"_>
|
|
|
|
|
|
# Calcul scientifique en conteneurs
|
|
|
|
|
|
|
|
|
Le mouvement "DevOps" amène de plus en plus les développeurs à livrer leurs codes accompagnés d'une image de conteneur, ou d'un fichier permettant de reconstruire un tel conteneur (machines virtuelles légères). Ainsi, l'application peut être déployée beaucoup plus facilement, et dans un contexte d'exécution similaire à celui du développeur, sans nécessiter l'intervention d'un administrateur pour installer telle ou telle bibliothèque applicative. Docker est l'outil emblématique de ce mouvement.
|
|
|
|
|
|
Ce concept diffuse maintenant à grande vitesse dans le monde du cloud et des super-calculateurs ; dans ce dernier cas, plutôt autour de l'outil Singularity. Pour se garder la possibilité d'utiliser ces ressources de calcul, et bénéficier nous aussi de la souplesse apportée par les conteneurs, il devient vital de préparer l'usage de ces conteneurs dans nos disciplines et dans nos grilles de calcul.
|
|
|
|
|
|
---
|
|
|
|
|
|
## Objectifs du projet
|
|
|
|
|
|
* Comparer les différentes technologies de conteneurs (docker, rocket, lxd, udocker, singularity, shifter) : effet sur les performances, la vectorisation, accès aux accélérateurs de calcul, sécurité, facilité d'administration et d'utilisation. Y'a-t-il un avantage décisif à dédaigner l'outil dominant (Docker) et à se tourner vers les alternatives "HPC" (Singularity, Shifter,...) ?
|
... | ... | @@ -21,38 +22,38 @@ Ce concept diffuse maintenant à grande vitesse dans le monde du cloud et des su |
|
|
* Lors de l'éxecution des conteneurs en production sur un cluster, il est nécessaire d'utiliser un orchestrateur de conteneurs qui distribue les taches sur les ressources disponibles et à la demande. Plusieurs solutions existent (Docker Swarm, Kubernetes, Mesos,...), il faut donc suivre et comparer les technologies.
|
|
|
|
|
|
|
|
|
---
|
|
|
## Participants
|
|
|
|
|
|
#### Porteurs
|
|
|
|
|
|
* Depuis 2019 : **Martin Souchal (APC)***
|
|
|
* 2023-XXXX : **Aurélien Baily-Reyre (LPNHE)**
|
|
|
* 2019-2023 : Martin Souchal (APC)
|
|
|
* 2017-2019 : Cécile Cavet (APC)
|
|
|
|
|
|
#### Participants IN2P3
|
|
|
|
|
|
* APC : Cécile Cavet, Martin Souchal
|
|
|
* APC : Cécile Cavet, Andréa Sartirana ?.
|
|
|
* IJCLab : Gerard Marchal-Duval, David Chamont.
|
|
|
* LPNHE : Aurélien Baily-Reyre, Olivier Dadoun, Victor Mendoza.
|
|
|
* LPC : Fabrice Jammes
|
|
|
* LLR : Andrea Sartirana
|
|
|
* LPC : Fabrice Jammes.
|
|
|
* IPHC : Jérôme Pansanel, Emmanuel Medernach.
|
|
|
* CC IN2P3 : Sébastien Gadrat
|
|
|
* CC IN2P3 : Sébastien Gadrat et équipe C3.
|
|
|
|
|
|
#### Partenaires externes
|
|
|
|
|
|
* Groupe de travail Aristote sur la virtualisation légère.
|
|
|
* CNRS, INS2I, LS2N : Pierre-Emmanuel Guerin, Richard Randriatoamanana et Davide Rovelli.
|
|
|
* IAS : Marc Dexet.
|
|
|
* INRAE : Alexandre Dehne-Garcia
|
|
|
* CNES : Guillaume Eynard-Bontemps
|
|
|
* CNRS/ISE-M : Rémy Dernat
|
|
|
* GRICAD : Violaine Louvet
|
|
|
* IN2P3 : équipe C3 du CC-IN2P3
|
|
|
* Intel : Samuel Ortiz
|
|
|
* Singularity : Cédric Clerget
|
|
|
|
|
|
---
|
|
|
* ?? : Martin Souchal.
|
|
|
* Groupe de travail Aristote : contact pris (David).
|
|
|
* contact : V. Louvet
|
|
|
* IDRIS : discussions en cours (David).
|
|
|
* GENCI
|
|
|
* IAS (Marc Dexet)
|
|
|
* Centrale Nantes (Richard Randriatoamanana, Pierre-Emmanuel Guerin)
|
|
|
* INRAE (Alex Dehne-Garcia)
|
|
|
* CNES (Guillaume Eynard-Bontemps)
|
|
|
* CC-IN2P3 (Sebastien Gadrat et l'équipe C3)
|
|
|
* CEA
|
|
|
|
|
|
|
|
|
## Liens
|
|
|
|
|
|
* [**_Master-projet DecaLog_**](https://gitlab.in2p3.fr/CodeursIntensifs/DecaLog/wikis/home)
|
... | ... | |