... | ... | @@ -37,10 +37,10 @@ Soit directement les binaires dans `SOMEWHERE/cuda-samples/NVIDIA_CUDA-7.5_Sampl |
|
|
### Exemples maison ###
|
|
|
#### Exemples en CUDA ####
|
|
|
Sur la base de l'estimation de pi :
|
|
|
* Essai basique : [pi_gpu_cuda.py](gpu/pi-test/pi_gpu_cuda.py)
|
|
|
* Essai mieux implémenté : [pi_gpu_v2.py](gpu/pi-test/pi_gpu_v2.py)
|
|
|
* Version multi-GPU : [pi_gpu_multiGPU.py](gpu/pi-test/pi_gpu_multiGPU.py)
|
|
|
* Utilisation de la librairie [thrust](http://docs.nvidia.com/cuda/thrust/) : [pi_gpu_thrust.py](gpu/pi-test/pi_gpu_thrust.py)
|
|
|
* Essai basique : [pi_gpu.cu](gpu/pi-test/pi_gpu.cu)
|
|
|
* Essai mieux implémenté : [pi_gpu_v2.cu](gpu/pi-test/pi_gpu_v2.cu)
|
|
|
* Version multi-GPU : [pi_gpu_multiGPU.cu](gpu/pi-test/pi_gpu_multiGPU.cu)
|
|
|
* Utilisation de la librairie [thrust](http://docs.nvidia.com/cuda/thrust/) : [pi_gpu_thrust.cu](gpu/pi-test/pi_gpu_thrust.cu)
|
|
|
|
|
|
#### Exemples en python ####
|
|
|
Pour utiliser les exemples python, il faut tout d'abord installer quelques modules python en local. Le plus simple est d'utiliser [anaconda](https://www.continuum.io/downloads), qui permet d'avoir un environement python local, et d'installer des modules à volonté, sans avoir besoin d'être root sur la machine. L'outil est disponible sur la machine portant les gpu. Pour y accéder :
|
... | ... | |