docker registry
docker.841973620.net:8888
关于 CUDA 的简单介绍
docker run -it --rm --gpus all -p 80:80 841973620/dli-t-ac-01-v1:cuda12.2-task
加速计算基础——CUDA C/C++
1.使用 CUDA C/C++ 加速应用程序
docker run -it --rm --gpus all -p 80:80 841973620/dli-c-ac-01-v1:cuda12.2-task1
2.利用基本的 CUDA 内存管理技术来优化加速应用程序
docker run -it --rm --gpus all -p 80:80 841973620/dli-c-ac-01-v1:cuda12.2-task2
3.被加速的 C/C++ 应用程序的异步流和可视化分析
docker run -it --rm --gpus all -p 80:80 841973620/dli-c-ac-01-v1:cuda12.2-task3
通过并发流加速 CUDA C++ 应用程序
docker run -it --rm --gpus all -p 80:80 841973620/dli-s-ac-01-v1:cuda12.2-task
通过 CUDA C++ 在多个 GPU 之间扩展工作负载
docker run -it --rm --gpus all -p 80:80 841973620/dli-s-ac-02-v1:cuda12.2-task
使用 Nsight 分析工具优化 CUDA 机器学习代码
docker run -it --rm --privileged=true --gpus all -p 80:80 841973620/dli-s-ac-03-v1:cuda11.4-task
加速计算基础——CUDA Python
1.使用 Numba 的 CUDA Python 简介
docker run -it --rm --gpus all -p 80:80 841973620/dli-c-ac-02-v1:cuda12.2-task1
2.使用 Numba 的 CUDA Python 的自定义核函数和内存管理
docker run -it --rm --gpus all -p 80:80 841973620/dli-c-ac-02-v1:cuda12.2-task2
3.有效使用内存子系统
docker run -it --rm --gpus all -p 80:80 841973620/dli-c-ac-02-v1:cuda12.2-task3
加速计算基础——OpenACC
docker run -it --rm --gpus all -p 80:80 841973620/dli-c-ac-03-v1:cuda12.2-task
使用容器实现高性能计算
docker run -it --rm --privileged=true --gpus all -p 80:80 841973620/dli-l-ac-25-v1:task
深度学习新手入门
docker run -it --rm --gpus all -p 80:80 841973620/dli-s-fx-01-v1:task
图神经网络入门
docker run -it --rm --gpus all -p 80:80 841973620/dli-s-fx-05-v1:cuda12.2-task
使用 LLaMA-2 进行提示工程
docker run -it --rm --gpus all -p 80:80 841973620/dli-s-fx-12-v1:cuda12.2-task