当前位置: 首页 > news >正文

咸阳网站建设推广广府网站建设

咸阳网站建设推广,广府网站建设,如何用wordpress做产品详情页,delphi做网站开发问题陈述 实验所用的硬件环境和软件环境 本次实验使用oneAPI中支持SYCL编程模型的C编译器#xff0c;使用英特尔oneAPI Developer Cloud服务#xff0c;可以免安装额外环境#xff0c;利用CPU作为主机#xff08;Host#xff09;#xff0c;同时利用GPU作为设备#xf…问题陈述 实验所用的硬件环境和软件环境 本次实验使用oneAPI中支持SYCL编程模型的C编译器使用英特尔oneAPI Developer Cloud服务可以免安装额外环境利用CPU作为主机Host同时利用GPU作为设备Device完成作业 通过队列q输出GPU设备名称 Intel® DevCloud编程环境注册 注册登录Intel账号 进入如图位置往下拉到最底 连接并进入jupyter lab环境 进入箭头所指目录 在此目录可以学习sycl和oneapi相关的官方文档 本次实验的环境使用oneAPI_Essentials/02_SYCL_Program_Structure/目录中SYCL_Program_Structure.ipynb的Lab Exercise:Vector Add实验在这个位置可以直接写自己的代码并运行无需额外安装操作 如何获取运行结果 在上述Vector Add的cell中填写代码 运行 此时代码会保存在另一个位置的cpp文件中 再运行下面这个cell即可 在Dev C平台上面运行矩阵乘法 代码如下 #includevector #include chrono #include iostream using namespace std; //cpu上的计算 double cpu_kernel(std::vectorfloat A, std::vectorfloat B, std::vectorfloat C, int M, int N, int K) {double duration 0.0;std::chrono::high_resolution_clock::time_point s, e;s std::chrono::high_resolution_clock::now();for(int i 0; i M; i) {for(int j 0; j N; j) {float sum 0.0f;for(int k 0; k K; k) {sum A[i * K k] * B[k * N j];}C[i * N j] sum;}}e std::chrono::high_resolution_clock::now();duration std::chrono::durationfloat, std::milli(e - s).count();return duration; } void compute(const int M,const int N,const int K,const int block_size,const int iterations) {//matrix A:(1024*1024) matrix B:(1024*1024) matrix CA*B(1024*1024)cout C矩阵尺寸 c( M , N ) A矩阵 a( M , K ) * B矩阵b( K , N )\n;std::vectorfloat A(N*K);std::vectorfloat B(K*M);std::vectorfloat C(N*M);for(int i0; i M * K; i) {A[i] rand() / double(RAND_MAX);}for(int i0; i K * N; i) {B[i] rand() / double(RAND_MAX);}for(int i0; i M * N; i) {C[i] 0.0f;}//CPU平均执行时间 double duration_cpu 0.0f;int warmup 2;for(int run 0; run iterations warmup; run) {float duration cpu_kernel(A, B, C, M, N, K);if(run warmup) duration_cpu duration;}duration_cpu duration_cpu / iterations;//运行时间输出printf(\nCPU计算时间%lf (ms); \n,duration_cpu); } int main() {compute(1024,1024,1024, 4, 5);return 0; } 运行结果 使用缓存存储实现矩阵乘法 在buffer模型中使用缓存存储将结果从设备GPU检索回主机有两个方法第一个是使用host_accessor第二个是利用buffer destruction机制 buffer_destruction机制缓冲区创建发生在单独的函数作用域中。当执行超出此函数作用域时调用缓冲区析构函数从而放弃数据的所有权并将数据复制回主机内存 完整代码以及注释 #include chrono #includevector #include iostream #include CL/sycl.hpp using namespace std; using namespace sycl; //gpu上的计算 double gpu_kernel(std::vectorfloat A, std::vectorfloat B, std::vectorfloat C, int M, int N, int K, int block_size, sycl::queue q) {//确保行数和列数被块大小block_size整除auto grid_rows (M block_size - 1) / block_size * block_size;auto grid_cols (N block_size - 1) / block_size * block_size;//局部范围决定了每个工作组的大小auto local_ndrange range2(block_size, block_size);//全局范围定义了整个计算的范围 auto global_ndrange range2(grid_rows, grid_cols);//缓冲区 buffer buf1(A);buffer buf2(B);buffer buf3(C);double duration 0.0f;auto e q.submit([](sycl::handler h) {//访问器 accessor A1(buf1,h);accessor B1(buf2,h);accessor C1(buf3,h);h.parallel_forclass k_name_t(sycl::nd_range2(global_ndrange, local_ndrange), [](sycl::nd_item2 index) {//通过index获取行列号 int row index.get_global_id(0);int col index.get_global_id(1);float sum 0.0f;for (int i 0; i K; i) {sum A1[row * K i] * B1[i * N col];}C1[row * N col] sum;});});e.wait();duration (e.get_profiling_infoinfo::event_profiling::command_end() -e.get_profiling_infoinfo::event_profiling::command_start()) /1000.0f/1000.0f;return duration; } //cpu上的计算 double cpu_kernel(std::vectorfloat A, std::vectorfloat B, std::vectorfloat C, int M, int N, int K) {double duration 0.0;std::chrono::high_resolution_clock::time_point s, e;s std::chrono::high_resolution_clock::now();for(int i 0; i M; i) {for(int j 0; j N; j) {float sum 0.0f;for(int k 0; k K; k) {sum A[i * K k] * B[k * N j];}C[i * N j] sum;}}e std::chrono::high_resolution_clock::now();duration std::chrono::durationfloat, std::milli(e - s).count();return duration; } //验证cpu计算结果和gpu计算结果的偏差 int verify(std::vectorfloat cpu_res, std::vectorfloat gpu_res, int length){int err 0;for(int i 0; i length; i) {if( fabs(cpu_res[i] - gpu_res[i]) 1e-3) {err;printf(\n%lf, %lf, cpu_res[i], gpu_res[i]);}}return err; } int compute(const int M,const int N,const int K,const int block_size,const int iterations,sycl::queue q) {//matrix A:(1024*1024) matrix B:(1024*1024) matrix CA*B(1024*1024)cout C矩阵尺寸 c( M , N ) A矩阵 a( M , K ) * B矩阵b( K , N )\n;std::vectorfloat A(N*K);std::vectorfloat B(K*M);std::vectorfloat C(N*M); std::vectorfloat C2(N*M);for(int i0; i M * K; i) {A[i] rand() / double(RAND_MAX);}for(int i0; i K * N; i) {B[i] rand() / double(RAND_MAX);}for(int i0; i M * N; i) {C[i] 0.0f;C2[i] 0.0f;}//GPU平均执行时间 double duration_gpu 0.0f;//CPU平均执行时间 double duration_cpu 0.0f;// 代码“预热”次数 即总共计算20次但只统计11--20次的时候的平均运行时间 int warmup 10;for (int run 0; run iterations warmup; run) {float duration gpu_kernel(A, B, C, M, N, K, block_size, q);if(run warmup) duration_gpu duration;}//计算gpu平均运行时间 duration_gpu duration_gpu / iterations;//计算cpu平均运行时间cpu运行较慢所以取iteration值为原来一半 warmup 2;for(int run 0; run iterations/2 warmup; run) {float duration cpu_kernel(A, B, C2, M, N, K);if(run warmup) duration_cpu duration;}duration_cpu duration_cpu / iterations/2;//错误结果验证int errCode 0;errCode verify(C2, C, M*N);printf(\n总共有%d处错误\n, errCode);//运行时间输出printf(\n1\nGPU计算时间%lf (ms); \nCPU计算时间%lf (ms); \n,duration_gpu, duration_cpu);return errCode; } int main() {//enable_profiling() 是一个SYCL属性property用于在SYCL队列上启用性能分析auto propList cl::sycl::property_list {cl::sycl::property::queue::enable_profiling()};//队列q 使用 gpu设备选择器 queue q( cl::sycl::gpu_selector_v , propList);int errCode compute(1024,1024,1024, 4, 10, q);return errCode; } 代码解释 本代码除了main函数之外还包含四个函数分别是gpu_kernel、cpu_kernel、verify、compute 其中gpu_kernel负责矩阵在gpu上的乘法运算和计算运算时间的功能cpu_kernel负责矩阵在cpu上的乘法运算和计算运算时间的功能verify负责矩阵在gpu和cpu上运算后的结果的对比compute负责矩阵随机初始化、前三个函数的调用、输出结果等等多个功能 在compute函数当中使用了两个参数iteration和warmup 前者iteration是取gpu/cpu的iteration次的运算平均时间值warmup起到“热身”作用比如当iteration10warmup10时gpu会运算20次而最终结果取11--20次计算时间的平均值 运行结果 使用USM显式数据移动实现矩阵乘法 数据的显式移动是指使用malloc_device的USM实现其中主机和设备之间的数据移动可以由开发人员使用memcpy显式地完成 下面展示使用这种思想的矩阵乘法实现代码: #include chrono #include iostream #include CL/sycl.hpp using namespace std; using namespace sycl; //验证cpu计算结果和gpu计算结果的偏差 int verify(float *cpu_res, float *gpu_res, int length){int err 0;for(int i 0; i length; i) {if( fabs(cpu_res[i] - gpu_res[i]) 1e-3) {err;printf(\n%lf, %lf, cpu_res[i], gpu_res[i]);}}return(err); } int main() {//enable_profiling() 是一个SYCL属性property用于在SYCL队列上启用性能分析auto propList cl::sycl::property_list {cl::sycl::property::queue::enable_profiling()};//队列q 使用 gpu设备选择器 queue q( cl::sycl::gpu_selector_v , propList);int block_size4; int M1024;int N1024;int K1024;//gpu计算//确保行数和列数被块大小block_size整除auto grid_rows (M block_size - 1) / block_size * block_size;auto grid_cols (N block_size - 1) / block_size * block_size;//局部范围决定了每个工作组的大小auto local_ndrange range2(block_size, block_size);//全局范围定义了整个计算的范围 auto global_ndrange range2(grid_rows, grid_cols);//主机上的数据 float *Astatic_castfloat *(malloc(M*K*sizeof(float)));float *Bstatic_castfloat *(malloc(K*N*sizeof(float)));float *Cstatic_castfloat *(malloc(M*N*sizeof(float)));float *C2static_castfloat *(malloc(M*N*sizeof(float)));for(int i0; i M * K; i) {A[i] rand() / double(RAND_MAX);}for(int i0; i K * N; i) {B[i] rand() / double(RAND_MAX);}for(int i0; i M * N; i) {C[i] 0.0f;C2[i] 0.0f;}//malloc_device:数据可以在设备和主机显示地迁移 float *A_devicemalloc_devicefloat(M*K,q);float *B_devicemalloc_devicefloat(K*N,q);float *C_devicemalloc_devicefloat(M*N,q);//把主机上的数据复制到设备上面q.memcpy(A_device,A,sizeof(float)*M*K).wait(); q.memcpy(B_device,B,sizeof(float)*K*N).wait(); q.memcpy(C_device,C,sizeof(float)*M*N).wait(); double duration0.0;for(int i0;i20;i){std::chrono::high_resolution_clock::time_point s, e;s std::chrono::high_resolution_clock::now();auto e1 q.submit([](sycl::handler h) {h.parallel_forclass k_name_t(sycl::nd_range2(global_ndrange, local_ndrange), [](sycl::nd_item2 index) {//通过index获取行列号 int row index.get_global_id(0);int col index.get_global_id(1);float sum 0.0f;for (int i 0; i K; i) {sum A_device[row * K i] * B_device[i * N col];}C_device[row * N col] sum;});});e1.wait();//将处理后的、位于设备上的C矩阵数据复制到主机上的C中q.memcpy(C,C_device,sizeof(float)*M*N).wait();e std::chrono::high_resolution_clock::now();if(i10)duration durationstd::chrono::durationfloat, std::milli(e - s).count();}printf(\nGPU计算时间%lf (ms); \n,duration/10.0);duration 0.0;for(int i0;i7;i){std::chrono::high_resolution_clock::time_point s, e;s std::chrono::high_resolution_clock::now();for(int i 0; i M; i) {for(int j 0; j N; j) {float sum 0.0f;for(int k 0; k K; k) {sum A[i * K k] * B[k * N j];}C2[i * N j] sum;}}e std::chrono::high_resolution_clock::now();if(i2)duration durationstd::chrono::durationfloat, std::milli(e - s).count();}printf(\nCPU计算时间%lf (ms); \n,duration/5.0);//错误结果验证int errCode 0;errCode verify(C2, C, M*N);printf(\n总共有%d处错误\n, errCode);free(A_device,q);free(B_device,q);free(C_device,q);free(A);free(B);free(C);return errCode; } 代码解释 这个代码使用USM显式数据移动方案实现矩阵乘法首先分别创建主机上的内存再使用malloc_device创建设备上的内存在主机上的矩阵内存被随机赋值之后通过队列q的memcpy把主机上的数据复制到设备的内存中让这些数据通过队列提交到加速器上处理之后再重新赋值给主机的内存中最后通过verify进行结果验证 这个代码在CPU和GPU计算之前也先进行了“代码预热”在CPU跑够2轮、GPU跑够10轮之后再让CPU跑5轮取时间平均值、让GPU跑10轮取时间平均值 运行结果 使用USM隐式数据移动实现矩阵乘法  USM隐式数据移动是指使用malloc_host、malloc_shared进行内存的分配和管理下面演示使用这种思想实现矩阵乘法的代码 #include chrono #include iostream #include CL/sycl.hpp using namespace std; using namespace sycl; //gpu上的计算 double gpu_kernel(float *A, float *B, float *C, int M, int N, int K, int block_size, sycl::queue q) {//确保行数和列数被块大小block_size整除auto grid_rows (M block_size - 1) / block_size * block_size;auto grid_cols (N block_size - 1) / block_size * block_size;//局部范围决定了每个工作组的大小auto local_ndrange range2(block_size, block_size);//全局范围定义了整个计算的范围 auto global_ndrange range2(grid_rows, grid_cols);double duration 0.0f;auto e q.submit([](sycl::handler h) {h.parallel_forclass k_name_t(sycl::nd_range2(global_ndrange, local_ndrange), [](sycl::nd_item2 index) {//通过index获取行列号 int row index.get_global_id(0);int col index.get_global_id(1);float sum 0.0f;for (int i 0; i K; i) {sum A[row * K i] * B[i * N col];}C[row * N col] sum;});});e.wait();duration (e.get_profiling_infoinfo::event_profiling::command_end() -e.get_profiling_infoinfo::event_profiling::command_start()) /1000.0f/1000.0f;return(duration); } //cpu上的计算 double cpu_kernel(float *A, float *B, float *C, int M, int N, int K) {double duration 0.0;std::chrono::high_resolution_clock::time_point s, e;s std::chrono::high_resolution_clock::now();for(int i 0; i M; i) {for(int j 0; j N; j) {float sum 0.0f;for(int k 0; k K; k) {sum A[i * K k] * B[k * N j];}C[i * N j] sum;}}e std::chrono::high_resolution_clock::now();duration std::chrono::durationfloat, std::milli(e - s).count();return(duration); } //验证cpu计算结果和gpu计算结果的偏差 int verify(float *cpu_res, float *gpu_res, int length){int err 0;for(int i 0; i length; i) {if( fabs(cpu_res[i] - gpu_res[i]) 1e-3) {err;printf(\n%lf, %lf, cpu_res[i], gpu_res[i]);}}return(err); } int compute(const int M,const int N,const int K,const int block_size,const int iterations,sycl::queue q) {//matrix A:(1024*1024) matrix B:(1024*1024) matrix CA*B(1024*1024)cout C矩阵尺寸 c( M , N ) A矩阵 a( M , K ) * B矩阵b( K , N )\n;//malloc_shared:数据可以在设备和主机隐式地迁移 auto A malloc_sharedfloat(M * K, q);auto B malloc_sharedfloat(K * N, q);auto C malloc_sharedfloat(M * N, q);//malloc_host: 数据显式地分配在主机上 auto C2 malloc_hostfloat(M * N, q);for(int i0; i M * K; i) {A[i] rand() / double(RAND_MAX);}for(int i0; i K * N; i) {B[i] rand() / double(RAND_MAX);}for(int i0; i M * N; i) {C[i] 0.0f;C2[i] 0.0f;}//GPU平均执行时间 double duration_gpu 0.0f;//CPU平均执行时间 double duration_cpu 0.0f;// 代码“预热”次数 即总共计算20次但只统计11--20次的时候的平均运行时间 int warmup 10;for (int run 0; run iterations warmup; run) {float duration gpu_kernel(A, B, C, M, N, K, block_size, q);if(run warmup) duration_gpu duration;}//计算gpu平均运行时间 duration_gpu duration_gpu / iterations;//计算cpu平均运行时间cpu运行较慢所以取iteration值为原来一半 warmup 2;for(int run 0; run iterations/2 warmup; run) {float duration cpu_kernel(A, B, C2, M, N, K);if(run warmup) duration_cpu duration;}duration_cpu duration_cpu / iterations/2;//错误结果验证int errCode 0;errCode verify(C_host, C, M*N);printf(\n总共有%d处错误\n, errCode);//运行时间输出printf(\n\nGPU计算时间%lf (ms); \nCPU计算时间%lf (ms); \n,duration_gpu, duration_cpu);//释放内存free(A, q);free(B, q);free(C, q);free(C_host, q);return errCode; } int main() {//enable_profiling() 是一个SYCL属性property用于在SYCL队列上启用性能分析auto propList cl::sycl::property_list {cl::sycl::property::queue::enable_profiling()};//队列q 使用 gpu设备选择器 queue q( cl::sycl::gpu_selector_v , propList);int errCode compute(1024,1024,1024, 4, 10, q);return errCode; } 代码解释 和第一个代码一样这个代码除了main函数之外还包含四个函数分别是gpu_kernel、cpu_kernel、verify、compute 其中gpu_kernel负责矩阵在gpu上的乘法运算和计算运算时间的功能cpu_kernel负责矩阵在cpu上的乘法运算和计算运算时间的功能verify负责矩阵在gpu和cpu上运算后的结果的对比compute负责矩阵随机初始化、前三个函数的调用、输出结果等等多个功能 不同的是这个代码使用molloc_shared和malloc_host实现了统一共享内存 运行结果 几种运行结果的对比分析 通过上面几种不同的运算可以发现devcloud平台具有明显的高性能优势除此之外在devcloud的三种方式当中可以总结出USM的优势如下 SYCL*缓冲区功能很强大但是在c程序中用缓冲区替换所有指针和数组可能会给程序员带来负担因此在这种情况下可以考虑使用统一共享内存USM 1.当把c代码移植到sycl时想要尽可能更改少的代码 2.当需要控制数据移动时使用显式USM分配 项目遇到的挑战解决措施与心得体会 SYCL作为一个异构编程框架对于从未了解过的初学者来说了解SYCL的概念、编程模型方法是一项挑战为了解决这个问题我认真学习了老师提供的音频ppt以及oneapi官方文档的前四章主要包括三个方面对oneapi的介绍、sycl编程框架和sycl的统一共享内存 为了加深对oneAPI的理解针对上述的学习内容自己写出了四个总结性csdn博客链接如下 oneAPI学习笔记一SYCL简介 oneAPI学习笔记二jupyter官方文档oneAPI_Intro学习笔记 oneAPI学习笔记三jupyter官方文档SYCL Program Structure学习笔记 oneAPI学习笔记四jupyter官方文档Unified Shared Memory学习笔记 尽管如此对于sycl的学习仍处于入门阶段依然面临着诸多挑战包括但不限于处理不同硬件兼容性的挑战、如何在不同设备上优化代码的挑战和针对一些特定于异构编程的错误处理的挑战等 总而言之本次oneAPI实践让我接触到了Intel公司前沿的技术受益匪浅。进行SYCL实验是具有挑战性但也是富有成就感的过程在这个过程当中提升了我应对处理一个陌生问题的能力同时锻炼了我阅读学习英文官方技术文档的能力。除此之外接触了之前没有听说过的词汇比如高性能计算HPC、异构编程等等。随着时间和实践的累积希望能够更加熟练地应用SYCL并从中获得更多的收获和经验
http://www.zqtcl.cn/news/74088/

相关文章:

  • 网站风格分析怎么写WordPress自定义古腾堡
  • 中介做哪些网站百度推广的优势
  • 欧洲手表网站网站开发 阿里
  • 网页设计与开发期末作品seoheuni
  • 专门做设计文案的网站最热门的网页游戏排行
  • 教育培训网站源码建站网址怎么改
  • 品牌网站建设代理有什么网站可以做运动
  • 共享ip服务器做网站wordpress api开发文档
  • seo如何选择网站标题做咖啡网站
  • 青岛手机建站价格编程入门先学什么python
  • 广州网站建设比较如何设计一个网页动态效果
  • 如何查看网站是不是wordpress一对一优势的网络营销方式
  • 网站建设费用折旧年限黑龙江省垦区建设协会网站
  • 重庆秀山网站建设价格如何创建app软件
  • 网站建设公司做ppt吗广州白云区网站开发
  • 淘客商品网站怎么做的凡科自助建站系统
  • 如何保护我做的网站模板梅州专业网站建设教程
  • 承德网站建设有限公司苏州市公共交易资源平台
  • 北京网站建设策划方案google官网浏览器
  • 网站空间的价格做网站找哪个部门
  • 30岁做网站编辑佛山有什么好玩的
  • 群晖nas怎样做网站托管服务器是什么意思
  • excel网站链接怎么做效果型网站建设
  • 长沙建个网站一般需要多少钱系统开发是什么意思
  • 湘潭做网站广告的公司平面设计师要学哪些软件
  • 织梦网站怎么居中企业安全文化建设导则
  • 网站服务器 数据库服务器网站建设流程及构架
  • 宜春seo网站推广有自己的网站做淘宝联盟号做吗
  • 网站接口设置动漫制作专业相近专业
  • 制作小网站网站优化网站建设