工学 >>> 计算机科学技术 >>> 计算机科学技术基础学科 人工智能 计算机系统结构 计算机软件 计算机工程 计算机应用 计算机科学技术其他学科
搜索结果: 1-15 共查到计算机科学技术 GPU相关记录44条 . 查询时间(0.098 秒)
2024壁仞科技“飞翔杯”GPU编程挑战赛圆满落幕(图)     壁仞科技  飞翔杯  GPU编程       font style='font-size:12px;'> 2024/9/22
近日,由中国人工智能学会、上海市人工智能行业协会主办,壁仞科技、CAAI 教育工委会、浙江大学高等研究院、一蓦科技承办的2024壁仞科技“飞翔杯”GPU编程挑战赛圆满落幕。经过一个多月的激烈角逐,来自全国各地的编程高手和技术爱好者们展现了卓越的技术实力和创新精神,最终18支队伍脱颖而出,荣获一、二、三等奖和优秀奖。
第61届DAC(设计自动化大会,Design Automation Conference)于当地时间2024年6月23日至6月27日在美国旧金山举办,东南大学集成电路学院杨军、张萌教授的团队SEU AIC Lab继去年在该会议举办的系统设计竞赛GPU赛道(GPU Track)获得亚军后,更上一层楼,荣获冠军!
中国科学院地理科学与资源研究所专利:一种基于CPU+GPU架构的空间几何体线段相交判断并行处理方法。
中国科学院地理科学与资源研究所专利:基于CPU+GPU架构的多边形数据空间关系查询并行系统。
Previous efforts to formally verify code written for GPUs have focused solely on kernels written within the traditional data-parallel GPU programming model. No previous work has considered the higher ...
基于GPU的光线追踪算法     光线跟踪  加速结构  着色语言  GPU       font style='font-size:12px;'> 2016/4/5
为在个人PC上实现实时光线追踪技术,设计并实现一种基于GPU的光线追踪算法。介绍光线追踪原理,深入分析实时光线追踪的特点,研究实时光线追踪中最困难的空间加速结构构建和搜索问题,并进行算法优化和实验。结果表明,该算法可得到非常逼真的图形效果,为人们提供深度信息,实现二维图像中的三维效果。在仿真模拟、几何造型、广告影视、指挥控制及科学计算的可视化等领域都得到广泛应用。
基于GPU的光线追踪算法     光线跟踪  加速结构  着色语言  GPU       font style='font-size:12px;'> 2016/5/25
为在个人PC上实现实时光线追踪技术,设计并实现一种基于GPU的光线追踪算法。介绍光线追踪原理,深入分析实时光线追踪的特点,研究实时光线追踪中最困难的空间加速结构构建和搜索问题,并进行算法优化和实验。结果表明,该算法可得到非常逼真的图形效果,为人们提供深度信息,实现二维图像中的三维效果。在仿真模拟、几何造型、广告影视、指挥控制及科学计算的可视化等领域都得到广泛应用。
Kriging插值算法被广泛应用于地学各领域,有着极其重要的现实意义,但在面对大规模输出网格及大量输入采样点时,不可避免地遇到了性能瓶颈。利用OpenCL和OpenMP在异构平台上实现了CPUGPU协同加速普通Kriging插值。针对Kriging插值中采样点的不规则分布及CPUGPU由于体系结构差异对其的不同适应性,提出一种基于不同设备间计算性能的差异和数据分布特点的负载均衡方法。试验结果表...
应用多GPU的可压缩湍流并行计算     CUDA   图形处理器  湍流  并行计算  计算流体力学       font style='font-size:12px;'> 2016/6/2
利用CUDA Fortran语言发展了基于图形处理器(GPU)的计算流体力学可压缩湍流求解器。该求解器基于结构网格有限体积法,空间离散采用AUSMPW+格式,湍流模型为k-ω SST两方程模型,采用MPI实现并行计算。针对最新的GPU架构,讨论了通量计算的优化方法及GPU计算与PCIe数据传输、MPI通信重叠的多GPU并行算法。进行了超声速进气道及空天飞机等算例的数值模拟以验证GPU在大网格量情况...
高光谱影像降维快速独立成分分析过程包含大规模矩阵运算和大量迭代计算。通过分析算法热点,设计协方差矩阵计算、白化处理、ICA迭代和IC变换等关键热点的图像处理单元映射方案,提出并实现一种G-FastICA并行算法,并基于GPU架构研究算法优化策略。实验结果显示:在处理高光谱影像降维时,CPU/GPU异构系统能获得比CPU更高效的性能,G-FastICA算法比串行最高可获得72倍加速比,比16核CPU...
GPU集群能耗优化控制模型研究     能耗控制  GPU集群  能量消减  模型预测       font style='font-size:12px;'> 2017/1/4
随着大数据技术的发展,GPU集群作为一种高效的并行系统被应用到大规模数据实时计算中.能量是实时计算时重要的资源,GPU集群的能耗优化及实时消减成为一个具有挑战性的问题.从集群全局角度引入模型预测控制策略,并建立闭环反馈机制的多输入多输出控制器.通过调整计算频率和改变活跃流多处理器来改变能耗状态,利用反馈和滚动优化机制完成对未来的控制预判,实现消减冗余能耗的目标.实验表明:控制模型的精度和节能效果优...
改进的硅各向异性腐蚀GPU并行模拟     各向异性腐蚀  元胞自动机  模拟  图形处理器  并行计算       font style='font-size:12px;'> 2014/2/18
硅各向异性腐蚀过程复杂,采用元胞自动机模拟硅各向异性腐蚀非常耗时。为了加速腐蚀模拟过程,研究了基于图形处理器(GPU)进行硅的各向异性腐蚀模拟。针对串行算法直接并行化方法存在加速效率低等问题,提出了一个改进的并行模拟方法。该方法增加了并行部分的负载,减少了内存管理的开销,从而提高了加速性能。实验证明该方法能够获得较理想的加速比。
分层分布式狄利克雷分布(HD-LDA)算法是一个对潜在狄利克雷分布(LDA)进行改进的基于概率增长模型的文本分类算法,与只能在单机上运行的LDA算法相比,可以运行在分布式框架下,进行分布式并行处理。Mahout在Hadoop框架下实现了HD-LDA算法,但是因为单节点算法的计算量大,仍然存在对大数据分类运行时间太长的问题。而大规模文本集合分散到多个节点上迭代推导,单个节点上文档集合的推导仍是顺序进...
基于GPU的LCS算法加速机制研究与实现     协议特征识别  LCS算法  CUDA平台  GPU加速       font style='font-size:12px;'> 2014/3/26
协议特征识别技术中用到了一种重要的LCS算法,它是一种字符串比对算法,提取出字符串中的最长连续公共子串。然而,通过理论分析和实验表明:这个查找过程是一个时间复杂度较高的运算过程,如果输入的数据分组比较大,那么运行的时间将会非常长,为此不得不控制输入数据分组的大小和数量,这严重限制了所采用样本集的大小。提出了基于GPU对LCS运算实现加速的方法。在此基础上搭建和配置了CUDA平台,在此平台下研究并实...
交替方向隐格式(ADI)是常见的偏微分方程离散格式之一,目前对ADI格式在计算流体力学(CFD)实际应用中的GPU并行工作开展较少。从一个有限体积CFD应用出发,通过分析ADI解法器的特点和计算流程,基于统一计算架构(CUDA)编程模型设计了基于网格点与网格线的两类细粒度GPU并行算法,讨论了若干性能优化方法。在天河-1A系统上,采用128×128×128网格规模的单区结构网格算例,无粘项、粘性项...

中国研究生教育排行榜-

正在加载...

中国学术期刊排行榜-

正在加载...

世界大学科研机构排行榜-

正在加载...

中国大学排行榜-

正在加载...

人 物-

正在加载...

课 件-

正在加载...

视听资料-

正在加载...

研招资料 -

正在加载...

知识要闻-

正在加载...

国际动态-

正在加载...

会议中心-

正在加载...

学术指南-

正在加载...

学术站点-

正在加载...