搜索结果: 1-15 共查到“计算机科学技术 GPU”相关记录44条 . 查询时间(0.098 秒)
2024壁仞科技“飞翔杯”GPU编程挑战赛圆满落幕(图)
壁仞科技 飞翔杯 GPU编程
font style='font-size:12px;'>
2024/9/22
全球冠军!东南大学集成电路学院杨军、张萌教授团队SEU AIC Lab在DAC系统设计竞赛GPU赛道获得全球第一!(图)
东南大学 杨军 张萌 SEU AIC Lab DAC 系统设计 GPU赛道
font style='font-size:12px;'>
2024/8/1
中国科学院地理科学与资源研究所专利:一种基于CPU+GPU架构的空间几何体线段相交判断并行处理方法
中国科学院地理科学与资源研究所 专利 CPU+GPU架构 空间几何体 线段相交
font style='font-size:12px;'>
2024/6/24
中国科学院地理科学与资源研究所专利:基于CPU+GPU架构的多边形数据空间关系查询并行系统
中国科学院地理科学与资源研究所 专利 CPU+GPU架构 多边形 数据空间 关系查询 并行系统
font style='font-size:12px;'>
2024/6/20
Verification of Producer-Consumer Synchronization in GPU Programs
Verification GPUs data races synchronization deadlock barrier recycling
font style='font-size:12px;'>
2016/5/24
Previous efforts to formally verify code written for GPUs have focused solely on kernels written within the traditional data-parallel GPU programming model. No previous work has considered the higher ...
基于GPU的光线追踪算法
光线跟踪 加速结构 着色语言 GPU
font style='font-size:12px;'>
2016/4/5
为在个人PC上实现实时光线追踪技术,设计并实现一种基于GPU的光线追踪算法。介绍光线追踪原理,深入分析实时光线追踪的特点,研究实时光线追踪中最困难的空间加速结构构建和搜索问题,并进行算法优化和实验。结果表明,该算法可得到非常逼真的图形效果,为人们提供深度信息,实现二维图像中的三维效果。在仿真模拟、几何造型、广告影视、指挥控制及科学计算的可视化等领域都得到广泛应用。
基于GPU的光线追踪算法
光线跟踪 加速结构 着色语言 GPU
font style='font-size:12px;'>
2016/5/25
为在个人PC上实现实时光线追踪技术,设计并实现一种基于GPU的光线追踪算法。介绍光线追踪原理,深入分析实时光线追踪的特点,研究实时光线追踪中最困难的空间加速结构构建和搜索问题,并进行算法优化和实验。结果表明,该算法可得到非常逼真的图形效果,为人们提供深度信息,实现二维图像中的三维效果。在仿真模拟、几何造型、广告影视、指挥控制及科学计算的可视化等领域都得到广泛应用。
CPU-GPU协同加速Kriging插值的负载均衡方法
通用计算图形处理器 开放运算语言 Kriging插值 负载均衡
font style='font-size:12px;'>
2016/6/3
Kriging插值算法被广泛应用于地学各领域,有着极其重要的现实意义,但在面对大规模输出网格及大量输入采样点时,不可避免地遇到了性能瓶颈。利用OpenCL和OpenMP在异构平台上实现了CPU与GPU协同加速普通Kriging插值。针对Kriging插值中采样点的不规则分布及CPU和GPU由于体系结构差异对其的不同适应性,提出一种基于不同设备间计算性能的差异和数据分布特点的负载均衡方法。试验结果表...
利用CUDA Fortran语言发展了基于图形处理器(GPU)的计算流体力学可压缩湍流求解器。该求解器基于结构网格有限体积法,空间离散采用AUSMPW+格式,湍流模型为k-ω SST两方程模型,采用MPI实现并行计算。针对最新的GPU架构,讨论了通量计算的优化方法及GPU计算与PCIe数据传输、MPI通信重叠的多GPU并行算法。进行了超声速进气道及空天飞机等算例的数值模拟以验证GPU在大网格量情况...
高光谱影像降维快速独立成分分析过程包含大规模矩阵运算和大量迭代计算。通过分析算法热点,设计协方差矩阵计算、白化处理、ICA迭代和IC变换等关键热点的图像处理单元映射方案,提出并实现一种G-FastICA并行算法,并基于GPU架构研究算法优化策略。实验结果显示:在处理高光谱影像降维时,CPU/GPU异构系统能获得比CPU更高效的性能,G-FastICA算法比串行最高可获得72倍加速比,比16核CPU...
GPU集群能耗优化控制模型研究
能耗控制 GPU集群 能量消减 模型预测
font style='font-size:12px;'>
2017/1/4
随着大数据技术的发展,GPU集群作为一种高效的并行系统被应用到大规模数据实时计算中.能量是实时计算时重要的资源,GPU集群的能耗优化及实时消减成为一个具有挑战性的问题.从集群全局角度引入模型预测控制策略,并建立闭环反馈机制的多输入多输出控制器.通过调整计算频率和改变活跃流多处理器来改变能耗状态,利用反馈和滚动优化机制完成对未来的控制预判,实现消减冗余能耗的目标.实验表明:控制模型的精度和节能效果优...
硅各向异性腐蚀过程复杂,采用元胞自动机模拟硅各向异性腐蚀非常耗时。为了加速腐蚀模拟过程,研究了基于图形处理器(GPU)进行硅的各向异性腐蚀模拟。针对串行算法直接并行化方法存在加速效率低等问题,提出了一个改进的并行模拟方法。该方法增加了并行部分的负载,减少了内存管理的开销,从而提高了加速性能。实验证明该方法能够获得较理想的加速比。
利用并行GPU对分层分布式狄利克雷分布算法加速
分层分布式狄利克雷分布 潜在狄利克雷分布 文本分类 分布式框架 并行图形处理器
font style='font-size:12px;'>
2014/2/18
分层分布式狄利克雷分布(HD-LDA)算法是一个对潜在狄利克雷分布(LDA)进行改进的基于概率增长模型的文本分类算法,与只能在单机上运行的LDA算法相比,可以运行在分布式框架下,进行分布式并行处理。Mahout在Hadoop框架下实现了HD-LDA算法,但是因为单节点算法的计算量大,仍然存在对大数据分类运行时间太长的问题。而大规模文本集合分散到多个节点上迭代推导,单个节点上文档集合的推导仍是顺序进...
基于GPU的LCS算法加速机制研究与实现
协议特征识别 LCS算法 CUDA平台 GPU加速
font style='font-size:12px;'>
2014/3/26
协议特征识别技术中用到了一种重要的LCS算法,它是一种字符串比对算法,提取出字符串中的最长连续公共子串。然而,通过理论分析和实验表明:这个查找过程是一个时间复杂度较高的运算过程,如果输入的数据分组比较大,那么运行的时间将会非常长,为此不得不控制输入数据分组的大小和数量,这严重限制了所采用样本集的大小。提出了基于GPU对LCS运算实现加速的方法。在此基础上搭建和配置了CUDA平台,在此平台下研究并实...
交替方向隐式CFD解法器的GPU并行计算及其优化
交替方向隐式 计算流体力学解法器 结构网格 GPU并行
font style='font-size:12px;'>
2014/4/17
交替方向隐格式(ADI)是常见的偏微分方程离散格式之一,目前对ADI格式在计算流体力学(CFD)实际应用中的GPU并行工作开展较少。从一个有限体积CFD应用出发,通过分析ADI解法器的特点和计算流程,基于统一计算架构(CUDA)编程模型设计了基于网格点与网格线的两类细粒度GPU并行算法,讨论了若干性能优化方法。在天河-1A系统上,采用128×128×128网格规模的单区结构网格算例,无粘项、粘性项...