搜索结果: 1-15 共查到“计算机科学技术 GPU”相关记录44条 . 查询时间(0.109 秒)
2024壁仞科技“飞翔杯”GPU编程挑战赛圆满落幕(图)
壁仞科技 飞翔杯 GPU编程
2024/9/22
全球冠军!东南大学集成电路学院杨军、张萌教授团队SEU AIC Lab在DAC系统设计竞赛GPU赛道获得全球第一!(图)
东南大学 杨军 张萌 SEU AIC Lab DAC 系统设计 GPU赛道
2024/8/1
Verification of Producer-Consumer Synchronization in GPU Programs
Verification GPUs data races synchronization deadlock barrier recycling
2016/5/24
Previous efforts to formally verify code written for GPUs have focused solely on kernels written within the traditional data-parallel GPU programming model. No previous work has considered the higher ...
基于GPU的光线追踪算法
光线跟踪 加速结构 着色语言 GPU
2016/4/5
为在个人PC上实现实时光线追踪技术,设计并实现一种基于GPU的光线追踪算法。介绍光线追踪原理,深入分析实时光线追踪的特点,研究实时光线追踪中最困难的空间加速结构构建和搜索问题,并进行算法优化和实验。结果表明,该算法可得到非常逼真的图形效果,为人们提供深度信息,实现二维图像中的三维效果。在仿真模拟、几何造型、广告影视、指挥控制及科学计算的可视化等领域都得到广泛应用。
基于GPU的光线追踪算法
光线跟踪 加速结构 着色语言 GPU
2016/5/25
为在个人PC上实现实时光线追踪技术,设计并实现一种基于GPU的光线追踪算法。介绍光线追踪原理,深入分析实时光线追踪的特点,研究实时光线追踪中最困难的空间加速结构构建和搜索问题,并进行算法优化和实验。结果表明,该算法可得到非常逼真的图形效果,为人们提供深度信息,实现二维图像中的三维效果。在仿真模拟、几何造型、广告影视、指挥控制及科学计算的可视化等领域都得到广泛应用。
Kriging插值算法被广泛应用于地学各领域,有着极其重要的现实意义,但在面对大规模输出网格及大量输入采样点时,不可避免地遇到了性能瓶颈。利用OpenCL和OpenMP在异构平台上实现了CPU与GPU协同加速普通Kriging插值。针对Kriging插值中采样点的不规则分布及CPU和GPU由于体系结构差异对其的不同适应性,提出一种基于不同设备间计算性能的差异和数据分布特点的负载均衡方法。试验结果表...
利用CUDA Fortran语言发展了基于图形处理器(GPU)的计算流体力学可压缩湍流求解器。该求解器基于结构网格有限体积法,空间离散采用AUSMPW+格式,湍流模型为k-ω SST两方程模型,采用MPI实现并行计算。针对最新的GPU架构,讨论了通量计算的优化方法及GPU计算与PCIe数据传输、MPI通信重叠的多GPU并行算法。进行了超声速进气道及空天飞机等算例的数值模拟以验证GPU在大网格量情况...
高光谱影像降维快速独立成分分析过程包含大规模矩阵运算和大量迭代计算。通过分析算法热点,设计协方差矩阵计算、白化处理、ICA迭代和IC变换等关键热点的图像处理单元映射方案,提出并实现一种G-FastICA并行算法,并基于GPU架构研究算法优化策略。实验结果显示:在处理高光谱影像降维时,CPU/GPU异构系统能获得比CPU更高效的性能,G-FastICA算法比串行最高可获得72倍加速比,比16核CPU...
GPU集群能耗优化控制模型研究
能耗控制 GPU集群 能量消减 模型预测
2017/1/4
随着大数据技术的发展,GPU集群作为一种高效的并行系统被应用到大规模数据实时计算中.能量是实时计算时重要的资源,GPU集群的能耗优化及实时消减成为一个具有挑战性的问题.从集群全局角度引入模型预测控制策略,并建立闭环反馈机制的多输入多输出控制器.通过调整计算频率和改变活跃流多处理器来改变能耗状态,利用反馈和滚动优化机制完成对未来的控制预判,实现消减冗余能耗的目标.实验表明:控制模型的精度和节能效果优...
硅各向异性腐蚀过程复杂,采用元胞自动机模拟硅各向异性腐蚀非常耗时。为了加速腐蚀模拟过程,研究了基于图形处理器(GPU)进行硅的各向异性腐蚀模拟。针对串行算法直接并行化方法存在加速效率低等问题,提出了一个改进的并行模拟方法。该方法增加了并行部分的负载,减少了内存管理的开销,从而提高了加速性能。实验证明该方法能够获得较理想的加速比。
利用并行GPU对分层分布式狄利克雷分布算法加速
分层分布式狄利克雷分布 潜在狄利克雷分布 文本分类 分布式框架 并行图形处理器
2014/2/18
分层分布式狄利克雷分布(HD-LDA)算法是一个对潜在狄利克雷分布(LDA)进行改进的基于概率增长模型的文本分类算法,与只能在单机上运行的LDA算法相比,可以运行在分布式框架下,进行分布式并行处理。Mahout在Hadoop框架下实现了HD-LDA算法,但是因为单节点算法的计算量大,仍然存在对大数据分类运行时间太长的问题。而大规模文本集合分散到多个节点上迭代推导,单个节点上文档集合的推导仍是顺序进...
基于GPU的LCS算法加速机制研究与实现
协议特征识别 LCS算法 CUDA平台 GPU加速
2014/3/26
协议特征识别技术中用到了一种重要的LCS算法,它是一种字符串比对算法,提取出字符串中的最长连续公共子串。然而,通过理论分析和实验表明:这个查找过程是一个时间复杂度较高的运算过程,如果输入的数据分组比较大,那么运行的时间将会非常长,为此不得不控制输入数据分组的大小和数量,这严重限制了所采用样本集的大小。提出了基于GPU对LCS运算实现加速的方法。在此基础上搭建和配置了CUDA平台,在此平台下研究并实...