我试图得到一个变化的CUDA matrix transpose sample的各种大小。简单地说,我必须取一个输入数组(double *a
),并将其写入一个更大的矩阵(double *tab
)的两个不同部分(您会注意到不同的偏移量)。我以行为主的格式存储数据,所以我使用这个宏进行索引:
#define IDX2L(i,j,ld) (((i)*ld))+(j)) // 0 based index +row-major format
这是我使用的简单代码。
__global__ void cuda_a_Coalesced(double *tab, int tab_rows, int a_rows, double *a)
{
__shared__ double tile[16*(16+1)];
int col = threadIdx.x + blockIdx.x * blockDim.x;
int row = threadIdx.y + blockIdx.y * blockDim.y;
int col_2, row_2;
int a_cols=tab_rows-a_rows; // tab_rows-a_rows is the number of columns of a
int tab_cols=2*tab_rows+2; // 2*tab_rows+2 is the number of columns of tab
if( (col<a_cols) && (row<a_rows) )
{
// Load the data into shared mem
tile[threadIdx.x+threadIdx.y*(16+1)]=a[IDX2L(row,col,a_cols)];
// Normal copy (+ offsets)
tab[IDX2L(row,col+tab_rows+a_rows,tab_cols)]= tile[threadIdx.x+threadIdx.y*(16+1)];
// New idx
col_2 = blockIdx.y * blockDim.y + threadIdx.x;
row_2 = blockIdx.x * blockDim.x + threadIdx.y;
}
__syncthreads();
if( (row_2<a_cols) && (col_2<a_rows) )
// Transpose (+ other offsets)
tab[IDX2L(row_2+a_rows,col_2+tab_rows,tab_cols)]= -tile[threadIdx.y+threadIdx.x*(16+1)];
}
发射参数如下:
b1=(int)ceil((float)a_cols/16);
b2=(int)ceil((float)a_rows/16);
dim bck(b1,b2):dim th(16,16);
cuda_a_Coalesced<<<bck,th>>>(tab,tab_rows,a_rows,a);
无论大小如何,正常复制总是可以很好地执行。转置复制仅适用于块大小的整数倍大小(如CUDA示例中)。当转置复制失败时,操作的某些部分是正确的,而其他部分则不是,我无法准确预测或跟踪。注意,这个想法是改变共享内存中的索引,以便转置可以以合并的形式写入输出矩阵中(由于行主格式)。
有人能告诉我为什么代码只适用于这种大小的原因吗?
有什么窍门可以解决这种情况吗?
1条答案
按热度按时间xzlaal3s1#
问题是由于一些未定义的线程,因为
col_2
和row_2
的值是在一个if()
语句中分配的,而不是所有线程都在访问。为了解决这种情况,我们可以在声明
col_2
和row_2
的变量时给予这些变量的值,并删除在提到的if()
中的同态计算:因此,代码的其余部分看起来像这样: