Векторизация расчета точечного продукта с использованием SSE4
Я пытаюсь улучшить этот код с помощью продукта SSE4 dot, но мне трудно найти решение. Эта функция получает параметры qi и tj, которые содержат поплавковые массивы с ячейками 80, а затем вычисляют точечный продукт. Возвращаемое значение представляет собой вектор с четырьмя точечными продуктами. Поэтому я пытаюсь вычислить четыре точечных произведения из двадцати значений параллельно.
вы знаете, как улучшить этот код?
inline __m128 ScalarProd20Vec(__m128* qi, __m128* tj)
{
__m128 res=_mm_add_ps(_mm_mul_ps(tj[0],qi[0]),_mm_mul_ps(tj[1],qi[1]));
res=_mm_add_ps(res,_mm_add_ps(_mm_mul_ps(tj[2],qi[2]),_mm_mul_ps(tj[3],qi[3])));
res=_mm_add_ps(res,_mm_add_ps(_mm_mul_ps(tj[4],qi[4]),_mm_mul_ps(tj[5],qi[5])));
res=_mm_add_ps(res,_mm_add_ps(_mm_mul_ps(tj[6],qi[6]),_mm_mul_ps(tj[7],qi[7])));
res=_mm_add_ps(res,_mm_add_ps(_mm_mul_ps(tj[8],qi[8]),_mm_mul_ps(tj[9],qi[9])));
res=_mm_add_ps(res,_mm_add_ps(_mm_mul_ps(tj[10],qi[10]),_mm_mul_ps(tj[11],qi[11])));
res=_mm_add_ps(res,_mm_add_ps(_mm_mul_ps(tj[12],qi[12]),_mm_mul_ps(tj[13],qi[13])));
res=_mm_add_ps(res,_mm_add_ps(_mm_mul_ps(tj[14],qi[14]),_mm_mul_ps(tj[15],qi[15])));
res=_mm_add_ps(res,_mm_add_ps(_mm_mul_ps(tj[16],qi[16]),_mm_mul_ps(tj[17],qi[17])));
res=_mm_add_ps(res,_mm_add_ps(_mm_mul_ps(tj[18],qi[18]),_mm_mul_ps(tj[19],qi[19])));
return res;
}
3 ответов
из сотен примеров SSE, которые я видел на SO, ваш код является одним из немногих, который уже в довольно хорошей форме с самого начала. Вам не нужна инструкция SSE4 dot-product. (Вы можете сделать лучше!)
, есть одна вещь, которую вы можете попробовать: (Я говорю попробовать, потому что я еще не приурочил его.)
В настоящее время у вас есть цепочка зависимостей данных от res
. Векторное сложение составляет 3-4 цикла на большинстве машин сегодня. Таким образом, ваш код займет минимум 30 циклы для запуска, так как у вас есть:
(10 additions on critical path) * (3 cycles addps latency) = 30 cycles
что вы можете сделать, это разбить узел на res
переменной следующим образом:
__m128 res0 = _mm_add_ps(_mm_mul_ps(tj[ 0],qi[ 0]),_mm_mul_ps(tj[ 1],qi[ 1]));
__m128 res1 = _mm_add_ps(_mm_mul_ps(tj[ 2],qi[ 2]),_mm_mul_ps(tj[ 3],qi[ 3]));
res0 = _mm_add_ps(res0,_mm_add_ps(_mm_mul_ps(tj[ 4],qi[ 4]),_mm_mul_ps(tj[ 5],qi[ 5])));
res1 = _mm_add_ps(res1,_mm_add_ps(_mm_mul_ps(tj[ 6],qi[ 6]),_mm_mul_ps(tj[ 7],qi[ 7])));
res0 = _mm_add_ps(res0,_mm_add_ps(_mm_mul_ps(tj[ 8],qi[ 8]),_mm_mul_ps(tj[ 9],qi[ 9])));
res1 = _mm_add_ps(res1,_mm_add_ps(_mm_mul_ps(tj[10],qi[10]),_mm_mul_ps(tj[11],qi[11])));
res0 = _mm_add_ps(res0,_mm_add_ps(_mm_mul_ps(tj[12],qi[12]),_mm_mul_ps(tj[13],qi[13])));
res1 = _mm_add_ps(res1,_mm_add_ps(_mm_mul_ps(tj[14],qi[14]),_mm_mul_ps(tj[15],qi[15])));
res0 = _mm_add_ps(res0,_mm_add_ps(_mm_mul_ps(tj[16],qi[16]),_mm_mul_ps(tj[17],qi[17])));
res1 = _mm_add_ps(res1,_mm_add_ps(_mm_mul_ps(tj[18],qi[18]),_mm_mul_ps(tj[19],qi[19])));
return _mm_add_ps(res0,res1);
Это почти сокращает ваш критический путь пополам. Обратите внимание, что из-за неассоциативности с плавающей запятой эта оптимизация является незаконной для компиляторов.
вот альтернативная версия, использующая 4-полосное разделение узлов и инструкции AMD FMA4. Если вы не можете использовать плавленое умножение, не стесняйтесь разбивать их. Это все еще может быть лучше, чем первая версия.
__m128 res0 = _mm_mul_ps(tj[ 0],qi[ 0]);
__m128 res1 = _mm_mul_ps(tj[ 1],qi[ 1]);
__m128 res2 = _mm_mul_ps(tj[ 2],qi[ 2]);
__m128 res3 = _mm_mul_ps(tj[ 3],qi[ 3]);
res0 = _mm_macc_ps(tj[ 4],qi[ 4],res0);
res1 = _mm_macc_ps(tj[ 5],qi[ 5],res1);
res2 = _mm_macc_ps(tj[ 6],qi[ 6],res2);
res3 = _mm_macc_ps(tj[ 7],qi[ 7],res3);
res0 = _mm_macc_ps(tj[ 8],qi[ 8],res0);
res1 = _mm_macc_ps(tj[ 9],qi[ 9],res1);
res2 = _mm_macc_ps(tj[10],qi[10],res2);
res3 = _mm_macc_ps(tj[11],qi[11],res3);
res0 = _mm_macc_ps(tj[12],qi[12],res0);
res1 = _mm_macc_ps(tj[13],qi[13],res1);
res2 = _mm_macc_ps(tj[14],qi[14],res2);
res3 = _mm_macc_ps(tj[15],qi[15],res3);
res0 = _mm_macc_ps(tj[16],qi[16],res0);
res1 = _mm_macc_ps(tj[17],qi[17],res1);
res2 = _mm_macc_ps(tj[18],qi[18],res2);
res3 = _mm_macc_ps(tj[19],qi[19],res3);
res0 = _mm_add_ps(res0,res1);
res2 = _mm_add_ps(res2,res3);
return _mm_add_ps(res0,res2);
во-первых, самая важная оптимизация, которую вы можете сделать, это убедиться, что ваш компилятор имеет все настройки оптимизации включены.
компиляторы довольно умны, поэтому, если написать его как цикл, он, вероятно, развернет его:
__128 res = _mm_setzero();
for (int i = 0; i < 10; i++) {
res = _mm_add_ps(res, _mm_add_ps(_mm_mul_ps(tj[2*i], qi[2*i]), _mm_mul_ps(tj[2*i+1], qi[2*i+1])));
}
return res;
(С GCC вам нужно пройти -funroll-loops
, а затем он развернет его, чтобы сделать 5 итераций за раз.)
вы также можете определить макрос и развернуть его вручную, если цикл версии медленнее, например:
__128 res = _mm_setzero();
#define STEP(i) res = _mm_add_ps(res, _mm_add_ps(_mm_mul_ps(tj[2*i], qi[2*i]), _mm_mul_ps(tj[2*i+1], qi[2*i+1])))
STEP(0); STEP(1); STEP(2); STEP(3); STEP(4);
STEP(5); STEP(6); STEP(7); STEP(8); STEP(9);
#undef STEP
return res;
вы даже можете запустить цикл от 0 до 20 (или сделать то же самое с версией макроса), т. е.:
__128 res = _mm_setzero();
for (int i = 0; i < 20; i++) {
res = _mm_add_ps(res, _mm_mul_ps(tj[i], qi[i]));
}
return res;
(С GCC и -funroll-loops
это развернуто, чтобы сделать 10 итераций за раз, т. е. то же самое, что и цикл two-at-a-time выше.)
ваши данные не расположены в памяти в подходящем формате для специализированных инструкций продукта SSE4 dot (dpps
) . Эти инструкции ожидают, что размеры одного вектора будут смежными, например:
| dim0 | dim1 | dim2 | ... | dim19 |
в то время как ваши данные, похоже, векторы чередуются друг с другом:
| v0-dim0 | v1-dim0 | v2-dim0 | v3-dim0 | v0-dim1 | ...
ваш текущий общий подход кажется подходящим - вы можете улучшить ситуацию, переупорядочив инструкции таким образом, чтобы результаты умножения не используются сразу после их создания, но на самом деле компилятор должен быть в состоянии понять это самостоятельно.