ФЕДЕРАЛЬНОЕ АГЕНСТВО ПО ОБРАЗОВАНИЮ
ГОУВПО “ПЕРМСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ”
Кафедра прикладной математики и информатики
Параллельные методы умножения матрицы на вектор
(лаба №1)
Выполнили студенты 1 курса магистратуры,
группы ПМИ
механико-математического факультета
Габдуллин Артём _______________
Моисеенков Максим_____________
Нурбакова Диана _______________
Принял:
доцент кафедры прикладной
математики и информатики ПГУ,
к.ф.-м.н., доц.
Деменев А.Г.____________________________
Пермь 2010
Цель лабораторной работы.
Реализация последовательного и параллельных алгоритмов умножения матрицы на вектор при использовании 2-х ядерной вычислительной системы с общей памятью.
Постановка задачи.
В результате умножения матрицы и вектора, получается вектор, каждый i-ый элемент которого есть результат скалярного умножения i-й строки матрицы (обозначим эту строчку ) и вектора.
Тем самым получение результирующего вектора предполагает повторение однотипных операций по умножению строк матрицы и вектора. Каждая такая операция включает умножение элементов строки матрицы и вектора ( операций) и последующее суммирование полученных произведений (операций).
Общее количество необходимых скалярных операций есть величина .
Поcледовательный алгоритм умножения матрицы на вектор
voidSerialResultCalculation(double* pMatrix, double* pVector,
double* pResult, intSize) {
inti, j; // Loop variables
for(i=0; i
pResult[i]=0;
for(j=0; j
pResult[i] += pMatrix[i*Size+j]*pVector[j];
}
}
Умножение матрицы на вектор при разделении данных по строкам.
Базовая подзадача — скалярное умножение одной строки матрицы на вектор. После завершения вычислений каждая базовая подзадача определяет один из элементов вектора результата c.
В общем виде схема информационного взаимодействия подзадач в ходе выполняемых вычислений показана на рис.1. Количество вычислительных операций для получения скалярного произведения одинаково для всех базовых подзадач.
Рисунок .
Организация вычислений при выполнении параллельного алгоритма умножения матрицы на вектор, основанного на разделении матрицы по строкам.
Каждый поток параллельной программы использует только «свои» данные, ему не требуются данные, которые в данный момент обрабатывает другой поток, нет обмена данными
между потоками, не возникает необходимости синхронизации. Т.е. практически нет накладных расходов на организацию параллелизма (за исключением расходов на организацию и закрытие параллельной секции), и можно ожидать линейного ускорения. Однако, как будет видно из представленных результатов, ускорение далеко от линейного.
Время решения задачи одним потоком складывается из времени, когда процессор непосредственно выполняет вычисления, и времени, которое тратится на чтение необходимых для вычислений данных из ОП в кэш. При этом время, необходимое на чтение данных, может в несколько раз превосходить время счета.
Процесс выполнения последовательного алгоритма умножения матрицы на вектор может быть представлен диаграммой, изображенной на рис.2.
Рисунок. Диаграмма состояний процесса выполнения последовательного алгоритма
умножения матрицы на вектор.
Время выполнения последовательного алгоритма складывается из времени вычислений и времени доступа к памяти:
, где — это количество выполненных операций, — время выполнения одной операции, — размерность матрицы.
, где — объем данных, которые необходимо закачать в кэш процессора, — скорость доступа (пропускная способность канала доступа) ОП.
Таким образом, .
Для оценки, измерим время выполнения последовательного алгоритма при
n=361, т.к. матрица и вектор полностью поместятся в кэш ВЭ. (У нас размер кэш равен 2048 кбайт, поэтому 2048байт=8∙n2 байт,n≈511). Чтобы исключить необходимость выборки данных из ОП, перед началом вычислений заполним матрицу и вектор случайными числами – выполнение этого действия гарантирует закачку данных в кэш. Далее при решении задачи все время будет тратиться на вычисления, так как нет необходимости загружать данные из ОП.
Получим 0,00000308.
Тогда τ=T1n(2n-1)=4,87e-10=0,00000000049.
Теперь, оценим при: β=MT1-τn(2n-1)= 8 121 537 238,29
В таблице 1 и на рис.3 представлено сравнение реального времени последовательного алгоритма умножения матрицы на вектор и теоретического.
Таблица. Сравнение экспериментального и теоретического времени выполнения последовательного
алгоритма умножения матрицы на вектор.
Рисунок. График зависимости экспериментального и теоретического времени выполнения последовательного алгоритма от объема исходных данных (ленточное разбиение матрицы по строкам
В многоядерных процессорах Intel архитектуры Core 2 Duo ядра процессоров разделяют общий канал доступа к памяти. Т.е., несмотря на то, что вычисления могут выполняться ядрами параллельно, доступ к памяти осуществляется строго последовательно. Следовательно, время выполнения параллельного алгоритма в системе с вычислительными элементами, с использованием потоков и при описанной выше схеме доступа к памяти может быть оценено при помощи следующего соотношения: .
voidParallelResultCalculation_rows (double* pMatrix, double* pVector,
double* pResult, intSize) {
inti, j; // Loop variables
#pragmaomp parallel private(i,j)
#pragmaomp for
for(i=0; i
for(j=0; j
pResult[i] += pMatrix[i*Size+j]*pVector[j];
}
}
Результаты вычислительных экспериментов приведены в таблице 2. Времена выполнения алгоритмов указаны в секундах.
Ускорение есть результат деления времени работы последовательного алгоритма на время работы параллельного.
Таблица. Результаты вычислительных экспериментов для параллельного алгоритма умножения
матрицы на вектор при ленточной схеме разделении данных по строкам.
Рисунок. Зависимость ускорения от количества исходных данных при выполнении параллельного алгоритма умножения матрицы на вектор, основанного на ленточном горизонтальном разбиении матрицы
Рисунок. График зависимости экспериментального и теоретического времени выполнения параллельного алгоритма от объема исходных данных при использовании двух потоков (ленточное разбиение матрицы по строкам)
ВЫВОД:
Замедление работы программы при использовании параллельного алгоритма (библиотека OpenMP) можно объяснить следующим отчётом профилировщика (см. Рисунок ).
Рисунок. Сравнение данных профилировщика последовательной и параллельной программ
Как видно, значительное время при выполнении программы затрачивается в библиотеке libiomp5md.dll.
Умножение матрицы на вектор при разделении данных по столбцам.
Базовая подзадача — операция умножения столбца матрицы на один из элементов вектора. Для организации вычислений в этом случае каждая базовая подзадача, должна иметь доступ к i-у столбцу матрицы.
Каждая базовая задача выполняет умножение своего столбца матрицы на элемент, в итоге в каждой подзадаче получается вектор промежуточных результатов. Для получения элементов результирующего вектора с необходимо просуммировать вектора, которые были получены каждой подзадачей.
Рисунок. Организация вычислений при выполнении параллельного алгоритма умножения матрицы на вектор с использованием разбиения матрицы по столбцам.
При выполнении параллельного алгоритма умножения матрицы на вектор, основанного на вертикальном разделении матрицы, выполняется больше арифметических операций, т.к. на каждой итерации внешнего цикла после вычисления каждым потоком своей частичной суммы необходимо выполнить редукцию полученных результатов. Сложность выполнения операции редукции –. После выполнения редукции данных, необходимо запомнить результат в очередной элемент результирующего вектора. Таким образом, время вычислений для данного алгоритма определяется формулой: .
На выполнение подкачек данных в кэш тоже тратится некоторое время. Пусть — накладные расходы на организацию параллельности на каждой итерации. Тогда суммарные накладные расходы составляют:.
Таким образом, время выполнения параллельного алгоритма умножения матрицы на вектор, основанного на вертикальном разделении матрицы, может быть вычислено по формуле:
.
voidParallelResultCalculation_columns(double* pMatrix, double* pVector, double* pResult, intSize) {
inti, j; // Loop variables
doubleIterGlobalSum = 0;
for(i=0; i
IterGlobalSum = 0;
#pragmaomp parallel forreduction(+:IterGlobalSum)
for(j=0; j
IterGlobalSum += pMatrix[i*Size+j]*pVector[j];
pResult[i] = IterGlobalSum;
}
}
Результаты вычислительных экспериментов приведены в таблице.
Таблица. Результаты вычислительных экспериментов для параллельного алгоритма умножения
матрицы на вектор при ленточной схеме разделении данных по столбцам.
Рисунок. Зависимость ускорения от количества исходных данных при выполнении параллельного алгоритма умножения матрицы на вектор, основанного на ленточном вертикальном разбиении матрицы
Для нахождения δ воспользуемся методом наименьших квадратов. Будем минимизировать квадрат разницы между экспериментальными и теоретическими значениями времени, при этом δ будет выступать в качестве подгоночного параметра. Воспользуемся функцией поиска решений в Excel.
Будем минимизировать величину i=112(Tэкспi-Tpi)2
Таким образом, получаем δ= 5,27565E-06 с=5,3 мкс
Рисунок. График зависимости экспериментального и теоретического времени выполнения параллельного алгоритма от объёма исходных данных при использовании двух потоков (ленточное разбиение матрицы по столбцам)
Умножение матрицы на вектор при блочном разделении данных.
При блочном разделении матрица делится на прямоугольные наборы элементов – при этом, как правило, используется разделение на непрерывной основе. Пусть количество процессоров (ядер) составляет p=s∙q, количество строк матрицы является кратным s, а количество столбцов – кратным q, то есть m=k∙s и n=l∙q.
После перемножения блоков матрицы A и вектора b каждая подзадача (i,j) будет содержать вектор частичных результатов c'(i,j), определяемый в соответствии с выражениями:
c’vi,j=u=0l-1aivjubju, iv=ik+v,0≤v≤k, k=ms, ju=jl+u, 0≤u≤l, l=nq
Рисунок. Организация вычислений при выполнении параллельного алгоритма умножения матрицы на вектор с использованием блочного разделения данных.
Будем предполагать, что число блоков матрицы А совпадает по горизонтали и вертикали, т.е. s=q.
Для обозначения числа потоков будем использовать переменную π=q2. Для эффективного выполнения алгоритма число базовых подзадач должно совпадать с числом выделенных потоков.
Возьмём число потоков π=4.
Воспользуемся алгоритмом вычисления, основанном на использовании функций библиотеки OpenMP. В данном алгоритме используется вложенный параллелизм.
Для задания количества потоков будет использоваться переменная NestedThreadsNum.
voidParallelResultCalculation_blocks(double* pMatrix, double* pVector, double* pResult,
intSize) {
intNestedThreadsNum = 2;
omp_set_num_threads(NestedThreadsNum);
omp_set_nested(true);
#pragmaomp parallel for
for(inti=0; i
doubleThreadResult = 0;
#pragmaomp parallel forreduction(+:ThreadResult)
for(intj=0; j
ThreadResult += pMatrix[i*Size+j]*pVector[j];
pResult[i] = ThreadResult;
}
}
При анализе эффективности данного алгоритма воспользуемся следующими формулами.
Время выполнения вычислений ограничено сверху величиной: (количество вычислительных элементов совпадает с числом потоков, т.е. p=π)
Tcalc=n2n-1p+nq∙log2q+nq∙τ
При выполнении вычислений, «внутренние» параллельные секции создаются и закрываются много раз, кроме того, дополнительное время тратится на синхронизацию и выполнение операции редукции. Каждый поток создаёт параллельные секции nq раз. Время выполнения алгоритма может быть вычислено по формуле:
Tp=n2n-1p+nq∙log2q+nq∙τ+8∙n2β+nq∙δ
Результаты вычислительных экспериментов при блочном разделении данных приведены в таблице 5.
Таблица. Результаты вычислительных экспериментов для параллельного алгоритма умножения матрицы на вектор при блочной схеме разделении данных.
Рисунок. Зависимость ускорения от количества исходных данных при выполнении параллельного алгоритма умножения матрицы на вектор, основанного на блочном разбиении матрицы
Рисунок. График зависимости экспериментального и теоретического времени выполнения параллельного алгоритма от объема исходных данных при использовании четырёх потоков при блочном разбиении матрицы
Вывод
В результате проделанной работы, мы пришли к выводу, что среди параллельных алгоритмов умножения матрицы на вектор, самым быстрым оказался алгоритм, основанный на разделении матрицы по строкам. Однако существенного ускорения за счёт распараллеливания достигнуть не удалось. Это связано с тем, что значительное время расходуется на ожидания внутри библиотек OpenMP.