скачать (200.9 kb.)
Доступные файлы (12):
test_par.doc | 318kb. | 13.01.2008 22:30 | ![]() |
вариант 1.doc | 122kb. | 24.04.2008 18:38 | ![]() |
вариант 2.doc | 47kb. | 24.04.2008 18:38 | ![]() |
вариант 3.doc | 49kb. | 24.04.2008 18:38 | ![]() |
вариант 4.doc | 46kb. | 24.04.2008 18:38 | ![]() |
вариант 5.doc | 46kb. | 24.04.2008 18:38 | ![]() |
Вариант 6.doc | 44kb. | 24.04.2008 18:38 | ![]() |
Вариант 7.doc | 41kb. | 24.04.2008 18:38 | ![]() |
Вариант 8.doc | 42kb. | 24.04.2008 18:38 | ![]() |
вопросы.doc | 268kb. | 08.01.2008 01:39 | ![]() |
тест_параллельное-2.doc | 283kb. | 08.01.2008 01:38 | ![]() |
тест_параллельное.doc | 279kb. | 07.01.2008 00:49 | ![]() |
Вариант 6.doc
Вариант 61. В Вашей программе доля последовательных операций равна 0,2. Какое ускорение расчета программы Вы получите на ЭВМ с 3 процессорами?
Ответ округлить до сотых.
2. Стек - это...
"память", в адресном пространстве которой работает процесс
тот или иной способ передачи инструкции из одного процесса в другой
область памяти для локальных переменных, аргументов и возвращаемых функциями значений
организация доступа 2х (или более) процессов к одному и тому же блоку памяти
3. MPI - это ...
модуль параллельной обработки в системе
специальная ОС для параллельного программирования
интерфейс, содежащий набор функций, типов и констант для параллельного программирования
организация, координирующая разработку параллельных интерфейсов
4. Какое понятие характеризует возрастание сложности соединений при добавлении в конфигурацию новых узлов.
1) масштабируемость
2) ускорение
3) эффективность
4) пиковая производительность
5. Какую стратегию использования памяти предполагает MPI?
Разделяемую
Распределенную
Удаленную
Локальную
6. Какие операции могут выполняться параллельно?
независимые
зависимые
элементарные
неделимые
7. К какому классу относятся многоядерные системы?
1) Матричные процессоры
2) Распределенные системы
3) Кластеры
4) Системы с общей памятью
8. Чем характеризуется состояние параллельной программы?
адресами выполняемых команд
последовательностью состояний s0->s1->…->sn.
значениями переменных в некоторый момент времени
объемом занимаемой оперативной памяти
9. Приведите пример неэффективной правильной параллельной программы поиска максимального элемента в массиве
int m=0;
parallel for (i=0; i<n; i++)
if (a[i] > m) m = a[i];
int m=0;
parallel for (i=0; i<n; i++)
< if (a[i] > m) m = a[i]; >
int m=0;
parallel for (i=0; i<n; i++)
if (a[i] > m) < m = a[i]; >
int m=0;
parallel for (i=0; i<n; i++)
if (a[i] > m)
< if (a[i] > m) m = a[i]; >
10. Что представляет из себя справедливая стратегия?
дать возможность каждому процессу попасть в критическую секцию
дать возможность некоторым процессам попасть в критическую секцию
дать возможность процессам попасть в критическую секцию в порядке очереди
дать возможность каждому процессу выйти из критической секции
11. Выберите правильное утверждение
1) Критическая секция позволяет реализовать взаимное исключение
2) Критическая секция позволяет реализовать условную синхронизацию
3) Критическая секция позволяет реализовать и взаимное исключение, и условную синхронизацию
4) Критическая секция не позволяет реализовать ни взаимное исключение, ни условную синхронизацию
12. Какая функция в Unix позволяет указать функцию, выполняющуюся при получении сигнала?
fork
execl, execv
waitpid
kill
signal
13. Что такое эффективность параллельной программы?
Отношение времени работы параллельной программы к времени работы последовательной программы
Отношение времени работы последовательной программы ко времени работы параллельной программы
Отношение количества процессоров к ускорению программы
Отношение ускорения параллельной программы к количеству процессоров
14. Какие способы распределения данных используются при разработке матричных параллельных алгоритмов
1) Ленточное разбиение
2) Блочное разбиение
3) Диагональное разбиение
4) Циклическое разбиение
15. Перечислите типы директив Open MP
Определение параллельной области
Описание общих данных
Разделение работы
Синхронизация
16. Директива single для распределения вычислений в параллельной области
распараллеливание циклов
распараллеливание раздельных фрагментов кода (функциональное распараллеливание)
директива для указания последовательного выполнения кода
17. Взаимное исключение в Open MP может осуществляться
1) С помощью директивы critical
2) С помощью директивы atomic
3) С помощью функций библиотеки
4) С помощью директивы barrier
18. Что означает технология SPMD?
1) Все процессы имеют общую память.
2) Каждый из процессов выполняет свою задачу обработки информации.
3) Все процессы работают одновременно.
4) Все процессы выполняют одну и ту же программу.
19. Что такое коммуникатор в MPI?
1) Идентификатор группы процессов.
2) Процесс, распределяющий данные другим процессам
3) Механизм синхронизации программ
4) Инфраструктура передачи сообщений.
20. Какие коллективные операции используются для cбора данных?
1) MPI_Bcast
MPI_Scatter
MPI_Gather
MPI_ Reduce
Скачать файл (200.9 kb.)