Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Тесты: Параллельное программирование - файл вариант 2.doc


Тесты: Параллельное программирование
скачать (200.9 kb.)

Доступные файлы (12):

test_par.doc318kb.13.01.2008 22:30скачать
вариант 1.doc122kb.24.04.2008 18:38скачать
вариант 2.doc47kb.24.04.2008 18:38скачать
вариант 3.doc49kb.24.04.2008 18:38скачать
вариант 4.doc46kb.24.04.2008 18:38скачать
вариант 5.doc46kb.24.04.2008 18:38скачать
Вариант 6.doc44kb.24.04.2008 18:38скачать
Вариант 7.doc41kb.24.04.2008 18:38скачать
Вариант 8.doc42kb.24.04.2008 18:38скачать
вопросы.doc268kb.08.01.2008 01:39скачать
тест_параллельное-2.doc283kb.08.01.2008 01:38скачать
тест_параллельное.doc279kb.07.01.2008 00:49скачать

вариант 2.doc

Вариант II


1. В Вашей программе доля последовательных операций равна 0,2. Какое ускорение расчета программы Вы получите на ЭВМ с 6 процессорами?

Ответ округлить до сотых.



  1. Кем была разработана первая супер-ЭВМ?

  1. Джоном фон Нейманом

  2. Сеймуром Крэем

  3. Томасом Стерлингом

  4. Доном Беккером

  5. Биллом Гейтсом


3. Ресурс - это...

  1. объект, необходимый для работы процессу или задаче

  2. сообщение, доставляемое процессу посредством ОС

  3. процесс превращения скомпилированного кода в программу

  4. число, приписанное ОС каждому процессу и задаче


4. Вычислительные машины с какой архитектурой наиболее дешевы?

  1. симметричная многопроцессорная обработка

  2. параллельная архитектура с векторными процессорами

  3. кластерные системы

  4. массивно-параллельная архитектура


5. Барьер - это...

  1. подпрограмма, определяющая факт прихода сообщения

  2. место в программе, где процесс ожидает подхода к нему остальных процессов

  3. блокировка процесса до тех пор, пока все операции обмена не будут завершены

  4. ожидание завершения асинхронных процедур, ассоциированных с идентификатором


6. Что такое транспьютеры?

1) Кластерные системы

2) Многоядерные системы

3) Многопроцессорные системы, образующие двумерную решетку

4) Многопроцессорные системы, образующие гиперкуб


7. Что такое конвейеризация?

1) Исполнение нескольких команд одновременно

2) Параллельное выполнение различных частей команд

3) Сохранение данных в сверхбыстрой памяти

4) Обработка данных большого размера


8. Что имеет собственную память для данных?

  1. Процесс

  2. Поток

  3. И процесс, и поток



9. Какие существуют виды синхронизации?

  1. Исключительная ситуация

  2. Взаимное исключение

  3. Условная синхронизация

  4. Абсолютная синхронизация


10. Что представляет из себя справедливая стратегия?

  1. дать возможность каждому процессу попасть в критическую секцию

  2. дать возможность некоторым процессам попасть в критическую секцию

  3. дать возможность процессам попасть в критическую секцию в порядке очереди

  4. дать возможность каждому процессу выйти из критической секции


11. Что такое барьерная синхронизация?

  1. взаимное исключение нескольких процессов

  2. синхронизация по времени окончания операций в разных процессах

  3. обеспечение общего доступа к данным

  4. исключение взаимоблокировок


12. Какая функция в Unix клонирует текущий процесс?

  1. fork

  2. execl, execv

  3. waitpid

  4. kill

  5. signal


13. Какие операции в модели параллельных вычислений могут выполняться параллельно?

1) Смежные в графе «операции-операнды»

2) Связанные путем в графе «операции-операнды»

3) Не связанные путем в графе «операции-операнды»

4) Не смежные в графе «операции-операнды»


14. Пусть fдоля последовательных вычислений в алгоритме. Сформулируйте закон Амдаля

  1. Sp > 1/(f + (1-f)/p)

  2. Sp ≤ 1/(f + (1-f)/p)

  3. Sp ≤ 1/(f - (1+f)/p)

  4. Sp > 1/(f + (1+f)/p)


15. Положительные стороны использования технологии OPEN MP

  1. Можно распараллеливать последовательные программы поэтапно, не меняя их структуру

  2. Нет необходимости поддерживать последовательный и параллельный вариант программы

  3. Эффективно реализован обмен сообщениями

  4. Поддержка в наиболее распространенных языках (C/C++, Fortran) и платформах (Windows, Unix)


16. Параметр firstprivate позволяет создать локальные переменные потоков, которые

  1. будут общими для всех потоков параллельной области правильность использования таких переменных должна обеспечиваться программистом

  2. будут локальными для каждого потока; переменные создаются в момент формирования потоков параллельной области; начальное значение переменных является неопределенным

  3. перед использованием инициализируются значениями исходных переменных

  4. запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)


17. Распределение итераций в директиве for регулируется параметром (clause) schedule runtime

  1. итерации делятся на блоки по chunk итераций и статически разделяются между потоками; если параметр chunk не определен, итерации делятся между потоками равномерно и непрерывно

  2. распределение итерационных блоков осуществляется динамически (по умолчанию chunk=1)

  3. размер итерационного блока уменьшается экспоненциально при каждом распределении; chunk определяет минимальный размер блока (по умолчанию chunk=1)

  4. правило распределения определяется переменной OMP_SCHEDULE (при использовании runtime параметр chunk задаваться не должен)


18. Перечислите особенности рандеву

1) В процедуре может быть несколько точек входа

2) Используются специальные операторы вызова и приема

3) Не создается новый процесс

4) Используется канал для передачи сообщений


19. Как производится обмен данными между разными MPI-программами?

1) С помощью обмена сообщениями.

2) С помощью общей памяти.

3) С помощью средств синхронизации.

4) Обмен данными невозможен.


20. Какая функция гарантирует отсутствие взаимоблокировок?

  1. MPI_Isend

  2. MPI_Ssend

  3. MPI_Sendrecv

  4. MPI_BSend



Скачать файл (200.9 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации