Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Тесты: Параллельное программирование - файл Вариант 6.doc


Тесты: Параллельное программирование
скачать (200.9 kb.)

Доступные файлы (12):

test_par.doc318kb.13.01.2008 22:30скачать
вариант 1.doc122kb.24.04.2008 18:38скачать
вариант 2.doc47kb.24.04.2008 18:38скачать
вариант 3.doc49kb.24.04.2008 18:38скачать
вариант 4.doc46kb.24.04.2008 18:38скачать
вариант 5.doc46kb.24.04.2008 18:38скачать
Вариант 6.doc44kb.24.04.2008 18:38скачать
Вариант 7.doc41kb.24.04.2008 18:38скачать
Вариант 8.doc42kb.24.04.2008 18:38скачать
вопросы.doc268kb.08.01.2008 01:39скачать
тест_параллельное-2.doc283kb.08.01.2008 01:38скачать
тест_параллельное.doc279kb.07.01.2008 00:49скачать

Вариант 6.doc

Вариант 6


1. В Вашей программе доля последовательных операций равна 0,2. Какое ускорение расчета программы Вы получите на ЭВМ с 3 процессорами?

Ответ округлить до сотых.


2. Стек - это...

  1. "память", в адресном пространстве которой работает процесс

  2. тот или иной способ передачи инструкции из одного процесса в другой

  3. область памяти для локальных переменных, аргументов и возвращаемых функциями значений

  4. организация доступа 2х (или более) процессов к одному и тому же блоку памяти


3. MPI - это ...

  1. модуль параллельной обработки в системе

  2. специальная ОС для параллельного программирования

  3. интерфейс, содежащий набор функций, типов и констант для параллельного программирования

  4. организация, координирующая разработку параллельных интерфейсов


4. Какое понятие характеризует возрастание сложности соединений при добавлении в конфигурацию новых узлов.

1) масштабируемость

2) ускорение

3) эффективность

4) пиковая производительность

5. Какую стратегию использования памяти предполагает MPI?

  1. Разделяемую

  2. Распределенную

  3. Удаленную

  4. Локальную


6. Какие операции могут выполняться параллельно?

  1. независимые

  2. зависимые

  3. элементарные

  4. неделимые


7. К какому классу относятся многоядерные системы?

1) Матричные процессоры

2) Распределенные системы

3) Кластеры

4) Системы с общей памятью


8. Чем характеризуется состояние параллельной программы?

  1. адресами выполняемых команд

  2. последовательностью состояний s0->s1->…->sn.

  3. значениями переменных в некоторый момент времени

  4. объемом занимаемой оперативной памяти


9. Приведите пример неэффективной правильной параллельной программы поиска максимального элемента в массиве

      1. int m=0;

parallel for (i=0; i<n; i++)

if (a[i] > m) m = a[i];

      1. int m=0;

parallel for (i=0; i<n; i++)

< if (a[i] > m) m = a[i]; >

      1. int m=0;

parallel for (i=0; i<n; i++)

if (a[i] > m) < m = a[i]; >

      1. int m=0;

parallel for (i=0; i<n; i++)

if (a[i] > m)

< if (a[i] > m) m = a[i]; >


10. Что представляет из себя справедливая стратегия?

  1. дать возможность каждому процессу попасть в критическую секцию

  2. дать возможность некоторым процессам попасть в критическую секцию

  3. дать возможность процессам попасть в критическую секцию в порядке очереди

  4. дать возможность каждому процессу выйти из критической секции


11. Выберите правильное утверждение

1) Критическая секция позволяет реализовать взаимное исключение

2) Критическая секция позволяет реализовать условную синхронизацию

3) Критическая секция позволяет реализовать и взаимное исключение, и условную синхронизацию

4) Критическая секция не позволяет реализовать ни взаимное исключение, ни условную синхронизацию


12. Какая функция в Unix позволяет указать функцию, выполняющуюся при получении сигнала?

  1. fork

  2. execl, execv

  3. waitpid

  4. kill

  5. signal


13. Что такое эффективность параллельной программы?

  1. Отношение времени работы параллельной программы к времени работы последовательной программы

  2. Отношение времени работы последовательной программы ко времени работы параллельной программы

  3. Отношение количества процессоров к ускорению программы

  4. Отношение ускорения параллельной программы к количеству процессоров


14. Какие способы распределения данных используются при разработке матричных параллельных алгоритмов

1) Ленточное разбиение

2) Блочное разбиение

3) Диагональное разбиение

4) Циклическое разбиение


15. Перечислите типы директив Open MP

  1. Определение параллельной области

  2. Описание общих данных

  3. Разделение работы

  4. Синхронизация


16. Директива single для распределения вычислений в параллельной области

  1. распараллеливание циклов

  2. распараллеливание раздельных фрагментов кода (функциональное распараллеливание)

  3. директива для указания последовательного выполнения кода


17. Взаимное исключение в Open MP может осуществляться

1) С помощью директивы critical

2) С помощью директивы atomic

3) С помощью функций библиотеки

4) С помощью директивы barrier


18. Что означает технология SPMD?

1) Все процессы имеют общую память.

2) Каждый из процессов выполняет свою задачу обработки информации.

3) Все процессы работают одновременно.

4) Все процессы выполняют одну и ту же программу.


19. Что такое коммуникатор в MPI?

1) Идентификатор группы процессов.

2) Процесс, распределяющий данные другим процессам

3) Механизм синхронизации программ

4) Инфраструктура передачи сообщений.


20. Какие коллективные операции используются для cбора данных?

1) MPI_Bcast

  1. MPI_Scatter

  2. MPI_Gather

  3. MPI_ Reduce



Скачать файл (200.9 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации