Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Тесты: Параллельное программирование - файл вариант 3.doc


Тесты: Параллельное программирование
скачать (200.9 kb.)

Доступные файлы (12):

test_par.doc318kb.13.01.2008 22:30скачать
вариант 1.doc122kb.24.04.2008 18:38скачать
вариант 2.doc47kb.24.04.2008 18:38скачать
вариант 3.doc49kb.24.04.2008 18:38скачать
вариант 4.doc46kb.24.04.2008 18:38скачать
вариант 5.doc46kb.24.04.2008 18:38скачать
Вариант 6.doc44kb.24.04.2008 18:38скачать
Вариант 7.doc41kb.24.04.2008 18:38скачать
Вариант 8.doc42kb.24.04.2008 18:38скачать
вопросы.doc268kb.08.01.2008 01:39скачать
тест_параллельное-2.doc283kb.08.01.2008 01:38скачать
тест_параллельное.doc279kb.07.01.2008 00:49скачать

вариант 3.doc

Вариант 3


1. В Вашей программе доля последовательных операций равна 0,2. Какое ускорение расчета программы Вы получите на ЭВМ с 4 процессорами?

Ответ округлить до сотых.


2. Для конвейерной обработки присуще:

  1. загрузка операндов в векторные регистры

  2. операций с матрицами

  3. выделение отдельных этапов выполнения общей операции

  4. сложение 2-х операндов одновр-ным слож-ем всех их двоичных разрядов



3. Выберите верное утверждение.

Активные ресурсы...

  1. используют взаимные исключения

  2. могут быть использованы одновременно несколькими процессами

  3. способны изменять информацию в памяти

  4. используются только одним процессором, пока тот не завершит работу с ресурсом


4. Пиковая производительность системы определяется в:

  1. Мегагерц

  2. MIPS

  3. МFlops

  4. MByte


5. Семафор - это ...

  1. аппаратный коммутатор

  2. устройство синхронизации для параллельных ЭВМ

  3. программный механизм синхронизации в виде переменной в общей памяти


6. Асинхронная модель параллельных вычислений имеет следующие особенности:

  1. все процессы выполняют одни и те же действия с собственными данными

  2. различные процессы решают разные задачи

  3. все процессы используют общую память

  4. все процессы выполняются в своих критических секциях


7. Что такое суперскалярность?

1) Исполнение нескольких команд одновременно

2) Параллельное выполнение различных частей команд

3) Сохранение данных в сверхбыстрой памяти

4) Обработка данных большого размера


8. Как организуется взаимодействие процессов?

  1. Через общую память

  2. Через обмен сообщениями

  3. Через файловую систему

  4. Через регистры процессора


9. Взаимное исключение состоит в…

  1. обеспечение совместного доступа к общей памяти

  2. ожидании в одном процессе окончания выполнения другого

  3. задержке процесса, пока не выполнится некоторое условие

  4. выделении в процессах критических секций, которые не прерываются другими процессами, использующими те же переменные


10. Недостатком алгоритма разрыва узла (Питерсона) является

  1. сложно обобщается на случай более двух процессов

  2. сложность, отсутствие грани между переменными синхронизации и другими переменными,

  3. неэффективность (ожидающие процессы постоянно проверяют переменные, что занимает время процессора)


11. Основное требование, предъявляемое к барьерной синхронизации?

  1. ни один из процессов не должен перейти барьер, пока к нему не подошли все процессы

  2. ни один процесс не должен войти в секцию, если в нее вошел другой процесс

  3. ни один процесс не может получить доступ к общим данным

  4. ни один процесс не должен блокировать другие процессы


12. Какая функция в Unix позволяют заменить текущий процесс новым?

  1. fork

  2. execl, execv

  3. waitpid

  4. kill

  5. signal


13. Пусть p – количество процессоров.

Расписание Hp для каждой вершины (операции) i указывает номер процессора Pi и время начала операции ti. Расписание реализуемо, если

  1. Для любых i,j : ti = tj => Pi ≠ Pj т.е. один и тот же процессор не должен назначаться разным операциям в один и тот же момент.

  2. Для любой дуги (i,j) tj ≥ ti+1 т.е. к началу операции все данные должны быть вычислены.

  3. Для любых i,j : ti <> tj => Pi ≠ Pj т.е. один и тот же процессор не должен назначаться разным операциям в один и тот же момент.

  4. Для любой дуги (i,j) tj < ti+1 т.е. к началу операции все данные должны быть вычислены.


14. Масштабируемость алгоритма определяет

  1. степень сохранения эффективности при уменьшении количества процессоров.

  2. степень сохранения эффективности при росте количества процессоров.

  3. степень увеличения ускорения при росте количества процессоров.

  4. степень увеличения стоимости при росте количества процессоров


15. Принципы организации параллелизма в Open MP

  1. Использование потоков

  2. Условная синхронизация

  3. Использование семафоров

  4. Пульсирующий параллелизм


16. Параметр lastprivate позволяет создать локальные переменные потоков, значения которых

  1. будут общими для всех потоков параллельной области правильность использования таких переменных должна обеспечиваться программистом

  2. будут локальными для каждого потока; переменные создаются в момент формирования потоков параллельной области; начальное значение переменных является неопределенным

  3. перед использованием инициализируются значениями исходных переменных

  4. запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)


17. Директива barrier – определяет

  1. точку синхронизации, которую должны достигнуть все процессы для продолжения вычислений (директива должны быть вложена в блок)

  2. переменную, доступ к которой (чтение/запись) должна быть выполнена как неделимая операция

  3. точку синхронизации, в которой системой должно быть обеспечено единое для всех процессов состояние памяти (т.е. если потоком какое-либо значение извлекалось из памяти для модификации, измененное значение обязательно должно быть записано в общую память)


18. Укажите области параллельного программирования, для которых наиболее удобна технология MPI.

1) Программирование для систем с общей памятью

2) Программирование для кластеров

3) Научные вычисления

4) Программирование клиент-серверных приложений


19. Как определяется количество процессов в MPI программе?

1) Определяется автоматически исходя из количества вычислительных узлов

2) Устанавливается программистом из самой программы.

3) Устанавливается в конфигурационных файлах при запуске программы

4) Определяется исходя из размера задачи.


20. Что возвращают функции MPI?

  1. Количество принятых или переданных данных.

  2. Информацию о статусе пересылки.

  3. Информацию о процессах

  4. Код ошибки.



Скачать файл (200.9 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации