Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

все

.doc
Скачиваний:
299
Добавлен:
05.03.2016
Размер:
6.35 Mб
Скачать

В порядку спадання номерів повідомлень

Запитання 136: Множина варіантів

Процедура MPI_SCATTERV(SBUF, SCOUNTS, DISPLS, STYPE, RBUF, RCOUNT, RTYPE, ROOT, COMM, IERR) виконує:

Розсилку різної кількості даних з масиву SBUF

Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів

Розсилку повідомлення від процесу ROOT всім процесам даного комунікатора

Блокуючу посилку масиву SBUF, що складається з SCOUNT елементів типу STYPE, процесу з номером RCOUNT в комунікаторі COMM

Запитання 137: Множина варіантів

Процедура MPI_ALLGATHER(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, COMM, IERR) виконує:

Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу

Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів

Розсилку повідомлення від процесу ROOT всім процесам даного комунікатора

Блокуючу посилку масиву SBUF, що складається з SCOUNT елементів типу STYPE, процесу з номером RCOUNT в комунікаторі COMM

Запитання 138: Множина варіантів

Процедура MPI_ALLGATHERV(SBUF, SCOUNT, STYPE, RBUF, RCOUNTS, DISPLS, RTYPE, COMM, IERR) виконує:

Збірку на всіх процесах різної кількості даних з SBUF

Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу

Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів

Розсилку повідомлення від процесу ROOT всім процесам даного комунікатора

Запитання 139: Множина варіантів

Процедура MPI_ALLTOALL(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, COMM, IERR) виконує:

Розсилку кожним процесом різних даних всім іншим процесам

Збірку на всіх процесах різної кількості даних з SBUF

Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу

Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів

Запитання 140: Множина варіантів

При використанні процедури MPI_ALLTOALL

j-й блок даних i-го процесу потрапляє в i-й блок j-го процесу

j-й блок даних i-го процесу потрапляє в j-й блок i-го процесу

i-й блок даних i-го процесу потрапляє в i-й блок i-го процесу

j-й блок даних j-го процесу потрапляє в i-й блок i-го процесу

Запитання 141: Множина варіантів

Процедура MPI_ALLTOALLV(SBUF, SCOUNTS, SDISPLS, STYPE, RBUF, RCOUNTS, RDISPLS, RTYPE, COMM, IERR) виконує:

Розсилку з усіх процесів різної кількості даних всім іншим процесам

Збірку на всіх процесах різної кількості даних з SBUF

Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу

Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів

Запитання 142: Множина варіантів

Процедура MPI_REDUCE(SBUF, RBUF, COUNT, DATATYPE, OP, ROOT, COMM, IERR) виконує:

Виконання COUNT незалежних глобальних операцій OP над відповідними елементами масивів SBUF

Розсилку з усіх процесів різної кількості даних всім іншим процесам

Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу

Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів

Запитання 143: Множина варіантів

MPI є найбільш поширеним стандартом інтерфейсу обміну даними в

Паралельному програмуванні

Послідовному програмуванні

Логічному програмуванні

Спортивному програмуванні

Запитання 144: Множина варіантів

Основним засобом комунікації між процесами в MPI є

Передача повідомлень

Використання сокетів

Створення виділених ліній зв’язку

Синхронізація

Запитання 145: Множина варіантів

Перша версія MPI вийшла в

1994 р

1990 р

1989 р

2000 р

2008 р

Запитання 146: Множина варіантів

Версія MPI 2.1 вийшла в

2008 р

2006 р

2010 р

2000 р

Запитання 147: Відповідність (графічне)

Вкажіть, які з реалізацій MPI є безкоштовними, а які комерційними:

A. MPICH

A. LAM/MPI

A. Open MPI

B. MPI/PRO

B. Intel MPI

A. Безкоштовна

B. Комерційна

Запитання 148: Множина варіантів

Однією з найпоширеніших реалізацій стандарту MPI є

MPICH

MPI/PRO

Mvapich

Oracle HPC ClusterTools

Запитання 149: Множинна відповідь

До переваг пакету MPICH можна віднести:

майже абсолютну кросплатформість

те, що він розповсюджується в початкових кодах і збирається на місці, з урахуванням особливостей конкретних платформи і середовища комуні

використання розширеного набору процедур

збільшену швидкодію

легкість установки та використання

Запитання 150: Відповідність (графічне)

Встановіть співвідношення між функціями та діями, що вони виконують:

A. MPI_Init

B. MPI_Finalize

C. MPI_Start

D. MPI_Send

A. Ініціалізація паралельної частини програми

B. Завершення паралельної частини додатку

C. Ініціалізація відкладеного запиту на виконання операції обміну

D. Передача даних

Запитання 151: Відповідність (графічне)

Встановіть співвідношення між функціями та діями, що вони виконують:

A. MPI_GET_COUNT

B. MPI_IPROBE

C. MPI_TEST

A. Визначення числа вже прийнятих елементів повідомлення

B. Отримання інформації про структуру очікуваного повідомлення

C. Перевірка завершення асинхронної операції

Запитання 152: Відповідність (графічне)

Встановіть співвідношення між функціями та діями, що вони виконують:

A. MPI_SENDRECV

B. MPI_ALLTOALL

C. MPI_ALLTOALLV

D. MPI_SENDRECV_REPLACE

A. Виконання прийому і передачі повідомлень з блокуванням

B. Розсилка кожним процесом різних даних всім іншим процесам

C. Розсилка з усіх процесів різної кількості даних всім іншим процесам

D. Суміщений прийом і передача повідомлень з блокуванням через загальний буфер

Запитання 153: Відповідність (графічне)

Вкажіть, які з наведених процедур є процедурами з блокуванням, а які без блокування:

A. MPI_SEND

B. MPI_IRSEND

A. MPI_PROBE

A. MPI_SENDRECV

A. З блокуванням

B. Без блокування

Запитання 154: Відповідність (графічне)

Вкажіть, які процеси містять наведені комунікатори:

A. MPI_COMM_WORLD

B. MPI_COMM_SELF

C. MPI_COMM_NULL

A. Усі процеси

B. Поточний процес

C. Не містить жодного процесу

Запитання 155: Відповідність (графічне)

Встановіть співвідношення між функціями та діями, що вони виконують:

A. MPI_Comm_size

B. MPI_Comm_rank

C. MPI_ISEND

D. MPI_SEND

A. Визначення загального числа паралельних процесів в групі

B. Визначення номера процесу в групі

C. Неблокуюча передача повідомлення

D. Блокуюча передача повідомлення

Запитання 156: Множинна відповідь

Повідомлення MPI складається з наступних частин:

Дані

Конверт

Заголовок

Завершення

Контрольна сума

Прапорці

Запитання 157: Множина варіантів

Для оприділення робочої директорії використовується наступний параметр команди mpirun:

–wd

–dir

–d

–h

Запитання 158: Множина варіантів

Параметр –h команди mpirun використовується для:

Виведення підказки по параметрах команди

Оприділення робочої директорії

Задання кількості процесорів

Вказання списку хостів, на яких буде виконуватися програма

Запитання 159: Множина варіантів

Загальний синтаксис команди mpirun виглядає наступним чином:

mpirun [параметри mpirun] <ім’я програми> [ вхідні параметри програми ]

mpirun <ім’я програми> [параметри mpirun] [ вхідні параметри програми ]

mpirun <ім’я програми> [ вхідні параметри програми ] [параметри mpirun]

mpirun [параметри mpirun] [ вхідні параметри програми ] <ім’я програми>

Запитання 160: Множина варіантів

Яким чином запустити на виконання програму “test” так, щоб вона виконувалася на чотирьох процесорах?

mpirun -np 4 test

mpirun -N 4 test

mpirun test -np 4

mpirun - 4 test

Запитання 161: Множинна відповідь

Для задання списку хостів, на яких буде виконуватися програма можуть використовуватися наступні параметри команди mpirun:

–hostfile

–machinefile

–runfile

–run

–hosts

–h

Запитання 162: Множина варіантів

Параметр –d команди mpirun використовується для:

Запуску програми в режимі відладки

Оприділення робочої директорії

Отримання довідки

Задання кількості процесорів, на яких буде виконуватися програма

Запитання 163: Множинна відповідь

Які з наведених параметрів команди mpirun використовуються для запуску програми в режимі відладки:

–d

--debug

–debugger

–db

--dbr

-v

Запитання 164: Множина варіантів

Чому на початку MPI програми поаинна стояти директива include ‘mpif.h’?

Весь опис інтерфейсу MPI зібрано в файлі mpif.h’

Назви констант MPI будуть записуватися в нижньому регістрі

Будуть усунені конфлікти з об’єктами MPI

Будуть доступні додаткові можливості MPI

Запитання 165: Множина варіантів

В які версії стандарту MPI появилася можливість знищення існуючих процесів?

Версія 2.0

Версія 1.0

Версія 1.1

Версія 1.2

Запитання 166: Множина варіантів

Окреме середовище для спілкування групи процесів називається:

Комунікатор

Адресний простір

Процесорний модуль

Концентратор

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]