все
.docЗупинка програми
Вихід з паралельної частини програми
Запитання 105: Множина варіантів
Виникнення тупикових ситуацій можливе при :
Використанні блокуючих процедур передачі і прийому
Використанні неблокуючих процедур передачі і прийому
Використанні лише неблокуючих процедур передачі
Використанні лише неблокуючих процедур прийому
Запитання 106: Множинна відповідь
Вкажіть методи вирішення тупикових ситуацій:
Зміна порядку слідування процедур прийому і передачі даних
Використання неблокуючих операцій
Використання функції MPI_SENDRECV
Використання функції MPI_REQUEST_FREE
Використання індивідуальних операцій
Запитання 107: Множина варіантів
Процедура MPI_SENDRECV призначена для:
Виконання прийому і передачі повідомлень з блокуванням
Виконання прийому і передачі повідомлень без блокування
Виконання прийому передаваних повідомлень з блокуванням
Виконання передачі прийнятих повідомлень без блокування
Запитання 108: Множина варіантів
При використанні MPI_SENDRECV буфери передачі і прийому:
Не повинні перетинатися
Повинні перетинатися
Спільні
Можуть перетинатися
Запитання 109: Множинна відповідь
Повідомлення, відправлене процедурою MPI_SENDRECV може прийматися процедурою:
MPI_SENDRECV
MPI_RECV
MPI_IRECV
MPI_SENDRECV_REPLACE
MPI_PROBE
MPI_SEND
MPI_TESTRECV
Запитання 110: Множина варіантів
Процедура MPI_SENDRECV може прийняти повідомлення, відправлене
Любою операцією відправки
Лише операцією MPI_SENDRECV
Лише операцією MPI_RECV
Лише операцією MPI_IRECV
Запитання 111: Множина варіантів
Суміщений прийом і передача повідомлень з блокуванням через загальний буфер здійснює процедура:
MPI_SENDRECV_REPLACE
MPI_SENDRECV
MPI_SENDRECV_BUF
MPI_RECVSEND
Запитання 112: Множина варіантів
Чи існують асинхронні колективні операції в MPI?
Ні
Так
Запитання 113: Множина варіантів
Чи використовуються в колективних операціях ідентифікатори повідомлень?
Ні
Так
Запитання 114: Множина варіантів
В операціях колективної взаємодії процесів беруть участь:
Всі процеси комунікатора
Вибрані процеси
Лише частина процесів комунікатора
Лише задані процедурою процеси
Запитання 115: Альтернативне
Використання колективних операцій забезпечує синхронізацію процесів.
Правильно
Неправильно
Запитання 116: Множина варіантів
Для бар’єрної синхронізації процесів використовується процедура
MPI_BARRIER
MPI_SYNCHRONIZATION
MPI_BARRIER_SYNCHRONIZATION
MPI_SYNCHRONIZATION_BARRIER
Запитання 117: Множина варіантів
При використанні MPI_BARRIER (COMM, IERR) робота процесів
Блокується, доки всі процеси комунікатора COMM не виконають цю процедуру
Блокується, поки хоча б один з процесів комунікатора COMM не виконає цю процедуру
Не блокується
Блокується, поки більшість процесів комунікатора COMM не виконає цю процедуру
Запитання 118: Множина варіантів
Значення MPI_PROC_NULL оприділяє
Неіснуючий процес
Нульовий процес
Перший процес
Останній процес
Запитання 119: Множина варіантів
Операції з процесом MPI_PROC_NULL
Завершується негайно з кодом завершення MPI_SUCCESS
Завершується негайно з кодом завершення MPI_ERROR
Завершується негайно з кодом завершення MPI_NULL
Продовжують виконання
Запитання 120: Множина варіантів
Параметер LEN функції MPI_GET_PROCESSOR_NAME(NAME, LEN, IERR) повертає
Кількість символів імені вузла
Кількість процесорів
Кількість вузлів
Кількість потоків
Запитання 121: Множина варіантів
Значення параметера LEN функції MPI_GET_PROCESSOR_NAME(NAME, LEN, IERR) не повинно перевищувати:
MPI_MAX_PROCESSOR_NAME
MPI_MAX_PROCESSOR_LEN
64
128
Запитання 122: Множина варіантів
Процедура MPI_BCAST(BUF, COUNT, DATATYPE, ROOT, COMM, IERR) використовується для:
Розсилки повідомлення від процесу ROOT всім процесам даного комунікатора
Розсилки повідомлення від процесу ROOT вибраним процесам даного комунікатора
Розсилки повідомлення від процесу ROOT всім процесам всіх комунікаторів
Запитання 123: Множина варіантів
Значення параметрів COUNT, DATATYPE, ROOT і COMM процедури MPI_BCAST(BUF, COUNT, DATATYPE, ROOT, COMM, IERR) повинні бути
Однаковими у всіх процесів
Унікальними у всіх процесів
Одинаковими для всіх комунікаторів
Різними у всіх процесів
Запитання 124: Множина варіантів
Процедура MPI_GATHER(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, ROOT, COMM, IERR) виконує:
Збірка даних з масивів SBUF з усіх процесів в буфері RBUF процесу ROOT
Розсилка повідомлення від процесу ROOT всім процесам даного комунікатора
Блокуюча посилка масиву SBUF, що складається з SCOUNT елементів типу STYPE, процесу з номером RCOUNT в комунікаторі COMM
Перевірка завершення асинхронної операції
Запитання 125: Множина варіантів
При використанні процедури MPI_GATHER дані зберігаються
В порядку зростання номерів процесів
У відповідності з масивом DISPLS
В порядку зростання номерів повідомлень
В порядку спадання номерів повідомлень
Запитання 126: Множинна відповідь
Які з параметрів процедури MPI_GATHER(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, ROOT, COMM, IERR) являються важливими для всіх процесів за виключенням ROOT:
SBUF
SCOUNT
STYPE
ROOT
COMM
RTYPE
RCOUNT
RBUF
Запитання 127: Множина варіантів
Які з параметрів процедури MPI_GATHER(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, ROOT, COMM, IERR) являються важливими для процесу ROOT:
Всі параметри
SBUF, SCOUNT, STYPE
Жоден з параметрів
RBUF, RCOUNT, RTYPE
Запитання 128: Множинна відповідь
Значення яких параметрів процедури MPI_GATHER(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, ROOT, COMM, IERR) повинні бути однаковими у всіх процесів:
ROOT
COMM
SBUF
RBUF
STYPE
RTYPE
SCOUNT
Запитання 129: Множина варіантів
Параметр RCOUNT у процесу ROOT процедури MPI_GATHER(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, ROOT, COMM, IERR) повертає число елементів типу RTYPE, що приймаються від
Кожного процесу
Всіх процесів в сумі
Всіх процесів комунікатора
Вибраних процесів
Запитання 130: Множина варіантів
Процедура MPI_GATHERV(SBUF, SCOUNT, STYPE, RBUF, RCOUNTS, DISPLS, RTYPE, ROOT, COMM, IERR) виконує:
Збірку різної кількості даних з масивів SBUF
Розсилку повідомлення від процесу ROOT всім процесам даного комунікатора
Блокуюча посилку масиву SBUF, що складається з SCOUNT елементів типу STYPE, процесу з номером RCOUNT в комунікаторі COMM
Перевірку завершення асинхронної операції
Запитання 131: Множина варіантів
При використанні MPI_GATHERV порядок розташування даних задається
Масивом DISPLS
В порядку зростання номерів процесів
В порядку зростання номерів повідомлень
В порядку спадання номерів повідомлень
Запитання 132: Множина варіантів
Параметр RCOUNTS процедури MPI_GATHERV(SBUF, SCOUNT, STYPE, RBUF, RCOUNTS, DISPLS, RTYPE, ROOT, COMM, IERR) це:
Цілочисельний масив, що містить кількість елементів, що передаються від кожного процесу
Структура, що містить кількість елементів, що передаються від кожного процесу
Натуральне число, що містить кількість елементів, що передаються від кожного процесу
Цілочисельний масив, що містить зміщення відносно початку масиву RBUF
Запитання 133: Множина варіантів
Параметр DISPLS процедури MPI_GATHERV(SBUF, SCOUNT, STYPE, RBUF, RCOUNTS, DISPLS, RTYPE, ROOT, COMM, IERR) це:
Цілочисельний масив, що містить зміщення відносно початку масиву RBUF
Цілочисельний масив, що містить кількість елементів, що передаються від кожного процесу
Структура, що містить кількість елементів, що передаються від кожного процесу
Натуральне число, що містить кількість елементів, що передаються від кожного процесу
Запитання 134: Множина варіантів
Процедура MPI_SCATTER(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, ROOT, COMM, IERR) виконує:
Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів
Розсилку повідомлення від процесу ROOT всім процесам даного комунікатора
Блокуюча посилку масиву SBUF, що складається з SCOUNT елементів типу STYPE, процесу з номером RCOUNT в комунікаторі COMM
Перевірку завершення асинхронної операції
Запитання 135: Множина варіантів
При використанні процедури MPI_SCATTER дані розсилаються
В порядку зростання номерів процесів
В порядку зростання номерів повідомлень