все
.docВ порядку спадання номерів повідомлень
Запитання 136: Множина варіантів
Процедура MPI_SCATTERV(SBUF, SCOUNTS, DISPLS, STYPE, RBUF, RCOUNT, RTYPE, ROOT, COMM, IERR) виконує:
Розсилку різної кількості даних з масиву SBUF
Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів
Розсилку повідомлення від процесу ROOT всім процесам даного комунікатора
Блокуючу посилку масиву SBUF, що складається з SCOUNT елементів типу STYPE, процесу з номером RCOUNT в комунікаторі COMM
Запитання 137: Множина варіантів
Процедура MPI_ALLGATHER(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, COMM, IERR) виконує:
Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу
Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів
Розсилку повідомлення від процесу ROOT всім процесам даного комунікатора
Блокуючу посилку масиву SBUF, що складається з SCOUNT елементів типу STYPE, процесу з номером RCOUNT в комунікаторі COMM
Запитання 138: Множина варіантів
Процедура MPI_ALLGATHERV(SBUF, SCOUNT, STYPE, RBUF, RCOUNTS, DISPLS, RTYPE, COMM, IERR) виконує:
Збірку на всіх процесах різної кількості даних з SBUF
Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу
Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів
Розсилку повідомлення від процесу ROOT всім процесам даного комунікатора
Запитання 139: Множина варіантів
Процедура MPI_ALLTOALL(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, COMM, IERR) виконує:
Розсилку кожним процесом різних даних всім іншим процесам
Збірку на всіх процесах різної кількості даних з SBUF
Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу
Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів
Запитання 140: Множина варіантів
При використанні процедури MPI_ALLTOALL
j-й блок даних i-го процесу потрапляє в i-й блок j-го процесу
j-й блок даних i-го процесу потрапляє в j-й блок i-го процесу
i-й блок даних i-го процесу потрапляє в i-й блок i-го процесу
j-й блок даних j-го процесу потрапляє в i-й блок i-го процесу
Запитання 141: Множина варіантів
Процедура MPI_ALLTOALLV(SBUF, SCOUNTS, SDISPLS, STYPE, RBUF, RCOUNTS, RDISPLS, RTYPE, COMM, IERR) виконує:
Розсилку з усіх процесів різної кількості даних всім іншим процесам
Збірку на всіх процесах різної кількості даних з SBUF
Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу
Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів
Запитання 142: Множина варіантів
Процедура MPI_REDUCE(SBUF, RBUF, COUNT, DATATYPE, OP, ROOT, COMM, IERR) виконує:
Виконання COUNT незалежних глобальних операцій OP над відповідними елементами масивів SBUF
Розсилку з усіх процесів різної кількості даних всім іншим процесам
Збірку даних з масивів SBUF з усіх процесів в буфері RBUF кожного процесу
Розсилку даних з масиву SBUF процесу ROOT в масиви RBUF всіх процесів
Запитання 143: Множина варіантів
MPI є найбільш поширеним стандартом інтерфейсу обміну даними в
Паралельному програмуванні
Послідовному програмуванні
Логічному програмуванні
Спортивному програмуванні
Запитання 144: Множина варіантів
Основним засобом комунікації між процесами в MPI є
Передача повідомлень
Використання сокетів
Створення виділених ліній зв’язку
Синхронізація
Запитання 145: Множина варіантів
Перша версія MPI вийшла в
1994 р
1990 р
1989 р
2000 р
2008 р
Запитання 146: Множина варіантів
Версія MPI 2.1 вийшла в
2008 р
2006 р
2010 р
2000 р
Запитання 147: Відповідність (графічне)
Вкажіть, які з реалізацій MPI є безкоштовними, а які комерційними:
A. MPICH A. LAM/MPI A. Open MPI B. MPI/PRO B. Intel MPI |
A. Безкоштовна B. Комерційна |
Запитання 148: Множина варіантів
Однією з найпоширеніших реалізацій стандарту MPI є
MPICH
MPI/PRO
Mvapich
Oracle HPC ClusterTools
Запитання 149: Множинна відповідь
До переваг пакету MPICH можна віднести:
майже абсолютну кросплатформість
те, що він розповсюджується в початкових кодах і збирається на місці, з урахуванням особливостей конкретних платформи і середовища комуні
використання розширеного набору процедур
збільшену швидкодію
легкість установки та використання
Запитання 150: Відповідність (графічне)
Встановіть співвідношення між функціями та діями, що вони виконують:
A. MPI_Init B. MPI_Finalize C. MPI_Start D. MPI_Send |
A. Ініціалізація паралельної частини програми B. Завершення паралельної частини додатку C. Ініціалізація відкладеного запиту на виконання операції обміну D. Передача даних |
Запитання 151: Відповідність (графічне)
Встановіть співвідношення між функціями та діями, що вони виконують:
A. MPI_GET_COUNT B. MPI_IPROBE C. MPI_TEST |
A. Визначення числа вже прийнятих елементів повідомлення B. Отримання інформації про структуру очікуваного повідомлення C. Перевірка завершення асинхронної операції |
Запитання 152: Відповідність (графічне)
Встановіть співвідношення між функціями та діями, що вони виконують:
A. MPI_SENDRECV B. MPI_ALLTOALL C. MPI_ALLTOALLV D. MPI_SENDRECV_REPLACE |
A. Виконання прийому і передачі повідомлень з блокуванням B. Розсилка кожним процесом різних даних всім іншим процесам C. Розсилка з усіх процесів різної кількості даних всім іншим процесам D. Суміщений прийом і передача повідомлень з блокуванням через загальний буфер |
Запитання 153: Відповідність (графічне)
Вкажіть, які з наведених процедур є процедурами з блокуванням, а які без блокування:
A. MPI_SEND B. MPI_IRSEND A. MPI_PROBE A. MPI_SENDRECV |
A. З блокуванням B. Без блокування |
Запитання 154: Відповідність (графічне)
Вкажіть, які процеси містять наведені комунікатори:
A. MPI_COMM_WORLD B. MPI_COMM_SELF C. MPI_COMM_NULL |
A. Усі процеси B. Поточний процес C. Не містить жодного процесу |
Запитання 155: Відповідність (графічне)
Встановіть співвідношення між функціями та діями, що вони виконують:
A. MPI_Comm_size B. MPI_Comm_rank C. MPI_ISEND D. MPI_SEND |
A. Визначення загального числа паралельних процесів в групі B. Визначення номера процесу в групі C. Неблокуюча передача повідомлення D. Блокуюча передача повідомлення |
Запитання 156: Множинна відповідь
Повідомлення MPI складається з наступних частин:
Дані
Конверт
Заголовок
Завершення
Контрольна сума
Прапорці
Запитання 157: Множина варіантів
Для оприділення робочої директорії використовується наступний параметр команди mpirun:
–wd
–dir
–d
–h
Запитання 158: Множина варіантів
Параметр –h команди mpirun використовується для:
Виведення підказки по параметрах команди
Оприділення робочої директорії
Задання кількості процесорів
Вказання списку хостів, на яких буде виконуватися програма
Запитання 159: Множина варіантів
Загальний синтаксис команди mpirun виглядає наступним чином:
mpirun [параметри mpirun] <ім’я програми> [ вхідні параметри програми ]
mpirun <ім’я програми> [параметри mpirun] [ вхідні параметри програми ]
mpirun <ім’я програми> [ вхідні параметри програми ] [параметри mpirun]
mpirun [параметри mpirun] [ вхідні параметри програми ] <ім’я програми>
Запитання 160: Множина варіантів
Яким чином запустити на виконання програму “test” так, щоб вона виконувалася на чотирьох процесорах?
mpirun -np 4 test
mpirun -N 4 test
mpirun test -np 4
mpirun - 4 test
Запитання 161: Множинна відповідь
Для задання списку хостів, на яких буде виконуватися програма можуть використовуватися наступні параметри команди mpirun:
–hostfile
–machinefile
–runfile
–run
–hosts
–h
Запитання 162: Множина варіантів
Параметр –d команди mpirun використовується для:
Запуску програми в режимі відладки
Оприділення робочої директорії
Отримання довідки
Задання кількості процесорів, на яких буде виконуватися програма
Запитання 163: Множинна відповідь
Які з наведених параметрів команди mpirun використовуються для запуску програми в режимі відладки:
–d
--debug
–debugger
–db
--dbr
-v
Запитання 164: Множина варіантів
Чому на початку MPI програми поаинна стояти директива include ‘mpif.h’?
Весь опис інтерфейсу MPI зібрано в файлі mpif.h’
Назви констант MPI будуть записуватися в нижньому регістрі
Будуть усунені конфлікти з об’єктами MPI
Будуть доступні додаткові можливості MPI
Запитання 165: Множина варіантів
В які версії стандарту MPI появилася можливість знищення існуючих процесів?
Версія 2.0
Версія 1.0
Версія 1.1
Версія 1.2
Запитання 166: Множина варіантів
Окреме середовище для спілкування групи процесів називається:
Комунікатор
Адресний простір
Процесорний модуль
Концентратор