Как барьер реализуется в системах передачи сообщений?

Я понимаю, что один мастер-процесс отправляет сообщение всем другим процессам. Все остальные процессы в ответ отправляют сообщение главному процессу. Достаточно ли этого, чтобы барьер сработал? Если нет, то что еще нужно?

2 ответов


давайте посмотрим на реализация openmpi барьера. В то время как другие реализации могут незначительно отличаться, общий шаблон связи должен быть идентичным.

Первое, что нужно отметить, это то, что барьер MPI не имеет затрат на настройку: процесс, достигающий MPI_Barrier вызов будет блокировать до тех пор, пока все другие члены группы также не вызвали MPI_Barrier. Обратите внимание, что MPI не требует от них достижения тот же вызова, любой вызов MPI_Barrier. Следовательно, поскольку общее количество узлов в группе уже известно каждому процессу,для инициализации вызова не требуется никакого дополнительного состояния.

теперь, давайте посмотрим на код:

/*
 * Copyright (c) 2004-2005 The Trustees of Indiana University and Indiana
 *                         University Research and Technology
 *                         Corporation.  All rights reserved.
 * Copyright (c) 2004-2005 The University of Tennessee and The University
 *                         of Tennessee Research Foundation.  All rights
 *                         reserved.
 * Copyright (c) 2004-2005 High Performance Computing Center Stuttgart, 
 *                         University of Stuttgart.  All rights reserved.
 * Copyright (c) 2004-2005 The Regents of the University of California.
 *                         All rights reserved.
 * Copyright (c) 2012      Oak Ridge National Labs.  All rights reserved.
 * [...]
 */

[...]

/*
 *  barrier_intra_lin
 *
 *  Function:   - barrier using O(N) algorithm
 *  Accepts:    - same as MPI_Barrier()
 *  Returns:    - MPI_SUCCESS or error code
 */
int
mca_coll_basic_barrier_intra_lin(struct ompi_communicator_t *comm,
                                 mca_coll_base_module_t *module)
{
    int i;
    int err;
    int size = ompi_comm_size(comm);
    int rank = ompi_comm_rank(comm);

сначала все узлы (кроме узла с рангом 0, корневого узла) отправляют уведомление о том, что они достигли барьера к корневому узлу:

    /* All non-root send & receive zero-length message. */

    if (rank > 0) {
        err =
            MCA_PML_CALL(send
                         (NULL, 0, MPI_BYTE, 0, MCA_COLL_BASE_TAG_BARRIER,
                          MCA_PML_BASE_SEND_STANDARD, comm));
        if (MPI_SUCCESS != err) {
            return err;
        }

после этого они блокируют ожидание уведомления от корня:

        err =
            MCA_PML_CALL(recv
                         (NULL, 0, MPI_BYTE, 0, MCA_COLL_BASE_TAG_BARRIER,
                          comm, MPI_STATUS_IGNORE));
        if (MPI_SUCCESS != err) {
            return err;
        }
    }

корневой узел реализует другую сторону коммуникации. Сначала он блокирует, пока не получит n-1 уведомления (по одному от каждого узла в группе, кроме него самого, так как он уже находится внутри барьера вызова):

else {
        for (i = 1; i < size; ++i) {
            err = MCA_PML_CALL(recv(NULL, 0, MPI_BYTE, MPI_ANY_SOURCE,
                                    MCA_COLL_BASE_TAG_BARRIER,
                                    comm, MPI_STATUS_IGNORE));
            if (MPI_SUCCESS != err) {
                return err;
            }
        }

после того, как все уведомления прибыли, он отправляет сообщения, которые каждый узел ждет, сигнализируя, что все достигли барьера, после чего он покидает сам вызов барьера:

        for (i = 1; i < size; ++i) {
            err =
                MCA_PML_CALL(send
                             (NULL, 0, MPI_BYTE, i,
                              MCA_COLL_BASE_TAG_BARRIER,
                              MCA_PML_BASE_SEND_STANDARD, comm));
            if (MPI_SUCCESS != err) {
                return err;
            }
        }
    }

    /* All done */

    return MPI_SUCCESS;
}

таким образом, шаблон связи является первым n:1 от всех узлов до корня, а затем 1:n от корня обратно ко всем узлам. Чтобы избежать перегрузки корневого узла запросами, OpenMPI позволяет использовать шаблон связи на основе дерева, но основная идея та же: все узлы уведомляют корень при входе в барьер, в то время как корень агрегирует результаты и информирует всех, как только они будут готовы продолжить.


нет, этого недостаточно. Как только главный процесс послал сообщение всем другим процессам, сообщая им, что он достиг барьера, и все остальные процессы ответили, что они тоже достигли барьера, только главный процесс знает, что все процессы достигли барьера. В этом случае потребуется другое сообщение от ведущего к другим процессам.

Я не претендую на фактическую реализацию барьеров MPI в любой библиотеке, в частности, я не предполагаю, что описанная последовательность сообщений используется на практике, просто она несовершенна в теории.