openmpi

    0

    1답변

    나는 RDMA를 지원하는 마이크로 소프트 애저에 대한 몇 가지 H16R 인스턴스를 설정하고, 인텔 탁구 시험은 잘 작동 : 나는 MPI 응용 프로그램을 컴파일 할 때 mpirun -hosts <host1>,<host2> -ppn 1 -n 2 -env I_MPI_FABRICS=dapl -env I_MPI_DAPL_PROVIDER=ofa-v2-ib0 -env

    0

    1답변

    make 명령을 실행할 때 코드를 성공적으로 컴파일 할 수 있습니다. 나는이 코드를 실행할 때, : mpirun -np 4 test 이 오류가 생성됩니다 ------------------------------------------------------- Primary job terminated normally, but 1 process returned

    0

    1답변

    고정 헤더 파일 utils.h과 기능이 linspace입니다. #include <iostream> #include <utils.h> #include <mpi.h> using namespace std; int main(int argc, const char * argv[]) { float start = 0., end = 1.; u

    1

    2답변

    Docker 컨테이너에 코드를 실행하는 빌드 환경이 있습니다. 하나의 구성 요소 중 하나는 OpenMPI입니다. OpenMPI는 문제의 원인이라고 생각합니다. 내가 그 메시지는 코드 라인 인쇄 Unexpected end of /proc/mounts line `overlay/overlay rw,relatime,lowerdir=/var/lib/docker/ov

    -1

    1답변

    Open MPI로 병렬 컴퓨팅을 배우려고합니다. MacBook Pro에서 Ubuntu 16 부팅을 사용합니다. OpenMP를 설치하고 hello_world을 실행하여 테스트 해보십시오. #include <mpi.h> #include <stdio.h> int main(int argc, char** argv) { // Initialize the MPI

    2

    3답변

    나는 프랙탈 사진 병렬 계산을 mpi로 수행하려고합니다. 내가 네 부분에 내 프로그램을 분할했습니다 : 행의 수와 행 보내기 순위 에 각 행 속성에 calcul를 수행 ​​ 밸런스 각 순위 에 의한 열 치료의 수 순위 0 는 단계 1과 2는 작업 (시험 단지 INT를 인쇄 할 경우) 순위 0의 데이터를 취급하지만 난 행을 보내려고 할 때 영에게 프로그램을

    1

    1답변

    저는 8 코어 + HT (16 스레드)의 i7-5960X CPU가있는 스탠드를 가지고 있습니다. 그리고 여기 OpenMP와 OpenMPI를 모두 사용하려고하는 프로그램이 있습니다. 다음과 같이 호출 : # mpirun -np <NN1> -x OMP_NUM_THREADS=<NN2> <my_prog> 여기서 NN1과 NN2는 다양합니다. 1 그래서 #1,

    1

    1답변

    C++에서 OpenMPI를 사용하려고 했으므로 숫자 통합을 수행 할 작은 코드를 작성했습니다. 내 문제는 모두가 제대로 발생 곳이 줄을 실행하는 것 같지 DEOS이다 : integral = trapezintegration(local_a, local_b, local_n); 는 지금은 MPI는이 라인 옆에 올바르게 작동하는지 매우 확신합니다. local_a

    0

    1답변

    내가 입력 할 때 : 12 개 프로세스 내 전체 싶습니다 총, 1 개 실/노드 12 개 노드를 사용하여 : mpiexec -n 12 ./Main 내가 메시지가 12 개의 코어 각각에 12 개의 별도 작업이 전송되는 대신 1 개의 노드로 인식되고 12 개의 스레드를 모두 실행하도록 코어 세트를 구성 할 수 있습니다.

    0

    1답변

    두 개 이상의 컴퓨터가있는 Open MPI 클러스터에서 프로그램을 실행할 수 없습니다. 우리가 실행하는 경우 : mpirun --host master,slave5,slave3 ./cluster 가 작동합니다. 우리가 실행하는 경우 : mpirun --host master,slave4,slave3,slave5 ./cluster 우리는 다음과 같은 오류