openmpi

    2

    2답변

    나는 나의 리눅스 박스에 실행 파일을 가지고 있는데, 이것은 OpenMPI 또는 MPICH 라이브러리로 컴파일되었다는 것을 알고있다. 질문 : 어떻게 결정하나요?

    0

    1답변

    플래그 -Dparallel (병렬 부품을 활성화하기 위해 코드에서 사용하는)에 문제가 발생했습니다. 내가 그것을 사용할 때 더 이상 하나의 OpenMP Thread를 얻지 못한다. 비고 : MPI/OpenMP 하이브리드 코드가 실행 중입니다. 짧은 코드 예 : #include <stdio.h> #include "mpi.h" #ifdef _OPENMP

    0

    1답변

    openmpi를 두 호스트에서 작동 시키려고 노력했기 때문에 내 명령을 입력 할 때마다 중단됩니다. 디버그를 사용하여 네이티브 서버가/tmp 명령 다음에 성공적으로 mpi를 실행했음을 알았지 만 host2가 거기에 멈 춥니 다. $ mpirun이 --prefix는/usr/lib 디렉토리 /하는 openmpi -d -host server10 안녕하세요 [se

    0

    1답변

    Red Hat 6에 netcdf-openmpi-devel을 설치해야합니다. 문제는 내가 가지고있는 저장소 (redhat와 epel)가 제공하지 않는 것입니다. 이미 여러 페도라 RPM을 다운로드하려고 시도했지만, 거의 모든 RPM에서 키를 확인할 수는 없습니다 (rpm -K 패키지 사용). rpms 중 하나에 대해 하나의 키를 얻을 수 있었지만 다음과 같이

    0

    1답변

    저는 C와 MPI의 초보자입니다. MPI에서 2 행렬을 곱하는 프로그램을 만들려고합니다. 하지만 내 코드에서 무엇이 잘못되었는지는 알 수 없습니다. 나는 행렬에서 행렬 M1을 '슬라이스'하고 다른 행렬에 다음 행렬을 곱하여 브로드 캐스트 드 매트릭스 M2를 전송하려고 시도합니다. 최종 매트릭스 M3을 빌드하기 위해 Gather를 만든 후에. 나는이합니다 m

    0

    1답변

    MPI를 사용하는 오래되고 지저분한 Fortran 프로그램이 있습니다. C로 작성된 하나의 작은 모듈은 null을 리턴 할 때까지 malloc()을 반복적으로 호출하여 메모리에서 가장 큰 할당 가능한 블록을 판별 한 다음 가장 큰 성공적인 할당 크기를 포트란 프로그램에 리턴합니다. 내가 gfortran를 사용하여 컴파일 할 때 잘 작동하지만 mpif90를

    3

    2답변

    나는 (아마도 512 MPI 프로세스와 같이) 클러스터를 수행해야하는 연산 작업을 가지고있다. 지금 당장은 클러스터의 루트 노드에서 소켓을 열고 계산 작업 사이에있는 로컬 컴퓨터로 데이터를 전송합니다.하지만 두 개의 MPI 그룹을 만들 수 있는지 궁금합니다. 그 중 하나는 내 로컬입니다. 머신 및 다른 원격 클러스터에 연결하고 MPI 명령을 사용하여 데이터

    1

    1답변

    OpenFOAM 응용 프로그램 (이 경우 icoFoam이지만이 질문은 일반적으로 OpenFOAM 응용 프로그램에 대한 내용입니다)을 단계별로 검토하려고합니다. 저는 gdb를 사용하여 병렬로 실행되는 분석을 단계별로 설명합니다 (2 개의 procs라고 가정). 단순히 병렬 응용 프로그램을 실행하려면, 내가 입력 : mpirun -np 2 icoFoam -pa

    1

    1답변

    TotalView에서 프로그램을로드하면 "lmgrd 로그 파일을 확인하거나 lmreread를 시도하십시오"라는 경고 대화 상자가 나타납니다. 프로그램이로드되지 않습니다. 프로그램 탭에서 올바른 프로그램을 먼저 선택한 다음 병렬 탭에서 "MPI 열기"를 선택하고 네 가지 작업을 사용합니다. 확인을 클릭하면 경고 대화 상자가 나타나고 디버거가로드되지 않습니다.

    -1

    1답변

    그래서 MPI (OpenMPI 구현)를 사용하는 행렬 곱셈을 직접 작성하려고합니다. 문제는 MPI_Send/MPI_Recv에 의해 마스터에서 슬레이브로 행렬의 일부를 제대로 보내지 만, 슬레이브 (// !!! comment로 표시)의 응답을받는 마스터 프로세스의 MPI_Recv는 무의식적으로 기다리지 만 응답을받지 못한다는 것입니다 . 그러나 슬레이브 프로