openmpi

    1

    2답변

    마스터 프로세스와 여러 작업자 프로세스를 사용하는 MPI 프로그램이 있습니다. 작업 프로세스가 다른 노드에서 실행되는 동안 단일 계산 노드에서만 마스터 프로세스를 실행하고 싶습니다. 작업자 프로세스는 소켓으로 할당해야합니다 (예 : --map-by-socket 옵션으로 수행). 마스터 프로세스와 작업 프로세스를 다른 노드에 할당하거나 수동으로 할당하려면 옵

    2

    1답변

    현재 Fortran에서 MPI 코드를 작성 중입니다. mpi_cart_create을 사용하고 을 사용하여 절반의 노드가있는 새 그룹을 만든 후에는이 커뮤니케이터를 사용하여 축소 작업을 수행하려고하지만 분명히 잘못된 작업을하고 있습니다. 코드와 는 call MPI_cart_create(MPI_comm_world, 2, dims, (/.false.,.false

    0

    2답변

    저는 magick ++ 라이브러리를 사용하여 이미지를 관리하고 있습니다. openMPI를 사용하여 알고리즘을 배포하고 싶습니다. 객체를 보낼 수 있습니까? 내가 Image image(imgName); int w = image.columns(); int h = image.rows(); PixelPacket *pixels = imag

    2

    1답변

    Fortran에서 기본 mpi_cart_create() 함수를 사용하는 데 문제가 있습니다. 다음 코드 program main USE mpi implicit none integer :: old_comm, new_comm, ndims, ierr integer, DIMENSION(1) :: dim_size logic

    1

    1답변

    많은 컴퓨팅 코어에서 실행될 수있는 많은 CPU 코어에서 실행되는 대규모 코드가 있습니다. 코드는 C++이며 OpenMPI와 병렬 처리됩니다. 내 코드에는 각 MPI 프로세스에서 읽는 매우 큰 개체 (~ 10GB RAM 사용)가 있습니다. 이 객체는 매우 가끔 업데이트됩니다 (데이터 파일을 읽는 것만으로 단일 프로세스로 수행 할 수 있습니다). 지금까지 내

    0

    1답변

    /가상 디스크가없는 노드가 열기 MPI 버전 1.8.4을 사용하여 DRBL 클러스터에서 사용하는 경우 오류가 발생합니다 . 어떤 제안? 일반적인 명령을 mpirun --machinefile machines -np 4 mpi_hello machinefile: node1 slots = 4 미리

    0

    2답변

    std::list<int>을 마스터와 슬레이브간에주고하려고합니다. 하지만 MPI 데이터 유형을 생성하고 목록을 슬레이브에 전달하는 방법을 잘 모르겠습니다. boost과 같은 다른 라이브러리를 사용하지 않고이 작업을하고 싶습니다. 이 post을 해결하기 위해 노력하고 있지만, list으로 작업 할 수 없었습니다. 아래 코드는 제가 작업하고있는 코드입니다. #

    10

    2답변

    내 Kubernetes 클러스터에서 MPI 작업을 실행하고 싶습니다. 컨텍스트는 실제로 내가 멋지게 현대화 된 컨테이너 응용 프로그램을 실행하고 있지만 작업 부하의 일부는 곧 다시 작성 될 예정이없는 레거시 MPI 작업이며이를 kubernetes에 적합하게하고 싶습니다. " 세계관 "을 가능한 많이. 하나의 초기 질문 : kube 클러스터에서 MPI 작업을

    0

    1답변

    OpenMPI 및 Fortran을 사용하는 방법을 배우는 중입니다. OpenMPI 문서를 사용하여 간단한 클라이언트/서버 프로그램을 만들려고했습니다. 서버에 대한 [Laptop:13402] [[54220,1],0] ORTE_ERROR_LOG: Not found in file dpm_orte.c at line 167 [Laptop:13402] *** An

    0

    1답변

    나는 아이 MPI_Comm_spawn를 사용하여 만든 부모 프로세스 사이에 통신을 MPI_Send()와 MPI_Recv()를 사용하려고 만들어 부모와 자식 프로세스 사이 MPI_Recv 아래에서 볼 수 있듯이 : 는 Parent.f90 program master use mpi implicit none integer :: ierr, num_pr