24小时热门版块排行榜    

查看: 10667  |  回复: 10

Xyan

新虫 (小有名气)

[求助] 用Intel 2019 Parallel Studio XE编译vasp5.4.4测试的时候出现问题,求助大佬!!! 已有2人参与

求助大佬Vasp5.4.4编译出来之后运行有问题,不知道怎么解决,我是直接用的Intel 2019 Parallel Studio XE全套的,
Intel(R) Parallel Studio XE 2019 Update 1 for Linux*
Copyright (C) 2009-2018 Intel Corporation. All rights reserved.
[root@localhost yan]# which icc ifort icpc mpiifort
/opt/intel/compilers_and_libraries_2019.1.144/linux/bin/intel64/icc
/opt/intel/compilers_and_libraries_2019.1.144/linux/bin/intel64/ifort
/opt/intel/compilers_and_libraries_2019.1.144/linux/bin/intel64/icpc
/opt/intel/compilers_and_libraries_2019.1.144/linux/mpi/intel64/bin/mpiifort

问题如下:
[root@localhost vasp.Hg]# mpirun -np 4 vasp
Abort(1094543) on node 0 (rank 0 in comm 0): Fatal error in PMPI_Init: Other MPI error, error stack:
MPIR_Init_thread(639)......:
MPID_Init(860).............:
MPIDI_NM_mpi_init_hook(689): OFI addrinfo() failed (ofi_init.h:689:MPIDI_NM_mpi_init_hook:No data available)
Abort(1094543) on node 1 (rank 1 in comm 0): Fatal error in PMPI_Init: Other MPI error, error stack:
MPIR_Init_thread(639)......:
MPID_Init(860).............:
MPIDI_NM_mpi_init_hook(689): OFI addrinfo() failed (ofi_init.h:689:MPIDI_NM_mpi_init_hook:No data available)
Abort(1094543) on node 2 (rank 2 in comm 0): Fatal error in PMPI_Init: Other MPI error, error stack:
MPIR_Init_thread(639)......:
MPID_Init(860).............:
MPIDI_NM_mpi_init_hook(689): OFI addrinfo() failed (ofi_init.h:689:MPIDI_NM_mpi_init_hook:No data available)
Abort(1094543) on node 3 (rank 3 in comm 0): Fatal error in PMPI_Init: Other MPI error, error stack:
MPIR_Init_thread(639)......:
MPID_Init(860).............:
MPIDI_NM_mpi_init_hook(689): OFI addrinfo() failed (ofi_init.h:689:MPIDI_NM_mpi_init_hook:No data available)
[cli_0]: readline failed
forrtl: error (78): process killed (SIGTERM)
Image              PC                Routine            Line        Source            
vasp               0000000001567364  Unknown               Unknown  Unknown
libpthread-2.17.s  00007F9F5F7CC5D0  Unknown               Unknown  Unknown
vasp               000000000041E11F  Unknown               Unknown  Unknown
vasp               000000000043C964  Unknown               Unknown  Unknown
vasp               00000000013863F9  Unknown               Unknown  Unknown
vasp               000000000040EBE2  Unknown               Unknown  Unknown
libc-2.17.so       00007F9F5F1103D5  __libc_start_main     Unknown  Unknown
vasp               000000000040EAE9  Unknown               Unknown  Unknown
forrtl: error (78): process killed (SIGTERM)
Image              PC                Routine            Line        Source            
vasp               0000000001567364  Unknown               Unknown  Unknown
libpthread-2.17.s  00007FCEC50B35D0  Unknown               Unknown  Unknown
libpthread-2.17.s  00007FCEC50B26DE  read                  Unknown  Unknown
libmpi.so.12.0.0   00007FCEC79D299F  Unknown               Unknown  Unknown
libmpi.so.12.0.0   00007FCEC79D1D32  Unknown               Unknown  Unknown
libmpi.so.12.0.0   00007FCEC60148D0  Unknown               Unknown  Unknown
libmpi.so.12.0.0   00007FCEC60C5613  MPIR_Err_return_c     Unknown  Unknown
libmpi.so.12.0.0   00007FCEC6CA9299  MPI_Init              Unknown  Unknown
libmpifort.so.12.  00007FCEC8A4A4EB  MPI_INIT              Unknown  Unknown
vasp               000000000041DF6D  Unknown               Unknown  Unknown
vasp               000000000043C964  Unknown               Unknown  Unknown
vasp               00000000013863F9  Unknown               Unknown  Unknown
vasp               000000000040EBE2  Unknown               Unknown  Unknown
libc-2.17.so       00007FCEC49F73D5  __libc_start_main     Unknown  Unknown
vasp               000000000040EAE9  Unknown               Unknown  Unknown
forrtl: error (78): process killed (SIGTERM)


make之后也编译出来了,在拿Hg测试的时候发现上面的问题,想知道这个是哪个方面的问题,要怎么解决?其中makefile.include文件没有改,如下:

# Precompiler options
CPP_OPTIONS= -DHOST=\"LinuxIFC\"\
             -DMPI -DMPI_BLOCK=8000 \
             -Duse_collective \
             -DscaLAPACK \
             -DCACHE_SIZE=4000 \
             -Davoidalloc \
             -Duse_bse_te \
             -Dtbdyn \
             -Duse_shmem

CPP        = fpp -f_com=no -free -w0  $*$(FUFFIX) $*$(SUFFIX) $(CPP_OPTIONS)

FC         = mpiifort
FCL        = mpiifort -mkl=sequential -lstdc++

FREE       = -free -names lowercase

FFLAGS     = -assume byterecl -w
OFLAG      = -O2
OFLAG_IN   = $(OFLAG)
DEBUG      = -O0

MKL_PATH   = $(MKLROOT)/lib/intel64
BLAS       =
LAPACK     =
BLACS      = -lmkl_blacs_intelmpi_lp64
SCALAPACK  = $(MKL_PATH)/libmkl_scalapack_lp64.a $(BLACS)

OBJECTS    = fftmpiw.o fftmpi_map.o fft3dlib.o fftw3d.o

INCS       =-I$(MKLROOT)/include/fftw

LLIBS      = $(SCALAPACK) $(LAPACK) $(BLAS)


OBJECTS_O1 += fftw3d.o fftmpi.o fftmpiw.o
OBJECTS_O2 += fft3dlib.o

# For what used to be vasp.5.lib
CPP_LIB    = $(CPP)
FC_LIB     = $(FC)
CC_LIB     = icc
CFLAGS_LIB = -O
FFLAGS_LIB = -O1
FREE_LIB   = $(FREE)

OBJECTS_LIB= linpack_double.o getshmem.o

# For the parser library
CXX_PARS   = icpc

LIBS       += parser
LLIBS      += -Lparser -lparser -lstdc++

# Normally no need to change this
SRCDIR     = ../../src
BINDIR     = ../../bin

#================================================
# GPU Stuff

CPP_GPU    = -DCUDA_GPU -DRPROMU_CPROJ_OVERLAP -DUSE_PINNED_MEMORY -DCUFFT_MIN=28 -UscaLAPACK

OBJECTS_GPU = fftmpiw.o fftmpi_map.o fft3dlib.o fftw3d_gpu.o fftmpiw_gpu.o

CC         = icc
CXX        = icpc
CFLAGS     = -fPIC -DADD_ -Wall -openmp -DMAGMA_WITH_MKL -DMAGMA_SETAFFINITY -DGPUSHMEM=300 -DHAVE_CUBLAS

CUDA_ROOT  ?= /usr/local/cuda/
NVCC       := $(CUDA_ROOT)/bin/nvcc -ccbin=icc
CUDA_LIB   := -L$(CUDA_ROOT)/lib64 -lnvToolsExt -lcudart -lcuda -lcufft -lcublas

GENCODE_ARCH    := -gencode=arch=compute_30,code=\"sm_30,compute_30\" \
                   -gencode=arch=compute_35,code=\"sm_35,compute_35\" \
                   -gencode=arch=compute_60,code=\"sm_60,compute_60\"

MPI_INC    = $(I_MPI_ROOT)/include64/

不知道bashrc的路径写的是不是有问题,也贴出来请大佬帮忙看看。
# .bashrc

# User specific aliases and functions

alias rm='rm -i'
alias cp='cp -i'
alias mv='mv -i'

# Source global definitions
if [ -f /etc/bashrc ]; then
        . /etc/bashrc
fi

source /opt/intel/parallel_studio_xe_2019/psxevars.sh
export PATH=$PATH:/home/vasp.5.4.4/vasp.5.4.4/bin
回复此楼

» 猜你喜欢

已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
回帖支持 ( 显示支持度最高的前 50 名 )

風易辭

铁虫 (初入文坛)

【答案】应助回帖

试试 export I_MPI_FABRICS=shm 再vasp跑下看看
9楼2019-11-05 21:26:27
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

一川烟草

铁杆木虫 (正式写手)

【答案】应助回帖

mpi有问题,换用老版本openmpi_1.6.5+intel_2019,最稳定
7楼2019-02-09 10:22:43
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

匿名

用户注销 (小有名气)

★ ★
Xyan(漫天飘雪代发): 金币+2, 谢谢交流 2019-02-05 19:06:36
本帖仅楼主可见
2楼2019-02-05 18:49:08
已阅   申请1ST强帖   回复此楼   编辑   查看我的主页

風易辭

铁虫 (初入文坛)

引用回帖:
9楼: Originally posted by 風易辭 at 2019-11-05 21:26:27
试试 export I_MPI_FABRICS=shm 再vasp跑下看看

试试 export FI_PROVIDER=sockets
10楼2019-11-05 21:34:38
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
普通回帖

Xyan

新虫 (小有名气)

引用回帖:
2楼: Originally posted by healthappy at 2019-02-05 18:49:08
第一不要在root下面运行任务,养成习惯
第二检查内存

没有在root下面运行就出现下面的报错:
[yan@localhost vasp.Hg]$ mpirun -np 4 vasp
[proxy:0:0@localhost.localdomain] HYD_spawn (../../../../../src/pm/i_hydra/libhydra/spawn/hydra_spawn.c:113): execvp error on file vasp (No such file or directory)
[proxy:0:0@localhost.localdomain] HYD_spawn (../../../../../src/pm/i_hydra/libhydra/spawn/hydra_spawn.c:113): execvp error on file vasp (No such file or directory)
[proxy:0:0@localhost.localdomain] HYD_spawn (../../../../../src/pm/i_hydra/libhydra/spawn/hydra_spawn.c:113): execvp error on file vasp (No such file or directory)
[proxy:0:0@localhost.localdomain] HYD_spawn (../../../../../src/pm/i_hydra/libhydra/spawn/hydra_spawn.c:113): execvp error on file vasp (No such file or directory)
3楼2019-02-05 20:03:54
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

匿名

用户注销 (小有名气)

本帖仅楼主可见
4楼2019-02-05 21:36:16
已阅   申请1ST强帖   回复此楼   编辑   查看我的主页

Xyan

新虫 (小有名气)

引用回帖:
4楼: Originally posted by healthappy at 2019-02-05 21:36:16
你在哪安装的?Ubuntu? 如果是在cluster或者超算上面一般用提交脚本。VASP5.4.4安装后在bin下有vasp_std vasp_soc vasp_gamma版本。能找到vasp安装路径?
https://cms.mpi.univie.ac.at/wiki/index.php/Installin ...

你好,我是在centos7下安装的

发自小木虫IOS客户端
5楼2019-02-05 22:58:29
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

Xyan

新虫 (小有名气)

引用回帖:
5楼: Originally posted by Xyan at 2019-02-05 22:58:29
你好,我是在centos7下安装的
...

安装之后那三个版本文件也都有

发自小木虫IOS客户端
6楼2019-02-05 22:59:47
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

Xyan

新虫 (小有名气)

引用回帖:
7楼: Originally posted by 一川烟草 at 2019-02-09 10:22:43
mpi有问题,换用老版本openmpi_1.6.5+intel_2019,最稳定

是的,现在换了openmpi,已经可以了,谢谢你!

发自小木虫IOS客户端
8楼2019-02-17 19:18:13
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
相关版块跳转 我要订阅楼主 Xyan 的主题更新
信息提示
请填处理意见