24小时热门版块排行榜    

查看: 651  |  回复: 1

enola

捐助贵宾 (正式写手)


[交流] 【求助】VASP计算出错--新年第一帖

首先祝虫子们新年快乐啊。
我的计算环境如下:
我有两个Nodes,是HP的BL460c G7,配置是
Intel X5670 24G内存,两块20G的网卡。
我安装的系统的Debian-Lenny, 64bits
编译器是Intel的icc,ifort和MKL(version-11), 以及MPICH2。我已经
安装好VASP,才用Bewulf结构,但是计算中出现了问题:
1.如果我只在一个node上做计算(只启动一个node),采用mpirun,可以全速计算,MPI不会出现问题:
2.但是假如我同事启动两个,node0和node1(也就是两个node有数据交流时,不管用的核多少),我使用mpirun时,当POSCAR
或者说计算的super cell超过一定值时,就会报如下的错:
###################################################
Fatal error in MPI_Waitall: Other MPI error, error stack:
MPI_Waitall(261)..................: MPI_Waitall(count=46, req_array=0x7fffeeca46a0, status_array=0x7fffeeca4760) failed
MPIDI_CH3I_Progress(150)..........:
MPID_nem_mpich2_blocking_recv(948):
MPID_nem_tcp_connpoll(1709).......: Communication error
rank 23 in job 1  node0_55860   caused collective abort of all ranks
  exit status of rank 23: killed by signal 9
###################################################举个例子,VASP的例子,关于水的优化:
O atom in a box
1.0          ! universal scaling parameters
8.0 0.0 0.0  ! lattice vector  a(1)
0.0 8.0 0.0  ! lattice vector  a(2)
0.0 0.0 8.0  ! lattice vector  a(3)
1             ! number of atoms
cart          ! positions in cartesian coordinates
0 0 0
当  “1.0          ! universal scaling parameters”,时,同时在两个nodes上计算(也就是两个node有数据交流时)会出错的,但是在一个node上不会。
但是当把“1.0          ! universal scaling parameters”中的“1”修改成0.5时,就不会。
我也测试过不管怎么样,当supercell超过4,就会出错。
我想这可能是我编译VASP时有问题啦,那位虫子能给点建议嘛?谢谢。。。
回复此楼

» 猜你喜欢

» 本主题相关价值贴推荐,对您同样有帮助:

» 抢金币啦!回帖就可以得到:

查看全部散金贴

已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

enola

捐助贵宾 (正式写手)


引用回帖:
Originally posted by enola at 2011-02-06 14:07:09:
首先祝虫子们新年快乐啊。
我的计算环境如下:
我有两个Nodes,是HP的BL460c G7,配置是
Intel X5670 24G内存,两块20G的网卡。
我安装的系统的Debian-Lenny, 64bits
编译器是Intel的icc,ifort和MKL(versio ...

大家觉得DMPI_BLOCK会影响到vasp的计算吗?或者像我的编译一样,导致不稳定。。。谢谢。。。
2楼2011-02-08 13:41:59
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
相关版块跳转 我要订阅楼主 enola 的主题更新
普通表情 高级回复 (可上传附件)
信息提示
请填处理意见