24小时热门版块排行榜    

查看: 1446  |  回复: 7

njdxllwl

至尊木虫 (正式写手)

[求助] QE安装调试,在run example时总出问题,出现以下提示,请问是什么原因导致的?

/espresso-5.0.2/PHonon/examples/example03 : starting

This example shows how to calculate electron-phonon interaction
coefficients for fcc Al.

  executables directory: /espresso-5.0.2/bin
  pseudo directory:      /espresso-5.0.2/pseudo
  temporary directory:   /root/tmp
  checking that needed directories and files exist... done

  running pw.x as:   /espresso-5.0.2/bin/pw.x  -nband 1 -ntg 1
  running ph.x as:   /espresso-5.0.2/bin/ph.x  -nband 1 -ntg 1
  running q2r.x as:   /espresso-5.0.2/bin/q2r.x  -nband 1 -ntg 1
  running matdyn.x as:   /espresso-5.0.2/bin/matdyn.x  -nband 1 -ntg 1
  running lambda.x as: /espresso-5.0.2/bin/lambda.x

  cleaning /root/tmp...  done
  running the scf calculation with dense k-point grid...  done
  running the scf calculation...  done
  running the el-ph calculation...--------------------------------------------------------------------------
MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD
with errorcode 0.

NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.
You may or may not see output from other processes, depending on
exactly when Open MPI kills them.
--------------------------------------------------------------------------
  done
  running q2r...  done
  running matdyn for frequency calculation...  done
  running matdyn for a2F(omega) calculation...  done
  running lambda.x for lambda calculation...  done


这是在运行中出现的提示,请问是什么原因导致的呢?请高手指点。谢谢大家!
回复此楼
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

liqizuiyang

木虫 (著名写手)

【答案】应助回帖

★ ★ ★ ★ ★
感谢参与,应助指数 +1
njdxllwl: 金币+5, ★★★很有帮助 2013-11-03 08:04:07
这个属于个别例子算崩了,和所用编译器以及编译参数关系较大。

在测试PW和CP模块时碰到过同样的问题,不同编译器试下来,GCC崩的次数最多,Intel没崩过。但用Intel编译器编译测试PH时偶尔也会崩。

换个编译器试试。
2楼2013-11-02 17:37:59
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

njdxllwl

至尊木虫 (正式写手)

引用回帖:
2楼: Originally posted by liqizuiyang at 2013-11-02 17:37:59
这个属于个别例子算崩了,和所用编译器以及编译参数关系较大。

在测试PW和CP模块时碰到过同样的问题,不同编译器试下来,GCC崩的次数最多,Intel没崩过。但用Intel编译器编译测试PH时偶尔也会崩。

换个编译器 ...

多谢!提示“invoking MPI_ABORT causes Open MPI to kill all MPI processes.
You may or may not see output from other processes, depending on
exactly when Open MPI kills them.” 是不是并行也有问题呢?我用的ifort+MPI
3楼2013-11-03 08:05:47
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

liqizuiyang

木虫 (著名写手)

引用回帖:
3楼: Originally posted by njdxllwl at 2013-11-03 08:05:47
多谢!提示“invoking MPI_ABORT causes Open MPI to kill all MPI processes.
You may or may not see output from other processes, depending on
exactly when Open MPI kills them.” 是不是并行也有问题呢? ...

并行应该没问题,可能是崩溃的这个算例输入参数的原因。
你看下崩溃的这个例子,以后计算时尽量避开这种。

我测试PH也碰到过崩溃的情况,用的是Intel+IntelMPI,不过崩溃的例子和你的不一样。我不算声子谱,后来也没去管它。
4楼2013-11-03 09:49:55
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

njdxllwl

至尊木虫 (正式写手)

引用回帖:
4楼: Originally posted by liqizuiyang at 2013-11-03 09:49:55
并行应该没问题,可能是崩溃的这个算例输入参数的原因。
你看下崩溃的这个例子,以后计算时尽量避开这种。

我测试PH也碰到过崩溃的情况,用的是Intel+IntelMPI,不过崩溃的例子和你的不一样。我不算声子谱,后 ...

问题是我就想算声子谱啊,还有电声子耦合
5楼2013-11-03 11:24:29
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

刘仕晨

木虫 (正式写手)

应该问题不大的,楼主自己算的时候不一定会崩,我跑例子的时候也是这样了,报错了很多,后来也就没管,自己也能跑,或者楼主可以单独去跑那个example,然后把并行的CPU数改改,我发现有时候可以不报错
6楼2013-11-03 13:09:12
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

liqizuiyang

木虫 (著名写手)

引用回帖:
5楼: Originally posted by njdxllwl at 2013-11-03 11:24:29
问题是我就想算声子谱啊,还有电声子耦合...

你手动提交下那个崩溃的测试任务。如果继续崩可以给QE开发组写封邮件问下。
7楼2013-11-03 19:16:17
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

fyuewen

金虫 (正式写手)

你可以把案例里面的参数里面提取出来,自己单独提交试试
Physicsloveukulele!Aloha!
8楼2013-11-04 16:40:32
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
相关版块跳转 我要订阅楼主 njdxllwl 的主题更新
信息提示
请填处理意见