名古屋大学情報連携基盤センター計算機システムの利用について

(シミュレーションサマースクール用)


名古屋大学情報連携基盤センターのホームページ

(1)ベクトル並列型スーパーコンピュータ、Fujitsu VPP5000の利用環境

  ・9月9日(月)に、passwordを書き換えてから使用開始する
  ・VPPに投入するジョブは、vppからのみ
  ・s1クラスを使用(並列2PEまでを使用)
  ・サマースクール用に、4つのcpuが利用可能(割り当てられている)
  ・最大同時実行数は、2PEジョブ4多重まで、1PEジョブ8多重まで
  ・CPU時間は、最大1時間のリミット
  ・メモリサイズは、標準(指定なし)で2GB、最大指定で15.5GBまで
  ・TSSからのジョブ実行(jobexe使用)は、なるべく控える(4PEまで利用可)

(2)フロントエンドプロセッサ(gpcs)にloginしてパスワードを変更

   下記で***は個々に割り当てられたアカウントの3つの数字を示します。

02act***@sv007% telnet gpcs.cc.nagoya-u.ac.jp (133.6.90.3)
login: w49***a
Password:
Terminal Type(Default is dtterm):vt100
gpcs% yppasswd
yppasswd:  Changing password for w49517a
NIS のログインパスワードを入力してください: 
新しいパスワード: 
新しいパスワードの再入力: 
rika の NIS パスワード/属性が変更されました。

(3)ベクトル並列型スーパーコンピュータ(Fujitsu VPP5000/64)は、スーパー
   コンピュータ(vpp)に直接loginして利用

02act***@sv007% telnet vpp.cc.nagoya-u.ac.jp (133.6.90.2)
login: w49***a
Password:
Terminal Type(Default is dtterm):vt100
vpp% pwd
/G/pe0c/usr7/w49***a
vpp% mkdir vearthb hearthb mearthb pearthb
vpp% ls -l
total 32
drwxr-x---   2 w49517a  summer       512 Sep  7 08:26 hearthb
drwxr-x---   2 w49517a  summer       512 Sep  7 08:46 mearthb
drwxr-x---   2 w49517a  summer       512 Sep  7 09:57 pearthb
drwxr-x---   2 w49517a  summer       512 Sep  8 14:39 vearthb

vppの各自のアカウントの直ぐ下に、earthb hearthb mearthb pearthbのdirectory
を作り、例えばメディアセンターのsv080:/data1/02act132/mearthbの下にあるファ
イルをvppの/G/pe0c/usr7/w49***a/mearthbの下にftpで移動する。
  ・ftp -i vpp.cc.nagoya-u.ac.jp
  ・メディアセンターのコンピュータから put でvppに送る

(1) vearthb  Fortran 90 (vector 3D MHD code) vpp(1PE)で実行
  ・/data1/02act132/vearthb        :メディアセンターのdirectory
  ・cp earthb1a.f prog.f         :プログラムをprog.fにコピー
  ・qsub -q s1 -eo -o comp.out comp.sh  :VP Fortranでコンパイル
  ・qsub -q s1 -eo -o exec.out exec.sh  :1PE でrun
  ・qstat s1@vpp-g            :s1クラスの状態表示
  ・qdel -k -r vpp-g canceljob        :vppでの実行ジョブのキャンセル

      ジョブキャンセルの例
   vpp% qstat c@vpp-g
        REQUEST NAME  REQUEST ID    USER    PRI  STATE   JOB-ID  PHASE
       1:   exec.sh  42573.pe00    w49517a  31  RUNNING   4139    RUN
        vpp% qdel -k -r vpp-g 42573.pe00

    ・comp.sh         :compile shell
    ・comp.out        :output by compile
    ・exec.sh         :execution shell
    ・exec.out        :output by execution
    ・earthb1a.f      :3D MHD code of solar wind-magnetosphere interaction
    ・earthb1.f       :3D MHD code of solar wind-magnetosphere interaction
    ・prog.f          :compiled Fortran program, prog.f
    ・prog            :execution file
    ・zearthb11.data  :simulation data  No.1 for southward IMF
    ・zearthb12.data  :simulation data  No.2 for northward IMF
    ・readme          :list of commands

(2) hearthb  HPF/JA (High Performance Fortran) vpp(2PE)で実行
  ・/data1/02act132/hearthb                            :メディアセンターのdirectory
  ・cp hearthb.f proghpf.f                             :プログラムをproghpf.fにコピー
  ・qsub -q s1 -eo -o pconphpf2.out pcomphpf2.sh       :HPFでコンパイル
  ・qsub -q s1 -eo -o pconphpf.out pcomphpf.sh         :HPFコンパイル
  ・qsub -q s1 -eo -lPv 2 -o pexechpf.out pexechpf.sh  :2PE でrun

(3) mearthb  MPI (Massage Passing Interface) vpp(2PE)で実行
  ・/data1/02act132/mearthb                          :メディアセンターのdirectory
  ・cp mearthb.f progmpi.f                           :プログラムをprogmpi.fにコピー
  ・qsub -q s1 -eo -o pconpmpi2.out pcompmpi2.sh     :MPIでコンパイル
  ・qsub -q s1 -eo -o pconpmpi.out pcompmpi.sh       :MPIでコンパイル
  ・qsub mpi_lim02s1.sh                              :2PE でrun

    ・mearthb.f        :3D MHD code of solar wind-magnetosphere interaction
    ・mearthb_isend.f  :3D MHD code  use non-blocking communication
    ・mearthb_send.f   :3D MHD code  use blocking communication
    ・mpi_lim02s1.sh   :execution shell
    ・mpilist          :list to show vectorization and parallelization
    ・pcompmpi.sh      :compile shell
    ・pcompmpi2.sh     :compile shell to produce mpilist
    ・pconpmpi2.out    :output by compile
    ・pexecmpi02.out   :output by execution
    ・progmpi          :execution file
    ・progmpi.f        :compiled Fortran program, progmpi.f
    ・zmeart01.data    :simulation data  No.1 for southward IMF
    ・zmeart02.data    :simulation data  No.2 for northward IMF
    ・readme           :list of commands

(4) pearthb  VPP Fortran (Fortran 90) vpp(2PE)で実行
  ・/data1/02act132/pearthb                          :メディアセンターのdirectory
  ・cp pearthb.f prog90.f                            :プログラムをprog90.fにコピー
  ・qsub -q s1 -eo -o pcomp90.out pcomp90.sh         :VPP Fortranでコンパイル
  ・qsub -q s1 -eo -lPv 2 -o pexec90.out pexec90.sh  :2PE でrun

(5) earthb   Fortran 90 (vector 3D MHD code) Sunなどで実行
  ・/data1/02act132/earthb :メディアセンターのdirectory
  ・他の並列化MHDコードと異なり、配列は全て1次元を利用
  ・使用メモリが最小化されている
  ・フルベクトル化されている
  ・ほとんどの計算機で実行できる
  ・PostScriptを用いた画像ファイル作成のプログラムが置いてある
  ・VRMLを用いた3次元可視化ファイル作成のプログラムが置いてある

(4)vppで計算した太陽風と地球磁気圏相互作用のシミュレーションデータはメデ
   ィアセンターの計算機にftp(get)で転送して、図形処理をする。
  ・各受講者に割り振った/data/02act***/ の下の適当なdirectoryに持ってきて
   図形処理をする
  ・/data のディスクは約500GBの容量があり、受講者一人当たり約5GBは利用可能