名古屋大学情報連携基盤センター計算機システムの利用について
(シミュレーションサマースクール用)
名古屋大学情報連携基盤センターのホームページ
(1)ベクトル並列型スーパーコンピュータ、Fujitsu VPP5000の利用環境
・9月9日(月)に、passwordを書き換えてから使用開始する
・VPPに投入するジョブは、vppからのみ
・s1クラスを使用(並列2PEまでを使用)
・サマースクール用に、4つのcpuが利用可能(割り当てられている)
・最大同時実行数は、2PEジョブ4多重まで、1PEジョブ8多重まで
・CPU時間は、最大1時間のリミット
・メモリサイズは、標準(指定なし)で2GB、最大指定で15.5GBまで
・TSSからのジョブ実行(jobexe使用)は、なるべく控える(4PEまで利用可)
(2)フロントエンドプロセッサ(gpcs)にloginしてパスワードを変更
下記で***は個々に割り当てられたアカウントの3つの数字を示します。
02act***@sv007% telnet gpcs.cc.nagoya-u.ac.jp (133.6.90.3)
login: w49***a
Password:
Terminal Type(Default is dtterm):vt100
gpcs% yppasswd
yppasswd: Changing password for w49517a
NIS のログインパスワードを入力してください:
新しいパスワード:
新しいパスワードの再入力:
rika の NIS パスワード/属性が変更されました。
(3)ベクトル並列型スーパーコンピュータ(Fujitsu VPP5000/64)は、スーパー
コンピュータ(vpp)に直接loginして利用
02act***@sv007% telnet vpp.cc.nagoya-u.ac.jp (133.6.90.2)
login: w49***a
Password:
Terminal Type(Default is dtterm):vt100
vpp% pwd
/G/pe0c/usr7/w49***a
vpp% mkdir vearthb hearthb mearthb pearthb
vpp% ls -l
total 32
drwxr-x--- 2 w49517a summer 512 Sep 7 08:26 hearthb
drwxr-x--- 2 w49517a summer 512 Sep 7 08:46 mearthb
drwxr-x--- 2 w49517a summer 512 Sep 7 09:57 pearthb
drwxr-x--- 2 w49517a summer 512 Sep 8 14:39 vearthb
vppの各自のアカウントの直ぐ下に、earthb hearthb mearthb pearthbのdirectory
を作り、例えばメディアセンターのsv080:/data1/02act132/mearthbの下にあるファ
イルをvppの/G/pe0c/usr7/w49***a/mearthbの下にftpで移動する。
・ftp -i vpp.cc.nagoya-u.ac.jp
・メディアセンターのコンピュータから put でvppに送る
(1) vearthb Fortran 90 (vector 3D MHD code) vpp(1PE)で実行
・/data1/02act132/vearthb :メディアセンターのdirectory
・cp earthb1a.f prog.f :プログラムをprog.fにコピー
・qsub -q s1 -eo -o comp.out comp.sh :VP Fortranでコンパイル
・qsub -q s1 -eo -o exec.out exec.sh :1PE でrun
・qstat s1@vpp-g :s1クラスの状態表示
・qdel -k -r vpp-g canceljob :vppでの実行ジョブのキャンセル
ジョブキャンセルの例
vpp% qstat c@vpp-g
REQUEST NAME REQUEST ID USER PRI STATE JOB-ID PHASE
1: exec.sh 42573.pe00 w49517a 31 RUNNING 4139 RUN
vpp% qdel -k -r vpp-g 42573.pe00
・comp.sh :compile shell
・comp.out :output by compile
・exec.sh :execution shell
・exec.out :output by execution
・earthb1a.f :3D MHD code of solar wind-magnetosphere interaction
・earthb1.f :3D MHD code of solar wind-magnetosphere interaction
・prog.f :compiled Fortran program, prog.f
・prog :execution file
・zearthb11.data :simulation data No.1 for southward IMF
・zearthb12.data :simulation data No.2 for northward IMF
・readme :list of commands
(2) hearthb HPF/JA (High Performance Fortran) vpp(2PE)で実行
・/data1/02act132/hearthb :メディアセンターのdirectory
・cp hearthb.f proghpf.f :プログラムをproghpf.fにコピー
・qsub -q s1 -eo -o pconphpf2.out pcomphpf2.sh :HPFでコンパイル
・qsub -q s1 -eo -o pconphpf.out pcomphpf.sh :HPFコンパイル
・qsub -q s1 -eo -lPv 2 -o pexechpf.out pexechpf.sh :2PE でrun
(3) mearthb MPI (Massage Passing Interface) vpp(2PE)で実行
・/data1/02act132/mearthb :メディアセンターのdirectory
・cp mearthb.f progmpi.f :プログラムをprogmpi.fにコピー
・qsub -q s1 -eo -o pconpmpi2.out pcompmpi2.sh :MPIでコンパイル
・qsub -q s1 -eo -o pconpmpi.out pcompmpi.sh :MPIでコンパイル
・qsub mpi_lim02s1.sh :2PE でrun
・mearthb.f :3D MHD code of solar wind-magnetosphere interaction
・mearthb_isend.f :3D MHD code use non-blocking communication
・mearthb_send.f :3D MHD code use blocking communication
・mpi_lim02s1.sh :execution shell
・mpilist :list to show vectorization and parallelization
・pcompmpi.sh :compile shell
・pcompmpi2.sh :compile shell to produce mpilist
・pconpmpi2.out :output by compile
・pexecmpi02.out :output by execution
・progmpi :execution file
・progmpi.f :compiled Fortran program, progmpi.f
・zmeart01.data :simulation data No.1 for southward IMF
・zmeart02.data :simulation data No.2 for northward IMF
・readme :list of commands
(4) pearthb VPP Fortran (Fortran 90) vpp(2PE)で実行
・/data1/02act132/pearthb :メディアセンターのdirectory
・cp pearthb.f prog90.f :プログラムをprog90.fにコピー
・qsub -q s1 -eo -o pcomp90.out pcomp90.sh :VPP Fortranでコンパイル
・qsub -q s1 -eo -lPv 2 -o pexec90.out pexec90.sh :2PE でrun
(5) earthb Fortran 90 (vector 3D MHD code) Sunなどで実行
・/data1/02act132/earthb :メディアセンターのdirectory
・他の並列化MHDコードと異なり、配列は全て1次元を利用
・使用メモリが最小化されている
・フルベクトル化されている
・ほとんどの計算機で実行できる
・PostScriptを用いた画像ファイル作成のプログラムが置いてある
・VRMLを用いた3次元可視化ファイル作成のプログラムが置いてある
(4)vppで計算した太陽風と地球磁気圏相互作用のシミュレーションデータはメデ
ィアセンターの計算機にftp(get)で転送して、図形処理をする。
・各受講者に割り振った/data/02act***/ の下の適当なdirectoryに持ってきて
図形処理をする
・/data のディスクは約500GBの容量があり、受講者一人当たり約5GBは利用可能