2026/02/27 更新

写真a

ホシノ テツヤ
星野 哲也
HOSHINO Tetsuya
所属
情報基盤センター データサイエンス研究部門 准教授
大学院担当
大学院情報学研究科
職名
准教授

研究分野 1

  1. 情報通信 / 高性能計算

経歴 2

  1. 名古屋大学   情報基盤センター   准教授

    2023年1月 - 現在

  2. 東京大学   情報基盤センター   助教

    2016年1月 - 2022年12月

受賞 1

  1. Tetsuya Hoshino, Shun-ichiro Hayashi, Daichi Mukunoki, Takahiro Katagiri, Toshihiro Hanawa, “Evaluating Claude Code's Coding and Test Automation for GPU Acceleration ofa Legacy Fortran Application: A GeoFEM Case Study.” SCA/HPC Asia Workshops, pp. 353-360, 2026. https://doi.org/10.1145/3784828.3785335 [Best paper賞受賞]

    2026年1月  

     詳細を見る

    受賞区分:国際学会・会議・シンポジウム等の賞 

 

論文 37

  1. Tensor-Core-Optimized Strategies for BLR × Tall-Skinny Matrix Multiplication in BEM.

    Akihiro Ida, Kazuya Goto, Rio Yokota, Tasuku Hiraishi, Toshihiro Hanawa, Takeshi Iwashita, Masatoshi Kawai, Satoshi Ohshima, Tetsuya Hoshino

    SCA/HPC Asia     頁: 153 - 164   2026年

     詳細を見る

    掲載種別:研究論文(国際会議プロシーディングス)  

    DOI: 10.1145/3773656.3773678

    その他リンク: https://dblp.uni-trier.de/db/conf/hpcasia/hpcasia2026.html#IdaGYHHIKOH26

  2. Evaluating Claude Code's Coding and Test Automation for GPU Acceleration ofa Legacy Fortran Application: A GeoFEM Case Study.

    Tetsuya Hoshino, Shun-ichiro Hayashi, Daichi Mukunoki, Takahiro Katagiri, Toshihiro Hanawa

    SCA/HPC Asia Workshops     頁: 353 - 360   2026年

     詳細を見る

    掲載種別:研究論文(国際会議プロシーディングス)  

    DOI: 10.1145/3784828.3785335

    その他リンク: https://dblp.uni-trier.de/db/conf/hpcasia/hpcasia2026w.html#HoshinoHMKH26

  3. An Algorithm Portfolio Approach for Parameter Tuning in Coherent Ising Machines.

    Tatsuro Hanyu, Takahiro Katagiri, Daichi Mukunoki, Tetsuya Hoshino

    CANDARW     頁: 142 - 148   2025年

     詳細を見る

    掲載種別:研究論文(国際会議プロシーディングス)  

    DOI: 10.1109/CANDARW68385.2025.00032

    その他リンク: https://dblp.uni-trier.de/db/conf/candar/candar2025w.html#HanyuKMH25

  4. Performance Evaluation of Loop Body Splitting for Fast Modal Filtering in SCALE-DG on A64FX Open Access

    Ren, XZB; Kawai, Y; Tomita, H; Nishizawa, S; Katagiri, T; Hoshino, T; Mukunoki, D; Kawai, M; Nagai, T

    PROCEEDINGS OF INTERNATIONAL CONFERENCE ON HIGH PERFORMANCE COMPUTING IN ASIA-PACIFIC REGION WORKSHOPS, HPC ASIA 2025 WORKSHOPS     頁: 36 - 44   2025年

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:Proceedings of International Conference on High Performance Computing in Asia Pacific Region Workshops HPC Asia 2025 Workshops  

    Modern general-purpose central processing units (CPUs) benefit from the integration of Single Instruction, Multiple Data (SIMD) architectures. Scalable Vector Extensions (SVE) is one of Arm’s SIMD architectures designed for HPC. Fujitsu’s A64FX is the first Arm-based processor to incorporate hardware-implemented SVE alongside High-Bandwidth Memory 2 (HBM2). However, in the A64FX, the high latencies of SIMD instructions, such as fused multiply-add (FMA), combined with the limited capacity of reservation stations, can result in inefficient Out-of-Order (OoO) execution. SCALE-DG is an atmospheric dynamical core that uses the discontinuous Galerkin Method (DGM). Modal filtering, an essential procedure in SCALE-DG, has an optimized version called fast modal filtering, which suffers from the OoO execution issue due to dot products with long vector lengths in the loop body. This issue can be alleviated by splitting the loop body into multiple parts. However, since the vector length of the dot product varies with the polynomial order (P) in SCALE-DG, it remains unclear how the number of splits affects the performance of fast modal filtering. In this paper, we present an evaluation across P values in the range of 3 to 11 with different splitting numbers and combinations. The results indicate that when P ≤ 7, performance degraded in most cases, with only a few cases achieving positive speedups (1.01x to 1.02x) after splitting the loop body. For 8 ≤ P ≤ 11, splitting had a consistently positive impact. The 3-way splitting was identified as the optimal configuration, achieving speedups of 1.15x to 1.26x.

    DOI: 10.1145/3703001.3724385

    Open Access

    Web of Science

    Scopus

    その他リンク: https://dblp.uni-trier.de/db/conf/hpcasia/hpcasia2025w.html#RenKTNKHMKN25

  5. スーパーコンピュータ「不老」の利用状況について

    山田 一成, 毛利 晃大, 林 秀和, 片桐 孝洋, 星野 哲也, 永井 亨

    大学ICT推進協議会年次大会論文集   2024 巻 ( 0 ) 頁: 99 - 107   2024年12月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人 大学ICT推進協議会  

    名古屋大学情報基盤センターのスーパーコンピュータ「不老」は2020年7月から運用を開始して2024年7月で4年が経過した.本稿では運用開始から2023年度までにおける運用状況について報告する.

    DOI: 10.24669/axies.2024.0_99

    CiNii Research

  6. HPC-Centric Quantum Computingに向けたサービスに向けて

    片桐 孝洋, 高橋 一郎, 森下 誠, 星野 哲也, 河合 直聡, 永井 亨

    大学ICT推進協議会年次大会論文集   2024 巻 ( 0 ) 頁: 143 - 149   2024年12月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人 大学ICT推進協議会  

    本報告では、将来実現すると期待されているエラー訂正可能な誤り耐性量子コンピュータ(FTQC)の実現まで量子関連研究をスーパーコンピュータとHPC技術を用いて支援し、量子・古典ハイブリッド計算を実現するHPC-Centric Quantum Computingの概念を提案する。また主要技術として、自動チューニング(Auto-tuning)技術が必要となることを述べる。ケーススタディとして、疑似量子アニーラ、量子回路シミュレータ、コヒーレントイジングマシンの性能パラメタチューニング問題を提起する。

    DOI: 10.24669/axies.2024.0_143

    CiNii Research

  7. Azure CycleCloud利用環境の調査とスパコンセンター・クラウド連携に関する考察

    永井 亨, 五十木 秀一, 河合 直聡, 片桐 孝洋, 星野 哲也

    学術情報処理研究   28 巻 ( 1 ) 頁: 114 - 124   2024年11月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人 大学ICT推進協議会  

    <p>パブリッククラウド利用環境の調査を主な目的としてMicrosoft Azureを対象にした仮想マシンの性能測定を行った.具体的には名古屋大学情報基盤センターと日本マイクロソフト社との共同研究のもとでHPC利用環境に特化したAzure CycleCloudを使用して種々のベンチマークプログラムを仮想マシン上で実行した.本稿ではAzure CycleCloudの利用環境と仮想マシン上でのベンチマークテスト結果について報告し,スーパーコンピュータセンターとパブリッククラウドの連携について考察する.</p>

    DOI: 10.24669/jacn.28.1_114

    CiNii Research

  8. Auto-Tuning Mixed-Precision Computation by Specifying Multiple Regions

    Ren, XZB; Kawai, M; Hoshino, T; Katagiri, T; Nagai, T

    CONCURRENCY AND COMPUTATION-PRACTICE & EXPERIENCE   37 巻 ( 2 )   2024年11月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)   出版者・発行元:Concurrency and Computation Practice and Experience  

    Mixed-precision computation is a promising method for substantially improving high-performance computing applications. However, using mixed-precision data is a double-edged sword. While it can improve computational performance, the reduction in precision introduces more uncertainties and errors. As a result, precision tuning is necessary to determine the optimal mixed-precision configurations. Much effort is therefore spent on selecting appropriate variables while balancing execution time and numerical accuracy. Auto-tuning (AT) is one of the technologies that can assist in alleviating this intensive task. In recent years, ppOpen-AT, an AT language, introduced a directive for mixed-precision tuning called “Blocks.” In this study, we investigated an AT strategy for the “Blocks” directive for multi-region tuning of a program. The non-hydrostatic icosahedral atmospheric model (NICAM), a global cloud-resolving model, was used as a benchmark program to evaluate the effectiveness of the AT strategy. Experimental results indicated that when a single region of the program performed well in mixed-precision computation, combining these regions resulted in better performance. When tested on the supercomputer “Flow” Type I (Fujitsu PRIMEHPC FX1000) and Type II (Fujitsu PRIMEHPC CX1000) subsystems, the mixed-precision NICAM benchmark program tuned by the AT strategy achieved a speedup of nearly 1.31× on the Type I subsystem compared to the original double-precision program, and a 1.12× speedup on the Type II subsystem.

    DOI: 10.1002/cpe.8326

    Web of Science

    Scopus

  9. Adaptation of XAI to Auto-tuning for Numerical Libraries Open Access

    Aoki S., Katagiri T., Ohshima S., Kawai M., Nagai T., Hoshino T.

    Proceedings 2024 IEEE 17th International Symposium on Embedded Multicore Many Core Systems on Chip Mcsoc 2024   abs/2405.10973 巻   頁: 556 - 563   2024年5月

     詳細を見る

    掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:Proceedings 2024 IEEE 17th International Symposium on Embedded Multicore Many Core Systems on Chip Mcsoc 2024  

    The unregulated utilization of Artificial Intelligence (AI) outputs, potentially leading to various societal issues, has received considerable attention. While humans routinely validate information, manually inspecting the vast volumes of AI-generated results is impractical. Therefore, automation and visualization are imperative. In this context, Explainable AI (XAI) technology is gaining prominence, aiming to streamline AI model development and alleviate the burden of explaining AI outputs to users. Simultaneously, software Auto-Tuning (AT) technology has emerged for reducing the man-hours required for performance tuning in numerical calculations. AT is a potent tool for cost reduction during parameter optimization and high-performance programming for numerical computing. The synergy between AT mechanisms and AI technology is noteworthy, with AI finding extensive applications in AT. However, applying AI to AT mechanisms introduces challenges in AI model explainability. This study focuses on XAI for AI models when integrated into two different processes for practical numerical computations: performance parameter tuning of accuracy-guaranteed numerical calculations and sparse iterative algorithm.

    DOI: 10.1109/MCSoC64144.2024.00095

    Scopus

    arXiv

    その他リンク: http://arxiv.org/pdf/2405.10973v1

  10. Performance Evaluation of CMOS Annealing with Support Vector Machine

    Fukuhara R., Morishita M., Katagiri T., Kawai M., Nagai T., Hoshino T.

    Proceedings 2024 IEEE 17th International Symposium on Embedded Multicore Many Core Systems on Chip Mcsoc 2024   abs/2404.15752 巻   頁: 548 - 555   2024年4月

     詳細を見る

    掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:Proceedings 2024 IEEE 17th International Symposium on Embedded Multicore Many Core Systems on Chip Mcsoc 2024  

    In this study, support vector machine (SVM) performance was assessed using a quantum-inspired complementary metal-oxide semiconductor (CMOS) annealer. During performance evaluation, the accuracy rate in binary classification problems was the primary focus. SVM performance, when running on a CPU (classical computation) and quantum-inspired annealer, was comparatively analyzed. The performance outcome was evaluated using a CMOS annealing machine, and accuracy rates of 93.7%, 92.7%, and 97.6% were obtained for linearly separable problem and nonlinearly separable problems 1 and 2, respectively. According to these results, a CMOS annealing machine can achieve an accuracy rate that closely rivals that of classical computation.

    DOI: 10.1109/MCSoC64144.2024.00094

    Scopus

    arXiv

    その他リンク: http://arxiv.org/pdf/2404.15752v2

  11. 階層型行列法における混合精度演算に関する評価

    星野 哲也, 伊田 明弘, 岩下 武史, 河合 直聡

    情報処理学会第87回全国大会   - 巻   頁: 1 - 2   2024年

     詳細を見る

  12. 格子H行列を用いた地震シミュレーションのマルチGPU並列化

    星野 哲也, 伊田 明弘, 河合 直聡

    情報処理学会研究報告   HPC-195 巻   頁: 1 - 11   2024年

     詳細を見る

  13. Optimize Efficiency of Utilizing Systems by Dynamic Core Binding

    Kawai M., Ida A., Hanawa T., Hoshino T.

    ACM International Conference Proceeding Series     頁: 77 - 82   2024年

     詳細を見る

    掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:ACM International Conference Proceeding Series  

    Load balancing at both the process and thread levels is imperative for minimizing application computation time in the context of MPI/OpenMP hybrid parallelization. This necessity arises from the constraint that, within a typical hybrid parallel environment, an identical number of cores is bound to each process. Dynamic Core Binding, however, adjusts the core binding based on the process’s workload, thereby realizing load balancing at the core level. In prior research, we have implemented the DCB library, which has two policies for computation time reduction or power reduction. In this paper, we show that the two policies provided by the DCB library can be used together to achieve both computation time reduction and power consumption reduction.

    DOI: 10.1145/3636480.3637221

    Scopus

    その他リンク: https://dblp.uni-trier.de/db/conf/hpcasia/hpcasia2024w.html#KawaiIHH24

  14. FMOプログラムABINIT-MPの整備状況2023

    望月 祐志, 中野 達也, 坂倉 耕太, 奥脇 弘次, 土居 英男, 加藤 季広, 滝沢 寛之, 成瀬 彰, 大島 聡史, 星野 哲也, 片桐 孝洋

      23 巻 ( 1 ) 頁: 4 - 8   2024年

     詳細を見る

    記述言語:日本語   出版者・発行元:日本コンピュータ化学会  

    <p>In August 2023, we released the latest version of our ABINIT-MP program, Open Version 2 Revision 8. In this version, the most commonly used FMO-MP2 calculations are even faster than in the previous Revision 4. It is now also possible to calculate excitation and ionization energies for regions of interest. Improved interaction analysis is also available. In addition, we have started GPU-oriented modifications. In this preliminary report, we present the current status of ABINIT-MP.</p>

    DOI: 10.2477/jccj.2024-0001

    CiNii Research

  15. Implementing Fast Modal Filtering of SCALE-DG

    Ren, XZB; Kawai, Y; Tomita, H; Nishizawa, S; Katagiri, T; Kawai, M; Hoshino, T; Nagai, T

    2024 IEEE INTERNATIONAL CONFERENCE ON CLUSTER COMPUTING WORKSHOPS, CLUSTER WORKSHOPS 2024     頁: 150 - 151   2024年

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:Proceedings 2024 IEEE International Conference on Cluster Computing Workshops Cluster Workshops 2024  

    For future high-resolution atmospheric simulations, a dynamical core using the discontinuous Galerkin Method (DGM), called SCALE-DG [1], is being developed as an option for high-order fluid schemes in the SCALE library [2]. Compared to the traditional Finite Element Method (FEM), the DGM allows for discontinuities across element boundaries. When evaluating a first-order derivative operator, we use the values at nodes of own element and at common boundaries of neighbor elements. This feature allows most computations to be performed independently for each element. Thus, we can take full advantage of data locality. Additionally, the DGM can achieve high-order accuracy by choosing high-order polynomial basis functions within each element. Therefore, DGM is suitable for high-resolution atmospheric simulations with high-order numerical accuracy, and we expect the computational performance to be highly desirable on modern computer architectures.

    DOI: 10.1109/CLUSTERWorkshops61563.2024.00033

    Web of Science

    Scopus

    その他リンク: https://dblp.uni-trier.de/db/conf/cluster/clusterw2024.html#RenKTNKKHN24

  16. Performance Evaluation of CMOS Annealing with Support Vector Machine.

    Ryoga Fukuhara, Makoto Morishita, Takahiro Katagiri, Masatoshi Kawai, Toru Nagai, Tetsuya Hoshino

    CoRR   abs/2404.15752 巻   2024年

     詳細を見る

    掲載種別:研究論文(学術雑誌)  

    DOI: 10.48550/arXiv.2404.15752

  17. スーパーコンピュータ「不老」の湧水噴霧による節電効果の再評価

    山田 一成, 田島 嘉則, 高橋 一郎, 林 秀和, 片桐 孝洋, 大島 聡史, 星野 哲也, 永井 亨

    大学ICT推進協議会年次大会論文集   2023 巻 ( 0 ) 頁: 67 - 74   2023年12月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人 大学ICT推進協議会  

    名古屋大学情報基盤センターのスーパーコンピュータ「不老」は 2020 年7 月から運用を開始して3年ほど経った.このシステムには情報基盤センターの 地下の湧水を利用して冷却設備の一部を冷却するシステムが組み込まれている.その湧水を利用したシステムにおける節電効果について,昨年に続き評価を実施したので報告するとともに,スーパーコンピュータ「不老」の電力事情についても紹介する.

    DOI: 10.24669/axies.2023.0_67

    CiNii Research

  18. Azure CycleCloud利用環境と仮想マシン上でのベンチマークテスト結果

    永井 亨, 五十木 秀一, 河合 直聡, 片桐 孝洋, 星野 哲也

    大学ICT推進協議会年次大会論文集   2023 巻 ( 0 ) 頁: 81 - 88   2023年12月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人 大学ICT推進協議会  

    パフリッククラウドの利用環境の調査を主な目的としてMicrosoft Azureを対象にした仮想マシンの性能測定を行った.具体的には名古屋大学情報基盤センターと日本マイクロソフト社との共同研究のもとでHPC利用環境に特化したAzure CycleCloudを使用して種々のベンチマークプログラムを仮想マシン上で実行した.本稿ではAzure CycleCloudの利用環境と仮想マシン上でのベンチマークテスト結果について報告し,スーパーコンピュータシステムとパブリッククラウドの連携について考察する.

    DOI: 10.24669/axies.2023.0_81

    CiNii Research

  19. Auto-Tuning Mixed-precision Computation by Specifying Multiple Regions

    Ren X., Kawai M., Hoshino T., Katagiri T., Nagai T.

    Proceedings 2023 11th International Symposium on Computing and Networking Candar 2023     頁: 175 - 181   2023年11月

     詳細を見る

    掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:Proceedings 2023 11th International Symposium on Computing and Networking Candar 2023  

    Mixed-precision computation is a promising method for substantially increasing the speed of numerical computations. However, using mixed-precision data is a double-edged sword. Although it can improve the computational performance, the reduction in precision brings more uncertainties and errors. It is necessary to determine which variables can be represented with a lower-precision format without affecting the accuracy of the results. Hence, much effort is spent on selecting appropriate variables while considering the execution time and numerical accuracy. Auto-Tuning (AT) is one of several technologies that can assist in eliminating this intensive work. In this study, we investigated an AT strategy for the 'Blocks' directive in the auto-Tuning language ppOpen-AT to tune multiple regions of a program and evaluated the effectiveness. A benchmark program of the nonhydrostatic icosahedral atmospheric model (NICAM), which is a global cloud resolving model, was considered as a study case. Experimental results indicated that when a single part of the program could perform well in the mixed-precision computation, a combination achieved a better performance. When used on the Flow Type I Subsystem (The Fujitsu PRIMEHPC FX1000), this method achieved almost 1.27× speedup compared with the NICAM benchmark program using all double-precision data.

    DOI: 10.1109/candar60563.2023.00031

    Scopus

  20. GPUスパコンを用いたPETの四次元再構成

    大島 聡史, 湯淺 義尚, 松村 海飛, 横田 達也, 本谷 秀堅, 坂田 宗之, 木村 裕一, 片桐 孝洋, 永井 亨, 塙 敏博, 星野 哲也

    Medical Imaging Technology   41 巻 ( 4-5 ) 頁: 150 - 156   2023年11月

     詳細を見る

    記述言語:日本語   出版者・発行元:日本医用画像工学会  

    <p>医用画像処理技術の発達により,生体の内部を視覚的に理解するためのさまざまな技術が開発され,利用されている.しかし,それらにより直接的に得ることができるのは画像や映像であり,診断は医師など人の手によって行われている.これらの労力を軽減するソフトウェアへの期待は大きく,すでに医療の現場で利用されている技術も増えてきているが,医療(医用画像)と計算機技術の両方の知識と技術が必要なため,対象は限られている.そこで本研究では,医用画像処理分野と高性能計算分野の研究者が協力してPET における画像再構成の高速化と大規模化に取り組んでいる.本稿ではその取り組みの内容とこれまでに得られた成果を紹介する.</p>

    DOI: 10.11409/mit.41.150

    CiNii Research

  21. Implementation of Radio Wave Propagation using RT Cores and Consideration of Programming Models

    Hashinoki, S; Ohshima, S; Katagiri, T; Nagai, T; Hoshino, T

    2023 IEEE INTERNATIONAL PARALLEL AND DISTRIBUTED PROCESSING SYMPOSIUM WORKSHOPS, IPDPSW     頁: 673 - 681   2023年

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:2023 IEEE International Parallel and Distributed Processing Symposium Workshops Ipdpsw 2023  

    With the NVIDIA Turing architecture generation, several NVIDIA graphics processing units (GPUs) have introduced ray tracing acceleration hardware (RT cores). Ray tracing processing can be regarded as a simulation of wave and particle propagation, collision, and reflection. Therefore, it is expected to be applied to computational science and high-performance computing. However, few studies have been conducted using RT cores. The purpose of this research is to demonstrate the use of RT cores in the scientific and technical computing fields. We implemented a radio wave propagation loss calculation with the programmable ray tracing application framework OptiX and evaluated its performance. Furthermore, we investigated the challenges of reducing the description of framework-specific settings and the needs of hardware allocation. In the simple two spheres experiment, the RT core implementation showed the highest performance. Moreover, the acceleration was super linear scaling, between (10000, 5000) and (20000, 10000). In the experiment with a sphere and planes, the performance achieved by the RT cores was up to approximately 390 times higher than the parallel execution of the BVH search algorithm. We also proved that a large number of RT cores yielded higher performance. In the open data problem space experiment, we evaluated various GPUs and revealed that a larger number of RT cores is effective. These results show that RT cores are sufficiently effective for radio propagation calculations with an adequate number of ray projections. Through this research, we contributed to the RT core use in computational science by proposing an implementation method for ray tracing applications and revealing the effects of RT cores in radio wave propagation loss calculations.

    DOI: 10.1109/IPDPSW59300.2023.00115

    Web of Science

    Scopus

    その他リンク: https://dblp.uni-trier.de/db/conf/ipps/ipdps2023w.html#HashinokiOKNH23

  22. Large-scale earthquake sequence simulations on 3D nonplanar faults using the boundary element method accelerated by lattice H-matrices Open Access

    So Ozawa, Akihiro Ida, Tetsuya Hoshino, Ryosuke Ando

    Geophysical Journal International   232 巻 ( 3 ) 頁: 1471 - 1481   2022年10月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)   出版者・発行元:Oxford University Press (OUP)  

    Summary

    Large-scale earthquake sequence simulations using the boundary element method (BEM) incur extreme computational costs through multiplying a dense matrix with a slip rate vector. Hierarchical matrices (H-matrices) have often been used to accelerate this multiplication. However, the complexity of the structures of the H-matrices and the communication costs between processors limit their scalability, and they therefore cannot be used efficiently in distributed memory computer systems. Lattice H-matrices have recently been proposed as a tool to improve the parallel scalability of H-matrices. In this study, we developed a method for earthquake sequence simulations applicable to 3D nonplanar faults with lattice H-matrices. We present a simulation example and verify the mesh convergence of our method for a 3D nonplanar thrust fault using rectangular and triangular discretizations. We also performed performance and scalability analyses of our code. Our simulations, using over ${10^5}$ degrees of freedom, demonstrated a parallel acceleration beyond ${10^4}$ MPI processors and a &amp;gt; 10-fold acceleration over the best performance when the normal H-matrices are used. Using this code, we can perform unprecedented large-scale earthquake sequence simulations on geometrically complex faults with supercomputers. The software is made an open-source and freely available.

    DOI: 10.1093/gji/ggac386

    Web of Science

    arXiv

  23. Optimizations of H-matrix-vector Multiplication for Modern Multi-core Processors.

    Tetsuya Hoshino, Akihiro Ida, Toshihiro Hanawa

    CLUSTER     頁: 462 - 472   2022年

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:IEEE  

    DOI: 10.1109/CLUSTER51413.2022.00056

    Web of Science

    その他リンク: https://dblp.uni-trier.de/db/conf/cluster/cluster2022.html#HoshinoIH22

  24. Fortran標準規格do concurrentを用いたGPUオフローディング手法の評価 Open Access

    星野 哲也, 塙 敏博

    情報処理学会研究報告(Web)   2022-HPC-183 巻   頁: 1 - 8   2022年

  25. A64FXにおける階層型行列演算の性能評価 Open Access

    星野 哲也, 伊田 明弘, 塙 敏博

    情報処理学会研究報告(Web)   2021-HPC-180 巻   頁: 1 - 8   2021年

  26. Large-scale earthquake sequence simulations of 3D geometrically complex faults using the boundary element method accelerated by lattice H-matrices on distributed memory computer systems

    伊田 明弘, 星野 哲也

    arXiv preprint   - 巻   頁: 1 - 26   2021年

     詳細を見る

  27. A64FXにおけるテンポラルブロッキングの実装と性能評価 Open Access

    星野 哲也, 塙 敏博

    情報処理学会研究報告ハイパフォーマンスコンピューティング   2021-HPC-178 巻   頁: 1 - 8   2021年

  28. Preliminary development of training environment for deep learning on supercomputer system 査読有り Open Access

    Y. Nomura, I. Sato, T. Hanawa, S. Hanaoka, T. Nakao, T. Takenaga, D. Sato, T. Hoshino, Y. Sekiya, S. Ohshima, N. Hayashi, O. Abe

    International Journal of Computer Assisted Radiology and Surgery   13 巻 ( Issue 1 supplement ) 頁: S105 - S106   2018年6月

     詳細を見る

    掲載種別:研究論文(国際会議プロシーディングス)  

    DOI: 10.1007/s11548-018-1766-y

  29. 有限要素法における係数行列生成部のマルチコア・メニィコア向け最適化 Open Access

    中島研吾, 中島研吾, 星野哲也, 星野哲也, 成瀬彰, 塙敏博, 三木洋平

    情報処理学会研究報告(Web)   2018 巻 ( HPC-163 ) 頁: Vol.2018‐HPC‐163,No.28,1‐8 (WEB ONLY)   2018年2月

     詳細を見る

    記述言語:日本語  

    Open Access

    J-GLOBAL

  30. Load-Balancing-Aware Parallel Algorithms of H-Matrices with Adaptive Cross Approximation for GPUs. 査読有り

    Tetsuya Hoshino, Akihiro Ida, Toshihiro Hanawa, Kengo Nakajima

    IEEE International Conference on Cluster Computing, CLUSTER 2018, Belfast, UK, September 10-13, 2018     頁: 35 - 45   2018年

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:IEEE Computer Society  

    DOI: 10.1109/CLUSTER.2018.00016

    Web of Science

  31. Design of Parallel BEM Analysis Framework for SIMD Processors 査読有り

    星野 哲也

    International Conference on Computational Science   10860 巻   頁: 601 - 613   2018年

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)  

    DOI: 10.1007/978-3-319-93698-7_46

    Web of Science

    Scopus

  32. スーパーコンピュータ上でのDeep Learning学習環境の初期構築

    野村行弘, 佐藤一誠, 佐藤一誠, 佐藤一誠, 塙敏博, 花岡昇平, 中尾貴祐, 竹永智美, 佐藤大介, 星野哲也, 関谷勇司, 大島聡史, 林直人, 阿部修

    電子情報通信学会技術研究報告   117 巻 ( 281(MI2017 47-62) ) 頁: 1‐2   2017年10月

     詳細を見る

    記述言語:日本語  

    J-GLOBAL

  33. Pascal vs KNL: Performance Evaluation with ICCG Solve 査読有り

    Tetsuya Hoshino, Satoshi Ohshima, Toshihiro Hanawa, Kengo Nakaima, Akihiro Ida

    HPC in Asia Workshop Poster Session, ISC High Performance 2017     2017年6月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

  34. OpenACCを用いたICCG法ソルバーのPascal GPUにおける性能評価 Open Access

    星野哲也, 大島聡史, 塙敏博, 中島研吾, 伊田明宏

    情報処理学会研究報告(Web)   2017 巻 ( HPC-158 ) 頁: Vol.2017‐HPC‐158,No.18,1‐9 (WEB ONLY) - 9   2017年3月

     詳細を見る

    記述言語:日本語   掲載種別:研究論文(学術雑誌)  

    Open Access

    J-GLOBAL

  35. A Directive-based Data Layout Abstraction for Performance Portability of OpenACC Applications 査読有り

    Tetsuya Hoshino, Naoya Maruyama, Satoshi Matsuoka

    PROCEEDINGS OF 2016 IEEE 18TH INTERNATIONAL CONFERENCE ON HIGH PERFORMANCE COMPUTING AND COMMUNICATIONS; IEEE 14TH INTERNATIONAL CONFERENCE ON SMART CITY; IEEE 2ND INTERNATIONAL CONFERENCE ON DATA SCIENCE AND SYSTEMS (HPCC/SMARTCITY/DSS)     頁: 1147 - 1154   2016年

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:IEEE  

    Directive-based programming interfaces such as OpenACC and OpenMP are becoming more prevalent in application development targeting accelerators, in particular when porting existing CPU-only code. Unlike vendor-specific alternatives such as CUDA, they are designed to be portable across different accelerators, and therefore once necessary directives are added to an existing CPU-only code, it can be executed on different accelerator architectures depending on the availability of supporting compilers. However, it does not automatically mean that such code runs efficiently on different architectures, and in fact, architecture-specific coding such as choosing optimal data layouts is almost mandatory for optimal performance, imposing a significant burden if implemented manually. Towards realizing performance portability in accelerator programming, we propose a set of extended directives that allow the programmer to optimize data layouts for a given accelerator without modifying original program code. Unlike the manual approach, the code change is confined in the directives with the original code kept as it is. This paper evaluates the effectiveness of our proposed extensions in the OpenACC standard by extending UPACS and CCS-QCD OpenACC applications. A prototype source-to-source translator for the extensions achieves 123% and 120% of the baseline performance, respectively, which are comparable to manually tuned versions.

    DOI: 10.1109/HPCC-SmartCity-DSS.2016.34

    Web of Science

  36. An OpenACC extension for data layout transformation 査読有り

    Tetsuya Hoshino, Naoya Maruyama, Satoshi Matsuoka

    Proceedings of WACCPD 2014: 1st Workshop on Accelerator Programming Using Directives - Held in Conjunction with SC 2014: The International Conference for High Performance Computing, Networking, Storage and Analysis     頁: 12 - 18   2015年4月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:Institute of Electrical and Electronics Engineers Inc.  

    OpenACC is gaining momentum as an implicit and portable interface in porting legacy CPU-based applications to heterogeneous, highly parallel computational environment involving many-core accelerators such as GPUs and Intel Xeon Phi. OpenACC provides a set of loop directives similar to OpenMP for the parallelization and also to manage data movement, attaining functional portability across different heterogeneous devices
    however, the performance portability of OpenACC is said to be insufficient due to the characteristics of different target devices, especially those regarding memory layouts, as automated attempts by the compilers to adapt is currently difficult. We are currently working to propose a set of directives to allow compilers to have better semantic information for adaptation
    here, we particularly focus on data layout such as Structure of Arrays, advantageous data structure for GPUs, as opposed to Array of Structures, which exhibits good performance on CPUs. We propose a directive extension to OpenACC that allows the users to flexibility specify optimal layouts, even if the data structures are nested. Performance results show that we gain as much as 96 % in performance for CPUs and 165% for GPUs compared to programs without such directives, essentially attaining both functional and performance portability in OpenACC.

    DOI: 10.1109/WACCPD.2014.12

    Scopus

  37. CUDA vs OpenACC: Performance Case Studies with Kernel Benchmarks and a Memory-Bound CFD Application11 査読有り

    Tetsuya Hoshino, Naoya Maruyama, Satoshi Matsuoka, Ryoji Takaki

    PROCEEDINGS OF THE 2013 13TH IEEE/ACM INTERNATIONAL SYMPOSIUM ON CLUSTER, CLOUD AND GRID COMPUTING (CCGRID 2013)     頁: 136 - 143   2013年

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:IEEE  

    OpenACC is a new accelerator programming interface that provides a set of OpenMP-like loop directives for the programming of accelerators in an implicit and portable way. It allows the programmer to express the offloading of data and computations to accelerators, such that the porting process for legacy CPU-based applications can be significantly simplified. This paper focuses on the performance aspects of OpenACC using two microbenchmarks and one real-world computational fluid dynamics application. Both evaluations show that in general OpenACC performance is approximately 50% lower than CUDA. However, for some applications it can reach up to 98% with careful manual optimizations. The results also indicate several limitations of the OpenACC specification that hamper full use of the GPU hardware resources, resulting in a significant performance gap when compared to a highly tuned CUDA code. The lack of a programming interface for the shared memory in particular results in as much as three times lower performance.

    DOI: 10.1109/CCGrid.2013.12

    Web of Science

▼全件表示

MISC 53

  1. Improving HPC Code Generation Capability of LLMs via Online Reinforcement Learning with Real-Machine Benchmark Rewards

    Ryo Mikasa, Shun-ichiro Hayashi, Daichi Mukunoki, Tetsuya Hoshino, Takahiro Katagiri  

        2026年2月

     詳細を見る

    Large language models (LLMs) have demonstrated strong code generation capabilities, yet the runtime performance of generated code is not guaranteed, and there have been few attempts to train LLMs using runtime performance as a reward in the HPC domain. We propose an online reinforcement learning approach that executes LLM-generated code on a supercomputer and directly feeds back the measured runtime performance (GFLOPS) as a reward. We further introduce a Staged Quality-Diversity (SQD) algorithm that progressively varies the permitted optimization techniques on a per-problem basis, enabling the model to learn code optimization from diverse perspectives. We build a distributed system connecting a GPU training cluster with a CPU benchmarking cluster, and train Qwen2.5 Coder 14B on a double-precision matrix multiplication task using Group Relative Policy Optimization (GRPO). Through two experiments, we show that reinforcement learning combining runtime performance feedback with staged optimization can improve the HPC code generation capability of LLMs.

    arXiv

    その他リンク: https://arxiv.org/pdf/2602.12049v1

  2. Learning-Augmented Performance Model for Tensor Product Factorization in High-Order FEM

    Xuanzhengbo Ren, Yuta Kawai, Tetsuya Hoshino, Hirofumi Tomita, Takahiro Katagiri, Daichi Mukunoki, Seiya Nishizawa  

    CoRRabs/2601.06886 巻   2026年1月

     詳細を見る

    Accurate performance prediction is essential for optimizing scientific applications on modern high-performance computing (HPC) architectures. Widely used performance models primarily focus on cache and memory bandwidth, which is suitable for many memory-bound workloads. However, it is unsuitable for highly arithmetic intensive cases such as the sum-factorization with tensor $n$-mode product kernels, which are an optimization technique for high-order finite element methods (FEM). On processors with relatively high single instruction multiple data (SIMD) instruction latency, such as the Fujitsu A64FX, the performance of these kernels is strongly influenced by loop-body splitting strategies. Memory-bandwidth-oriented models are therefore not appropriate for evaluating these splitting configurations, and a model that directly reflects instruction-level efficiency is required. To address this need, we develop a dependency-chain-based analytical formulation that links loop-splitting configurations to instruction dependencies in the tensor $n$-mode product kernel. We further use XGBoost to estimate key parameters in the analytical model that are difficult to model explicitly. Evaluations show that the learning-augmented model outperforms the widely used standard Roofline and Execution-Cache-Memory (ECM) models. On the Fujitsu A64FX processor, the learning-augmented model achieves mean absolute percentage errors (MAPE) between 1% and 24% for polynomial orders ($P$) from 1 to 15. In comparison, the standard Roofline and ECM models yield errors of 42%-256% and 5%-117%, respectively. On the Intel Xeon Gold 6230 processor, the learning-augmented model achieves MAPE values from 1% to 13% for $P$=1 to $P$=14, and 24% at $P$=15. In contrast, the standard Roofline and ECM models produce errors of 1%-73% and 8%-112% for $P$=1 to $P$=15, respectively.

    DOI: 10.48550/arXiv.2601.06886

    arXiv

    その他リンク: https://arxiv.org/pdf/2601.06886v1

  3. 3Dify: a Framework for Procedural 3D-CG Generation Assisted by LLMs Using MCP and RAG

    Shun-ichiro Hayashi, Daichi Mukunoki, Tetsuya Hoshino, Satoshi Ohshima, Takahiro Katagiri  

    CoRRabs/2510.04536 巻   2025年10月

     詳細を見る

    This paper proposes "3Dify," a procedural 3D computer graphics (3D-CG)
    generation framework utilizing Large Language Models (LLMs). The framework
    enables users to generate 3D-CG content solely through natural language
    instructions. 3Dify is built upon Dify, an open-source platform for AI
    application development, and incorporates several state-of-the-art LLM-related
    technologies such as the Model Context Protocol (MCP) and Retrieval-Augmented
    Generation (RAG). For 3D-CG generation support, 3Dify automates the operation
    of various Digital Content Creation (DCC) tools via MCP. When DCC tools do not
    support MCP-based interaction, the framework employs the Computer-Using Agent
    (CUA) method to automate Graphical User Interface (GUI) operations. Moreover,
    to enhance image generation quality, 3Dify allows users to provide feedback by
    selecting preferred images from multiple candidates. The LLM then learns
    variable patterns from these selections and applies them to subsequent
    generations. Furthermore, 3Dify supports the integration of locally deployed
    LLMs, enabling users to utilize custom-developed models and to reduce both time
    and monetary costs associated with external API calls by leveraging their own
    computational resources.

    DOI: 10.48550/arXiv.2510.04536

    arXiv

    その他リンク: http://arxiv.org/pdf/2510.04536v1

  4. VibeCodeHPC: An Agent-Based Iterative Prompting Auto-Tuner for HPC Code Generation Using LLMs

    Shun-ichiro Hayashi, Koki Morita, Daichi Mukunoki, Tetsuya Hoshino, Takahiro Katagiri  

    CoRRabs/2510.00031 巻   2025年9月

     詳細を見る

    We propose VibeCodeHPC, an automatic tuning system for HPC programs based on
    multi-agent LLMs for code generation. VibeCodeHPC tunes programs through
    multi-agent role allocation and iterative prompt refinement. We describe the
    system configuration with four roles: Project Manager (PM), System Engineer
    (SE), Programmer (PG), and Continuous Delivery (CD). We introduce dynamic agent
    deployment and activity monitoring functions to facilitate effective
    multi-agent collaboration. In our case study, we convert and optimize CPU-based
    matrix-matrix multiplication code written in C to GPU code using CUDA. The
    multi-agent configuration of VibeCodeHPC achieved higher-quality code
    generation per unit time compared to a solo-agent configuration. Additionally,
    the dynamic agent deployment and activity monitoring capabilities facilitated
    more effective identification of requirement violations and other issues.

    DOI: 10.48550/arXiv.2510.00031

    arXiv

    その他リンク: http://arxiv.org/pdf/2510.00031v1

  5. Towards Generalized Parameter Tuning in Coherent Ising Machines: A Portfolio-Based Approach

    Tatsuro Hanyu, Takahiro Katagiri, Daichi Mukunoki, Tetsuya Hoshino  

    CoRRabs/2507.20295 巻   2025年7月

     詳細を見る

    Coherent Ising Machines (CIMs) have recently gained attention as a promising
    computing model for solving combinatorial optimization problems. In particular,
    the Chaotic Amplitude Control (CAC) algorithm has demonstrated high solution
    quality, but its performance is highly sensitive to a large number of
    hyperparameters, making efficient tuning essential. In this study, we present
    an algorithm portfolio approach for hyperparameter tuning in CIMs employing
    Chaotic Amplitude Control with momentum (CACm) algorithm. Our method
    incorporates multiple search strategies, enabling flexible and effective
    adaptation to the characteristics of the hyperparameter space. Specifically, we
    propose two representative tuning methods, Method A and Method B. Method A
    optimizes each hyperparameter sequentially with a fixed total number of trials,
    while Method B prioritizes hyperparameters based on initial evaluations before
    applying Method A in order. Performance evaluations were conducted on the
    Supercomputer "Flow" at Nagoya University, using planted Wishart instances and
    Time to Solution (TTS) as the evaluation metric. Compared to the baseline
    performance with best-known hyperparameters, Method A achieved up to 1.47x
    improvement, and Method B achieved up to 1.65x improvement. These results
    demonstrate the effectiveness of the algorithm portfolio approach in enhancing
    the tuning process for CIMs.

    DOI: 10.48550/arXiv.2507.20295

    arXiv

    その他リンク: http://arxiv.org/pdf/2507.20295v1

  6. Performance Evaluation of General Purpose Large Language Models for Basic Linear Algebra Subprograms Code Generation

    Daichi Mukunoki, Shun-ichiro Hayashi, Tetsuya Hoshino, Takahiro Katagiri  

    CoRRabs/2507.04697 巻   2025年7月

     詳細を見る

    Generative AI technology based on Large Language Models (LLM) has been
    developed and applied to assist or automatically generate program codes. In
    this paper, we evaluate the capability of existing general LLMs for Basic
    Linear Algebra Subprograms (BLAS) code generation for CPUs. We use two LLMs
    provided by OpenAI: GPT-4.1, a Generative Pre-trained Transformer (GPT) model,
    and o4-mini, one of the o-series of Reasoning models. Both have been released
    in April 2025. For the routines from level-1 to 3 BLAS, we tried to generate
    (1) C code without optimization from routine name only, (2) C code with basic
    performance optimizations (thread parallelization, SIMD vectorization, and
    cache blocking) from routine name only, and (3) C code with basic performance
    optimizations based on Fortran reference code. As a result, we found that
    correct code can be generated in many cases even when only routine name are
    given. We also confirmed that thread parallelization with OpenMP, SIMD
    vectorization, and cache blocking can be implemented to some extent, and that
    the code is faster than the reference code.

    DOI: 10.48550/arXiv.2507.04697

    arXiv

    その他リンク: http://arxiv.org/pdf/2507.04697v1

  7. ABINIT-MPプログラムの現状と今後 招待有り 査読有り

    望月 祐志, 中野 達也, 坂倉 耕太, 土居 英男, 奥脇 弘次, 加藤 季広, 滝沢 寛之, 大島 聡史, 星野 哲也, 片桐 孝洋  

    J. Comp. Chem. Jpn.23 巻 ( 4 ) 頁: 85 - 97   2024年12月

     詳細を見る

    記述言語:日本語   掲載種別:記事・総説・解説・論説等(学術雑誌)   出版者・発行元:日本コンピュータ化学会  

    <p>The fragment molecular orbital (FMO) program ABINIT-MP has a quarter-century history, and related research and development of the Open Version 2 series is currently underway. This paper first summarizes the current status of the latest Revision 8 (released on August 2023). It then describes future improvements and enhancements, including GPU support. The connection with coarse-grained simulation (dissipative particle dynamics) and the possibility of cooperation with quantum computation are also touched upon.</p>

    DOI: 10.2477/jccj.2024-0022

    Web of Science

    CiNii Research

  8. Azure CycleCloud利用環境の調査とスパコンセンター・クラウド連携に関する考察

    永井 亨, 五十木 秀一, 河合 直聡, 片桐 孝洋, 星野 哲也  

    学術情報処理研究28 巻 ( 1 ) 頁: 114 - 124   2024年11月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人 大学ICT推進協議会  

    パブリッククラウド利用環境の調査を主な目的としてMicrosoft Azureを対象にした仮想マシンの性能測定を行った.具体的には名古屋大学情報基盤センターと日本マイクロソフト社との共同研究のもとでHPC利用環境に特化したAzure CycleCloudを使用して種々のベンチマークプログラムを仮想マシン上で実行した.本稿ではAzure CycleCloudの利用環境と仮想マシン上でのベンチマークテスト結果について報告し,スーパーコンピュータセンターとパブリッククラウドの連携について考察する.

    DOI: 10.24669/jacn.28.1_114

    CiNii Research

  9. FMOプログラムABINIT-MPのGPU化への対応—Customization of GPU Performance Tuning for ABINIT-MP

    坂倉 耕太, 望月 祐志, 中野 達也, 成瀬 彰, 大島 聡史, 星野 哲也, 片桐 考洋  

    計算工学講演会論文集 = Proceedings of the Conference on Computational Engineering and Science / 日本計算工学会 編29 巻   頁: 1182 - 1184   2024年6月

     詳細を見る

    記述言語:日本語   出版者・発行元:東京 : 日本計算工学会  

    その他リンク: https://ndlsearch.ndl.go.jp/books/R000000004-I033560385

  10. FMOプログラムABINIT-MPの整備状況2023 招待有り 査読有り

    望月 祐志, 中野 達也, 坂倉 耕太, 奥脇 弘次, 土居 英男, 加藤 季広, 滝沢 寛之, 成瀬 彰, 大島 聡史, 星野 哲也, 片桐 孝洋  

    J. Comp. Chem. Jpn.23 巻 ( 1 ) 頁: 4 - 8   2024年3月

     詳細を見る

    記述言語:日本語   掲載種別:速報,短報,研究ノート等(学術雑誌)   出版者・発行元:日本コンピュータ化学会  

    In August 2023, we released the latest version of our ABINIT-MP program, Open Version 2 Revision 8. In this version, the most commonly used FMO-MP2 calculations are even faster than in the previous Revision 4. It is now also possible to calculate excitation and ionization energies for regions of interest. Improved interaction analysis is also available. In addition, we have started GPU-oriented modifications. In this preliminary report, we present the current status of ABINIT-MP.

    DOI: 10.2477/jccj.2024-0001

    CiNii Research

  11. SVMによる誤差を含むクラス分類におけるCMOSアニーリングマシンの性能評価

    水木, 直也, 福原, 諒河, 森下, 誠, 河合, 直聡, 片桐, 孝洋, 星野, 哲也, 永井, 亨  

    第86回全国大会講演論文集2024 巻 ( 1 ) 頁: 19 - 20   2024年3月

     詳細を見る

    記述言語:日本語   出版者・発行元:情報処理学会  

    量子アニーリングが注目されており,その中でも疑似量子アニーラのサービスが展開されている.一方で、サポートベクターマシン(SVM)は広くクラス分類に使われているが,疑似量子アニーラでの評価は十分でない.そこで本研究では,疑似量子アニーラの一つであるCMOSアニーリングマシンでSVMにより誤差を有するクラス分類を行い,その性能を評価する.性能評価では2値分類問題における正解率を評価対象とし,訓練データの誤差の割合ごとに,従来のCPUにおけるSVMとCMOSアニーリングマシンにおけるSVMを比較する.

    CiNii Research

  12. ICTCG法の実行時間予測モデルに対する説明可能なAIの適用

    中谷, 崇真, 河合, 直聡, 片桐, 孝洋, 星野, 哲也, 永井, 亨  

    第86回全国大会講演論文集2024 巻 ( 1 ) 頁: 31 - 32   2024年3月

     詳細を見る

    記述言語:日本語   出版者・発行元:情報処理学会  

    AIを使用することで複雑な計算に対して入力データから処理結果や実行時間などを予測することが研究されているが、その予測の妥当性を検証することは効率的で誤りのない実行のために必須である。そこで本研究では不完全前処理CG法(ICTCG法)の実行時間の予測を行列画像及びICTCG法のパラメータを入力として行う機械学習モデルを生成、説明可能なAI(XAI)ツールとしてSHAPを用いて説明することによってAIの回答の妥当性を検証することを目的とする。ここでICTCG法とは、共役勾配法(CG法)などの反復法の前処理に連立一次方程式の解法として用いられる不完全コレスキー分解(IC分解)前処理に閾値の値を設定した数値計算アルゴリズムである。

    CiNii Research

  13. LAPACKを用いた固有値計算におけるテストシーケンスの最適化

    樫村, 寛大, 森崎, 修司, 片桐, 孝洋, 河合, 直聡, 永井, 亨, 星野, 哲也  

    第86回全国大会講演論文集2024 巻 ( 1 ) 頁: 199 - 200   2024年3月

     詳細を見る

    記述言語:日本語   出版者・発行元:情報処理学会  

    科学技術計算において数値計算ソフトウェアのテスト効率化は非常に重要である。本研究では数値解析ライブラリであるLAPACKを用いて、固有値計算におけるテストシーケンスの最適化を目的とする。ここでテストシーケンスとは固有値計算の理論解がわかっている問題を与え、計算結果がその範囲内に入っているかをチェックする系列である。ソフトウェア工学の観点から数値計算ソフトウェアにおけるテストシーケンスの最適化について評価した例はあまりない。本研究ではまず、LAPACKのライブラリに意図的にバグを発生させ、テストシーケンスを入れ替える最適化によってテスト時間が短縮できるかを検討する。

    CiNii Research

  14. OpenACCを用いた地震シミュレーションのGPU並列化

    百武, 尚輝, 星野, 哲也, 小澤, 創, 伊田, 明弘, 安藤, 亮輔, 河合, 直聡, 永井, 亨, 片桐, 孝洋  

    第86回全国大会講演論文集2024 巻 ( 1 ) 頁: 33 - 34   2024年3月

     詳細を見る

    記述言語:日本語   出版者・発行元:情報処理学会  

    境界要素法(BEM)を用いた地震シミュレーションにおいて、大規模な密行列・ベクトル積が現れるため、シミュレーションを高速化するには、この演算を高速で行うことが必要である。従来のアプリケーションでは、密行列を格子H行列に近似した上で、OpenMPとMPIによるCPUを用いた並列化により、密行列・ベクトル積の高速化が行われていた。しかし、並列計算に適したGPUを用いた並列計算は実装されておらず、格子H行列・ベクトル積の高速化の余地が存在している。そこで、本研究では、対象のアプリケーションに対し、OpenACCを用いたGPU並列化による格子H行列・ベクトル積を実装し、その性能の評価を行った。

    CiNii Research

  15. CPU・GPU並列プログラミング入門(4)

    星野哲也, 中島研吾, 中島研吾  

    シミュレーション43 巻 ( 1 ) 頁: 45 - 52   2024年

     詳細を見る

    記述言語:日本語   出版者・発行元:東京 : 小宮山印刷工業  

    CiNii Research

    J-GLOBAL

    その他リンク: https://ndlsearch.ndl.go.jp/books/R000000004-I033543008

  16. 格子H行列を用いた地震シミュレーションのマルチGPU並列化

    百武尚輝, 星野哲也, 星野哲也, 小澤創, 小澤創, 伊田明弘, 安藤亮輔, 河合直聡, 永井亨, 片桐孝洋  

    情報処理学会研究報告(Web)2024 巻 ( HPC-195 )   2024年

     詳細を見る

  17. WaitIO+MPI Hybridによる異種システム間でのAllreduceの高速化

    植野貴大, 住元真司, 中島研吾, 中島研吾, 片桐孝洋, 大島聡史, 星野哲也, 河合直聡, 永井亨  

    情報処理学会研究報告(Web)2024 巻 ( HPC-196 )   2024年

     詳細を見る

  18. HPCカーネルベンチマークによるSapphire Rapids HBMの性能評価

    星野哲也, 河合直聡, 伊田明弘, 塙敏博, 片桐孝洋  

    情報処理学会研究報告(Web)2024 巻 ( HPC-193 )   2024年

     詳細を見る

  19. スーパーコンピュータ「不老」の湧水噴霧による節電効果の再評価

    山田 一成, 田島 嘉則, 高橋 一郎, 林 秀和, 片桐 孝洋, 大島 聡史, 星野 哲也, 永井 亨  

    大学ICT推進協議会年次大会論文集2023 巻 ( 0 ) 頁: 67 - 74   2023年12月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人 大学ICT推進協議会  

    名古屋大学情報基盤センターのスーパーコンピュータ「不老」は 2020 年7 月から運用を開始して3年ほど経った.このシステムには情報基盤センターの 地下の湧水を利用して冷却設備の一部を冷却するシステムが組み込まれている.その湧水を利用したシステムにおける節電効果について,昨年に続き評価を実施したので報告するとともに,スーパーコンピュータ「不老」の電力事情についても紹介する.

    DOI: 10.24669/axies.2023.0_67

    CiNii Research

  20. Azure CycleCloud利用環境と仮想マシン上でのベンチマークテスト結果

    永井 亨, 五十木 秀一, 河合 直聡, 片桐 孝洋, 星野 哲也  

    大学ICT推進協議会年次大会論文集2023 巻 ( 0 ) 頁: 81 - 88   2023年12月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人 大学ICT推進協議会  

    パフリッククラウドの利用環境の調査を主な目的としてMicrosoft Azureを対象にした仮想マシンの性能測定を行った.具体的には名古屋大学情報基盤センターと日本マイクロソフト社との共同研究のもとでHPC利用環境に特化したAzure CycleCloudを使用して種々のベンチマークプログラムを仮想マシン上で実行した.本稿ではAzure CycleCloudの利用環境と仮想マシン上でのベンチマークテスト結果について報告し,スーパーコンピュータシステムとパブリッククラウドの連携について考察する.

    DOI: 10.24669/axies.2023.0_81

    CiNii Research

  21. GPUスパコンを用いたPETの四次元再構成

    大島 聡史, 湯淺 義尚, 松村 海飛, 横田 達也, 本谷 秀堅, 坂田 宗之, 木村 裕一, 片桐 孝洋, 永井 亨, 塙 敏博, 星野 哲也  

    Medical Imaging Technology41 巻 ( 4-5 ) 頁: 150 - 156   2023年11月

     詳細を見る

    記述言語:日本語   出版者・発行元:日本医用画像工学会  

    医用画像処理技術の発達により,生体の内部を視覚的に理解するためのさまざまな技術が開発され,利用されている.しかし,それらにより直接的に得ることができるのは画像や映像であり,診断は医師など人の手によって行われている.これらの労力を軽減するソフトウェアへの期待は大きく,すでに医療の現場で利用されている技術も増えてきているが,医療(医用画像)と計算機技術の両方の知識と技術が必要なため,対象は限られている.そこで本研究では,医用画像処理分野と高性能計算分野の研究者が協力してPET における画像再構成の高速化と大規模化に取り組んでいる.本稿ではその取り組みの内容とこれまでに得られた成果を紹介する.

    DOI: 10.11409/mit.41.150

    CiNii Research

  22. CPU・GPU並列プログラミング入門(1)—Introduction to Parallel Programming on CPU and GPU(1)

    中島 研吾, 星野 哲也  

    シミュレーション = Journal of the Japan Society for Simulation Technology / 日本シミュレーション学会 編42 巻 ( 2 ) 頁: 103 - 109   2023年6月

     詳細を見る

    記述言語:日本語   出版者・発行元:小宮山印刷工業  

    CiNii Research

    その他リンク: https://ndlsearch.ndl.go.jp/books/R000000004-I032988217

  23. 数値計算ライブラリの自動チューニングにおけるXAI適用の試み—An Adaptation of XAI to Auto-tuning for Numerical Calculation Library

    青木 将太, 片桐 孝洋, 大島 聡史, 永井 亨, 星野 哲也  

    計算工学講演会論文集 = Proceedings of the Conference on Computational Engineering and Science / 日本計算工学会 編28 巻   頁: 904 - 907   2023年5月

     詳細を見る

    記述言語:日本語   出版者・発行元:日本計算工学会  

    その他リンク: https://ndlsearch.ndl.go.jp/books/R000000004-I032887313

  24. CPU・GPU並列プログラミング入門(2)

    中島研吾, 中島研吾, 星野哲也  

    シミュレーション42 巻 ( 3 ) 頁: 173 - 181   2023年

     詳細を見る

    記述言語:日本語   出版者・発行元:東京 : 小宮山印刷工業  

    CiNii Research

    J-GLOBAL

    その他リンク: https://ndlsearch.ndl.go.jp/books/R000000004-I033209226

  25. CPU・GPU並列プログラミング入門(3)

    星野哲也, 中島研吾, 中島研吾  

    シミュレーション42 巻 ( 4 ) 頁: 242 - 250   2023年

     詳細を見る

    記述言語:日本語   出版者・発行元:東京 : 小宮山印刷工業  

    CiNii Research

    J-GLOBAL

    その他リンク: https://ndlsearch.ndl.go.jp/books/R000000004-I033353067

  26. Fortran標準規格do concurrentを用いたGPUオフローディング手法の評価

    星野 哲也, 塙 敏博  

    情報処理学会研究報告(Web)2022-HPC-183 巻   頁: 1 - 8   2022年

  27. AMD製GPU・NVIDIA製GPU両対応direct N-body codeの実装と性能評価

    三木洋平, 塙敏博, 河合直聡, 星野哲也  

    日本天文学会年会講演予稿集2022 巻   2022年

     詳細を見る

  28. OpenMPを用いたGPUオフローディングの有効性の評価

    河合直聡, 三木洋平, 星野哲也, 塙敏博, 中島研吾, 中島研吾  

    情報処理学会研究報告(Web)2022 巻 ( HPC-183 )   2022年

     詳細を見る

  29. A64FXにおけるテンポラルブロッキングの実装と性能評価

    星野 哲也, 塙 敏博  

    研究報告ハイパフォーマンスコンピューティング(HPC)2021-HPC-178 巻 ( 17 ) 頁: 1 - 8   2021年3月

     詳細を見る

    担当区分:筆頭著者  

  30. 「計算・データ・学習」融合スーパーコンピュータシステム「Wisteria/BDEC-01」の概要

    中島研吾, 塙敏博, 下川辺隆史, 伊田明弘, 芝隼人, 三木洋平, 星野哲也, 有間英志, 河合直聡, 坂本龍一, 近藤正章, 岩下武史, 八代尚, 長尾大道, 松葉浩也, 荻田武史, 片桐孝洋, 古村孝志, 鶴岡弘, 市村強, 藤田航平  

    情報処理学会研究報告(Web)2021 巻 ( HPC-179 )   2021年

     詳細を見る

  31. 「計算・データ・学習」融合スーパーコンピュータシステムWisteria/BDEC-01の性能評価

    塙敏博, 中島研吾, 中島研吾, 下川辺隆史, 芝隼人, 三木洋平, 星野哲也, 河合直聡, 似鳥啓吾, 今村俊幸, 工藤周平, 中尾昌広  

    情報処理学会研究報告(Web)2021 巻 ( HPC-180 )   2021年

     詳細を見る

  32. A64FXにおける階層型行列演算の性能評価

    星野哲也, 伊田明弘, 伊田明弘, 塙敏博  

    情報処理学会研究報告(Web)2021 巻 ( HPC-180 ) 頁: 1 - 8   2021年

     詳細を見る

  33. Large-scale earthquake sequence simulations of 3D geometrically complex faults using the boundary element method accelerated by lattice H-matrices on distributed memory computer systems

    伊田 明弘, 星野 哲也  

    arXiv preprint- 巻   頁: 1 - 26   2021年

  34. An Optimization of H-matrix-vector Multiplication by Using Un-used Cores

    Tetsuya Hoshino, Toshihiro Hanawa, Akihiro Ida  

    HPC Asia 2020   2020年1月

  35. Numerical Linear Algebra Based on Lattice H-Matrices

    伊田 明弘, Ichitaro Yamazaki, Rio Yokota, Satoshi Ohshima, Tasuku Hiraishi, Takeshi Iwashita, Tetsuya Hoshino, Toshihiro Hanawa  

    HPC Asia   2020年1月

  36. メニーコアクラスタにおける階層型行列法の高速化に向けた性能評価

    星野哲也, 伊田明弘  

    計算工学講演会論文集(CD-ROM)24 巻   頁: ROMBUNNO.C‐07‐02   2019年6月

     詳細を見る

    記述言語:日本語   出版者・発行元:日本計算工学会  

    CiNii Research

    J-GLOBAL

  37. メニーコアプロセッサにおける高性能計算のための高レベル抽象化

    星野 哲也, Hoshino Tetsuya  

        2018年9月

     詳細を見る

    記述言語:英語  

    CiNii Research

  38. OpenCLを用いたFPGAによる階層型行列計算

    塙敏博, 伊田明弘, 星野哲也  

    情報処理学会研究報告(Web)2018 巻 ( HPC-163 ) 頁: Vol.2018‐HPC‐163,No.26,1‐8 (WEB ONLY)   2018年2月

     詳細を見る

    記述言語:日本語  

    J-GLOBAL

  39. 階層型行列計算のFPGAへの適用

    塙敏博, 伊田明弘, 星野哲也  

    情報処理学会研究報告(Web)2017 巻 ( HPC-161 ) 頁: Vol.2017‐HPC‐161,No.10,1‐10 (WEB ONLY)   2017年9月

     詳細を見る

    記述言語:日本語  

    J-GLOBAL

  40. 階層型行列法ライブラリHACApKを用いたアプリケーションのメニーコア向け最適化

    星野哲也, 伊田明弘, 塙敏博, 中島研吾  

    情報処理学会研究報告(Web)2017 巻 ( HPC-160 ) 頁: Vol.2017‐HPC‐160,No.15,1‐10 (WEB ONLY) - 10   2017年7月

     詳細を見る

    記述言語:日本語  

    J-GLOBAL

  41. GPU搭載スーパーコンピュータReedbush‐Hの性能評価

    塙敏博, 星野哲也, 中島研吾, 大島聡史, 伊田明弘  

    情報処理学会研究報告(Web)2017 巻 ( HPC-159 ) 頁: Vol.2017‐HPC‐159,No.9,1‐6 (WEB ONLY)   2017年4月

     詳細を見る

    記述言語:日本語  

    J-GLOBAL

  42. Xeon Phi+OmniPath環境におけるOpenMP,MPI性能最適化

    塙敏博, 星野哲也, 中島研吾, 大島聡史, 伊田明弘  

    情報処理学会研究報告(Web)2017 巻 ( HPC-158 ) 頁: Vol.2017‐HPC‐158,No.21,1‐8 (WEB ONLY)   2017年3月

     詳細を見る

    記述言語:日本語  

    J-GLOBAL

  43. ICCG法ソルバーのIntel Xeon Phi向け最適化

    中島研吾, 中島研吾, 大島聡史, 大島聡史, 塙敏博, 星野哲也, 伊田明弘, 伊田明弘  

    情報処理学会研究報告(Web)2016 巻 ( HPC-157 ) 頁: Vol.2016‐HPC‐157,No.16,1‐8 (WEB ONLY)   2016年12月

     詳細を見る

    記述言語:日本語  

    J-GLOBAL

  44. パイプライン型共役勾配法の性能評価

    塙敏博, 中島研吾, 中島研吾, 大島聡史, 大島聡史, 星野哲也, 伊田明弘, 伊田明弘  

    情報処理学会研究報告(Web)2016 巻 ( HPC-157 ) 頁: Vol.2016‐HPC‐157,No.6,1‐9 (WEB ONLY)   2016年12月

     詳細を見る

    記述言語:日本語  

    J-GLOBAL

  45. データ解析・シミュレーション融合スーパーコンピュータシステムReedbush‐Uの性能評価

    塙敏博, 中島研吾, 大島聡史, 伊田明弘, 星野哲也, 田浦健次朗  

    情報処理学会研究報告(Web)2016 巻 ( HPC-156 ) 頁: Vol.2016‐HPC‐156,No.10,1‐10 (WEB ONLY) - 10   2016年9月

     詳細を見る

    記述言語:日本語  

    J-GLOBAL

  46. データレイアウト最適化指示文によるOpenACCアプリケーションの高速化

    星野 哲也  

    研究報告ハイパフォーマンスコンピューティング(HPC)2016-HPC-155 巻   頁: 1 - 8   2016年

  47. 圧縮性流体プログラムのOpenACCによる高速化

    星野 哲也  

    研究報告ハイパフォーマンスコンピューティング(HPC)2016-HPC-153 巻   頁: 1 - 10   2016年

  48. OpenACCディレクティブ拡張によるデータレイアウト最適化

    星野哲也, 丸山直也, 松岡聡  

    研究報告ハイパフォーマンスコンピューティング(HPC)2014 巻 ( 45 ) 頁: 1 - 8   2014年7月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人情報処理学会  

    近年増加傾向にある GPU 等のアクセラレータを搭載した計算環境への既存プログラムの移植方法として,CUDA・OpenCL に代表されるローレベルなプログラミングモデルを用いる方法に対し,ディレクティブベースの OpenACC のようなハイレベルなプログラミングモデルを用いる方法が注目されている.このようなディレクティブベースのプログラミングモデルの利点として,元のプログラムを維持したまま移植を行えるために,デバイス間の機能的な可搬性が高いことがあげられる.しかし現状の OpenACC などの High-level なプログラミングモデルは,スカラプロセッサとメニーコアアクセラレータの得意とするデータレイアウトの相違に対応することが出来ず,異なる性質を持ったデバイス間の性能可搬性に問題がある.そこで本研究では,データレイアウトを抽象化し,異なるデバイス間での性能可搬性を向上させるための OpenACC の拡張ディレクティブを試作し,姫野ベンチマークのデータレイアウトをトランスレーターにより変更し,マルチコア CPU,Intex Xeon Phi,K20X GPU のそれぞれで評価を行った.その結果,オリジナルと同一のデータレイアウトと比較して,Intel Xeon Phi では 27%,K20X GPU では 24%の性能向上が得られることを確認した.

    CiNii Research

  49. CPU-GPUそれぞれに最適なデータレイアウトを選択可能にするOpenACCディレクティブ拡張

    星野哲也, 丸山直也, 松岡聡  

    研究報告ハイパフォーマンスコンピューティング(HPC)2014 巻 ( 5 ) 頁: 1 - 5   2014年2月

     詳細を見る

    記述言語:日本語   出版者・発行元:一般社団法人情報処理学会  

    近年増加傾向にある GPU 等のアクセラレータを搭載した計算環境への既存プログラムの移植方法として,CUDA・OpenCL に代表される Low-level なプログラミングモデルを用いる方法に対し,ディレクティブベースの OpenACC のような High-level なプログラミングモデルを用いる方法が考えられる.このようなディレクティブベースのプログラミングモデルの利点として,元のプログラムを壊さずに移植を行えるために,デバイス間の可搬性が高いことがあげられる.しかし現状の OpenACC などのプログラミングモデルは,スカラプロセッサとメニーコアアクセラレータの得意とするデータレイアウトの相違等に対応することが出来ず,異なる性質を持ったデバイス間の性能可搬性に問題がある.そこで本研究では,データレイアウトを抽象化し,異なるデバイス間での性能可搬性を向上させるための OpenACC の拡張ディレクティブを試作し,評価を行った.

    CiNii Research

  50. ディレクティブベースプログラミング言語OpenACCの性能評価

    星野哲也, 丸山直也, 松岡聡  

    ハイパフォーマンスコンピューティングと計算科学シンポジウム論文集2013 巻   頁: 91 - 91   2013年1月

     詳細を見る

    記述言語:日本語   出版者・発行元:情報処理学会  

    CiNii Research

  51. 大規模流体アプリケーションのCUDA・OpenACCへの移植性の評価

    星野 哲也, 丸山 直也, 松岡 聡  

    研究報告ハイパフォーマンスコンピューティング(HPC)2012 巻 ( 42 ) 頁: 1 - 9   2012年7月

     詳細を見る

    記述言語:日本語  

    地震や気象予測,航空機や高層ビル設計といったシミュレーションに利用される数値流体力学アプリケーションは,近年一般的になりつつある GPU を用いたスーパーコンピュータにおいて,目覚ましい成果を上げている.しかし,GPU を用いたプログラミングは,高い性能を得ること難しいと言われており,レガシープログラムの GPU 環境への移植が問題となっている.本稿では,実際に利用されている大規模流体アプリケーションである UPACS を手動により CUDA 化し,性能と移植コストの面から評価を行った.また,プログラムの移植性を解決すると期待されている,OpenACC の予備評価を行った.これら評価の結果を示し,今後解決すべき課題について述べる.Computational fluid dynamics (CFD) applications used for an earthquake and meteorological simulation are one of the most important application executed with high-speed supercomputers. Especially, GPU-based supercomputers have been showing remarkable performance of CFD applications. However, GPU-programing is still difficult to obtain high performance, which prevents legacy applications from being ported to GPU environment. We apply classical optimizations to a real-world CFD application UPACS and evaluate it&#039;s performance and porting costs, and we also evaluate OpenACC expected to provide portability across CPUs and GPUs. We demonstrate these results of evaluation and mention performance problems should be resolved in the future.

    CiNii Research

  52. 大規模流体アプリケーションのGPUによる高速化手法の評価

    星野哲也, 丸山直也, 松岡聡  

    先進的計算基盤システムシンポジウム論文集2012 巻   頁: 73 - 74   2012年5月

     詳細を見る

    記述言語:日本語   出版者・発行元:情報処理学会  

    CiNii Research

  53. OpenACCプログラミング

    丸山 直也, 星野 哲也  

    映像情報メディア学会誌 : 映像情報メディア = The journal of the Institute of Image Information and Television Engineers66 巻 ( 10 ) 頁: 817 - 822   2012年

     詳細を見る

    記述言語:英語   出版者・発行元:一般社団法人映像情報メディア学会  

    DOI: 10.3169/itej.66.817

    Scopus

    CiNii Research

▼全件表示

科研費 6

  1. ハードウェア資源割り当てを考慮したシステムの利用効率最適化に関する研究

    研究課題/研究課題番号:25K00141  2025年4月 - 2030年3月

    日本学術振興会  科学研究費助成事業  基盤研究(B)

    河合 直聡, 塙 敏博, 星野 哲也, 伊田 明弘, 塙 敏博, 星野 哲也, 伊田 明弘

      詳細を見る

    担当区分:研究分担者 

    本研究では、世界中の大規模クラスタの利用効率を最大化する計算基盤開発を目的としている。この計算基盤は、ハードウェアリソースをソフトウェアとハードウェアの特性を考慮して適切に割り当てる機能を有する。この計算基盤を実現するために、1~2年目にはハードウェアリソースを任意に変更可能な機構や、ハードウェアの動作状況を監視し、自動的に最適なハードウェアリソース割り当てを導き出す手法を開発する。3年目にはこの成果をユーザーがプログラムの改変なく利用できるよう、実装の改良を行う。4~5年目には学会発表を通じて開発した計算基盤が広く使用されるよう宣伝、アップデートを実施する。

  2. 低ランク構造行列法の適用範囲拡大と多様な計算アーキテクチャの活用

    研究課題/研究課題番号:24K02949  2024年4月 - 2027年3月

    日本学術振興会  科学研究費助成事業  基盤研究(B)

    伊田 明弘, 横田 理央, 塙 敏博, 岩下 武史, 大島 聡史, 星野 哲也, 平石 拓, 河合 直聡, 横田 理央, 塙 敏博, 岩下 武史, 大島 聡史, 星野 哲也, 平石 拓, 河合 直聡

      詳細を見る

    担当区分:研究分担者 

    本研究では、低ランク構造行列法ライブラリの高機能化を実施する。科学技術計算では、密行列演算に基づく計算手法の数値線形代数ライブラリが広く利用されいる。密行列演算から低ランク構造行列演算へ置き換えが行えるように、低ランク構造行列法の適用範囲を拡大する。低ランク構造行列に基づく新たな数値計算アルゴリズムを開発する。アルゴリズム開発は、GPU・FPGAなど最新の計算機アーキテクチャで構成されるクラスタ計算機を意識し、実装の最適化を行う。様々な低ランク構造行列の演算に対し、最適な計算機アーキテクチャを割当て、混合精度演算・動的負荷分散なども活用し、計算機の性能を最大限に引き出す実装法を研究する。
    低ランク構造行列法のアルゴリズムの研究・開発を行った。長方行列に対して低ランク近似を行い、ムーア・ペンローズ疑似逆行列を効率よく計算する手法を提案した。サイズN×M(N>M)の長方行列に対して、一般的な手法であるTSVD(打ち切り特異値分解)法を用いて疑似逆行列を計算するとO(NM^2)の計算量を必要とするが、提案手法を用いれば、行列ランクをkとしてO(Nk^2)へ計算量を低減させることができる。
    低ランク構造行列法の適用範囲の拡大に取り組んだ。電子状態計算で必要な行列固有値問題において、係数行列を低ランク構造行列の一種である対称ブロック低ランク(BLR)行列で効率よく近似する手法を提案した。また、得られたBLR行列の全固有値を近似的に計算する手法の開発に取り組んだ。また、積分方程式法に基づく地震シミュレーションへ、別の低ランク構造行列法である格子H行列を適用し、シミュレーションの高速化・省メモリ化に取り組んだ。
    低ランク構造行列法の高性能実装に関する研究を実施した。低ランク構造行列法の一種であるH^2行列について、Schur補行列の低ランク性を活用する「H^2-ULV分解」を用いて計算量をO(N)に抑え、前進後退代入も並列化するアルゴリズムを開発した。従来のH行列の複雑な構造に起因する並列化の課題を解決し、大規模GPUシステムにおいて高いスケーラビリティを実現した。また、格子H行列を係数行列に持つ線形方程式に対して、反復法で求解する際に混合精度演算を活用することにより高速化する手法について検討を行った。さらに、反復法の主要計算部分である格子H行列・ベクトル積の計算に対して、動的負荷分散を適用して高速化を図る研究に取り組んだ。
    本研究は低ランク構造行列法に対し、(1)数値計算アルゴリズムの研究開発、(2)適用範囲拡大の研究、(3)高性能実装法に関する研究、の3つの研究項目に大別される。研究項目(1)については、低ランク近似を用いた長方行列の疑似逆行列計算手法を提案し、1件の国際会議発表と1件の学会発表を行った。研究項目(2)については、電子状態計算に現れる行列固有値問題および積分方程式法に基づく地震シミュレーションへの低ランク構造行列法の適用に関する研究を行い、3件の学会発表を行った。研究項目(3)については、GPU上で低ランク構造行列法の演算を効率的に行う研究を行い、1本の査読付き学術誌論文、1件の国際会議発表、2件の学会発表を行った。また、動的負荷分散を用いた高速化の研究に基づき、2件の国際会議発表および1件の学会発表を行った。
    全ての研究項目について、多くの研究成果が得られており、概ね順調に進展している。
    低ランク構造行列法のアルゴリズムの研究・開発については、これまでに行った長方行列の低ランク近似を発展させ、より複雑な行列構造を有するBLR行列や格子H行列による行列近似法について検討する。さらに、BLR行列や格子H行列で近似された長方行列のムーア・ペンローズ疑似逆行列を計算する手法を開発する。また、電子状態計算で得られるBLR行列のように、既存のBLR行列全固有値計算手法が対応していない構造を持つBLR行列に対して、全固有値計算を行えるような計算手法を開発する。
    低ランク構造行列法の適用範囲の拡大については、地震シミュレーションへの格子H行列法の適用に関する研究を引き続き実施する。また、上記の低ランク構造行列法に基づくムーア・ペンローズ疑似逆行列計算手法を、MRI検査装置などに見られるコイル配位最適化計算に適用し、計算の高速化・大規模化に取り組む。
    低ランク構造行列法の高性能実装については、BLR行列を対象として、行列ベクトル積、QR分解および全固有値計算のGPU上での効率的な実装法について検討し、最新GPUであるGH200上で実装を行う。また、格子H行列やH^2行列を係数行列に持つ連立方程式を解く際に用いられる反復法や行列分解法を対象として、混合精度演算による計算効率化に関する研究を実施する。さらに、格子H行列計算に動的負荷分散を導入し、分散メモリGPU環境において計算を効率化する手法について検討する。

  3. 実アプリケーションの時空間ブロッキングによる高速化に関する研究

    研究課題/研究課題番号:22K17898  2022年4月 - 2024年3月

    日本学術振興会  科学研究費助成事業  若手研究

    星野 哲也

      詳細を見る

    担当区分:研究代表者 

    配分額:1430000円 ( 直接経費:1100000円 、 間接経費:330000円 )

    微分方程式を解析的に解く際に生じる時・空間の離散格子に対する特定の計算パターンはステンシル計算と呼ばれ、様々な流体シミュレーションにおいて頻出する重要なカーネルである。ステンシル計算の高速化は盛んに研究されており、時空間ブロッキング手法はその一手法であるが、非常に煩雑なプログラミングを要求するため、実アプリケーションへの適用例はほとんどない。さらに、時空間ブロッキングの性能は実行するプロセッサの性能パラメータに大きく依存するため、人手によって最適化することは現実的ではない。そこで本研究では時空間ブロッキングの自動最適化に必要な性能モデリングを、最新のCPUを用いて行った。

  4. 格子H行列に基づく数値線形代数の構築と最新アーキテクチャへの高性能実装法

    研究課題/研究課題番号:21H03447  2021年4月 - 2024年3月

    日本学術振興会  科学研究費助成事業  基盤研究(B)

    伊田 明弘, 横田 理央, 塙 敏博, 岩下 武史, 大島 聡史, 星野 哲也, 平石 拓, 横田 理央, 塙 敏博, 岩下 武史, 大島 聡史, 星野 哲也, 平石 拓

      詳細を見る

    担当区分:研究分担者 

    格子H行列を用いた数値線形代数系の構築を目的とし、固有値計算、LU分解、QR分解などを実行する新しいアルゴリズムの研究・開発を行った。多くの成果が得られた中でも、主要なものとして、BLR(Block Low-Rank)行列の固有値計算法が挙げられる。格子H行列の特殊な場合であるBLR行列について、全固有値を計算するアルゴリズムを開発した。開発したアルゴリズムの計算複雑度を、BLR行列を特徴付ける行列サイズ・ブロックサイズ・各ブロックの階数(ランク)を変数として見積り、最適な条件を検討した。最適条件下で提案アルゴリズムの計算量が従来の密行列の場合に比べて大幅に低減させられることを理論的に示した。また、数値実験を用いて、計算時間が理論通り計算量に比例すること、および、固有値と固有ベクトルの誤差が階数を増やすにつれて密行列に近づいていくことを確かめた。
    格子H行列法の適用範囲の拡大に取り組んだ。従来、格子H行列を含む低ランク構造行列法は境界要素解析(時間項を含まない空間領域の積分方程式法)への適用が想定されていた。時空間領域積分方程式法に適用範囲を拡張すべく、FDP(Fast Domain Partitioning)法と格子H行列法を組み合わせた手法を開発し、従来手法の計算量を開発手法では大幅に低減させられることを理論的に示した。さらに、3次元弾性波動伝播解析を提案手法で行う計算コードを開発し、理論に近い計算時間で解析が行えることを確かめた。
    格子H行列法の高性能実装に関する研究においても多くの成果が得られた。主要な成果としては、タスク並列言語Tascellを拡張し、分散メモリ環境における行列分割構造生成の並列実装を提案した。3次元電場解析に対する約1億要素を用いた数値実験において、最大8ノード×36ワーカーで良好な高速化を達成した。

  5. 余剰コアを活用する高性能計算・データ解析支援

    研究課題/研究課題番号:20H00580  2020年4月 - 2023年3月

    日本学術振興会  科学研究費助成事業  基盤研究(A)

    塙 敏博, 下川辺 隆史, 星野 哲也, 三木 洋平, 伊田 明弘, 下川辺 隆史, 星野 哲也, 三木 洋平, 伊田 明弘

      詳細を見る

    担当区分:研究分担者 

    ①ユーザプログラムを再コンパイルせずに、動的プロファイリングを実現する手法を検討した。SystemTapを用いて,測定したい関数部分に着目したプロファイル、OpenMP並列数の動的な変更をほぼオーバヘッドなく実現した。主計算と同時に他の処理を実行した際の影響を測定した。
    ②MPI+OpenMP並列化されたアプリケーションを効率的に動作させることを目指して、MPIプロセス毎に割り付けられるコア数(OpenMPスレッド数)をコントロールし、各コアの負荷を均一化する手法について検討した。検討手法をDCBライブラリとして実装し、アプリケーションから簡単なAPIコールのみで利用できるようにした。DCBライブラリを格子H行列法コードに適用し、15.5%の計算速度向上と8.0%の消費電力削減を実現した。
    ③In Situデータ解析の実現に向けた準備として,宇宙物理分野のアプリケーションにおいて時間進化の計算中に解析処理を実行する機能を追加した.特定条件を満たしたデータだけを高頻度に単一ファイルへと追加出力する機能も追加し,非同期ファイルIO機能の予備評価に利用可能にした。
    ④流体計算において頻出するステンシル計算は一般的にメモリ律速となることが知られており、余剰な演算器が発生しやすい演算パターンである。キャッシュメモリを利用し数ステップ分の演算をメモリに書き戻すことなく実行することで、余剰な演算器を活用する手法として知られるテンポラルブロッキングを3次元の拡散方程式カーネルに適用し、最新のプロセッサにおいて評価した結果,最大4.99倍の性能向上を実現した。
    ⑤ステンシル計算のうち局所的に高精細にできる適合格子細分化法(AMR法)では、データ構造の複雑さから通信が性能低下につながる。余剰コアを活用するという観点からテンポラルブロッキングを最新のプロセッサで効率的に利用する方法について検討を進めた。

  6. アプリケーションのデータ構造に着目したメニーコア向け自動最適化フレームワーク

    研究課題/研究課題番号:16H06679  2016年8月 - 2018年3月

    日本学術振興会  科学研究費助成事業  研究活動スタート支援

    星野 哲也

      詳細を見る

    近年増加傾向にあるメニーコアプロセッサを用いた計算環境において、その性能を引き出すためにはVector Processing Unit (VPU)を効率良く利用することが重要である。しかし、VPUの効率的な利用にはハードウェアやコンパイラに関する知識が必要であり、またプログラムのデータ構造の変更などが往々にして必要となる。
    本研究では、データ構造を抽象化するためのコンパイラ指示文の提案と、その指示文を解釈するトランスレータの開発、自動ベクトル化を促進するフレームワークデザインの提案と、そのデザインに則った境界要素法向けのフレームワークの開発を行った。

▼全件表示

 

担当経験のある科目 (本学) 3

  1. 大規模計算特論B

    2023

  2. 大規模並列数値計算特論

    2023

  3. プログラミング2

    2023

 

社会貢献活動 1

  1. 最近のFortran向けGPUプログラミング事情(JAXA内部講習会)

    役割:講師

    2023年12月

学術貢献活動 2

  1. HPC Asia 2024 Local Arrangement Chair

    役割:企画立案・運営等

    2024年1月

     詳細を見る

    種別:学会・研究会等 

  2. xSIG 2023 プログラム委員

    役割:査読

    2023年8月

     詳細を見る

    種別:査読等