マイナビニュース | テクノロジー | スパコン/HPC

関連キーワード

イチオシ記事

MIT、光を使ったディープラーニングの原理実証-計算時間と消費電力を大幅削減

マサチューセッツ工科大学(MIT)の研究チームは、ディープラーニングに必要とされる複雑で多量の計算を光コンピューティングを使って高速化、低消費電力化する技術を開発したと発表した。まだ概念実証の段階だが、原理的にはディープラーニングの計算時間を大幅に短縮でき、従来のコンピュータに比べて消費電力を1/1000程度にできるという。

[10:33 6/26]

新着記事

一覧

Green500の舞台裏 - 何がエネルギー効率の差を生んだのか?

スーパーコンピュータ(スパコン)のエネルギー効率を競うランキング「Green500」の2017年6月版は、トップ4システムを日本のシステムが占めたほか、7位と8位にも入った。しかし、裏を覗いてみると、7位を除いた他の9システムは、すべてIntelのXeonにNVIDIAのGPUをアクセラレータとして接続したシステムであり、これは日本の成功というより、NVIDIAの成功とも言うべき状況である。しかし、XeonとGPUを使っていても、そのエネルギー効率には違いがあり、それぞれのシステムがどのようになっているのかを見て行こう。

[18:10 6/23]

急ピッチでTensor Processing Unit(TPU)の開発を進めるGoogle 第2回 第2世代のクラウドTPUを読み解く

TPU1は28nm半導体プロセスで作られ、消費電力は最大40Wとなっている。一方、2017年5月のGoogle IOにおいて発表された第2世代のTPU(クラウドTPU)は、サーバのマザーボードサイズのボードに4個のTPU2を搭載したもので、初代と大きく異なるのは、行列積の計算が8bit整数から16bitの半精度浮動小数点演算となった点である。これにより、TPU2は推論だけでなく、学習にも使えるようになった。

[10:00 6/23]

新着記事

一覧

富士通、台湾ナショナルスーパーコンピュータセンターに新システムを構築

富士通は、台湾富士通とともに台湾ナショナルスーパーコンピュータセンターに新スーパーコンピュータシステムを構築することを発表した。同システムの本稼働は2018年5月が予定されている。

[16:03 6/22]

アナログ・デバイセズ、42V入力の750mA同期整流式降圧DC/DCコンバータ発売

アナログ・デバイセズ(ADI)は、42V入力の750mA同期整流式降圧スイッチング・レギュレータ「LT8607」の販売を開始したことを発表した。「LT8607EDC」は2mm×2mmの8ピンDFNパッケージ、「LT8607EMSE」は熱特性が改善されたMSOP-10パッケージで供給される。

[12:40 6/22]

「京」が性能指標HPCGにおいて2期連続で世界第1位を獲得

理化学研究所と富士通は、スーパーコンピュータ「京」による測定結果で、産業利用など実際のアプリケーションで用いられる共役勾配法の処理速度の国際的なランキング「HPCG(High Performance Conjugate Gradient)」において、2期連続で世界第1位を獲得したと発表した。

[07:33 6/22]

AMD、データセンターサーバ向けプロセッサ「EPYC」を正式発表

AMDは6月20日(米国時間)、高性能データセンターサーバ向けプロセッサ「AMD EPYC 7000シリーズ」を発表した。また、これに併せてHPE、Dell、Asus、Gigabyte、Inventec、Lenovo、Sugon、Supermicro、Tyan、Wistronが搭載製品を発表した。

[06:00 6/22]

省エネスパコンは日本のお家芸になれるのか? - 日本勢が上位を占めた省エネスパコンランキング「Green500」

2017年6月19日(独自間)、スーパーコンピュータ(スパコン)の性能ランキングである「TOP500」の公開に併せる形で、消費電力あたりで演算性能が高いスパコンのランキング「Green500」の2017年6月版も発表された。今回のGreen500のトップ10において、日本勢は1位から4位までを独占したほか、7位ならびに8位にもランクインし、省エネスパコンは日本の強みとなりつつある。その背景にはどのようなことがあるのだろうか。

[16:26 6/21]

理研のAI研究用計算機システムが省エネスパコンランキングで4位を獲得

理化学研究所(理研)は6月19日、理研 革新知能統合研究センターが富士通と共同で設置し運用している人工知能(AI)研究用計算機システム「RAIDEN」が、2017年6月版のスーパーコンピュータ(スパコン)の消費電力当たりの性能ランキング「Green500」にて、4位にランクインしたことを発表した。

[22:30 6/20]

国立環境研究所のスパコンが省エネランキングで8位を獲得 - NSSOLが納入

新日鉄住金ソリューションズ(NSSOL)は6月20日、ISC17の開催に併せて公開されたスーパーコンピュータ(スパコン)の省エネ性能を競う「GREEN500」において、国立環境研究所に納入したスパコン「Research Computation Facility for GOSAT-2(RCF2)」が8位にランクインしたことを発表した。

[12:27 6/20]

ヤフーの深層学習向けシステムが省エネスパコンランキングで2位を獲得

ヤフー(Yahoo! JAPAN)は6月19日、ExaScalerならびにHPCシステムズのもと、ディープラーニング(深層学習)活用に特化した省エネ性能の高いスーパーコンピュータ(スパコン)「kukai(クウカイ)」を開発、ISC17の開催に併せて公開されたスパコンの省エネ性能ランキング「GREEN500」において世界第2位を獲得したことを発表した。

[11:43 6/20]

2017年6月版TOP500 - 日本勢のランクイン数は前回比で20%の増加

フランクフルトで開催中のISC17の冒頭で、スパコンの性能ランキングである2017年6月の「TOP500」リストが発表された。トップは、中国の「太湖之光」、2位も中国の「天河2号」で、1位、2位は昨年11月の前回リストから変更はない。今回のリストで変わったのは、3位にスイスの「Piz Daint」が入った点である。

[10:00 6/20]

スパコンの省エネ性能ランキング - 東工大が1位、産総研が3位を獲得

東京工業大学(東工大)ならびに産業技術総合研究所(産総研)は6月19日、スーパーコンピュータ(スパコン)の省エネ性能を競うランキング「Green500 List」の2017年6月版において、東工大の次世代スパコン「TSUBAME 3.0」が1位を、産総研 人工知能研究センター(AIRC)が、2017年4月より稼働を開始させたクラウド型計算システム「産総研AIクラウド(AAIC)」が3位にランクインしたことを発表した。

[08:00 6/20]

2017年6月の「TOP500」-中国が9連覇 日本トップはJCAHPC「Oakforest-PACS」

6月19日(独時間)、スーパーコンピュータ(スパコン)の処理性能ランキングである「TOP500」の2017年6月版が発表された。49回目となる今回のTOP500の1位は、中国の「Sunway TaihuLight(神威・太湖之光)」で、これで中国は9連覇を達成したこととなる。

[18:10 6/19]

急ピッチでTensor Processing Unit(TPU)の開発を進めるGoogle 第1回 急ピッチで開発が進むGoogleのTPU

Googleは、2016年5月のGoogle IOでTensor Processing Unit(TPU)を初めて発表したが、2017年のGoogle IOでは第2世代となる「Cloud TPU」を発表するという急ピッチの開発を続けている。初代のTPUは、自社のデータセンタでの急増するAI関係の負荷を捌くために、必要に迫られて開発したという感じであるが、今年、発表されたCloud TPUは、これを武器に自社センタのサービスを差別化するだけでなく、クラウド上で一般ユーザがTPUを使うというサービスの販売も視野に入れていると思われる。

[10:00 6/16]

九大、富士通製スパコンの導入を決定 - 総理論演算性能は10PFLOPSを計画

九州大学(九大)情報基盤研究開発センターは6月15日、2017年度10月に稼働開始を予定しているスーパーコンピュータ(スパコン)システムとして、富士通製のスパコンを導入すると発表した。

[06:00 6/16]

日本TI、産業用Ethernet通信のコスト削減に最適化したSoC製品を発表

日本テキサス・インスツルメンツ(以下、TI)は、コストに対して最適化されたEthernet通信機能の実現に役立つ、新しいSitara「AMIC」 SoC製品を発表した。

[11:11 6/8]

東北大、NECなど、地震発生から30分以内で津波浸水被害を推計-内閣府で採用

東北大学、大阪大学、日本電気(NEC)、国際航業、エイツーは共同で、地震発生直後に津波シミュレーションを行い、30分以内で被害推計を行う「津波浸水・被害推計システム」を開発し、同システムが内閣府が運用する「総合防災情報システム」の一機能として採用されることになったと発表した。

[15:27 5/30]

量子コンピュータの重要部品、バリスティック伝導ナノワイヤ接続を実証-IBM

IBMチューリッヒ研究所は、シリコン上に集積した化合物半導体ナノワイヤによる接続デバイスにおいて、電子のバリスティック伝導を実証したと発表した。バリスティック伝導は、材料中を伝わる電子が散乱せずに、弾丸のように直線的に進む現象。この性質を利用すると、電子がもっている量子情報を損失なく伝送できるため、量子コンピュータを実用化する上で重要な部品になると期待されている。

[17:46 5/26]

ディープラーニングに大きく舵をきったVolta GPU 第3回 トランジスタ密度のミステリ - その主要容疑者を探る

V100 GPUのL1データキャッシュは、SMあたり128KBのメモリを分割してシェアードメモリと共用している。FermiやKeplerでは、この構造であったが、P100ではシェアードメモリは独立の構造で、L1データキャッシュはテクスチャキャッシュとメモリアレイを分割して共用するという構造になっていた。P100が出た時は、この構造はL1データキャッシュとシェアードメモリが並列に動作できるので、バンド幅が高いというメリットが強調されていたのであるが、あれはどうなってしまったのだろうか?

[10:00 5/23]

IBM、IBM Qで利用可能な17量子ビット商用プロセッサを開発

IBMは5月17日(米国時間)、2つの汎用量子コンピューティングプロセッサを構築し、テストに成功したと発表した。1つは16量子ビットプロセッサで、主に研究用途として、もう1つは17量子ビットプロセッサで、商用プロセッサのプロトタイプに位置づけられている。

[12:40 5/22]

ディープラーニングに大きく舵をきったVolta GPU 第2回 注目のTensorコアを読み解く

V100 GPUの構成図を見ると、全部で84個のSMが描かれている。SMは独立したプログラムを実行できる単位で、マルチコアCPUのCPUコアに相当する。ただし、84個のうち4個は歩留まり改善のための冗長分で、V100チップの仕様では、使用できるSMは80個ということになっている。P100では56SMであったので、SM数は1.43倍になっている。

[09:00 5/22]

ディープラーニングに大きく舵をきったVolta GPU 第1回 Voltaにまつわる2つの謎

NVIDIAの「Tesla V100」Volta GPUは、ディープラーニングに大きく舵を切った。科学技術計算に舵を切ったFermi GPUの時と似たNVIDIAのビジネス戦略の変更であると考えられる。そんなVoltaの実力とはどのようなものなのか。同社の資料から、その性能を読み解いていきたい。

[10:00 5/19]

富士通×1QBit、量子コンピュータ技術を応用したAI分野で協業を開始

富士通と1QB Information Technologies(以下、1QBit)は16日、量子コンピュータ技術を応用した、組合せ最適化や機械学習などのAI(人工知能)分野における協業を開始したことを発表した。

[14:37 5/17]

富士通、高速ディープラーニング基盤システムを販売- 目的に応じて使い分け

富士通は、米国NVIDIA Corporationの最新GPUを搭載したディープラーニング専用サーバと、動作検証済みのストレージおよびソフトウェアをシステムとして提供する「FUJITSU AIソリューション Zinraiディープラーニング システム」(以下、Zinraiディープラーニング システム)の販売を、5月16日より開始した。

[08:10 5/17]

ディープラーニングにデータフローコンピューティングを使うDPU

Wave Computingは、ディープラーニング用の高性能のLSIを開発しているスタートアップであるが、そのLSIや計算のやり方については公開情報が無く、どのような仕組みであるかは分からなかった。しかし、4月26-27日に米国サンタクララにて開催された「Machine Learning Developers Conference」において、同社は「CGRA」と呼ぶ方式で処理を行う「DPU」と呼ぶ高性能LSIを開発していることを発表した。

[12:15 5/2]

COOL Chips 20 - 基調講演で語られた世界一のスパコン「太湖之光」 第6回 世界一のスパコン「神威 太湖之光」のディープラーニング

Sunway TaihuLightでは、swDNNというライブラリが用意されている。このライブラリには、全対全接続部の計算を行うBLAS、プーリング層、活性化関数、バッチ正規化、そして、90%以上の計算時間を占める畳み込み層の計算ライブラリが含まれている。

[09:00 5/2]

COOL Chips 20 - 基調講演で語られた世界一のスパコン「太湖之光」 第5回 世界一のスパコン「神威 太湖之光」のアプリケーション開発状況

Top500で1位の新しいスパコンが出来ると、それを使った大規模計算が行われ、その論文がGordon Bell賞を狙って投稿されるのが常である。TaihuLightの前に、中国は天河2号でTop500の1位になったのであるが、中国からGordon Bell賞候補の論文は出て来ず、中国の大規模アプリケーション開発の遅れを印象付けることになってしまった。これに対して2016年6月のISC16でTaihuLightがTop500で1位になり、2016年11月のSC16では、6件のGordon Bell賞最終候補の内の半分の3件がTaihuLightを使った大規模計算の論文となり、その内の気象計算の論文がGordon Bell賞を受賞した。

[09:00 5/1]

COOL Chips 20 - ARMのスケーラブルベクトル拡張アーキテクチャ(SVE)

COOL Chips 20において、ARMのSr. Architecture Program DirectorのDavid Brash氏とLead ISA ArchitectでARMフェローのNigel Stephens氏がARMアーキテクチャの発展、その中でもスケーラブルベクトル拡張(Scalable Vector Extension:SVE)についての基調講演を行った。

[10:00 4/28]

COOL Chips 20 - 基調講演で語られた世界一のスパコン「太湖之光」 第4回 世界一のスパコン「神威 太湖之光」のプログラミングモデル

TaihuLightのプログラミングモデルは、ノード間はMPIでノード内はOpenACC、あるいはAthreadと呼ぶライブラリで並列プログラムを書くというものである。MPIは超並列のスパコンのプログラミングではデファクトであり、ノード内はOpenACCではなくOpenMP4を使うとか、GPUであればOpenCLやCUDAを使うという手もあるが、TaihuLightのプログラミングモデルは標準的なものである。

[09:00 4/28]

COOL Chips 20 - コグニティブコンピューティング向けプロセサとなるIBMのPOWER9

COOL Chips 20において、IBM研究所のSystems Architecture and Design部門ディレクタのJeffrey Burns氏が基調講演を行った。「POWER9」はCognitive Computing(機械学習などを含む認知コンピューティング)を志向するプロセサであり、設計もそれに合わせたものとなっているという。

[09:30 4/27]

バックナンバー

このカテゴリーについて (テクノロジー>スパコン/HPC)

 トップへ
スーパーコンピュータ/HPC分野で活用される話題をお届けします。

人気記事

一覧

イチオシ記事

新着記事