マイナビニュース | テクノロジー | スパコン/HPC

関連キーワード

イチオシ記事

COOL Chips 20 - ARMのスケーラブルベクトル拡張アーキテクチャ(SVE)

COOL Chips 20において、ARMのSr. Architecture Program DirectorのDavid Brash氏とLead ISA ArchitectでARMフェローのNigel Stephens氏がARMアーキテクチャの発展、その中でもスケーラブルベクトル拡張(Scalable Vector Extension:SVE)についての基調講演を行った。

[10:00 4/28]

新着記事

一覧

COOL Chips 20 - 基調講演で語られた世界一のスパコン「太湖之光」 第4回 世界一のスパコン「神威 太湖之光」のプログラミングモデル

TaihuLightのプログラミングモデルは、ノード間はMPIでノード内はOpenACC、あるいはAthreadと呼ぶライブラリで並列プログラムを書くというものである。MPIは超並列のスパコンのプログラミングではデファクトであり、ノード内はOpenACCではなくOpenMP4を使うとか、GPUであればOpenCLやCUDAを使うという手もあるが、TaihuLightのプログラミングモデルは標準的なものである。

[09:00 4/28]

COOL Chips 20 - コグニティブコンピューティング向けプロセサとなるIBMのPOWER9

COOL Chips 20において、IBM研究所のSystems Architecture and Design部門ディレクタのJeffrey Burns氏が基調講演を行った。「POWER9」はCognitive Computing(機械学習などを含む認知コンピューティング)を志向するプロセサであり、設計もそれに合わせたものとなっているという。

[09:30 4/27]

新着記事

一覧

COOL Chips 20 - 基調講演で語られた世界一のスパコン「太湖之光」 第3回 世界一のスパコン「神威 太湖之光」のハードウェア(2)

SW26010のアーキテクチャの1つの特徴が、IMPEである。IMPEはベクトル処理ユニットを持つプログラマブルなプロセサであり、オンチップネットワークとメインメモリの間に置かれている。また、IMPEは、命令バッファと汎用レジスタファイル(GPR)と演算器からなるグループを複数持っており、演算器の後に、データシャッフルネットワークを持っている。

[09:00 4/27]

COOL Chips 20 - 基調講演で語られた世界一のスパコン「太湖之光」 第2回 世界一のスパコン「神威 太湖之光」のハードウェア(1)

TaihuLightのプロセサを開発したのは、Shanghai High Performance IC Design Centerである。この開発プロジェクトは、10PFlops級のスパコンを作るためのアーキテクチャ研究ということで2006年に開始された。最初の3年は、各種のアプリケーションの分析を行い、メニーコアのShenweiアーキテクチャの提案を行い、アーキテクチャや性能、プログラミングモデルのロードマップの策定を行った。その結果、作られたのが2011年に完成したSunway BlueLightに使われたSW1600プロセサである。そして、ロードマップに従って、2016年に完成したのがSunway TaihuLightスパコンとそれに使われたSW26010プロセサであるという。

[09:00 4/26]

日本に注力するMellanox - Ethernetスイッチ「Spectrum」の本格展開を開始

イスラエルMellanox Technologiesは4月20日、都内で記者説明会を開催し、新製品として、Ethernetスイッチ「Spectrum」の国内向け本格出荷を開始することを明らかにしたほか、新たな日本日本支社長として、西尾則子氏が就任したことを発表した。

[09:30 4/25]

COOL Chips 20 - 基調講演で語られた世界一のスパコン「太湖之光」 第1回 世界一のスパコン「神威 太湖之光」はなにが凄いのか?

横浜にて開催されたIEEE主催のプロセサ関係の国際会議「COOL Chips 20」において、中国の無錫スーパーコンピューティングセンター(National Supercomputing Center in Wuxi)のHaohuan Fu氏が、Top500 1位の「神威 太湖之光(Sunway TaihuLight)スパコン」に関する基調講演を行った。

[09:00 4/25]

ディープラーニング学習時の電力効率を向上させる回路技術を開発-富士通研

富士通研究所は4月24日、ディープラーニングの学習処理に用いるデータのビット幅を削減することで、ニューラルネットワーク構造や学習方式を変えずに学習用ハードウェアの電力効率を向上させる回路技術を開発したと発表した。

[13:07 4/24]

GoogleのAI開発を支えるディープラーニング専用プロセッサ「TPU」 - ISCA論文レビュー版から、その仕組みを読み解く

Googleの専用アクセラレータ「Tensor Processing Unit(TPU)」は、2016年5月のGoogle I/Oで明らかにされたが、その詳細は公表されていなかった。そのTPUに関する論文が今年6月のISCA(International Symposium on Computer Architecture)で発表される。ISCAはコンピュータアーキテクチャ関係ではトップレベルの学会である。ということで、正式な発表は6月26日となるが、そのレビュー版の論文がGoogleから公開された。

[11:00 4/11]

東北大など、スパコンを用いて材料の強さに関わる解析・設計の手法を開発

東北大学は6日、同大 金属材料研究所の毛利哲夫教授、同大学工学研究科の陳迎教授、産業技術総合研究所の香山正憲首席研究員、大阪大学の尾方成信教授らによる共同研究グループが、スーパーコンピューターを用いて材料の強さに関わる解析・設計の手法を新たに開発したことを発表した。

[07:30 4/7]

DARPA、革新的な分子コンピュータ開発計画を発表

米国防総省・国防高等研究計画局(DARPA)は、革新的な分子コンピュータの開発計画を推進すると発表した。二進法で論理演算を行う現行のノイマン型コンピュータに替わり、分子の多様な構造特性を利用してデータの保存・検索・演算を行う新しいコンピュータ・アーキテクチャの実現を目指すという。

[07:00 4/3]

BASFとHPE、実効演算能力1PFlos超の化学研究用スパコンの開発を開始

BASFとHewlett Packard Enterprise(HPE)は、BASFのルートヴィッヒスハーフェン本社において工業化学研究用としては世界最大級となるスーパーコンピュータ(スパコン)を共同で開発することを発表した。同スパコンはXeonプロセッサをベースとした、Intel Omni-Path Fabricによる数百ノードクラスのシステムとなり、実効計算能力は1PFlopsを超す予定であるという。

[17:43 3/28]

日立、深層学習/AI活用で映像からリアルタイムに人物を発見する技術を開発

日立製作所は3月27日、人工知能(AI)を活用することで、人物の性別や服の色、所持品といった12種類100項目以上の人物の特徴をリアルタイムに判別し、かつそれらを組み合わせることで、探したい人を即座に発見し、追跡を可能とする技術を開発したと発表した。

[16:19 3/27]

スパコンから自動運転まで盛りだくさんな「COOL Chips 20」

日本で開催されるIEEE主催のプロセサ関係の国際会議である「COOL Chips」が、今年も4月19日からの3日間、神奈川県横浜市にある横浜情報文化センターにて開催される。20回目の節目の会議となる今回は、2つのチュートリアルが19日に実施されるほか、20日は低消費電力に関するパネルディスカッションが開催される予定となっている。

[11:00 3/22]

NEC、独アーヘン工科大にスカラ型スパコン「LXシリーズ」を納入

NECとNECドイツは3月17日、ドイツの大学支援プログラムであるエクセレンス・イニシアティブに指定された11大学の1つであり、工学と自然科学を結び付ける独自のアプローチを行う欧州有数の大学である独アーヘン工科大学のITセンターにスカラ型スーパーコンピュータ(スパコン)であるHPCサーバ「LXシリーズ」を納入したことを発表した。

[16:48 3/17]

Hisa Andoのディープラーニング挑戦記 第6回 DIGITSの画像分類を実行してみる

学習が実行されると、結果が出力される。ディープラーニングを実施すると、当然であるが、学習に使用するデータのロスを小さくするように学習するので、誤差(ロス)が小さくなっていく様子を確認することができる。

[09:00 3/17]

NVIDIAとMicrosoft、ハイパースケールGPUアクセラレータ「HGX-1」を発表

NVIDIAとMicrosoftは3月8日(米国時間)、AIクラウドコンピューティングの推進に向けた新たなハイパースケールGPUアクセラレータ「HGX-1」の詳細な設計を発表した。

[15:01 3/13]

AI活用で社会課題の解決を目指す - 理研が東芝/NEC/富士通の3社とAI研究センターを設立

理化学研究所(理研)は既報のとおり、3月9日に東芝、NEC、富士通の3社と2017年4月1日付で、革新知能統合研究センター(理研AIP)に連携センターをそれぞれ開設することで合意したことを明らかにした。

[17:01 3/10]

Hisa Andoのディープラーニング挑戦記 第5回 ハンズオントレーニングを実際に受けてみる

実習にはGPUシステムが必要である。しかし、NVIDIAのGPUを使ったDIGITS DevBoxを使うのではなく、実習者各人がAmazon EC2のGPU付きのインスタンスを立ち上げて使う。実習者はGoogle ChromeなどのWebブラウザが動くノートPCを持ちこんで、それをWi-FiでAmazonのクラウドデータセンターに繋げば実習環境が出来上がる。

[09:00 3/10]

Quaocomm、データセンター向け10nmチップ活用でMicrosoftと提携

Qualcommは3月8日(米国時間)、同社の10nmプロセス採用データセンター向けチップ「Qualcomm Centriq 2400プラットフォーム」での次世代クラウドサービスの加速に向け、Microsoftと協業することを発表した。

[16:52 3/9]

エッジでのAIが可能に-NVIDIA、小型プラットフォーム「Jetson TX2」を発表

NVIDIAは3月7日(米国時間)、エッジデバイスによるAIコンピューティングを実現するクレジットカードサイズのAIプラットフォーム「NVIDIA Jetson TX2」を発表した。 NVIDIAは3月7日(米国時間)、エッジデバイスによるAIコンピューティングを実現するクレジットカードサイズのAIプラットフォーム「NVIDIA Jetson TX2」を発表した。

[18:11 3/8]

量子コンピュータより高速な"非決定性万能チューリングマシン"は可能-英大

マンチェスター大学の研究チームは、DNAを利用することによって超高速で並列処理計算を行う新型コンピュータが実際に作製可能であるとする研究を発表した。量子コンピュータを使っても現実的な時間内に解くことができないと予想されている難問も短時間で解くことができると主張している。

[12:24 3/8]

AMD、サーバ向け次世代CPU「Naples」の2017年第2四半期中の出荷を計画

AMDは3月7日(米国時間)、次世代サーバ向けCPU「Naples」(開発コード名)のプレビュー公開を行い、2017年第2四半期に最初の製品出荷を予定していることを発表した。

[11:45 3/8]

富士通、理研から国内最大規模となるAI研究専用スパコンを受注

富士通は3月6日、理化学研究所(理研)の人工知能研究専用スーパーコンピュータ(スパコン)となる「ディープラーニング解析システム」を受注したことを発表した。

[09:00 3/7]

PALTEK、XilinxのFPGAを搭載したコンピューティングプラットフォームを開発

PALTEKは3月6日、ベクトロジーと共同で、XilinxのFPGA「16nm UltraScale+ FPGA VU3Pシリーズ」を搭載したFPGAコンピューティングプラットフォーム「DATA BRICK」を開発したと発表した。

[06:00 3/7]

IBM、50qubitの商用汎用量子コンピュータシステム「IBM Q」の構築を計画

IBMは3月6日(米国時間)、商用利用可能な汎用量子コンピューティング・システム「IBM Q」の構築に向けた新たな取り組みについて発表した。

[16:09 3/6]

コンピュータアーキテクチャの話 第373回 「推論」の精度 - INT8でも性能低下は僅か

画像にしろ、音声にしろ、元々アナログ量であり、それほど高い精度を持つデータではない。また、多数の入力画像を学習するので、偏りさえ無ければ、それほどの計算精度は必要ないという考えも成り立つ。実際に適用して見ると、半精度の16ビット浮動小数点演算でもOKで、正規化は必要なものの、8ビット精度の整数演算でも、性能の低下は僅かであると報告されている。

[10:00 3/3]

Hisa Andoのディープラーニング挑戦記 第4回 DIGITSを用いたディープラーニングの実習を体験してみた

「NVIDIA Deep Learning Institute 2017」では、NVIDIAのディープラーニング用システムである「DIGITS」を用いたハンズオントレーニング(実習)「DIGITSで始めるディープラーニング画像分類」が行われた。この実習の目的は、ディープラーニングのイントロダクションとしてニューラルネットワークのトレーニング(学習)を行い、トレーニングの結果を理解することである。

[09:00 3/3]

Hisa Andoのディープラーニング挑戦記 第3回 ニューラルネットワークの学習の基礎を学ぶ

学習を行う際には、収集したデータを訓練データと検証データに分ける。そして、学習時には訓練データだけを使って重みを調整し、それが終わると、検証データを使って、それまでに見たことが無い画像でも認識がうまく行くかという学習の成果を確認するというやり方がとられる。

[09:00 2/24]

最先端技術にチャレンジするスパコン - 東工大のTSUBAME3.0

東京工業大学(東工大)の3代目スーパーコンピュータ(スパコン)である「TSUBAME3.0」は最先端の技術チャレンジに挑むスパコンであり、継続運用するTSUBAME2.5と合わせて15-20PFlopsの演算性能、4-5PB/sのメモリバンド幅、ペタビット級光ネットワークを持つ先端的スパコンである。

[10:30 2/21]

産総研、東工大に実社会ビッグデータ活用に向けた研究拠点「RWBC-OIL」設立

産業技術総合研究所(以下、産総研)は、東京工業大学(以下、東工大)と共同で、同学大岡山キャンパス内に「産総研・東工大 実社会ビッグデータ活用オープンイノベーションラボラトリ」(AIST- Tokyo Tech Real World Big-Data Computation Open Innovation Laboratory、以下、RWBC-OIL)を設立した。

[16:39 2/20]

バックナンバー

このカテゴリーについて (テクノロジー>スパコン/HPC)

 トップへ
スーパーコンピュータ/HPC分野で活用される話題をお届けします。

人気記事

一覧

イチオシ記事

新着記事