ニュース
PFNが深層学習プロセッサを開発した理由は「世界の先を行くため」:人工知能ニュース(2/2 ページ)
Preferred Networks(PFN)は2018年12月12日、ディープラーニングに特化したプロセッサ「MN-Core(エムエヌ・コア)」を発表した。同プロセッサは学習の高速化を目的とし、行列の積和演算に最適化されたものとなる。FP16演算実行時の電力性能は世界最高クラス(同社調べ)の1TFLOPS/Wを達成した。
2020年春に高性能計算クラスタを構築、最終的には2EFLOPSにも
同じく展示されたMN-Core Boardは、1チップのMN-Coreと32GBのメモリを搭載したアクセラレータボード。搭載するメモリ規格は未公開とするが、「メモリバンド幅がネックになるようなことはない設計」とした。消費電力が500Wにも達するMN-Coreを搭載するため、同ボードでは30層の多層基板を採用。消費電力予想値は600Wとなっている。
MN-Core Serverは、最大で4枚のMN-Core Boardを搭載する7Uサイズのラックマウントサーバー。独自設計の内部構造と内蔵ファンを採用し、TDP200WクラスのCPU2基とMN-Core Board4枚が発する熱量を空冷で処理する。MN-Core Boardを4枚搭載した場合、1ノードあたりのピーク性能は約2PFLOPS(FP16)となる見込みだ。
同社ではMN-Core Serverを用いた大規模計算クラスタ「MN-3」を2020年春に構築する予定で、最終的には2E(エクサ)FLOPSのピーク性能にまで規模を拡大させる方針だ。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 深層学習研究用のプライベートスパコンが稼働開始、民間では国内最大規模
Preferred Networksは、深層学習を研究開発するためのプライベートスーパーコンピュータの稼働を開始した。計算ノードにNVIDIA製のTesla P100 GPUを1024基搭載し、民間企業の計算環境としては、国内最大規模のスーパーコンピュータとなる。 - 「ロボットはPCと同じ道をたどる」PFNが描くロボットの将来像
「CEATEC JAPAN 2018」(2018年10月16〜19日、千葉県・幕張メッセ)の基調講演にPreferred Networks(以下PFN)代表取締役社長兼最高経営責任者の西川徹氏が登壇。「全ての人にロボットを〜Robots for Everyone」をテーマに講演した。 - PFNが全自動お片付けロボットで示した可能性、2020年投入の開発ツールで具現化
ベンチャー企業のPreferred Networks(PFN)は、「CEATEC JAPAN 2018」において、散らかった部屋の中のさまざまなモノを片付ける「全自動お片付けロボットシステム」を披露した。現在同社で開発を進めているパーソナルロボットシステムの技術デモとなる。 - “プロセッサ”を開発する東芝メモリ、その技術と狙い
東芝メモリがプロセッサの開発を発表した。現業から離れているように見えるプロセッサの開発を通じて東芝メモリは何を目指すのか。今回発表された技術の概要と開発の狙いを聞いた。 - アマゾンがAIチップを開発、処理性能は数百TOPS【訂正あり】
AWS(Amazon Web Services)は「AWS re:Invent 2018」において、ディープラーニング(深層学習)をはじめ機械学習によって得たアルゴリズムの実行(推論:Inference)に特化したAI(人工知能)チップ「AWS Inferentia」を発表した。 - グーグルがエッジデバイスにもAIチップを展開、推論実行に特化した「Edge TPU」
グーグル(Google)は、米国サンフランシスコで開催したGoogle Cloudのユーザーイベント「Google Cloud Next 2018」の発表内容について説明。同イベントの発表で製造業が最も注目したのは、エッジデバイス上で機械学習モデルの推論実行を効率良く行うためのASICチップ「Edge TPU」の提供だろう。