Facebook x

ジャンル

「なぜAI分野ではCPUよりGPUが重視されているの?」未来を動かす半導体の話題
AI関連 2024.01.18
x hatenabookmark
0

「なぜAI分野ではCPUよりGPUが重視されているの?」未来を動かす半導体の話題

執筆: 大木 晴一郎

ライター

「AIではGPUが重要というけど、GPUってグラフィックス用じゃないの?」
「富岳にはGPUがないと聞いたけどホント?」
「Armが上場とのニュースを見てなんの会社か調べてしまった」
「NDIVIAはゲーム用のグラフィックボードを作っている?」

など、半導体関係のニュースを目にして気になったことはありませんか?今回は半導体に関するちょっとした疑問や話題を集めてみました。

もくじ
  1. 「AI分野でGPUが活用されている理由は?」
    1. GPU(Graphics Processing Unit)とは?
    2. GPUの進化
    3. AIとGPUの関係
    4. AI分野で「使える」と評価される理由
  2. 「スパコン"富岳"にGPUが搭載されていないってホント?」
  3. 「SoCが"熱い"といわれるのはナゼ?」
    1. SoC(System on a Chip)とは?
    2. スマホやドローンの核として注目されていく
    3. エッジコンピューティングでの活用
  4. 「NDIVIAとArmが注目されているのはどうして?」
    1. 業界をリードしているNDIVIA
    2. 2023年、Arm上場
    3. NDIVIAとArmから目が離せない!?
  5. まとめ

1.「AI分野でGPUが活用されている理由は?」

1-1 GPU(Graphics Processing Unit)とは?

GPU(Graphics Processing Unit)とは、主に3Dグラフィックスなどの画像描写を行う際に必要となる計算処理を行う半導体チップ(プロセッサ)の一種です。

通常のCPU(Central Processing Unit)が一般的な計算やコントロールのタスクを処理するのに対して、GPUは大量のデータを同時に処理し、高度なグラフィックスを描画することが得意です。簡単にいえば、GPUは大量のデータを並列処理することが得意なプロセッサということになります。

元々はグラフィックス処理に特化して開発されましたが、GPUの高い演算性能を活用して、最近では3Dグラフィックス以外の計算処理も行わせるGPGPU (General-purpose computing on graphics processing units)技術も数多く登場しました。GPGPUを活用することで、一般的な計算作業も行えるようになり、汎用的な処理能力を持つようになったのです。

最近では、スーパーコンピュータに迫る性能を持つサーバーを安価に構築できるようになりました。今では、ディープラーニング(深層学習:Deep Learning)や科学計算、仮想通貨のマイニングといったタスクでGPU(GPGPU)が優れた性能を発揮するようになっています。

1-2 GPUの進化

GPUは驚異的に進化してきました。初期のGPUは主に2Dグラフィックス処理に特化していて、ゲーム分野で注目を集めていました。そして、1990年代後半ごろから3D描画に対応するようになり、さらにビデオゲームの進化に歩を合わせて進化をつづけています。

その後、GPUはより複雑な計算にも対応するようになり、2010年代に入り、NVIDIAのCUDAやAMDのOpenCLといったプログラミングフレームワークが登場したことで汎用性が高くなり、より広く普及しました。上述したGPGPUも知られるようになり、機械学習やディープラーニング、科学技術計算のような複雑な計算に積極的に活用されるようになり、現在に至ります。

1-3 AIとGPUの関係

ここまで述べてきたことでお判りいただけるようにAIとGPUは密接な関係があります。AIは大量のデータを処理するために高い計算能力を必要とします。その意味で、GPUはAIの要求に応える理想的なプロセッサだったわけです。もし、CPUで行っていたら、1つのタスクを順番に処理することになるため、大量データを処理するのに時間がかかっていたはずです。GPUがAIの発展に大きく寄与してきたといって差し支えないと思います。

特にディープラーニング領域では、複雑とされるニューラルネットワークの学習や推論過程をGPUが劇的に高速化しました。GPUは大量の行列演算を同時に処理できるので、非常に効果的だったのです。NVIDIAのCUDAやTensorFlow、PyTorchといったフレームワークがGPUを活用し、AIの研究や実用化を推進しています。

1-4 AI分野で「使える」と評価される理由

GPUがAIの世界で「使える」と人気の理由は、その高い計算能力と並列処理能力にあります。AIのタスクは通常、大量のデータを処理し、複雑な数学的演算、特に行列演算をします。ここで、並列処理の特性を持ち、同時に多くの演算を行えるGPUが輝きを見せていることになります。

2.「スパコン"富岳"にGPUが搭載されていないってホント?」

富岳.png

出典:スーパーコンピュータ「富岳」

日本の理化学研究所が運用するスーパーコンピュータ「富岳」は並列分散処理に強みがあるといわれています。「富岳」には前項でお伝えしたGPUは搭載されておらず、「A64FX」というCPUで動作しています。このことが話題になったのは、2023年5月に東京工業大学や富士通等を中心に、2023年度中に「富岳」を使って高度な生成AIを開発すると発表されたためでした。

2023年前半までには、一般的には「AIはGPUを使うもの」という薄い認識があったので「GPUがない富岳でAIが開発できるのか?」と疑問に思う人が多かったことになります。その疑問に答える取材記事もその後、いくつか発表されています。

前後の報道を見ると、富岳はAIの開発に必要な高速な演算処理が可能で、AIの開発に必要な性能を有していることがわかります。

3.「SoCが"熱い"といわれるのはナゼ?」

3-1 SoC(System on a Chip)とは?

SoC(System on a Chip)は、1つの半導体チップ上に、複数の異なる機能やコンポーネントを統合した集積回路です。これにより、コンピュータシステム全体が1つの小さなチップに収められ、高度な機能を持つ小型で効率的なデバイスを作ることができます。

「SoC」と「o」を小文字で記すのが一般的です。「SOC」(センター大文字)の場合、「Security Operation Center」の略でサイバー攻撃をはじめとするインシデントの発生を把握するチームのことを指すことが多いようです。

SoCには通常、様々なコンポーネントが組み込まれています。プロセッサ(CPU)やメモリ、グラフィックス処理ユニット(GPU)をはじめ、USB、HDMI、イーサネット、Wi-Fi入出力コントローラ、USB、HDMI、イーサネット、Wi-Fiなどといった各種入出力ポート、カメラ等のセンサーを利用するセンサーインターフェース、Bluetooth、GPS、NFCを動かす通信インターフェースなどです。写真で見ると、非常に小さなチップに多くの機能が凝縮されていることに驚かされます。

SoCは、現在、主にスマートフォン、タブレット、スマートウォッチ、IoTデバイスや自動車内部の機器、産業機器、ドローン等々の小型電子機器で活用されています。とにかく小型で省電力、高機能であることは、スマートフォンを使っている方ならすぐに実感できることだと思います。

3-2 スマホやドローンの核として注目されていく

SoCは主にスマホをはじめとするモバイルデバイスや組み込みシステムで広く使用されています。今後、さらなる小型化と省電力化が求められると同時に、競争が激しくなってきたこともあり、低コスト化も求められるようになっています。

同時に、スマホだけでなく自動車や産業機器といった分野で高性能化が求められています。それもあり、SoCによって提供される新たなソリューションがどうなっていくのか、今後の開発動向に注目が集まっています。

3-3 エッジコンピューティングでの活用

SoC分野で今後、さらに注目を集めそうなテーマが「エッジコンピューティング(Edge Computing)」です。
エッジコンピューティングは、データ処理をデバイスやセンサーの近くで行って、クラウド等へのデータ転送を最小限に抑える技術です。こうすることでリアルタイム処理を向上させると同時に、ネットワークの負荷を軽減する狙いがあります。自動運転技術やMaaS(Mobility as a Service)技術、ドローンなどのデバイス分野でとくに活用されるのではないかとみられています。

また、AI(人工知能)の進化に伴って、SoCによってディープラーニングや機械学習のための処理能力を制御する機会も増加しそうです。

例えば、スマホやスマートスピーカーといったデバイスで、SoCが音声認識や画像処理といったAIタスクをローカルで処理することで反応速度を上げ、ユーザーエクスペリエンスを向上させることが考えられます。

SoCは高度な処理能力とリアルタイム性が求められるエッジコンピューティング領域と相性が良く、スマホやドローン、自動運転技術等、今後のIT関連の注目ジャンルでは欠かせない技術となっています。今後も"熱い"状況がつづいていくでしょう。

4.「NDIVIAとArmが注目されているのはどうして?」

4-1 業界をリードしているNDIVIA

CUDA.png

出典:CUDA Toolkit - Free Tools and Training(NVIDIA Developer)

NVIDIAはグラフィックス処理ユニット(GPU)の分野で業界をリードし続けています。高度な並列処理能力を持つ、優れたGPUアーキテクチャでゲームや専門的な計算、AIなどで優れた性能を発揮してきました。NVIDIAは、CUDA(Compute Unified Device Architecture)と呼ばれるプログラミングフレームワークを提供しており、エンジニアがGPUを活用しやすい環境を整えています。

ディープラーニング分野では、Tensor Coreなどの専用機能を搭載したGPUが高い評価を受けており、AI研究や産業応用においてもその性能は高く評価されています。さらに、自動運転車やクラウドゲーミングなど未来志向の技術にも注力していることから、NVIDIAがGPU分野のリーダー的な存在となっています。

4-2 2023年、Arm上場

Arm.png

出典:未来のコンピューティングを築く(Arm®)

「ARMアーキテクチャ」で知られるイギリスのArmは、エイコーン・コンピュータ、Apple Computer、VLSIテクノロジーのジョイントベンチャーとして1990年に創業しました。

ARMは「Advanced RISC Machine」の略です。現在では、スマートフォン(携帯電話)市場ではトップのSoC企業とされています。

Armの特徴は、技術を知的財産権(IP)としてライセンス提供して、例えばインテルのように自社でCPUを生産しないファブレス企業だということです。「ファブレス(fabless)」とは、工場(fab)を持たない(less)と文字通りの意味です。

Armのライセンスによって、多くの企業がArmベースのプロセッサをカスタマイズして、様々なIoTデバイスなどに採用しています。Armの技術は数多くのスマートフォンやモバイルデバイスだけでなく、ドローンや組み込みシステムなどでも活用され、サーバーや自動車の自動運転技術といった新たな分野でも展開されています。

2016年9月には、Armの全株式をソフトバンクグループが買収して、Armはソフトバンクグループの傘下に入りました。そして、2023年8月21日には「Armホールディングス」が米ナスダック市場に上場しています。ソフトバンクグループということもあって、この上場は日本でも大々的に報じられ、話題になりました。

4-3 NDIVIAとArmから目が離せない!?

GPU領域で圧倒的な強さを誇るNVIDIAは、2020年から2022年にかけてSoC領域を牽引するArmの買収を試みたことがあります。NVIDIAとArmの合併により、CPUとGPUを組み合わせたSoCを開発すると、競合優位性が圧倒的に高まると見られていましたが、圧倒的すぎて独占禁止法への抵触が不安視されるなどして、NVIDIAは買収を断念しています。

その後、2023年にArmホールディングスが上場した流れとなります。NDIVIAとArmからは今後も目が離せそうにありません。

まとめ

半導体とSoC(System on a Chip)は、人間の未来を切り開くために欠かせない技術です。

半導体は我々の生活を支える電子機器を構築するための基本であり、もはや人類が手放せない道具の1つになっています。

GPU、SoCをはじめとする半導体技術は、今後も必須の技術として、スマートフォンやIoTデバイス、自動運転技術といった最先端のツールを支え、今後も新たなイノベーションや産業の進化を支える「鍵」となっていくはずです。

今後期待される、医療機器の発展やスマートシティの構築など様々な分野で、半導体が活用されていくでしょう。

AI関連
x hatenabookmark
0

執筆: 大木 晴一郎

ライター

IT系出版社等で書籍・ムック・雑誌の企画・編集を経験。その後、企業公式サイト運営やWEBコンテンツ制作に10年ほど関わる。現在はライター、企画編集者として記事の企画・編集・執筆に取り組んでいる。