昨年、突如登場した「AI PC」というキーワード。NPUや「Copilotキー」の搭載などがその条件と考えられていた。極端な話では、『インテルの「Core Ultraプロセッサー」を搭載していれば、AI PCなのではないか?』といった憶測もあった。ところが今年の6月、マイクロソフト社が提唱する「Copilot+ PC」の要件は、1秒あたりの操作(TOPS)で40兆以上の処理性能を持つNPUが組み込まれているプロセッサーまたはSoCであると発表された。今回の特集では、明らかになったAI PCの概要についてレポートする。
Copilot+ PCはAI PCへのマイクロソフトの解答
AI PCという謎のワードが突如現れたのは昨年のことだ。そして今、その全貌が急速に明らかになってきた。まずはAI PCに関する共通理解から押さえていきたい。現在、AI PCは以下の条件を備えるPCを指すことが一般的だ。
【1】NPUを搭載している。
【2】Copilot in Windowsが使用できる。
【3】Copilotキーがある。
NPUを一口に言えば、AIによる機械学習の主流であるディープラーニングの処理に最適化されたプロセッサー。機械学習に必要なコンピューティングリソースを提供しながらも処理の省電力化によりモビリティの確保を実現する。ご存じのとおり、Copilot in Windowsは2023年9月に発表され、同年12月から提供が開始されたWindows OSに組み込まれたAIアシスト機能。またCopilotキーが発表されたのは今年1月のことだ。Windowsキーの登場から30年ぶりにキーボードに追加された新キーは、Copilot in Windows起動を目的としたもの。左側のWindowsキーと左右対称になる右側に配置されるのが一般的だ。
もちろん、条件が定義されたからといって理解が進むというわけではない。これだけでは、AI PCの正体は謎のままと言わざるを得ない。これらの点と点を線で結ぶうえで大きな役割を果たすことになったのが、今年5月に行われたマイクロソフトのCopilot+ PCの発表だった。
今年6月のMicrosoft Surfaceシリーズの対応製品発売によって具体像が明らかになった、Windows PCの新カテゴリーとしてのCopilot+ PCの実像を理解するうえで注目すべきポイントは大きく二つある。
一つはSoCに、ARMベースのQualcomm
Snapdragon X Elite/Plusが採用された点だ。ではなぜ、定評あるX86ベースのIntelやAMD製品でなく、既存アプリとの互換性に懸念が残るARMベースのSoCが採用されたのか?
実は、その理由は明快である。マイクロソフトのドキュメントではCopilot+ PCのNPUの演算速度を40TOPS(1秒あたりの処理が40兆)以上に設定しているが、2024年上半期時点で条件を満たしているNPUはQualcomm Snapdragon X Elite/Plus以外には存在しなかったのだ。
なぜ40TOPS以上なのかという疑問も当然生じるはずだ。AI PCとしての必要最小限の性能を発揮するには40TOPS以上のスペックが必要だといわれればそれまでだが、一方で、NPU搭載PCの領域で先行するAppleが今年5月に発表した次世代Appleシリコン「M4」に38TOPSのNPUが搭載されたこととの関連を疑っても的外れではないはずだ。
実は、2024年上半期時点でIntel、AMDが提供するPC用NPUの演算速度は10TOPS前後に留まるのが実情だった。こうした中、マイクロソフト社が40TOPSという条件を掲げた背景に、Appleやグーグルと覇を競うAI PC市場をリードしたいという強い意識があったことは間違いないだろう。
なおQualcomm Snapdragon X Elite/Plusを搭載するAI PCは、Acer、ASUS、Dell、HP、Lenovo、SamsungなどのグローバルOEMメーカー各社からも既に発売されている。
もう一つの注目ポイントが、マイクロソフトが開発するSLM(小規模言語モデル)Phi Silicaが実装された点である。ChatGPTに代表される生成AIは、LLM(大規模言語モデル)と呼ばれる巨大なデータセットを高速処理する言語モデルが前提になる。しかしPCのスペックの制約を考えればLLMを回すことは現実的ではない。ではどうやってAIをデバイス側で稼働させるのか。AI PCに関する話題が、謎に包まれてきた理由の一つもそこにある。なおマイクロソフトはCopilot+ PCの発表に合わせ、Phi Silicaに接続するWindowsアプリ開発キットを発表している。SLMに接続するアプリ開発は、今後のITビジネスの領域においてホットな話題になることは間違いないはずだ。
LLMの問題を解決するSLMとは何か
AI PCを理解するうえでは、NPUとSLMという二つのキーワードについてもう少し深掘りする必要があるだろう。まずはSLMから見ていこう。
既に触れたとおり、LLM(大規模言語モデル)は生成AIの進化に大きな役割を果たした。言語モデルを一口に言えば、多様な文章における単語の出現確率をモデル化したものだ。AIによる回答は、一見すると質問内容を理解しているように思える。だが本質的には単語列の確率分布に基づき、単語を並べているにすぎない。
LLMによる確率分布が自然な会話を可能にする理由は実は今も不明な部分が多いようだが、いずれにせよ、LLMの名前どおり、データ量及び計算量、パラメーター数の巨大化によって実現されたことは間違いない。
データ量とはその名のとおり、文章データの情報量を指す。インターネット普及に伴う、多様な文章のデジタル化はLLMの進化に大きな役割を果たした。計算量はその名のとおり、コンピューティング量を指す。ではパラメーター数とは何か。
LLMでは、ディープラーニング(深層学習)と呼ばれる機械学習技術が用いられる。これはニューロンとシナプスに基づく人間の認識の仕組みを模したもので、刺激(入力)量が一定のしきい値を超えると次のノードに情報を伝達するというのが基本的な考え方になる。パラメーター数とは、同時並行的に処理することが可能な能力で、人間の脳に例えるならニューロン数に置き換えることもできる。
LLMの進化はパラメーター数増大の歴史でもある。その飛躍的な拡大が、今日のAIを形づくったといっても過言ではない。ChatGPT-4のパラメーター数は5,000億~1兆と推定される。人間の脳のニューロン数は1000億個といわれることを考えれば、単純比較はできないが、その膨大さは理解できるはずだ。
データセンターのリソースだからこそ可能になる、パラメーターによる一連の処理をデバイス側が担うのは、当然ながら現実的ではない。こうした観点で開発が進んだのがSLM(小規模言語モデル)である。この分野で先行したのはグーグルで、Gemini Nanoを2023年12月に発表し、同社のハイエンドスマホに実装を開始し、AppleもApple Intelligenceと名付けたSLMを開発していることを既に発表している。
こうした中、マイクロソフトは以前からPhi-3ファミリーと名付けたSLM開発を行ってきた。Copilot+ PCへの実装が発表されたPhi Silicaは、ファミリーの中で最小となる33億パラメーターで稼働するSLMという位置付けになる。なおLLMやSLMによる言語モデルは、対話型AIだけでなく、画像生成まで含め、全ての生成AIの基盤になっている。