TOPICS & NEWS
日本の一流メーカーの工場跡地がデータセンター用地として採用される動きが進んでいます。データセンター用地としての工場跡地の魅力には土地の広さと電力確保の容易さが挙げられますが、今回はその具体的な状況を紹介していきます。
① マレリ
オーストラリアの不動産開発大手レンドリースが、データセンター事業に参入し、さいたま市北区日進町の自動車部品メーカーマレリから取得した敷地に同社として初のデータセンター建設を進めています。
レンドリースは豪に本社を置き、アジア、欧州、北米に拠点を置く不動産グループ。
データセンター事業の初プロジェクトとなる今回の施設は、都心から約30キロのマレリの工場跡地約3万3000平方メートルの敷地に2022年6月から建設を進めてきました。
内装工事が進む1期棟は地上6階建て(延床面積約3万平方メートル)で、IT負荷容量は48メガワットを備えます。
24年秋以降の稼働を目指し、隣接地には今後、同規模程度の2期棟を整備する予定です。
② 日野自動車
日野自動車は、本社に隣接する東京都日野市の日野工場の敷地の一部を売却する方針を発表しました。工場敷地の3分の1にあたる11万4000平方メートルの土地が対象となります。データセンターの建設用途に限定して指名競争入札の手続きを進めています。
周囲には住宅が多いことから、居住環境への影響などを考慮して用途をデータセンター向けとし、複数企業に入札を要請。譲渡する土地で一部のトラック部品生産が残っており、茨城県古河市の古河工場などに移転を終え次第、更地にして引き渡す予定です。
同社はエンジン不正の影響で22年3月期の連結最終損益が847億円の赤字でした。23年3月期の連結営業利益も前期比82%減の60億円を見込むなど、苦境が続いています。
敷地売却の目的は「遊休資産の活用で財務基盤のさらなる安定を図るため」(同社)としています。
③ シャープ
シャープは、液晶事業を縮小するため9月末までに生産を停止する大阪府堺市の堺工場の一部売却に向け、ソフトバンクと独占交渉権を含む基本合意書を結んだと発表しました。
ソフトバンクは、土地・建物の一部を譲り受け、生成AI(人工知能)の開発などに活用する大規模なデータセンターを構築する計画で、2024年秋の着工、25年中の本格稼働を目指します。
堺工場の跡地活用を巡り、シャープは先にKDDIなどともAIデータセンター設立に向けた協議を始めることで合意しています。ソフトバンクとは別の敷地を提案して協議を続けていくということです。
経営の取り組みの多様化
各地でデータセンター建設が進行する中、データセンターという経営テーマへの取り組みも多様化しています。
日本のNECがデータセンターの売却を検討していると報じられています。
またITインフラ・サービス大手のNTTデータグループが、データセンターに特化した不動産投資信託(REIT)市場に参入することを発表。国内企業によるデータセンター特化型 REITの設立は国内初となります。
2026年3月の運用開始を目指し、資産規模は最大1,000億円を見込んでいます。NTTデータは、この新体制を活用し、AIなどによる需要急増を取り込み、データセンター建設を加速させる狙いだとしています。
日本の大企業の経営改革において、データセンターというテーマの重要性が増してきていることがわかります。新たな取り組みを企画する企業も増えていくことが予想されるので、今後もその状況を紹介していきたいと思います。
2024.07.16
IDC Japan株式会社は、国内ハイパースケールデータセンターの需要量に関する分析結果を発表。2045年末時点のハイパースケールデータセンターの需要量は、2023年の国内キャパシティの約4倍に達する可能性があると分析しています。
※ ハイパースケールデータセンターとは、AWSやグーグル、マイクロソフトなどのメガクラウドサービス事業者が、クラウドサービスを提供するために利用する巨大なデータセンターのこと。
クラウドサービス事業の急成長を背景に、すでに国内では千葉県印西市などで複数の巨大データセンターの増設が進められていますが、これに加えて、生成AI機能をクラウドサービスで利用する需要が拡大しています。生成AI用途のハイスペックサーバーはハイパースケールデータセンター内に配備することが多く、その結果として、ハイパースケールデータセンターに対する需要は増加。この需要に対応するために、データセンター事業者や不動産事業者が、データセンターを新設してキャパシティの供給量を増加させているということです。
2040年までにデータセンターが消費する電力は6倍になる見通し
生成AI対応のデータセンターには、HPCサーバーやGPUサーバーが設置され、大量の電力が消費されます。更に冷却のための電力も大量の必要となることから、生成AIの普及を背景に、電力消費が爆発的に増えることになります。
世界のデータセンターの電力使用量については、省エネ対策などを実施しない場合は、2040年に22年比6倍超の2761テラ(テラは1兆)ワット時に増えるとの見通しが示されています。
緊急の課題は円滑な電力供給、そして再生可能エネルギー電源の確保へ
国内においても、加速するデータセンター需要に対して、課題である電力供給への対策が急がれています。2050年カーボンゼロの方針を打ち出している企業も増えていることから、PPA(Power Purchase Agreement)により再生可能エネルギー電源の確保を打ち出すデータセンター事業者も増えてきました。経済産業省の電力・ガス取引監視等委員会も、生成AIの利用拡大で新設が見込まれるデータセンターについて、立地先を再生可能エネルギーが豊富な地域に誘導する方策を検討するなど動きを見せています。
急成長を続ける国内データセンター市場の重要な課題である“電力確保”“再生可能エネルギー電源の確保”。その対策について、今後も注目していきたいと思います。
2024.06.26
米半導体大手NDIVIAの時価総額が5日、初めて3兆ドル(約468兆円)を突破しました。
NDIVIAの時価総額は今年2月に初めて2兆ドルの大台を突破。生成AI向け半導体が支えとなり同社の業績は急拡大しています。米株式市場のけん引役として存在感を高めており、2兆ドル突破からわずか3カ月余りでの3兆ドル超えとなりました。
AIを含むデータセンター向けの売り上げが業績を押し上げており、5月に発表した2024年2~4月期決算は、純利益が前年同期の約7・3倍の148億8100万ドル、売上高は約3・6倍の260億4400万ドルに膨らみました。
強いNDIVIA、その背景
NDIVIAが製造しているのはGPU(画像処理半導体)です。GPUは動画・画像・アニメーション表示などのディスプレー機能のために設計されたチップで、ゲーミングPCなどで映像をなめらかに表示するために用いられてきました。
今、このGPUの需要が拡大しています。その起爆剤となっているのが、「データセンター」とChatGPTに代表される「生成AI」。
これまでデータセンターにはCPU(Central Processing Unit)のみ搭載するケースが一般的でしたが、AIの普及によってCPUと併せて、GPUもデータセンターに搭載する流れが進行。ただデータセンターの中でGPUが搭載されているものは全体の1〜2割程度でした。
それが、生成AIの普及によって事情が変わります。
画像生成や自然言語生成などの生成AIでは、学習によって作り上げたAIモデルを動かして結論を得る「推論」というプロセスが必要になります。ChatGPTに質問をした際、答えが返ってくるのは「推論」の結果です。推論プロセスでは、学習プロセスよりも多くの計算が必要になります。そのため、大量の計算に適したGPUも併せて搭載する必要があるのです。
今後、世界のほとんどのデータセンターで情報を生成する主要な作業が生成AIになることは明らかで、また10年間で、世界のほとんどのデータセンターにGPUが搭載されることになると言われています。
AI開発業者のスタンダードNDIVIAの「CUDA」
GPUは、CPUとは異なり、大量の計算を同時に並列して行うことが得意ですが、その能力を引き出すためには、GPU向けの開発環境が必要です。
NDIVIAが開発した「CUDA」はそんな「GPU向けの開発環境の一つ」ですが、ニューラルネットの研究者たちの間で、CUDAが実質的なスタンダードになってしまったため、その上にライブラリも数多く作られ、今や、少なくとも学習プロセスに関して言えば、「CUDAを使う以外の選択肢はほぼない」状況になっているのです。
CUDAは、NDIVIAが自社製のGPUの上に作った開発環境であるため、結果として「ニューロンの学習プロセスにおいては、NVIDIAを使う」ことがスタンダードになってしまったということです。
CUDAはライバルが到底乗り越えられない競争上の「掘」としてNVIDIAを守っています。
当面はNVIDIAほぼ独占状態か
英調査会社オムディアによると、NVIDIAはデータセンター向けAI半導体の世界市場で77%(2023年)のシェアを持つとのこと。同社の先端のGPUはAIの開発を手掛ける企業の間で奪い合いになっています。
当面はデータセンター向けのGPU市場はNVIDIAのほぼ独占状態が予測されますが、GPUを扱う他の企業の動きにも注目していきたいと思います。
2024.06.12
2024年5月、OpenAIが、ChatGPTの最新モデルである「GPT-4o」をリリースしました。
テキスト、音声、画像を統合的に処理可能な最先端のマルチモーダルAIであり、無料版ChatGPTにも実装される点が注目されています。
GAFAをはじめ日本の企業でも新設ラッシュのデータセンターに大きな影響を与える生成AI、その代表格であるOpenAIのChatGPT最新バージョン「4o」は従来のものと何が違うのか、見ていきたいと思います。
GPT-4oとは?
ChatGPT-4o(Omni、オムニ)とは、2024年5月にOpenAIが発表したChatGPTの最新モデルです。オムニとはラテン語で「全て」という意味であり、文章だけでなく画像や音声も含む全ての情報を取り扱い、あらゆるタスクを実行できることを表しています。
従来のモデルであるGPT-4 Turboに比べて、圧倒的に回答精度と回答スピードが向上したことに加え、人間のように感情豊かに音声会話ができ、画像の細かい部分まで読み取るなど、あらゆる点においてバージョンアップしています。
GPT-4oの特徴と他のモデルとの違いは?
GPTシリーズは、OpenAIが開発する大規模言語モデルであり、その性能向上は目覚ましいものがあります。
2020年に発表されたGPT-3は、175Bのパラメータを持つ大規模モデルとして注目を集めました。2022年のGPT-3.5では、ChatGPTに実装され、一般ユーザーとの対話を通じて言語生成AIの可能性を広く知らしめました。そして2023年のGPT-4では、マルチモーダル化への第一歩が示されました。
GPT-4oは、このGPTシリーズの進化の延長線上に位置づけられます。ただし、単なる性能向上にとどまらず、音声・画像・テキストのスムーズな統合処理を実現した点で、従来のGPTとは一線を画しています。
従来のモデルと比べて大幅に向上した主要な評価ポイントを以下に紹介します。
① テキスト精度
複雑な文章の理解と生成において高い精度を誇ります。これにより、より自然で一貫性のあるテキスト生成が可能となります。
執筆に欠かせない記事構成案も簡単に作成することができます。
② テキスト・音声の応答速度
新しいアルゴリズムにより、テキストおよび音声の応答速度が改善され、リアルタイムでの対話がさらにスムーズになりました。また、音声に抑揚があるので、人と会話しているような感覚にもなります。
③ 音声認識と翻訳機能
音声認識機能の精度が向上し、多言語対応の翻訳機能も強化されています。これにより、グローバルなコミュニケーションがより効率的に行えます。
音声を認識し処理を行うことで、リアルタイムに翻訳することも可能です。
④ 画像の認識機能強化
画像認識能力も強化されており、画像の内容を高い精度で解析し、関連する情報を提供することができます。
画像データから文字を抽出することも可能です。読み取りづらい文字に関しては、その他の画像データから推測して文字を抽出することができます。
⑤ セキュリティ機能
日本語を含む20言語で新しいトークナイザーが導入され、セキュリティ面でも大幅な改良が施されています。これにより、データの安全性と処理効率が向上したとともに、ユーザーのプライバシーを保護しつつ、高速で安全なデータ処理が可能になりました。
進化するChatGPT
画像処理能力の向上や音声認識機能の追加など、今回のアップデートで驚かされる機能がたくさん追加されたChatGPT。
今後はリアルタイムビデオを介して会話できるようになり、読み込ませた動画の内容を音声で解説させることができる新しい音声モードのリリースも予定されています。
生成AIを牽引しているChatGPTの展開は今後のデータセンターにも大きく影響を与える要素になりますので、その様子は今後も随時ウォッチしていきたいと思います。
一方、今後さらに開発される新機能に期待が膨らむなか、消費電力は今までの何倍にも膨れ上がっていくことが予想されます。
日本においては新たに開設されるデータセンターの電力不足をどう解消していくのか。
こちらも併せて注視していきたいと思います。
2024.05.28
米オラクルは4月18日、今後10年間で日本国内のデータセンターに80億ドル(約1兆2000億 円)を投じると発表しました。また、米オープンAIも日本進出を発表。
他にもマイクロソフトなど、米クラウド大手が今年に入って表明した対日投資額は計4兆円に迫っています。こうした米クラウド大手の日本のデータセンター重視の背景には何があるのでしょうか。
生成AIの普及と安全保障のリスクへの対応
背景にあるのは、生成AI(人工知能)の急速な普及です。利用企業の間では基盤となる大規模言語モデルの学習や運用に使うクラウドサービスのニーズが高まっています。ドイツの調査会社スタティスタは日本のデータセンターの市場規模が28年に約240億ドルに達し、23年の1.4 倍に膨らむと予測しています。
しかし、クラウドサービスの安全保障のリスクが浮上。日本経済新聞などの調査によると、約半数の企業が各国の捜査当局などからの開示請求に関する十分な規定を整えていないことが分かっています。日本はデータの保管を海外に依存している企業が少なくない中、検閲などの懸念がある中国やロシアにデータを置く企業もあり、対応が急がれています。
セキュリティーやプライバシー意識の高まりからも、各国・地域の規制当局は自国のデータを国内で管理するデータ主権の考え方を重視するようになっています。日本政府も個人情報保護法で国境をまたいだ個人データの移転を制限しています。日本の企業は機密データを国内で管理するよう求められつつあります。
こうしたニーズに応えるため、米クラウド大手は相次いで日本国内での大規模投資を打ち出しています。
また、日本重視の動きはAI分野に限りません。世界最大の半導体受託生産会社、台湾積体電路製造 (TSMC)は約1兆3000億円を投じて熊本県内に建設した工場で24年末までに演算用半導体の量産に乗り出します。約2兆円を投じ、27年の稼働に向けて第2工場の建設も決めました。
同社はこれまで台湾に生産拠点を集中させてきましたが、中国の侵攻リスクをにらみ日本や米国、ドイツなどに生産拠点を分散する戦略を進めています。熊本工場の建設はその一環ですが、半導体の需要地で関連産業が集まる日本の重要性はさらに高まる可能性があります。
このような情勢は今後も大手クラウドの動きに影響を及ぼすことになりそうです。
AIは日本の経済成長に不可欠な要素
地震国で電気代も高い日本におけるデータセンターのコストは海外に比べ割高とされていますが、クラウドサービスでマイクロソフトと競合する米アマゾン・ウェブ・サービス(AWS)や米グーグルも国内で大規模なデータセンター投資に乗り出しています。
マイクロソフトのブラッド・スミス社長は日本について「人口が高齢化し減少する中、持続的な経済成長にとってAIは不可欠な要素だ」と語っています。
日本の経済成長に向けて、AIの可能性そして大手クラウドの動向に今後も注目していきたいと思います。
2024.05.17
半導体大手エヌビディア(NVIDIA)は、2024年3月に次世代AI向け半導体 「Blackwell(ブラックウェル) B200」GPUを発表しました。
B200とは?
「ブラックウェル B200」は同社の従来製品と同じサイズの2つのチップを1つにまとめたもので、性能を大きく左右するトランジスタ数は2080億個と従来の主力製品「H100」の800億個の約2.6倍。
「H100」と比較し、AI向けの作業では3~5倍の処理能力があり、チャットボットからの回答を提供するなど、タスクによっては最大30倍の高速処理を実現、コストとエネルギー消費を最大25倍削減できるとのこと。
B200の料金は?
出荷は2024年後半の見込みで、料金も不明だが、おそらく「H100」「H200」よりも上昇すると予想されます。
しかしAmazon , Google , meta , Microsoft , Open AI , Oracle など主要な大手クラウドサービスプロバイダーがすでに新半導体を導入する見込みであるという発表からも、この技術が業界に与える影響の大きさが伺えます。
エヌビディアはAI技術の発展を加速させるだけでなく、産業界全体のキープレイヤーとしての地位を不動のものにしていくでしょう。
GPUの処理能力向上とともに、今後ますます盛んにAIが活用されていくことに疑う余地はありません。
生成AIの発達により、今までは生成が難しかった動画や音楽など、一定のデータ量が必要なコンテンツの増加も見込まれるため、今後ますますデータセンターの需要が高まっていくことでしょう。
引き続き業界の動向をウォッチしていきます。
2024.04.25