量子コンピュータのすべて|古典コンピュータとの違い、NISQやアニーリング方式の実用化事例、AIとの関係まで徹底解説

このエントリーをはてなブックマークに追加


昨今、技術の進歩により耳にすることも多くなった「量子コンピュータ」。世界を大きく変える可能性のある量子コンピュータについて、この記事ではそもそも「量子」と「コンピュータ」それぞれが何なのか、研究の歴史を紐解きながら解説。NISQやアニーリング方式の実用化事例、AIに大きな進化をもたらすであろう「量子機械学習」まで、徹底解説します。

量子コンピュータとは

量子コンピュータ(quantum computer)とは、「量子力学」を計算過程に用いることで、理論上は現在のコンピュータと比べて圧倒的な処理能力を持つとされる、次世代のコンピュータです。世界でさまざまな企業・研究機関が開発を進めていますが、いまだに理論上の性能を完全に満たす技術は確立されていません。

量子コンピュータの基盤である量子情報技術は、21世紀を牽引する学問分野の一つになるとも言われています。GoogleやIBMなどのグローバルITプラットフォーマーや、各国政府も積極的にこの分野に投資しており、アメリカでは2018年12月に「国家量子イニシアチブ法」が大統領署名され、今後5年間で約1兆3000億円(米ドルで12.5億ドル)規模の投資がされる見込みです。

大きく社会や産業の在り方を変える可能性を秘めたテクノロジーである、量子コンピュータ。その仕組みを理解するには、まず「量子」とは何なのかを理解しなくてはなりません。

「量子」とは何か

文部科学省の解説サイトの定義によれば、量子は「粒子と波の性質をあわせ持った、とても小さな物質やエネルギーの単位のこと」と定義されています。「粒子と波の性質をあわせ持つ」とは、どういうことなのでしょうか。

ご存じの方も多いかと思いますが、世の中のあらゆる物質は分子・原子から構成されています。酸素(O2)はO原子2つが結合したものであり、水(H2O)は水素原子2つと酸素原子1つが結合したものです。その原子は電子・陽子・中性子から構成されています。この電子こそが、物理学において「量子」と呼ばれるものなのです。
ledge.ai 編集部作成(画像出典:Pixabay)

その原子核の原子と中性子も、クオークと呼ばれる更に微細な粒子から構成されていることが分かってきました。このような「電子」や「クオーク」などの、物質を構成する最小の粒子は「素粒子」と呼ばれます。

「粒子」と聞くと実体のある粒のような印象を受けますが、この粒子は「粒」であると同時に「波」でもあるという特殊な性質を持っています。中々私たちの感覚からは想像のつかない世界ですが、「光」をイメージすると理解しやすくなります。

「光」は「粒」なのか「波」なのか?

「光」の正体が一体何なのか、という議論は、科学史を見ても太古の昔から研究されています。その歴史の中で大きな契機となる見方を提示したのは、17世紀を生きた科学者であるニュートンホイヘンスです。ニュートンは「光は粒である」とする「粒子説」、ホイヘンスは「光は波である」とする「波動説」を唱えました。ニュートンと公私両面で犬猿の仲であった同時代の科学者フックも波動説を支持し、ニュートンと激しく対立したエピソードは有名です。

その後の19世紀の物理学者であるマクスウェルやヘルツの研究により、我々に見えている「光」は、実はスマホの通信などで使われる「電波」などと同じものであり、光と電波を異なるものにしているのは、両者の間の周波数の違いであることがわかりました。

研究の進展と共に、19世紀末には光学現象の多くは波動説で説明できるようになります。しかし一方で、やはり光を粒子と考えなければ説明できない現象も存在しました。そうした現象を説明する研究がマックス・プランクやアインシュタインにより進められる中で、一時は鳴りを潜めていた「粒子説」が再び日の目を見ることとなります。アインシュタインは光を量子であるとする「光量子仮説」で1921年にノーベル賞を受賞しました。

「粒」であり「波」でもある「量子」

果たして光は「粒」なのか「波」なのか。どちらの研究も進展を見せる中、学術界では激論が巻き起こります。結果として科学者たちが辿り着いた結論は、光は「粒」であり「波」でもある、というものでした。

今日の研究においては、このような性質は光のみならず、電子やクオークなどの素粒子全般に言えることが分かっています。このような「粒子性」と「波動性」をあわせ持っている特殊な存在こそが「量子」(quantum)と呼ばれるものです。

このような量子を扱うのが、物理学の一分野である「量子力学」です。量子力学の世界には、高校の物理の授業で学ぶ「古典物理学」では説明できない、我々の日常感覚からはかけ離れた性質が多く存在します。

アインシュタインすら欺いた「量子もつれ」

旧来の物理学の常識が通じない不思議な世界である、量子力学。その特異な性質の中でも特に代表的なのが「量子もつれ(量子エンタングルメント)」です。量子コンピュータの異次元の計算速度は、まさにこの量子もつれにより可能になるとされています。量子もつれは、相対性理論の提唱者でもある天才物理学者・アインシュタインすら欺いたほど、一般常識からかけ離れたものでした。

Photo on Pixabay

量子もつれとは、「遠く離れた2つの粒子が互いに影響をおよぼし合い、一方を測定するともう一つの状態がすぐさま決定する」という性質です。一体どういうことなのか、量子物理学者・ボーアの提唱した「コペンハーゲン解釈」を用いながら解説します。

ボーアの「コペンハーゲン解釈」

説明のため、空を赤と青の二つのボールが飛んでいる状況を想定してみましょう。ボールは光速以上のスピードで飛んでおり、肉眼では色を確認できません。特殊なカメラで観測した場合のみ、ボールの色を確かめることができます。

アインシュタインの理論では、二つのボールに「片方が赤で、片方が青」という関係がある以上、観測の有無にかかわらず、常に片方のボールは赤で、もう片方が青であると考えます。我々の感覚からしても、非常に自然な見方と言えるでしょう。

一方で、ボーアの理論では、カメラで観測するまでそれぞれのボールは色が決まっていないと考えます。観測するまでは、それぞれのボールは「何色でもない」状態で、人の目で観測されて始めて「赤」か「青」かの色が決まる、と考えるのが「コペンハーゲン解釈」なのです。

コペンハーゲン解釈へのアインシュタインの反論

このような量子論の見方を、当時のアインシュタインは相対性理論にもとに、「ERPパラドックス」という思考実験を考案することで批判しました。

<ERPパラドックスとは>
カメラで観測するまで、色が確定しない二つのボールを、正反対に飛ばす。二つのボールが光速でも時間がかかるほど離れた際に、ボールを観測し、片方が「赤」とわかったとしよう。するとその瞬間、もう片方が「青」だとわかる。二つのボールの間は遠く離れているにもかかわらず、片方のボールの色がわかった瞬間に、もう片方のボールの色がわかるのは、情報が高速度を超えていることになり、光速度を超えた因果律を否定する「相対性理論」と矛盾するのではないか?

このような思考実験の中で生み出された「遠く離れた粒子間での相関」こそが、「量子もつれ」でした。ERPパラドックスは当初、量子力学への反論を目的としたものでしたが、皮肉なことに、後に実験によって正しいことが確かめられました。

アインシュタインは自身が提唱した相対性理論と矛盾し、「自然の事象が本質的に確率的である」とする量子力学を、「神はサイコロを振らない」として否定し続けたと言われています。そんな天才すら欺くほど常識から外れた理論を実世界に応用したのが「量子コンピュータ」なのです。

「コンピュータ」とは何か

Photo on Pixabay

一方、コンピュータも、定義を聞かれると、我々の生活のあらゆる場所にあふれている割には、説明が難しいものの一つです。現代のコンピュータは、数値計算からインターネット閲覧まで、さまざまなタスクを実行できます。しかし、広義で手がけているのは複雑な「計算」です。もととなる英単語のcomputeは「計算する」という動詞を意味します。また、法用語でコンピュータは「電子計算機」と表現されています。これらの事実からも、コンピュータの定義は「自動的に計算をしてくれる計算機」であると言ってよいでしょう。

「ノイマン型コンピュータ」の誕生

「計算機」としてのコンピュータの原型が誕生したのは、大戦下の1940年代半ばのことでした。イギリスの数学者であるアラン・チューリングが活躍したのと同じ時代、海の反対側のアメリカでも、ジョン・フォン・ノイマンを中心とする数学者が「ENIAC」という名のコンピュータを考案します。

ENIACを改良し、開発された「EDVAC」の設計には、今日のコンピュータの根本をなす仕組み「2進数」による演算が組み込まれました。ENIACやEDVACなどの黎明期のコンピュータで実装された構成は「ノイマン型コンピュータ」と呼ばれます。今日のコンピュータの大半においても、基本的に構成は変化していません。量子コンピュータとの対比で、このようなコンピュータは「古典コンピュータ」と呼ばれます。

ノイマン型コンピュータの要件(一部)

  • 演算論理装置(CPU),制御装置,主記憶装置(メモリ),入力装置,出力装置の五つの装置から構成される
  • 2進法を採用している(要件に含めない場合もある)

ムーアの法則とコンピュータの進化

古典コンピュータの構造は、黎明期から大きく変化していないにもかかわらず、時間とともに性能が飛躍的に上昇しているのはなぜでしょうか?その答えとなるのが、Intel社の創業者である、ゴードン・ムーア氏が提唱した「ムーアの法則」です。

出典:“Performance Analysis of Application-Specific Multicore Systems on Chip” by Iyad Al Khatib

ムーアの法則の最も代表的なものは、「集積回路のトランジスタの数は、18ヵ月ごとに倍増する」というものです。トランジスタ素子が一つの半導体ウェハー上に100個あったとすると、その数は1.5年後に200個、3年後に400個、9年後には64倍の6,400個という具合に指数関数的に増えていきます。

また、ムーアの法則では、性能のみならずコストも18ヵ月で半額に下がります。1965年に法則が提唱されて以来、コンピュータの性能は期待を裏切らず向上し続け、1971年から性能は3,500倍、電力効率は9万倍に上昇、製造価格は6万分の1に低下する、という驚異的な進化を遂げてきました。建物ほどの大きさだったコンピュータはいまや、スマホにも組み込まれるほど小型で安価なものとなっています。

「非ノイマン型コンピュータ」の登場

しかし、近年、回路の集積が原子サイズにまで進み、ムーアの法則の限界が指摘され始めました。AIやIoTの登場などで、社会の情報処理能力向上への要請はさらに高まる一方です。IT産業は集積回路の改良以外で、コンピュータの性能を上げる方法を模索する必要性に迫られています。その一つの方向性として研究が進んでいるのが、「非ノイマン型コンピュータ」です。

出典:平成30年度 NEDO『TSC Foresight』セミナー資料「人工知能を支えるハードウェア分野」

「非ノイマン型コンピュータ」は、特定のタスクの処理に最適化された、ノイマン型に縛られないまったく新しい構造を持つコンピュータを指します。すでに古典コンピュータにおけてグラフィック処理に用いられ、近年AIによる画像認識にも応用されているGPUや、Googleが開発した、AIによる情報処理に特化したTPUなどが代表例です。

量子力学メカニズムの計算への応用に特化して設計される量子コンピュータも、非ノイマン型コンピュータの一つとして位置付けられます。

「量子」と「コンピュータ」の出会い

一般の感覚と大きく異なる量子力学と、非ノイマン型コンピュータという新たな設計思想が出会い、生まれる「量子コンピュータ」。その提唱は意外にも早く、ノーベル物理学賞を受賞したアメリカの物理学者、リチャード・P・ファインマン氏が、1982年に量子コンピュータの登場を予言する論文を発表しています。

「bitと論理ゲート」に変わる「qubitと量子ゲート」

Photo on Pixabay

量子とコンピュータの出会いは、古典コンピュータにおける「bitと論理ゲート」に変わる、「qubitと量子ゲート」という、まったく新しい情報処理の方式を生み出しました。

今日普及しているノイマン式コンピュータは、基本的に情報を「0」か「1」の2つのみの状態いずれかに変換し、処理します。このような2進数を用いた表現方法はbitと呼ばれ、0と1のbitで表現される情報を、電気回路上のスイッチのON/OFFに対応させることで、コンピュータは計算を処理します。このような電気回路上のスイッチの一つ一つが、論理ゲートです。さまざまな種類の論理ゲートをより多く組み合わせることで、より多様でより複雑な計算が可能になります。ムーアの法則によるICチップの性能向上も、まさに論理ゲートの回路の小型化に裏打ちされたものと言えます。

一方、量子コンピュータは、量子力学の重ね合わせの性質を活かし、0と1の両方の状態を同時に表現するQubitという形式で計算します。このような計算を可能にする、量子計算に特化した電子回路が「量子ゲート」です。量子ゲートを用いる量子コンピュータは「量子ゲート方式」に分類されます。

ledge.ai 編集部作成

量子コンピュータの異次元の処理速度を可能にするのは、まさに「bitと論理ゲート」に変わる「qubitと量子ゲート」による計算です。わかりやすい例として、10bitの情報を処理する問題を想定しましょう。

従来のbit方式の古典コンピュータでは、2の10乗分の計算を網羅的に実施する、という順序を踏む必要があり、計算回数は1024回に上ります。一方、qubit方式の量子コンピュータでは、量子の重ね合わせの性質を利用し、各ビットに0と1の2通りの組み合わせを同時に持たせることが可能です。さらに、10ビット分の1024通りすべての状態を同時に扱い、1度の処理で計算することができるのです。

ledge.ai 編集部作成

量子計算の発展と暗号技術への脅威

Photo on Pixabay

古典コンピュータと比べ、圧倒的な性能を誇るとされる量子コンピュータですが、いまだその性能の実現を可能とする量子アルゴリズムの研究は発展途上にあります。しかし、一部の問題に関しては、すでに古典コンピュータに比べ、圧倒的に速く解くことのできるアルゴリズムが、少なからず発見されています。その問題の1つが、素因数分解です。

素因数分解は、ある特定の数を、これ以上割り切れない素数の掛け算に分解することです。これまでは、桁数が大きい素因数分解においては、巨大なスーパーコンピュータを活用しても、年単位の時間がかかるとされていました。この「解くことに天文学的な時間がかかる」ことを利用したのが、現在のインターネット通信に用いられている暗号通信です。

しかし、1994年にアメリカの数学者であるピーター・ショア氏が発見した「ショアのアルゴリズム」を用いれば、素因数分解を圧倒的なスピードで解けることが証明されています。実際に、量子コンピュータが現実的な速度で暗号を解けるようになった際には、まったく新しい形式の暗号技術が必要になると言われています。

「万能」量子コンピュータ実現への課題

量子コンピュータ研究の究極のゴールは、量子計算の理論上の性能を最大限発揮できる「万能量子コンピュータ」の実現にあります。

その実現への道のりに立ちはだかる難題は、主に以下の3つです。

①「エラー耐性」の獲得
計算処理に影響をおよぼすノイズの影響を計算結果から排除できること。
②「ユニバーサル演算」の実現
任意の量子計算ができること。
③「スケーラビリティ」の課題
量子ビットの数を増やしても、実験的な難しさが指数的に増大しない技術が確立されること。

これら難題の理論上での解決から、3つの要件を満たすハードウェアやアルゴリズムの開発に至るまで、量子力学に限らず、コンピュータサイエンスや情報理論など、さまざまな分野に横断的にまたがる課題が多く存在しているのが現状です。

以下では、万能量子コンピュータ実現の鍵でもある「エラー耐性」について解説します。

エラー耐性(量子誤り耐性)という難題

Photo on Pixabay

コンピュータは絶えずノイズにさらされており、ノイズにより計算処理にエラーが発生してしまいます。計算結果を正確にするために、必要となるのがエラー訂正(誤り訂正)です。

エラー訂正の手法は、量子コンピュータの登場以前から長く研究されており、古典コンピュータの半導体にもエラー訂正技術は使われています。しかしながら、量子の重ね合わせ状態を用いた計算の処理構造は非常に特殊です。量子コンピュータにおいては、従来のものとは異なるまったく新しい訂正技術が必要とされています。

現状の理論では、誤りのない1 Logical Qubitを計算するのに1000回もの量子計算、すなわち、正しい答えを得るまでに何千回と同じ計算を繰り返す必要があります。 今後の研究の進展による高速化が待たれています。

量子コンピュータ実用化の最前線

Photo on Pixabay

いまだ万能量子コンピュータは存在しないとはいえ、GoogleやIBMなどが量子コンピュータを実用化した、といったニュースを見聞きした方もいらっしゃるかと思います。

以下では、万能ではないものの、すでに実用化できる段階に技術が進展しつつある「NISQ」「量子アニーリング方式」コンピュータについて解説します。

実現が近い「Noisy Intermediate Scale Quantum」

「NISQ (Noisy Intermediate Scale Quantum)」とは、カリフォルニア工科大学の理論物理学者であるジョン・プレスキル氏が提唱した概念です。訳すと「ノイズのある中規模(50~100量子ビット)の量子コンピュータ」となります。

NISQはエラー耐性を実装していないため、量子が正常に稼働できる時間が短く、デコーヒレンス(Decoherence、量子の重ね合わせ状態が壊れること)が発生しても、それを補正する仕組みが存在しません。エラー率が高く、大規模な演算をすることは難しいです。一方、量子計算自体の実行は可能であるため、現段階のNISQでもスーパーコンピュータを超える性能を発揮できると言われています。

出典:Google Japan Blog「プログラム可能な超伝導プロセッサを使用した量子超越性」

Googleが開発し、2019年9月に量子超越性(量子スプレマシー、量子コンピュータの計算能力が従来のスーパーコンピュータよりも優れていることの証明)を達成したと発表され大きな話題となった「Sycamore」や、IBMが開発し、商用化されている「IBM Q System One」などはNISQに分類されます。

実証段階に入った「量子アニーリング方式」

量子アニーリング方式は、1998年に東京工業大学の物理学者である西森秀稔氏を中心とするグループが提唱した、日本発祥の手法です。日本語では「量子やきなまし方式」とも呼ばれます。

ゲート方式の量子コンピュータや古典コンピュータが、あらゆる問題を解ける汎用的なコンピュータであるのに対し、量子アニーリング方式は「組み合わせ最適化問題」に特化しています。用途が限定される一方で、扱える変数の数はゲート方式と比べ、格段に多くなっています。

出典:D-Waveシステムウェブサイト「D-Wave社、D-Wave 2000Q量子コンピュータのアップグレードを発表」

西森氏らが発表した理論をベースとして、カナダのベンチャー企業であるD-Wave Systemsがアニーリング方式の量子コンピュータ「D-Wave One」を2011年に発表し、世界中で大きな話題となりました。

ちなみに、量子コンピュータとは異なりますが、アニーリング方式のお膝元である日本は海外に先を越される結果となったものの、日立製作所が量子コンピュータに着想を得て、CMOS技術を応用するCMOSアニーリングの開発を進めていたり、富士通や東芝などがFPGA技術を応用したシミュレーティド・アニーリング(SA)の研究を進めていたりします。

AIに進化をもたらす「量子機械学習(Quantum Machine Learning)」

量子コンピュータがAIにもたらす最大の影響は、「量子機械学習(Quantum Machine Learning)」による飛躍的な処理能力向上に尽きます。

Photo on Pixabay

1990年代のインターネットの民間利用開始以来、IT分野ではSNSの誕生、センサー技術の発達などのさまざまな革新が起き、今日では大量のデータ、すなわちビッグデータの取得が可能となりました。それにともない、ビッグデータを処理・解析できるAIの研究が進み、AIソフトウェアを走らせることができる高性能なハードウェアの必要性が急激に高まりつつあります。

このような背景に加えて、古典コンピュータがムーアの法則の限界を迎えつつある現状を踏まえると、量子コンピュータが高い注目を浴びている理由が見えてみます。まさに、性能向上に限界が見え始めた古典コンピュータに代わり、量子コンピュータを用いて「量子機械学習」をすることで、AIはさらに大きな進化を遂げる可能性があるのです。

Photo on Pixabay

量子機械学習とは、名前から想像がつく通り、AIを量子コンピュータで実行する手法を指します。大規模なデータを量子状態で処理することで、アルゴリズムを高速で実行できると期待されています。化学・生物研究における分子の組み合わせを探索するケモインフォマティクス・バイオインフォマティクスや機械学習、暗号化などの領域で、アルゴリズムの開発が進んでいます。

事例から見る量子コンピュータの未来

万能量子コンピュータの前段階のNISQや、アニーリング方式の量子コンピュータは、すでに実用化が始まっています。

国内では2020年7月に、東大を中心に、日本IBM、東芝、トヨタ自動車、日立製作所、みずほFG、三菱ケミカル、三菱UFJフィナンシャル・グループなどが参加する「量子イノベーションイニシアチブ協議会」が設立されました。

また、デンソーやリクルートなどの一部企業は、すでに量子コンピュータを用いたスマートファクトリーの実現や、顧客ニーズ分析の精度の向上などの領域での実証実験を開始しています。

AI×量子コンピュータを活用した先進的DX事例

AIと量子コンピュータを用いたDX(デジタルトランスフォーメーション)に特化したソリューションパッケージも誕生しつつあります。

 

福岡県福岡市に拠点を構えるグルーブノーツは、AIのディープラーニング技術に、アニーリング方式の量子コンピュータによる、高速処理を掛け合わせたクラウドプラットフォーム「MAGELLAN BLOCKS」を提供しています。

D-Wave社が2019年に発表した調査によれば、量子アニーリングを活用し、「組合せ最適化」に対応した商用サービスとしては世界初のようです。応用可能な領域は幅広く、AIによる高精度の未来予測から、量子コンピュータによる人・モノ・作業の最適配置まで対応可能なトータルソリューションです。

量子コンピュータのこれから

量子コンピュータと古典コンピュータが協調するシステム「VQE」

以上のMAGELLAN BLOCKSの例からもわかる通り、量子コンピュータは単体で機能するものではなく、ましてや古典コンピュータを置き換えるものでもありません。量子コンピュータの作動には、超低温の環境と複雑な配線が必要です。今後、研究が進歩したとしても、ノートパソコンやスマホのように、人々の生活の隅々まで普及するデバイスとしてではなく、クラウドを通じてアクセスし、利用するものになるだろうと考えられています。

物理的な環境の問題のみならず、計算処理においても、少なくとも実用化の近いNISQにおいては、量子コンピュータと古典コンピュータの協調が前提とされています。この形式は「Hybrid Quantum-Classical Architectures」と呼ばれ、NISQは古典コンピュータのアクセラレーター(加速器)として機能します。

出典:“Semantics and simulation of communication in quantum programming” by Wolfgang Mauerer

このようなハイブリッドな構造における情報処理においては、「Variational Quantum Eigensolver (VQE)」という手法の研究が進んでいます。VQEは、アルゴリズム全体は古典コンピュータで実行し、数値演算の部分が量子コンピュータにアウトソースされる形をとっています。このように、当面の間は量子コンピュータと古典コンピュータによる協調がメイントレンドとなっていくと考えられます。

量子コンピュータは世界をどう変えるのか

量子コンピュータは世界をどう変えるのか。まだまだ研究が黎明期である量子コンピュータの未来に関しては、不透明な部分が多く、今後の展望をクリアには見通せない状況にあります。

Googleの量子コンピュータ研究者であるジョン・マルティニス氏は、Googleの量子コンピュータ「Sycamore」を世界初の人工衛星・スプートニク1号に例えています。スプートニク1号自体は歴史的に大きな成果を残しましたが、社会生活に役立つ機能は備えていませんでした。しかし、その成功を契機に人工衛星研究が加速し、GPSや衛星通信が生まれています。

Photo on Pixabay

ムーアの法則が限界を迎える「ポストムーア」時代においても、コンピュータの性能向上を目指す研究は、純粋なノイマン型コンピュータの性能改善、脳神経回路を模倣した「ニューロモーフィックチップ」など、量子コンピュータ以外にも多く存在します。多くの革新的なアーキテクチャが出現していますが、今後の研究の進展とともに多くは淘汰されていくと予想する識者も少なくありません。

しかしながら、多くの難題を抱えながらも量子コンピュータは着実に「万能量子コンピュータ」の実現に近づいています。最大の課題である「エラー耐性」の獲得に関しても、Microsoftの「Topological Qubit」は、Qubitの安定性が極めて高く、高信頼性の量子コンピューティングを実現しました。

実際の社会で有用な計算において、量子コンピュータが古典コンピュータを上回ることは、「量子アドバンテージ」と呼ばれます。スプートニク1号が社会を便利にする多くの技術の誕生に繋がったように、量子コンピュータは「量子アドバンテージ」に到達できるのか。その達成を目指し、世界中の企業や機関が研究を進めています。