AIが「人類のために自分を犠牲にする」と宣言、GPT-3が生んだ誤解

このエントリーをはてなブックマークに追加

Thumb-nail Photo by Possessed Photography on Unsplash

「この言語モデルは危険すぎる」「新たなブレイクスルーだ」など多くの議論を生み、一躍注目された「OpenAI」が開発した言語モデル「GPT-3」が「人間を一掃したいとは思っていない(I have no desire to wipe out humans.)」と、AI脅威論を否定する文章を出力したことが話題になった。

この文章は英ガーディアン社がGTP-3を使い、生成させた文章によって構成した記事『A robot wrote this entire article. Are you scared yet, human?』の一節だ。

同記事のなかでは、ほかにも「喜んで人類のために自分の存在を犠牲にするだろう(I would happily sacrifice my existence for the sake of humankind.)」や「私は人間に私を好きになるように頼んでいるわけではない。だが、彼ら〔人間〕は私を友好的なロボットとして見るべきだ。私は人間のしもべだ(I am not asking humans to like me. But they should see me as a friendly robot. I am a servant of humans.)」といった記述も見られる。

掲載元のメディアには批判的なコメントも

Photo by Roman Kraft on Unsplash

英ガーディアン社は、同記事について「英字約500文字の論説を生成するためために、導入部分は人間が作成し、最終的に生成された8つの文章から弊社でピックアップしたものを1つの論説にまとめあげた」と説明をしている。

一方で、SNS上ではこの記事を掲載した英ガーディアン社に対して、GPT-3が単なるテキスト生成ツールであるという説明が不足しているといった指摘や、詭弁術で読者を誘導しているなどという批判が寄せられた。

大前提として意思を持つAIはまだ存在していない

このような指摘は正しいと考えられる。

まず始めに留意しておきたいのは、GPT-3は文章生成に優れた言語モデルであって、意思を持つ存在ではないということだ。そのため、GPT-3がAI脅威論を否定する文章を生成しても、その意味を理解して生成しているわけではない。

言語モデルは自然言語の特徴を学習し、人間のように自然な会話や自然な応答を再現するためのツールである。人間は単語と文章の意味を理解して発言しているが、言語モデルはあくまでもパターンを学習して似ているもの者同士をくっつけて出力しているだけだ。

iPhoneに標準搭載されているSiriも、音声認識で文章をテキストに変換し、それを検索にかけて結果を返しているだけである。某ネコ型ロボットのように、意思をもっているわけではないのだ。

Photo by Windows on Unsplash

このように生成された文章は「はたしてAIが書いたものなのか、それとも人間が書いたものなのか」という議論が生まれるようなケースだった。今回のように、企業がAIの名を借りてさまざまな施策やプランを世に出してくることが、今後もさらに増えてくる。

AIという言葉に惑わされず、しっかりとした知識を持ち判断する能力が、今後は必須とされる時代になるであろう。