ChatGPTの危険性について
――1960年代の代表的AIプログラム「イライザ」と比べて――
もう半世紀以上になるのですが、1960年代に世界を驚かせるAIのプログラムが登場しました。MITのジョセフ・ワイゼンバウム教授の作った「イライザ」という、人間と会話のできるコンピュータ・プログラムです。(私の先生ですので、ハンドル・ネームとしてこの名前を使っています。)
ワイゼンバウム教授は、自らの作ったプログラムが、人間社会に対して大きな影響のあることにすぐ気付き、社会全体に警鐘を鳴らしました。そのために、深い思索を経て『Computer Power and Human Reason』 (W. H. Freeman and Company, 1976) という本を書きました。それを私が訳して『コンピュータ・パワー』 (サイマル出版、1979年) として刊行されました。
今、ChatGPTが世界を賑やかしているのを見て、再度、ワイゼンバウム教授の提起した問題を私たちが考え直さなくてはならないと思い、少しずつブログの記事として紹介を始めたところです。これまでの三回のリンクを貼り付けておきますので、御覧下さい。
今日は、別の視点から、「イライザ」とは比べ物にならないくらい、ChatGPT (以下「チャット」と略します) の危険性が高い可能性のあることを指摘しておきます。
一つは、責任を取る主体の問題です。「イライザ」はワイゼンバウム教授が一人で作りましたので、責任者が誰であるのかは明確です。対して「チャット」の方は、恐らく複数の人たちが協力して作ったものでしょうし、その過程でこれまでに蓄積された多くのプログラムを使っているはずです。その中のいくつかは、まだ改良が続いていて、日常的にアップデートされているものも多いはずです。そんな複雑な構造を持つプログラムについて、責任を取る人物は誰なのか、顔が見えません。
恐らくそれに対する答として返ってくるのは、「責任を取るのは、「チャット」を作っているOpenAIという企業だ」かもしれません。となると、それが第二の問題です。
OpenAIは、営利目的の組織です。営利目的だから、必然的に無責任ということにはならないかもしれませんが、これまでの多くの事例を見れば営利目的という点が最優先され、社会的な悪影響は放置されたままであったことがいかに多かったのか、皆さんも御存じだと思います。
それに対して、「イライザ」は営利目的のために作られたのではありません。AI研究の一環として創造性の高い研究者が作ったプログラムです。そして幸いなことに、その研究者が、自分の持つ社会的責任を果そうと、その害についての考察を真剣に行ったのです。
OpenAIが無責任だと言う積りはありませんし、これから社会的責任を十分に果たして欲しいと願っていますが、私たち自身が、「チャット」と「イライザ」の違いに気付き、「チャット」についても、自らの判断ができるように情報を集めたり考えたりする必要はあると思います。
「難しいことは考えなくても便利なものを使うだけの話だろう。」という反論も聞こえてきますが、「便利」という目的のために、犠牲にされてきたことが多いという事実もこの際思い起こして頂ければ幸いです、
そのためにも、『コンピュータ・パワー』の紹介を続けますが、今日のところは思い付きのレベルでも「チャット」と「イライザ」の間には、このような差があることをお伝えしたくて、この一文をアップしています。
最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!
[2022/4/11 イライザ]
[お願い]
文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。


