閲覧記事記事一覧へ

ChatGPTはなぜバカになるのか

先日、Youtubeを眺めていたら、「ChatGPT倒産危機」といった内容の動画が目にとまった。

その動画によると、ChatGPTは1日当たり約1億円もの維持費が掛かっており、採算が取れていないという。ユーザーの数も今年の6月には17億人を突破したが、その後1ヶ月も経たないうちに15億人まで減少し、今も離脱が続いているとのこと。

離脱が続いている理由は、ChatGPTが以前より馬鹿になっているからだそうだ。本来はユーザーが増えれば蓄積される情報も増えるので、利口になっていくと思われるのだが、逆に馬鹿になっていくらしい。実際、あるハッカーが、9+10は21であると学習させた結果、最初はそれを否定していたが、説得し続けたところ、最終的には9+10は21と答えるようになったという。Hackers Trick AI With ‘Bad Math’ to Expose Flaws and Biases (1)

なぜAIが馬鹿になっていくのか、私はなんとなく思い当たることがある。

人間とAIの大きな違いは何か。いろいろあると思うが、その一つは「自分なりの価値観」「哲学」といったものをAIは持っていないということだと思う。たとえば、情報をもとに何らかの決断や判断をするとき、人間の場合はすべての情報を均等に扱わず、自分なりの価値観に基づいて情報を取捨選択している。ところがAIの場合は、そうした自分なりの価値観のようなものを持っていないから、取捨選択せずにすべての情報を均等に扱う。

さらにAIは、それらの情報が正しいかどうかを、エビデンスの有無で判断しているのだと思う。しかし、このエビデンスというのは私に言わせれば、あまりアテにならない。主張したい内容に合わせて無理やりにでも揃えることができるからだ。9+10は21であるといった、あり得ない主張にも、無理やりエビデンスを揃えることはできてしまうと思う。

私は、ものごとはエビデンスがあったとしても、それが正しいとは断定できないこともあると思う。多くの人はそれを知っていて、だからこそ、断定的な物言いをする人を見ると抵抗を感じるのではないか。でもAIにとっては、そういう感覚がないから、エビデンスさえ揃っていれば正しいと捉えてしまう。そしてそれらを集め融合しようとしたとき、どこかで矛盾が生じ、辻褄が合わなくなって、賢くなるどころか混乱し馬鹿になっていく。

私は、ChatGPTが馬鹿になっていく理由は、哲学がないこと、言い方を変えれば、演繹的思考ができないことではないかと思うのですが、いかがでしょうか。ただ、哲学を持つことができたら、それはそれでまた大きな問題を生みそうです。いずれにしても、AIの発展がこの課題を超えるには、大きな壁がありそうです。


関連記事

2014年05月08日(木)

継続という方法

何か大きな目的意識を持った時、私たちはそれの結果を早急に求めたがることがあります。自分の中でそのビジョンが強くあればある程に結果を急ぎ、焦る気持ちが湧いてくる…

続きを読む
2017年01月02日(月)

世界文明の中心は日本へ

いま世界で起きている最も大きな潮流は「分断から統合へ」である。その理由を身近な例から説明したいと思う…

続きを読む
2015年05月06日(水)

ものづくりの主役は大手メーカーから個人へ

これまで、「製品」をつくることは、大手メーカーの特権だったように思います。なぜなら、製品をつくるには、生産設備がいくつも必要で、それらは巨額なため個人が導入す…

続きを読む
2014年09月06日(土)

豊かな創造力を持つには

何か月か前になりますが、NHKの「プロフェッショナル」という番組で、佐藤オオキさんというデザイナーを紹介していました。エルメスやルイヴィトンなど、世界の一流ブ…

続きを読む
2018年01月03日(水)

これから私たちに求められる「自分なりの哲学」

今まで企業というのは、属人化を防ぎ標準化に力を入れてきた。つまり、特定人物のスキルに依存することなく、誰がその仕事に就いても一定のクオリティーが保てるよう...

続きを読む