大須は萌えているか?

gooブログからこっちに移動しました

AIと共に人間も賢くなっていく必要がある気がする

去年の11月くらいにリリースされて、瞬く間に世の中の話題をかっさらっているChatGPTですが、自分も試しているうちにこりゃすげえなと感心してしまい、時折仕事でも使ったりしています。自然な文章でやりとりができるし、やりとりの文脈を理解した上で追加の質問にも回答してくれるのがスゴいですよね。なんなら、簡単なプログラムのコードまで書いてくれるんだから便利すぎる。

やりとりの自然さに感心する一方で、ちょっと使えばわかりますが間違いも多いですよね。たとえば、「暗殺された日本の総理大臣って誰がいる?」って質問してみたら以下のように回答してきました。

日本の歴史には、総理大臣が暗殺された事件がいくつかありますが、特に有名なのは、第32代総理大臣である安倍晋三氏が2016年に暗殺未遂が行われた事件です。しかし、それ以外にも、歴代の総理大臣に対する試みの暗殺事件もあります。 しかし、現在の日本の総理大臣は暗殺された記録はありません。

伊藤博文とか原敬を出してくるかと思いきや、まさかの安倍元総理。しかも、2016年に暗殺「未遂」事件が起きたことになっています。そもそも「第32代総理大臣」は廣田弘毅ですしこの人は特に暗殺とかされてません(東京裁判で死刑になってる)。ていうか、安倍元総理の名前が出てくるあたりをみると2022年の暗殺事件を部分的に拾っているのかな、とも解釈できますが、しかしChatGPTって一応2021年までのデータしか学習していないことになっているんですよね。「いつまでのデータを学習しているの?」と尋ねると、

私はOpenAIによってトレーニングされた言語モデルですが、データのカットオフが2021年までとなっています。これは、私が学習したデータが2021年までのものであり、それ以降のデータや情報には対応していないことを意味します。そのため、最新の情報に関しては保証できないことをご理解いただけると思います。

と返してきます。

でも、「2022年のニュースを知っているの?」と尋ねると

はい、2022年のニュースに関していくつかの知識を持っています。たとえば、2022年には次のような重要なニュースイベントがありました:

これらは2022年のいくつかの重要なニュースイベントの例ですが、他にも多くのニュースイベントがありました。

「米国のミッドテラー選挙」ってなんじゃい、と思いましたが、中間選挙のことですかね。世界経済も回復したことになっていますが、ロシアのウクライナ侵攻もあり世界的なインフレで混乱が起きていったのは周知の通り(そもそもなんでロシアの話が挙げられていないのだろう)。こんな具合に、部分的にはあっているんだけど一部はぜんぜん間違っている、という傾向がありますね。ていうか、2021年までのデータしか学習していない、というのもウソやんけ。

今後より進化していけば、こうした明らかな事実誤認は無くなっていくのかな、とは思うんですが、そうなっていくとよりこのAIを使っていく側の人間のリテラシーが求められていくような気がします。一見して明らかにウソとわかる状態のほうがある意味わかりやすくていいんですが、大体は本当の話が書かれている中にさらっとウソが混じっている場合、それを判断するのはなかなか難しい。

人間が話している内容ならば、その人の話し方や仕草、あるいは経歴や社会的立場、性格といった背景が話の真贋を推定するヒントになるワケですが、AIの場合そもそも社会的立場なんてものはありませんし、善悪という概念もない。そもそもウソをつこうとしてウソをついているわけでもない。そうした「無表情」の相手のウソを見抜くってなかなか難しいのでは、なんて思ってしまったんですよね。ヒントになるとしたら、「主にどんなデータを学習しているのか?(特定のWEBサイトに依存しているのか、言語や地域の偏りはあるのか、等々)」というところかなと思いますが、それってエンドユーザーから見えるものでもないですしね。

MicrosoftのBINGにこのChatGPTのAIエンジンを利用したチャット機能が搭載されるようですし、Googleもコレに対抗してAI機能の搭載を急いでいるようですが、利用するユーザーが皆こうしたAIの特性を理解しているのかといえばそんなコトは絶対に無いだろうと思うわけで、それに伴うわけのわからんデマの拡散なんかは起きていくんだろうなあという気はします。これはAIが脅威というよりも、AIの特性を理解していない人間が脅威なのかもしれませんが。

もちろん、一部の人間が学習データやロジックに意図的にバイアスを与えたAIを用意して、自分たちにとって都合のいい陰謀論を大量に作成してネットにばらまく、というコトも起きうるわけで(というかもう起きているのか?)、そうなるとネットの情報がかつてない勢いで汚染されていくことになり、それは他のAIの学習データにも影響を与えてしまったりもするのかもしれない。

そんなこんな考えていくと、AIの進化は人間社会にますます混乱の種を増やしてしまうんじゃないかと思ってしまったりもするワケですが、しかしまあ使い方を間違えなければとても便利なツールなんですよね。なにか考え方のヒントをもらったり、文章やプログラムコードの土台の部分を提案してもらったりする分には便利に使えるワケです。

重要なのは、若いときからこうしたAIだのネットだのの特性に対する理解を深めるコトだろうな、と思うんですが、そうしたコトを教えることができる教員の絶対数が足りないだろうということも想像できてしまうワケであり、それならいっそそうした情報教育をAIに任せることはできないものか、なんて思ったりもするワケですが、しかしそれはそれでAIが「AIの言う事を鵜呑みにしてはいけません」とか言ったりするのかと思うとなかなかシュールですね。

今後自律型AIみたいなものが台頭してきて、情報社会がさらに新たな領域に踏み込んでいくようになったとしても、人間自身が高い情報リテラシーを持つことは必要、というかますます重要になっていくんだろうなあと思います。