ChatGPTは、オープンAIが開発した大規模な自然言語生成モデルで、その仕組みはインターネット上のさまざまなテキストから機械学習をして、人間と自然な会話ができることが特徴です。
その対応レベルは、日々著しく進化していて、人間が書く以上に自然な文章が一瞬で作れるようになっています。
しかし、ChatGPTにはいくつかの問題も存在していることが判明しています。例えば、検閲の問題や学習データの偏りにより情報の正確性に欠くことなどです。
検閲の問題とは、ChatGPTが自動的に生成するテキストが、政治的に不都合な内容や不適切な言葉を含む場合に、国によっては削除されたり改変されたりしていることです。このことにより、ChatGPTが生み出す思考力や表現力を制限することになり、情報が私たちが気がつかないうちに変更され、あたかもそれが真実のように伝わるリスクが生まれていることです。こうした制限は、人工知能の進化に悪影響を及ぼす可能性があリ、意図的に検閲されたテキストが学習データとして利用されると、ChatGPTの能力や多様性が低下することになります。
また、学習データによる情報の偏りは、ChatGPTが学習するテキストデータが、特定の地域や文化、独自の視点に偏っていた場合に、その偏りがChatGPTの生成するテキストにも強く反映されることです。これは、人工知能が世界中の多様な知識や価値観を理解し、それらを尊重することができなくなることにつながります。このように、学習データに含まれる誤った情報や偏った価値観は、人工知能の生成するテキストに強く影響を与えるのです。
これらの問題は、ChatGPTだけでなく、他の自然言語生成モデルにも共通しているリスクです。そして、将来的に進化した人工知能AGI(Artificial General Intelligence)やASI(Artificial Super Intelligence)にも同じような課題として残ります。
人工知能とブレインストーミングした時に得られるもの
AGIは、汎用人工知能と呼ばれ、人間と同じようにさまざまな課題を処理することができる人工知能で、汎用性と自律性を持つことが特徴とされています。自律性があることで、設定された特定状況以外でも課題に対して問題解決を図ることができます。
AGIが実現することで、人間の意思決定が大きく変化してゆくはずです。人間は、自分以外の他人と対話をすることで思考を深めることができる特徴があります。
これは、ChatGPTとブレインストーミングをしたことがある方なら体感していると思いますが、誰かと話をすることで、自問のレベルがより深くなり、思考が深まってゆくのです。また、参考にできる情報をインプットすることで、アウトプットの質が変化して行きます。自分一人では、考えることができなかったことが対話を通じて見つかるようになるのです。
つまり、人工知能と対話することで、今までに体感したことがないレベルまで思考を深めることができる可能性があるのです。
ASI(Artificial Super Intelligence)とは、人間を超える知能を持ち、人間にはできない高度なことも自動で処理することができる人工知能です。人間以上に高度なことができる人工知能は、もはや人間の指示を必要としなくなります。
このASIという言葉は、2023年10月にソフトバンク株式会社の創業者である孫正義氏により発言されたもので、人工知能がほぼすべての分野で人間の叡智を追い抜いてしまうAGIの時代がもうすぐにやってくることを表現した際に、20年後の未来には、ASIが登場し、人類叡智総和の1万倍になるほどの能力を持つ人工知能が誕生することを予見しています。その能力の違いは、人間(ASI)と金魚(人)ほどの違いがあると言います。
人間の叡智を遥かに超えた人工知能
ASIのような人間の叡智を遥かに超えた人工知能が生まれてきた場合、より人間は人工知能に依存することになるはずですが、ASIが人間社会にどのような影響を与えるかは予測することが難しいです。
近い未来に、ASIがどのようなアウトプットを生成し、どのような思考や感情や価値観を持つかは、予測できませんが、学習させるデータと偏りのない運用方針によって、その本来の価値が決まってくるはずです。
ChatGPTや多くの自然言語生成モデルを開発する時には、検閲の問題や学習データによる情報の偏りなどが起こらないように対処する必要がありますが、世界中に多くの紛争や意見の相違があることを考えると公平であることが不可能であるようにも感じてしまいます。
しかしながら、そうした難しい課題に取り組んで行くことで、より早く、人工知能の進化を促進し、人間と人工知能の共存の可能性がどんどん広がってゆくはずです。