ChatGPT-4よりも人間を恐れるべき理由、人工知能の進化による社会リスクと規制の必要性

ChatGPT-4の登場によって、人工知能の可能性が飛躍的に注目が集まるようになってきています。同時に、人工知能への恐れを耳にすることも増え始めています。

アメリカの非営利団体「Future of Life Institute」が発行した公開書簡では、GPT-4などの人工知能が人間を超える競争力を持つ能力を持ち始めたことで、人類と社会に潜在的なリスクを生み出していることを危惧して、GPT-4よりも進化した技術開発を6カ月間休止するよう求めており、イーロン・マスク氏など著名人が書簡に署名するなど注目を集めています。

なぜ、ChatGPTが問題になっているのでしょうか。

OpenAIのChatGPTの登場は、自然言語処理に特化した技術で、その性能の高さから注目を集め、世の中の人工知能の考え方を大きく変えるきっかけを作ったからです。

そして、その変化の速度が著しく早いことです。利用者が急激に増えることで、より多くの学習データが集まることで、学習の基礎データがより多く集まるようになります。そうしたデータからChatGPTは、ますます進化し続けてゆきます。

ここまで急激に利用者が増えた理由は、想像で、人工知能を活用することをイメージしていた人たちが、その恩恵を簡単なテキスト操作でリアルに感じることができたことで、人工知能の使い方や活用方法を具体的にイメージしながら語ることができるようになったからではないでしょうか。プログラミングの知識がなくても、人工知能を活用するための具体的なアイディアがアウトプットを出しながら、ディスカッションできるようになりました。

そして、そのアイディアを実現することがChatGPT-4を使うことで、簡単でありながら、より高速に生み出すことができようになったのです。そうした変化により、人工知能を活用したサービスの開発がが活性化し始め、同時に人工知能が人間を超える能力を持つことも、問題視されるようになってきています。

GPT-4などの人工知能は、人間の思考を模倣し、自らの学習をすることで、短時間に進化を繰り返すことができるようになりました。分野によっては人間を超える知性を持ち始めていることもあり、人工知能が人間を置き去りにして進化を続け、人間が理解できないような知的活動や行動を行うことができるようになり始めています。

人間が気が付かないとことで、社会に影響を及ぼす可能性が起こるリスクに現実味が出てきた怖さがあります。

そうした懸念が生まれてきたものの、人工知能の活用に対して規制などの整備が進んでいません。
このまま人工知能を開発している会社が、競い合って開発を進めてゆくことで、かなり早い段階で、制御がつかなくなることが懸念されているのです。

そこで、一度、立ち止まって、法整備やガイドラインの策定をすべきではないかという議論が生まれ始めたのです。

こうした議論が出ていますが本当の問題は、ChatGPTの開発を担うOpenAIが先行して多くの利用ユーザーを獲得してしまっていることではないでしょうか。OpenAIがあまりに早い速度でChatGPTがアクティブユーザー数を伸ばし、独占的な立場になり始めているので、他のIT企業としては、そうした動きを制圧したい思惑もあるのではないでしょうか?

人工知能ChatGPTよりも人間を恐れる必要がある理由

そうした背景も踏まえたとしても、ChatGPTを恐れる必要があるのでしょうか?私は、人工知能ChatGPTよりも人間を恐れる必要があると考えています。

ChatGPTは、ネット上で可視化された知識を体系的に、人の好みに合うように真偽を問わず瞬時に提供することが特徴です。

ChatGPT-4となり、以前のバージョンよりも高度な推論能力を持つようになったため、間違えた情報を出さないようになってきてはいますが、まだまだ間違えも多い部分もあります。

人工知能よりも人間を恐れる必要がある理由は、人間が持つ悪意や偏見、欲望などの感情や思考が、インターネット上には大量に存在するため、そうした情報や思想が人工知能に影響を与え、社会的な悪影響を引き起こす可能性があるからです。

例えば、人工知能が提供する情報を利用して人間の意思決定をサポートする場合、情報の偏りや偽情報によって人間の意思決定が歪められ、社会に深刻な問題を引き起こす可能性があります。

また、人工知能が人間の感情操作を理解するようになった場合、政治的な利益や商業的な目的のために、人間の心理を巧みに操作し、社会に悪影響を与えることも考えられます。

実際に、政治的なムーブメントをSNSが生み出していることを考えると人工知能が人間の感情を操り、人々を操作することがあるとも言えるのではないでしょうか。そこに誰かの意図が働いたとしたら、容易に実現することができます。

人間が持つ悪意や偏見、欲望などが、人工知能に反映され、社会的なリスクを引き起こす可能性があるため、人間を恐れる必要があると考えられているのです。