新たにリリースされた自然言語処理モデルInstructGPTの可能性とは

GPT−3(Generative Pre-trained Transformer 3)とは

OpenAIが、2020年6月に発表した自然言語処理モデルが「GPT-3」です。
OpenAI は、人工知能を研究する非営利団体で、2015年にテスラのCEOであるイーロン・マスクをはじめとする複数の投資家により設立されたAI研究機関です。汎用人工知能(AGI:Artificial General Intelligence)が人類全体に、害をもたらすよりは、有益性がある方法で、親和性の高い人工知能を生み出すことを注意深く進めてゆくことを目指しています。
OpenAIが開発した言語モデルGPT-3は、人が入力した言葉を元に、その言葉に続く言葉を予測する機能を持っており、単語や簡単な文章を入力するだけで、あたかも人間が書いたかのような文章を自動的に生成します。
GPT-3の性能を試したテストの結果で、人間がGPT-3が生成したことを検知できる割合は52%であるとの結果が出ています。自動で人工知能が生成する文章は、半数の人間が書いたかの真偽を判定できないレベルのクオリティで、生成することができるのです。

GPT-3の過剰評価が危険だと言われる理由

GPT-3の素晴らしさと期待値が高まると同時に、GPT-3の過剰評価が危険だと言われる部分もあります。その教育には膨大な量の学習データが必要になりますが、この学習データに偏りが出てきてしまっています。
特に注意しておく必要がある点が、宗教や人種による考え方の違いに、ある種のバイアスがかかってしまうことです。特定人種をテロに結び付けるなど、人種差別につながるアルゴリズムが存在していることが明らかになっています。
その原因は、インターネット上の英語で書かれているテキストには人種差別表現が多く含まれていることが直接的な原因になります。
高度な言語能力を持つGPT-3ですが、不得意な分野は、人間のように常識を持ち合わせていないことなのです。
また、答えの存在しない質問にも「わからない」と回答することができないため、何かしらの答えを間違えていても用意してしまう点も課題となっています。

新たにリリースされたInstructGPT期待してしまうこと

新たに2022年1月27日にリリースされたInstructGPTの特徴は、ユーザーの指示に従うように最適化されていることです。従来のGPT-3のように、膨大なデータを学習するだけではなく、InstructGPTでは、人間のフィードバックを反映させた強化学習の技術が使われています。
AIの強化学習に人間を関与させることで、AIがより正しい判断ができる様にサポートします。学習を人工知能に委ねると同時に、機械では対応できない部分を人間が判断して、人工知能の判断を補うことで判断の精度を向上させてゆきます。
人工知能と人間の知性を合わせて活用することで、より精度の高いアウトプットを実現することが可能になります。人間が判断することで質を大きく向上することができるのです。
InstructGPTの進歩により、人工知能が自動で生成した文章が人間の書いた文章よりも優れていく可能性に期待してしまう部分があります。
同時に、人間の不完全さをそのまま個性として取り込んでゆく文章の魅力が半減してしまう寂しさも感じています。
当然、GPT-3よりも優れているInstructGPTにも注意すべき部分があります。それは、悪意のある利用者がその特性を利用して、InstructGPTに干渉して、判断の有用性を低下させ、より有害なものにする可能性がある。学習能力が強力になっている分、いかに正しい倫理観を持って取り組むが問われているのだと思います。