2023年の大きな変化として、ChatGPTの登場により、人工知能で大量のコンテンツが生成できるようになり始めました。
人工知能によって生成されるコンテンツの質は、驚くほど高い品質のレベルとなり、人間が書いた文章と区別がつかないほど品質が保たれたコンテンツが作れるようになりました。
こうした生成AIが生み出すコンテンツが増えることで、新たな問題が起こる可能性があります。それは、人工知能が学習するデータに独自性(オリジナリティ)と品質(クオリティ)が失われてゆくことです。
まず、人工知能が生成するデータは学習データの質に大きく依存しています。これらのデータはウェブ上の文章であり、正確な情報もあれば、誤った情報や偏見を含むものも含まれています。
誤情報と偏見:AI生成コンテンツのリスク
ChatGPTなどの生成AIが学習するデータは、大規模言語モデル(LLM:Large Language Model)を活用しており、その基になるデータは、現時点ではウェブ上に存在する人間が書き上げた文章です。
その文章には、正しい情報もあれば、誤った情報や思考的に偏りがあるデータなどが数多く含まれています。例えば、特定のカテゴリーに属する人々について、多くの人が持っている固定観念や思い込みのことです。こうした思い込みは、個人の多様性を無視することが多く、誤解や偏見の原因に繋がることがあります。大規模言語モデルは、インターネット上の広範なテキストデータを基に学習するため、そうしたステレオタイプの影響を強く受けるリスクがあるのです。
人間が書いた文章であれば、そうした偏りは、批判の目やコンテンツへの反論なども含めて自然に淘汰されてゆくものですが、生成AIが生み出すコンテンツが増えてゆくことで、大規模言語モデルが人工知能によって生みだされるコンテンツを基に学習する比率があがってゆくことになると、誤った情報や偏見のあるデータが増加してしまうリスクが高まってゆきます。
生成AIが作る文章は、もっともらしく、説得力がある文章なので、知識が不足している人々はこれを誤って真実と認識することがあります。
過去の検索の時代には、その情報が掲載されているサイトの信ぴょう性や作者への信頼感を基に文章の質や意見の偏りを判断することが出来ました。何よりも特定の人物が発信する情報であったため、賛成もあれば反対もある意見として情報をとらえることが可能でしたが、AIによるコンテンツではそのような判断が困難になってしまいます。
人工知能が生成するデータは、断定的に書かれることが多く、正しいという思い込みも生まれ始めているので、注意が必要です。
このような背景から、人工知能が生み出す生成コンテンツの品質管理、偏見の回避、正確性の確保といった課題に対処することが不可欠となっています。AIの進化に伴い、これらの課題があることを利用者が理解しておくことが、AI技術の健全な発展につながるのではないでしょうか。
生成AIの限界と創造性の欠如
人工知能が生成するコンテンツにオリジナリティが欠ける主な理由について考えてみます。
人工知能は、インターネット上の既存のコンテンツから学習をします。そのため、生成AIが生み出すコンテンツは基本的に既存のデータの再構成に過ぎず、新たな創造性や独自の視点を加えることは難しいと考えてられます。その点から今後、人工知能が学習するデータの比率が人間の創ったコンテンツよりも生成AIで作られたコンテンツの比率の方が高くなるとコンテンツの独自性を失ってゆく可能性が高いです。
また、人工知能はプログラムされたアルゴリズムに基づいて動作するため、人間のような直感や感性からコンテンツを生み出すことがなく、創造性に欠けるため、人工知能が生成するコンテンツは、独自性や新規性が無くなってゆきます。
上記の問題だけでなく、人工知能が複数のクリエイターの作品を参照して生成することは、オリジナリティが失われるだけでなく、他者のコンテンツを基にして新たなコンテンツを生成することは、オリジナルのアイデアや表現を持たない場合が多く、著作権の問題も出てきます。