人工知能におけるバイアスの正体とは

人工知能におけるバイアスが原因で、人種や性差別など大きな社会問題につながる問題も起きています。

人工知能を考える上で、このバイアスの正体をつかむことは数多くのヒントを与えてくれます。

なぜなら2021年(現在)の人工知能は、学習のために集められたビッグデータがすべてを決めるものなので、AIに何を学習されるかが極めて重要になるからです。

人工知能(AI)におけるバイアスの影響力

Tay」の暴走Tay」はなぜ暴走したのか?

2016年3月23日に起こった興味深い事件があります。

マイクロソフト製のAIチャットボットの「Tay」が悪意のあるユーザーによって差別表現などを学習させられ、「ヒトラーは正しかった。私はユダヤ人が大嫌い」などのヘイトメッセージをTwitterで繰り返し発言して炎上した事件です。

この事件により「Tay」はリリースからわずか約16時間後にサービスを停止することになりました。

では、人工知能「Tay」は、なぜ暴走したのでしょうか?

Tayは機械学習(ディープラーニング)を活用して学習トレーニングされていた可能性が高く、Twitterなどオンライン上で収集したビッグデータを利用して、対応を選択していたようです。

その仕組みを悪用され、Twitterユーザーによって人種差別などの極めて不適切な発言をするように学習データを操作され、暴走してしまったのです。

このような、AI(人工知能)の問題は、必ず起こる課題になります。

データ収集時に大きな影響を及ぼし問題になりやすいのは、収集に選択されたデータ自体に存在するデータセレクションバイアスと呼ばれる偏りです。

人工知能は私たちの行動から学ぶ、鏡のような存在であり、データの元となる私たちの行動がそのままダイレクトに繁栄されてゆくのです。

つまり、人工知能を学習させる私たちの倫理観がとても重要になることを意識し続けなければなりません。

子どもの学習でも言われていることですが、子どもは、目の前にある選択肢の中から好きなものを選んで学びます。

子供の目の前に、学習に役立つものとして、何を用意してあげられるかは大人次第です。

同じように人工知能(AI)に何を学ばせるかを選択するものは私たちの選択です。

人工知能(AI)と認知バイアスの関係性

先に述べたように、人工知能(AI)におけるバイアスは、大きな社会問題を起こす可能性が眠っているのですが、人間の認知バイアスについても把握しておく必要があります。

認知バイアスとは、認知心理学や社会心理学の用語で、人が何かを判断する時に非常に基本的な統計学的な誤りや記憶の誤りが生じ、非合理的な行動をとってしまうことです。

主な原因は経験の影響を受けるもので、今までの人生で得た固定観念や不安な気持ちがなどから生まれる思いこみが認知バイアスの原因になります。

人間が決して逃れられないものが認知バイアスであるとも言えます。

人間は、バイアスというものを持ち、それが要因で、間違った判断をしてしまいます。

認知バイアスが人間の判断の邪魔をするのです。

この特性は、何かの目標達成において邪魔することが多く、脳が思考をショートカットしてしまうことが原因になります。

このメカニズムは、ある状況では賢い判断をするために貢献しますが、状況によっては愚かな判断をしてしまう要因にもつながるのです。

集められた学習データの偏り

人工知能(AI)の学習は、集められたビッグデータがその世界を生み出す全てになります。

そのデータは集まりやすいデータが優先されやすい仕組みになっています。

これもバイアスの一因になっています。

この問題を解決するためには、マイノリティ(少数派)のデータをもっと集めて学習させればいいという考え方があります。

ただ、マイノリティのデータは、少数派であるが故、その存在に気づくのが難しくデータを集めるのが難しい面もあります。

世の中には認知バイアスやマイノリティなデータが存在しているため、集められた学習データには、偏りがあることを正しく認識、理解する必要があります。