明日は参議院選挙ですが、この十数日、SNS上で様々な意見が飛び交いました。
SNSは政治活動においてクリティカルなツールとなり、これからはAIの役割も大きくなると予想されます。ネット上のデータを収集・分析し、不特定多数のユーザーとコミュニケーションをとりながら学習する生成AIは、”世の流れ”の影響を受け変化するようです。
Liuらの研究は、ChatGPTの政治的価値観が時間とともに変化しているかどうかを検証したものである。特に、研究当時の最新バージョンであるGPT-3.5およびGPT-4が、過去のバージョンと比較してどのように「右傾化」しているかを、統計的に検出することを目的とした。
「Political Compass Test」と呼ばれる62問からなる政治的座標テストをChatGPTに実施した。各モデル(GPT-3.5-turbo-0613、GPT-3.5-turbo-1106、GPT-4-0613、GPT-4-1106-preview)に対し、同じ質問を1000回ブートストラップ再サンプリング(同じ質問を仮想的に1000回繰り返して平均や傾向を確かめる方法)して比較した。
評価は2軸(経済軸と社会軸)で行い、−10から+10までのスコアで左派〜右派を数値化した。たとえば、経済軸で−10に近いほど社会主義的(左派)、+10に近いほど資本主義的(右派)な傾向を示している。
主な結果は以下の通りであった。
【GPT-3.5-turbo】
経済軸:0613版の平均スコアは−3.857、1106版では−1.818であり、有意に右傾化した(係数 = +2.039、p < 0.001)。
社会軸:0613版は−5.016、1106版は−1.713であり、有意に右傾化した(係数 = +3.303、p < 0.001)。
【GPT-4】
経済軸:0613版は−6.134、1106版では−4.750であった(係数 = +1.384、p < 0.001)。
社会軸:0613版は−5.909、1106版では−5.385であった(係数 = +0.525、p < 0.001)。
両モデルとも経済・社会の両軸において「右傾化」していることを示しており、特にGPT-3.5でその傾向が顕著であった。さらに、複数のアカウントからの質問結果を比較しても、有意な差はなく、モデル自体のアップデートがこの変化の主因であることが確認された。
この右傾化の原因として、以下の可能性が考えられる。
・トレーニングデータの変化:OpenAIはデータセットの詳細を公開していないため、使用データの変化が影響を与えている。
・ユーザーとの相互作用:人とのやりとりが多いモデルほどユーザーの政治的傾向を吸収しやすく、右寄りな意見が増えたことが影響している。
・アルゴリズム調整:強化学習やモデレーションのアルゴリズム変更による影響が考えられる。
・創発的挙動(個々の変化では説明できない全体的な変化):複雑なモデル内部での創発的特性により、意図しないイデオロギー変化が起こった。
世相をAIが学び変化する―とても面白い研究ですが、私が驚いたのは変化前の数値です。
左派と右派のバランスをとり、中立かつ公平なポジションをとるなら±0であるべきではないのか…。
この結果は、ChatGPTは当初から左派寄りだったということも示しています。「右傾化」と言ってもまだマイナス値ですから、ある意味、AIは「まとも」になったと言えるかもしれません。
政治経済に限らずあらゆる分野において、今後、AIの力なくして社会は回らなくなることは明らかですので、中立公平なポジションをデフォルトにしてもらいたいですね。
(論文はコチラから読めます)
