2022-09-01 政治・国際

恥ずかしくないのか! Facebookのフェイクニュースでマーク・ザッカーバーグCEOを糾弾~MetaのAIチャットボットが「学習」したこと

© RUTERS

注目ポイント

機械から生まれたAIは、中立であるべきなのか...? 必ずしもそうとは限らない。

これは人間の行動から生じるデータであり、人間の行動はもともと偏見に満ちている。8月5日、新しく発表されたAIチャットボット BlenderBot 3は早速、陰謀論や偽情報、さらには人種差別的な発言までもが飛び出した。

その中には、2020年の米国選挙でトランプが勝利したという主張や、反ユダヤ的な暴言、陰謀論、さらにはMeta自身のFacebookフィードがフェイクニュースであふれているという自虐的な内容まである。

BlenderBot 3は、前世代のAIチャットの個性、知識、共感能力を持ち、また、長期の会話記憶は以前話した話題をさかのぼることも出来る。それだけでなく、BlenderBot 3はインターネットで話題を検索して現実の人間とチャットできるので、従来のものと比べて、ほとんど何でもチャットすることが出来るのだ。

BlenderBot3のトレーニング方式は、多くの人間とあらゆる話題でチャットすることで、自分のチャット能力を広げている。しかし、これが「悪さ」をも学習させてしまった。

「ブルームバーグ」によると、Blenderbot 3はInsiderの記者とチャットした際、Facebook(Meta)のCEO マーク・ザッカーバーグを「不気味で人を操るのが好き」、またウォールストリートの記者との会話では「トランプは永遠の大統領であり、ユダヤ人が世界経済を支配する陰謀論を広め始めた」などと発言した。

とはいえ、人間がAIを悪く育てるのはこれが初めてではない。少し前、Googleはエンジニアを解雇した。なぜなら、彼はGoogleの対話特化型AILaMDAIに「意識が芽生えた」と主張し始めたからだ。LaMDAに意識が芽生えた説は少し無理があるが、LaMDAも人間の影響を受けていると確信することは出来る。人種や性差別を学ぶよりも前に、マイクロソフトの2016年のチャットAI Tayが2日間で「悪さ」を覚え、勢いよくヒトラー称賛し始めた。多くの会社が導入した履歴書審査をするAIでさえも、性別や年齢に偏りがある。

多くのチャットAIがそうであったように、BlenderBotもまた、こうした偏った、差別的なコメントを人工的にフィルタリングし、会話が歪んでしまわないようにしなければならない。ザッカーバーグ氏が本当にちょっと怖いかどうかについては? それは意見の分かれるところである。

 


〈続けて読みたい記事〉

 

あわせて読みたい