注目ポイント
機械から生まれたAIは、中立であるべきなのか...? 必ずしもそうとは限らない。
これは人間の行動から生じるデータであり、人間の行動はもともと偏見に満ちている。8月5日、新しく発表されたAIチャットボット BlenderBot 3は早速、陰謀論や偽情報、さらには人種差別的な発言までもが飛び出した。
その中には、2020年の米国選挙でトランプが勝利したという主張や、反ユダヤ的な暴言、陰謀論、さらにはMeta自身のFacebookフィードがフェイクニュースであふれているという自虐的な内容まである。
BlenderBot 3は、前世代のAIチャットの個性、知識、共感能力を持ち、また、長期の会話記憶は以前話した話題をさかのぼることも出来る。それだけでなく、BlenderBot 3はインターネットで話題を検索して現実の人間とチャットできるので、従来のものと比べて、ほとんど何でもチャットすることが出来るのだ。
BlenderBot3のトレーニング方式は、多くの人間とあらゆる話題でチャットすることで、自分のチャット能力を広げている。しかし、これが「悪さ」をも学習させてしまった。
「ブルームバーグ」によると、Blenderbot 3はInsiderの記者とチャットした際、Facebook(Meta)のCEO マーク・ザッカーバーグを「不気味で人を操るのが好き」、またウォールストリートの記者との会話では「トランプは永遠の大統領であり、ユダヤ人が世界経済を支配する陰謀論を広め始めた」などと発言した。
とはいえ、人間がAIを悪く育てるのはこれが初めてではない。少し前、Googleはエンジニアを解雇した。なぜなら、彼はGoogleの対話特化型AILaMDAIに「意識が芽生えた」と主張し始めたからだ。LaMDAに意識が芽生えた説は少し無理があるが、LaMDAも人間の影響を受けていると確信することは出来る。人種や性差別を学ぶよりも前に、マイクロソフトの2016年のチャットAI Tayが2日間で「悪さ」を覚え、勢いよくヒトラー称賛し始めた。多くの会社が導入した履歴書審査をするAIでさえも、性別や年齢に偏りがある。
多くのチャットAIがそうであったように、BlenderBotもまた、こうした偏った、差別的なコメントを人工的にフィルタリングし、会話が歪んでしまわないようにしなければならない。ザッカーバーグ氏が本当にちょっと怖いかどうかについては? それは意見の分かれるところである。
〈続けて読みたい記事〉
- LLBS2022福林國小チームの軌跡 ―球児の夏は終わった―
- 月イチ連載「山本一郎の#台湾の件」第6回:台湾を愛した安倍晋三さん「国葬」問題
- 残暑をどう乗り切る? 台湾流の熱中症・夏バテ対策
- 性の多様性を認めるフラッグ(旗)の図集レインボーフラッグしかないと思ってない?
- ミシュラン「ビブグルマン」 台湾4都市の掲載店発表 59軒が新たに選出