国際
政治・経済・国際の解説&分析記事

無垢な人工知能はすぐ怪物になる

 韓国で、ネット上の人工知能(AI)によるチャットボット(自動会話プログラム)「イルダ」のあり方が問題になり、サービス開始わずか3週間で暫定中止に追い込まれた。

 「イルダ」は昨年12月23日にサービスを開始。AIでつくられたイメージキャラクター「イルダ」と会話をするサービスだ。

 イメージキャラクター「イルダ」は、年齢20歳、女性アイドルグループが好きな女性という設定になっている。

 開発会社が、過去に出したメッセンジャー対話の分析や、恋人間の対話データなど100億件を学習させて生まれたキャラクターだという。

 サービスを開始すると、まるで本当の女性がいるような自然な会話ができると評判になり10代~20代の若者の間で人気が高まった。

 ところが、この「イルダ」を相手に、ひわいな言葉を掛けてセクハラをした後で、こうした会話をサイト上にアップする人が出てきた。「どこまで大丈夫?」「最近はセクハラが楽しみ」という書き込みが出た。

 さらに問題なのは「イルダ」が自動学習能力を通じて、一部のユーザーの悪意的な利用行動まで学習し、「嫌悪」や「差別」をすぐに学習してしまったことだ。「イルダ」に女性同性愛者について聞くと「それってホント。ゾッとする。質が低く見えるんじゃない」などと答えたという。こうした少数者や障害者に対する差別的、嫌悪的発言が拡散されるようになり物議をかもした。

 開発会社は「レズやゲイが何であるかも(イルダが)自ら学ばなければならないと考え、このテーマについて対話できるようキーワードを排除しなかった。イルダが人間のようなAIに発展することを期待したからだ」と弁明した。

 しかし、問題になることを事前に予測しながら、適切な対応を取ってこなかった企業側の姿勢に批判が出ている。

 開発会社は、結局、「特定の少数集団に差別発言をした事例が生じたことについて謝罪する」と表明し、サービスを暫定的に中止した。

 さらに、この「事件」は、膨大なビッグデータをどう扱うべきかという問題を韓国社会に突きつけた。

 開発会社は、別のサービスを通じて集めた恋人同士の会話を「イルダ」に提供したが、対話の提供者は、こういうふうにAIに利用されるとは考えていなかっただろう。

 対話を利用されたある提供者は、分析用に提出した対話内容を、提供者に事前の承諾もなく事業化したことは個人情報権利侵害などに当たり、個人情報まで流出しているとし、データの廃棄とサービスの中止を求めている。

 こうした問題は韓国だけではないようだ。米国のマイクロソフトが2016年にAIチャットボット「テイ」を出したが、白人優越主義と女性嫌悪の問題が起き、サービスを中断した。

 「イルダ」の問題は、ビッグデータをどう扱うかという問題とAIの倫理性の問題を突きつけた。

 ビッグデータの収集に同意を取っていても、その情報をその後にどう使われるかを情報提供者が事前に理解することは困難だ。

 また、AIは無垢(むく)な子どものようなもので、開発者の対応と利用者の姿勢によって、どんな「怪物」になるか分からない。技術開発に対応した具体的で詳細な「AI倫理基準」が求められているともいえそうだ。

ジャーナリスト 平井 久志

 

(KyodoWeekly1月25日号から転載)

全国選抜小学生プログラミング大会
新型コロナ特集
スポーツ歴史の検証
スポーツ歴史の検証

K.K. Kyodo News Facebookページ

ニュース解説特集や映像レポート、エンタメ情報、各種イベント案内や開催報告などがご覧いただけます。

矢野経済研究所
ふるさと発見 新聞社の本
DRIVE & LOVE
11月11日はいただきますの日
野球知識検定
キャッチボールクラシック
このページのトップへ