IT・科学
FC2が「青少年守る」 東大の人工知能で児童ポルノ監視
動画サイト大手のFC2が、児童ポルノなど問題画像を検出するシステムを導入した。監視会社や東大と協力して開発。目視なしでも95%の確率で検知するという。
IT・科学
動画サイト大手のFC2が、児童ポルノなど問題画像を検出するシステムを導入した。監視会社や東大と協力して開発。目視なしでも95%の確率で検知するという。
ウェブへの投稿監視などを担うイー・ガーディアン(東京都港区)は27日、ブログや動画配信サービスで知られるFC2(米国ラスベガス)に児童ポルノなどの違法画像を検出する新システムを提供すると発表した。
アダルト動画サービスもあり、利用者が簡単に画像をアップロードできるFC2のサイトでは、これまで児童ポルノなどの違法画像を目視で確認してきたというが、限界がある。国内では 児童ポルノの単純所持に罰則を設けることを柱とした改正児童ポルノ禁止法が6月に成立し、グーグルも児童ポルノの検索を厳しく制限するなど規制が進む中、アダルト動画サービスを提供するFC2も対策に乗り出した。
プレスリリースによると、FC2は「青少年の人権を守るため、より迅速に広範囲に不適切画像を発見することが可能になる」と説明している。
システムは、イー・ガーディアンが東京大院 情報理工学系研究科の原田達也研究室(知能機械情報学専攻)と共同開発した。児童ポルノや嫌がらせ目的のリベンジポルノなどの画像を入力すると、人工知能がそれと似ている画像を監視対象のサイトへのアップロード時に見つける。
似ているか似ていないか微妙な画像は「グレーゾーン」と判定される。それを人間の目で確認して、セーフかアウトかを判定すると、人工知能はその結果を学習して精度を向上させていく。
イー・ガーディアンによると、テスト運用中だった5月23日時点で画像識別の精度は94・5%。グレーと判定されたものについて、目視の割合を25%まで増やすと、精度は99%に上がったという。すべてを目視した場合と比較して「コストを20分の1に減らせる」という。
今回、システム開発のために必要な児童ポルノのサンプル画像データはFC2が提供した(追記:データはテキストデータに変換されたもので画像そのものではありません)。原田研究室は画像データを識別し、結果を学習していく人工知能の開発で実績がある。国際的な画像認識の大会ILSVRC2012では120の犬種を画像から識別する部門で世界1位となっている。
両者をつないだのが投稿監視システムを開発しているイー・ガーディアンだ。
児童ポルノなど違法画像のアップロードは「SNS、ブログ運営サイト、ポータルサイト、ECサイト、画像・動画投稿サイト、キャンペーンサイトなど各種メディア」(イー・ガーディアン広報)に及ぶ可能性がある。FC2以外にも現在、数社と交渉をしており、来年9月までに20社への提供を目指しているという。
イー・ガーディアン広報は「今までは、通報されたものについて削除などの対応がされていました。よりスピーディーに見つけられれば、違法画像や動画の拡散を押さえられる」と話す。