フェイクニュースをはじめとするmisinformationを社会に広めないための取り組みが求められているSNS大手各社ですが、YouTubeもミスインフォメーションや扇動的な内容の動画をレコメンドしないようにするためアルゴリズムの見直しをすると発表していた矢先の出来事でした。
ノートルダム大聖堂火災のニュース画像と911の画像になぜ関連性が高いとアルゴリズムが判断したのかは簡単には分からないもので、ブラックボックス化したAIへの問題がこのような形でも露呈してきています。(おそらくツインタワーの火災と類似していると画像から判断した模様)テロリストの攻撃と思わせる間違った情報の流布につながる可能性があるので、グーグルはすぐに表示をしないように対処しました。
今回の件では、このようなAIの判断に問題を呈する姿勢や議論をして即座に対処してアルゴリズムの改善を図ることが大事なのだと私は考えています。
皆さんも今後、YouTubeのレコメンド動画や広告などが、どういう理由で表示されているのか、考えてみると面白いと思います。私が常日頃言っているのは「AIのレコメンドをただ受け入れる人にならずに、AIの仕組みを理解して使いこなす人を育てることが大事だ」ということですが、その一環になると考えています。
ノートルダム大聖堂の火災に関しては、フランスのビリオネア達が数百億円相当の寄付をして、逆に批判を受けるという現象が起こっており、こちらに関しても興味深いと思っています。 |