- 家庭内で子どもがTikTokなどのショート動画を見ている場合、ちょっと内容にも注意を払っておいてください。
- 米国でTikTokが、16歳の少年に自殺を促すような動画を繰り返し表示し、実際に命を絶ってしまった事件がありました。
- しかも、少年は自らそういう動画を探していたわけではなく、不完全なアルゴリズムによって否定的感情を煽る動画が過剰に表示された可能性があるのです。

子どものスマホの中という、ある意味「密室」でこのような情報が埋もれてしまうというのは、とても怖いことですね。

TikTokはとくに管理体制が不明瞭な感じがするけど、InstagramのリールとかYouTubeのショート動画とかでも、だいぶ偏った情報が出てくるよね。
思春期の子どもたちが、そういう情報に強く影響を受けてしまうのは怖いね。
1. 自殺を促す動画が大量に表示される
アメリカで、16歳の少年が TikTokのアルゴリズムによって自殺を促すような動画を繰り返し見せられ、自ら命を絶ってしまった、という痛ましい事件が報じられました。
記事1による事件の概要
- 2022年2月に自殺したチェイス・ナスカ君のスマホを母親が調べたところ、TikTokに自傷行為や自殺願望に関する動画が大量に表示されていた。
- 彼のTikTokアカウントに対して、アルゴリズムが否定的なコンテンツばかりを送り続けていたことがわかった。
- チェイス君の両親は、TikTokのアルゴリズムが脆弱な10代の子供たちに危険だと、同社を相手取り訴訟を起こした。
2. ネガティブな動画を増やすアルゴリズム

でも、もともと少年が悩んでいたんじゃないの?
SNSでも、関心のある情報に偏ったりする「エコーチェンバー現象」って問題になっているよね。
実はそれだけではないのです。
この事件が恐ろしいのは、チェイス君が自ら積極的に「自殺願望」に関する動画を検索していたわけではなかった、という点です。
彼がよく検索してたのは「バットマン」「ウエイトリフティング」など。
それに対して、TikTokは次第に「鬱」「絶望」「死」をテーマとする動画を「おすすめ」で表示するようになっていったそうです。

たとえ不快な動画でも表示時間が長かったりすると、アルゴリズムは勝手に「関心がある」と判定してしまいがちです。
このような基準なので、視聴数目的の動画投稿者側も、あえてセンセーショナルな動画を作る傾向があります。
TikTokの元従業員チャールズ・バー氏(TikTokドイツ支社の元広告営業マネージャー)によると、自分のTikTokフィードでも次第にネガティブなものになってしまい、ワークショップで人に見せるために別のアカウントを作り直した経験があったそうです。
2020年の時点で、TikTokのアルゴリズムがZ世代のユーザーに自殺を美化するような動画を大量に送っていて、どのようなアルゴリズムによって動作しているのかが不明瞭な点が問題視されていたようです。

「おすすめ」アルゴリズムは、感情的に反応しやすいものをより多く表示しようとします。
アプリ設計者がきちんと調整しないと、「不適切な感情的な情報」を過度に露出してしまう危険性があります。



