SNSのAIを駆使したおすすめは、偏った思想やフェイクに影響されやすい人に、そういった情報ばかり見るよう促し、社会分断を引き起こしている。ということは数年前から問題視されている。

今までの私は「Twitter(現X)にはそういう人もいるよね」程度の認識だった。しかしコロナ禍明け後、現実でもそのような人に遭遇するようになってきたと感じる。主な原因はコロナ禍巣篭もり中に起きたYouTubeの視聴時間増加にあるように思う。

私は魚のさばき方のような実用系の動画を見ることが多いので、巷を賑わしているインフルエンサーの動画は全然おすすめに流れてこない。おすすめがXやInstagramよりも人の趣向に強く最適化されているように感じる。

XやInstagramは見たくもない投稿がおすすめとして流れてくることも珍しくない。それは主に安易に気を引き視聴数を稼ぐ投稿である。YouTubeはそういった動画が流れてくることはほとんどない。

Xはリポスト(リツイート)によりフェイクが拡散されやすいという問題はあるが、投稿はしょせん短文や短い動画でしかない。よって安易な視聴数稼ぎに走りがちなのだと思う。

それに比べYouTubeは、作り込んで信ぴょう性を高くした動画を投稿できる。そしてその動画の合間に入る広告がYouTubeの収入源である。

よって、一本の動画を一定時間以上視聴しそうな人に届けることにインセンティブがある。ゆえにおすすめに強い最適化が働いているのだと思う。これはネガティブな性格の人は闇に引き込まれやすい環境ということでもある。

巣篭もり中のネガティブな精神状態の時に、負の感情を増幅させる動画をよく見るようになり、結果、おすすめ動画がそういう系統に最適化・固定化されてしまった。という人はそれなりにいそうである。

今までTwitterの中だけで可視化されていた人の数が、閾値を超え現実でも可視化されるようになった。これが最近、Xの中にいたような人が現実にも現れるようになったと感じる原因ではないだろうか。