Twitter、悪質な投稿をフィルタリングする新技術のテスト結果を発表
Twitterは、悪質な投稿をフィルタリングする新技術のテスト結果を発表しました。
新技術のテストは、ロシアの悪質な利用者が、Twitterを利用して政治活動を行い、選挙に影響を与えていた事に対する対応策として行われました。
Twitter社は、以前よりTwitterの投稿内容を健全化するための方策を模索していました。
「健全な投稿とはなにか?」に関する定義は、Twitter社が現在取り組んでいる重要項目の一つです。
Twitterの製品マネージャーのDavid Gasca氏は3月に発表したRFP(提案依頼書)に対して、「健全な投稿とは何か?」に関する提案を、230以上受け取ったと語りました。
Thank you everyone who submitted @Twitter Health proposals! 230+ proposals from institutions globally across topics: echo chambers, bots/misinformation, healthy discourse, info analyses & more. We'll be reviewing over the coming weeks & will follow up with semi-finalists then! https://t.co/IVffcigEcF
— Gasca 🔥🦉 (@gasca) 2018年4月16日
今回の発表によると、Twitter社は、悪質な投稿を繰り返す利用者のアカウントを特定する方法を発見しました。
悪質な投稿を繰り返す利用者のアカウントを特定する方法の例として、以下の2つがあげられます。
(1)有効な電子メールアドレスを持っていないアカウントであること
(2)アカウントをフォローしていない利用者に対して、大量のメッセージを送っていること
Twitter社のテスト結果では、悪質な投稿をフィルタリングすることで、検索結果に表示される悪質な投稿に関する報告が4%、コメントに投稿される悪質な投稿に関する報告が8%減少したと発表しています。
投稿を削除したり、アカウントを凍結するのではなく、投稿をフィルタリングすることで、悪質な投稿者の発言力を低下させる狙いがあるようです。
Twitter社では、「健全な投稿」をしている利用者であっても、「悪質な投稿」をしている利用者であるとみなされて、アカウントが停止される問題が多発していました。
この問題に関する対策として、悪質な投稿に対するフィルタリングを行うことにしました。
フィルタリングにより、悪質な投稿は、検索結果やコメントに表示されません。
悪質な投稿と判断された投稿であっても、閲覧する利用者が設定を変更することで、閲覧可能となります。
フィルタリングの新技術により、これまで発生していた、アカウント停止や発言の削除などの問題が減少していき、悪質な投稿も減っていくのではないでしょうか。