online harassment
harassment

Twitterが「有害な」リプライを送信前に修正を促すプロンプトをテスト中

次の記事

Virgin GalacticとNASAが共同で地上2点間移動用の超音速機を開発へ

氾濫するハラスメント行為に対処すべく、Twitter(ツイッター)はユーザーがツイートする前に再確認する機会を与えようとしている。現在テスト中の新機能では「有害」な言葉を使うユーザーに対して、リプライを投稿する前に自分で修正するよう薦めるプロンプトを表示する。

人間は熱くなると本心ではない言葉を発することがあります。リプライする前に考え直す機会を与えるために、害を与える可能性のある言葉を用いたリプライには、投稿する前に修正する機会を与えるプロンプトを出すテストをiOSで行っています。

この表現は少々素直さに欠ける。Twitter上のハラスメント行為は、いつもは善意ある個人が「もののはずみ」で起こすものばかりではない。しかし、何であれTwitterから害毒を減らせるなら、おそらく現在よりは良くなるだろう。

2019年のF8カンファレンスでInstagram(インスタグラム)は、有害なコメントを投稿する前に警告を与えて「説得」する同様のテストを導入している。2019年12月にはこの取り組みの成果を発表した。「実験結果は有望であり、こうしたチャンスを与えることで人々に自分の言葉を考えなおさせられることがわかった」と同社はブログに書いている。

この種の取り組みは、巨大プラットフォームを比較的少人数のスタッフで監視しなければならない会社にとって、ますます重要になってくる。パンデミックで社員がオフィスにこられない今、主要ソーシャルネットワークはAIによる検査への依存度を高めている。Facebook(フェイスブック)は、最初に復帰させたい社員はコンテンツ管理者だといっている。

本誌はTwitterに対して、どんな言葉が検査の対象になるのか、リプライだけでなく通常のツイートにもプロンプトを出すのかを質問している。追加情報を入手し次第続報する予定だ。

関連記事:新型コロナによるカオスの中でテック企業の誤情報対応は

[原文へ]

(翻訳:Nob Takahashi / facebook