ソーシャル
いじめ
自殺
自傷行為

新しい報告ツールで自傷行為や自殺問題に取り組むInstagram

次の記事

今日以降製造される全てのTesla車は、自動運転に必要なハードウェアを最初から搭載する

Twitterが蔓延するいじめや虐待と格闘し続けているのを横目に、Instagramはユーザーの安全を守るという仕事の階段を一段上った。Facebookが所有するこの写真共有ネットワークは、今週新しい報告ツールのロールアウトを開始した、友人の自傷行為投稿に匿名でフラグを立てる機能だ。これにより、Instagramから対象のユーザーへの問い合わせメッセージが促され、サポートの提供が行われる。そこではヘルプラインへのアクセスを含む、アプリの中からアクセス可能な手段が示される。

システム自体の利用は極めて簡単だが、多数の10代や若い成人の利用が続く、ソーシャルネットワーク上の真剣な必要性にアプローチするものだ。

友人が自傷行為や自殺に言及し苦しむ投稿を見たとき、そのことを相手との話題として持ち出すことに躊躇いを感じることもあるだろう。あるいは、掛けるべき言葉が見つからないかもしれない。また、あまり良く知っているわけではない(あるいは全く知らない)人のアカウントをフォローしている場合もあるだろう、そこでは自分が何か言う立場ではないと感じるような場合だ。

このときInstagramが代わりに別のオプションを提供してくれる。匿名でその投稿にフラグを付けることで、友人は以下のようなサポートメッセージを受け取る、「あなたの投稿の1つをみて、あなたが苦しんでいるのではないかと考えた人がいます。もしサポートが必要ならば、私たちがお手伝いしたいと思います」。

そして受信者は、クリックしてサポートオプションのリストを見ることができる。たとえば以下のようなアドバイスだ:友人の1人にメッセージをおくったり電話をしてみる、より一般的なヒントまたはサポートへのアクセスを試みる、あるいはヘルプラインへ連絡するなど ‐ これはユーザーのいる場所によって変化するが、世界中の40の組織がシステムのヘルプライン側にパートナーとして控えている。

同社はまた、新しいツールのために、National Eating Disorders Association(全国摂食障害協会)、Nancy Zucker博士(デューク大学の心理学ならびに神経科学の准教授)、そしてForefront(ワシントン大学のアカデミック研究者たちに率いられている)と協力している。そして他の組織、例えば米国のThe National Suicide Prevention Lifeline(全国自殺予防ライフライン)とSave.org、英国のSamaritans、豪州のbeyond blue and headspaceなども協力している。

更新された自己傷害フロー

Instagramのツールで興味深いのは、トリガーするのは匿名の報告だけではないということだ。Instagramアプリは、ユーザーがある種のハッシュタグを検索したとき、例えば検索禁止語である#thinspo(thinspiration : 摂食障害に関連している言葉)を検索した際にも、ユーザーをサポートメッセージへ導く。

虐待(そして自傷行為)への対処

この動きは、Instagramがそのネットワーク上での虐待行為を制限するために、最近行ったいくつかの変更の1つだ。9月には 誰でもコメント欄をカスタマイズ可能なブロックリストでフィルターすることができるようにしている ‐ すなわち、Instagramのコメント欄に露骨な言葉や、イジメのフレーズが並ぶことを禁止することができるようになったのだ。

このような手順は、コミュニティの雰囲気を確立するために重要なことだ。規制のない自由な発言は、匿名のイジメにつながっていく可能性がある – いまやTwitterの上ではそれが猛威をふるっていて、少なくともそれが買収企業を見つけるための妨げの一部になっている(伝えられるところによれば、その問題が原因でディズニーは買収をあきらめたようだ)。

自傷行為についての投稿はもちろん、いじめとは異なる問題だが、ユーザーの保護と安全という意味では大きな傘の下に収まるものである。

更新された自己傷害-ツール-1

彼らが確立しようとしているのは安心して共有ができるコミュニティだが、同時にある種の共有が潜在的な問題として取り扱われる場所でもある ‐ 誰かが他の誰かに向けて有害なコメントをしたり、誰かが自分自身に対して有害なコメントをするような場合だ。

この種のものに対する規制や方針を持っていないことは、危険な結果に繋がる可能性がある。例えば、10代のQ&Aネットワークは、かつてはイジメの巣窟として知られるようになり、連続する10代の自殺の要因の1つとみなされるようになった。

長年にわたり、主要なソーシャルメディア企業は、ユーザーを保護するためのより良い方法を提供するために、過去の悲劇から学んできた。支援機関の協力の下に、ユーザーが有害な用語を検索した際にPSA(Public Service Announcement:啓蒙広告の類)を流すメディアは多い ‐ Tumblr、Pinterest、そしてInstagramは皆そのような対処をしている 。そして今日では、ほとんどのメディアが自動化システムと人間のモデレーターそしてフラグツールの組み合わせを使って、ユーザーによるある種の用語やタグの検索(たとえば thinspoや自殺のような)から、ユーザーの投稿自身よってトリガーされる問題群までに対処している。

Screen Shot 2016-08-25 at 1.53.58 PM

Instagramの新しいフラグツールは、親会社のFacebookによって既に開発されていたものに倣ってデザインされているが、それはこの小さな会社が、Facebookが既に構築している自傷行為に関連した問題にアプローチするためのインフラによって、どのように助けられたかの例になっている。

昨年、 Facebookは、ほとんど同じツールを米国ユーザーのために立ち上げている。2016年の前半には世界中のユーザーに対しても展開された。

新しいツールの立ち上げに伴い、National Body Confidence Day(全国的に身体に信頼を寄せる日)に、Instagramは、身体イメージと自己自信に焦点を当てたキャンペーンのためにSeventeenと提携した。これは、現在ハッシュタグ#PerfectlyMeを使って運用されている。Seventeenの11月号には、身体への信頼と#PerfectlyMeを応援するための16ページの記事が掲載される。

*Instagramのこの報告機能は投稿の右上の「…」メニューから「報告する>不適切である>自傷行為」というメニューをたどればアクセスできる。

[ 原文へ ]
(翻訳:Sako)