日本全国自由に旅する!夢のレンタカー回送ドライバー生活

本ページは広告、PR、プロモーションが含まれています

MENU

YouTube新機能追加!攻撃的な内容コメントに投稿の再検討を促すメッセージ

YouTube新機能追加!攻撃的な内容コメントに投稿の再検討を促すメッセージ

YouTube新機能追加!攻撃的な内容コメントに投稿の再検討を促すメッセージ

YouTubeは日本時間12月4日、動画の投稿に対するコメントの内容が攻撃的である可能性があると人工知能のAIが判定したた場合に、投稿の再検討を促すメッセージを表示する機能を実装すると発表しました。

 

 

 

 

 

この機能ではコメントの投稿者に対し、「投稿内容が適切かどうか」分からない場合はYouTubeの「コミュニティガイドライン」を見直すよう提案した上で、内容を修正するか、コメントをそのまま投稿するかを選択させる機能です。

Removing harmful and hateful comments

We know that comments play a key role in helping creators connect with their community, but issues with the quality of comments is also one of the most consistent pieces of feedback we receive from creators. We have been focused on improving comments with the goal of driving healthier conversations on YouTube. Over the last few years, we launched new features to help creators engage with their community and shape the tone of conversations on their channels.


We’ve heard from creators that while these changes helped them better manage comments and connect with their audience, there’s more we can do to prevent them from seeing hurtful comments in the first place. To address that, we’ll be testing a new filter in YouTube Studio for potentially inappropriate and hurtful comments that have been automatically held for review, so that creators don’t ever need to read them if they don’t want to. We’ll also be streamlining the comment moderation tools to make this process even easier for creators.

takeaway #2
To encourage respectful conversations on YouTube, we’re launching a new feature that will warn users when their comment may be offensive to others, giving them the option to reflect before posting.

 

有害で嫌なコメントを削除する

コメントは、クリエイターがコミュニティとつながるのに重要な役割を果たしていることはわかっていますが、コメントの品質に関する問題も、クリエイターから受け取る最も一貫したフィードバックの1つです。YouTubeでのより健康的な会話を促進することを目的として、コメントの改善に重点的に取り組んでいます。過去数年間で、我々は発売し 、新たな 機能のヘルプクリエイターには、彼らのコミュニティと従事し、そのチャネルで会話のトーンを形作ります。


これらの変更はコメントの管理と視聴者とのつながりを改善するのに役立ちましたが、そもそも有害なコメントが表示されないようにするためにできることは他にもあるとクリエイターから聞いています。これに対処するために、YouTube Studioで新しいフィルターをテストして、レビューのために自動的に保留されている不適切で有害な可能性のあるコメントを探します。これにより、作成者は読みたくない場合にそれらを読む必要がなくなります。また、コメントモデレートツールを合理化して、クリエイターがこのプロセスをさらに簡単に行えるようにします。

テイクアウト#2
YouTubeでの敬意を表する会話を促進 するために、コメントが他のユーザーに不快感を与える可能性がある場合にユーザーに警告する 新機能をリリースし、投稿する前に反映するオプションを提供します。

blog.youtube

 

 

 

 

YouTubeは、公式ブログでこの機能を含む複数の対策を発表しました。「YouTubeで礼節ある会話を推奨するため、ユーザーのコメントが他者を不快にさせる可能性がある場合に警告し、投稿する前に再考できるようにする新機能を追加する」としこれらの対策はいずれも、より多様なユーザーに配慮したプラットフォームとなるための試みだとしています。

「Android」向けに提供

今回の機能は「Android」向けに提供されていて、コメントを投稿する際にメッセージが表示されなかったとしても、コミュニティガイドラインに反していると見なされば削除される一方、メッセージの対象となったコメントをそのまま投稿したとしても必ず削除されるわけではありません。コミュニティガイドラインは実質的に、YouTubeで認められる行為と禁止行為の線引きをするガイドラインです。

 

 

 

YouTubeのシステムAIによる対応

YouTubeのシステムは、ユーザーが繰り返し不適切なコメントとして報告した投稿から学習することにより、攻撃的な内容を含む可能性のある投稿を選別する仕組みになっているようです。具体的には誤情報や陰謀論、差別、ハラスメント、大量殺人や児童への搾取と虐待を映した動画の投稿などを対象にしています。またコメント機能でも有害となる可能性があると認識されています。

コロナかでリモートとAIで対応

YouTubeは約20億人の月間ユーザーを有し、毎分500時間を超える動画が投稿される。こうした巨大な規模ゆえに、同社は機械学習を動画のおすすめ機能だけでなく、プラットフォームの健全性維持にも利用している。例えば9月には、18歳未満のユーザーに対してブロックすべき動画を、AIを使って自動的に判別すると発表しています。