メタがAIを強化したInstagramの安全機能を導入、10代を露骨なコンテンツから保護

大手テクノロジーカンパニーであるメタは、オンライン安全性の向上を図る大胆な動きとして、Instagramに新しい人工知能(AI)機能を導入し、未成年ユーザーが不要なヌード画像や恐喝の試みから保護することを目的としています。これらの機能は、青少年のメンタルヘルスへのソーシャルメディアの負の影響についての懸念が高まる中で登場しています。

この革新の要は、Instagramのメッセージングサービスを通じて送信される画像で自動的にヌードを検出してぼかすAIベースの「ヌード保護」ツールです。これにより、未成年者は強制的に露骨なコンテンツを提示されることなく、明示的なコンテンツの閲覧を避けることができます。メタの取り組みは、技術的なシールドを提供するだけでなく、そのようなやり取りに関与する人々に対してガイダンスや安全アドバイスを提供します。

若者に対するセクストーション犯罪の増加に対する反応は単発の取り組みではありません。アメリカ合衆国の複数の州で、私たちの驚くべき数の10代がそのような計画の犠牲になっています。さらに、メタは40以上の州から利益を若年ユーザーの福祉より優先しているとして訴えられています。

メタは、保護策が未成年者に安全な環境を育むことを目的とする一連の向上策の一環であると強調しています。これらのアップグレードは、「オンデバイス機械学習」に基づいており、メタがユーザーにフラグが立てられるまで画像にアクセスしないことを保証することで、システムがユーザーのプライバシーを損なうことなくコンテンツを検証できるようにしています。

このツールの導入は、潜在的な被害者と10代の間の相互作用を抑制し、会社が若年視聴者の安全保障に対する責任の問題に公共と法的な叫びに対応する包括的な戦略の一部です。この積極的なアプローチは、若者に与える影響をプラットフォームの管理に対するより責任あるアプローチにシグナルを送るものであり、プラットフォームの影響の慎重な認識を反映しています。

The source of the article is from the blog exofeed.nl

Privacy policy
Contact