Apple はセキュリティとプライバシー ポリシーで有名です。しかし、iPhoneの写真をスキャンするという最近の計画は、テクノロジー業界に警鐘を鳴らしている。 Apple は、児童性的虐待素材 (CASM) の増加に歯止めをかけるためにこの計画を実施する予定です。
露骨な性的コンテンツは道徳的にも法律的にも社会では受け入れられませんが、性的人身売買により義務化されました。 Appleのような企業には厳しい措置を講じる必要がある。 Apple は iPhone 上の写真をスキャンし、ユーザーが性売買や人身売買に関与しているかどうかを判断し、この措置は社会におけるこの悪を終わらせるための一歩となるでしょう。
しかし、この Apple の新しい計画はユーザーはプライバシーを懸念しているため、ユーザーから軽蔑されています。これは間違いなくプライバシー侵害であり、iPhone 上の Apple の新しい写真スキャン システムにはあなたの情報が含まれるため、携帯電話のデータは安全ではありません。
Apple はあなたの iPhone 写真をスキャンしていますか?スキャン方法は次のとおりです。
CSAM 検出テクノロジーは、CASM を制御する 3 つの機能を含む新しい iOS 15 アップデートで利用可能になります。
- アップデートの最初の機能は、ペアレンタルコントロールであること。この機能が有効になると、子供の携帯電話のメッセージ アプリ内の写真がスキャンされ、露骨なコンテンツが検出された場合は通知が送信されます。
- アップデートの 2 番目の機能は写真をスキャンします。
- アップデートの 3 番目の機能は、ユーザーが Siri または Safari の検索バーを使用して露骨なコンテンツを検索したときに警告します。
すべて3 つの機能は、デバイス上で子供が関与する露骨な性的コンテンツを検出してフラグを立てることで、社会から CSAM の悪を根絶するのに役立ちます。 CSAM は、数百万ものビデオや画像とともにウイルスのように蔓延しています。時間の経過とともに、約 19,000 人の被害者が法執行機関によって特定されました。
Apple は、新機能の目的は「コミュニケーション ツールを使用して子供たちを勧誘し搾取する捕食者から子供たちを守り、児童性的犯罪の蔓延を制限するのに役立つ」と述べました。
この機能はどのように機能しますか?
Apple の CSAM 検出テクノロジーは、iCloud 画像をスキャンし、既知の画像のコードと比較するコンピュータベースのアルゴリズムに基づいています。児童性的虐待の画像。これらのコードは、国立行方不明児童搾取センター (NCMEC) などの児童安全団体のデータベースに保存されています。
写真がデータベースと一致する場合、画像が CSAM であるかどうかを確認します。写真が CSAM であると判断された場合、Apple によってアカウントがシャットダウンされ、法執行機関と NCMEC に報告されます。
新しいテクノロジーはセキュリティ上の脅威になりますか?
アップデートでの新機能の導入により、エンドツーエンドの暗号化に影響を与えるため、Apple は確実にユーザーのセキュリティを確保することになります。このスキャン機能は、政府、ハッカー、Apple 自体の従業員にとって抜け穴となり、データに不正にアクセスして個人的な目的でデータを使用する可能性があります。このような機密データはあらゆる当局によって侵害される可能性があり、プライバシーの大きな崩壊につながる可能性があるため、ユーザーのプライバシーに対する深刻な脅威となる可能性があります。
Hijazi 氏によると。 「Apple の心は正しい位置にあり、正しいことをしようとしていると私は信じています。しかし、その過程で全員のプライバシーが犠牲にされるため、この措置は単純に範囲が広すぎます。」
Apple による写真のスキャンを阻止する方法はありますか?
Hijazi 氏によると。 「プライバシーを気にするなら、どの iOS デバイスもエンドツーエンドの暗号化バイパスや写真への完全なアクセスに対して脆弱であると想定する必要があります」と彼は言います。 「オンライン上や接続されたデバイス上にはプライバシーなどというものは存在しません。常にそのように想定し、それに応じて行動する必要があります。」
そうですね、Apple の攻撃を阻止する方法はあります。 iCloud 写真をスキャンしてプライバシーを保護できます。写真の iCloud ストレージを無効にすることで、プライバシーを確保できます。
iCloud 写真を無効にする手順に従ってください:-
- [設定] > [写真] を選択します
- >iCloud 写真スライダーをオフにする
- ポップアップ ウィンドウで [写真とビデオをダウンロード] を選択し、代わりに iCloud からデバイスに写真をダウンロードします。
結論:-
CSAM は児童の性的虐待を防ぐための優れたステップですが、確かに、この方法でプライバシーが漏洩するという無視できない事実があります。 Apple は、ユーザーのプライバシーを侵害せず、同時に児童の性的虐待を防止できる他の措置を講じることもできたはずです。
ただし、個人がクリーンで、怪しいものは何もないと知っている場合には、彼のデータを知っているなら、彼はいかなる噂にも耳を貸さず、崇高な大義と Apple がとった一歩を支持すべきではない。ソーシャルメディアで私たちをフォローしてください – .
読み取り: 0