すべての有害情報を排除することは容易ではありませんが、インターネット上の「罠」から子どもたちを守ることは、安全を確保するだけでなく、子どもたちが将来正しい認識を形成できるようにするためにも、体系的かつ徹底的に行われなければなりません。
すべての有害情報を排除するのは容易ではありませんが、インターネット上の「罠」から子どもたちを守ることは、体系的かつ徹底的に行われなければなりません。 (図) |
両刃の剣
新型コロナウイルス感染症のパンデミックの間、ロックダウンや隔離中に築かれた障壁によって最も大きな影響を受けたのは子どもたちだ。幸いなことに、インターネットとソーシャル ネットワークのおかげで、学生の学習とつながりが中断されることなく継続することができました。
学校に行けなくても、オンライン授業を受けたり、友達とチャットしたり、インターネットで楽しんだりすることはできます。これは、子どもたちが積極的に学び、 探求するための無限の知識源であるだけでなく、効果的なコミュニケーション チャネルでもあり、人間関係を維持し、孤立によって引き起こされる心理的トラウマを回避するのに役立ちます。
しかし、パンデミック中に子どもたちがインターネットやソーシャルメディアを利用する機会が増えると、彼らがフェイクニュースやオンライン上の暴力や虐待の主な被害者になる可能性がある。
インターネット・ウォッチ財団(IWF)は、2019年以降、児童性的虐待の画像や動画を掲載するウェブサイトの数が1,058%増加しており、非常に憂慮すべき数字だと述べた。 2020年、IWFは、最も深刻な種類の児童虐待コンテンツを含む25,000以上のウェブサイトを検出しました。この数字は2022年に倍増し、過去最高を記録しました。 IWFの報告書はまた、子どもの年齢が若ければ若いほど虐待のレベルが高くなることも示している。
米国国立行方不明・搾取児童センター(NCMEC)が発表したデータによると、2010年にサイバーチップライン(オンラインでの児童の性的搾取に関する問題の通知を受け取るページ)に送信された児童性的虐待資料の報告は約100万件に過ぎなかった。 2019年の報告件数は2021年には2,930万件、2022年には3,200万件以上に急増しました。
性的虐待は、インターネットの使用時に子どもたちが直面するリスクの 1 つにすぎません。ユニセフの調査データによれば、10代の若者の3分の1以上がネット上でいじめを受けた経験があり、そのうち5人に1人が恥ずかしさから学校を中退するつもりだと明かしている。悪意のあるあだ名、軽蔑的なコメント、写真のコラージュなどの行為は、子供たちに大きな影響を与えます。直接的な発言とは異なり、いじめのコメントや画像はインターネット上で拡散して保存されることが多く、被害者は無力感を覚えることになります。
さらに、子どもたちも有害な情報やフェイクニュースの標的になっています。子供たちは好奇心と探究心が強いため、センセーショナルで独特な偽情報に誘惑され、説得されてしまうことがよくあります。多くの子供たちが危険なトレンドの犠牲者になるのも、このためです。数年前、「青い鯨チャレンジ」や「モモチャレンジ」の流行により、何百人もの悲劇的な子供の自殺が起こりました。
子供がインターネット上のソーシャル ネットワーキング グループやオンライン ゲームに参加すると、個人情報が漏洩する危険があります。詐欺師はこの情報を利用し、違法または不適切な広告で子供たちをターゲットにします。これは誘拐犯や児童人身売買業者にとって「美味しい餌」となる可能性がある。さらに、インターネットを無計画に使用すると、ソーシャル ネットワーク依存症のリスクも高まり、自制心の欠如、意識の低下、不安を引き起こし、子供たちの生活に影響を及ぼします。
インターネット ユーザーのうち、子供は自分自身を守るための知識と能力が不足しているかほとんどないため、最も脆弱なグループです。一方、子供に最も近く、子供に対して最も責任のある人である親であっても、子供のインターネットやソーシャル ネットワークの使用を完全に制御することはできません。
毎日、無数の情報がインターネットに投稿され、何百万もの新しいグループや Web サイトが作成されます。親がスキルと定期的な監督を身につけていなければ、子どもが悪いコンテンツにアクセスするのを防ぎ、止めることは困難です。
`
インターネット上の児童保護を強化するために協力しましょう
インターネット上での児童に対するリスクが増大していることを受けて、世界各国政府は安全なサイバースペースを創出するための政策を急速に推進している。規制は国によって異なる場合がありますが、どの国でも子供のインターネット使用の管理に対する保護者の関与を強化することを推奨しており、ソーシャル ネットワークやオンライン コンテンツ企業にはサービスを提供する前にユーザーの年齢を考慮することが求められています。
米国は、インターネット上で児童を保護する法律を制定した世界初の国の一つです。 1998 年に、米国議会は児童オンラインプライバシーの保護に関する条約 (COPPA) を可決しました。この法律は2年後に施行され、米国連邦取引委員会によって監督されている。
「子どもたちは産業規模で標的にされ、近づき、操作され、虐待されている」とIWFの最高経営責任者スージー・ハーグリーブス氏は警告した。 「こうした虐待は家庭内で起こることが多く、親たちはインターネット上の見知らぬ人が子どもたちに何をしているのか全く気づいていないのです。」 |
COPPA は、意図的に子供を対象とした広告の影響を制限する唯一の米国連邦法です。 COPPA では、ウェブサイト運営者は、事前に親の同意を得て通知することなく、子供から情報を収集することを禁止されています。
2012 年に COPPA が改正され、企業が Cookie や位置情報データ、あらゆるオーディオビジュアル情報などのデジタル識別子を使用して子供のインターネット習慣を追跡し、それに基づいて広告を配信することを禁止する新しい規則が追加されました。改正法は、企業に対し、技術的な目的で子供から収集したデータを削除することを義務付けている。
しかし専門家は、COPPAには13~18歳の児童からのデータ収集に関する規制がないなど、まだいくつかの抜け穴があると指摘している。米国では州レベルでもカリフォルニア州消費者プライバシー法 (CCPA) を適用しています。この法律は COPPA の制限を部分的に克服します。
米国は、現行の2つの法律であるCOPPAとCCPAに加えて、オンライン上でますます巧妙化する誘惑から子供たちをよりよく保護するための新しい法律も積極的に策定しています。 2024年7月1日に発効するカリフォルニア州年齢適正設計法(CAADCA)により、児童の年齢が現在の13歳から18歳に引き上げられる。
米国の複数の議員が、子供のインターネット設計と安全(KIDS)法案を推進している。この法案は、YouTubeやTikTokなどのプラットフォームに広告を制限し、子ども向けコンテンツ内の次の動画の自動再生機能を禁止することを義務付けるものだ。
欧州連合(EU)は、ネット上の児童虐待コンテンツの急増に対処するため、デジタルサービス法(DSA)を制定し、テクノロジー企業やソーシャルネットワークに、児童性的虐待画像の検出と削除のためのさらなる措置を講じるとともに、脆弱な立場にある人々の個人データをより適切に保護することを義務付けた。
2023年8月末が、テクノロジー大手がDSAに基づく調整を完了する期限だ。 TikTokは、EUのユーザーが個人の興味に基づいてコンテンツを自動表示する機能をオフにし、13~17歳を対象とした広告を禁止できるようにすると発表した。
インターネット利用者の5分の1を子供が占める英国では、2021年9月初旬に「年齢相応のデザイン法」が可決され、テクノロジー企業に子供に優しいデザインと技術基準を導入し、子供のプライバシーやイメージを害するリスクのあるアルゴリズムの使用を避けることが義務付けられました。
子供にプライバシールールを回避させたり、若いユーザーに関するデータを収集させたりすることを奨励するトリックも禁止されます。遵守しない場合、テクノロジー企業は世界年間収益の最大4%の罰金を科せられる可能性がある。すぐにソーシャルネットワーク上で好意的な反応が見られました。 TikTokは、保護者が子供の通知ミュートスケジュールを設定できる新機能を導入しており、これにより13~15歳のユーザーアカウントは午後9時から通知を受信しなくなります。 Instagram は 18 歳未満のユーザーを対象としたターゲット広告を無効にし、YouTube は未成年者に対する自動有効化をオフにしています。
一方、フランスでは、暴力やポルノなどの不適切なコンテンツから未成年者を守るため、親が未成年者の活動を監視できる機能をすべてのソーシャルネットワークに設けることを義務付けている。インターネット上で名誉毀損や虚偽の情報を掲載した者は、懲役1年と最高約5万ドルの罰金を科せられる可能性がある。
オーストラリアはインターネット上で最も厳しい年齢制限を設けている国の一つです。この国では、16 歳未満のユーザーがソーシャル ネットワークに参加するには親の同意が必要であると規定されています。この法律に違反したソーシャルメディア企業には、年間収益の10%、または収益の3倍にあたる最高750万ドルの罰金が科せられる。オーストラリアのオンラインプライバシー法では、ソーシャルネットワークや匿名フォーラムは、ユーザーの年齢を確認するために必要なすべての措置を講じ、データ収集時に児童の利益を優先する必要がある。
アジアでは、中国が子供のインターネット利用の規制に最も積極的である。中国は今月初め、18歳未満の人が午後10時から午前10時まで携帯端末からインターネットにアクセスすることを禁止する新たな規制を発表した。そして翌日の午前6時。
同国ではスマートフォンの使用時間を管理するシステムも導入され、8歳未満の子供は1日約40分、16~17歳の若者は1日2時間までと定められている。これらの対策は、保護者が子供を制御できないときに子供が不適切または有害なコンテンツにアクセスするリスクを軽減するのに役立ちます。
世界で最も急成長しているインターネット市場を抱える地域に位置する東南アジア諸国も、サイバー空間における児童の保護対策を積極的に実施している。昨年末、シンガポール議会はオンライン安全強化法案を可決した。
したがって、ソーシャル ネットワークは、保護者や生徒から不適切なコンテンツに関する報告を受けてから「数時間以内」に行動する必要があります。一方、インドネシア教育文化研究技術省は、学生、教師、教育者の間で草の根レベルでソーシャルメディアの使用に関する意識を高めるためにツイッター社と協定を結んだ。
現代の発展において、子供たちのインターネットの使用を禁止することは不可能であり、有害でさえあります。子どもたちにとって安全なオンライン環境を作り、有害なコンテンツから身を守るのに役立つ有用な情報「フィルター」を子どもたちに装備させることが重要です。親は、インターネット上での子供の活動を指導し、同時に監視する必要があります。
しかし、インターネットからのリスクを完全に防止する抜本的な解決策を考案した国はまだありません。しかし、子供たちにとってより安全で便利なオンライン環境を提供するために、規制当局が継続的に規制と制裁を強化していることは、明るい兆候です。
[広告2]
ソース
コメント (0)