الشبكات الاجتماعيةالمعرفة والتكنولوجيا

كيف تتعامل الدول مع المحتوى العنيف في الفضاء السيبراني – Mehr News Agency | إيران وأخبار العالم


وفقًا لمراسل مهر ، في بلدنا ، بعد مقتل امرأة في الأهواز على يد زوجها في الأيام الأخيرة ونشر الصور ومقاطع الفيديو ذات الصلة في نفس الوقت في الفضاء الإلكتروني ، أثيرت قضية تقنين المحتوى عبر الإنترنت مرة أخرى. أثار نشر هذه الصور ردود فعل مختلفة ، من جهة ، ومن جهة أخرى ، أضرّ بمشاعر الجمهور.

وعلى الرغم من تعليق بعض المسؤولين على الواقعة ومنعوا نشر هذه الصور أو الفيديوهات في الفضاء الإلكتروني ووسائل الإعلام ، إلا أن الواضح في هذا الصدد أن محتوى الفضاء السيبراني وكيفية نشره في بلادنا ليس قانونيًا وليس له صفة قانونية. إطار محدد.

من ناحية أخرى ، فإن ما يشعر به المزيد والمزيد من الفراغ هو الطريقة التي نتعامل بها مع المنصات في هذا المجال ، لأنها ، وخاصة المنصات الأجنبية ، لا تتبع القوانين المحلية للبلد.

منذ عدة سنوات ، تحاول البلدان في جميع أنحاء العالم حماية مستخدميها من خلال سن قوانين ضد المحتوى السيبراني البغيض والعنيف.

لا تسمح قوانين الحظر في هذه البلدان بنشر مثل هذا المحتوى في الفضاء السيبراني ، وإذا لم يتم القضاء عليه ، فإن الغرامات والعقوبات تنتظر الشبكات الاجتماعية.

طلبت بعض البلدان من شركات التكنولوجيا أن تصدر تشريعات خاصة بها ، وبموجب قوانين الآخرين ، يجب إزالة المحتوى الذي يحض على الكراهية والعنف في غضون فترة زمنية محدودة بعد النشر. خلاف ذلك ، سيتم تغريم المنصة المخالفة. ومع ذلك ، ما تقرأه أدناه هو مجموعة من القوانين التي سنتها بلدان مختلفة في السنوات الأخيرة لمكافحة خطاب الكراهية والمحتوى العنيف في الفضاء الإلكتروني.

شركات التكنولوجيا المسؤولة عن إزالة المحتوى العنيف في الولايات المتحدة

في الولايات المتحدة ، تعتبر المنصات التكنولوجية مسؤولة عن تنظيم نفسها. تمتلك العديد من الشبكات الاجتماعية مثل Twitter و Facebook و Instagram قواعد بشأن المحتوى العنيف.

هذه المنصات الشهيرة لها سياسات مراجعة محتوى مماثلة تحظر أي منشور أو محتوى يروج أو يشجع على العنف. المنشورات التي تحتوي على خطاب الكراهية محظورة أيضًا في الولايات المتحدة. تضمنت المنصات الكبيرة أيضًا تدابير مثل التحقق من المحتوى للحد من هذا المحتوى.

على سبيل المثال ، يُحظر المحتوى العنيف والبلطجة والتهديدات على Facebook. تحتفظ هذه الشبكة الاجتماعية أحيانًا بالمحتوى إذا كان في المصلحة العامة ، وإلا فإنها تزيله.

تويتر لديه سياسة مماثلة. يمكن للمستخدمين الإبلاغ عن الملفات الشخصية والمشاركات والصور ومقاطع الفيديو والمجموعات ذات المحتوى العنيف. كما حظر موقع YouTube هذا النوع من المحتوى.

هذا النوع من المحتوى محظور أيضًا في WhatsApp. يُحظر نشر محتوى غير قانوني أو غير ملائم أو تشهيري أو تهديد أو تخويف أو مضايقة أو بغيض أو تمييزي على هذه المنصة.

كانت نقطة التحول في عملية إضفاء الشرعية على المنصات الاجتماعية في الولايات المتحدة هي هجوم 6 يناير 2021 على الكونجرس من قبل أنصار الرئيس الأمريكي السابق دونالد ترامب. نتيجة لهذا الحدث ، تم حظر حساب دونالد ترامب على Facebook و Twitter و Instagram و Pinterest و YouTube وما إلى ذلك. كما حظر تويتر مجموعة عنيفة تدعو إلى نظريات مؤامرة متطرفة (قنون). Parler ، وهو تطبيق للشبكات الاجتماعية يدعي الترويج لحرية التعبير ، تمت إزالته أيضًا من Amazon Web Hosting Services (AWS). توقف الموقع أخيرًا بعد شهر من الحادث.

في هذا الصدد ، كانت هناك مناقشات وتكهنات حول مراجعة المحتوى عبر الإنترنت في قانون الولايات المتحدة.

جهود بريطانية لإزالة المحتوى غير اللائق على منصات نشر الفيديو وزيادة قوة الشرطة

تقوم الدولة حاليًا بمراجعة وتعديل قانون الأمان على الإنترنت لتغطية المزيد من القضايا والجرائم. من خلال تعديل هذا القانون ، ستواجه المنصات التي تعرض محتوى غير قانوني غرامات كبيرة أو معوقات.

بموجب هذا القانون ، يعتبر التحرش عبر الإنترنت غير قانوني. تشمل الأمثلة إساءة معاملة الأطفال واستخدام الإنترنت لأغراض إرهابية وجرائم الكراهية بالإضافة إلى خطاب الكراهية والتسلط عبر الإنترنت والإساءة عبر الإنترنت. في غضون ذلك ، يجب على الأنظمة الأساسية والتطبيقات والبرامج عبر الإنترنت وما إلى ذلك إدارة محتواها. يطلب القانون الإنجليزي الآن من أي شخص يدير المنصات عبر الإنترنت إزالة المحتوى غير القانوني عبر الإنترنت.

لهذا الغرض ، يجب تصميم المنصات لتكون أكثر أمانًا. هذا يعني أنه يجب مراعاة ميزات الأمان الأساسية عند تصميم موقع ويب أو تطبيق أو برنامج. يجب على المستخدمين أيضًا الإبلاغ عن المحتوى غير القانوني لتطبيق القانون والشرطة.

في أكتوبر 2021 ، سنت المملكة المتحدة قوانين جديدة تتعلق بمنصات مشاركة الفيديو. الغرض من هذه القوانين هو حماية المستخدمين والقصر من الكلام الذي يحض على الكراهية ومقاطع الفيديو العنيفة. ومع ذلك ، في أكتوبر 2021 ، سنت الدولة قوانين جديدة تهدف إلى منصات مشاركة الفيديو. يهدف القانون إلى حماية المستخدمين والقصر من خطاب الكراهية ومقاطع الفيديو العنيفة ضد مجموعات معينة. في هذا الصدد ، أعلنت Ofcom (منظم وسائل الإعلام البريطانية) عن إرشادات جديدة لمنصات مثل TickTalk و SnapChat و Vimo و Twitch. يجب أن تتخذ هذه المنصات التدابير المناسبة لحماية المستخدمين من المحتوى الضار. المحتوى الإرهابي والعنصرية وما إلى ذلك هي جزء من هذا المحتوى العنيف.

لكن قبل ذلك ، في عام 2019 ، وضع ساجد جافيد ، وزير الداخلية البريطاني حينها ورئيس مجموعة العمل البريطانية المعنية بالعنف الخطير ، ميزانية قدرها 1.38 مليون لمجموعة العمل ليتم تنفيذها بحلول نهاية مايو من ذلك العام. يتكون الفريق المكون من 17 عضوًا من الشرطة والضباط المكلفين بإزالة المحتوى المتعلق بالعصابات الإجرامية على الإنترنت.

في مجموعة العمل هذه ، عرض كبار المسؤولين التنفيذيين في Google و Facebook إجراءاتهم للتعامل مع المحتوى العنيف ، بما في ذلك مقاطع الفيديو التي تروج للعنف.

تم إنشاء مجموعة عمل مشتركة من الشرطة الوطنية البريطانية والشبكات الاجتماعية في شرطة العاصمة. في مجموعة العمل هذه ، تعمل الفرق المخصصة للتعامل مع المحتوى عبر الإنترنت على التحقيق وتعطيل وإنفاذ القانون ضد الجماعات الإجرامية.

تحدد فرقة العمل أيضًا المحتوى الخطير على وسائل التواصل الاجتماعي لإزالته نهائيًا. كان المركز جزءًا من استراتيجية الحكومة البريطانية للعنف الخطير لإبعاد الشباب عن الجريمة ، فضلاً عن تعزيز استجابة الشرطة.

ألمانيا لديها 24 ساعة لإزالة المحتوى غير اللائق

ألمانيا هي أيضًا واحدة من الدول التي سنت قوانين في هذا المجال. تم سن قانون NetzDG ، المعروف أيضًا باسم Facebook ، لمكافحة خطاب الكراهية والأخبار المزيفة على وسائل التواصل الاجتماعي.

يطالب القانون الشبكات الاجتماعية التي تضم أكثر من 2 مليون مستخدم بإزالة المحتوى غير القانوني الصريح في غضون 24 ساعة والمحتوى غير القانوني الضمني في غضون 7 أيام من النشر. تواجه الشبكة الاجتماعية المخالفة غرامة تصل إلى 50 مليون يورو. يجب إزالة المحتوى المحذوف بعد 10 أسابيع على الأقل ، ويجب على المنصات تقديم تقارير الشفافية حول المحتوى غير القانوني كل ستة أشهر.

تمت الموافقة على هذا القانون في عام 2017 ، ودخل حيز التنفيذ منذ عام 2018.

محاولة فرنسا الفاشلة لتمرير قانون ضد المحتوى غير اللائق

في غضون ذلك ، أصدرت فرنسا قانونًا مشابهًا لـ NetDG في عام 2019. وطالب القانون ، المدعوم من قبل إيمانويل ماكرون وحزبه ، المنصات عبر الإنترنت بإزالة المحتوى العنيف والكراهية الذي حدده المستخدمون في غضون 24 ساعة. إذا انتهكت المنصة القانون ، فستواجه غرامة قدرها 1.25 مليون يورو.

لكن في عام 2020 ، ألغى المجلس الدستوري الفرنسي (محكمة تراجع القوانين لجعلها دستورية). وفقًا للمحكمة ، سمح القانون للمنصات بإزالة أي محتوى تم الإبلاغ عنه ، بغض النظر عما إذا كان خطاب كراهية أم لا ، من أجل تجنب الغرامات والعقوبات.

يمثل حدث كريستي تشيرش بداية جهود نيوزيلندا وأستراليا لمعالجة المحتوى العنيف

نيوزيلندا لديها أيضًا قانون محدد بشأن إزالة المحتوى غير القانوني. في أعقاب هجوم كريستي تشيرش الإرهابي في البلاد ، تم وضع آلية للتعامل بشكل أكثر صراحة مع المحتوى العنيف وخطاب الكراهية. في الحلبة هاجم متطرف مسجدًا وقتل نحو 50 شخصًا ، ونشر العملية برمتها على الهواء مباشرة على فيسبوك.

يُعد التصدي لتحدي التطرف تحديًا معقدًا وطويل الأمد ، لذلك تشارك العديد من الوكالات الحكومية ووكالات إنفاذ القانون والمجتمع المدني وخبراء نيوزيلندا.

يتحمل فريق الأمن الرقمي في وزارة الداخلية مسؤولية الحفاظ على مواطنيها في مأمن من المضايقات عبر الإنترنت ، وكذلك منع انتشار المحتوى الضار الذي يحرض على العنف.

يتحمل فريق الأمن الرقمي التابع لوزارة الأمن الداخلي مسؤولية الحفاظ على مواطنيها في مأمن من المضايقات عبر الإنترنت ، وكذلك منع انتشار المحتوى الضار الذي يحرض على العنف.

تتمثل إحدى مسؤوليات هذا الفريق في تحديد البيئة التي تخلق محتوى عنيفًا ومشاركته عبر الإنترنت. كما أن للفريق مهمة تجنب ومقاضاة أولئك الذين يشاركون المحتوى الضار في الفضاء الإلكتروني ومقاضاتهم إذا لزم الأمر.

إجراء آخر من قبل الدولة هو التزام الحكومة وشركات التكنولوجيا بإزالة المحتوى الإرهابي والعنيف على الإنترنت.

أيضًا ، وفقًا لقانون تم تقديمه إلى البرلمان في عام 2020 ، يعد البث المباشر لأي محتوى غير قانوني مثل حادثة كريستي تشيرش الإرهابية جريمة قانونية. يمكن للحكومة أن تأمر بإزالة المحتوى عبر الإنترنت من المنصة.

أستراليا دولة أخرى لديها قوانين بشأن المحتوى العنيف وخطاب الكراهية على الإنترنت. في هذا البلد ، يُطلب من المنصات إزالة المحتوى العنيف والمثير للاشمئزاز ، وإلا فإنها ستواجه غرامات كبيرة. جاء القانون بعد هجوم كريستي تشيرش الإرهابي في نيوزيلندا ، والذي هاجم وقتل مسلمين متواجدين في مسجد وتم نشره على الهواء مباشرة على فيسبوك.

جهود الهند الواسعة لمكافحة المحتوى العنيف والكراهية

مع وجود 500 مليون مستخدم عبر الإنترنت وتاريخ من نشر الأخبار المزيفة على الشبكات الاجتماعية والمراسلين التي تؤدي أحيانًا إلى العنف ، تعد الهند واحدة من البلدان التي تعتبر فيها مراجعة المحتوى مهمة للغاية. يخضع تنظيم المحتوى لقانون يسمى قانون تقنية المعلومات (ITA).

يخضع استخدام الإنترنت لنشر محتوى إرهابي للجرائم الإلكترونية بموجب قانون تقنية المعلومات.

مع القانون الذي في 2000 تحياتي وفي 2005 أدى الإعلان المنقح إلى إنشاء إطار عمل لمكافحة الإرهاب السيبراني في الهند. في عام 2015 ، قضت المحكمة العليا في الهند بأنه يجب على شركات التكنولوجيا مراقبة المنصات بنشاط بحثًا عن المحتوى غير القانوني.

على الرغم من أن هيئة تكنولوجيا المعلومات لا تذكر صراحة محتوى الإرهاب ، إلا أنه في عام 2015 أصبح من الواضح أن استخدام أجهزة الاتصال لمشاركة المعلومات التي تعتبر شديدة العدوانية أو التهديد بطبيعتها ، إلى جانب الأخبار المزيفة التي تخلق الكراهية والعداوة ، محظورة. في هذا الصدد ، يتعين على شركات التكنولوجيا إزالة المحتوى إذا تلقت أمرًا من المحكمة أو الحكومة.

يمكن أيضًا للمنظمات الحكومية والقضائية أن تطلب من منصات الإنترنت إزالة المحتوى غير القانوني.

كيف تتعامل الدول مع المحتوى العنيف في الفضاء السيبراني

قانون تشغيل الإنترنت في سنغافورة

سنغافورة هي واحدة من مراكز التكنولوجيا الرئيسية في آسيا وهي في الواقع البديل الآسيوي لوادي السيليكون. العديد من شركات التكنولوجيا الكبيرة. يوجد مقرات Facebook و Microsoft و Google و YouTube في سنغافورة.

الدولة في أكتوبر 2016 أقرت AD مدونة ممارسات الإنترنت ، التي توفر الأساس لعمل خدمات الإنترنت وموفري المحتوى في سنغافورة. بالإضافة إلى ذلك ، هناك إطار تنظيمي للإنترنت ، والذي يحدد نهج سنغافورة للتنظيم عبر الإنترنت وهو وثيق الصلة بقانون أداء الإنترنت. كما تم سن قانون “حماية المحتوى والتلاعب عبر الإنترنت” (POFMA) في أكتوبر 2019 تمت الموافقة في سنغافورة للتحكم في انتشار الأخبار المزيفة عن طريق أوامر تصحيح المحتوى. في هذا الصدد ، تراقب IMDA تنفيذ هذه القوانين في الدولة.

يستهدف الإطار التشريعي للدولة على وجه التحديد المحتوى الإرهابي على الإنترنت. بالطبع ، في هذا الصدد ، فإن حظر المحتوى عبر الإنترنت الذي يحض على الكراهية هو أيضًا أساس لإزالة المحتوى.

يجب أن يلتزم جميع مزودي خدمات ومحتوى الإنترنت في سنغافورة بمدونة قواعد السلوك الخاصة بالإنترنت. في حالة انتهاك قانون IMDA ، لها سلطة فرض عقوبات ، بما في ذلك فرض غرامات على شركات التكنولوجيا.

Leave a Reply

زر الذهاب إلى الأعلى