بازی لیزر تگ در ایران
گزارش لیزر تگ؛

نحوه برخورد کشورها با محتوای خشونت آمیز در فضای مجازی

نحوه برخورد کشورها با محتوای خشونت آمیز در فضای مجازی به گزارش لیزر تگ کشورهای مختلف از چند سال قبل وضع قوانینی برای مقابله با نفرت پراکنی و محتوای خشن در فضای مجازی را شروع کرده اند و کوشش می کنند شبکه های اجتماعی را مجبور به قبول مسئولیت در حذف و کنترل آن کنند.


به گزارش لیزر تگ به نقل از مهر، در کشور ما به دنبال حادثه قتل یک زن در اهواز به دست همسرش در ایام اخیر و همزمان انتشار تصاویر و ویدیوهای در ارتباط با آن در فضای مجازی، مجدداً مبحث قانونمند کردن محتوای آنلاین به میان آمده است. انتشار این تصاویر واکنش های مختلفی را در بر داشت و از طرفی به جریحه دار شدن احساسات عمومی منجر گردید. باآنکه به دنبال این رویداد برخی مسؤلان اظهار نظر کرده و انتشار این تصاویر و یا فیلمها در مجازی و رسانه ها را ممنوع دانستند اما آنچه در این حوزه واضح است این است که محتوای فضای مجازی و نحوه انتشار آن در کشور ما قانونمند نیست و چارچوب مشخصی ندارد. از طرفی آنچه خلاء آن بیشتر از پیش احساس می شود، نحوه مواجهه و مقابله ما با پلت فرم ها در این حوزه است چونکه آنها بخصوص پلت فرم های خارجی از قوانین داخلی کشور پیروی نمی نماید. این درحالی است که کشورهای مختلف در سرتاسر جهان از چند سال قبل با وضع قوانینی در مقابل محتوای نفرت پراکنی و خشونت آمیز فضای مجازی، کوشش می کنند کاربران شان را محافظت کنند. قوانین بازدارنده در این کشورها اجازه گسترش چنین محتوایی در فضای مجازی را نمی دهد و در صورت حذف نشدن آن جریمه ها و تنبیهاتی در انتظار شبکه های اجتماعی متخلف است. برخی کشورها شرکتهای فناوری را ملزم کرده اند خودشان در اینباره قوانینی وضع کنند و بر مبنای قوانین برخی دیگر، محتوای نفرت پراکنی و خشونت آمیز ظرف مدت زمانی محدود بعد از انتشار حذف شود. در غیر این صورت پلت فرم متخلف جریمه می شود. به هر روی آنچه در زیر می خوانید مجموعه ای از قوانینی است که کشورهای مختلف طی سالیان اخیر برای مقابله با نفرت پراکنی و محتوای خشونت آمیز در فضای مجازی وضع کرده اند.
شرکت های فناوری مسئول حذف محتوای خشن در آمریکا
در آمریکا پلت فرم های فناوری مسئول قانونمند کردن خودشان هستند. شبکه های اجتماعی مختلف مانند توئیتر، فیسبوک و اینستاگرام قوانینی در مورد محتوای خشونت آمیز دارند.
این پلت فرم های پرطرفدار سیاست های بازنگری محتوای مشابهی دارند به صورتی که هرگونه پست و محتوایی که خشونت را ترویج یا تشویق کند، ممنوع کرده اند. پست های حاوی نفرت پراکنی هم در آمریکا ممنوع شده است. پلت فرم های بزرگ همینطور برای محدود کردن چنین محتوایی اقداماتی نظیر راستی آزمایی محتوا را هم در دستور کار خود قرار داده اند.
به عنوان مثال محتوای خشونت آمیز، قلدری و تهدید در فیسبوک ممنوع می باشد. این شبکه اجتماعی گاهی اوقات در صورتیکه محتوای مذکور به نفع عموم مردم باشد، آنرا نگه می دارد و در غیر این صورت آنرا حذف می کند.
توئیتر هم سیاست مشابهی دارد. کاربران می توانند پروفایل ها، پست ها، تصاویر، ویدیوها، گروه هایی با محتوای خشونت آمیز را گزارش دهند. همینطور یوتیوب هم این نوع محتوا را ممنوع کرده است.
این نوع محتوا در واتس اپ هم ممنوع می باشد. انتشار محتوای غیرقانونی، نامناسب، افتراآمیز، تهدید کننده، ترسناک، آزار دهنده، نفرت پراکنی، تبعیض آمیز در این پلت فرم ممنوع می باشد.

نقطه عطف فرآیند خود قانونمندسازی پلت فرم های اجتماعی در آمریکا حمله حامیان دونالد ترامپ، رئیس جمهور پیشین آمریکا به کنگره در ۶ ژانویه ۲۰۲۱ بود. در نتیجه این رویداد، حساب کاربری دونالد ترامپ در فیسبوک، توئیتر، اینستاگرام، پینترست، یوتیوب و غیره مسدود شد. از طرفی توئیتر یک گروه خشن حامی نظریه های توطئه(QAnon) افراطی را هم مسدود کرد. همینطور پارلر یک اپلیکیشن شبکه اجتماعی که مدعی گسترش آزادی بیان بود هم از سرویسهای میزبان وب آمازون(AWS) حذف شد. این وبسایت در نهایت یک ماه بعد از این ماجرا آفلاین شد.
در همین راستا بحث و گمانه زنی هایی درباره بازنگری محتوای آنلاین در قانون آمریکا به وجود آمد.
تلاش انگلیس برای حذف محتوای نامناسب در پلت فرم های انتشار ویدئو و افزایش قدرت پلیس
این کشور هم اکنون مشغول بررسی و اصلاح قانون ایمنی آنلاین است تا موارد و جرائم بیشتری را در بر گیرد. با اصلاح این قانون پلت فرم هایی که محتوای غیرقانونی را به نمایش بگذارند با جریمه های کلان و یا مسدود شدن روبرو می شوند.
در این قانون آزارهای آنلاین، غیرقانونی محسوب می شوند. نمونه های آن عبارتند از سوءاستفاده از کودکان، استفاده از اینترنت برای مقاصد تروریستی، جرائم در ارتباط با نفرت و همینطور نفرت پراکنی، آزار قلدری سایبری و سوءاستفاده آنلاین. در این میان پلت فرم های آنلاین اپ ها و نرم افزارها و غیره باید محتوای خویش را مدیریت کنند. هم اکنون هرکسی که پلت فرم های آنلاین را مدیریت می کند برپایه قانون انگلیس موظف به حذف محتوای غیرقانونی آنلاین است.
برای این منظور، پلت فرم ها باید به شکل ایمن تری طراحی شوند. این بدان معنا است که خصوصیت های بنیادین ایمنی باید در طراحی وبسایت، اپ یا نرم افزار لحاظ شوند. همینطور کاربران باید محتوای غیرقانونی را به نیروی های مجری قانون و پلیس اطلاع دهند.
انگلیس در اکتبر ۲۰۲۱ میلادی قوانین جدیدی وضع کرد که در ارتباط با پلت فرم های اشتراک گذاری ویدئو بود. هدف از این قوانین، محافظت از کاربران و افراد زیر سن قانونی در مقابل نفرت پراکنی و ویدیوهای خشونت آمیز است البته این کشور در اکتبر ۲۰۲۱ میلادی قوانین جدیدی وضع کرد که هدف آن پلت فرم های اشتراک گذاری ویدئو بود. هدف این قانون محافظت از کاربران و افراد زیر سن قانونی در مقابل نفرت پراکنی و ویدیوهای خشونت آمیز ضد گروه هایی خاص است. در همین راستا آفکام (رگولاتور انگلیس در بخش رسانه ها)، دستورالعمل جدید برای پلت فرم هایی مانند تیک تاک، اسنپ چت، ویمو و توییچ اعلام نمود. این پلت فرم ها باید اقدامات مناسب جهت محافظت کاربران در مقابل محتوای مخرب را اتخاذ کنند. محتوای تروریستی، نژاد پرستی و غیره بخشی از این محتوای خشن به حساب می آیند.
اما قبل از آن و در سال ۲۰۱۹ میلادی ساجد جاوید وزیر کشور وقت انگلیس و رئیس کارگروه خشونت جدی انگلیس بودجه ۱.۳۸ میلیون پوندی برای این کارگروه تعیین کرد تا آخر ماه می همان سال اجرایی شود. تیم ۱۷ نفره شامل نیروی پلیس و افسرانی بود که وظیفه آنها حذف محتوای در ارتباط با گروههای جنایتکارانه در فضای آنلاین بود.
در این کارگروه مدیران ارشد گوگل و فیسبوک اقدامات خویش را برای مقابله با محتوای خشن همچون ویدیوهای مروج خشونت ارائه کردند.
کارگروه مشترک پلیس ملی انگلیس و شبکه های اجتماعی در پلیس متروپولیتن تاسیس شد. در این کارگروه تیم هایی مختص مقابله با محتوای آنلاین روی تحقیق، اختلال و اجرای قانون در مقابل گروههای مجرمانه فعالیت می نمایند.
همچنین این کارگروه محتوای خطرناک در شبکه های اجتماعی را مشخص می کند تا آنها را به صورت دائم حذف نمایند. این مرکز بخشی از استراتژی خشونت جدی دولت انگلیس برای دورکردن جوانان از جرائم و همینطور قدرتمندتر کردن واکنش پلیس بود.
مهلت ۲۴ ساعته آلمان برای حذف محتوای نامناسب
آلمان هم یکی از کشورهایی است که در این حوزه قوانینی وضع کرده است. قانون اجرایی شبکه یا NetzDG که به قانون فیسبوک هم معروف است برای مقابله با نفرت پراکنی و اخبار جعلی در شبکه های اجتماعی در این کشور وضع شده است.
این قانون شبکه های اجتماعی با بیشتر از ۲ میلیون کاربر را ملزم به حذف محتوای غیرقانونی واضح در ۲۴ ساعت و محتوای غیرقانونی ضمنی طی ۷ روز بعد از پست آن، می کند. شبکه اجتماعی خاطی با جریمه ای تا ۵۰ میلیون یورو روبرو می شود. محتوای حذف شده باید حداقل تا ۱۰ هفته بعد هم حذف شود و پلت فرم ها باید هر ۶ ماه یکبار گزارش های شفافیت درباره محتوای غیرقانونی را ارائه نمایند.
این قانون در سال ۲۰۱۷ میلادی تصویب گردید و از ۲۰۱۸ میلادی اجرایی شده است.
تلاش نافرجام فرانسه برای تصویب قانون مقابله با محتوای نامناسب
در این درحالی است که فرانسه هم در سال ۲۰۱۹ میلادی قانونی مشابه NetDG وضع کرد. این قانون با پشتیبانی امانوئل مکرون و حزب او پلت فرم های آنلاین را ملزم می کرد تا محتوای خشن و نفرت پراکنی که توسط کاربران مشخص شده را تا ۲۴ ساعت حذف نمایند. اگر پلت فرم این قانون را نقض می کرد، با جریمه ای ۱.۲۵ میلیون یورویی روبرو می شد.
اما در سال ۲۰۲۰ میلادی شورای قانون اساسی فرانسه، (دادگاهی که قوانین را بررسی می کند تا مطابق قانون اساسی کشور باشند) آنرا لغو نمود. به قول این دادگاه قانون مذکور سبب می شد پلت فرم ها برای اجتناب از جریمه و تنبیه شدن، هر گونه محتوای گزارش شده را بدون در نظر گرفتن آنکه نفرت پراکنی بشمار می رود یا خیر حذف نمایند.
رویداد کریستی چرچ سرآغاز تلاش نیوزلند و استرالیا برای مقابله با محتوای خشن
نیوزلند هم درباره حذف محتوای غیرقانونی قانون مشخصی دارد. بعد از حمله تروریستی کریستی چرچ در این کشور ساز و کاری برای مقابله صریح تر با محتوای خشونت آمیز و نفرت پراکنی در نظر گرفته شد. در این حلمه یک فرد افراط گرا با حمله به مسجدی حدود ۵۰ نفر را به قتل رساند و کل این فرآیند را به صورت زنده در فیسبوک پخش کرد.
مقابله با چالش افراطی گری چالشی پیچیده و دراز مدت است ازاین رو چند سازمان دولتی، آژانس مجری قانون، جوامع مدنی، کارشناسان نیوزلندی همه در این عرصه نقش دارند.
تیم ایمنی دیجیتال در وزارت امور داخلی مسئولیت ایمن نگه داشتن شهروندان این کشور از آزارهای آنلاین و همینطور اجتناب از گسترش محتوای مخربی را دارد که خشونت را ترویج می کند
تیم ایمنی دیجیتال در وزارت امور داخلی مسئولیت ایمن نگه داشتن شهروندان این کشور نسبت به آزارهای آنلاین و همینطور اجتناب از گسترش محتوای مخربی را دارد که خشونت را ترویج می کند.
از مسئولیت های این تیم شناسایی محیطی است که محتوای خشونت آمیز ایجاد و در فضای آنلاین به اشتراک می گذارد. همینطور این تیم وظیفه اجتناب، دور کردن و در صورت ضرورت تعقیب قانونی افرادی را برعهده دارد که محتوای مخرب را در فضای مجازی به اشتراک می گذارند.
دیگر اقدام این کشور تعهد دولت و شرکتهای فناوری برای حذف محتوای تروریستی و خشونت آمیز در فضای آنلاین است.
همچنین طبق قانونی در ۲۰۲۰ میلادی به پارلمان این کشور عرضه شده، پخش زنده هرگونه محتوای غیرقانونی مانند رویداد تروریستی کریستی چرچ یک جرم قانونی می باشد. دولت می تواند دستور حذف محتوای آنلاین را به پلت فرم اعلام نماید.
استرالیا هم یکی دیگر از کشورهایی است که قوانینی درزمینه محتوای خشونت آمیز و نفرت پراکنی در فضای آنلاین است. در این کشور پلت فرم ها ملزم به حذف محتوای منزجرکننده و خشن هستند و در غیر این صورت با جریمه های کلان روبرو می شوند. این قانون بعد از حمله تروریستی کریستی چرچ در نیوزلند که به مسلمانان حاضر در مسجدی حمله و قتل آنان به صورت زنده در فیسبوک پخش گردید، وضع شده است.
تلاش گسترده هند برای مقابله با محتوای خشونت آمیز و نفرت پراکنی
هند با ۵۰۰ میلیون کاربر آنلاین و تاریخچه ای از گسترش اخبار جعلی در شبکه های اجتماعی و پیام رسان ها که گاهی به خشونت منجر شده، یکی از کشورهایی است که بازنگری محتوا در آن اهمیت زیادی دارد. قانونمندسازی محتوا تحت قانونی به نام قانون فناوری اطلاعات(ITA) قرار دارد.
استفاده از اینترنت برای انتشار محتوای تروریستی تحت جرائم سایبری قانون فناوری اطلاعات قرار می گیرد.
با این قانون که در ۲۰۰۰ میلادی وضع و در ۲۰۰۵ میلادی اصلاح شده، چهارچوبی برای مقابله با تروریسم سایبری در هند به وجود آمده است. در سال ۲۰۱۵ میلادی دادگاه عالی هند رای داد شرکتهای فناوری باید به صورت فعال پلت فرم ها را برای وجود محتوای غیرقانونی رصد کنند.
هرچند قانون ITA به صورت واضح محتوای تروریستی را توضیح نمی دهد اما در سال ۲۰۱۵ میلادی مشخص شد استفاده از دستگاههای ارتباطی برای به اشتراک گذاری اطلاعاتی که به شدت اهانت آمیز است یا ماهیت تهدیدآمیزی دارد در کنار اخبار جعلی که نفرت و دشمنی به وجود می آورد، ممنوع می باشد. در همین راستا شرکتهای فناوری ملزم هستند در صورت دریافت دستور از دادگاه یا دولت، محتوای مذکور را حذف نمایند.
همچنین سازمان های دولتی و قضایی می توانند از پلت فرم های اینترنتی بخواهند محتوای غیرقانونی را حذف نمایند.

قانون عملکرد اینترنت در سنگاپور
سنگاپور یکی از هاب های اصلی فناوری در آسیا است و در واقع جایگزین آسیایی سیلیکون ولی بشمار می رود. خیلی از شرکتهای فناوری بزرگ. همچون فیسبوک، مایکروسافت، گوگل و یوتیوب مقری در سنگاپور دارند.
این کشور در اکتبر ۲۰۱۶ میلادی «قانون عملکرد اینترنت»(Internet Code of Practice) را تصویب کرد که مبنایی برای وظایف سرویسهای اینترنتی و تهیه کنندگان محتوا در سنگاپور فراهم می آورد. علاوه بر آن «چارچوب نظارتی اینترنت»(Internet Regulatory Framework) در این کشور وضع شده، که نمای کلی از رویکرد سنگاپور به مقررات آنلاین را نشان داده است و با «قانون عملکرد اینترنت» هم مرتبط می باشد. قانون «حفاظت در مقابل محتوای اشتباه و دستکاری آنلاین» (POFMA) هم در اکتبر ۲۰۱۹ در سنگاپور تصویب شده که در ارتباط با کنترل گسترش اخبار جعلی به وسیله دستورات اصلاح و حذف محتوا است. در همین راستا سازمان IMDA بر اجرای این قوانین در کشور نظارت دارد.
چارچوب قانونگذاری این کشور به صورت خاص محتوای تروریستی آنلاین را هدف می گیرد. البته در این خصوص، ممنوعیت محتوای آنلاینی که نفرت را ترویج می کند هم مبنایی برای حذف محتوا بشمار می رود.
تمام محتوای اینترنت و تهیه کنندگان سرویس در سنگاپور باید از قانون عملکرد اینترنت پیروی کنند. در صورت نقض قانون IMDA قدرت وضع تحریم همچون تصویب جریمه بر شرکتهای فناوری را دارد.

1400/11/20
21:05:48
0.0 / 5
607
تگهای خبر: آنلاین , اپل , اپلیكیشن , اطلاعات
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۵ بعلاوه ۴

لیزر تگ

لیزر و بازی

lazertag.ir - حقوق مادی و معنوی سایت لیزر تگ محفوظ است