چطور الگوریتم‌ها فضای سوشال مدیا را برای کودکان امن‌تر می‌کند؟

زندگی نوجوانان در حال حاضر تفاوت‌های زیادی با گذشته پیدا کرده است زیرا یک کلیک می‌تواند مسیر فکری و ذهنی آن‌ها را تغییر دهد. حالا الگوریتم‌های شبکه‌های اجتماعی تصمیم می‌گیرند که چه محتوایی را به کاربران خود نشان دهند و این بیشترین تاثیر را روی دیدگاه کاربران کمتر از ۱۸ سال دارد. پس چطور می‌توان از کودکان محافظت کرد؟ چه سیستم‌های محدودکننده‌ای باید اعمال شوند تا محتواهای نامناسب به کودکان و نوجوانان نشان داده نشود؟‌ در این مقاله از به سراغ بررسی تغییرات الگوریتم‌های اینستاگرام برای محافظت بیشتر از کودکان می‌رویم.

چرا الگوریتم‌ها برای کاربران زیر ۱۸ سال خطرناک هستند؟

در قلب هر شبکه اجتماعی از جمله اینستاگرام، یک مکانیزم قدرتمند به نام «الگوریتم» نهفته است. الگوریتم، ساختاری بسیار پیچیده است که بر مبنای آن مشخص می‌شود چه محتواهایی در فید کاربر نشان داده شوند. این الگوریتم‌ها در پشت صحنه اینستاگرام، یوتیوب، تیک تاک و فیسبوک فعالیت می‌کنند و محتوا را بر اساس رفتار و الگوهای کاربر تنظیم می‌کنند.

به این دلیل که الگوریتم‌ها مشخص‌کننده محتوای مشاهده‌شده هستند، توجه به آن‌ها برای والدین و سرپرست کودکان و افراد زیر 18 سال ضروری است. پس اگر والد هستید یا سرپرستی و مراقبت از کودکی برعهده شما قرار دارد، باید نسبت به الگوریتم‌ها و تغییرات آن بسیار حساس باشید. از طرفی نباید فراموش کنیم که کنجکاوی کودکان باعث می‌شود تا بیشتر به دنبال محتواهای نامناسب سن خود باشند.

الگوریتم‌ها چطور تصمیم می‌گیرند چه محتوایی را به ما نشان دهند؟

الگوریتم‌ها طوری طراحی شده‌اند که کاربران خود را درگیر نگه دارند. پس وقتی فرزند شما با لایک کردن، مشاهده یا ذخیره محتوا با آن تعامل برقرار می‌کند، الگوریتم به این موضوع توجه بیشتری نشان می‌دهد. هرچه تعامل با یک مدل محتوا بیشتر باشد، محتواهای مشابه آن بیشتر ارائه می‌شود.

به عنوان مثال اگر کودک شما علاقه‌مند به بازی‌های ویدیویی بوده و مدام در حال تماشای این محتواها باشند، ویدیوهای بیشتری از این دست به نمایش گذاشته می‌شوند. پس باید نسبت به پیامی که به الگوریتم داده می‌شود، توجه کنید زیرا تاثیر روی افراد می‌گذارد.

هر پلتفرم، الگوریتم خاص خود را دارد که کاملا محرمانه است اما هدف همه آن‌ها یکسان است؛ زمان حضور کاربر در پلتفرم را افزایش می‌دهد.

خط قرمز اینستاگرام کجاست؟ محدودیت‌های محتوا برای کودکان

خبرگزاری رویترز در 14 اکتبر 2025 اعلام کرد که متا یک سیستم رتبه‌بندی محتوای PG-13 را برای کاربران زیر 18 سال خود اعمال خواهد کرد. همچنین بخش جدیدی را برای رسیدگی به انتقادات مبنی بر عدم محافظت کافی از کودکان در فضای آنلاین باز کرده است.

این سیستم روی محتواهای بارگذاری شده روی اینستاگرام نظارت کرده و پست‌هایی که دارای جملات زشت، شوخی‌های خطرناک، ارجاع به مواد مخدر یا هر مفهوم بزرگسالانه‌ هستند را محدود می‌کند. برای پیگیری این سیستم، ابزارهای هوش مصنوعی مولد متا نیز وارد عمل خواهند شد.

این تصمیمات بعد از انتقادات گروه‌های حقوقی شکل گرفت که معتقد بودند در سال‌های اخیر اینستاگرام سیستم ایمنی خاصی نداشته است. تحت این فشارها، متا مجبور به پیاده‌سازی سیستم «محدودیت محتوا» روی حساب‌های کاربری نوجوانان شد.

نگران حذف شدن پست‌های اینستاگرام خود هستید؟ در این مطلب راه نجات از مشکل حذف پست اینستاگرام را گفته‌ایم.

چالش‌های پنهان در سیستم محدود کردن محتوا

با اینکه اعمال یک سیستم محدودیت محتوا در نگاه اول جذاب‌ و کاربردی به نظر می‌رسد اما در واقعیت نمی‌تواند عملکرد خوبی داشته باشد. احتمالا این سوال در ذهن شما شکل گرفته که چطور چنین سیستم‌هایی نمی‌توانند عملکرد خوبی داشته باشند؟

اینستاگرام مانند بسیاری از پلتفرم‌های دیگر مانند یوتیوب، بخش زیادی از درآمد خود را از مخاطبان کسب می‌کند. پس هرگونه اقدامی در راستای کاهش تعامل کاربر با نرم‌افزار، منافع مالی شرکت را به خطر می‌اندازد. بنابراین عده‌ای معتقد هستند که چنین محدودیت‌هایی در عمل هرگز اجرا نمی‌شوند. به علاوه این اقدامات ضعف‌های دیگری هم دارد:

  • عدم توانایی در تشخیص سن: الگوریتم‌ها با هر میزان دقت باز هم نمی‌توانند سن کاربر را به درستی تشخیص دهند. به این دلیل که ممکن است یک فرد کمتر از 18 سال با حساب کاربری فرد دیگری وارد شبکه‌های اجتماعی شود.
  • عدم شفافیت در الگوریتم‌ها: یک مشکل دیگری که این سیستم دارد این است که الگوریتم‌ها شفاف نیستند. بنابراین کاربر نمی‌داند چرا یک محتوا پیشنهاد داده شده یا محتواهای دیگری را مشاهده نمی‌کند.
  • یکپارچه نبودن قوانین: در هر کشور و ایالت، قوانین متفاوتی وجود دارد که اولویت بالاتری دارند. پس کاربران در هر نقطه از دنیا با قوانین متفاوتی به اینستاگرام یا دیگر شبکه‌های اجتماعی دسترسی پیدا می‌کنند.
  • در تضاد با قوانین آزادی بیان: از طرف دیگر محدود کردن دسترسی کودکان به محتواها به معنای سانسور بوده و این با قوانین آزادی بیان در تضاد است.

بنابراین با اینکه اعمال چنین قوانینی ضروری به نظر می‌رسد اما انتقاد‌های جدی به آن وارد است. بنابراین باید منتظر ماند و دید آیا متا طبق گفته‌های خود این محدودیت‌ها را اعمال کرده یا به دلیل شدت مخالفت‌ها و به خطر افتادن منفعت‌های شرکت چنین مواردی را متوقف می‌کند.

مسئولیت مشترک؛ نقش پلتفرم‌ها، نهادهای سیاست‌گذاری و والدین

با توجه به اینکه ممکن است این قوانین به درستی اجرا نشده یا به طور کلی متوقف شوند، چه راهکارهایی برای این مشکل وجود دارد؟‌ چطور می‌توان از دسترسی کودکان به محتواهای بزرگسالانه و خشونت‌آمیز جلوگیری کرد؟

اولین سد دفاعی؛ پلتفرم‌ها

مطمئنا بهترین و موثرترین سیستمی که جلوی این مشکلات را می‌گیرد، خود پلتفرم‌ است. پلتفرم‌ها اگر به جای الگوریتم‌های سودمحور، به سراغ الگوریتم‌های انسان محور بروند؛ تجربه کاربران کم سن و سال امن‌تر و بهتر خواهد شد. به عنوان مثال یکی از گزینه‌های زیر می‌تواند کارکرد خوبی داشته باشد:

  • ارائه فضای امن محتوایی: به جای حذف کامل محتواهای بزرگسالانه، پلتفرم‌ها می‌توانند گزینه‌هایی به نام «فید کاربر نوجوان»‌ یا «فید امن» ارائه دهند که در آن‌ها فقط محتواهای تولیدشده برای بازه سنی کمتر از 18 سال باشد.
  • استفاده از مدل‌های شناختی: با گسترش هوش مصنوعی، می‌توان از این ابزارهای مولد برای تشخیص الگوهای رفتاری کودکان استفاده کرد. بنابراین اگر کودکی الگوهای رفتاری خطرناک مانند افسردگی یا آسیب زدن به خود را داشت، محتوا محدود شود.
  • شفاف‌ کردن دلایل محدودیت محتوا: پلتفرم‌ها برای این‌که آزادی بیان را هم نقض نکرده باشند، باید دلایل خود را از نمایش دادن دسته‌بندی‌های مختلف محتوا به کاربر اعلام کنند. به عنوان مثال ویدیوهای غذا و خوراکی به این دلیل نمایش داده می‌شود که شما به این حوزه علاقه دارید.

نهادهای سیاست‌گذاری؛ موثر و قانونی

از آن‌جایی که در بسیاری از کشورها نهادهای بین‌المللی چارچوب‌های مشخصی دارند و مستقل از رسانه‌ها عمل می‌کنند؛ پس می‌توانند با وضع قوانین یا تغییر در آن بخشی از این مشکل را برطرف کنند.

به عنوان مثال وضع قوانینی که شرکت‌های بزرگ از جمله متا را مجبور به افشای الگوریتم‌های خود کند، یکی از راهکارها است. البته این الزام به ارائه شفاف الگوریتم‌ها در اتحادیه اروپا اجرا شد اما لازم است به عنوان یک «باید» در همه کشورها رعایت شود.  

یک تاثیر مفید دیگری که نهادهای سیاست‌گذاری می‌توانند داشته باشند، حمایت از آموزش سواد دیجیتال درست مانند آموزش عمومی است. به این صورت که به والدین و نوجوانان در فضاهای مدرسه در مورد کارکرد الگوریتم‌ها و خطرات آن‌ها اطلاعات کافی ارائه دهند.

حلقه انسانی؛ والدین مسئول و هوشیار

دو دختر دراز کشیده روی تخت و در حال زل زدن به گوشی‌های موبایل خود

والدین یا سرپرست کودکان آخرین و حتی می‌توان گفت مهم‌ترین حلقه این زنجیر هستند. بهترین الگوریتم‌ها نیز نمی‌توانند جای یک رابطه و گفتگوی آگاهانه بین والدین و فرزندان را بگیرند. پس به والدین توصیه می‌شود تا درباره خطرات فضای آنلاین و الزامات آن با کودکان صحبت کنند.

البته منظور از صحبت کردن، برقراری یک ارتباط موثر و آگاهانه بوده تا نوجوانان و کودکان متوجه شوند که چرا از تماشای بعضی از محتواها باید اجتناب کنند. به عنوان مثال به جای پرسیدن سوال «چرا این محتوا را تماشا کردی؟» از کودکان پرسیده شود که نظرشان درباره آن‌ها چیست. این کار فضای گفتگوی موثر و تعاملی را فراهم می‌کند.

در اینجا بخوانید: 7 کار خطرناکی که آنلاین شاپ شما را تعطیل می‌کند!

کلام پایانی

در این مقاله درباره تغییرات الگوریتم اینستاگرام برای محافظت بیشتر از کاربران کمتر از 18 سال صحبت کردیم. برای محافظت از کودکان در برابر محتواهای خشونت آمیز و بزرگسالانه باید از چند جنبه مختلف محافظت انجام شود. اولین جنبه خود پلتفرم‌ها هستند که باید الگوریتم‌ها را شفاف بیان کنند. بعد از آن نهادهای سیاست‌گذاری و والدین نقش بسیار مهمی در حفاظت از روان و جسم کودکان دارند. شما هم می‌توانید در سطح فردی این آگاهی‌رسانی به کودکان و نوجوانان اطراف خود را انجام دهید. به نظر شما چه کارهای بیشتری می‌توان انجام داد تا این شرایط بهبود پیدا کند؟

سایت ساز میکسین
ساخت یک وب‌سایت حرفه‌ای تنها با چند کلیک ساده، میکسین کنار شماست!
افتتاح فروشگاه آنلاین

پرسش های متداول در مورد تغییرات الگوریتم اینستاگرام

آیا محافظت بیش از حد از کودکان در فضای سوشال مدیا نتیجه معکوس دارد؟

اگر محدودیت‌ها بیش از اندازه اعمال شوند، نوجوانان و کودکان به دنبال راه‌های فرار می‌گردند و دسترسی نامحدود و بدون نظارتی به انواع محتوا خواهند داشت.

آیا آینده الگوریتم‌ها به سمت استفاده هوش هیجانی برای محافظت از نوجوانان می‌رود؟

به احتمال بسیار زیاد در آینده محققان سیستم‌ها را طوری طراحی و بهینه کنند که الگوهای احساسی را بهتر تشخیص دهند. به عنوان مثال اضطراب و فشار روانی را تعیین کرده و اعلام هشدار دهند.

اگر الگوریتم‌ها نتوانند احساسات را درک کنند، چطور از نوجوانان محافظت می‌کنند؟

الگوریتم‌های اینستاگرام احساسات را «درک» نمی‌کنند، اما می‌توانند الگوهای رفتاری خطرناک را تشخیص دهند؛ مثل محتوای خشونت‌آمیز، آزار یا جست‌وجوهای حساس. این سیستم‌ها با ترکیبی از فیلترهای خودکار، محدود کردن محتوا و دخالت انسان (بازبین‌ها) از کاربران نوجوان محافظت می‌کنند.

🔗 منابع: reuters | captaincompliance | theburlingameb | gov.uk | cybersmarties | kidslox

به اشتراک بگذارید
سپیده طلوعی
سپیده طلوعی

فارغ التحصیل مهندسی شیمی هستم اما علاقه‌ام را بین کلمات و خطوط پیدا کردم. نوشتن، یکی از سرگرمی‌های محبوبم از دوران کودکی بوده که در بزرگسالی تبدیل به شغل و حرفه‌ام شد. نوشتن از هرچیزی، باعث قدرتمند شدن تفکر نقاد و نگاه تحلیلی به مسائل می‌شود. نوشتن نه تنها راهی برای آرامش ذهن که مسیری برای توسعه خلاقیت و یادگیری است.

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *