زندگی نوجوانان در حال حاضر تفاوتهای زیادی با گذشته پیدا کرده است زیرا یک کلیک میتواند مسیر فکری و ذهنی آنها را تغییر دهد. حالا الگوریتمهای شبکههای اجتماعی تصمیم میگیرند که چه محتوایی را به کاربران خود نشان دهند و این بیشترین تاثیر را روی دیدگاه کاربران کمتر از ۱۸ سال دارد. پس چطور میتوان از کودکان محافظت کرد؟ چه سیستمهای محدودکنندهای باید اعمال شوند تا محتواهای نامناسب به کودکان و نوجوانان نشان داده نشود؟ در این مقاله از به سراغ بررسی تغییرات الگوریتمهای اینستاگرام برای محافظت بیشتر از کودکان میرویم.
چرا الگوریتمها برای کاربران زیر ۱۸ سال خطرناک هستند؟
در قلب هر شبکه اجتماعی از جمله اینستاگرام، یک مکانیزم قدرتمند به نام «الگوریتم» نهفته است. الگوریتم، ساختاری بسیار پیچیده است که بر مبنای آن مشخص میشود چه محتواهایی در فید کاربر نشان داده شوند. این الگوریتمها در پشت صحنه اینستاگرام، یوتیوب، تیک تاک و فیسبوک فعالیت میکنند و محتوا را بر اساس رفتار و الگوهای کاربر تنظیم میکنند.
به این دلیل که الگوریتمها مشخصکننده محتوای مشاهدهشده هستند، توجه به آنها برای والدین و سرپرست کودکان و افراد زیر 18 سال ضروری است. پس اگر والد هستید یا سرپرستی و مراقبت از کودکی برعهده شما قرار دارد، باید نسبت به الگوریتمها و تغییرات آن بسیار حساس باشید. از طرفی نباید فراموش کنیم که کنجکاوی کودکان باعث میشود تا بیشتر به دنبال محتواهای نامناسب سن خود باشند.
الگوریتمها چطور تصمیم میگیرند چه محتوایی را به ما نشان دهند؟
الگوریتمها طوری طراحی شدهاند که کاربران خود را درگیر نگه دارند. پس وقتی فرزند شما با لایک کردن، مشاهده یا ذخیره محتوا با آن تعامل برقرار میکند، الگوریتم به این موضوع توجه بیشتری نشان میدهد. هرچه تعامل با یک مدل محتوا بیشتر باشد، محتواهای مشابه آن بیشتر ارائه میشود.
به عنوان مثال اگر کودک شما علاقهمند به بازیهای ویدیویی بوده و مدام در حال تماشای این محتواها باشند، ویدیوهای بیشتری از این دست به نمایش گذاشته میشوند. پس باید نسبت به پیامی که به الگوریتم داده میشود، توجه کنید زیرا تاثیر روی افراد میگذارد.
هر پلتفرم، الگوریتم خاص خود را دارد که کاملا محرمانه است اما هدف همه آنها یکسان است؛ زمان حضور کاربر در پلتفرم را افزایش میدهد.
خط قرمز اینستاگرام کجاست؟ محدودیتهای محتوا برای کودکان
خبرگزاری رویترز در 14 اکتبر 2025 اعلام کرد که متا یک سیستم رتبهبندی محتوای PG-13 را برای کاربران زیر 18 سال خود اعمال خواهد کرد. همچنین بخش جدیدی را برای رسیدگی به انتقادات مبنی بر عدم محافظت کافی از کودکان در فضای آنلاین باز کرده است.
این سیستم روی محتواهای بارگذاری شده روی اینستاگرام نظارت کرده و پستهایی که دارای جملات زشت، شوخیهای خطرناک، ارجاع به مواد مخدر یا هر مفهوم بزرگسالانه هستند را محدود میکند. برای پیگیری این سیستم، ابزارهای هوش مصنوعی مولد متا نیز وارد عمل خواهند شد.
این تصمیمات بعد از انتقادات گروههای حقوقی شکل گرفت که معتقد بودند در سالهای اخیر اینستاگرام سیستم ایمنی خاصی نداشته است. تحت این فشارها، متا مجبور به پیادهسازی سیستم «محدودیت محتوا» روی حسابهای کاربری نوجوانان شد.
نگران حذف شدن پستهای اینستاگرام خود هستید؟ در این مطلب راه نجات از مشکل حذف پست اینستاگرام را گفتهایم.
چالشهای پنهان در سیستم محدود کردن محتوا
با اینکه اعمال یک سیستم محدودیت محتوا در نگاه اول جذاب و کاربردی به نظر میرسد اما در واقعیت نمیتواند عملکرد خوبی داشته باشد. احتمالا این سوال در ذهن شما شکل گرفته که چطور چنین سیستمهایی نمیتوانند عملکرد خوبی داشته باشند؟
اینستاگرام مانند بسیاری از پلتفرمهای دیگر مانند یوتیوب، بخش زیادی از درآمد خود را از مخاطبان کسب میکند. پس هرگونه اقدامی در راستای کاهش تعامل کاربر با نرمافزار، منافع مالی شرکت را به خطر میاندازد. بنابراین عدهای معتقد هستند که چنین محدودیتهایی در عمل هرگز اجرا نمیشوند. به علاوه این اقدامات ضعفهای دیگری هم دارد:
- عدم توانایی در تشخیص سن: الگوریتمها با هر میزان دقت باز هم نمیتوانند سن کاربر را به درستی تشخیص دهند. به این دلیل که ممکن است یک فرد کمتر از 18 سال با حساب کاربری فرد دیگری وارد شبکههای اجتماعی شود.
- عدم شفافیت در الگوریتمها: یک مشکل دیگری که این سیستم دارد این است که الگوریتمها شفاف نیستند. بنابراین کاربر نمیداند چرا یک محتوا پیشنهاد داده شده یا محتواهای دیگری را مشاهده نمیکند.
- یکپارچه نبودن قوانین: در هر کشور و ایالت، قوانین متفاوتی وجود دارد که اولویت بالاتری دارند. پس کاربران در هر نقطه از دنیا با قوانین متفاوتی به اینستاگرام یا دیگر شبکههای اجتماعی دسترسی پیدا میکنند.
- در تضاد با قوانین آزادی بیان: از طرف دیگر محدود کردن دسترسی کودکان به محتواها به معنای سانسور بوده و این با قوانین آزادی بیان در تضاد است.
بنابراین با اینکه اعمال چنین قوانینی ضروری به نظر میرسد اما انتقادهای جدی به آن وارد است. بنابراین باید منتظر ماند و دید آیا متا طبق گفتههای خود این محدودیتها را اعمال کرده یا به دلیل شدت مخالفتها و به خطر افتادن منفعتهای شرکت چنین مواردی را متوقف میکند.
مسئولیت مشترک؛ نقش پلتفرمها، نهادهای سیاستگذاری و والدین
با توجه به اینکه ممکن است این قوانین به درستی اجرا نشده یا به طور کلی متوقف شوند، چه راهکارهایی برای این مشکل وجود دارد؟ چطور میتوان از دسترسی کودکان به محتواهای بزرگسالانه و خشونتآمیز جلوگیری کرد؟
اولین سد دفاعی؛ پلتفرمها
مطمئنا بهترین و موثرترین سیستمی که جلوی این مشکلات را میگیرد، خود پلتفرم است. پلتفرمها اگر به جای الگوریتمهای سودمحور، به سراغ الگوریتمهای انسان محور بروند؛ تجربه کاربران کم سن و سال امنتر و بهتر خواهد شد. به عنوان مثال یکی از گزینههای زیر میتواند کارکرد خوبی داشته باشد:
- ارائه فضای امن محتوایی: به جای حذف کامل محتواهای بزرگسالانه، پلتفرمها میتوانند گزینههایی به نام «فید کاربر نوجوان» یا «فید امن» ارائه دهند که در آنها فقط محتواهای تولیدشده برای بازه سنی کمتر از 18 سال باشد.
- استفاده از مدلهای شناختی: با گسترش هوش مصنوعی، میتوان از این ابزارهای مولد برای تشخیص الگوهای رفتاری کودکان استفاده کرد. بنابراین اگر کودکی الگوهای رفتاری خطرناک مانند افسردگی یا آسیب زدن به خود را داشت، محتوا محدود شود.
- شفاف کردن دلایل محدودیت محتوا: پلتفرمها برای اینکه آزادی بیان را هم نقض نکرده باشند، باید دلایل خود را از نمایش دادن دستهبندیهای مختلف محتوا به کاربر اعلام کنند. به عنوان مثال ویدیوهای غذا و خوراکی به این دلیل نمایش داده میشود که شما به این حوزه علاقه دارید.
نهادهای سیاستگذاری؛ موثر و قانونی
از آنجایی که در بسیاری از کشورها نهادهای بینالمللی چارچوبهای مشخصی دارند و مستقل از رسانهها عمل میکنند؛ پس میتوانند با وضع قوانین یا تغییر در آن بخشی از این مشکل را برطرف کنند.
به عنوان مثال وضع قوانینی که شرکتهای بزرگ از جمله متا را مجبور به افشای الگوریتمهای خود کند، یکی از راهکارها است. البته این الزام به ارائه شفاف الگوریتمها در اتحادیه اروپا اجرا شد اما لازم است به عنوان یک «باید» در همه کشورها رعایت شود.
یک تاثیر مفید دیگری که نهادهای سیاستگذاری میتوانند داشته باشند، حمایت از آموزش سواد دیجیتال درست مانند آموزش عمومی است. به این صورت که به والدین و نوجوانان در فضاهای مدرسه در مورد کارکرد الگوریتمها و خطرات آنها اطلاعات کافی ارائه دهند.
حلقه انسانی؛ والدین مسئول و هوشیار

والدین یا سرپرست کودکان آخرین و حتی میتوان گفت مهمترین حلقه این زنجیر هستند. بهترین الگوریتمها نیز نمیتوانند جای یک رابطه و گفتگوی آگاهانه بین والدین و فرزندان را بگیرند. پس به والدین توصیه میشود تا درباره خطرات فضای آنلاین و الزامات آن با کودکان صحبت کنند.
البته منظور از صحبت کردن، برقراری یک ارتباط موثر و آگاهانه بوده تا نوجوانان و کودکان متوجه شوند که چرا از تماشای بعضی از محتواها باید اجتناب کنند. به عنوان مثال به جای پرسیدن سوال «چرا این محتوا را تماشا کردی؟» از کودکان پرسیده شود که نظرشان درباره آنها چیست. این کار فضای گفتگوی موثر و تعاملی را فراهم میکند.
در اینجا بخوانید: 7 کار خطرناکی که آنلاین شاپ شما را تعطیل میکند!
کلام پایانی
در این مقاله درباره تغییرات الگوریتم اینستاگرام برای محافظت بیشتر از کاربران کمتر از 18 سال صحبت کردیم. برای محافظت از کودکان در برابر محتواهای خشونت آمیز و بزرگسالانه باید از چند جنبه مختلف محافظت انجام شود. اولین جنبه خود پلتفرمها هستند که باید الگوریتمها را شفاف بیان کنند. بعد از آن نهادهای سیاستگذاری و والدین نقش بسیار مهمی در حفاظت از روان و جسم کودکان دارند. شما هم میتوانید در سطح فردی این آگاهیرسانی به کودکان و نوجوانان اطراف خود را انجام دهید. به نظر شما چه کارهای بیشتری میتوان انجام داد تا این شرایط بهبود پیدا کند؟
پرسش های متداول در مورد تغییرات الگوریتم اینستاگرام
اگر محدودیتها بیش از اندازه اعمال شوند، نوجوانان و کودکان به دنبال راههای فرار میگردند و دسترسی نامحدود و بدون نظارتی به انواع محتوا خواهند داشت.
به احتمال بسیار زیاد در آینده محققان سیستمها را طوری طراحی و بهینه کنند که الگوهای احساسی را بهتر تشخیص دهند. به عنوان مثال اضطراب و فشار روانی را تعیین کرده و اعلام هشدار دهند.
الگوریتمهای اینستاگرام احساسات را «درک» نمیکنند، اما میتوانند الگوهای رفتاری خطرناک را تشخیص دهند؛ مثل محتوای خشونتآمیز، آزار یا جستوجوهای حساس. این سیستمها با ترکیبی از فیلترهای خودکار، محدود کردن محتوا و دخالت انسان (بازبینها) از کاربران نوجوان محافظت میکنند.
🔗 منابع: reuters | captaincompliance | theburlingameb | gov.uk | cybersmarties | kidslox




