مقامات قضایی و مدافعان حقوق کودکان گفتهاند که این ابزارها میتوانند تصاویر عادی را در عرض چند دقیقه به تصاویر جعلی تبدیل کنند و به همین دلیل از سیاستهای انضباطی مدارس پیشی گرفته است. این کار زمانی یک فرایند پیچیده فنی بود اما اکنون تنها با یک اپلیکیشن موبایل انجام میشود؛ این موضوع باعث گسترش سوء استفاده گسترده دانشآموزان از یکدیگر و دشوار شدن کنترل آن شده است.
حادثه لوئیزیانا، زنگ خطری برای سیستم آموزشی آمریکا
این بحران در پاییز سال ۲۰۲۵ و پس از حادثهای در ایالت لوئیزیانا بار دیگر مورد توجه رسانهها قرار گرفت؛ علت آن هم پخش تصاویر جعلی میان دانشآموزان دوره متوسطه بود. اگرچه دو دانشآموز پسر تحت قوانین جدید ایالتی تحت پیگرد قضایی قرار گرفتند اما این حادثه شکافهای موجود در نحوه پاسخگویی سریع مدارس به سوءاستفادههای دیجیتال را آشکار کرد.
در سال ۲۰۲۵، انتشار تصاویر جعلی و غیراخلاقی تولیدشده با هوش مصنوعی از چند دانشآموز دختر در یک مدرسه راهنمایی در ایالت لوئیزیانا، به جنجال گستردهای انجامید. پس از بررسیهای قضایی، دو دانشآموز پسر به اتهام تولید و انتشار این تصاویر تحت پیگرد قانونی قرار گرفتند؛ پروندهای که ضعف آمادگی مدارس در مواجهه با سوءاستفادههای دیجیتال را آشکار کرد.
مقامات مسئول اقرار کردهاند که سرعت و گمنامی در این فناوری، تلاشها برای مداخله پیش از بحرانی شدن شرایط را دشوار کرده است. کلانتر کریگ وبر در بیانیهای عمومی هشدار داد که دسترسی آسان به ابزارهای هوش مصنوعی، ماهیت تخلفات دانشآموزی را تغییر داده است.
کلانتر کریگ وبر همچنین افزود: «ظهور هوش مصنوعی باعث شده تا هر کسی بدون نیاز به آموزش طولانیمدت یا تجربه، بتواند چنین تصاویری خلق کند. والدین باید مستقیما در اینباره با فرزندانشان صحبت کنند.»

آمار تکاندهنده از رشد سوءاستفاده از هوش مصنوعی در مدارس
پرونده لوئیزیانا یک مورد استثنایی نیست. طبق دادههای کنفرانس ملی قانونگذاران ایالتی، تا سال ۲۰۲۵ دستکم نیمی از ایالتهای آمریکا قوانینی را برای ساماندهی دیپفیک و سوءاستفاده از AI تصویب کردهاند.
ابعاد بحران در گزارشهای فدرال نیز نگرانکننده است. مرکز ملی کودکان مفقود شده و قربانی سوءاستفاده، از جهش چشمگیر تصاویر غیراخلاقیِ تولیدشده با هوش مصنوعی خبر داد؛ طبق این گزارش آمار تصاویر جعلی و غیراخلاقی، از چند هزار مورد در سال ۲۰۲۳ به صدها هزار مورد در نیمه اول سال ۲۰۲۵ رسیده است.
چرا قلدری سایبری با AI از قلدری سنتی خطرناکتر است؟
پژوهشگران تاکید میکنند که آسیب ناشی از آزار و اذیتهای مبتنی بر AI با قلدریهای سنتی متفاوت است. سرجیو الکساندر، پژوهشگر فناوریهای نوظهور، میگوید تصاویر جعلی به دلیل ظاهر واقعگرایانه، باعث میشوند:
- قربانی نتواند جعلی بودن تصویر را اثبات کند.
- تصاویر بارها در فضای مجازی بازنشر شوند.
- اضطراب شدید، افسردگی و انزوای اجتماعی دانشآموز افزایش یابد.
فاصله مقررات مدارس با سرعت رشد AI
با وجود این تهدیدها، بسیاری از مدارس هنوز آمادگی لازم را ندارند. سمیر هیندوجا، مدیر مرکز تحقیقات قلدری سایبری، میگوید نبود سیاستهای شفاف باعث میشود دانشآموزان تصور کنند بزرگسالان از این اتفاقات بیاطلاعاند یا توان پاسخگویی به آنها را ندارند. بنابراین از والدین خواسته شده تا نقش فعالی در این زمینه داشته باشند و از مدارس نیز خواسته شده تا برای بهبود وضعیت این سه کار مهم را انجام دهند:
- آییننامههای انضباطی خود را با تمرکز بر هوش مصنوعی بهروزرسانی کنند.
- پیامدهای حقوقی و اخلاقی سوءاستفاده از AI را به دانشآموزان آموزش دهند.
- فضایی امن و بدون ترس برای گزارشدهی فراهم کنند.
جمعبندی؛ چگونه میتوان با قلدری سایبری مبتنی بر هوش مصنوعی مقابله کرد؟
هدف از خلق ابزارهای هوش مصنوعی، نوآوری بوده نه سوءاستفاده. پیش از آنکه دانشآموزان بیشتری آسیب ببینند، باید مرز میان نوآوری و سوءاستفاده در مدارس روشن شود. مقابله با قلدری سایبری مبتنی بر AI، نیازمند همکاری هماهنگ میان قانونگذاران، معلمان، والدین و پلیس است.