ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

آیا هوش مصنوعی می تواند کشتارهای جمعی در مدارس آمریکا را پایان دهد؟

تیراندازی های مرگبار در مدارس ایالات متحده آمریکا همواره به صدر اخبار راه می یابند ولی پس از مدتی به دست فراموشی سپرده می شوند. با این حال معلمین، والدین و متخصصین حوزه امنیت همیشه ...

حمید مقدسی
نوشته شده توسط حمید مقدسی | ۲ مرداد ۱۳۹۷ | ۲۲:۰۰

تیراندازی های مرگبار در مدارس ایالات متحده آمریکا همواره به صدر اخبار راه می یابند ولی پس از مدتی به دست فراموشی سپرده می شوند. با این حال معلمین، والدین و متخصصین حوزه امنیت همیشه به دنبال راهکاری برای پیشگیری از این تراژدی ها هستند و حالا هوش مصنوعی در خط مقدم این نبرد قرار گرفته است.

فایرستورم (Firestorm) یکی از شرکت هاییست که در زمینه مدیریت بحران عمل می کند. سوزی لافلین، مؤسس و مشاور ارشد این شرکت می گوید:

هدف ما این است که هیچ کودکی نخواهد با خودش اسلحه حمل کند و آن را به مدرسه بیاورد.

فایرستورم با همکاری مرکز آموزش تکمیلی دانشگاه آلاباما در آمریکا، برنامه ای را آغاز کرده اند تا از بروز این رخدادهای فاجعه بار پیشگیری کنند. متخصصین در این برنامه به دنبال نشانه هایی می گردند تا کودکان را در آستانه ی رفتار خشونت بار آتی شناسایی نمایند.

این برنامه برتا (BERTHA) نام دارد که مخفف عبارت «برنامه سنجش تهدید خطرات رفتاری» است. ایده اولیه این پروژه در سال 2007 و پس از فاجعه دانشگاه ویرجینیا تک شکل گرفت. در این حادثه که یکی از مرگبارترین تیراندازی های کور در تاریخ آمریکا محسوب می شود، 32 نفر کشته شدند. تیراندازی دبیرستان استونمن داگلاس در شهر پارکلند ایالت فلوریدا در سال جاری میلادی که به کشته شدن 17 نفر انجامید، موضوع پروژه را برجسته تر کرد و نهایتاً دو ماه قبل تیراندازی دبیرستان سانتا فه در تگزاس که 10 نفر را به کام مرگ کشاند، ضرورت اجرای زودهنگام این پروژه را برای همگان به اثبات رساند.

جدول زیر تیراندازی های مرگبار در مدارس آمریکا از سال 1988 به بعد را نشان می دهد:

سال واقعه کشته‌ها زخمی‌ها مجموع
2018 دبیرستان سانتا فه (سانتا فه، تگزاس) 10 13 23
2018 دبیرستان استونمن داگلاس (پارکلند، فلوریدا) 17 14 31
2015 کالج Umpqua (رسبورگ، اورگن) 9 9 18
2014 دبیرستان ماریس ویل پیلچاک (ماریس ویل، واشنگتن) 5 1 6
2014 ایسلا ویستا (سانتا باربارا، کالیفرنیا) 6 13 19
2012 دبستان سندی هوک (نیوتاون، کنتیکت) 27 2 29
2012 دانشگاه اویکوس (اوکلند، کالیفرنیا) 7 3 10
2008 دانشگاه ایلینوی شمالی (دکالب، ایلینوی) 5 21 26
2007 دانشگاه ویرجینیا تک (بلکسبرگ، ویرجینیا) 32 23 55
2006 مدرسه نیکل ماینز (لنکستر، پنسیلوانیا) 6 5 11
2005 رد لیک (رد لیک، مینه سوتا) 10 5 15
1999 دبیرستان کلمباین (کلمباین، کلرادو) 13 24 37
1998 دبیرستان ترستون (اسپرینگفیلد، اورگن) 4 25 29
1998 مدرسه راهنمایی وست ساید (جونزبورو، آرکنسا) 5 10 15
1992 دبیرستان لیندهورست (اولیوهورست، کالیفرنیا) 4 10 14
1991 دانشگاه آیووا (آیووا سیتی، آیووا) 6 1 7
1989 دبستان استوکتون (استوکتون، کالیفرنیا) 6 29 35

برنامه ارزیابی ریسک به عنوان یک غربال امنیتی عمل می کند تا کودکان و نوجوانانی که به کمک و مداخلات خاص نیاز دارند را پیش از اقدام به خودکشی یا قتل، شناسایی نماید. پس از وقوع هر فاجعه مرگبار، تمام مسئولین، والدین و دانش آموزان افسوس می خورند که چرا به نشانه ها و هشدارهای اولیه توجه نکردند، مواردی نظیر زورگویی در فضای مجازی، علاقه مفرط به اسلحه، یا اشاره به تیراندازی دبیرستان کلمباین در سال 1999. حالا شاید هوش مصنوعی بتواند این وظیفه را بر عهده بگیرد و جان دانش آموزان و دانشجویان را نجات دهد.

هوش مصنوعی در جستجوی نشانه ها

چالش اصلی متخصصین، جستجو در میان انبوهی از داده ها در انجمن های گفتگو یا شبکه های اجتماعی برای یافتن جزئیات خاص است تا بر اساس آنها بتوان رفتار غیر عادی کودکان را به مشاورین مدرسه یا روانشناسان اطلاع داد. برای غربال کردن اطلاعات خام در فضای آنلاین و نتیجه گیری از آنها، ابزارهای هوش مصنوعی می توانند به کمک ما بیایند.

میلا لاکس، مؤسس و مدیرعامل شرکت میلو لاجیک (Meelo Logic) می گوید «ما بخش AI این پروژه هستیم». میلو لاجیک در پروژه برتا با فایرستورم همکاری می کند تا عملیات سنگین اولیه یعنی جستجو و مرتب سازی کلان داده را انجام دهد. تمرکز اصلی این شرکت روی تولید خودکار دانش و درک محتواست.

نرم افزار میلو می تواند با استفاده از فرایندی که به «استدلال سببی» معروف است، کامنت ها و پست ها را دنبال کند تا به منبع اولیه برسد. این روش شبیه یافتن «بیمار صفر» است، یعنی فردی که دیگران برای نخستین بار در موردش اظهار نگرانی کرده اند. هارت براون، مدیر عملیات فایرستورم می گوید:

معمولاً طغیان اولیه به شکل آنلاین انجام می شود، و فرد به شکل آگاهانه چنین کاری را می کند تا به نوعی از دیگران کمک بگیرد. در 80 درصد موارد، حداقل یک نفر دیگر هم از ماجرا آگاه است. بنابراین اگر پست اولیه به شکل خصوصی منتشر شود، باز هم می توان بازتاب آن را در فرد دیگری یافت.

برنامه AI بر اساس واژگان و اصطلاحات معمول در شبکه های اجتماعی، مضمون گفتگو، موقعیت مکانی و پیوند های مرتبط، می تواند غربالگری اولیه را انجام دهد. سپس متخصصین فایرستورم فعالیت های مشکوک را برای مداخلات بیشتر جدا می کنند. اینجاست که مشاورین، معلمین و روانشناسان وارد صحنه می شوند تا تهدیدهای جدی و واقعی را شناسایی کنند. گاهی اوقات کودک به خاطر خشم یا تمایل به خودکشی به توجه و مشاوره نیاز دارد، و گاهی اوقات هم مسئله مهمی در بین نیست.

برندا ترولاو، یکی از مدیران این برنامه در دانشگاه آلاباما که با فایرستورم همکاری می کند، می گوید:

هیچ شخص خاصی را نمی توان تصمیم گیرنده نهایی دانست، چون هر فردی ممکن است برخی مسائل را نادیده بگیرد. اتخاذ تصمیم نهایی بر عهده یک تیم خواهد بود.

ترولاو به این نکته هم اشاره می کند که پروژه برتا بر اساس تجربیات معلمین، روانشناسان و دیگر متخصصین این حوزه پیش می رود تا قاعده ای نهایی برای مواجهه با بحران های احتمالی حاصل گردد.

افزایش امنیت یا نقض حریم خصوصی

پتانسیل هوش مصنوعی در پیشگیری از تیراندازی های مرگبار آینده به خوبی قابل درک است، اما ردیابی و تجزیه و تحلیل اطلاعات در چنین سطحی، نگرانی های زیادی را در مورد محرمانگی و حریم شخصی به وجود می آورد، ضمن اینکه احتمال تشخیص اشتباه و بروز مشکلات ناخواسته هم وجود دارد.

برایس آلبرت، دانش آموز پایه نهم دبیرستان استونمن داگلاس در زمان آغاز تیراندازی در طبقه سوم مدرسه حضور داشت. یکی از معلمین در فرصت مناسب توانست او را به داخل یکی از کلاس ها بکشاند و همین اقدام، جان او را نجات داد. پس از این تجربه ناگوار، دیدگاه آلبرت در مورد محرمانگی و حریم شخصی به کل تغییر کرده و پایش شبکه های اجتماعی توسط مقامات را ضروری می داند.

لاکس (از شرکت میلو) بر این نکته تأیید می کند که برنامه های هوش مصنوعی به هیچگونه اکانت محرمانه دسترسی ندارند و فقط اطلاعات عمومی را ارزیابی می کنند. لافلین (از شرکت فایرستورم) هم می گوید آنها خودشان داده ها را جمع آوری یا ذخیره نخواهند کرد، بلکه افراد باتجربه در مدارس که به سوابق دانش آموزان دسترسی دارند، این مسئولیت را بر عهده می گیرند.

تشخیص ریزه کاری های زبانی برای هوش مصنوعی دشوار است

به گفته لاکس، ریزه کاری ها و ظرافت های زبانی مانند طعنه و کنایه، می تواند تحقیقات AI را دشوار کند. برنامه میلو برخلاف پروژه های مشابه، روی آنالیز تصویری کار نمی کند و بیشتر به زمینه و مضمون محتوا توجه دارد. با این حال حتی از متخصصین زبده نیز احتمال اشتباه می رود، چه برسد به هوش مصنوعی. یکی از مشکلات این است که از طریق متن، به سختی می توان احساسات و عواطف نویسنده را درک کرد. البته AI باید بتواند تا جای ممکن بیطرفانه عمل کند و تمامی تغییرات عاطفی و رفتاری که ممکن است منجر به بروز مشکل شوند را در نظر بگیرد.

براون (از شرکت فایرستورم) در این رابطه می گوید:

نهایتاً سیستم باید بتواند سوگیری و تعصب را به طور کامل کنار بگذارد. یک متخصص نیروی انسانی یا مشاور ممکن است خشم ناگهانی افراد را نادیده بگیرد، با این توجیه که برای همه اتفاق می افتد. در مقابل، سیستم کامپیوتری هیچگاه چنین بهانه هایی را نخواهد آورد.

با این حال برای ادامه راه به نیروی انسانی نیاز داریم تا با دانش آموزان و دانشجویان مصاحبه کند، چون کامپیوتر نمی تواند تشخیص دهد که باید این فرد را اخراج کرد یا مشکلش با مشاوره حل خواهد شد.

هوش مصنوعی؛ ابزار یا راه حل

تمامی متخصصینی که در این مقاله از آنها نام برده شده، بر این حقیقت تأکید می کنند که هوش مصنوعی در حال حاضر صرفاً یک فیلتر یا ابزار ابتدایی برای پیشگیری از تیراندازی های کور در مدارس است. پروژه برتا کودکان در معرض خطر را شناسایی می کند، ولی نمی تواند به مربیان و مسئولان بگوید که چگونه و چه زمانی مداخله کنند، یا اینکه اصلاً نیازی به مداخله هست یا خیر.

مدارس همچنان به تیم حرفه ای نیاز خواهند داشت، از مربیان آموزش دیده گرفته تا روانشناسان زبده، و این نیاز با وجود سیستم های هوشمند هم برطرف نخواهد شد. لاکس می گوید طبق آمار موجود، هرگاه یک تیراندازی و کشتار جمعی در مدارس رخ دهد، احتمال وقوع حادثه مشابه نیز بالاتر می رود.

نهایتاً اینکه عامل انسانی هنوز هم نقش اساسی را ایفا می کند. آلبرت به عنوان بازمانده یکی از مرگبارترین حوادث تاریخ آمریکا می گوید با یکدیگر صحبت کنید و در صورت نیاز، کمک بگیرید. هیچگاه از درخواست برای کمک نترسید.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (5 مورد)
  • hector_k2
    hector_k2 | ۳ مرداد ۱۳۹۷

    Person of interest

  • Behrooz A
    Behrooz A | ۲ مرداد ۱۳۹۷

    کافی بود یکی از این کشتارها تو ایران اتفاق بیفته ، چنان هجمه رسانه ای درست می کردن که اون سرش ناپیدا بود ، ولی واسه امریکا جیک هیچ کس در نمیاد که ای وای چه مملکتی ، وای اینجا جای موندن نیست ، وای بچه هامون امنیت ندارن و هزار وای دیگه ...

    • آریا
      آریا | ۳ مرداد ۱۳۹۷

      یک هفته فقط یک هفته اسلحه رو تو ایران آزاد کنین تا ببینین رکورد کل دنیا رو میکشکنن یا نه؟

      • DaekDeveloper
        DaekDeveloper | ۳ مرداد ۱۳۹۷

        کافر همه را به کیش خود پندارد. چه دلیلی داره که اسلحه آزاد باشه؟اوه ببخشید این طوری حقوق بشر احیا میشه.

        • آریا
          آریا | ۴ مرداد ۱۳۹۷

          دلیلش اینه که هر کسی به اسم قانون نمیتونه به مردم زور بگه

مطالب پیشنهادی