``
logo logo

موضوع وبلاگ، اخبار و مجله نسل بعدی برای شما برای شروع به اشتراک گذاری داستان های خود از امروز!

علم و فناوری

بررسی نقش هوش مصنوعی در یک تراژدی کانادایی‌

avatar
Author

نویسنده


  • 2026-02-22

به گزارش فانی لند به نقل از تجارت نیوز

OpenAI پیش از تیراندازی مرگبار کانادا درباره گزارش گفت‌وگوهای نگران‌کننده ChatGPT به پلیس بحث کرد، اما آن‌ها را فاقد آستانه لازم دانست.

به گزارش تجارت نیوز، شرکت OpenAI تأیید کرده است که پیش از وقوع یک تیراندازی مرگبار در کانادا، در داخل این شرکت بحث‌هایی جدی درباره اطلاع دادن به پلیس در جریان بوده است. این بحث‌ها پس از شناسایی استفاده نگران‌کننده یک کاربر ۱۸ ساله از سامانه ChatGPT شکل گرفت؛ کاربری که بعدتر متهم شد در یک حمله مسلحانه جمعی جان هشت نفر را گرفته است. این پرونده بار دیگر توجه جهانی را به مسئولیت‌های شرکت‌های فعال در حوزه هوش مصنوعی هنگام مواجهه با نشانه‌های بالقوه خشونت واقعی جلب کرده است.

بر اساس گزارشی که نخستین بار توسط Wall Street Journal منتشر شد، فرد متهم جسی ون روتسلار نام دارد و این حادثه در جامعه کوچک تامبلر ریج رخ داده است. این منطقه در استان بریتیش کلمبیا قرار دارد. پیش از حمله، ون روتسلار مکالماتی با ChatGPT داشته که در آن‌ها سناریوهایی مرتبط با خشونت مسلحانه توصیف شده بود. این مکالمات توسط سامانه‌های پایش داخلی OpenAI شناسایی شد؛ سامانه‌هایی که برای تشخیص استفاده‌های خطرناک یا سوءاستفاده‌آمیز از مدل‌های زبانی بزرگ طراحی شده‌اند.

به گفته OpenAI، این گفت‌وگوها نقض سیاست‌های استفاده از خدمات محسوب می‌شدند و به همین دلیل حساب کاربری مرتبط در ژوئن ۲۰۲۵ مسدود شد. محتوای مکالمات باعث نگرانی برخی کارکنان شرکت شد و بحث‌هایی داخلی درباره این موضوع شکل گرفت که آیا این فعالیت‌ها باید به نهادهای انتظامی کانادا گزارش شوند یا نه. در نهایت، OpenAI تصمیم گرفت در آن مقطع با پلیس تماس نگیرد. سخنگوی این شرکت بعدتر توضیح داد که بر اساس اطلاعات موجود در آن زمان، رفتار شناسایی‌شده به آستانه‌های داخلی شرکت برای گزارش رسمی به نیروهای انتظامی نمی‌رسید.

پس از وقوع تیراندازی، رویکرد OpenAI تغییر کرد. شرکت به طور فعال با پلیس سواره سلطنتی کانادا تماس گرفت و اطلاعات مرتبط با نحوه استفاده این فرد از ChatGPT را در اختیار آن‌ها قرار داد. این نهاد که با نام Royal Canadian Mounted Police شناخته می‌شود، مسئول رسیدگی به پرونده‌های فدرال و برخی جرایم جدی در کانادا است. OpenAI در بیانیه‌ای عمومی ضمن ابراز همدردی با قربانیان و خانواده‌های آنان، بر همکاری کامل خود با روند تحقیقات تأکید کرد.

این پرونده نمونه‌ای روشن از دشواری تصمیم‌گیری برای شرکت‌های فناوری در مرز میان حفظ حریم خصوصی کاربران، امنیت پلتفرم و حفاظت از جامعه است. OpenAI بارها اعلام کرده که هر رفتار نگران‌کننده‌ای به طور خودکار به گزارش به پلیس منجر نمی‌شود و معمولاً وجود تهدیدی مشخص، معتبر و قریب‌الوقوع شرط اصلی چنین اقدامی است. به گفته شرکت، در مکالمات شناسایی‌شده پیش از حادثه، چنین نشانه‌ای به طور واضح وجود نداشت.

گفت‌وگوهای ChatGPT تنها بخش نگران‌کننده از ردپای دیجیتال این فرد نبود. گزارش‌ها نشان می‌دهد ون روتسلار یک بازی در پلتفرم Roblox ساخته بود که شبیه‌سازی یک تیراندازی جمعی در مرکز خرید را نمایش می‌داد. همچنین گفته می‌شود او در Reddit درباره سلاح‌های گرم مطالبی منتشر کرده بود. این موارد، به ویژه با توجه به مخاطبان نوجوان این پلتفرم‌ها، پس از حادثه نگرانی‌های بیشتری ایجاد کرده‌اند.

علاوه بر فعالیت‌های آنلاین، این فرد پیش از تیراندازی نیز برای پلیس محلی شناخته شده بود. مأموران قبلاً به دلیل حادثه‌ای که در آن گفته می‌شود او تحت تأثیر مواد مخدر باعث آتش‌سوزی در خانه خانواده‌اش شده بود، به محل اعزام شده بودند. این سابقه نشان می‌دهد نشانه‌های بی‌ثباتی رفتاری محدود به تعامل با سامانه‌های هوش مصنوعی نبوده و در دنیای واقعی نیز وجود داشته است.

حادثه تامبلر ریج بحث‌های گسترده‌تری را درباره نقش مدل‌های زبانی بزرگ در بحران‌های سلامت روان و خشونت برانگیخته است. OpenAI و دیگر توسعه‌دهندگان هوش مصنوعی با انتقادها و حتی شکایت‌های حقوقی روبه‌رو شده‌اند که مدعی‌اند سامانه‌های مکالمه‌محور می‌توانند توهمات را تشدید کنند یا در شرایط حساس، مداخله مؤثری نداشته باشند. در مقابل، برخی کارشناسان هشدار می‌دهند که نظارت بیش از حد و گزارش‌گری زودهنگام می‌تواند به نقض حریم خصوصی و دلسرد شدن افراد از بیان مشکلات خود منجر شود.

بحث‌های داخلی OpenAI در این پرونده نشان می‌دهد که تعیین مرز درست میان پیشگیری و مداخله تا چه اندازه پیچیده است. هرچند شرکت مطابق سیاست‌های موجود خود عمل کرده، اما پیامد نهایی این حادثه پرسش‌هایی جدی درباره کافی بودن آستانه‌های فعلی برای اقدام ایجاد کرده است. با گسترش استفاده از ابزارهای هوش مصنوعی در زندگی روزمره، چنین رویدادهایی به احتمال زیاد بر سیاست‌گذاری‌ها، مقررات و انتظارات عمومی درباره نحوه واکنش شرکت‌ها در تقاطع گفت‌وگوهای مجازی و آسیب‌های واقعی تأثیرگذار خواهد بود.


ثبت دیدگاه

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی علامت گذاری شده اند *

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نظرات (0)

هیچ نظری ثبت نشده است.


اشتراک گذاری