بررسی نقش هوش مصنوعی در یک تراژدی کانادایی
به گزارش فانی لند به نقل از تجارت نیوز
OpenAI پیش از تیراندازی مرگبار کانادا درباره گزارش گفتوگوهای نگرانکننده ChatGPT به پلیس بحث کرد، اما آنها را فاقد آستانه لازم دانست.
به گزارش تجارت نیوز، شرکت OpenAI تأیید کرده است که پیش از وقوع یک تیراندازی مرگبار در کانادا، در داخل این شرکت بحثهایی جدی درباره اطلاع دادن به پلیس در جریان بوده است. این بحثها پس از شناسایی استفاده نگرانکننده یک کاربر ۱۸ ساله از سامانه ChatGPT شکل گرفت؛ کاربری که بعدتر متهم شد در یک حمله مسلحانه جمعی جان هشت نفر را گرفته است. این پرونده بار دیگر توجه جهانی را به مسئولیتهای شرکتهای فعال در حوزه هوش مصنوعی هنگام مواجهه با نشانههای بالقوه خشونت واقعی جلب کرده است.
بر اساس گزارشی که نخستین بار توسط Wall Street Journal منتشر شد، فرد متهم جسی ون روتسلار نام دارد و این حادثه در جامعه کوچک تامبلر ریج رخ داده است. این منطقه در استان بریتیش کلمبیا قرار دارد. پیش از حمله، ون روتسلار مکالماتی با ChatGPT داشته که در آنها سناریوهایی مرتبط با خشونت مسلحانه توصیف شده بود. این مکالمات توسط سامانههای پایش داخلی OpenAI شناسایی شد؛ سامانههایی که برای تشخیص استفادههای خطرناک یا سوءاستفادهآمیز از مدلهای زبانی بزرگ طراحی شدهاند.
به گفته OpenAI، این گفتوگوها نقض سیاستهای استفاده از خدمات محسوب میشدند و به همین دلیل حساب کاربری مرتبط در ژوئن ۲۰۲۵ مسدود شد. محتوای مکالمات باعث نگرانی برخی کارکنان شرکت شد و بحثهایی داخلی درباره این موضوع شکل گرفت که آیا این فعالیتها باید به نهادهای انتظامی کانادا گزارش شوند یا نه. در نهایت، OpenAI تصمیم گرفت در آن مقطع با پلیس تماس نگیرد. سخنگوی این شرکت بعدتر توضیح داد که بر اساس اطلاعات موجود در آن زمان، رفتار شناساییشده به آستانههای داخلی شرکت برای گزارش رسمی به نیروهای انتظامی نمیرسید.
پس از وقوع تیراندازی، رویکرد OpenAI تغییر کرد. شرکت به طور فعال با پلیس سواره سلطنتی کانادا تماس گرفت و اطلاعات مرتبط با نحوه استفاده این فرد از ChatGPT را در اختیار آنها قرار داد. این نهاد که با نام Royal Canadian Mounted Police شناخته میشود، مسئول رسیدگی به پروندههای فدرال و برخی جرایم جدی در کانادا است. OpenAI در بیانیهای عمومی ضمن ابراز همدردی با قربانیان و خانوادههای آنان، بر همکاری کامل خود با روند تحقیقات تأکید کرد.
این پرونده نمونهای روشن از دشواری تصمیمگیری برای شرکتهای فناوری در مرز میان حفظ حریم خصوصی کاربران، امنیت پلتفرم و حفاظت از جامعه است. OpenAI بارها اعلام کرده که هر رفتار نگرانکنندهای به طور خودکار به گزارش به پلیس منجر نمیشود و معمولاً وجود تهدیدی مشخص، معتبر و قریبالوقوع شرط اصلی چنین اقدامی است. به گفته شرکت، در مکالمات شناساییشده پیش از حادثه، چنین نشانهای به طور واضح وجود نداشت.
گفتوگوهای ChatGPT تنها بخش نگرانکننده از ردپای دیجیتال این فرد نبود. گزارشها نشان میدهد ون روتسلار یک بازی در پلتفرم Roblox ساخته بود که شبیهسازی یک تیراندازی جمعی در مرکز خرید را نمایش میداد. همچنین گفته میشود او در Reddit درباره سلاحهای گرم مطالبی منتشر کرده بود. این موارد، به ویژه با توجه به مخاطبان نوجوان این پلتفرمها، پس از حادثه نگرانیهای بیشتری ایجاد کردهاند.
علاوه بر فعالیتهای آنلاین، این فرد پیش از تیراندازی نیز برای پلیس محلی شناخته شده بود. مأموران قبلاً به دلیل حادثهای که در آن گفته میشود او تحت تأثیر مواد مخدر باعث آتشسوزی در خانه خانوادهاش شده بود، به محل اعزام شده بودند. این سابقه نشان میدهد نشانههای بیثباتی رفتاری محدود به تعامل با سامانههای هوش مصنوعی نبوده و در دنیای واقعی نیز وجود داشته است.
حادثه تامبلر ریج بحثهای گستردهتری را درباره نقش مدلهای زبانی بزرگ در بحرانهای سلامت روان و خشونت برانگیخته است. OpenAI و دیگر توسعهدهندگان هوش مصنوعی با انتقادها و حتی شکایتهای حقوقی روبهرو شدهاند که مدعیاند سامانههای مکالمهمحور میتوانند توهمات را تشدید کنند یا در شرایط حساس، مداخله مؤثری نداشته باشند. در مقابل، برخی کارشناسان هشدار میدهند که نظارت بیش از حد و گزارشگری زودهنگام میتواند به نقض حریم خصوصی و دلسرد شدن افراد از بیان مشکلات خود منجر شود.
بحثهای داخلی OpenAI در این پرونده نشان میدهد که تعیین مرز درست میان پیشگیری و مداخله تا چه اندازه پیچیده است. هرچند شرکت مطابق سیاستهای موجود خود عمل کرده، اما پیامد نهایی این حادثه پرسشهایی جدی درباره کافی بودن آستانههای فعلی برای اقدام ایجاد کرده است. با گسترش استفاده از ابزارهای هوش مصنوعی در زندگی روزمره، چنین رویدادهایی به احتمال زیاد بر سیاستگذاریها، مقررات و انتظارات عمومی درباره نحوه واکنش شرکتها در تقاطع گفتوگوهای مجازی و آسیبهای واقعی تأثیرگذار خواهد بود.
ثبت دیدگاه
آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی علامت گذاری شده اند *نظرات (0)
هیچ نظری ثبت نشده است.