گوگل دستورالعملهای ارزیابی هوش مصنوعی را تغییر داد
«تجارت نیوز» گزارش میدهد:
گوگل با تغییر دستورالعملها، پیمانکاران را ملزم به ارزیابی پاسخهای هوش مصنوعی در حوزههای خارج از تخصص کرده و نگرانیهایی درباره دقت ایجاد کرده است.
به گزارش تجارت نیوز،
گوگل اخیراً دستورالعملهای خود را برای پیمانکارانی که بر عملکرد مدل هوش مصنوعی جمینی نظارت دارند، تغییر داده است. این تغییرات، که پیمانکاران را ملزم به ارزیابی پاسخهای هوش مصنوعی در موضوعات خارج از تخصصشان میکند، نگرانیهایی درباره دقت و صحت این سیستم بهویژه در حوزههای حساس مانند مراقبتهای بهداشتی ایجاد کرده است.
نقش پیمانکاران در ارزیابی هوش مصنوعی
گوگل برای ارزیابی عملکرد مدل هوش مصنوعی جمینی، با شرکت GlobalLogic همکاری میکند. پیمانکاران این شرکت مسئول بررسی و ارزیابی پاسخهای تولیدشده توسط هوش مصنوعی بر اساس معیارهایی مانند صحت و انسجام هستند. پیشتر، پیمانکاران اجازه داشتند از ارزیابی پرسشهایی که دانش تخصصی خاصی نیاز داشتند، صرفنظر کنند و ارزیابی این موارد به کارشناسان مرتبط واگذار میشد.
تغییر جنجالی در دستورالعملها
هفته گذشته، شرکت GlobalLogic دستورالعمل جدیدی را به پیمانکاران ابلاغ کرد که آنها را از نادیده گرفتن درخواستهای نیازمند دانش تخصصی منع میکند. پیش از این، پیمانکاران میتوانستند با ذکر دلایلی مانند عدم تخصص در حوزههایی مانند ریاضیات یا کدنویسی، از انجام ارزیابی صرفنظر کنند. اما دستورالعمل جدید میگوید: «نباید از ارزیابی درخواستهایی که به دانش تخصصی نیاز دارند، صرفنظر کنید.»
اکنون پیمانکاران باید صرفاً بخشهایی از درخواست را که درک میکنند، ارزیابی کرده و به عدم تخصص خود در یادداشتی اشاره کنند. صرفنظر کردن تنها در دو حالت مجاز است:
زمانی که اطلاعات مهم در درخواست یا پاسخ وجود ندارد.
در صورتی که محتوا مضر باشد و نیاز به فرمهای موافقت خاص داشته باشد.
نگرانیها درباره صحت ارزیابیها
این تغییرات نگرانیهایی را در میان پیمانکاران و کارشناسان هوش مصنوعی ایجاد کرده است. ارزیابی پاسخهای پیچیده در موضوعات حساس مانند شرایط نادر پزشکی بدون دانش تخصصی میتواند به درج اشتباهات در سیستم منجر شود.
در مکاتبات داخلی بهدستآمده توسط TechCrunch، پیمانکاران از این تصمیم ابراز ناامیدی و سردرگمی کردهاند. یکی از پیمانکاران گفته است: «آیا هدف از صرفنظر کردن، افزایش دقت با سپردن آن به افراد متخصصتر نبود؟»
خطرات در موضوعات حساس
این دستورالعمل جدید بهویژه در زمینههایی مانند مراقبتهای بهداشتی نگرانکننده است. اگر ارزیابان دانش لازم برای ارزیابی دقیق پاسخهای هوش مصنوعی را نداشته باشند، احتمال انتشار اطلاعات نادرست به کاربران افزایش مییابد. این خطر زمانی جدیتر میشود که کاربران برای تصمیمات حیاتی مانند درمانهای پزشکی به سیستمهایی مانند جمینی اعتماد کنند.
گوگل تاکنون توضیحی درباره این تغییرات ارائه نکرده است. عدم شفافیت این شرکت، نگرانیها را افزایش داده و پرسشهایی را درباره دلایل پشت این تصمیم ایجاد کرده است.
چالش بین کارایی و دقت
بهنظر میرسد این تغییرات، بازتابی از تنش میان کارایی و دقت در صنعت هوش مصنوعی باشد. هرچند الزام پیمانکاران به ارزیابی همه درخواستها ممکن است فرایند بازخورد را تسریع کند، اما این رویکرد میتواند به کاهش اعتبار سیستم منجر شود.
با گسترش استفاده از هوش مصنوعی در حوزههایی مانند آموزش، حقوق و پزشکی، اهمیت تضمین صحت این سیستمها بیش از پیش شده است. تصمیم گوگل برای تغییر دستورالعملها پرسشهایی جدی درباره نحوه توازن بین توسعه سریع فناوری و حفظ اعتماد عمومی ایجاد کرده است. این تغییرات نشاندهنده چالشهای اخلاقی و فنی در مقیاسگذاری سیستمهای هوش مصنوعی است و باید دید آیا گوگل به این نگرانیها پاسخ خواهد داد یا خیر.