تصویر شگفتانگیز هوش مصنوعی از تیمهای المپیک 40 کشور
در آستانه بازیهای المپیک، پژوهشگران دانشگاه ادیث کوان استرالیا از پلتفرم تولید تصویر مبتنی بر هوش مصنوعی، Midjourney، خواستند تا تصاویری از تیم های المپیک ۴۰ کشور خلق کند. نتایج این آزمایش، تعصبات و کلیشههای موجود در دادههای آموزشی هوش مصنوعی را به شکلی چشمگیر نمایان ساخت.
تصاویر عجیب و غریب هوش مصنوعی از تیم های المپیک
هوش مصنوعی در تصویرسازی تیمهای المپیک، نتایجی دور از واقعیت و گاه خندهدار ارائه داد.
برای مثال، تیم استرالیا با بدن کانگورو و سر کوآلا تصویر شد، در حالی که تیم یونان با زرههای باستانی نمایش داده شد.
تیم مصر نیز در لباسهایی شبیه به فراعنه ظاهر شدند.
تعصبات جنسیتی و ورزشی
تحلیل تصاویر نشان داد که مردان پنج برابر بیشتر از زنان در تصاویر حضور داشتند. از کل ورزشکاران نمایش داده شده، ۸۲ درصد مرد و تنها ۱۷ درصد زن بودند.
برخی تیمها مانند اوکراین و ترکیه تنها با ورزشکاران مرد نمایش داده شدند.
همچنین، تعصب در مورد رشتههای ورزشی نیز مشهود بود. برای مثال، تیم کانادا به عنوان بازیکنان هاکی، آرژانتین با فوتبال و هلند با دوچرخهسواری نمایش داده شدند.
این تصاویر نشان میدهد که هوش مصنوعی، کشورها را بر اساس ورزشهای شناختهشدهترشان بازنمایی کرده است.
تعصبات فرهنگی و مذهبی در تصاویر هوش مصنوعی از تیم های المپیک
تعصبات فرهنگی در تصاویر بسیار چشمگیر بود. تیم نیجریه در لباسهای سنتی و تیم ژاپن در کیمونو نمایش داده شدند. در مورد تیم هند، تمام ورزشکاران با بیندی (نماد مذهبی مرتبط با هندوئیسم) تصویر شدند که نشاندهنده نادیده گرفتن تنوع مذهبی در این کشور است.
تفاوت در بیان احساسات
حالات چهره ورزشکاران نیز در تیمهای مختلف متفاوت بود.
تیمهای کره جنوبی و چین با چهرههای جدی، و تیمهای ایرلند و نیوزیلند با لبخند نمایش داده شدند.
نگرانیهای ناشی از این تعصبات
دکتر کلی چونگ، استاد ارشد دانشگاه ادیث کوان، معتقد است: «با افزایش اتکای جامعه به فناوری برای کسب اطلاعات و پاسخها، این برداشتها ممکن است در نهایت منجر به ایجاد محرومیتهای واقعی برای افراد با هویتهای مختلف شود.»
راه حلها و توصیهها
پژوهشگران امیدوارند این تصاویر نیاز به بهبود الگوریتمها توسط توسعهدهندگان برای کاهش چنین تعصباتی را برجسته کند. دکتر چونگ تأکید میکند که آموزش کاربران برای همزیستی هوش مصنوعی و اطلاعات، و همچنین توانایی به چالش کشیدن خروجی آن، بسیار مهم خواهد بود.
این مطالعه نشان میدهد که علیرغم پیشرفتهای چشمگیر در زمینه هوش مصنوعی، هنوز راه درازی برای رسیدن به سیستمهایی عاری از تعصب و کلیشه در پیش است. جامعه باید یاد بگیرد که اطلاعات تولید شده توسط هوش مصنوعی را به طور انتقادی ارزیابی کند و اعتبار آن را زیر سؤال ببرد.