هنوز روشی برای تفسیر هوش مصنوعی موجود نیست!
1 min read

هنوز روشی برای تفسیر هوش مصنوعی موجود نیست!

برخی از محققان مشخصات رسمی را راهی برای سیستم های مستقل برای “توضیح خود” به انسان می دانند. اما یک مطالعه جدید نشان می دهد که ما درک نمی کنیم.

از آنجایی که سیستم های خودمختار و هوش مصنوعی به طور فزاینده ای در زندگی روزمره رایج می شوند، روش های جدیدی برای کمک به انسان برای بررسی اینکه آیا این سیستم ها مطابق انتظار عمل می کنند، در حال ظهور هستند. یکی از روش ها به نام مشخصات رسمی، از فرمول های ریاضی استفاده می کند که می توانند به عبارات زبان طبیعی ترجمه شوند. برخی از محققان ادعا می کنند که از این روش می توان برای بیان تصمیماتی که یک هوش مصنوعی اتخاذ می کند به روشی قابل تفسیر برای انسان استفاده کرد.

محققان آزمایشگاه MIT لینکلن می خواستند چنین ادعاهایی را در مورد تفسیرپذیری بررسی کنند. یافته‌های آن‌ها برعکس آن را نشان می‌دهد: به نظر نمی‌رسد مشخصات رسمی توسط انسان قابل تفسیر باشد. در مطالعه این تیم، از شرکت کنندگان خواسته شد بررسی کنند که آیا طرح یک عامل هوش مصنوعی در یک بازی مجازی موفق خواهد بود یا خیر. با ارائه مشخصات رسمی طرح، شرکت کنندگان در کمتر از نیمی از موارد صحیح بودند.

Hosea Siu، محققی در این زمینه می‌گوید: «نتایج برای محققانی که ادعا می‌کنند روش‌های رسمی قابلیت تفسیرپذیری را به سیستم‌ها می‌دهند، خبر بدی است. ممکن است به معنای محدود و انتزاعی درست باشد، اما نه برای چیزی نزدیک به اعتبار سیستم عملی». گروه فناوری هوش مصنوعی آزمایشگاه مقاله این گروه در کنفرانس بین‌المللی ربات‌ها و سیستم‌های هوشمند در سال ۲۰۲۳ که در اوایل این ماه برگزار شد، پذیرفته شد.

تفسیرپذیری از این جهت مهم است که به انسان اجازه می‌دهد تا در دنیای واقعی به یک ماشین اعتماد کند. اگر یک ربات یا هوش مصنوعی بتواند اقدامات خود را توضیح دهد، آنگاه انسان ها می توانند تصمیم بگیرند که آیا برای تصمیم گیری منصفانه نیاز به تنظیمات دارد یا می توان به آنها اعتماد کرد. یک سیستم قابل تفسیر همچنین به کاربران فناوری – نه فقط توسعه دهندگان – امکان می دهد تا قابلیت های آن را درک کرده و به آن اعتماد کنند. با این حال، تفسیرپذیری مدت‌هاست که یک چالش در زمینه هوش مصنوعی و خودمختاری بوده است. فرآیند یادگیری ماشین در یک “جعبه سیاه” اتفاق می افتد، بنابراین توسعه دهندگان مدل اغلب نمی توانند توضیح دهند که چرا یا چگونه یک سیستم به یک تصمیم خاص رسیده است.

زمانی که محققان می گویند سیستم یادگیری ماشین ما دقیق است، ما می پرسیم که چقدر دقیق است؟ و “با استفاده از چه داده هایی؟” و اگر این اطلاعات ارائه نشود، ما این ادعا را رد می کنیم. زمانی که محققان می گویند “سیستم یادگیری ماشینی ما قابل تفسیر است” ما این کار را انجام نداده ایم و ما باید این ادعاها را برای بررسی دقیق تر شروع کنیم.”

در ترجمه گم شده است

برای آزمایش خود، محققان به دنبال این بودند که مشخص کنند آیا مشخصات رسمی رفتار یک سیستم را قابل تفسیرتر می‌کند یا خیر. آنها بر توانایی افراد برای استفاده از چنین مشخصاتی برای تأیید اعتبار یک سیستم متمرکز شدند – یعنی درک اینکه آیا سیستم همیشه اهداف کاربر را برآورده می کند یا خیر.

اعمال مشخصات رسمی برای این منظور اساساً محصول جانبی استفاده اصلی آن است. مشخصات رسمی بخشی از مجموعه گسترده‌تری از روش‌های رسمی هستند که از عبارات منطقی به عنوان یک چارچوب ریاضی برای توصیف رفتار یک مدل استفاده می‌کنند. از آنجایی که این مدل بر اساس یک جریان منطقی ساخته شده است، مهندسان می‌توانند از «بررسی‌کننده‌های مدل» برای اثبات ریاضی حقایق مربوط به سیستم، از جمله زمانی که انجام یک کار برای سیستم امکان‌پذیر یا غیرممکن است، استفاده کنند. اکنون، محققان در تلاشند تا از همین چارچوب به عنوان ابزاری برای ترجمه برای انسان استفاده کنند.

سیو می‌گوید: «محققان این واقعیت را که مشخصات رسمی دارای معنایی دقیق هستند با قابل تفسیر بودن برای انسان اشتباه می‌گیرند. اینها یکسان نیستند. ما متوجه شدیم که هیچ کس در حال بررسی است که آیا مردم واقعاً خروجی ها را درک می کنند یا خیر.

در آزمایش این تیم، از شرکت‌کنندگان خواسته شد تا مجموعه نسبتاً ساده‌ای از رفتارها را با یک ربات که بازی تسخیر پرچم را انجام می‌دهد، تأیید کنند و اساساً به این سؤال پاسخ دهند که “اگر ربات دقیقاً از این قوانین پیروی کند، آیا همیشه برنده است؟”

شرکت‌کنندگان شامل افراد خبره و غیرمتخصص در روش‌های رسمی بودند. آنها مشخصات رسمی را به سه طریق دریافت کردند – یک فرمول منطقی “خام”، فرمول ترجمه شده به کلمات نزدیکتر به زبان طبیعی و یک قالب درخت تصمیم. درختان تصمیم به طور خاص اغلب در دنیای هوش مصنوعی به عنوان راهی قابل تفسیر برای نشان دادن هوش مصنوعی یا تصمیم گیری ربات در نظر گرفته می شوند.

نتایج: سیو می‌گوید: «عملکرد اعتبارسنجی در کل بسیار وحشتناک بود، با دقت حدود 45 درصد، صرف نظر از نوع ارائه.

با اطمینان اشتباه

کسانی که قبلاً در مشخصات رسمی آموزش دیده بودند فقط کمی بهتر از تازه کارها عمل کردند. با این حال، کارشناسان بدون در نظر گرفتن درست بودن یا نبودن پاسخ‌هایشان، اطمینان بسیار بیشتری به پاسخ‌های خود داشتند. در سراسر هیئت مدیره، مردم تمایل داشتند بیش از حد به صحت مشخصات ارائه شده در مقابل آنها اعتماد کنند، به این معنی که آنها مجموعه قوانینی را که اجازه شکست بازی را می دهد نادیده می گرفتند. محققان می گویند که این سوگیری تایید به ویژه برای اعتبار سنجی سیستم نگران کننده است، زیرا افراد به احتمال زیاد حالت های خرابی را نادیده می گیرند.

“ما فکر نمی کنیم که این نتیجه به این معنی باشد که باید مشخصات رسمی را به عنوان راهی برای توضیح رفتارهای سیستم به مردم کنار بگذاریم. اما ما فکر می کنیم که باید کار بسیار بیشتری در طراحی نحوه ارائه آنها به مردم و در داخل سیستم انجام شود. سیو می افزاید: گردش کاری که در آن مردم از آنها استفاده می کنند.

وقتی به بررسی اینکه چرا نتایج اینقدر ضعیف بود، سیو متوجه شد که حتی افرادی که روی روش‌های رسمی کار می‌کنند، برای بررسی مشخصات آن‌طور که آزمایش از آنها خواسته بود، کاملاً آموزش‌دیده نیستند. و فکر کردن به تمام نتایج ممکن مجموعه ای از قوانین دشوار است. با این حال، مجموعه قوانین نشان داده شده به شرکت کنندگان کوتاه بود، معادل بیش از یک پاراگراف متن، “بسیار کوتاه تر از هر چیزی که در هر سیستم واقعی با آن مواجه می شوید.”

این تیم تلاش نمی‌کند نتایج خود را مستقیماً با عملکرد انسان در اعتبارسنجی ربات در دنیای واقعی مرتبط کند. در عوض، آنها قصد دارند از نتایج به عنوان نقطه شروعی استفاده کنند تا در نظر بگیرند که جامعه منطق رسمی در هنگام ادعای تفسیرپذیری چه چیزهایی را از دست می دهد و چگونه چنین ادعاهایی ممکن است در دنیای واقعی اجرا شوند.

این تحقیق به عنوان بخشی از پروژه بزرگتر Siu انجام شد و هم تیمی هایش در حال کار بر روی بهبود روابط بین ربات ها و اپراتورهای انسانی، به ویژه آنهایی که در ارتش هستند، انجام شد. فرآیند برنامه نویسی رباتیک اغلب می تواند اپراتورها را از حلقه خارج کند. با هدف مشابه بهبود قابلیت تفسیر و اعتماد، این پروژه در تلاش است تا به اپراتورها اجازه دهد تا وظایف را مستقیماً به روبات‌ها آموزش دهند، به روش‌هایی که مشابه آموزش انسان است. چنین فرآیندی می تواند هم اعتماد اپراتور به ربات و هم سازگاری ربات را بهبود بخشد.

در نهایت، آنها امیدوارند که نتایج این مطالعه و تحقیقات در حال انجام آنها بتواند به کارگیری بهتر خودمختاری را بپردازد، زیرا در زندگی و تصمیم‌گیری انسان گنجانده می‌شود.

سیو می‌افزاید: «نتایج ما نیاز به ارزیابی‌های انسانی از سیستم‌ها و مفاهیم خاص استقلال و هوش مصنوعی را قبل از اینکه ادعاهای زیادی در مورد سودمندی آن‌ها برای انسان مطرح شود، نشان می‌دهد.»

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

code