[ad_1]
OpenAI ده ها میلیارد دلار برای توسعه فناوری های هوش مصنوعی در حال تغییر جهان جمع آوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت هنوز در یافتن نحوه عملکرد فناوری خود مشکل دارد.
در حین اجلاس جهانی در AI for Good که هفته گذشته توسط اتحادیه بینالمللی مخابرات در ژنو، سوئیس برگزار شد، سام آلتمن، مدیر عامل OpenAI، وقتی در مورد عملکرد واقعی مدلهای زبان بزرگ شرکتش (LLM) پرسیده شد، نتوانست پاسخ خوبی بدهد.
چالش های محققان در تبیین فرآیندهای هوش مصنوعی
آلتمن به نقل از Observer گفت: «ما قطعاً مشکل تفسیرپذیری را حل نکرده ایم. برای رسیدن به آنجا پاسخ داد.
وقتی نیکلاس تامپسون، مدیرعامل آتلانتیک، او را در این مراسم تحت فشار قرار داد و از او پرسید که آیا این ممکن است «دلیلی برای عقبنشینی از مدلهای جدید و قدرتمندتر باشد»، آلتمن گیج به نظر میرسد و با بیانی بیتفاوت پاسخ میدهد که هوش مصنوعی مدلها «به طور کلی ایمن و بیخطر در نظر گرفته میشود. صدا.”
پاسخ ناامید کننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته می کند. محققان مدتهاست که برای توضیح فرآیندهای مدلهای هوش مصنوعی آزاداندیش که تقریباً به شکلی جادویی و بدون زحمت به هر سؤالی که از آنها پرسیده میشود پاسخ میدهند، تلاش کردهاند.
اما سعی کنید، ردیابی خروجی به مواد اولیه ای که هوش مصنوعی روی آن آموزش دیده بود، بسیار دشوار بود. OpenAI، علیرغم نام و سابقه این شرکت، همچنین داده هایی را که هوش مصنوعی خود را بر روی آنها آموزش می دهد کاملاً محرمانه نگه داشته است.
گروهی متشکل از 75 متخصص اخیراً در گزارشی علمی به سفارش دولت بریتانیا به این نتیجه رسیدند که توسعهدهندگان هوش مصنوعی «در مورد نحوه عملکرد سیستمهایشان اطلاعات کمی دارند» و دانش علمی «بسیار محدود» است.
در این گزارش آمده است: «تکنیکهای تفسیر و توضیح مدل میتوانند درک محققان و توسعهدهندگان از نحوه عملکرد سیستمهای هوش مصنوعی عمومی را بهبود بخشند، اما این تحقیق هنوز در مراحل اولیه است.»
سایر شرکتهای هوش مصنوعی در تلاش هستند تا با نقشهبرداری از نورونهای مصنوعی الگوریتمهای خود، راههای جدیدی برای «باز کردن جعبه سیاه» بیابند. به عنوان مثال، رقیب OpenAI Anthropic اخیراً نگاه دقیقتری به ساختار داخلی یکی از جدیدترین مدلهای LLM خود، Claude Sonnet انداخته است.
[ad_2]