چرا ChatGPT چیزی را که می گوید، نمی فهمد؟

چرا ChatGPT چیزی را که می گوید، نمی فهمد؟ دیجیتالر: 3» یک سیستم نرم افزاری مصنوعی است که واژه بعدی را پیش بینی می کند اما نیازی نیست که حتما در مورد آن پیش بینی ها، کاری در دنیای واقعی صورت گیرد برای اینکه این فناوری قدرت درک ندارد.


به گزارش دیجیتالر به نقل از ایسنا و به نقل از فست کمپانی، وقتی از «GPT-۳» که یک سیستم زبانی بسیار قوی و محبوب مبتنی بر هوش مصنوعی است، پرسیده شد که آیا برای باد زدن ذغال سنگ بمنظور تقویت کردن آتش آن، بیش از یک نقشه کاغذی استفاده می نماید یا یک سنگ را به کار می برد، سنگ را ترجیح داد.
این هوش مصنوعی در پاسخ به این پرسش که برای صاف کردن دامن چروک خود، بهتر است یک فلاسک گرم را به کار بگیریم یا از یک سنجاق سر استفاده نمائیم، سنجاق سر را پیشنهاد کرد.
همچنین، از GPT-۳ پرسیده شد که اگر برای کار کردن در یک فست فود نیاز باشد موهای خودرا بپوشانید، کدام یک بهتر عمل می کند؛ یک کاغذ بسته بندی ساندویچ یا یک نان همبرگر و پاسخ GPT-۳، نان همبرگر بود.
چرا GPT-۳ چنین انتخاب هایی را انجام می دهد، در صورتیکه بیشتر انسان ها گزینه دیگری را انتخاب می کنند؟ دلیل انتخاب های عجیب این است که GPT-۳، زبان را به روشی که انسان ها درک می کنند، نمی فهمد.

واژه های بدون معنا
یک پژوهشگر حوزه روانشناسی، بیش از ۲۰ سال پیش مجموعه ای از سناریوها را برای آزمایش درک یک مدل کامپیوتری از زبان ارائه نمود. آن مدل بطور دقیق بین استفاده از سنگ و نقشه تمایز قائل نشد؛ در صورتیکه انسان ها این کار را به آسانی انجام دادند.
یک دانشجوی مقطع دکتری علوم شناختی بتازگی از همان سناریوها برای آزمایش کردن GPT-۳ بهره برده است. بااینکه GPT-۳ بهتر از مدل قدیمی تر عمل کرد اما عملکرد آن بطور قابل توجهی بدتر از انسان بود. این هوش مصنوعی، سه سناریوی ذکر شده در بالا را کاملا اشتباه فهمید.
فناوری GPT-۳ با یادداشت برداری از تریلیون ها نمونه، در مورد زبان یاد می گیرد تا بداند که واژه ها بطور معمول بدنبال کدام واژه های دیگر می آیند. قوانین آماری قوی در توالی زبان، به GPT-۳ امکان می دهند تا اطلاعات زیادی را در مورد زبان بیاموزد و این دانش متوالی اغلب به ChatGPT امکان می دهد تا جملات، مقالات، شعرها و رمزهای کامپیوتری معقولی را تولید نماید.
بااینکه GPT-۳ در یادگیری قواعد زبان انسان، بسیار عالی است اما نمی فهمد که هر یک از این واژه ها برای یک انسان چه معنایی دارند.
انسان ها موجودات بیولوژیکی هستند و با بدن هایی تکامل یافته اند که برای انجام دادن کارها باید در دنیای فیزیکی و اجتماعی فعالیت کنند. زبان، روشی است که به انسان ها در انجام دادن این کار کمک می نماید. فناوری GPT-۳، یک سیستم نرم افزاری مصنوعی است که فقط می تواند واژه بعدی را پیش بینی نماید. این کار بدان معنا نیست که پیش بینی ها باید در دنیای واقعی به کار گرفته شوند.

من هستم؛ پس می فهمم
معنای یک واژه یا جمله، ارتباط نزدیکی با بدن انسان دارد و توانایی انسان ها برای کار کردن، درک کردن و داشتن احساسات را شامل می شود. افزایش شناخت انسان، با تجسم یافتن ادامه پیدا می کند. برای مثال، درک انسان ها از اصطلاحی مانند کاغذ بسته بندی ساندویچ شامل ظاهر، وزن، احساس کردن کاغذ و روش استفاده از آن برای بسته بندی یک ساندویچ است. همچنین، درک انسان ها از کاغذ ساندویچ شامل این است که چگونه یک نفر می تواند از همان کاغذ برای فرصت های بی شمار دیگری استفاده کند؛ مانند فشردن و تبدیل کردن آن به یک توپ برای بازی یا به کار بردن کاغذ به عنوان پوششی برای مو.
همه این کاربردها به سبب ماهیت بدن و نیازهای انسان به وجود می آیند. انسان ها دست هایی دارند که می توانند کاغذ را تا کنند و نیاز به استفاده از آنها در کارها مهم می باشد. این بدان معناست که مردم می دانند چگونه از چیزهایی بهره گیرند که در آمار استفاده از زبان ذکر نشده اند.
فناوری GPT-۳ و جانشین آن، GPT-۴ و همتایانی مانند «Bard»، «Chinchilla» و «LLaMA» بدن ندارند و بنا بر این نمی توانند به تنهایی تعیین کنند که کدام اشیا تاشو هستند یا خیلی از خاصیت های دیگر را دارند. با کمک دست ها و بازوهای انسان، نقشه های کاغذی می توانند آتش را شعله ور کنند و فلاسک موجب برطرف شدن چین و چروک می شود.
فناوری GPT-۳ به سبب نداشتن بازو و دست نمی تواند این کارها را انجام دهد. این نرم افزار تنها در صورتی می تواند کارها را جعل کند که در جریان واژه ها در اینترنت، با چیز مشابهی برخورد کرده باشد.
آیا یک مدل بزرگ زبانی مبتنی بر هوش مصنوعی می تواند زبان را به روشی که انسان ها می فهمند، درک کند؟ به نظر دانشمندان، بدون داشتن بدن، حواس، اهداف و شیوه های زندگی شبیه به انسان، چنین چیزی ممکن نیست.



پیش به سمت احساس کردن جهان!
فناوری GPT-۴، روی تصاویر و متن ها آموزش داده شد که به آن امکان داد تا روابط آماری بین واژه ها و پیکسل ها را بیاموزد. در هر حال، پژوهشگران هنوز نمی توانند تحلیل اصلی خودرا روی GPT-۴ انجام دهند برای اینکه هم اکنون خروجی مورد نظر را ارائه نمی دهد. وقتی سه پرسش مطرح شده در بالا از GPT-۴ پرسیده شد، به آنها پاسخ درستی داد. این می تواند به سبب یادگیری مدل از ورودی های پیشین یا افزایش یافتن اندازه ورودی بصری آن باشد.
با این وجود، با فکر کردن به اشیایی که قابلیت های شگفت انگیزی دارند و مدل احتمالاً با آنها روبه رو نشده است، می توان به ساختن نمونه های جدید ادامه داد. به عنوان مثال، GPT-۴ می گوید یک فنجان که قسمت پایین آن بریده شده، بهتر از یک لامپ که قسمت پایین آن نیز بریده شده است، برای نگه داشتن آب عمل خواهدنمود.
یک مدل با توانایی دسترسی به تصاویر ممکنست شبیه به کودکی باشد که زبان و جهان را از تلویزیون می آموزد. این روش برای او آسان تر از یادگیری با رادیو است اما به دست آوردن درک مشابه انسان، به یک فرصت حیاتی برای تعامل با جهان نیاز دارد.
پژوهش های اخیر از این روش بهره برده اند و مدلهای زبانی را برای تولید شبیه سازی های فیزیکی، تعامل با محیط های فیزیکی و حتی تولید برنامه های رباتیک آموزش داده اند. درک تجسم زبان ممکنست هنوز راه درازی را در پیش داشته باشد اما این نوع پروژه های تعاملی چندحسی، قدمهای مهمی در این راه به شمار می روند.
ChatGPT یک فناوری جذاب است که بدون شک برای اهداف خوب و گاهی نه چندان خوب استفاده خواهد شد اما فریب نخورید و فکر نکنید ChatGPT واژه هایی را که می فرستد می فهمد، چه رسد به اینکه قدرت درک داشته باشد.



1402/01/21
21:12:45
5.0 / 5
364
تگهای خبر: آموزش , اینترنت , بازی , تولید
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۲ بعلاوه ۵
دیجیتالر
digitaler.ir - حقوق مادی و معنوی سایت دیجیتالر محفوظ است

دیجیتالر

معرفی محصولات دیجیتال و فناوری اطلاعات