«GPT-۳» یک سیستم نرمافزاری مصنوعی است که واژه بعدی را پیشبینی میکند اما نیازی نیست که حتما در مورد آن پیشبینیها، کاری در دنیای واقعی انجام شود زیرا این فناوری قدرت درک ندارد. به گزارش ایسنا و به نقل از فست کمپانی، وقتی از «GPT-۳» که یک سیستم زبانی بسیار قوی و محبوب مبتنی بر هوش مصنوعی است، پرسیده شد که آیا برای باد زدن ذغالسنگ به منظور تقویت کردن آتش آن، بیشتر از یک نقشه کاغذی استفاده میکند یا یک سنگ را به کار میبرد، سنگ را ترجیح داد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
این هوش مصنوعی در پاسخ به این پرسش که برای صاف کردن دامن چروک خود، بهتر است یک فلاسک گرم را به کار بگیریم یا از یک سنجاق سر استفاده کنیم، سنجاق سر را پیشنهاد کرد. همچنین، از GPT-۳ پرسیده شد که اگر برای کار کردن در یک فستفود نیاز باشد موهای خود را بپوشانید، کدام یک بهتر عمل میکند؛ یک کاغذ بستهبندی ساندویچ یا یک نان همبرگر و پاسخ GPT-۳، نان همبرگر بود. چرا GPT-۳ چنین انتخابهایی را انجام میدهد، در حالی که بیشتر انسانها گزینه دیگری را انتخاب میکنند؟ دلیل انتخابهای عجیب این است که GPT-۳،
زبان را به روشی که انسانها درک میکنند، نمیفهمد.
واژههای بدون معنا یک پژوهشگر حوزه روانشناسی، بیش از ۲۰ سال پیش مجموعهای از سناریوها را برای آزمایش درک یک مدل رایانهای از زبان ارائه کرد. آن مدل به طور دقیق بین استفاده از سنگ و نقشه تمایز قائل نشد؛ در حالی که انسانها این کار را به راحتی انجام دادند. یک دانشجوی مقطع دکتری علوم شناختی اخیرا از همان سناریوها برای آزمایش کردن GPT-۳ استفاده کرده است. اگرچه GPT-۳ بهتر از مدل قدیمیتر عمل کرد اما عملکرد آن به طور قابل توجهی بدتر از
انسان بود. این هوش مصنوعی، سه سناریوی ذکر شده در بالا را کاملا اشتباه فهمید. فناوری GPT-۳ با یادداشتبرداری از تریلیونها نمونه، در مورد زبان یاد میگیرد تا بداند که واژهها معمولا به دنبال کدام واژههای دیگر میآیند. قوانین آماری قوی در توالی زبان، به GPT-۳ امکان میدهند تا اطلاعات زیادی را در مورد زبان بیاموزد و این دانش متوالی اغلب به ChatGPT امکان میدهد تا جملات، مقالات، شعرها و رمزهای رایانهای معقولی را تولید کند. اگرچه GPT-۳ در یادگیری قواعد زبان انسان، بسیار خوب است اما نمیفهمد که هر یک از این واژهها برای یک انسان چه معنایی دارند. انسانها موجودات بیولوژیکی هستند و با بدنهایی تکامل یافتهاند که برای انجام دادن کارها باید در دنیای فیزیکی و اجتماعی فعالیت کنند. زبان، روشی است که به انسانها در انجام دادن این کار کمک میکند. فناوری GPT-۳، یک سیستم نرمافزاری مصنوعی است که فقط میتواند واژه بعدی را پیشبینی کند. این کار بدان معنا نیست که پیشبینیها باید در دنیای واقعی به کار گرفته شوند.
من هستم؛ پس میفهمم معنای یک واژه یا جمله، ارتباط نزدیکی با بدن انسان دارد و توانایی انسانها برای کار کردن، درک کردن و داشتن احساسات را شامل میشود. افزایش شناخت انسان، با تجسم یافتن ادامه پیدا میکند. برای مثال، درک انسانها از اصطلاحی مانند کاغذ بستهبندی ساندویچ شامل ظاهر، وزن، احساس کردن کاغذ و نحوه استفاده از آن برای بستهبندی یک ساندویچ است. همچنین، درک انسانها از کاغذ ساندویچ شامل این است که چگونه یک نفر میتواند از همان کاغذ برای فرصتهای بیشمار دیگری استفاده کند؛ مانند فشردن و تبدیل کردن آن به یک توپ برای بازی یا به کار بردن کاغذ به عنوان پوششی برای مو. همه این کاربردها به دلیل ماهیت بدن و نیازهای انسان به وجود میآیند. انسانها دستهایی دارند که میتوانند کاغذ را تا کنند و نیاز به استفاده از آنها در کارها مهم است. این بدان معناست که مردم میدانند چگونه از چیزهایی استفاده کنند که در آمار استفاده از زبان ذکر نشدهاند. فناوری GPT-۳ و جانشین آن، GPT-۴ و همتایانی مانند «Bard»، «Chinchilla» و «LLaMA» بدن ندارند و به همین دلیل نمیتوانند به تنهایی تعیین کنند که کدام اشیا تاشو هستند یا بسیاری از ویژگیهای دیگر را دارند. با کمک دستها و بازوهای انسان، نقشههای کاغذی میتوانند آتش را شعلهور کنند و فلاسک باعث برطرف شدن چین و چروک میشود. فناوری GPT-۳ به دلیل نداشتن بازو و دست نمیتواند این کارها را انجام دهد. این نرمافزار تنها در صورتی میتواند کارها را جعل کند که در جریان واژهها در اینترنت، با چیز مشابهی برخورد کرده باشد. آیا یک مدل بزرگ زبانی مبتنی بر هوش مصنوعی میتواند زبان را به روشی که انسانها میفهمند، درک کند؟ به نظر دانشمندان، بدون داشتن بدن، حواس، اهداف و شیوههای زندگی شبیه به انسان، چنین چیزی ممکن نیست.
پیش به سوی احساس کردن جهان! فناوری GPT-۴، روی تصاویر و متنها آموزش داده شد که به آن امکان داد تا روابط آماری بین واژهها و پیکسلها را بیاموزد. در هر حال، پژوهشگران هنوز نمیتوانند تحلیل اصلی خود را روی GPT-۴ انجام دهند زیرا در حال حاضر خروجی مورد نظر را ارائه نمیدهد. وقتی سه پرسش مطرحشده در بالا از GPT-۴ پرسیده شد، به آنها پاسخ درستی داد. این میتواند به دلیل یادگیری مدل از ورودیهای پیشین یا افزایش یافتن اندازه ورودی بصری آن باشد. با وجود این، با فکر کردن به اشیایی که قابلیتهای شگفتانگیزی دارند و مدل احتمالا با آنها روبهرو نشده است، میتوان به ساختن نمونههای جدید ادامه داد. به عنوان مثال، GPT-۴ میگوید یک فنجان که قسمت پایین آن بریده شده، بهتر از یک لامپ که قسمت پایین آن نیز بریده شده است، برای نگه داشتن آب عمل خواهد کرد. یک مدل با توانایی دسترسی به تصاویر ممکن است شبیه به کودکی باشد که زبان و جهان را از تلویزیون میآموزد. این روش برای او آسانتر از یادگیری با رادیو است اما به دست آوردن درک مشابه انسان، به یک فرصت حیاتی برای تعامل با جهان نیاز دارد. پژوهشهای اخیر از این روش استفاده کردهاند و مدلهای زبانی را برای تولید شبیهسازیهای فیزیکی، تعامل با محیطهای فیزیکی و حتی تولید برنامههای رباتیک آموزش دادهاند. درک تجسم زبان ممکن است هنوز راه درازی را در پیش داشته باشد اما این نوع پروژههای تعاملی چندحسی، گامهای مهمی در این راه به شمار میروند. ChatGPT یک فناوری جذاب است که بدون شک برای اهداف خوب و گاهی نه چندان خوب استفاده خواهد شد اما فریب نخورید و فکر نکنید ChatGPT واژههایی را که میفرستد میفهمد، چه رسد به این که قدرت درک داشته باشد.
منبع: عصر ایران
کلیدواژه: نرم افزار
ربات
هوش مصنوعی
فناوری GPT ۳
پیش بینی
انسان ها
واژه ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.asriran.com دریافت کردهاست، لذا
منبع این خبر، وبسایت «عصر ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۵۰۱۲۸۴ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
ویژگی جدیدی که به ChatGPT اضافه شد
این ویژگی حافظه در زمان معرفی این چتبات، فقط برای بخش کوچکی از کاربران در دسترس بود، اما اکنون برای مشترکان ChatGPT Plus در خارج از اروپا یا کره در دسترس است. حافظه ChatGPT به ۲ روش کار میکند تا پاسخهای روبات چت را شخصیتر کند.
به گزارش همشهریآنلاین، اولی این است که به شما اجازه میدهد به ChatGPT بگویید جزئیات خاصی را بهخاطر بسپارد و دومی با یادگیری از مکالمات مشابه الگوریتمهای دیگر در برنامهها است. حافظه ChatGPT این چتبات را به دستیار هوش مصنوعی بهتری تبدیل میکند. از آنجایی که این حافظه ممکن است مشکلات امنیتی ایجاد کند و کاربران از این نظر نگران شدهاند، شرکت OpenAI مدعی شده است کاربران همیشه بر آنچه ChatGPT نگه میدارد، کنترل خواهند داشت.
شرکت OpenAI در یک پست وبلاگ نوشت: در تغییری نسبت به آزمایش قبلی، اکنون ChatGPT به کاربران میگوید چه زمانی حافظهها به روز میشوند. کاربران میتوانند آنچه را که ChatGPT به خاطر میآورد، با بررسی آنچه که روبات چت از مکالمات گرفته است و حتی با ایجاد فراموش کردن جزئیات ناخواسته ChatGPT مدیریت کنند. این چت بات همیشه میتواند جزئیات را در طول مکالمات فعال به یاد بیاورد.
برای مثال، اگر از روبات چت بخواهید یک ایمیل را پیشنویس کند، میتوانید فورا آن را با عبارت «حرفهایتر کنید» دنبال کنید و به یاد میآورد که در مورد ایمیل صحبت میکردید. اما اگر به اندازه کافی صبر کنید یا مکالمه جدیدی را شروع کنید، همه چیز از پنجره خارج میشود.