خطرهای chatgpt
خطرهای chatGPT و رقبایش به تازگی تبدیل به دغدغهی اصلی دانشمندان حوزهی کامپیوتر شده. حتما شما هم میدونید Chatgpt چیست و چرا ناگهان انقدر مشهور شد. چت جی پی تی یک ربات هوشمند برای درک متن و تبدیل اون به گفتار هست. در واقع شما میتونید از طریق محتوای متنی با این ربات یک گفتگوی هوشمندانه داشته باشید. جالبی ماجرا اونجاست که ربات با کمک دانش زیادی که در سطح وب جمع کرده، میتونه جوابهای دقیق و پیچیدهای به شما بده.
اما در کنار این سطح از هوشمندی نمیشه از خطر های chatgpt برای نسل انسان چشم پوشید. خیلی از محققان حوزهی کامپیوتر این ربات و سایر رباتهای هوش مصنوعی را یک فاجعه میدونند و مدعی شدند که خطرهای چت جی پی تی و نمونههای مشابهاش در هوش مصنوعی میتونه جامعهی انسانی را در معرض خطر قرار بده. تا جایی که ایلان ماسک هم دربارهی خطر چتgpt و هوش مصنوعی ابزار نگرانی کرده.
چرا chatgpt باعث نگرانی دانشمندان شده است؟
اینکه خطر هوش مصنوعی chatgpt چی بوده و چرا دانشمندان از این ابزار ترسیدند، دلایل متعددی داره. این ابزار از ماه نوامبر 2022 به شکل رایگان در اختیار تمامی افرادی که هیچ تخصصی ندارند قرار گرفته. در حال حاضر میلیونها نفر از chatgpt استفاده میکنند که نتیجهی این کار شده انفجاری از آزمایشهای علمی، سرگرم کننده و گاهی ترسناک. قسمت بدتر داستان اینه که chatgpt الان در مرحلهی یادگیری هست و این تست رایگان هم با همین هدف اجرایی شده. در واقع یک شخص میتونه خیلی راحت دستوراتی پیشرفتهتر و تخصصی از دستورات سیری یا هر دستیار صوتی دیگهای را برای chatgpt تایپ کنه و جوابهای دقیق و درستی بگیره.
از طرف دیگه chatgpt میتونه مقالات دانشجویی ارائه بده، مقالات تحقیقاتی را خلاصه کنه، به هر سوالی پاسخ بده، امتحانات پزشکی را پشت سر بگذاره و حتی کدهای کامپیوتری مفید تولید کنه. در واقع یکی از خطرهای chatgpt اینه که داره به جای انسان فعالیتهای علمی انجام میده و کسی هم نمیتونه متوجه این قضیه بشه.
راهکاری که openAI شرکت سازندهی chatgpt برای حل مشکل ایجاد ابزارها و تحقیقات مخرب با کمک این هوش مصنوعی ارائه کرد، ریلهای محافظ بودند. اما جدیدا کاربران راهکارهایی هم برای دور زدن این محافظها پیدا کردهاند. البته این مشکلات فقط مختص به چتgpt نیست و هر هوش مصنوعی که اخیرا با این هدف طراحی شده، میتونه پتانسیل ایجاد مشکل برای انسانها را داشته باشه. مثلا Bard هوش مصنوعی گوگل، از تمامی اطلاعاتی که گوگل از سطح وب جمعآوری میکنه، استفاده میکنه و به دادههای زیادی دسترسی داره. این دسترسی بیش از حد میتونه در آینده مشکلساز بشه.
مشکلات و خطرهای chatGPT چیست؟
حتما تا الان حدودا متوجه خطر هوش مصنوعی chatGPT و امثال اون شدید. از اونجایی که در اینترنت مرز بین درست و غلط خیلی ناپایدار و مبهمه، chatGPT خیلی راحت میتونه دچار خطا بشه. با در نظر گرفتن این نکته که این هوش مصنوعی قراره آینده ما را تغییر بده، این نکته میتونه برای هر کسی نگرانکننده باشه. استفاده از chatGPT نیاز به تخصص داره و شخص باید بتونه جوابهای درست و غلط را از هم تشخیص بده؛ چیزی که خود chatGPT فعلا نمیتونه تشخیص بده!
اما ببینیم مشکلات ربات chatGPT به چه شکل هستند که اونو با چالش روبرو کرده:
- چت جی پی تی جوابهای غلط تولید میکنه. این ربات بارها میتونه حقایق غیرواقعی نمایش بده و توهم واقعیت و تخیل ایجاد کنه. یعنی پاسخهای اشتباه یا بیمعنی را به شکل درستی بیان میکنه و کسی متوجه خطای اون نمیشه.
- این ربات توسط یک جامعهی خاص نوشته شده و خب طبیعتا سوگیریهای اونا در دنیای واقعی را دنبال میکنه. در واقع دادههایی که به chatGPT داده شده، به نوعی انتخابی هستند؛ اگرچه در آینده قراره با آموزشهای بیشتر از طرف کاربران، گستردهتر بشه.
- چت جی پی تی میتونه شغل انسانها را ازشون بگیره. این فناوری به تازگی پشت یکسری برنامههای تجاری نشسته و ممکنه یکسری مشاغل مثل آموزش زبان، برنامه نویسی، تحقیق و توسعه و… را از میان ببره. پیشبینی میشه که chatGPT ممکنه به طور کلی شیوههای یادگیری و آموزش را به طور کلی تغییر بده.
- Chatgpt تکالیف بچهها را انجام میده. به ظاهر شاید این موضوع جذاب باشه ولی با این اتفاق روند یادگیری بچهها مختل شده و حتی قدرت فکر کردن از اونا گرفته بشه. حتی ممکنه با گسترش کاربرد chatGPT، خطرات چت جی پی تی بیشتر بشه و دانش آموزان حتی در یادگیری مهارت نوشتاری هم به مشکل بخورند.
- این هوش مصنوعی برای دنیای واقعی خطرناک است. انتشار اطلاعات غلط به شکل واقعی، جعل هویت و سواستفاده از افراد، ساخت دادههای اشتباه در حوزههای مختلف مثل پزشکی همگی میتونه در آینده مشکل جدی برای انسانها ایجاد کنه.
- قدرت به دست صاحبان هوش مصنوعی خواهد افتاد. در حال حاضر OpenAI آموزش چت جی پی تی را انجام میدهد و ما نمیدانیم چه دادههایی در این ربات به کار رفته یا معماری سیستم آن چه شکلی است. به طور خلاصه اعتماد کورکورانه به یک شرکت و قدم گذاشتن در مسیر اهداف و استانداردهای آن شاید کار عاقلانهای نباشد.
ایلان ماسک: chatgpt خطرناک است!
پس از اینکه خطرهای هوش مصنوعی chatGPT و هر نوع هوش مصنوعی دیگری کم کم خودشان را نشان دادند؛ ایلان ماسک مدیر توئیتر، این فناوریها را خطرناک و نگرانکننده عنوان کرد. این غول دنیای فناوری در نشستی توسعهی بیبند و بار هوش مصنوعی را یک تهدید بالقوه برای بشریت دونست. ماسک از دولتها خواست تا حفاظهای ایمنی شفافی برای فناوریهای هوش مصنوعی ایجاد کنند. حرفهای ایلان ماسک درباره خطرات چت جی پی تی:
” یکی از بزرگترین خطرات برای آیندهی تمدن بشری، هوش مصنوعی است. اگرچه هوش مصنوعی جنبههای مثبتی داره و این نوید بزرگی است؛ اما، خطرات بزرگتری نیز همراه خواهد داشت. مثلا به کشف فیزیک هستهای نگاه کنید. این کشف هم به تولید برق هستهای منجر شد و هم تولید بمب هستهای.”
این اظهارات ماسک زمانی مطرح شد که منتقدان سوالاتی دربارهی مشکلات chatGPT و پاسخهای غلطش از اون پرسیدید و نظرش را دربارهی این فناوری جویا شدند. همچنین ماسک تاکید کرد که دیگه سهامی در شرکت OpenAI نداره و هیچ دخالتی در پروژههی این شرکت نمیکنه. اون گفت که زمانی که همراه شریک سابق پی پالاش یعنی پیتر تیل در اونجا سرمایهگذار اولیه بود، هیئت مدیره OpenAI را ترک کرده است.
جدال بیل گیتس و ایلان ماسک بر سر chatgpt
این اظهارات ایلان ماسک درباره خطرهای هوش مصنوعی chatGPT، واکنش بیل گیتس را در برداشت. بعد از اینکه ماسک در جریان رویداد روز سرمایهگذار گفت که “هوش مصنوعی به من استرس وارد میکنه و میترسم در روند توسعهی آن نقشی داشته باشم.” بیل گیتس بنیانگذار مایکروسافت در یک پادکست درباره این فناوری گفت که “هوش مصنوعی بسیار خوب است و هیچ تهدیدی وجود ندارد.”
پس از اینکه بیل گیتس از هوش مصنوعی chatGPT حمایت کرد، ایلان ماسک در توئیتی عنوان کرد:
“دیدارهای اولیهام با گیتس را به یاد دارم. درک او از هوش مصنوعی محدود بود و هنوز هم هست.”
ماسک این توئیت را در پاسخ به پست یکی از کاربران توئیتر دربارهی مشارکت گیتس در OpenAI و نگرش صعودی کلی او نسبت به هوش مصنوعی ارسال کرد. این توئیت پس از اینکه گیتس دربارهی تحول نیروی کار، مراقبتهای بهداشتی و آموزش توسط هوش مصنوعی نوشته بود، منتشر شد.
اختلاف نظرات ماسک و گیتس فقط مربوط به خطرهای هوش مصنوعی chatGPT نبوده و این دو نفر در سال 2020 نیز بر سر شدت همهگیری ویروس کووید 19 مشاجره داشتند. البته نگرش این دو چهره برجسته درباره هوش مصنوعی هم مربوط به ربات chatGPT نیست و از گذشته مطرح بوده است. ماسک در سال 2015 به ایجاد شرکت OpenAI کمک کرد؛ اما، سال گذشته در میان دانشجویانMIT گفت باید مراقب هوش مصنوعی باشیم چون ممکن است بزرگترین تهدید برای ما باشد.
ماسک در سال 2018، پس از اینکه بنیانگذاران OpenAI پیشنهاد او برای ادارهی این شرکت به تنهایی را رد کردند، OpenAI را ترک کرد و از آن زمان منتقد این شرکت بوده است. اما بیل گیتس استقبال زیادی از این تکنولوژی داشته و یک بیلیون دلار در این شرکت سرمایهگذاری کرده. از ماه نوامبر مایکروسافت نسخهی بینگ مبتنی بر chatgpt را ارائه کرد.
چه کسانی با هوش مصنوعی مخالفند ؟
در اواخر ماه مارس 2023، اندکی بعد از ارائهی ربات chatgpt نامهی سرگشادهای توسط ایلان ماسک مدیرعامل تسلا، استیو وزنیاک بنیانگذار اپل و بسیاری محققان دیگر توسط موسسهی Future of Life منتشر شد. این نامه که بیش از 13500 امضا داشت، خواستار توقف شش ماههی کار بر روی سیستمهای هوش مصنوعی بود که میتوانند در سطح انسانی هوشمند باشند. در طی این نامه دربارهی عواقب منفی عدم کنترل هوش مصنوعی هشدار داده شده بود از نادرست گرفته تا واگذاری مشاغل انسانی به رباتها. در این بیانیه از مسابقه خطرناکی که برای توسعهی برنامههایی مثل ChatGPT OpenAI، چت ربات هوش مصنوعی مایکروسافت Bing و Alphabet’s Bard به راه افتاده ابزار نگرانی شده بود.
در ادامه گیتس یکی از بزرگترین سرشناسان این حوزه، از مواضع خود کمی عقبنشینی کرد و به رویترز گفت: ” فکر نمیکنم درخواست از یک گروه خاص برای توقف، چالشها را حل کند.”
گیتس اضافه کرد اجرای توقف در یک صنعت جهانی دشوار است؛ اگرچه او موافق بود که این صنعت به تحقیقات بیشتری برای حل مشکلات و خطرهای هوش مصنوعی chatgpt و سایر رباتهای ارائه شده دارد.
اما این جدال فقط میان صاحبان فناوری نبوده است و دولتها را نیز نگران کرده است. ایتالیا پس از مشخص شدن خطرهای هوش مصنوعی chatgpt، این ربات را به دلیل مسائل نقض حریم خصوصی، به طور موقت تحریم کرده است. دولت بریتانیا نیز یکسری توصیههای مقرراتی منتشر کرد و سازمان مصرفکنندهی اروپا از قانونگذاران سراسر اروپا خواست تا این قوانین را افزایش دهند. از طرف دیگر در ایالات متحده نیز برخی از اعضای کنگره خواستار تنظیم قوانین جدید برای هوش مصنوعی شدهاند.
حرف آخر
خطرهای هوش مصنوعی chatgpt و سایر رباتهای هوشمند عرضه شده، به یک چالش بزرگ تبدیل شده است. ترس از اینکه آنچه پیش از این در فیلمهای تخیلی و انیمیشنها از کنترل دنیا به دست رباتها نشان داده میشد، کمکم به واقعیت بپیوندد. افراد سرشناسی مثل ماسک به صورت جدی دربارهی این فناوریها و عدم کنترل آن ابزار نگرانی کردهاند و دربارهی عواقب آن هشدار دادند. مشکلی که وجود دارد این است که سیستمهای هوش مصنوعی اغلب با تعصبات برنامهنویسی و مشکلات بالقوه حریم خصوصی همراهاند. ضمن اینکه میتوانند به طور گسترده اطلاعات نادرست منتشر کنند.
اما مشکلی که وجود دارد این است که هنوز هیچ راهکار عملی و ممکنی برای رفع مشکل خطرهای هوش مصنوعی chatgpt ارائه نشده. این در حالیه که شرکتهای توسعه دهندهی هوش مصنوعی مثل OpenAI و گوگل و حتی برخی شرکتهای چینی، وارد یک میدان رقابت شدید شده و با سرعت زیادی به سمت هوشمندتر کردن فناوریهای خود میروند. هنوز هیچ کس نمیداند در آینده چه اتفاقاتی خواهد افتاد و این فناوری به چه شکل رشد میکند. اما به گفتهی ایلان ماسک هوش مصنوعی میتواند از بمب هستهای برای آیندهی بشریت خطرناکتر باشد.
سوالات متداول
از مهمترین همتایان chatgpt میتوان به موارد زیر اشاره کرد:
• مدل زبانی جدید آمازون
• گوگل بارد
• یوچت
• مایکروسافت بینگ
• دیپ مایند اسپارو
نسخهی اولیهی chatgpt از مدل زبانی GPT3.5 استفاده میکرد که صرفا قابلیت درک متن را داشت. اما جدیدا نسخهی GPT4 نیز عرضه شده که علاوه بر متن، میتواند تصاویر را نیز درک کرده و تصاویر جدیدی خلق کند.