۵۰۰ فناور برتر خواستار توقف فوری سیستمهای هوش مصنوعی پیشرفته شدند
تاریخ انتشار: ۱۰ فروردین ۱۴۰۲ | کد خبر: ۳۷۴۲۰۶۳۷
ائتلاف گستردهای متشکل از بیش از ۵۰۰ فناور، مهندس و متخصص اخلاق هوش مصنوعی نامهای سرگشاده را امضا کردهاند که در آن از آزمایشگاههای هوش مصنوعی خواسته شده است تا فورا تمام آموزشهای مربوط به سیستمهای هوش مصنوعی قدرتمندتر از GPT-۴ را که اخیرا منتشر شده از Open AI به مدت حداقل شش ماه متوقف کنند.
امضاکنندگان که شامل استیو وزنیاک، یکی از بنیانگذاران اپل و ایلان ماسک، توسعهدهنده هوش مصنوعی است، هشدار میدهند که این مدلهای پیشرفته هوش مصنوعی میتوانند «خطرات عمیقی برای جامعه و بشریت» داشته باشند، اگر اجازه پیشرفت بدون پادمانهای کافی داشته باشند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
در این نامه آمده است که اگر شرکتها از توقف توسعه امتناع کنند، دولتها باید سلاحهای بزرگ را برداشته و یک تعلیق اجباری وضع کنند.
همچنین در این نامه ذکر شده است: هوش مصنوعی پیشرفته میتواند نشاندهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامهریزی و مدیریت شود. متاسفانه این سطح از برنامهریزی و مدیریت اتفاق نمیافتد، حتی اگر در ماههای اخیر آزمایشگاههای هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر متمرکز شده باشند که هیچکس حتی سازندگان آنها نمیتوانند آن را درک کنند؛ بنابراین پیشگیری و و کنترل الزامی است.
این نامه توسط موسسه آینده زندگی منتشر شد، سازمانی که خود را تحت عنوان یک مرکز متمرکز بر هدایت فناوریها از خطرات بزرگ مقیاس برای بشریت توصیف میکند. این گروههای خطر اولیه شامل هوش مصنوعی، بیوتکنولوژی، سلاحهای هستهای و تغییرات آب و هوایی است. نگرانیهای این گروه در مورد سیستمهای هوش مصنوعی بر این فرض استوار است که این سیستمها اکنون در حال تبدیل شدن به رقابت برای انسان در وظایف عمومی هستند. نامه استدلال میکند که این سطح از پیچیدگی میتواند به آیندهای نزدیک منجر شود که در آن بازیگران بد از هوش مصنوعی برای پر کردن اینترنت با تبلیغات استفاده میکنند، مشاغلی را که زمانی ثابت مانده بودند، بیهوده میسازند، و «ذهن غیرانسانی» را توسعه میدهند که میتواند جایگزین انسان شود.
در این نامه همچنین استدلال میشود که سیستمهای هوش مصنوعی نوظهور در حال حاضر فاقد پادمانها یا کنترلهایی هستند که فراتر از شک معقول ایمن هستند. برای حل این مشکل این نامه میگوید آزمایشگاههای هوش مصنوعی باید متوقف و تعلیق شوند تا دولتها مجموعهای از پروتکلهای ایمنی مشترک را پیادهسازی و توافق کنند و اطمینان حاصل کنند که سیستمها توسط یک بررسی مستقل از کارشناسان خارجی ممیزی میشوند.
یکی از امضاکنندگان برجسته در این باره گفت که جزئیات این بررسی که در عمل واقعا چگونه به نظر میرسد، هنوز «بسیار مورد بحث است». توقف و پادمانهای اضافهشده بهخصوص برای همه توسعههای هوش مصنوعی اعمال نمیشود، اما روی «مدلهای جعبه سیاه با قابلیتهای نوظهور» تمرکز خواهد کرد که قدرتمندتر از GPT ۴ Open AI است. مهمتر از همه این شامل GPT ۵ در حال توسعه Open AI است.
در این نامه آمده است: «تحقیق و توسعه هوش مصنوعی باید روی ساختن سیستمهای قدرتمند و پیشرفته امروزی دقیقتر، ایمنتر، قابل تفسیرتر، شفافتر، قویتر، همسوتر، قابل اعتمادتر و وفادارتر باشد».
بدبینان هوش مصنوعی هشدار میدهند
استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی و یکی از نویسندگان کتاب هوش مصنوعی در این باره گفت: نگرانیها در مورد تهدیدات علیه دموکراسی و اطلاعات نادرست تسلیحاتی در حال حاضر در مورد GPT-۴، Google's Bard و سایر مدلهای زبان بزرگ موجود است.
به گفته او، کابوسهای مربوط به هوش مصنوعی، کابوسهایی هستند که میتوانند از نسل بعدی ابزارها بیرون بیایند.
مهمترین نگرانی ناشی از رقابتی است که به نظر میرسد بین شرکتهای فناوری وجود دارد، شرکتهایی که میگویند بدون توجه به خطر، توسعه سیستمهای قدرتمندتر و بیشتر را متوقف نخواهند کرد؛ به عبارتی دقیقتر خطری که آنها در اینجا به آن اشاره میکنند، از دست دادن کنترل انسان بر جهان و آینده خودمان است، همان طور که گوریلها به خاطر انسانها کنترل خود را بر آینده خود از دست دادهاند.
راسل ادعا میکند که نه ما و نه خود سازندگان ابزارهای هوش مصنوعی هیچ ایدهای نداریم که واقعا این هشدار و پیشنهاد چقدر موثر است، اگرچه سایر محققان برجسته هوش مصنوعی این توصیف را رد کردهاند، راسل میگوید که این مدلها اساسا یک لوح خالی از یک تریلیون پارامتر هستند. این تنها چیزی است که میدانیم؛ به عنوان مثال ما نمیدانیم که آیا آنها اهداف داخلی خود و توانایی پیگیری آنها را از طریق برنامه ریزی گسترده توسعه دادهاند یا خیر.
راسل به مقاله تحقیقاتی اخیر محققان مایکروسافت اشاره کرد که ادعا میکرد GPT-۴ اخیرا منتشر شده توسط هوش مصنوعی Open نشان دهنده جرقههایی از هوش مصنوعی عمومی است.
کارشناسان نگرانیهای خود را در مورد سوءاستفاده احتمالی از هوش مصنوعی ابراز داشتند، اما از تلاشهای رایج برای مقایسه سیستمهای هوش مصنوعی با هوش انسانی رد شدند.
آنها خاطرنشان کردند که صحبت در مورد هوش عمومی مصنوعی میتواند معکوس باشد. ChatGPT OpenAI که توانست کلاسهای مدرسه بازرگانی و یک آزمون بزرگ مجوز پزشکی را بگذراند، به طور همزمان با محاسبات اولیه دست و پنجه نرم میکند.
سارا مایرز وست، مدیر عامل موسسه AI Now معتقد است بسیاری از افراد نگران قابلیتهای هوش مصنوعی هستند، بنابراین اگر بخواهیم این سیستمها پاسخگوی آنان باشند، باید بازیگران اصلی درگیر را تنظیم کنیم، اما نکته کلیدی برای درک Chat GPT و دیگر مدلهای زبان بزرگ مشابه اینجاست: آنها به هیچ وجه عمق درک زبان انسان را منعکس نمیکنند، آنها تنها شکل آن را تقلید میکنند.
اگرچه مایرز در مورد سوء استفاده از هوش مصنوعی نگرانی مشترکی دارد، اما نگران است که قطار تبلیغاتی فعلی این فناوری و اغراق بیش از حد تواناییهای آن، توجه را از نگرانیهای مبرمتر منحرف کند.
چندین محقق هوش مصنوعی با ابراز نگرانی واقعی درباره فقدان قوانین یا مقررات معنادار در این زمینه به ویژه با توجه به اتکای این فناوری به بخشهای گستردهای از دادهها و سرعت سرسام آور آن، صحبت کردند. مدلهای زبان بزرگ برجسته مانند GPT-۴ در حال حاضر فاقد شفافیت معنادار در مورد انواع دادههای آموزشی هستند که برای توسعه مدلهای خود استفاده میکنند. تعصبات مربوط به جنسیت و نژاد که قبلا به طور گسترده در مدلهای نهچندان پیشرفته هوش مصنوعی احساس میشد، خطر تشدید بیشتر را دارد.
امیلی ام. بندر، استاد زبانشناسی دانشگاه واشنگتن در این باره گفت: «اینها برنامههایی برای ایجاد سریع متنی هستند که قابل قبول به نظر میرسد، اما هیچ پایهای در هیچ تعهدی به حقیقت ندارد، این بدان معناست که اکوسیستم اطلاعاتی ما میتواند به سرعت غرق در غیراطلاعات شود و یافتن منابع اطلاعاتی قابل اعتماد را دشوارتر کند و علیرغم همه تبلیغات پیرامون آن، عموم افراد هنوز در بهترین حالت به مسیر فعلی هوش مصنوعی اطمینانی ندارند.
فقط ۹ درصد از بزرگسالان آمریکایی که در نظرسنجی اخیر دانشگاه مونموث مورد بررسی قرار گرفتند، گفتند که معتقدند هوش مصنوعی بیشتر از آسیب به جامعه سود میرساند. ۵۶ درصد دیگر گفتند که معتقدند دنیایی که با هوش مصنوعی پیشرفته غرق شده است به کیفیت کلی زندگی انسان آسیب میرساند.
پاتریک موری، مدیر نظرسنجی موسسه نظرسنجی دانشگاه مونموث، در بیانیهای گفت: «به نظر میرسد که برخی از افراد هوش مصنوعی را نه تنها به عنوان یک نگرانی فنی و اقتصادی بلکه به عنوان یک موضوع بهداشت عمومی نیز میدانند».
کارشناسان و هشداردهندهها در فراخوانی برای تنظیم مقررات متحد شدند
یکی از مواردی که امضاکنندگان موسسه آینده زندگی و بدبینان محتاطتر هوش مصنوعی روی آن توافق کردند، نیاز فوری قانونگذاران به ابداع قوانین جدید برای هوش مصنوعی بود. در این نامه از سیاستگذاران خواسته شده است که «توسعه سیستمهای حکمرانی قوی هوش مصنوعی را بهطور چشمگیری تسریع کنند» که شامل تنظیمکنندههایی است که به طور خاص بر هوش مصنوعی و همچنین نظارت و ردیابی ابزارهای قدرتمند هوش مصنوعی متمرکز هستند؛ علاوه بر این، این نامه خواستار ابزارهای واترمارکینگ شد تا به کاربران کمک کند به سرعت بین محتوای مصنوعی و واقعی تمایز قائل شوند.
منبع: Gizmodo
باشگاه خبرنگاران جوان علمی پزشکی فناوریمنبع: باشگاه خبرنگاران
کلیدواژه: هوش مصنوعی ایلان ماسک چت جی پی تی سیستم های هوش مصنوعی هوش مصنوعی هوش مصنوعی نظر می رسد نگرانی ها سیستم ها ابزار ها مدل ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۴۲۰۶۳۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
ناسا هر ساعت تمام آلایندههای هوا را اندازهگیری میکند
به گزارش خبرگزاری علم و فناوری آنا به نقل از وبسایت خبری ناسا، سازمان هوانوردی و ایالات متحده آمریکا به نمایندگی از اداره ملی اقیانوسی و جوی (NOAA)، سیستمهای «بی ای اِی» BAE (Ball Aerospace & Technologies Corporation) از بولدر، کلرادو را برای توسعه ابزاری برای نظارت بر کیفیت هوا و ارائه اطلاعات در مورد تأثیر هوا انتخاب کرده است.
ارزش این قرارداد ۳۶۵ میلیون دلار است که شامل توسعه یک ابزار پرواز و همچنین گزینههایی برای تحقیقات بیشتر است. مدت اجرای پیش بینی شده برای این قرارداد نیز شامل پشتیبانی ۱۰ ساله عملیات در مدار و ۵ سال ذخیرهسازی آن است که در مجموع ۱۵ سال برای هر مدل پروازی است. این عملیات در سیستمهای بی ای ای، مرکز پرواز فضایی گودارد ناسا در گرینبلت، مریلند و مرکز فضایی کندی آژانس در فلوریدا انجام میشود.
ابزار اجرای این عملیات «ای سی ایکس» GeoXO Atmospheric Composition (ACX) یک طیفسنج فراطیفی است که طیف گستردهای از نور از ماوراء بنفش تا مرئی را اندازهگیری میکند و مشاهدات ساعتی آلایندههای ناشی از حمل و نقل، تولید برق، صنعت، استخراج نفت و گاز، آتشفشانها و آتش سوزیهای جنگلی و همچنین آلایندههای ثانویه تولید شده از این گازهای گلخانهای را پس از قرار گرفتن در جو ارائه میدهد.
دادههای این طیفسنج با ارائه مشاهدات و اندازهگیریهای مداوم ترکیب جوی، پیشبینی و نظارت بر کیفیت هوا را بهبود میبخشد و اثرات سلامتی ناشی از آلودگی شدید مانند آسم، بیماریهای قلبی عروقی و اختلالات عصبی را کاهش میدهد و به دانشمندان کمک میکند تا کیفیت هوا را افزایش دهند.
محدوده قرارداد نیز شامل عمل به وظایف و تامین محمولههای لازم برای طراحی، تجزیه و تحلیل، توسعه، ساخت، یکپارچه سازی، آزمایش، تأیید، ارزیابی، پشتیبانی از پرتاب، تامین و نگهداری تجهیزات پشتیبانی زمینی ابزار و عملیات پشتیبانی در مرکز عملیات ماهوارهای اداره ملی اقیانوسی و جوی ایالات متحده آمریکا است.
سازمان منتخب ناسا در واقع وظیفه مانیتور کردن کیفیت هوا و نظارت بر آلودگی هوا را بر عهده دارد و قرار است یک سیستم نوآورانه برای اندازه گیری کیفیت هوا را توسعه دهد.
این سازمان با ناسا برای توسعه یک سازه کیفیت هوا با استفاده از فناوریهای پیشرفته و نوآورانه همکاری میکند و بدین ترتیب سازه جدید که به وسیله سیستمهای «بی ای اِی» طراحی و ساخته شده به اداره ملی اقیانوسی و جوی تحویل داده میشود تا بتواند اطلاعات دقیقتری از کیفیت هوا را دریافت کند و آنها را برای تصمیم گیریهای مربوط به آلودگی هوا و اقدامات مناسب استفاده کند.
توسعه این سازه جدید نشان از تعهد ناسا به بهبود کیفیت هوا و محیط زیست دارد و تلاشهای آنها برای حفظ سلامت محیط زیست و بهبود شرایط زندگی انسانها را تایید میکند. این همکاری مثبت قطعاً به تحقق اهداف مشترک آنها در زمینه حفاظت از محیط زیست کمک میکند و بهبود مستمر در کیفیت هوا را به دنبال دارد.
انتهای پیام/