Web Analytics Made Easy - Statcounter

ائتلاف گسترده‌ای متشکل از بیش از ۵۰۰ فناور، مهندس و متخصص اخلاق هوش مصنوعی نامه‌ای سرگشاده را امضا کرده‌اند که در آن از آزمایشگاه‌های هوش مصنوعی خواسته شده است تا فورا تمام آموزش‌های مربوط به سیستم‌های هوش مصنوعی قدرتمندتر از GPT-۴ را که اخیرا منتشر شده از Open AI به مدت حداقل شش ماه متوقف کنند.

امضاکنندگان که شامل استیو وزنیاک، یکی از بنیانگذاران اپل و ایلان ماسک، توسعه‌دهنده هوش مصنوعی است، هشدار می‌دهند که این مدل‌های پیشرفته هوش مصنوعی می‌توانند «خطرات عمیقی برای جامعه و بشریت» داشته باشند، اگر اجازه پیشرفت بدون پادمان‌های کافی داشته باشند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

در این نامه آمده است که اگر شرکت‌ها از توقف توسعه امتناع کنند، دولت‌ها باید سلاح‌های بزرگ را برداشته و یک تعلیق اجباری وضع کنند.

همچنین در این نامه ذکر شده است: هوش مصنوعی پیشرفته می‌تواند نشان‌دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه‌ریزی و مدیریت شود. متاسفانه این سطح از برنامه‌ریزی و مدیریت اتفاق نمی‌افتد، حتی اگر در ماه‌های اخیر آزمایشگاه‌های هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر متمرکز شده باشند که هیچ‌کس حتی سازندگان آن‌ها نمی‌توانند آن را درک کنند؛ بنابراین پیشگیری و و کنترل الزامی است.

این نامه توسط موسسه آینده زندگی منتشر شد، سازمانی که خود را تحت عنوان یک مرکز متمرکز بر هدایت فناوری‌ها از خطرات بزرگ مقیاس برای بشریت توصیف می‌کند. این گروه‌های خطر اولیه شامل هوش مصنوعی، بیوتکنولوژی، سلاح‌های هسته‌ای و تغییرات آب و هوایی است. نگرانی‌های این گروه در مورد سیستم‌های هوش مصنوعی بر این فرض استوار است که این سیستم‌ها اکنون در حال تبدیل شدن به رقابت برای انسان در وظایف عمومی هستند. نامه استدلال می‌کند که این سطح از پیچیدگی می‌تواند به آینده‌ای نزدیک منجر شود که در آن بازیگران بد از هوش مصنوعی برای پر کردن اینترنت با تبلیغات استفاده می‌کنند، مشاغلی را که زمانی ثابت مانده بودند، بیهوده می‌سازند، و «ذهن غیرانسانی» را توسعه می‌دهند که می‌تواند جایگزین انسان شود.

در این نامه همچنین استدلال می‌شود که سیستم‌های هوش مصنوعی نوظهور در حال حاضر فاقد پادمان‌ها یا کنترل‌هایی هستند که فراتر از شک معقول ایمن هستند. برای حل این مشکل این نامه می‌گوید آزمایشگاه‌های هوش مصنوعی باید متوقف و تعلیق شوند تا دولت‌ها مجموعه‌ای از پروتکل‌های ایمنی مشترک را پیاده‌سازی و توافق کنند و اطمینان حاصل کنند که سیستم‌ها توسط یک بررسی مستقل از کارشناسان خارجی ممیزی می‌شوند.

یکی از امضاکنندگان برجسته در این باره گفت که جزئیات این بررسی که در عمل واقعا چگونه به نظر می‌رسد، هنوز «بسیار مورد بحث است». توقف و پادمان‌های اضافه‌شده به‌خصوص برای همه توسعه‌های هوش مصنوعی اعمال نمی‌شود، اما روی «مدل‌های جعبه سیاه با قابلیت‌های نوظهور» تمرکز خواهد کرد که قدرتمندتر از GPT ۴ Open AI است. مهم‌تر از همه این شامل GPT ۵ در حال توسعه Open AI است.

در این نامه آمده است: «تحقیق و توسعه هوش مصنوعی باید روی ساختن سیستم‌های قدرتمند و پیشرفته امروزی دقیق‌تر، ایمن‌تر، قابل تفسیرتر، شفاف‌تر، قوی‌تر، همسوتر، قابل اعتمادتر و وفادارتر باشد».

بدبینان هوش مصنوعی هشدار می‌دهند

استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی و یکی از نویسندگان کتاب هوش مصنوعی در این باره گفت: نگرانی‌ها در مورد تهدیدات علیه دموکراسی و اطلاعات نادرست تسلیحاتی در حال حاضر در مورد GPT-۴، Google's Bard و سایر مدل‌های زبان بزرگ موجود است.

به گفته او، کابوس‌های مربوط به هوش مصنوعی، کابوس‌هایی هستند که می‌توانند از نسل بعدی ابزار‌ها بیرون بیایند.

مهم‌ترین نگرانی ناشی از رقابتی است که به نظر می‌رسد بین شرکت‌های فناوری وجود دارد، شرکت‌هایی که می‌گویند بدون توجه به خطر، توسعه سیستم‌های قدرتمندتر و بیشتر را متوقف نخواهند کرد؛ به عبارتی دقیق‌تر خطری که آن‌ها در اینجا به آن اشاره می‌کنند، از دست دادن کنترل انسان بر جهان و آینده خودمان است، همان طور که گوریل‌ها به خاطر انسان‌ها کنترل خود را بر آینده خود از دست داده‌اند.

راسل ادعا می‌کند که نه ما و نه خود سازندگان ابزار‌های هوش مصنوعی هیچ ایده‌ای نداریم که واقعا این هشدار و پیشنهاد چقدر موثر است، اگرچه سایر محققان برجسته هوش مصنوعی این توصیف را رد کرده‌اند، راسل می‌گوید که این مدل‌ها اساسا یک لوح خالی از یک تریلیون پارامتر هستند. این تنها چیزی است که می‌دانیم؛ به عنوان مثال ما نمی‌دانیم که آیا آن‌ها اهداف داخلی خود و توانایی پیگیری آن‌ها را از طریق برنامه ریزی گسترده توسعه داده‌اند یا خیر.

راسل به مقاله تحقیقاتی اخیر محققان مایکروسافت اشاره کرد که ادعا می‌کرد GPT-۴ اخیرا منتشر شده توسط هوش مصنوعی Open نشان دهنده جرقه‌هایی از هوش مصنوعی عمومی است.

کارشناسان نگرانی‌های خود را در مورد سوءاستفاده احتمالی از هوش مصنوعی ابراز داشتند، اما از تلاش‌های رایج برای مقایسه سیستم‌های هوش مصنوعی با هوش انسانی رد شدند.

آن‌ها خاطرنشان کردند که صحبت در مورد هوش عمومی مصنوعی می‌تواند معکوس باشد. ChatGPT OpenAI که توانست کلاس‌های مدرسه بازرگانی و یک آزمون بزرگ مجوز پزشکی را بگذراند، به طور همزمان با محاسبات اولیه دست و پنجه نرم می‌کند.

سارا مایرز وست، مدیر عامل موسسه AI Now معتقد است بسیاری از افراد نگران قابلیت‌های هوش مصنوعی هستند، بنابراین اگر بخواهیم این سیستم‌ها پاسخگوی آنان باشند، باید بازیگران اصلی درگیر را تنظیم کنیم، اما نکته کلیدی برای درک Chat GPT و دیگر مدل‌های زبان بزرگ مشابه اینجاست: آن‌ها به هیچ وجه عمق درک زبان انسان را منعکس نمی‌کنند، آن‌ها تنها شکل آن را تقلید می‌کنند.

اگرچه مایرز در مورد سوء استفاده از هوش مصنوعی نگرانی مشترکی دارد، اما نگران است که قطار تبلیغاتی فعلی این فناوری و اغراق بیش از حد توانایی‌های آن، توجه را از نگرانی‌های مبرم‌تر منحرف کند.

چندین محقق هوش مصنوعی با ابراز نگرانی واقعی درباره فقدان قوانین یا مقررات معنادار در این زمینه به ویژه با توجه به اتکای این فناوری به بخش‌های گسترده‌ای از داده‌ها و سرعت سرسام آور آن، صحبت کردند. مدل‌های زبان بزرگ برجسته مانند GPT-۴ در حال حاضر فاقد شفافیت معنادار در مورد انواع داده‌های آموزشی هستند که برای توسعه مدل‌های خود استفاده می‌کنند. تعصبات مربوط به جنسیت و نژاد که قبلا به طور گسترده در مدل‌های نه‌چندان پیشرفته هوش مصنوعی احساس می‌شد، خطر تشدید بیشتر را دارد.

امیلی ام. بندر، استاد زبان‌شناسی دانشگاه واشنگتن در این باره گفت: «این‌ها برنامه‌هایی برای ایجاد سریع متنی هستند که قابل قبول به نظر می‌رسد، اما هیچ پایه‌ای در هیچ تعهدی به حقیقت ندارد، این بدان معناست که اکوسیستم اطلاعاتی ما می‌تواند به سرعت غرق در غیراطلاعات شود و یافتن منابع اطلاعاتی قابل اعتماد را دشوارتر کند و علیرغم همه تبلیغات پیرامون آن، عموم افراد هنوز در بهترین حالت به مسیر فعلی هوش مصنوعی اطمینانی ندارند.

فقط ۹ درصد از بزرگسالان آمریکایی که در نظرسنجی اخیر دانشگاه مونموث مورد بررسی قرار گرفتند، گفتند که معتقدند هوش مصنوعی بیشتر از آسیب به جامعه سود می‌رساند. ۵۶ درصد دیگر گفتند که معتقدند دنیایی که با هوش مصنوعی پیشرفته غرق شده است به کیفیت کلی زندگی انسان آسیب می‌رساند.

پاتریک موری، مدیر نظرسنجی موسسه نظرسنجی دانشگاه مونموث، در بیانیه‌ای گفت: «به نظر می‌رسد که برخی از افراد هوش مصنوعی را نه تنها به عنوان یک نگرانی فنی و اقتصادی بلکه به عنوان یک موضوع بهداشت عمومی نیز می‌دانند».

کارشناسان و هشداردهنده‌ها در فراخوانی برای تنظیم مقررات متحد شدند

یکی از مواردی که امضاکنندگان موسسه آینده زندگی و بدبینان محتاط‌تر هوش مصنوعی روی آن توافق کردند، نیاز فوری قانونگذاران به ابداع قوانین جدید برای هوش مصنوعی بود. در این نامه از سیاست‌گذاران خواسته شده است که «توسعه سیستم‌های حکمرانی قوی هوش مصنوعی را به‌طور چشمگیری تسریع کنند» که شامل تنظیم‌کننده‌هایی است که به طور خاص بر هوش مصنوعی و همچنین نظارت و ردیابی ابزار‌های قدرتمند هوش مصنوعی متمرکز هستند؛ علاوه بر این، این نامه خواستار ابزار‌های واترمارکینگ شد تا به کاربران کمک کند به سرعت بین محتوای مصنوعی و واقعی تمایز قائل شوند.

منبع: Gizmodo

باشگاه خبرنگاران جوان علمی پزشکی فناوری

منبع: باشگاه خبرنگاران

کلیدواژه: هوش مصنوعی ایلان ماسک چت جی پی تی سیستم های هوش مصنوعی هوش مصنوعی هوش مصنوعی نظر می رسد نگرانی ها سیستم ها ابزار ها مدل ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.yjc.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۴۲۰۶۳۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

ناسا هر ساعت تمام آلاینده‌های هوا را اندازه‌گیری می‌کند

به گزارش خبرگزاری علم و فناوری آنا به نقل از وب‌سایت خبری ناسا، سازمان هوانوردی و ایالات متحده آمریکا به نمایندگی از اداره ملی اقیانوسی و جوی (NOAA)، سیستم‌های «بی ای اِی» BAE (Ball Aerospace & Technologies Corporation) از بولدر، کلرادو را برای توسعه ابزاری برای نظارت بر کیفیت هوا و ارائه اطلاعات در مورد تأثیر هوا انتخاب کرده است.

ارزش این قرارداد ۳۶۵ میلیون دلار است که شامل توسعه یک ابزار پرواز و همچنین گزینه‌هایی برای تحقیقات بیشتر است. مدت اجرای پیش بینی شده برای این قرارداد نیز شامل پشتیبانی ۱۰ ساله عملیات در مدار و ۵ سال ذخیره‌سازی آن است که در مجموع ۱۵ سال برای هر مدل پروازی است. این عملیات در سیستم‌های بی ای ای، مرکز پرواز فضایی گودارد ناسا در گرین‌بلت، مریلند و مرکز فضایی کندی آژانس در فلوریدا انجام می‌شود.

ابزار اجرای این عملیات «ای سی ایکس» GeoXO Atmospheric Composition (ACX) یک طیف‌سنج فراطیفی است که طیف گسترده‌ای از نور از ماوراء بنفش تا مرئی را اندازه‌گیری می‌کند و مشاهدات ساعتی آلاینده‌های ناشی از حمل و نقل، تولید برق، صنعت، استخراج نفت و گاز، آتشفشان‌ها و آتش سوزی‌های جنگلی و همچنین آلاینده‌های ثانویه تولید شده از این گاز‌های گلخانه‌ای را پس از قرار گرفتن در جو ارائه می‌دهد.

داده‌های این طیف‌سنج با ارائه مشاهدات و اندازه‌گیری‌های مداوم ترکیب جوی، پیش‌بینی و نظارت بر کیفیت هوا را بهبود می‌بخشد و اثرات سلامتی ناشی از آلودگی شدید مانند آسم، بیماری‌های قلبی عروقی و اختلالات عصبی را کاهش می‌دهد و به دانشمندان کمک می‌کند تا کیفیت هوا را افزایش دهند.

محدوده قرارداد نیز شامل عمل به وظایف و تامین محموله‌های لازم برای طراحی، تجزیه و تحلیل، توسعه، ساخت، یکپارچه سازی، آزمایش، تأیید، ارزیابی، پشتیبانی از پرتاب، تامین و نگهداری تجهیزات پشتیبانی زمینی ابزار و عملیات پشتیبانی در مرکز عملیات ماهواره‌ای اداره ملی اقیانوسی و جوی ایالات متحده آمریکا است.

سازمان منتخب ناسا در واقع وظیفه مانیتور کردن کیفیت هوا و نظارت بر آلودگی هوا را بر عهده دارد و قرار است یک سیستم نوآورانه برای اندازه گیری کیفیت هوا را توسعه دهد.

این سازمان با ناسا برای توسعه یک سازه کیفیت هوا با استفاده از فناوری‌های پیشرفته و نوآورانه همکاری می‌کند و بدین ترتیب سازه جدید که به وسیله  سیستم‌های «بی ای اِی» طراحی و ساخته شده به اداره ملی اقیانوسی و جوی تحویل داده می‌شود تا بتواند اطلاعات دقیق‌تری از کیفیت هوا را دریافت کند و آنها را برای تصمیم گیری‌های مربوط به آلودگی هوا و اقدامات مناسب استفاده کند.

توسعه این سازه جدید نشان از تعهد ناسا به بهبود کیفیت هوا و محیط زیست دارد و تلاش‌های آنها برای حفظ سلامت محیط زیست و بهبود شرایط زندگی انسان‌ها را تایید می‌کند. این همکاری مثبت قطعاً به تحقق اهداف مشترک آنها در زمینه حفاظت از محیط زیست کمک می‌کند و بهبود مستمر در کیفیت هوا را به دنبال دارد.

انتهای پیام/

دیگر خبرها

  • حمل‌ و‌ نقل در ناوگان فناوری
  • پیشرفته‌ترین لباس فضانوردی رونمایی می‌شود
  • سازمان همکاری اسلامی خواهان آتش بس فوری در نوار غزه شد
  • ناسا هر ساعت تمام آلاینده‌های هوا را اندازه‌گیری می‌کند
  • بن گویر خواستار حمله فوری به رفح شد
  • چرا صهیونیست‌ها از اسامی مقدس برای نامگذاری تسلیحات و عملیات‌های نظامی استفاده می‌کند؟
  • امیرعبداللهیان: توقف جنگ در دستورکار سازمان همکاری قرار دارد
  • داده‌های آموزشی هوش مصنوعی عرصه جدید رقابت شرکت‌های بزرگ فناوری
  • امیرعبداللهیان: رژیم اسرائیل ریشه ناامنی و دشمن مشترک است/ گذشت زمان به قدرت اشغالگر مشروعیت نمی‌بخشد
  • یوتیوب روی توسعه ابزار جدید هوش‌مصنوعی کار می‌کند