خطر انقراض به وسیله هوش مصنوعی به مقدار پاندمی و جنگ هسته ای است

به گزارش وبلاگ تحصیل به نقل از رویترز، مدیران ارشد اجرایی هوش مصنوعی از جمله سم آلتمن از شرکت اوپن ای آی روز گذشته همراه کارشناسان و پروفسورها درباره ریسک انقراض بشر در نتیجه توسعه هوش مصنوعی هشدار دادند. به اعتقاد آنها سیاست گذاران باید خطر ناشی از هوش مصنوعی را با ریسک پاندمی ها و جنگ هسته ای یکسان بدانند.

خطر انقراض به وسیله هوش مصنوعی به مقدار پاندمی و جنگ هسته ای است

بیش از 350 امضا کننده در نامه ای که به وسیله مرکز ایمنی هوش مصنوعی(CAIS) منتشر نموده، نوشته اند: خطر انقراض در نتیجه هوش مصنوعی باید همراه دیگر ریسک های بزرگ مانند پاندمی ها و جنگ هسته ای به یک اولویت جهانی تبدیل گردد.

علاوه بر آلتمن، مدیر ارشد اجرایی شرکت های دیپ مایند و آنتروپیک و بعلاوه مایکروسافت و گوگل این بیانیه را امضا کردند. در کنار آنها جفری هینتون و یوشوا بنجیو (دو نفر از سه پدرخوانده هوش مصنوعی که در سال 2018 میلادی جایزه تورینگ را برای فعالیت خود در یادگیری عمیق دریافت کردند) و بعلاوه پروفسورهایی از انستیتوهای مختلف از هاروارد گرفته تا دانشگاه تسینگهوا چین نیز نامه را امضا کردند.

البته میان امضا کنندگان بیانیه CAIS نامی از شرکت متا دیده نمی گردد چراکه سومین پدرخوانده هوش مصنوعی یعنی یان لی سون در آنجا کار می نماید.

انتشار این نامه با دیدار هیات تجارت و فناوری آمریکا و اتحادیه اروپا در سوئد مصادف شد که قرار بود طی آن درباره قانونمندسازی هوش مصنوعی تبادل نظر گردد.

ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعتی جزو نخستین افرادی بودند که در ماه آوریل درباره ریسک های احتمالی فناوری برای جامعه هشدار دادند.

منبع: خبرگزاری مهر

به "خطر انقراض به وسیله هوش مصنوعی به مقدار پاندمی و جنگ هسته ای است" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "خطر انقراض به وسیله هوش مصنوعی به مقدار پاندمی و جنگ هسته ای است"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید