اظهارات خالق اتریوم درباره هوش مصنوعی

«ویتالیک بوترین»، خالق اتریوم ، نسبت به خطرات شتاب‌زدگی در توسعه ابرهوش مصنوعی (AGI) هشدار داد و آن را بسیار خطرناک خواند.

«ویتالیک بوترین» نگران دنیایی است که در آن بیشتر افکار بشر توسط چند سرور مرکزی که توسط تعداد کمی از افراد کنترل می‌شوند، هدایت صورت گیرد. «بوترین» خواستار رویکردی محتاطانه‌تر در تحقیقات هوش مصنوعی است و اعتقاد دارد که دیوانه‌بازی فعلی برای رسیدن به ابرهوش مصنوعی بسیار خطرناک خواهد بود.


ادامه مطلب در ادامه

بیشتر بخوانید:

برای اطلاع از آخرین اخبار سینمای جهان، می‌توانید به بخش اخبار سینما و تلویزیون یا کانال تلگرامی فیگار مراجعه کنید.


اظهارات خالق اتریوم درباره هوش مصنوعی

این نظرات در پاسخ به انتقادات «رایان سلکیس»، مدیرعامل شرکت اطلاعات رمزنگاری «Messari»، از «OpenAI» بیان شد. «سلکیس» مدعی بود که «OpenAI» به اندازه کافی سریع برای توسعه AGI تلاش نمی‌کند. «بوترین» در ادامه صحبت‌هایش، خواستار اعمال محدودیت‌هایی برای developers در این حوزه شد تا از سوءاستفاده از ابرهوش مصنوعی جلوگیری شود.

اتریوم

ابرهوش مصنوعی نوعی هوش مصنوعی فرضی است که از هوش انسان در همه زمینه‌ها پیشی می‌گیرد. در حالی که بسیاری AGI را به عنوان هدف نهایی هوش مصنوعی می‌دانند، خطرات مدل‌های فوق‌هوشمند این فناوری را نمی‌توان نادیده گرفت. حتی اگر سیستم‌های هوش مصنوعی امروزی به سطح ابرهوش مصنوعی نرسیده باشند، می‌توانند نگرانی‌هایی را ایجاد کنند.

هنوز مشخص نیست که آینده هوش مصنوعی چه خواهد شد، اما بحث‌های پیرامون خطرات و پتانسیل‌های آن به طور فزاینده‌ای داغ‌تر می‌شود.

بیشتر بخوانید:

نظر شما درباره‌ی اظهارات خالق اتریوم درباره هوش مصنوعی چیست؟ لطفا نظرات خود را در بخش کامنت با فیگار در میان بگذارید.


دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *