«ویتالیک بوترین»، خالق اتریوم ، نسبت به خطرات شتابزدگی در توسعه ابرهوش مصنوعی (AGI) هشدار داد و آن را بسیار خطرناک خواند.
«ویتالیک بوترین» نگران دنیایی است که در آن بیشتر افکار بشر توسط چند سرور مرکزی که توسط تعداد کمی از افراد کنترل میشوند، هدایت صورت گیرد. «بوترین» خواستار رویکردی محتاطانهتر در تحقیقات هوش مصنوعی است و اعتقاد دارد که دیوانهبازی فعلی برای رسیدن به ابرهوش مصنوعی بسیار خطرناک خواهد بود.
ادامه مطلب در ادامه
بیشتر بخوانید:
- دسترسی هوش مصنوعی ChatGPT به گوگل درایو اضافه شد
- هوش مصنوعی Veo معرفی شد
- برخی از هنرمندان آمریکایی از هوش مصنوعی شکایت کردند
برای اطلاع از آخرین اخبار سینمای جهان، میتوانید به بخش اخبار سینما و تلویزیون یا کانال تلگرامی فیگار مراجعه کنید.
اظهارات خالق اتریوم درباره هوش مصنوعی
این نظرات در پاسخ به انتقادات «رایان سلکیس»، مدیرعامل شرکت اطلاعات رمزنگاری «Messari»، از «OpenAI» بیان شد. «سلکیس» مدعی بود که «OpenAI» به اندازه کافی سریع برای توسعه AGI تلاش نمیکند. «بوترین» در ادامه صحبتهایش، خواستار اعمال محدودیتهایی برای developers در این حوزه شد تا از سوءاستفاده از ابرهوش مصنوعی جلوگیری شود.
ابرهوش مصنوعی نوعی هوش مصنوعی فرضی است که از هوش انسان در همه زمینهها پیشی میگیرد. در حالی که بسیاری AGI را به عنوان هدف نهایی هوش مصنوعی میدانند، خطرات مدلهای فوقهوشمند این فناوری را نمیتوان نادیده گرفت. حتی اگر سیستمهای هوش مصنوعی امروزی به سطح ابرهوش مصنوعی نرسیده باشند، میتوانند نگرانیهایی را ایجاد کنند.
هنوز مشخص نیست که آینده هوش مصنوعی چه خواهد شد، اما بحثهای پیرامون خطرات و پتانسیلهای آن به طور فزایندهای داغتر میشود.
بیشتر بخوانید:
- مایکروسافت از یک دسته جدید رونمایی کرد
- گوشیهای اندروید 15 از سمت گوگل ضد سرقت شدند
- از نسل بعدی دوربینهای آیمکس در جشنواره کن رونمایی میشود
- سازنده ChatGPT رقیب گوگل را معرفی خواهد کرد
- بازسازی چهره آدم و حوا توسط دانشمندان
نظر شما دربارهی اظهارات خالق اتریوم درباره هوش مصنوعی چیست؟ لطفا نظرات خود را در بخش کامنت با فیگار در میان بگذارید.