مطالب این بخش از سایر خبرگزاری‌ها جمع‌آوری شده است و صرفا جهت افزایش آگاهی شما قرار گرفته است و لزوما به معنای تایید آن توسط چنج‌کن نیست.

آیا هوش مصنوعی پیشرفته باعث انقراض انسان می‌شود؟

نشست اخیر سازمان غیرانتفاعی هیومنیتی پلاس (Humanity+) به صحنه تقابل شدید میان متخصصان برجسته فناوری و ترنس‌هیومنیست‌ها درباره آینده هوش مصنوعی عمومی (AGI) تبدیل شد.

در این مناظره، الیزر یادکوفسکی (Eliezer Yudkowsky)، از مخالفان سرسخت توسعه هوش مصنوعی، هشدار داد که ساخت هوش مصنوعی عمومی می‌تواند به نابودی بشریت منجر شود، در حالی که مدافعانی نظیر مکس مور (Max More) معتقدند این فناوری تنها راه نجات انسان از بیماری و پیری است.

الیزر یادکوفسکی در این نشست تأکید کرد که سیستم‌های فعلی هوش مصنوعی به‌دلیل ماهیت «جعبه سیاه» خود، غیرقابل درک و کنترل هستند. او معتقد است که بدون تغییر بنیادین در پارادایم‌های فعلی، دستیابی به امنیت در حوزه هوش مصنوعی عمومی غیرممکن است.

واژه AGI به سیستمی اشاره دارد که برخلاف هوش مصنوعی‌های فعلی، قادر به یادگیری و انجام هر نوع فعالیت ذهنی مشابه انسان است و می‌تواند با بهبود خودکار، به «تکینگی تکنولوژیک» برسد.

الیزر یادکوفسکی در بخشی از سخنان خود که بازتاب‌دهنده دیدگاه‌های کتاب اخیرش است، گفت:

در مقابل، مکس مور استدلال کرد که توقف توسعه این فناوری می‌تواند فاجعه‌بارتر باشد. او معتقد است AGI بزرگ‌ترین شانس بشر برای غلبه بر فرسودگی بیولوژیک است. مکس مور در این باره گفت:

اندرس سندبرگ (Anders Sandberg) نیز با اتخاذ رویکردی میانه، ضمن ابراز نگرانی از پتانسیل هوش مصنوعی در کمک به بازیگران مخرب برای تولید سلاح‌های بیولوژیک، مدعی شد که دستیابی به «امنیت نسبی» ممکن است.

از سوی دیگر، ناتاشا ویتا مور (Natasha Vita-More) ایده «هم‌سویی» (Alignment) را یک طرح خوش‌بینانه و غیرعملی خواند و تأکید کرد که حتی میان انسان‌های نزدیک نیز هم‌سویی کامل وجود ندارد.