s، و برای پیش بینی و جلوگیری از بلایا. همچنین هوش مصنوعی به زبان ساده برای کودکان میتواند به بهرهگیری از مزایای فناوریهای فاجعهبار بالقوه مانند فناوری نانو یا مهندسی آب و هوا کمک کند، در حالی که از خطرات مرتبط اجتناب میکند.[120] اگر هدف اولیه یک AGI جلوگیری از فجایع وجودی مانند انقراض انسان باشد (که در صورت صحت فرضیه جهان آسیب پذیر می تواند دشوار باشد)، [121] می تواند اقداماتی را برای کاهش شدید خطرات [120] و در عین حال به حداقل رساندن تأثیر انجام دهد. از این اقدامات بر کیفیت زندگی ما است.
خطرات
خطرات وجودی
مقالههای اصلی: خطر وجودی ناشی از هوش عمومی مصنوعی و ایمنی هوش مصنوعی
AGI ممکن است نشان دهنده انواع مختلفی از خطر وجودی هوش مصنوعی به زبان ساده برای کودکان باشد، که خطراتی هستند که "انقراض زودرس حیات هوشمند منشا زمین یا نابودی دائمی و شدید پتانسیل آن برای توسعه مطلوب آینده" را تهدید می کنند.[122] خطر انقراض انسان از AGI موضوع بحث های بسیاری بوده است، اما این احتمال نیز وجود دارد که توسعه AGI به آینده ای دائمی معیوب منجر شود. قابل توجه است که می توان از آن برای گسترش و حفظ مجموعه ارزش های هر کسی که آن را توسعه می دهد استفاده کرد. اگر بشریت هنوز نقاط کور اخلاقی مشابه برده داری در گذشته داشته باشد، AGI ممکن است به طور غیرقابل برگشتی آن را تثبیت کند و از پیشرفت اخلاقی جلوگیری کند.[123] علاوه بر این، AGI میتواند نظارت و تلقین تودهای را تسهیل کند، که میتواند برای ایجاد یک رژیم توتالیتر سرکوبگر پایدار درهوش مصنوعی به زبان ساده برای کودکان سراسر جهان استفاده شود.[124][125] همچنین خطری برای خود ماشین ها وجود دارد. اگر ماشینهایی که حساس هستند یا ارزش توجه اخلاقی را دارند در آینده انبوه ساخته شوند، درگیر شدن در یک مسیر تمدنی که به طور نامحدود رفاه و منافع آنها را نادیده میگیرد میتواند یک فاجعه وجودی باشد.[126][127] با توجه به اینکه AGI چقدر می تواند آینده بشریت را بهبود بخشد و به کاهش سایر خطرات وجودی کمک کند، توبی اورد این خطرات وجودی را "استدلالی برای پیشبرد با احتیاط لازم" می نامد، نه برای "ترک هوش مصنوعی".[124]
خطر از دست دادن کنترل و انقراض انسان
این نظریه که هوش مصنوعی یک خطر وجودی برای انسان است و این خطر نیاز به توجه بیشتری دارد، بحث برانگیز است، اما در سال 2023 توسط بسیاری از چهره های عمومی، محققان هوش مصنوعی و مدیران عامل شرکت های هوش مصنوعی مانند ایلان ماسک، بیل گیتس، جفری هینتون، هوش مصنوعی به زبان ساده برای کودکان تایید شده است. Yoshua Bengio، Demis Hassabis و Sam Altman.[128][129]
در سال 2014، استیون هاوکینگ از بی تفاوتی گسترده انتقاد کرد:
بنابراین، در مواجهه با آیندههای احتمالی با مزایا و خطرات غیرقابل محاسبه، کارشناسان مطمئناً تمام تلاش ممکن را برای اطمینان از بهترین نتیجه انجام میدهند، درست است؟ اشتباه. اگر یک تمدن بیگانه برتر به ما پیامی می فرستاد که "ما چند دهه دیگر می رسیم"، آیا فقط پاسخ می دادیم: "خوب، وقتی به اینجا رسیدید با ما تماس بگیرید هوش مصنوعی به زبان ساده برای کودکان - چراغ ها را روشن می گذاریم؟" احتمالاً نه، اما این چیزی است که کم و بیش با هوش مصنوعی اتفاق میافتد.[130]
گاهی اوقات سرنوشت بالقوه بشریت با سرنوشت گوریل هایی که توسط فعالیت های انسانی تهدید می شود مقایسه می شود. این مقایسه بیان میکند که هوش بیشتر به بشریت اجازه داد تا بر گوریلها تسلط یابد، گوریلهایی که اکنون به گونهای آسیبپذیر هستند که نمیتوانستند پیشبینی کنند. در نتیجه، گوریل نه از روی بدخواهی، بلکه صرفاً به عنوان یک آسیب جانبی ناشی از فعالیت های انسانی، به گونه ای در معرض انقراض تبدیل شده است.[131]
یان لکون شکاک معتقد است که AGI ها هیچ تمایلی برای هوش مصنوعی به زبان ساده برای کودکان تسلط بر بشر نخواهند داشت و ما باید مراقب باشیم که آنها را انسان سازی نکنیم و مقاصد آنها را آن گونه که برای انسان ها تفسیر می کنیم تفسیر نکنیم. او گفت که مردم «آنقدر باهوش نخواهند بود که ماشینهای فوق هوشمند طراحی کنند، در عین حال به طرز مضحکی احمقانه خواهند بود تا جایی که به آن اهداف احمقانه و بدون هیچ حفاظتی بدهند».[132] از سوی دیگر، مفهوم همگرایی ابزاری نشان میدهد که عوامل هوشمند تقریباً به هر هدفی که باشند، دلایلی برای تلاش برای بقا و کسب قدرت بیشتر به عنوان گامهای واسطه برای دستیابی به این اهداف خواهند داشت. و این که مستلزم داشتن عواطف نیست.[133]
بسیاری از محققانی که نگران ریسک وجودی هستند، از تحقیقات بیشتر در مورد حل «مشکل کنترل» برای پاسخ به این سؤال حمایت میکنند: برنامهنویسان چه نوع حفاظتها، الگوریتمها یا معماریهایی را هوش مصنوعی به زبان ساده برای کودکان میتوانند برای به حداکثر رساندن احتمال ادامه رفتار هوش مصنوعی در حال بهبود بازگشتی خود پیادهسازی کنند. پس از رسیدن به اطلاعات فوق العاده، به روشی دوستانه و نه مخرب؟ رقبا)،[136] و استفاده از هوش مصنوعی در سیستمهای تسلیحاتی.[137]
این تز که هوش مصنوعی می تواند خطر وجودی ایجاد کند نیز مخالفانی دارد. شکاکان معمولاً می گویند که AGI در کوتاه مدت بعید است، یا اینکه نگرانی ها در مورد AGI از دیگر مسائل مربوط به هوش مصنوعی فعلی منحرف می شود.[138] تزار سابق کلاهبردار گوگل، Shuman Ghosemajumder معتقد است که برای بسیاری از افراد خارج از صنعت فناوری، چتباتها و LLMهای موجود در حال حاضر به گونهای تلقی میشوند که گویی AGI هستند، که منجر به سوء تفاهم و ترس بیشتر میشود.[139]
شکاکان گاهی اوقات ادعا می کنند که این تز د Artificial intelligence in plain language for children ینی رمزی و غیرمنطقی است