حذرت مجموعة من قادة التكنولوجيا والخبراء من أن معالجة "خطر انقراض البشرية" الذي يشكله الذكاء الصناعي يجب أن يكون أولوية عالمية على قدم المساواة مع تجنب الكوارث مثل الحرب النووية، في أحدث دعوة للحذر رفيعة المستوى مع تزايد القلق بشأن الأضرار المحتملة للذكاء الصناعي.