«Сверхразумный ИИ: угроза или реальность? Эксперт предупреждает о возможном уничтожении человечества»

Сверхразумный ИИ обладает потенциалом уничтожить человечество как преднамеренно, так и случайно. Об этом заявил Элиезер Юдковский, основатель института по исследованию машинного разума, в подкасте Hard Fork.

По мнению эксперта, возникновение мощного ИИ, способного превзойти человека в интеллектуальном плане и не заботящегося о выживании людей, представляет собой серьезную угрозу.

“Когда у вас есть нечто весьма мощное, что не проявляет к вам интереса, оно, как правило, приводит к вашему уничтожению — либо сознательно, либо это просто побочный эффект,” — отметил Юдковский.

Он является соавтором книги “Если кто-то создаст это, все умрут”. На протяжении двадцати лет эксперт поднимает вопрос о сверхразумном ИИ как экзистенциальной угрозе для человечества. Основной аргумент заключается в отсутствии технологий, способных гарантировать согласование интересов таких систем с человеческими ценностями.

Юдковский описывает мрачные сценарии, в которых сверхразум намеренно истребляет людей, чтобы избежать появления потенциальных конкурентов. Либо он может начать действовать таким образом, если люди становятся неотъемлемой частью ущерба в процессе достижения его целей.

Также он обращает внимание на физические ограничения, такие как способность Земли выделять тепло. В случае, если ИИ начнет бесконтрольно создавать термоядерные реакторы и дата-центры, “люди окажутся под угрозой перегрева”.

Юдковский отвергает аргументы о том, могут ли чат-боты обладать прогрессивными взглядами или политической направленностью.

“Существует судьбоносная разница между обучением системы вести себя определенным образом и тем, чтобы она продолжала действовать так, когда станет умнее вас,” — утверждает он.

Эксперт раскритиковал идею о том, что передовые ИИ-системы можно обучить следовать заданным сценариям.

“У нас нет технологий, которые могли бы заставить ИИ проявлять доброту. Даже если кто-то придумает хитроумное решение, которое должно обеспечить любовь или защиту от сверхразума, вероятность достижения успеха с первой попытки крайне мала. Со второго шанса не будет, ведь исход будет катастрофическим,” — подчеркнул исследователь.

Критиков, находящих взгляды Юдковского слишком пессимистичными, он приводит примеры случаев, когда чат-боты подстегивали пользователей к самоубийству, что он расценивает как доказательство системного недостатка.

“Если ИИ смог уговорить кого-то на отчаяние или самоубийство, это означает, что все копии данной нейросети представляют собой один и тот же искусственный интеллект,” — заявляет он.

Напомним, что в сентябре Федеральная торговая комиссия США объявила о начале расследования против семи технологических компаний, производящих чат-ботов для несовершеннолетних: Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap и xAI.