12.07.2025
Виталик Бутерин

Разработчик криптовалюты эфириум Виталик Бутерин придумал, как защититься от злого искусственного интеллекта.

В этом году исследователи Даниэль Кокотайло, Скотт Александер и другие описали сценарий прогресса технологии ИИ, согласно которому к 2027-у будет изобретён искусственный сверхчеловеческий разум, который, как многие полагают, уничтожит людей к 2030 году. Виталик не разделяет эту точку зрения на 100%, считая, что ИИ будет трудно справиться с человечеством, тоже не стоящем на месте в своём развитии.

Однако, чтобы повысить шансы людей на выживание, Бутерин предлагает:

  • Отложить создание суперумного ИИ;
  • Скоординировать разработку систем на базе искусственного интеллекта;
  • Использовать регулятивные меры для повышения уровня прозрачности работы ИИ-компаний;
  • Американцам отказаться от стремления во что бы то ни стало победить Китай;
  • Избавиться от негативного отношения к софту с открытым исходным кодом;
  • Уделять внимание проектам в сфере общественного ИИ, приносящим пользу каждому человеку;
  • Сделать военные технологии на основе ИИ оборонительными, а не наступательными.
Виталик Бутерин
Виталик Бутерин

Виталик признаёт, что вышеперечисленные шаги не исключают вероятность апокалипсиса в духе «Терминатора» или «Матрицы», но они позволяют снизить существующие риски. При этом, по его мнению, главная угроза исходит от попыток программистов создать один сверхмощный ИИ, так как это лишает людей возможности противостоять ему в случае форс-мажора с помощью других равных ему по силе искусственных разумов.

Добавить комментарий