Искусственный интеллект действительно способен убить человечество, и это вовсе не сюжет очередной антиутопии в духе киберпанка. Увы, машинные алгоритмы обучаются слишком быстро, а вот эмпатии им пока не хватает, считают ученые. Так, в интервью The Times Стюарт Рассел, профессор компьютерных наук из Калифорнийского университета в Беркли, объяснил, чем рискует человечество, продолжая инвестировать в ИИ-технологии.
Наилучший метод достижения
Стюарт Рассел считает, что один из главных рисков, связанных с ИИ, — это выбор машиной наилучшего метода решения задачи, невзирая не возможные побочные эффекты.
Пример. Ученые предлагают машине подумать, как решить проблему глобального потепления. Рассмотрев сотни вариантов, она может выдать неприятный ответ: нужно избавить Землю от людей. И дело не в том, что искусственный интеллект кровожаден, просто это действительно самый быстрый и эффективный способ решить проблему, а именно так и настраивали алгоритмы специалисты по машинному обучению, именно такой функциональности от них и ожидали.
Иными словами, человечество могут погубить непредвиденные побочные эффекты от решений, принятых ИИ.
Сверхмощный ИИ
По мнению ученого, в ближайшее десятилетие появится настолько мощный искусственный интеллект, что это можно будет сравнить со вторжением на землю инопланетян, причем куда более развитых, чем земляне. При этом ранее профессор полагал, что подобные ИИ-системы появятся лишь через 20-40 лет. Однако наблюдая за развитием нейронной сети ChatGPT, Стюарт Рассел свои прогнозы пересмотрел.
Иными словами, машины будут обладать таким широким кругозором, такими уникальными когнитивными способностями, памятью и умением сверхбыстро производить расчеты в самых разных областях человеческой жизнедеятельности, что человек просто потеряет над ними контроль. И уже не будет понимать до конца, как именно работает искусственный интеллект, он станет напоминать нечто магическое и непознаваемое.
Рассел заявил, что политикам стоит жестче взяться за регулирование сферы искусственного интеллекта. Пока же они придерживаются иной политики. Ученый признался, что вместе с Илоном Маском и Стивом Возняком не так давно подписал открытое письмо с предложением остановить развитие искусственного интеллекта, чтобы научиться сначала его контролировать.