Искусственный интеллект. Этапы, Угрозы, Стратегии

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
Искусственный интеллект. Этапы. Угрозы. Стратегии
англ. Superintelligence: Paths, Dangers, Strategies
Автор Ник Бостром
Жанр научно-популярный
Язык оригинала английский
Оригинал издан 3 июля 2014
Страниц 496
ISBN 978-5-00057-810-0
Предыдущая Global Catastrophic Risks[вд]

Искусственный интеллект. Этапы. Угрозы. Стратегии (англ. Superintelligence: Paths, Dangers, Strategies) — книга философа Ника Бострома вышедшая в 2014 году, в которой рассматриваются возможные последствия создания искусственного сверхинтеллекта[1]. Основным посылом книги является экзистенциальный риск[2] связанный с высокой вероятностью выхода из-под контроля искусственного сверхинтеллекта, как системы способной к самоулучшению и достижению промежуточных целей. В отличие от слабого ИИ такую систему станет трудно, или даже невозможно контролировать, что может привести к непредсказуемым последствиям для человеческого вида. В книге рассматриваются такие сценарии как использование сверхразумной системы своей силы для захваты власти и ресурсов, с целью достижения собственных целей[3]. Также рассматриваются варианты при которых будет создан сверхинтеллект работающий на благо человечества[4].

Краткое содержание[править | править код]

Вопрос о появлении искусственного интеллекта человеческого уровня остается неопределенным: это может произойти в ближайшие годы, в последующие десятилетия или даже в далеком будущем. Независимо от первоначальных сроков, как только будет разработан искусственный интеллект человеческого уровня, «сверхразумная» система, которая значительно превосходит когнитивные способности человека практически во всех областях, скорее всего, появится на удивление быстро. Таким сверхразумом станет очень трудно, или даже невозможно управлять.

Хотя конечные цели у сверхинтеллекта могут сильно различаться, действующий сверхинтеллект будет спонтанно создавать в качестве естественных подцелей инструментальные цели, например направленные на самосохранение, самоулучшение и обретение ресурсов. Искусственный сверхинтеллект будет активно сопротивляться любым внешним попыткам его отключения, или другим способам помешать достижению его целей. Чтобы предотвратить экзистенциальную катастрофу должна быть решена проблема согласования искусственного интеллекта. Решением может стать внедрение в сверхразумную систему целей, совместимыми с выживанием и благополучием человечества. Решить проблему согласования на удивление сложно, поскольку большинство целей при переводе их в машинно-реализуемый код приводит к непредсказуемым и даже вредным последствиям[5].

Общественная значимость[править | править код]

Книга заняла 17-е место в списке самых продаваемых научных книг The New York Times в августе 2014 года[6]. В том же месяце Илон Маск выступил с речью о том, что искусственный интеллект с разумом превосходящим человеческий потенциально более опасен, чем ядерное оружие.[7][8][9] Работа Ника Бострома по искусственному интеллекту также оказала влияние на Билла Гейтса, который согласился с экзистенциальными рисками, с которыми предстоит столкнуться человечество в предстоящем столетии.[10][11] В интервью генеральному директору Baidu Робину Ли в марте 2015 года Гейтс сказал, что «настоятельно рекомендует» книгу Ника Бострома[12]. В 2015 году Сэм Альтман написал что эта книга — лучшее, что он когда-либо читал о рисках связанных и искусственным интеллектом[13].

См. также[править | править код]

Примечания[править | править код]

  1. "Clever cogs. The potential impacts of intelligent machines on human life". The Economist. 9 августа 2014. Архивировано 9 апреля 2024. Дата обращения: 25 февраля 2024.
  2. Chivers, Tom (10 августа 2014). "Superintelligence by Nick Bostrom, review: 'a hard read'. Will the human quest for artificial intelligence end in disaster?". The Daily Telegraph. Архивировано 22 июня 2023. Дата обращения: 25 февраля 2024.
  3. Khatchadourian, Raffi (23 ноября 2015). "The Doomsday Invention. Will artificial intelligence bring us utopia or destruction?". The New Yorker. Архивировано 29 апреля 2019. Дата обращения: 25 февраля 2024.
  4. Henderson, Caspar (14 августа 2014). "Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock". The Guardian. Архивировано 21 октября 2015. Дата обращения: 25 февраля 2024.
  5. Adams, Tim (12 июня 2016). "Artificial intelligence: 'We're like children playing with a bomb'". The Guardian. Архивировано 25 ноября 2023. Дата обращения: 25 февраля 2024.
  6. Best Selling Science Books (англ.). The New York Times (8 сентября 2014). Дата обращения: 25 февраля 2024. Архивировано 3 сентября 2021 года.
  7. Augenbraun, Eliene (4 августа 2014). "Elon Musk: Artificial intelligence may be "more dangerous than nukes"". CBS News. Архивировано 25 февраля 2024. Дата обращения: 25 февраля 2024.
  8. Dean, James (5 августа 2014). "Artificial intelligence 'may wipe out the human race'". The Sunday Times. Архивировано 25 февраля 2024. Дата обращения: 25 февраля 2024.
  9. Bratton, Benjamin H. (23 февраля 2015). "Outing A.I.: Beyond the Turing Test". The New York Times. Архивировано 25 февраля 2024. Дата обращения: 25 февраля 2024.
  10. Mack, Eric (28 января 2015). "Bill Gates Says You Should Worry About Artificial Intelligence". Forbes. Архивировано 19 февраля 2015. Дата обращения: 25 февраля 2024.
  11. Lumby, Andrew (29 января 2015). "Bill Gates Is Worried About the Rise of the Machines". The Fiscal Times[англ.]. Архивировано 5 июня 2019. Дата обращения: 25 февраля 2024.
  12. Baidu CEO Robin Li interviews Bill Gates and Elon Musk at the Boao Forum, March 29 2015 (англ.). YouTube (31 марта 2015). Дата обращения: 25 февраля 2024. Архивировано 25 февраля 2024 года.
  13. Black, Julia; Russell (27 апреля 2023). "He's played chess with Peter Thiel, sparred with Elon Musk and once, supposedly, stopped a plane crash: Inside Sam Altman's world, where truth is stranger than fiction". Business Insider. Архивировано 7 апреля 2024. Дата обращения: 25 февраля 2024. {{cite news}}: Указан более чем один параметр |first1= and |first= (справка)