978-5-6048294-3-1
ISBN :Возрастное ограничение : 16
Дата обновления : 19.08.2023
Этот аргумент был развит Майком Элганом, исследователем с факультета технологии Университета Миссури.
31
Sharkey N. The Evitability of Autonomous Robot Warfare // International Review of the Red Cross. 2012. Vol. 94. № 886.
32
Хокинг, знаменитый космолог, в ноябре 2017 года на «Веб-саммите» в Лиссабоне заявил, что ИИ может стать «худшим событием в истории нашей цивилизации». Впоследствии в многочисленных интервью и статьях он не раз заявлял о неминуемости этой угрозы.
33
Исследователи в MIT создали 3D-имитацию черепахи, которую легко узнаёт человеческий глаз, но в случае малозаметных «возмущений» (таких как изменение узора, цвета и т. п.) ИИ путал эту черепаху… с ружьем!
34
Russell S., Norvig P. Artificial Intelligence: A Modern Approach [1995]. 2009.
35
Подобная гипотеза была ярко описана Максом Тегмарком во введении к его книге «Жизнь 3.0» (Tegmark M. Life 3.0. Penguin Books, 2018, см. введение «Рассказ о команде Омега»).
36
Harris M. Inside the First Church of Artificial Intelligence?// Wired. 2017. Nov. 15. URL: https://www.wired.com/story/anthony-levandowski-artificialintelligence-religion/
37
Это маловероятно: ученым пока еще не удалось произвести полную копию мозга даже маленького червя Caenorhabditis elegans, в котором насчитывается лишь 302 нейрона…
38
Этот аргумент Гари Маркуса, профессора психологии из Нью-Йоркского университета и специалиста по ИИ, см., например, в его статье: Marcus G. Artificial Intelligence Is Stuck // The New York Times. 2017. July 29.
39
Это так называемое recursive self improvement, «рекурсивное самоулучшение».
40
В математике синглетон – это множество, состоящее из единственного элемента. В этом случае автор подразумевает то, что также можно назвать «абсолютом». – Прим. ред.
41
Это так называемая symbol grounding problem, «проблема обоснования символов»: ИИ не может закрепить символы, постоянно производимые им, в соответствующей реальности. Как и в эксперименте с «китайской комнатой», он сталкивается с неспособностью произвести смысл.
42
Бостром называет это «извращенным исполнением», тогда как философы ИИ описывают эту проблему в целом термином «упорядочивание целей».
43
Это так называемая moral rightness model.
44
Особенно в этом захватывающем дух пассаже: «Можно предположить, что медлительность и нерешительность прогресса человечества в деле решения многих „вечных проблем“ философии обусловлена непригодностью коры головного мозга человека для философской работы» (sic!).
45
Тегмарк доводит эту иллюзию до конца, предлагая понятие «substrate independence», «независимость от субстрата»: наше сознание, получается, является простым устройством, сетью, независимой от всякого материального субстрата, а потому может воспроизводиться в бесконечном числе форм.
46
См., например: Jirak D. et al. Grasping Language – A Short Story on Embodiment // Consciousness and Cognition. 2010. Vol. 19. № 3.
47
См. особенно его последнюю работу: Damasio A. L’Ordre еtrange des choses. Odile Jacob, 2017.
48
Damasio A. Spinoza avait raison. Odile Jacob, 2014.
49
Спиноза Б. Этика. Часть 2. Теорема 7. Схолия // Его же. Сочинения в 2?х т. СПб.: Наука, 1997. Т. 1. С. 294.
50
См. основополагающую статью по этому вопросу: Bonnefon J.-F., Shariff A., Rahwan?I. The Social Dilemma of Autonomous Vehicles // Science. 2016. Vol. 352. № 6293.
51
В духе старой «проблемы вагонетки», сформулированной Филиппой Фут в 1960?х годах.
52
Это знаменитая «сложная проблема сознания», поставленная философом Дэвидом Чалмерсом, для которой пока не найдено общего решения.
53
Спиноза Б. Этика. Часть 2. Теорема 27 // Собрание сочинений в 2?х т. Т. 1. С. 311.
54
Kurzweil R. How to Create a Mind. Viking, 2012.
55
Все книги на сайте предоставены для ознакомления и защищены авторским правом