Бродель Ф. Динамика капитализма. Смоленск: Полиграмма, 1993. С. 95. – Здесь и далее примечания автора, если не указано иное.
Philosopher kings // The Economist. 2014. Oct 4. URL: https://www.economist.com/business/2014/10/04/philosopher-kings
Принадлежит компании Meta, признанной экстремистской в РФ. – Прим. ред.
Серендипность (от англ. serendipity) – интуитивная прозорливость, способность делать выводы из случайных наблюдений. – Прим. ред.
https://medium.com/@romainserman/silicon-valley-etiquette6934cf6f8f73
Valéry P. Le Bilan de l’intelligence [1935]. Allia, 2016.
Leibniz W. Nova methodus pro maximis et minimis. 1668.
Интеллектуальную историю ИИ см. в: Davis M. The Universal Computer. W.W. Norton, 2000.
Эту изящную формулу – «the right to err» – ввел Исайя Берлин, когда комментировал работы Дж. С. Милля.
Таковы были плоды коллоквиума Липпмана 1938 года, который в значительной степени определил неолиберальное мышление послевоенного периода. Об этом историческом моменте см. работу: Audier S. Le Colloque Lippmann. Aux origines du «néolibéralisme». Le Bord de l’eau, 2008.
Например, в 2017 году Центр исследований экономической политики (Center for Economic Policy Research) в Лондоне определил процент внедрения ИИ в разных секторах экономики – от 42 % в телекоммуникациях до 18 % в туризме.
Левин Я. Интернет как оружие. Что скрывают Google, Tor и ЦРУ. М.: Individuum, 2019.
Базовые определения этих терминов словаря машинного обучения см. здесь: https://developers.google.com/machine-learning/glossary/
Напоминает игру «Сто к одному». – Прим. ред.
High R. The Era of Cognitive Systems: An Inside Look at IBM Watson and How It Works. IBM Corporation. Redbooks, 2012.
Термин был изобретен Джоном Маккарти в 1955 году. В следующем году на знаменитой конференции в Дартмут-колледже были заложены основания ИИ как академической дисциплины.
Краткое введение см. в: Wooldridge M. Artificial Intelligence. Penguin, 2018.
Об этой классификации см.: Géron A. Hands-on Machine Learning With Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems. O’Reilly Media, 2017.
См.: Sutton R. The Bitter Lesson. 2019. March 13. URL: http://www.incompleteideas.net/IncIdeas/BitterLesson.html
Кант называл этот процесс «подведением» под общее понятие.
ami.withgoogle.com
Книга Кёнига вышла на французском в 2018 году. За последние пять лет нейросети, генерирующие картинки, далеко шагнули вперед – и способны уже на создание фотореалистических изображений (см. результаты работы таких алгоритмов, как Stable Diffusion, DALL-E 2, Midjourney и других). – Прим. ред.
НЛП, или нейролингвистическое программирование (NLP, или Natural Language Processing) – «обработка естественного языка», весьма активная область исследований в ИИ, в которой компьютер обучают манипуляциям с языком. Помимо диалога, техники NLP включают резюмирование, перевод, извлечение информации, составление текста, ответы на вопросы и т. д.
Чат-бот – это «разговорный агент», способный имитировать собеседника-человека (на письме или в устной речи). Особенно часто чат-боты встречаются на линиях поддержки. Вряд ли можно найти человека, которому не довелось бы прийти в бешенство в разговоре с телефонным чат-ботом, который упорно отказывается понимать все тонкости нашей ситуации.
Платон. Софист / пер. С. Ананьина // Платон. Собр. соч. в 4‐х т. Т. 2. М.: Мысль, 1993. – Прим. ред.
Searle J. Minds, Brains, and Programs // Behavioral and Brain Sciences. 1980. Vol. 3. № 3.
Каспаров Г. Человек и компьютер: взгляд в будущее. М.: Альпина Паблишер, 2018.
Poe E. Maelzel’s Chess Player // The Southern Literary Messenger. 1836. Vol. 2. № 5.
См.: Hofstadter D. Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought. Basic Books, 1995, особенно главу 4, где описывается «Элиза», один из первых чат-ботов.
Этот аргумент был развит Майком Элганом, исследователем с факультета технологии Университета Миссури.
Sharkey N. The Evitability of Autonomous Robot Warfare // International Review of the Red Cross. 2012. Vol. 94. № 886.
Хокинг, знаменитый космолог, в ноябре 2017 года на «Веб-саммите» в Лиссабоне заявил, что ИИ может стать «худшим событием в истории нашей цивилизации». Впоследствии в многочисленных интервью и статьях он не раз заявлял о неминуемости этой угрозы.
Исследователи в MIT создали 3D-имитацию черепахи, которую легко узнаёт человеческий глаз, но в случае малозаметных «возмущений» (таких как изменение узора, цвета и т. п.) ИИ путал эту черепаху… с ружьем!
Russell S., Norvig P. Artificial Intelligence: A Modern Approach [1995]. 2009.
Подобная гипотеза была ярко описана Максом Тегмарком во введении к его книге «Жизнь 3.0» (Tegmark M. Life 3.0. Penguin Books, 2018, см. введение «Рассказ о команде Омега»).
Harris M. Inside the First Church of Artificial Intelligence // Wired. 2017. Nov. 15. URL: https://www.wired.com/story/anthony-levandowski-artificialintelligence-religion/
Это маловероятно: ученым пока еще не удалось произвести полную копию мозга даже маленького червя Caenorhabditis elegans, в котором насчитывается лишь 302 нейрона…
Этот аргумент Гари Маркуса, профессора психологии из Нью-Йоркского университета и специалиста по ИИ, см., например, в его статье: Marcus G. Artificial Intelligence Is Stuck // The New York Times. 2017. July 29.
Это так называемое recursive self improvement, «рекурсивное самоулучшение».
В математике синглетон – это множество, состоящее из единственного элемента. В этом случае автор подразумевает то, что также можно назвать «абсолютом». – Прим. ред.
Это так называемая symbol grounding problem, «проблема обоснования символов»: ИИ не может закрепить символы, постоянно производимые им, в соответствующей реальности. Как и в эксперименте с «китайской комнатой», он сталкивается с неспособностью произвести смысл.
Бостром называет это «извращенным исполнением», тогда как философы ИИ описывают эту проблему в целом термином «упорядочивание целей».
Это так называемая moral rightness model.
Особенно в этом захватывающем дух пассаже: «Можно предположить, что медлительность и нерешительность прогресса человечества в деле решения многих „вечных проблем“ философии обусловлена непригодностью коры головного мозга человека для философской работы» (sic!).
Тегмарк доводит эту иллюзию до конца, предлагая понятие «substrate independence», «независимость от субстрата»: наше сознание, получается, является простым устройством, сетью, независимой от всякого материального субстрата, а потому может воспроизводиться в бесконечном числе форм.
См., например: Jirak D. et al. Grasping Language – A Short Story on Embodiment // Consciousness and Cognition. 2010. Vol. 19. № 3.
См. особенно его последнюю работу: Damasio A. L’Ordre étrange des choses. Odile Jacob, 2017.
Damasio A. Spinoza avait raison. Odile Jacob, 2014.
Спиноза Б. Этика. Часть 2. Теорема 7. Схолия // Его же. Сочинения в 2‐х т. СПб.: Наука, 1997. Т. 1. С. 294.
См. основополагающую статью по этому вопросу: Bonnefon J.-F., Shariff A., Rahwan I. The Social Dilemma of Autonomous Vehicles // Science. 2016. Vol. 352. № 6293.
В духе старой «проблемы вагонетки», сформулированной Филиппой Фут в 1960‐х годах.
Это знаменитая «сложная проблема сознания», поставленная философом Дэвидом Чалмерсом, для которой пока не найдено общего решения.
Спиноза Б. Этика. Часть 2. Теорема 27 // Собрание сочинений в 2‐х т. Т. 1. С. 311.
Kurzweil R. How to Create a Mind. Viking, 2012.
Здесь я воспроизвожу делёзовскую интерпретацию, представленную, в частности, в его работе «Спиноза: практическая философия».
Спиноза Б. Этика. Часть 3. Теорема 2. С. 339.
См.: Hoffmann M., Pfeifer R. The Implications of Embodiment for Behavior and Cognition: Animal and Robotic Case Studies // Implications of Embodiment / ed. by W. Tschacher, C. Bergomi. Imprint Academic, 2012.
URL: https://www.ibmbigdatahub.com/blog/embodied-cognitionfuture-ai.
Делёз Ж. Логика смысла. Серия 12. «О парадоксе».
Эта встреча основана на «Рассуждении о методе», «Трактате о человеке» и «Страстях души».