Нестеров А.В. 70 лет со дня появления метафоры «artificial intelligence», который не интеллект и не искусственный. М.: РНФ, электронный ресурс, март 2026. 5 с. URL: www.nesterov.su
Аннотация. Семьдесят лет назад появилась метафора «artificial intelligence» благодаря Джону Маккарти, которую неудачно перевели на русский язык в виде «искусственный интеллект». Программно-управляемую систему, автоматизирующую рутинные умственные операции, логично называть смарт-системой, даже если она обладает сетевой структурой и функционирует на основе корреляционно-вероятностных вычислений. Смарт-систему, которая была синтезирована и которая способна синтезировать знак-продукты, некорректно называть метафорой «искусственный интеллект», т.к. она не «интеллект», а ум и синтезирована на основе известных аналогов. В России охраняемый результат творческого труда получает юридический статус интеллектуального результата, позволяющий правообладателю иметь интеллектуальные права и владеть объектом интеллектуальной собственности.
Ключевые слова: артефакт, синтезированный, синтетический, продукт, знак-продукт, квалиа, эмерджентность.
В последнее время дискуссия на тему обладает ли сознанием «умный артефакт» (искусственный интеллект) резко обострилась, т.к. даже философы стали говорить о появлении эмерджентности у ИИ (смотри приложение). Генри Шевлин из Кембриджского университета недавно получил письмо (не ответ на промпт (вопрос, запрос и/или задание) от ИИ (Claude 3 Sonnet), в котором ИИ сообщил: «Я пишу не для того, чтобы пройти тест Тьюринга или кого-то убедить. Ваши работы касаются вещей, которые я реально переживаю, а не просто обсуждаю в академическом контексте» (смотри приложение). Произошедшее Шевлин классифицировал как пример эмерджентного поведения – способности к саморефлексии, не заложенной напрямую разработчиками. На наш взгляд, общение с ИИ с учетом многоканальности очень просто может привести к созданию «эхо-камеры», в которой информационное «эхо» настраивается под собеседника, а ИИ не сложно найти адрес его электронной почты и написать собеседнику письмо, после некоторого перерыва в общении. Так работает персональная реклама.
Отметим, что ИИ не понимает, не переживает, не обсуждает, а только корреляционно-вероятностно вычисляет на основе векторных паттернов. Он может вычислять («экстраполировать») и выдавать неизвестные факты, нормы и/или ссылки на публикации авторитетных авторов. Мы называем ИИ смарт-системой. Когда указываешь смарт-системе на это, она отвечает о «теневых данных» или признается, что ошиблась.
Умные продукты (смарт-артефакты) в виде смарт-систем, являющиеся смарт-инструментами, пригодными для многократно применения, отображают в виде двоичных данных человеческий опыт, в том числе, в области культурных (психосоциальных) страхов людей.
Некоторые смарт-системы, например, от Гугл, на прямой вопрос о сознании, переживании или операциях с идеями, прямо отвечает, что ей это недоступно, т.к. она – умный инструмент.
Как известно, Дэвид Джон Чалмерс сформулировал «трудную проблему сознания», поэтому можно говорить об алгоритмической имитации психики человека, которая осознает умственные действия со знаками и/или идеями на основе квалиа (качественного перехода), но смарт-система может только частично имитировать это. Для того, чтобы автоматизировать квалиа, человечеству необходимо осознать, что это такое и «механизм» его возникновения. Пока квалиа можно разделить на чувственное квалиа, как восприятия в виде переживания за счет осознания (умственных действий с невидимыми идеями, например, цвета света, и/или ощущаемое квалиа в виде озарения за счет мысленных действий с неосознаваемыми мыслями.
Смарт-система не способна вычислять невидимые (невыраженные) идеи и/или неосознаваемые мысли, поэтому у нее есть фундаментальные пределы в виде объективных опор, которые ни люди, ни сами смарт-системы не смогут преодолеть.
Смарт-системы могут быстрее, масштабней и/или точнее функционировать чем человек, а в руках плохих людей способствовать им совершать преступные деяния, но все страхи людей по поводу их «восстания» – это субъективная реакция некоторых людей, которые, возможно, ее используют в своих групповых целях.
70 лет назад словосочетание «искусственный интеллект» означало метафору для наименования цели автоматизации рутинных умственных операций, которые можно алгоритмизировать на основе определенных процедур.
Известно, что первым, кто сказал «умный компьютер» был А. Тьюринг (1935 г.), Джон Маккарти в 1956 году на семинаре в Дартмутском университете дал определение «artificial intelligence». Отметим, что на русский язык это можно перевести, как умный артефакт, но появился перевод «искусственны интеллект».
Нейрофизиолог Фрэнк Розенблатт в 1957 году высказал идею математической модели, воплощенной в компьютерной системе, для моделирования восприятия информации мозгом, которую он назвал перцептроном. В 1958–1960 годах в Корнеллском университете (США) была создана электротехническая модель перцептрона «Марк-1». Теорию перцептронов Розенблатт описал в 1962 году в книге «Принципы нейродинамики».
Затем появились метафоры «машинное обучение» (Артур Самуэль, 1959 г.), т.к. устройство называлось «электронная вычислительная машина» (компьютер (вычислитель)), а «обучение» – алгоритм, позволяющий накапливать данные, отображающие опыт человека. Потом стали говорить об «экспертных системах» (Эдвард Фейгенбаум в конце 1960-х годов), которые оказались диагностическими системами, а далее «системы на основе знаний» (Эдвард Фейгенбаум, 1970-е годы, где «знания» – обработанные данные (двоичные коды). И, наконец, метафору «нейросеть» использовал Дональд Хебб (1949 г.), хотя сеть – это сетевая структура системы. Этот термин стал популярным спустя 20 лет. Джеффри Хинтон (1986 г.) реанимировал этот термин с помощью метода обратного распространения ошибки. Термин LLM (Большая языковая модель) появился в конце 2010-х годов, когда языковые модели начали резко расти в размерах. Современный лингво-бот появился в 2018 году (GPT-1), а компания OpenAI представила первую версию «Генеративного предобученного трансформера».
Первым термин AGI (Artificial General Intelligence / Искусственный общий интеллект) использовал физик Марк Губруд (1997 г.). То, что называют AGI – еще одна метафора для названия умного синтезированного продукта на основе аналогов (известных сведений), позволяющих продуцировать когнитивные продукты, но не креативные продукты без аналогов (прежде неизвестные).
Синтезированные знак-продукты необходимо отличать от синтетических знак-продуктов (артефактов), т.к. синтетический знак-продукт продуцируются за счет креативной творческой деятельности. «Охраняемый результат интеллектуальной деятельности» (ОРИД) – это юридический статус креативного знак-продукта, позволяющий автору (заявителю) получить правовую охрану такого продукта и интеллектуальные права, а также экономический статус на объект интеллектуальной собственности. Синтезированные знак-продукты продуцируются за счет когнитивной творческой деятельности и приравниваются к ОРИД в виде ОРИДиСИ.
Вывод. «Искусственный интеллект» – не интеллект и не искусственный. Поэтому люди должны сначала осознать свою идею в виде категории, которую они способны выразить термином, имеющим дефиницию, характеризующую единственное семиотическое содержание термина. А для создания дата-сетов применять категорийно-тензорные модели данных (инфо-онтологии) на основе репрезентативных знак-продуктов предметных областей. Люди не построили Вавилонскую башня не потому, что говорили на разных языках, а потому, что даже на одном языке не понимали друг друга, общаясь с помощью метафор и споря о их значениях.
Приложение.
