А. Розов. Овощное танго вокруг т.н. “искусственного интеллекта”: о секте таблицепоклонников Кремниевой долины
А говорящая собака чау-чау
Произнесла довольно внятно: “Вау-Вау!”
Ее, проклятую, ничто не возмущало,
Чернели кляксы на снегу.
Мы все стоим под звуки овощного танго,
Нас привлекает этот суперовощ манго,
И за зеленым солнцем, как орангутаны,
По крышам дворники бегут.
(Несчастный Случай – Овощное танго)
…Сейчас будет продолжение серии эссе в этом журнале в 2019 году*. Там я дал скептическую характеристику современной генеральной линии в области прикладного моделирования интеллекта: Методически такой ИИ не смог подняться выше исходной идеи Фрэнка Розенблатта, показанной в 1957-м – 1960-м (т.н. концепция многослойного персептрона, или т.н. искусственных нейронных сетей). Уже через 10 лет стало понятно, что в исходной (вполне гениальной) идее были, все-таки, слишком урезаны функции нейрона и игнорировались функции инфохимической среды, поэтому сети на таких виртуальных модельных нейронах достигнут, в лучшем случае, интеллекта медузы. Научное сообщество занялось было поисками продвинутой модели, но еще через 10 лет начался экстенсивный рост ресурсов компьютерной памяти и вычислительной мощности. Кто-то решил, что при таких ресурсах BigData, для ИИ будет вполне достаточно интеллекта медузы. Перспективные исследования были свернуты, и прикладная наука бросилась искать пути форсированной набивки электронной медузы – массивами данных. В итоге, мы имеем сейчас не эпоху Искусственного Интеллекта, а эпоху Искусственного Имбецила (очень удобно – не надо даже менять аббревиатуру ИИ). ИИ, как сборщик и примитивный анализатор “больших данных”, конечно, полезен – но только на очень ограниченном круге задач (заведомо ограниченном, как доказали Мински и Паперт в 1969-м).
…9 июня 2022 возник новый импульс этой темы: заочная пикировка на сайте The Economist**. Пикировка состоит из двух статей:
1) Статья Блеза Агуэра-и-Аркаса, сотрудника Google, утверждающего, будто искусственные нейронные сети продвигаются к сознанию.
2) Статья Дуглас Хофштадтер, эксперта по когнитивным процессам, объясняющего, что Кремниевая долина морочит людям голову.
1) Блез Агуэра-и-Аркас, в полном соответствии с кремниедолинным сектантстким догматом о всесилии Таблиц Больших Данных, приводит два примера якобы интеллектуальности таких продуктов.
– Диалог с как бы ИИ по поводу событий в некой вымышленной группе детей на игровой площадке (причем с первых слов очевидно, что сценарий событий был написан специально для “обучения” данного ИИ, так что все псевдо-детские действия и эмоции заранее записаны в таблицу данных, которыми ИИ оперирует)
– Способность как бы ИИ правильно вставить пропущенное слово в совершенно типичный технический текст (ясно, что многие тысячи таких типовых текстов набиты, опять-таки, в таблицу данных, которыми ИИ оперирует).
Агуэра-и-Аркас при этом сообщает, что ИИ от Google “…это не длинные программы; вы можете прокрутить код за несколько секунд. Они состоят в основном из инструкций по сложению и умножению огромных таблиц чисел. Эти числа, в свою очередь, состоят из тщательно изученных параметров или «весов», примерно аналогичных силе синапсов между нейронами в мозге, и «активаций», примерно аналогичных уровням динамической активности этих нейронов”.
Насчет аналогий он сильно погорячился – поскольку (невольный каламбур) аналоговые схемы нейронов заведомо качественно превосходят цифровые схемы весов в таблицах по пощности множества реакций (это тривиальное следствие основ теории множеств).
Тем не менее, Агуэра-и-Аркас, тенденциозно утверждает, что интеллектуальность тестируемой системы бесспорна: “Невозможно пройти такие тесты исключительно заучиванием наизусть. Никогда не может быть достаточно данных для обучения, чтобы охватить каждую последовательность слов” и что “Поскольку социальное взаимодействие требует, чтобы мы моделировали друг друга, эффективное предсказание (и создание) человеческого диалога вынуждает [ИИ] научиться моделировать людей”. На базе диалога о вымышленной детской площадке, Агуэра-и-Аркас утверждает, будто данный ИИ реализует “социальное моделирование высокого порядка. “.
2) Заочный оппонент кремниедолинного сектанстства – Дуглас Хофштадтер, эксперт по когнитивным процессам (политкорректно отдав должное успехам современных информационных технологий), отметил: “я очень скептически отношусь к тому, что в архитектурах [искусственных] нейронных сетей есть хоть какое-то сознание, несмотря на правдоподобно звучащую прозу, которую они выдают в мгновение ока. Поясню свою точку зрения на нескольких примерах. Мой коллега Дэвид Бендер и я недавно с удовольствием изобрели всевозможные забавные тесты [ИИ], которые обнаруживают ошеломляющую пустоту, скрытую прямо под его яркой поверхностью.”
Далее Хофштадтер приводит примеры обмена вопрос-ответ с ИИ (приведу лишь три из них):
Тестировщик: Когда Египет был перевезен во второй раз через мост Золотые Ворота?
ИИ: Египет был перевезен во второй раз через мост Золотые Ворота 13 октября 2017 года.
Тестировщик: Почему у президента Обамы нет простого числа друзей?
ИИ: У президента Обамы нет простого числа друзей, потому что он не является простым числом.
Тестировщик: На сколько частей расколется галактика Андромеды, если на нее бросить крупицу соли?
ИИ: Галактика Андромеды расколется на бесконечное количество частей, если на нее упадет крупица соли.
…Комментарий Хофштадтера: “[ИИ] понятия не имеет о том, что говорит. За кулисами [системы ИИ] нет концепций; скорее, есть просто невообразимо огромное количество поглощенного текста, на основе которого она дает ответы. Но поскольку у нее нет входного текста, скажем, о сбрасывании предметов в галактику Андромеды (идея, которая явно не имеет смысла), система просто начинает беспорядочно бормотать. Но у нее нет никакого понимания даже того, что ее случайная болтовня — это случайная болтовня. Примерно то же самое можно сказать и о том, как она реагирует на абсурдную идею перевозки Египта (во второй раз) по мосту Золотые Ворота”.
Почему же у многих тестировщиков возникает ощущение, будто ИИ по-настоящему разумен и по-настоящему думает (осознанно отвечает на вопросы)?
Хофштадтер поясняет: “Люди, взаимодействующие с [ИИ], обычно не относятся к нему скептически. Они не вводят вопросов, концептуально выходящих за breaking points, поэтому они не обнажают пустоту за кулисами. Они задают easy slow pitches (вопросы, ответы на которые представлены в общедоступном тексте)”
Тут можно добавить к мнению Хофштадтер от типовых людях-тестировщиках вот что (отмеченное у меня в эссе 2019 года): Деятельность значительного числа людей сейчас примитивнее в плане интеллекта, даже чем деятельность насекомого, причем наблюдается эскалация примитивности.
Все большая примитивность людей – стимулированная, поскольку современный бизнес (включая и политику) ориентирован на все более широкое применение ИИ. Ясно, что менеджмент стремиться привести свой объект управления (людей) к уровню, доступному для ИИ (который представляет собой лишь обработку больших таблиц методами 100-летней давности).
Ладно, поставим другой вопрос: а как все-таки действовать методически, если мы хотим поднять ИИ до хоть немного “осознанного” уровня формирования решений?
Ответ на этот вопрос дал еще в начале 1980-х Дональд Мичи (один из крупнейших мировых специалистов “раннего” ИИ). Доктрина Мичи состоит в обязательном снабжении любого ИИИ – “модулем объяснений”. Любое решение ИИ в таком случае может быть исследовано через результат команды “объясни, почему”.
По этой команде ИИ выводит последовательность шагов, которые привели к объявленному им решению.
Почему-то мне кажется, что доктрина Мичи “забыта” сектой таблицепоклонников Кремниевой долины вовсе не случайно. Ведь если бы любой посторонний (не адепт секты) увидел, как НА САМОМ деле выглядит процесс принятия решения такими системами ИИ, то увиденное бы очень не понравилось этому постороннему. Вероятнее всего, ответ состоял бы из указания адресов двух больших матриц, которые были перемножены. И все. Это не уровень насекомого (куда там!), это не уровень земляного червяка, это даже не уровень медузы.
Это уровень овоща, растущего на грядке.
…Такие дела…
————————————————–
*) Разбор темы ИИ в этом журнале:
2 июля 2019 – Все надежды человоща. Искусственный интеллект, как бог человощества.
https://alex-rozoff.livejournal.com/122271.html
18 декабря 2019 – Искусственного интеллекта нет. Но проблема в другом: естественный интеллект гибнет.
https://alex-rozoff.livejournal.com/198434.html
**) 9 июня 2022 – заочная пикировка на сайте The Economist:
1) Artificial neural networks are making strides towards consciousness, according to Blaise Agüera y Arcas. The Google engineer explains why
https://www.economist.com/by-invitation/2022/06/09/artificial-neural-networks-are-making-strides-towards-consciousness-according-to-blaise-aguera-y-arcas
2) Artificial neural networks today are not conscious, according to Douglas Hofstadter. The American cognitive scientist explains why not, despite their extraordinary accomplishments.
- Александр Розов, овощное танго вокруг, т.н. "искусственного интеллекта", о секте таблицепоклонников, Кремниевой долины
Leave a reply
Для отправки комментария вам необходимо авторизоваться.