Сказки роботов через 60 лет: как делаются большие деньги на регулировании несуществующего ИИ
Когда в 1984 был издан обзор “The Creative Computer. Machine intelligence and human knowledge” (Donald Michie), 1984, перевод: “Компьютер – творец” (Дональд Мичи), 1987. – уже были созданы и обкатаны на компьютерах все ныне известные модели ИИ., включая сети Хопфилда – методическую основу нынешнего GPT.
К 2023 году в теоретических разработках по ИИ ничего не изменилось, но в миллион раз увеличился объем таблиц шаблонов, которые можно хранить в памяти модели попугаеобразного – имитатора интеллекта. На таком субстрате вырос ИИ-алармизм.
В этом журнале мониторинг ИИ-алармизма/GPT-алармизма* начался сразу после публикации истеричного открытого письма на сайте Future of Life Institute от 28 марта 2023. Pause Giant AI Experiments: An Open Letter. We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4 (Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо. Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4.)
В виду серьезного публичного веса подписантов и их массовости – возникла резонная гипотеза, что речь идет о подготовке очередного большого бизнеса на страхах политиков. Что же касается самих страхов, то насчет них возникло две версии:
1) Политики боятся утратить монополию государств и окологосударственных кругов на заливку целенаправленного “прилипающего”/”вирусного” вранья в мозги обывателей, что нарушит отработанную “демократическую” процедуру.
2) Политики боятся, что десятки миллионов единиц офисного планктона (составляющих примитивные шаблонные отчеты или простые компьютерные коды) потеряют оплачиваемую работу, что вызовет социальные волнения.
Теперь подтвердились обе версии**.
Уже выделяются деньги на блокирование обоих возможных эффектов “законным” путем под предлогом “этики”.
Что же касается самого “искусственного интеллекта” (в т.ч. GPT) появилось два материала, объясняющие, что его нет.
Во-первых, это статья группы ученых Стэнфорда, разбирающая иллюзию “разумности” ИИ, вызванную генерацией привычных “челвоеческих” шаблонов и подтасовками со стороны разработчиков.
Во-вторых, это издевательское объяснение Стива Возняка (одного из подписантов письма 28 марта): «Хотите узнать, как ИИ может убить вас — покупайте Tesla».
Текст: А. Розов
- Сказки роботов через,60 лет как,делаются большие деньги,на регулировании несуществующего,ИИ
Leave a reply
Для отправки комментария вам необходимо авторизоваться.